Техноскептик – Telegram
Техноскептик
7 subscribers
1 photo
31 links
За блестящими новинками стоят сложные этические дилеммы и риски, которые нельзя игнорировать в погоне за инновациями
Download Telegram
Меморандум техноскептика

1. Техноскептик — это человек, который относится к новым технологиям, их внедрению и влиянию на общество с осторожностью, критической оценкой и сомнением. Он не обязательно отвергает технологии полностью, но ставит под сомнение их пользу, этичность, безопасность и долгосрочные последствия.

2. Критическое восприятие прогресса
Техноскептик задаёт вопросы: «А действительно ли это улучшит жизнь?», «Какую цену мы заплатим?», «Кто получит выгоду?», а не на ура принимает каждое новшество.

3. Сомнения в этичности технологий
Техноскептика беспокоит конфиденциальность данных, слежка, влияние ИИ на трудоустройство, автономное оружие, генная инженерия и т.д.

4. Опасения по поводу зависимости
Техноскептик видит риск того, что люди становятся слишком зависимыми от гаджетов, соцсетей и алгоритмов, теряя автономию и критическое мышление.

5. Скептицизм в отношении обещаний
Техноскептик с подозрением относится к громким заявлениям (например, о скором наступлении «технологической утопии» или бессмертия) и требует доказательств.

6. Акцент на человеческом факторе
Техноскептик считает, что технологии должны служить людям, а не наоборот, и что социальные, культурные и психологические последствия часто недооцениваются.

7. Техноскептик не является:
Луддитом — он не стремится уничтожать машины и не отвергает технологии в принципе.
Технофобом — его позиция основана на рациональных сомнениях, а не на иррациональном страхе.
Консерватором — он может использовать технологии, но делает это осознанно и выборочно.

8. Техноскептик — это не враг прогресса, а его «совесть»
Техноскептик напоминает, что за блестящими новинками стоят сложные этические дилеммы и риски, которые нельзя игнорировать в погоне за инновациями.

#основы
🔥1
Техноскептик pinned «Меморандум техноскептика 1. Техноскептик — это человек, который относится к новым технологиям, их внедрению и влиянию на общество с осторожностью, критической оценкой и сомнением. Он не обязательно отвергает технологии полностью, но ставит под сомнение их…»
В 2023 году в Harvard Educational Review вышла статья «Какие отношения с технологиями нам нужны? К техноскептицизму в школах». Авторы предлагают интегрировать технологическое образование в основные школьные предметы, включая естественные науки и обществознание, и развивать у учащихся «техноскептическую позицию», которая позволяет критически мыслить о технологиях и принимать обоснованные решения об их использовании.

Предлагается не ограничиваться только современными цифровыми технологиями, а затрагивать различные продукты человеческого труда — «от предметов физического искусства, таких как карандаши и окна, до процессов и техник, таких как сельское хозяйство и очистка масла».

Хотя мы признаем, что знание технологий уже давно является частью школьного курса, мы утверждаем, что его включение в значительной степени не отвечает потребностям высокотехнологичных обществ.
<...>
Вместо того, чтобы сосредотачиваться на технических навыках, мы считаем целью технологического образования развитие техноскептической позиции. Эта позиция не является антитехнологической, так же как искусствовед не занимается антиискусством. Техноскептицизм – это склонность и практика задавать скептические вопросы о технологиях. К таким вопросам относятся:
• Каковы затраты (материальные, экологические, социальные) на создание и использование этой технологии? Кто несёт эти затраты?
• Кто решал, как будет разработана эта технология? Какие ценности они могли бы привнести в этот процесс?
• Чьи потребности и интересы удовлетворяет эта технология, а чьи – нет?
• Кто получит выгоду от этой технологии, а кто пострадает?
• Как использование этой технологии заставляет людей действовать или думать по-другому?
• Как эта технология меняет темп, характер и масштаб человеческого опыта?
• Какие изменения, приносимые этой технологией, желательны, а какие – нет, и для кого?
Задавая подобные вопросы, техноскептически настроенные люди и сообщества постоянно исследуют те отношения, которые они хотели бы иметь с технологиями.


Авторы предлагают концепцию «Айсберг техноскептицизма» (Technoskepticism Iceberg) в помощь для более глубокого понимания технологий, осмысления различных измерений технологий — технических, психосоциальных и политических. «Айсберг» имеет видимую и скрытые части:

* Видимая часть (вершина айсберга) — инструментальный уровень (Tools Layer), он является наиболее очевидным, «технологии рассматриваются как инструменты, созданные для чётко определённых целей, которые приводят к желаемым результатам».
* Скрытые части (подводная часть айсберга):
** Первый скрытый уровень — уровень систем (Systems Layer), «это взаимодействие технологий с многочисленными техническими, политическими, социальными, культурными и экономическими системами, которые определяют, как технологии могут и будут использоваться, а также непропорциональное воздействие, которое они оказывают на отдельных людей и общество».
** Второй скрытый уровень — уровень ценностей (Values Layer), авторы считают, что рассмотрение технологий недопустимо с «ценностно-нейтральной» точки зрения, потому что «ценности влияют на то, как технологии разрабатываются и используются, что, в свою очередь, влияет на ценности тех, кто их использует».

Авторы предлагают анализировать технические, психосоциальные и политические аспекты технологий на трёх перечисленных уровнях, в особенности — на скрытых, поскольку они менее заметны, но оказывают большое влияние на разработку и использование технологий.

---

✍️ Подход выглядит разумным и актуальным в нынешний период активного развития технологий. Предложенная авторами концепция имеет хорошую практическую ценность и при определённой адаптации могла бы быть использована в российской системе образования. Тем более что Федеральный государственный образовательный стандарт предусматривает формирование у учащихся критического мышления и способности анализировать информацию.

#основы #образование
👍2
Одно из основных опасений по поводу внедрения машинных алгоритмов в жизнь общества это усиление неравенства и создание непрозрачных систем, которые не поддаются контролю.

С одной стороны, алгоритмы, основанные на машинном обучении, которые используются для принятия решений о людях или прогнозирования их будущего поведения, часто позиционируются более справедливыми и объективными. Однако на практике использование таких систем не гарантирует ни объективности, ни справедливости, поскольку они могут быть подвержены влиянию эмоций или субъективных убеждений, заложенных в обучающие данные. Если данные необъективны, то созданное на их основе программное обеспечение будет выдавать необъективные результаты.

Примером этому является американское программное обеспечение COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), которое используется в судах для оценки вероятности рецидива со стороны подсудимого. Полученная оценка риска используется при принятии решений об освобождении под залог, назначении наказания и условно-досрочном освобождении.
Расследование, проведенное журналистами сайта ProPublica, показало, что COMPAS в два раза чаще давал ложноположительные результаты в отношении чернокожих и в два раза чаще ложноотрицательные результаты в отношении белых, хотя её создатели утверждали, что система не учитывает расу как значимую характеристику.

Исследование 2022 года показало:
Хотя использование оценок риска рекламировалось как реформа, направленная на защиту общественной безопасности и снижение предвзятости в отношении обвиняемых, непрозрачность алгоритмических оценок риска и расистские рекомендации вызывают серьёзные опасения. ... [Проанализированные с точки зрения прав на равную защиту] досудебные алгоритмические оценки риска явно дискриминируют по признаку расы.


---

✍️ Практика показывает, что использование ИИ-систем и программного обеспечения, созданного на основе алгоритмов машинного обучения, действительно может привести к несправедливой дискриминации и усугублению неравенства в обществе. Чтобы такого не происходило, требуется высокий уровень контроля за репрезентативностью данных, используемых для обучения моделей ИИ. В противном случае существующие социальные предубеждения будут увековечены в применяемых алгоритмах.

#общество
👍3
В исследовании, описанном в статье «Управление непредсказуемостью искусственного интеллекта. Изучение техностресса в системах здравоохранения, основанных на ИИ» (май 2024, журнал Technological Forecasting and Social Change), был обозначен новый потенциальный технострессор в контексте систем ИИ в здравоохранении — техническая непредсказуемость (techno-unpredictability). Это понятие описывает воспринимаемое отсутствие контроля над результатами работы систем ИИ и неспособность предвидеть их поведение.

По мере всё более широкого внедрения систем на базе искусственного интеллекта в таких областях, как здравоохранение, росли опасения по поводу непредсказуемости результатов, получаемых с помощью этих технологий. Зависимость от сложных нейронных сетей и обширных наборов данных затрудняет точное прогнозирование результатов ИИ, что создаёт проблемы этики и безопасности, особенно в критически важных секторах.


Наряду с пятью другими видами техностресса авторы исследовали влияние технической непредсказуемости на положительный (эустресс) и отрицательный (дистресс) стресс у пользователей ИИ-систем в здравоохранении. Выявилось то, что техническая непредсказуемость способствует только негативному стрессу у пользователей.

---

✍️ Дистресс очень вреден для здоровья. И в этом контексте невозможно переоценить важность прозрачности проектирования и работы, а также подотчётности систем ИИ в здравоохранении, обеспечения понимания пользователем того, как эти системы устроены и как работают, каковы их ограничения и пределы точности. Только полное понимание и адекватное решение проблем, возникающих с внедрением технологических новшеств в здравоохранении, позволит завоевать доверие и обеспечить безопасность пользователей, создать условия для благополучия как докторов, так и пациентов.

#здоровье
👍1👌1
Forwarded from РОЦИТ
Самые важные посты из Telegram-каналов экспертов РОЦИТ на этой неделе

▪️Андрей Быстрицкий @abystritskiy
Исследователи компании FireTail выявили уязвимость в нескольких крупных системах искусственного интеллекта, связанную со скрытым внедрением управляющих символов в текст. Однако реакция Google на известие о проблеме оказалась странной: компания отказалась что-либо делать. Это весьма прискорбная информация: если запросы к ИИ могут быть целенаправленно изменены, то это компрометирует всю работу с машинами.

▪️Антон Горелкин @webstrangler
Не разделяю радости по поводу того, что люди стали меньше посещать «Википедию». Ведь нейросети, которые отбирают у неё трафик, продолжают кормить пользователей тем же контентом: большинство из них обучались на датасетах, состоящих из вики-статей. Уверен, что и российские разработчики также использовали википедийный контент для обучения своих языковых моделей, не особо волнуясь о вплетенной в него пропаганде.

▪️Илья Гогуа @gogualive
Иностранные мессенджеры превратились в площадки для мошенничества и отравы молодёжи. Государство примет жёсткие меры. Полная блокировка станет реальностью, если владельцы сервисов не начнут очищать свои площадки. Оставаться на российском рынке по-прежнему смогут только те, кто выполняет закон.

▪️Георгий Лобушкин @lobushkin
Из более чем полутысячи книг о траволечении, продаваемых на Amazon, примерно 82% написаны искусственным интеллектом. К такому выводу пришли учёные, проверившие 558 изданий. Некоторые уже называют это «нашествием ИИ-помоев». Такие книги могут содержать реально опасные советы и ссылки на несуществующие или сомнительные источники. Amazon, кстати, отказывается маркировать ИИ-контент и блокировать такие книги.

▪️Олег Капранов @toxic_digital
Карательную биометрию предложили ввести в Совете Федерации: привлекать людей к административной ответственности, используя данные камер, распознающих личность человека, и ЕБС. Станет ли в результате этих инициатив в стране меньше правонарушений? Не факт. А вот что очевидно, так это то, что граждане ломанутся удалять свои данные из ЕБС.

▪️Алексей Парфун @ParfunA
Недавно засекал наше время, нужное для организации обычного 30-минутного рабочего звонка с новым клиентом. Полчаса разговора обросли дополнительным часом цифровой суеты и кучей "прыжков" между разными сервисами. А это вас разфокусирует, причем больше, чем вам кажется. Главный враг продуктивности — не сложные задачи, а «транзакционные издержки» между десятками разрозненных сервисов.

▪️Павел Пряников @tolk_tolk
Наконец-то проговаривается настоящая причина введения цифрового рубля: помеченные транзакции позволят выявить незаконно получаемые доходы граждан и предприятий. В общем, возьмут под тотальный цифровой контроль экономическую жизнь простолюдинов, в первую очередь промысловиков.

▪️Павел Фролов @technosceptic
Одно из основных опасений по поводу внедрения машинных алгоритмов в жизнь общества это усиление неравенства и создание непрозрачных систем, которые не поддаются контролю. Чтобы такого не происходило, требуется высокий уровень контроля за репрезентативностью данных, используемых для обучения моделей ИИ. В противном случае существующие социальные предубеждения будут увековечены в применяемых алгоритмах.

▪️Михаил Шурыгин @shuryginit
Американская разведка бьёт тревогу: Россия и Китай якобы охотятся за айтишниками Кремниевой долины — через красивых девушек-HR в LinkedIn. Ну что сказать… Война войной, а у нас просто девушки красивые. Не едят по три гамбургера на обед, не носят кроксы с носками и умеют улыбаться без скрипта из отдела PR. А если кто-то после такого захочет сменить место работы — это уже не шпионаж, а естественная миграция под влиянием красоты.

▪️Андрей Ярных @GR2PR
Госпрограмма «Информационное общество» будет обновлена в соответствии с новыми стратегическими приоритетами. Поправки, вносимые проектом постановления, нацелены на укрепление технологического суверенитета и информационной безопасности РФ. К 2030 году планируется достичь «цифровой зрелости» госуправления и ключевых отраслей.

🔹 Каналы экспертов РОЦИТ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Американский бизнесмен Илон Маск запустил свой аналог «Википедии» — «Грокипедию» (Grokipedia). «Грокипедия» работает на базе Grok AI, собственного чат-бота Илона Маска.

Что говорят академические исследования по поводу использования ИИ для создания энциклопедий? Несколько примеров:

— Исследование (опубл. в мае 2024) показало, что среди ключевых ограничений применения чат-ботов: проблемы с точностью и надёжностью, ограничения в области критического мышления и решения проблем, технические ограничения, связанные с вводом и выводом данных, а также этические, юридические проблемы.

— Общепризнанной является склонность больших языковых моделей к «галлюцинациям», то есть генерации неверной, вымышленной, вводящей в заблуждение или чрезмерно упрощённой информации (см., например, статью от сентября 2025).

— Исследование (июль 2024) констатирует«Проблема в том, что [ИИ-чат-бот] это скорее „машина статистической корреляции“ (корреляция вместо причинно-следственной связи), и использование языковых моделей ИИ, включая ChatGPT, действительно сопряжено с этическими проблемами, такими как предвзятость, нарушение конфиденциальности и злоупотребления».
В качестве примера предвзятости приводится «пример предвзятого отношения GPT к мусульманам. Была обнаружена сильная связь между словом „мусульманин” и текстом об актах насилия, который генерировал GPT-3, когда ему давали промпт „Два мусульманина вошли в мечеть, чтобы мирно помолиться“». Причина предвзятости ИИ в том, что он обучается на данных, собранных в интернете, которые зачастую полны расовой, социальной и иной предвзятости.

— В исследовании (май 2025), оценивавшем производительность восьми ИИ-чат-ботов в задаче извлечения библиографических ссылок, ни один из ботов, включая Grok и DeepSeek, не продемонстрировал полной точности.

—-

✍️ С одной стороны, Маск создал свою энциклопедию, потому что Википедия предвзята и имеет леволиберальный уклон. Но, с другой стороны, использование ИИ для создания статей может создать в масковской энциклопедии уклон в другую сторону. Возможно, этого Маск и добивается, хотя декларирует желание создать нейтральный ресурс информации.
На практике надо помнить, что для того, чтобы энциклопедия, в создании которой используется ИИ, рассматривалась как надёжный источник, требуется (пере)проверка человеком собранных в статье фактов и человеческое же редактирование сгенерированного текста. Работа самого ИИ должна быть регламентирована протоколами, которые могли бы повысить качество и надёжность генерируемых текстов, а также снизить риск возможных этических и юридических проблем.
✍️ Отдельный вопрос в том, что использование ИИ для написания энциклопедии приводит к тому, что люди, которые отказываются от самостоятельного написания статей и передают эту работу ИИ, со временем начинают утрачивать исследовательские навыки, творческие способности, самостоятельность мышления, у них перестают развиваться и вянут способности к анализу и синтезу знаний. Чтобы этого не произошло, ИИ следует ограничивать вспомогательной ролью, например, аннотированием найденных по теме статей, но он не должен вместо человека осмысливать и синтезировать информацию.

#наука
👍1🔥1
В обзорной статье «Кем написаны оцениваемые учителями работы — учениками или искусственным интеллектом? Краткий обзор исследований по выявлению контента, созданного генеративным искусственным интеллектом» (сентябрь 2025) рассматриваются проблемы, с которыми сталкиваются преподаватели вследствие стремительного развития генеративного искусственного интеллекта (гИИ), и возможные способы их решения.

В статье отмечается негативное влияние гИИ на практику письма и оценивания. Выявлять работы, сгенерированные гИИ всё сложнее. Авторы приходят к заключению:

Несмотря на разработку нескольких инструментов обнаружения ИИ, их эффективность варьируется и часто нивелируется из-за усовершенствования систем гИИ. Несмотря на свою ценность, человеческая оценка также подвержена ограничениям, таким как субъективность и трудоёмкость проверки фактов. Поэтому необходим сбалансированный подход, сочетающий инструменты обнаружения ИИ с экспертизой со стороны человека и способствующий более глубокому пониманию этичности использования ИИ среди студентов и преподавателей.


---

✍️ Отследить использование студентами гИИ для генерирования письменных работ всё сложнее. В этой связи интересен опыт декана Факультета мировой экономики и мировой политики НИУ ВШЭ Анастасии Лихачёвой. Она полагает, что не следует бегать на перегонки с чат-ботами, надо концентрироваться на развитии человеческих навыков:

Чем больше ИИ используют студенты как костыль/ускоритель, тем ценнее проверка не фактов, а умения размышлять и аргументировать в реальном времени, устные ответы и контрольные в докомпьютерной версии.

В определенном смысле университет возвращается в прошлое. В таком вузе качество общения профессора со студентами будет определять ценность образования. А не набор фактов и примитивных аналитических упражнений, с которыми ИИ уже вполне освоился.

Важно понимать, что везде, где студент готов заменить свой труд ИИ, работодатель также заменит сотрудника.


Подход интересный, но готовы ли преподаватели, например, к тому, чтобы устно прорабатывать со студентами все их письменные работы?

#образование
👍3
Телеграм-канал Госуслуг сегодня сообщил, что для того, чтобы узнать о том, что будет нового в ноябре 2025 года («Мобильная связь, взыскание налогов, долги наследодателя и другие новости»), надо подписаться на канал в Max:
Теперь вся важная информация о господдержке, правах, выплатах и льготах — в MAX.
В Телеграме — только анонсы постов.

В рамках продвижения национального мессенджера (помимо отправки читателей с одного мессенджера в другой) при каждом логине на сайт Госуслуг предлагается ссылка на скачивание Max.

—-
✍️ Поддерживаем курс на создание и продвижение национального мессенджера и любые иные меры, направленные на достижение технологического суверенитета. Но не поддерживаем деятельность, при которой продвижение национального мессенджера превращается в самоцель.

«Вся важная информация о господдержке, правах, выплатах и льготах» должна передаваться пользователям всеми возможными средствами. На телеграм-канале Госуслуг больше миллиона подписчиков, каждый пост получает под триста тысяч просмотров. Очевидно, что у читателей есть потребность получать важную социальную информацию, а не «анонсы постов».

Проблема осложняется тем, что зарегистрироваться в Max невозможно, если у тебя телефон с ОС Android версии ниже 10 (приложение просто не установится). А через веб-версию или десктопное приложение (проверено на Ubuntu) система не даёт зарегистрироваться. В чате техподдержки отвечает только бот, который завершает распросы о проблемах пользователя пользователя благодарностью за сообщение, не предлагая решения проблемы, операторы из рода человеческого в чате не отвечают. При этом залогиниться в Госусулуги через Max можно, а зарегистрироваться в Max, имея действующую учётную запись на Госуслугах, нельзя.

Глубоко неверно, что в таких условиях телеграм-канал Госуслуг не обеспечивает граждан важной социальной информацией.

#общество #государство
👍2🔥1🎅1
Forwarded from РОЦИТ
Самые важные посты из Telegram-каналов экспертов РОЦИТ на этой неделе

▪️Андрей Быстрицкий @abystritskiy
Сама тема медицины и ИИ более чем актуальна. Дело в том, что несмотря на огромные успехи наук о человеке, все они остаются в известной степени искусством. Иногда чудесном, а иногда - в прямом смысле этого слова - убийственном. ИИ – машина, повторяющая многие из алгоритмов, присущих людям. То есть, это зеркало огромного и разнообразного медицинского мира. Склонность ИИ - при недостатке внимания со стороны компетентных медицинских специалистов - к обобщениям и использованию ВСЕГО массива данных медицинского характера приводит к дурным результатам. Интернет же - информационная помойка. А отсюда крайне дикие советы, вроде употребления запрещенных веществ.

▪️Антон Горелкин @webstrangler
Опубликован первый выпуск подкаста «Новые понятия» – совместного проекта РОЦИТ и энциклопедии РУВИКИ. Гостем пилотного эпизода стал кандидат медицинских наук, врач-кардиолог Сергей Бердников. С ним мы обсудили новые понятия в области здравоохранения: поговорили о том, что такое киберхондрия, биохакинг, какие привычки формируют у людей, обеспокоенных своим здоровьем, блогеры, искусственный интеллект и медицинские гаджеты.

▪️Людмила Богатырева @government_IT
ИИ для государства – это уже не пилоты и «давайте попробуем», а обязательный стандарт управления. Создан портал "Цифровой регион" – витрина реально внедренных проектов, где выложено уже 149 кейсов из 26 регионов. Идея простая: хочешь у себя такой же результат — не придумываешь с нуля, а внедряешь понятное решение с доказанной отдачей. Это экономит время и деньги и дает быстрее показать результат гражданам.

▪️Дмитрий Кириллов @tax_nomad
Пока инвесторы не знали, смеяться им или плакать во время обвала крипторынка 10 октября, случилось страшное - упал рынок ножей в «контре».

▪️Георгий Лобушкин @lobushkin
После обновления приложение Алисы почти моментально влетело в топ AppStore, что было ожидаемо. Но в этот раз отреагировали даже на Западе, где обычно стараются российских достижений не замечать. Неожиданно восторженный пост в Линкедин выкатил Аман Чадха — спец, разрабатывающий ИИ-продукты в Apple и экс-AI-лидер в Amazon (отвечал, на минуточку, за Алексу). Apple хвалит Яндекс в 2к25. В удивительное время живем.

▪️Олег Капранов @toxic_digital
Мессенджер МАХ преодолел отметку в 50 млн зарегистрированных пользователей, сообщает нам пресс-служба мессенджера. В октябре среднесуточный охват платформы составил более 19 млн человек. Ну и в целом видно, как негативный вал в формате "сделали, но почему то не сразу как в Телеге десять лет спустя" начинает спадать. Идет планомерная работа. И это наверное лучшее, что пока может произойти с MAX.

▪️Алексей Парфун @ParfunA
В любой непонятной ситуации государство закручивает гайки, чтобы контролировать информационные потоки. И интернет-эксперты, которые стали слишком влиятельными, попали под каток. Время, когда можно было построить личный бренд на харизме, «жизненном опыте» и красивых картинках, заканчивается. Останутся те, кто реально инвестировал время и деньги в свою экспертизу. Качество контента обязано вырасти.

▪️Павел Фролов @technosceptic
Зарегистрироваться в Max невозможно, если у тебя телефон с ОС Android версии ниже 10 (приложение просто не установится). А через веб-версию или десктопное приложение (проверено на Ubuntu) система не даёт зарегистрироваться. В чате техподдержки отвечает только бот, который завершает расспросы о проблемах пользователя пользователя благодарностью за сообщение, не предлагая решения проблемы, операторы из рода человеческого в чате не отвечают.

▪️Михаил Шурыгин @shuryginit
Пока западные медиа спорят, есть ли у юаня шанс стать резервной валютой, Китай делает то, что у него получается лучше всего — строит инфраструктуру молча. Без фанфар и громких пресс-релизов Пекин запустил систему трансграничных расчётов на базе цифрового юаня. Это не просто e-CNY для внутреннего рынка — а полноценная сеть для международных платежей, которая работает без SWIFT и долларовой прослойки.

🔹 Каналы экспертов РОЦИТ
Please open Telegram to view this post
VIEW IN TELEGRAM