Robocounsel – Telegram
Robocounsel
1.92K subscribers
242 photos
17 videos
78 files
615 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
PRESS-CAIDP-OpenAI-FTC-Complaint.pdf
605.5 KB
ОпенЭйАй подозревают в нарушении прав потребителей

Американская некоммерческая организация (НКО) "Центр по ИИ и цифровой политике" подала жалобу на компанию в Федеральную торговую комиссию (ФТК) США. В жалобе утверждается, что ОпенЭйАй при выводе на рынок продукта ГПТ-4 нарушила руководящие документы ФТК и требования федерального законодательства о защите прав потребителей.

Ссылаясь на карточку продукта, опубликованную самой компанией, НКО утверждает, что компания вводит потребителей в заблуждение, а продукт имеет множественные недостатки, в том числе в части кибербезопасности, и представляет угрозу для неприкосновенности частной жизни и общественной безопасности.

В связи с этим заявитель просит открыть в отношении ОпенЭйАй расследование и приостановить обращение её продуктов на рынке.
👍5🤔3
Вперёд в прошлое: "демократизация" ИИ, которой не произошло

Какая ирония! 2016 год, Альтман (гендиректор ОпенЭйАй) берёт интервью у Маска (тогда сооснователя). И задаёт ему вопрос про развитие ИИ.

Маск отвечает (11:41), что основной риск в том, что разработка ведущих ИИ-продуктов будет монополизирована лидерами рынка. Именно поэтому нужно движение в обратную сторону: "демократизация" доступа к разработкам в области ИИ.

Это, как вы понимаете, было одним из мотивов создания ОпенЭйАй... превратившегося нынче в одного из тех самых монополистов-лидеров рынка, закрывшего от публики и исследователей свою новейшую разработку тотчас же после появления реальных перспектив её монетизации.
👍10
Robocounsel
Почему призыв остановить разработку новых языковых моделей не имеет смысла Вы могли заметить, что недавно появилось письмо с призывом на полгода заморозить "гонку ИИ-вооружений" — приостановить разработку больших языковых моделей более сложных, чем ГПТ-4.…
Давайте пока не будем бомбить ЦОДы

Письмом Future of Life с призывом на полугодовой (как минимум) глобальный мораторий на разработку новых ИИ-систем "мощнее ГПТ-4" дело не окончилось.

Со своей, ещё более радикальной позицией выступил и господин Юдковский.

Переквалифицировавшись (я надеюсь, временно) из специалиста по ИИ-безопасности в эксперта по глобальной политике и вооружениям, господин Юдковский призвал срочно закрепить тот же мораторий на международном уровне и под угрозой бомбардировок любых центров обработки данных, где будет замечено обучение человековраждебного ИИ.

При этом он подчеркнул, что от таких ударов нельзя отказываться даже если страна, в которой это происходит, будет готова нанести ответный ядерный удар по "защитникам человечества". Потому что защита от ИИ важнее.

С учётом такого накала страстей было невозможно не написать статью.
😁6🤔2
Robocounsel
CIPP/E — ваш пропуск для работы с персональными данными в Европе А у меня отличные новости — полку сертифицированных по CIPP/E специалистов по работе с персональными данными прибыло. Моя подписчица Ксения успешно сдала экзамен, и написала мне сегодня: "Александр…
Кто не успел, тот ещё может успеть

Хотя с 1 апреля цена доступа к руководству по подготовке к CIPP/E увеличилась до 3000 рублей, вы ещё можете сэкономить. Обратитесь к своим знакомым — всем, кто уже приобрёл руководство, я по запросу выдаю личные промокоды на скидку для их знакомых и друзей.

Если таких знакомых у вас нет — спросите в нашем чате.

Если у вас на это нет времени, просто приобретайте доступ здесь, по ссылке ниже.
3
Британский подход к регулированию ИИ

На истекшей неделе британское правительство опубликовало доклад, описывающий их подход к регулированию применения искусственного интеллекта.

Был выбран вариант, при котором регуляторные полномочия делегированы существующим отраслевым органам. Этим органам на первоначальном этапе предлагается в добровольном порядке рассмотреть общие принципы регулирования, предложенные правительством. В перспективе, исходя из плана законодательной работы, эти общие принципы также будут обсуждены в парламенте и закреплены в законе.

Также опубликована оценка регулирующего воздействия. Исходя из неё, рассматривались следующие варианты:

Вариант 0 - "Ничего не делать". Основан на предположении, что ЕС примет Регламент об искусственном интеллекте в первоначальной редакции от апреля 2021 года. Великобритания не принимает никаких нормативных требований в отношении ИИ.

Вариант 1 - Делегировать полномочия существующим отраслевым органам, которым будет рекомендовано следовать принципам, предлагаемым правительством. Мягкий вариант, при котором существующие отраслевые органы реализуют межотраслевые принципы в рамках своих полномочий.

Вариант 2 - Делегирование полномочий существующим отраслевым органам, которые будут обязаны следовать принципам, установленным правительством, при поддержке национального регулятора (Выбранный вариант). Новые обязательства для предприятий самим правительством не устанавливаются.

Вариант 3 - Централизованное регулирование с новыми законодательными требованиями к применению ИИ. Великобритания создает новый орган по централизованному регулированию ИИ и устанавливает для предприятий обязательные требования, гармонизированные с требованиями Регламента ЕС об ИИ.
👍3
Опрос для работающих в сфере образования

Коллега в связи с подготовкой магистерской работы проводит опрос по поводу этики, возможностей и рисков использования генеративного ИИ в образовании.

Если вам интересно поучаствовать и вам есть, что сказать, присылайте свой адрес эл. почты на @robocounsel_bot с пометкой Education.

Анкета на английском.
👍2
Проектируемая оспоримость автоматизированных решений

Юристам, работающим с персональными данными, уже известен родственный этому термин.

Это конструктивная, или проектируемая, совместимость с требованиями законодательства о персональных данных.

Если используемая вами информационная система обрабатывает персональные данные, но спроектирована без учёта требований закона — у вас могут быть проблемы. Вы уже можете нарушать закон.

Несколько лет назад я развил эту идею, предложив и вместе с коллегами сформулировав для систем искусственного интеллекта более широкий принцип — принцип их проектируемого соответствия закону:

Применение системы искусственного интеллекта не должно — заведомо для разработчика — приводить к нарушению правовых норм.

То, что благодаря именно моему вкладу в разработку текста Концепции регулирования ИИ, этот принцип в 2020 году стал частью правовой системы России — я считаю одним из моих главных жизненных достижений.

Производным от этого принципа является принцип оспоримости автоматизированных решений.

Он означает, что всякое автоматизированное решение, влияющее на права и интересы граждан, должно быть объяснимо и понятно.

Причём в такой степени, чтобы у человека была реальная возможность подсветить и оспорить (в суде или другом органе) любые неточности и ошибки в данных или логике, на основе которых принято решение.

Потому что если у человека уже есть по закону право оспорить какое-то решение другого человека, органа или организации, это право на оспаривание не может магически исчезать после того, как вместо человека то же решение станет принимать ИИ.

Соответственно, за счёт этого принципа, необъяснимые системы типа "чёрный ящик", к сожалению для их жаждущих лёгкой прибыли разработчиков, и к счастью для всех нас, никогда не смогут быть использованы ни в суде, ни полицией, ни каким иным органом, который решает судьбы людей.

Статья коллег развивает научную дискуссию на эту тему и поможет в правоприменении по будущему Регламенту ЕС об ИИ, который уже содержит принцип объяснимости.
👍20👏32
Мета меняет основание обработки данных на законный интерес

Такие правила будут действовать для пользователей Фейсбука и Инстаграма, находящихся в Евросоюзе, начиная с 5 апреля, сообщает компания.

По данным источников Уолл-Стрит Джорнел, эти пользователи через специальную форму смогут заявить возражение, при удовлетворении которого компания перестанет обрабатывать их персональные данные для показа индивидуализированной рекламы. В этом случае реклама будет индивидуализироваться на основании более широких категорий, таких как возрастная группа и примерный регион проживания.

Ранее компания обрабатывала персональные данные пользователей для индивидуализированной рекламы на основании договора (пользовательского соглашения), однако эта практика была признана незаконной надзорным органом по жалобе прайваси-активистов из NOYB.

Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
🔥8
Robocounsel
Почему судью нельзя заменить большой языковой моделью Судя по соцсетям, не все это понимают, поэтому объясню. Начнем с того, что общее соображение о том, что большие языковые модели не способны заменить ничего стоящего в нашей жизни (хотя могут улучшить…
Cнова про Сёрля, семантику и синтаксис

У меня есть хороший приятель, которого вдохновляет, насколько ГПТ-4 лучше справляется с некоторыми его задачами по сравнению с ЧатГПТ.

Он один из тех, кто видит в этих языковых моделях «зарождающиеся искры разума».

Для меня проблема в том, что это статистические машинки, которые умеют в синтаксис (форму), но не умеют в семантику (смыслы). Они могут только имитировать мышление.

В «Китайской комнате» Сёрля человек, который по инструкции и на основе одних иероглифов на входе научен выдавать на выход другие иероглифы, не научится понимать значение этих иероглифов. То же самое и с языковыми моделями.

Это не означает, как верно отмечает Флориди, что статистический анализ в некоторых задачах не может заменить мыслительный процесс.

Как мы видим на практике – может. Мой другой хороший приятель говорит, что некоторые чиновники напоминают ему ЧатГПТ на зарплате.

Проблема лишь в том, что эти системы не помогут там, где нужно проникать в смыслы и оперировать именно ими, где недостаточно просто вызубрить синтаксис.

Поэтому самый интересный вопрос – насколько много у нас в жизни таких задач, где потенциально, со временем, мышление и работу с семантикой нельзя заменить имитацией мышления в виде статистики, опирающейся на синтаксис.

Оптимисты, посмотрев на ГПТ-4, скажут, что таких задач как минимум меньше, чем мы могли думать раньше. Скептики скажут, что основные ценности и фундаментальные для нас вещи – именно и только в таких задачах. Как я аргументировал раньше, отправление правосудия – одна из таких (несводимых к статистическому анализу и синтаксису) задач.

Возможно, вы захотите дополнить этот список в комментариях, или даже представить свои возражения.
🔥11👍4🤔2
ЧатГПТ и ответственность за распространение недостоверной информации

Через 15 минут, в 14:45 по МСК, в эфире Коммерсант ФМ мой комментарий по теме. Первый сюжет после новостей.

Подключайтесь
8👍1
ГПТ-4 может помочь улучшить юридическую технику

Наверное, не у меня одного вызывает раздражение низкое качество юридической техники новейших поправок в российское законодательство.

Километровые абзацы из одного предложения — мягко говоря, неудобны для прочтения и понимания.

Гораздо лучше, когда текст правовой нормы хорошо структурирован, и отдельные её элементы всегда остаются короткими и понятными.

Дэмиен Риль показывает, как языковые модели типа ГПТ-4 могут нам с вами помочь сделать законодательство более удобным и понятным.

Обратите внимание, что английские законы (например, CDPA 1988 года, второй скриншот), например, уже гораздо ближе к идеалу, хотя и писались безо всякого ГПТ-4.

P.S. Пример на русском в комментариях.
🔥10👍3
Статья Михаила Ярошевского из Литературной газеты 1952 года — любопытный артефакт.

С одной стороны — стилистика, идеологический уклон и акценты сообразны эпохе и тому контексту, в котором жил автор.

С другой стороны — некоторые нарративы, касающиеся последствий замены людей машинами, дисбаланса сил в обществе, экономике и политике — те же, что будоражат умы и сегодня.

Полный текст в распознанном виде

Источник и комментарий об авторе
🔥7👍3
Чем могу быть полезен

Хотел напомнить о том, как мы с вами можем быть друг другу полезны.

Я — один из ведущих экспертов по цифровой политике и регулированию ИИ и данных в Европе, экс-спецсоветник по цифровому развитию Совета Европы, экс-старший менеджер Делойт Лигал. Был коммерческим юристом в АБС Электро и Сименсе, работал над законопроектами в Сколково. Разработал проекты актов регулирования ИИ и данных для России и Киргизии, предложения по изменениям в акты ООН и ЮНСИТРАЛ.

Сейчас я консультант, ментор, спикер и публицист. Мои комментарии в блогах или рассылку в Линкдине читают тысячи людей, среди которых топ-менеджеры крупнейших технологических компаний мира, чиновники из США, ЕС и органов государственной власти России и стран СНГ.

Вы можете прямо сейчас:
1) привлечь меня как эксперта на ваши проекты, записаться ко мне на консультацию, менторство или просто встречу (через сайт или через бота),
2) пригласить в качестве модератора, спикера или организатора для вашего мероприятия по ИИ, предложить иные варианты сотрудничества (также через сайт или через бота),
3) записаться на ближайший вебинар (рус. или англ.) по ответственному применению ИИ в бизнесе (практические советы без воды),
4) приобрести доступ (за рубли, за евро) к руководству по сдаче экзамена CIPP/E (сертификация для работы с персональными данными в ЕС),
5) подписаться на платный канал Robocounsel Plus с дополнительным контентом и доступом к изучению фреймворков риск-менеджмента для ИИ-систем.
🔥10👍54
Robocounsel pinned a photo
Когда ваше имя совпадает с именем голосового помощника

Алекса — это не только голосовой помощник Амазона. В некоторых странах "Алекса" — нередко встречающееся имя.

Проблема для носительниц этого имени (и созвучных ему) в том, что Амазон на сегодня не позволяет перенастроить своего голосового помощника на другой "позывной". В результате, где бы эти люди или их собеседники ни оказывались поблизости с продукцией Амазон, любой разговор, в том числе видеоконференция, с упоминанием их имени вызывает ложные срабатывания их и чужих амазоновских устройств, неудобства и раздражение.

Кроме того, некоторые из Алекс жалуются на то, что на любом новом рабочем месте они сразу же сталкиваются с утомительно высоким уровнем шуток, обыгрывающих это совпадение. Некоторые в результате даже меняют имя.

В результате, Алексы и сочувствующие им объединились, чтобы попробовать изменить политику компании, которую они считают неэтичной.

Однако пока компания остаётся непреклонной.
👍5🌚5😁31😢1
ЮНСИТРАЛ обсуждает автоматизацию договоров и стандартные условия предоставления данных

На этой неделе в качестве приглашённого эксперта принимаю участие в 65-й сессии IV рабочей группы ЮНСИТРАЛ.

Обсуждаются возможные поправки в Конвенцию ООН об электронных сообщениях и предложения по модельным законам и иным актам ЮНСИТРАЛ в части стандартных положений договоров на предоставление данных и автоматизированного заключения договоров, в том числе с применением ИИ.

С коллегами из Центра международных и сравнительно-правовых исследований дали свои предложения на рабочие документы сессии (я — в части автоматизированного заключения договоров и применения ИИ).

Материалы ЮНСИТРАЛ и наши предложения доступны здесь.

А на полях сегодняшнего заседания, в обед (по Нью-Йорку), коллеги из Киргизии будут презентовать проект нового Цифрового кодекса республики, для которого я разработал главу по системам искусственного интеллекта.
👍15🔥3
Галлюцинируют ли андроиды об электродиффамации?

Уместно ли применение к ним реактивных установок Стросона, а к речевым деликтам — теории речевых актов Остина?

И зачем Ксеркс потребовал высечь море, а австралийский мэр — ЧатГПТ?

Обо всём этом моё ночное письменное.
🔥4👍2
Последний шанс записаться на мой завтрашний вебинар по ответственному генеративному ИИ на английском (напишите, если хотите поучаствовать, но оплата в евро вам недоступна).

А в понедельник выступаю на индийском форуме C20/G20 по проблеме этики и управления рисками ИИ-систем.

Кстати, если хотите вместе изучать фреймворки, благодаря которым предприятия могут не на словах, а на деле управлять этими рисками, вступайте в наше закрытое сообщество. Пишите на @robocounsel_bot.
🔥53
США могут решиться на федеральное регулирование ИИ

Администрация Байдена во вторник начала консультации по вопросу возможного регулирования на федеральном уровне для систем искусственного интеллекта, сообщает Рейтер.

Напомню, что ранее Администрация полагалась на добровольные стандарты и саморегулирование.

Означает ли это возможную поддержку исполнительной властью затихшей парламентской инициативы по Algorithmic Accountability Act 2019 года (переизложенной в 2022 году), либо Администрация думает о собственном проекте нормативного акта, пока не ясно.

Поводом для возможной смены позиции, вероятно, стали новые скандалы и озабоченности вокруг недавно взлетевших в популярности новых продуктов генеративного ИИ общего назначения.
👍4
Вчера провёл первый в истории вебинар по ответственному использованию генеративного ИИ (ChatGPT, Midjorney, и т.п.).

Дал рекомендации, как не обжечься на этих инструментах, если вы предприниматель или менеджер, и чему нужно обязательно научить ваших сотрудников. Как не подставить своего работодателя или клиента, если вы работаете по найму или в консалтинге. Как правильно выбрать рабочие юзкейсы, если вы сами делаете ИИ-стартап. На что обратить внимание в продукте и команде, если вы инвестор.

Если пропустили, то ближайшая дата для следующего шанса на русском - 21 апреля (пятница), на английском - 28 апреля (тоже пятница). Проходите по ссылкам, регистрируйтесь заранее.

Если нужны групповые скидки, удобные другие даты или адаптированный под вас контент - напишите мне, организуем.

Отзывы:

Наталья Вьюркова:
"Очень понравилось то, что информация была подана структурировано и системно. Много примеров, четкая логика🔥"

Хольгер Цшайге:
"Судя по моей ленте LinkedIn, в эти дни все целыми днями носятся с генеративным ИИ (да-да, все это связано с работой, конечно 😉). Как говорится, это все веселье и игры, пока кто-то не наступит на реальные "грабли". Если вы используете или планируете использовать генеративный ИИ в корпоративной среде, послушайте, что говорит Александр Тюльканов о том, как ответственно использовать ИИ. Я знаю его уже несколько лет, он знает, о чем говорит, и стал одним из ведущих известных мне экспертов по этике ИИ."
🔥81