howtocomply_AI: право и ИИ – Telegram
howtocomply_AI: право и ИИ
1.33K subscribers
229 photos
4 videos
6 files
313 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Исследование политик допустимого использования базовых моделей ИИ

Друзья, в праздники я немного приболел, но уже возвращаюсь с новым постом. Недавно Кевин Клайман из Stanford HAI опубликовал пост, в котором сравнил политики допустимого использования базовых моделей 30 ведущих компаний-разработчиков.

Данные политики распространены в сфере информационных технологий и определяют условия и ограничения для пользователей по использования продуктов и услуг. В случае с моделями ИИ политики допустимого использования в том числе помогают разработчикам уменьшить риски наступления негативных последствий, которые связаны с техническими недостатками и особенностями продуктов (предвзятости, дезинформация, галлюцинации и т.п.).

Как правило, политики либо размещаются отдельно, либо включаются в другие документы, такие как, например, пользовательские соглашения или лицензионные договоры.

Помимо рассматриваемых политик, отдельные ограничения по использованию моделей могут включаться и в другие документы, такие как политики поведения моделей, карточки моделей, политики API, договоры с третьими лицами (например, поставщиками облачных услуг или данных). С технической стороны негативные последствия использования моделей уменьшаются за счет их настройки и использования обучения на основе отзывов от человека или ИИ (RLHF, RLAIF).

К посту прикрепляю скриншоты, на которых можно увидеть примеры по всем 30 компаниям, а также таксономию ограничений.

Также можно сделать несколько общих выводов:

- пока что не существует единого подхода к набору и содержанию политик, которые должны публиковать компании. Соответственно, их содержание достаточно сильно разнится, как и сценарии запрещенного использования;

- законодательством данный вопрос регулируется достаточно скудно. Например, Китайские Временные меры по управлению генеративными системами ИИ устанавливают перечень запрещенных сценариев использования систем и моделей ИИ, но не регламентируют необходимость разработки отдельной политики. Проект Регламента ЕС об ИИ устанавливает необходимость публикации соответствующей политики для поставщиков моделей ИИ общего назначения. В США данный вопрос является предметом добровольного отраслевого саморегулирования;

- запрет отдельных сценариев использования моделей ИИ имеет отрицательные последствия в виде ограничения развития отдельных отраслей и использования моделей исследователями.
55
В ЕС начал действовать ИИ-Пакт

В мае в ЕС начал действовать ИИ-Пакт, направленный на то, чтобы помочь бизнесу подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ. Пакт был запущен в ноябре 2023 года (писал об этом тут). С этого момента более 550 компаний выразили желание в нем участвовать.

Пакт состоит из двух основных элементов:

Первый элемент включает обмен информацией между органами ЕС и бизес-сообществом, который призван содействовать в подготовке к соблюдению требований грядущего Регламента. Для этого AI Office будет проводить разъяснительные мероприятия, а также собирать и публиковать лучшие практики.

Второй элемент предполагает поддержку бизнеса со стороны органов ЕС в поэтапном добровольном принятии обязательств по выполнению требований Регламента до того, как они станут общеобязательными. AI Office также будет обобщать и публиковать соответствующую практику.

ВАЖНО: 16 мая AI Office проведет первый вебинар по разъяснению положений проекта Регламента ЕС об ИИ. На нем будут рассмотрены основные подходы к управлению рисками.
6
Курс по AI Governance от RPPA

Друзья, я присоединился в качестве преподавателя на курс AI Governance, который проводит Russian Privacy Professionals Association.

Курс поможет за несколько месяцев интенсивно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов. В этом поможет крайне профессиональный состав преподавателей.

В рамках курса я прочитаю лекцию об основах нормативного правового регулирования в сфере разработки и применения систем ИИ в США, КНР и России.

Более подробно с программой можно ознакомиться по ссылке.
🔥4411
Обновления по проекту регламента ЕС об ИИ

Сегодня Евросовет одобрил проект Регламента ЕС об ИИ. Это фактически знаменует собой переход к последней стадии правотворческого процесса.

Далее акт будет подписан председателями Европарламента и Евросовета и опубликован в официальном источнике в ближайшее время.

После публикации Регламент вступит в силу по истечении двадцати дней. Напомню, что для целого ряда положений установлен двухлетний переходный период.
👍443
Индекс прозрачности фундаментальных моделей ИИ

Группа из восьми исследователей, представляющих университеты Стэнфорда, MIT и Принстона, опубликовала Индекс прозрачности фундаментальных моделей ИИ. Предыдущий аналогичный индекс был опубликован в октябре 2023 года.

В этом году авторы исследовали отчеты о прозрачности 14 компаний-разработчиков ИИ по 100 параметрам. В прошлом году параметры были те же, но компаний исследовалось 10.

За шесть месяцев можно отметить следующие изменения:

- увеличились средние (58) и высшие баллы (85 из 100). Это на 21 балл лучше, чем в октябре 2023 года;

- высший балл вырос на 31 пункт, а низший – на 21. Все восемь разработчиков, которые участвовали в обоих индексах, улучшили свои показатели;

- разработчики стали более активно публиковать отчеты о прозрачности. Сами отчеты стали более подробными и содержательными.
52👍2
Frontier Safety Framework от Google Deepmind

Исследователи из Google Deepmind опубликовали первую версию Frontier Safety Framework, направленную на выявление и митигирование будущих рисков, которые потенциально могут возникнуть при появлении более продвинутых моделей ИИ.

Фреймворк призван дополнить уже разработанные подходы компании по созданию безопасного и ответственного ИИ, а также выравниваю ценностей и задач между человеком и ИИ. К началу 2025 года предполагается его окончательно доработать и начать использовать в полной мере.

Фреймворк состоит из трех основных частей:

- выявление опасных возможностей моделей ИИ. Для этого предполагается исследовать, каким минимальным уровнем возможностей должна обладать модель ИИ, чтобы быть способной причинить вред. Начиная с этого минимального порога, исследователи выделяют уровни критических возможностей (Critical Capability Levels, CCL), которые определяют подход к оценке и уменьшению рисков. Эти уровни определяются по четырем областям: автономности, биобезопасности, кибербезопасности и исследований и разработок в области машинного обучения. Каждому уровню корреспондирует набор мер по общей безопасности моделей ИИ и их развертыванию;

- периодическая оценка существующих моделей компании на достижение критических уровней возможностей. Для этого предполагается выработать критерии оценки моделей, которые буду способны предупреждать разработчиков о достижении ими критического уровня возможностей (early warning evaluations);

- применение плана уменьшения вредных последствий в том случае, если модель прошла оценку раннего предупреждения. Соответствующие меры будут направлены в первую очередь на безопасность (предотвращение утечки моделей) и развертывание (предотвращение неправильного использования критических возможностей).
43
В Японии выпустили руководство по ИИ для бизнеса

Несколько японских министерств в апреле выпустили первую версию Руководства для бизнеса в сфере ИИ.

Руководство рассчитано на разработчиков, поставщиков и бизнес-пользователей систем и моделей ИИ.

Документ условно можно разбить на три части:

- терминология. Тут интересного мало. Терминология во многом взята из стандартов ISO и документов ОЭСР;

- принципы использования ИИ для бизнеса. Из Социальных принципов человеко-ориентированного ИИ 2019 года взяты три базовых философских принципа (достоинство личности, разнообразие и инклюзивность, устойчивое развитие), а также на основе международных документов сформулированы десять более конкретных принципов и описаны шаги для бизнеса по их имплементации (расписаны на скриншоте);

- конкретные рекомендации для разработчиков, поставщиков и бизнес-пользователей. Большинство этих рекомендаций также взяты из международных документов, но не будет лишним еще раз по ним пробежаться.
53👍1
Еврокомиссия определилась со структурой компетентного органа в сфере ИИ

Вчера Еврокомиссия опубликована пресс-релиз, в котором содержится информация о внутренней структуре European AI Office. Орган начал действовать в составе Еврокомиссии с февраля этого года. Подробнее писал об этом тут.

Также известный нам по инсайдам о проекте Регламента ЕС об ИИ журналист Лука Бертуцци опубликовал в своем Линкедине пост о персональном составе руководства органа.

Возглавлять орган будет Руководитель AI Office, который будет работать вместе с советником по науке и советником по международным вопросам.

Руководителем стала Лучилла Сиоли, которая ранее работала на лидирующих позициях, связанных с ИИ, внутри Еврокомиссии.

AI Office будет состоять из пяти структурных подразделений:


Отдел по нормативному регулированию и комплаенсу (Regulation and Compliance Unit), который будет координировать единообразное применение Регламента ЕС об ИИ в странах-членах и участвовать в расследованиях возможных нарушений;

Отдел по вопросам безопасности ИИ (Unit on AI safety), специализирующийся на выявлении системных рисков, связанных с использованием передовых моделей ИИ, а также на разработке подходов к оценке и тестированию систем и моделей ИИ;

Отдел передового опыта в области ИИ и робототехники (Excellence in AI and Robotics Unit), который буде поддерживать передовые исследования и обеспечивать обмен опытом. Подразделение будет координировать инициативу GenAI4EU (направлена на внедрение моделей ИИ в ключевые секторы экономики);

Отдел по использованию искусственного интеллекта в интересах общества (AI for Societal Good Unit) будет координировать международное сотрудничество в таких областях, как применение ИИ для моделирования погоды, диагностика рака, создания цифровых двойников для реконструкции зданий;

Отдел координации инноваций и политики в сфере ИИ (AI Innovation and Policy Coordination Unit ), который будет отвечать за реализацию стратегии ЕС в сфере ИИ, стимулировать внедрение ИИ через сеть европейских центров цифровых инноваций и создание фабрик ИИ, а также содействовать развитию инновационной экосистемы путем создания регуляторных песочниц и иных тестовых зон.

Для обеспечения работы в AI Office предполагается принять на работу более 140 сотрудников (конечно, будут и юристы). Пока вакантными являются более 80 позиций. Можно попытать удачу тут.

В своей деятельности AI Office будет сотрудничать вместе с Европейским советом по ИИ (European Artificial Intelligence Board), состоящим из представителей государств-членов, Научной группой независимых экспертов (Scientific Panel of independent experts) и Консультативным форумом (Advisory Forum), представляющем интересы стейкхолдеров.
43
Набор данных о законодательстве и органах ЕС в сфере цифровых инноваций

Исследователи из аналитического центра Bruegel представили сегодня набор данных о законодательстве и органах на уровне ЕС, занимающихся вопросами регулирования отношений в сфере цифрового пространства.

Документ состоит из двух частей:

- существующее законодательство в цифровой сфере и проекты НПА с ходом их движения в рамках правотворческого процесса;

- правительственные и неправительственные органы на уровне ЕС, компетентные в сфере цифровых инноваций.

Уверен, что у большинства коллег, кто профессионально занимается данной сферой, уже были похожие базы знаний в ноушене или экселе 👀, но сверить часы не помешает никому.
Please open Telegram to view this post
VIEW IN TELEGRAM
52