Исследование политик допустимого использования базовых моделей ИИ
Друзья, в праздники я немного приболел, но уже возвращаюсь с новым постом. Недавно Кевин Клайман из Stanford HAI опубликовал пост, в котором сравнил политики допустимого использования базовых моделей 30 ведущих компаний-разработчиков.
Данные политики распространены в сфере информационных технологий и определяют условия и ограничения для пользователей по использования продуктов и услуг. В случае с моделями ИИ политики допустимого использования в том числе помогают разработчикам уменьшить риски наступления негативных последствий, которые связаны с техническими недостатками и особенностями продуктов (предвзятости, дезинформация, галлюцинации и т.п.).
Как правило, политики либо размещаются отдельно, либо включаются в другие документы, такие как, например, пользовательские соглашения или лицензионные договоры.
Помимо рассматриваемых политик, отдельные ограничения по использованию моделей могут включаться и в другие документы, такие как политики поведения моделей, карточки моделей, политики API, договоры с третьими лицами (например, поставщиками облачных услуг или данных). С технической стороны негативные последствия использования моделей уменьшаются за счет их настройки и использования обучения на основе отзывов от человека или ИИ (RLHF, RLAIF).
К посту прикрепляю скриншоты, на которых можно увидеть примеры по всем 30 компаниям, а также таксономию ограничений.
Также можно сделать несколько общих выводов:
- пока что не существует единого подхода к набору и содержанию политик, которые должны публиковать компании. Соответственно, их содержание достаточно сильно разнится, как и сценарии запрещенного использования;
- законодательством данный вопрос регулируется достаточно скудно. Например, Китайские Временные меры по управлению генеративными системами ИИ устанавливают перечень запрещенных сценариев использования систем и моделей ИИ, но не регламентируют необходимость разработки отдельной политики. Проект Регламента ЕС об ИИ устанавливает необходимость публикации соответствующей политики для поставщиков моделей ИИ общего назначения. В США данный вопрос является предметом добровольного отраслевого саморегулирования;
- запрет отдельных сценариев использования моделей ИИ имеет отрицательные последствия в виде ограничения развития отдельных отраслей и использования моделей исследователями.
Друзья, в праздники я немного приболел, но уже возвращаюсь с новым постом. Недавно Кевин Клайман из Stanford HAI опубликовал пост, в котором сравнил политики допустимого использования базовых моделей 30 ведущих компаний-разработчиков.
Данные политики распространены в сфере информационных технологий и определяют условия и ограничения для пользователей по использования продуктов и услуг. В случае с моделями ИИ политики допустимого использования в том числе помогают разработчикам уменьшить риски наступления негативных последствий, которые связаны с техническими недостатками и особенностями продуктов (предвзятости, дезинформация, галлюцинации и т.п.).
Как правило, политики либо размещаются отдельно, либо включаются в другие документы, такие как, например, пользовательские соглашения или лицензионные договоры.
Помимо рассматриваемых политик, отдельные ограничения по использованию моделей могут включаться и в другие документы, такие как политики поведения моделей, карточки моделей, политики API, договоры с третьими лицами (например, поставщиками облачных услуг или данных). С технической стороны негативные последствия использования моделей уменьшаются за счет их настройки и использования обучения на основе отзывов от человека или ИИ (RLHF, RLAIF).
К посту прикрепляю скриншоты, на которых можно увидеть примеры по всем 30 компаниям, а также таксономию ограничений.
Также можно сделать несколько общих выводов:
- пока что не существует единого подхода к набору и содержанию политик, которые должны публиковать компании. Соответственно, их содержание достаточно сильно разнится, как и сценарии запрещенного использования;
- законодательством данный вопрос регулируется достаточно скудно. Например, Китайские Временные меры по управлению генеративными системами ИИ устанавливают перечень запрещенных сценариев использования систем и моделей ИИ, но не регламентируют необходимость разработки отдельной политики. Проект Регламента ЕС об ИИ устанавливает необходимость публикации соответствующей политики для поставщиков моделей ИИ общего назначения. В США данный вопрос является предметом добровольного отраслевого саморегулирования;
- запрет отдельных сценариев использования моделей ИИ имеет отрицательные последствия в виде ограничения развития отдельных отраслей и использования моделей исследователями.
❤5 5
В ЕС начал действовать ИИ-Пакт
В мае в ЕС начал действовать ИИ-Пакт, направленный на то, чтобы помочь бизнесу подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ. Пакт был запущен в ноябре 2023 года (писал об этом тут). С этого момента более 550 компаний выразили желание в нем участвовать.
Пакт состоит из двух основных элементов:
Первый элемент включает обмен информацией между органами ЕС и бизес-сообществом, который призван содействовать в подготовке к соблюдению требований грядущего Регламента. Для этого AI Office будет проводить разъяснительные мероприятия, а также собирать и публиковать лучшие практики.
Второй элемент предполагает поддержку бизнеса со стороны органов ЕС в поэтапном добровольном принятии обязательств по выполнению требований Регламента до того, как они станут общеобязательными. AI Office также будет обобщать и публиковать соответствующую практику.
ВАЖНО: 16 мая AI Office проведет первый вебинар по разъяснению положений проекта Регламента ЕС об ИИ. На нем будут рассмотрены основные подходы к управлению рисками.
В мае в ЕС начал действовать ИИ-Пакт, направленный на то, чтобы помочь бизнесу подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ. Пакт был запущен в ноябре 2023 года (писал об этом тут). С этого момента более 550 компаний выразили желание в нем участвовать.
Пакт состоит из двух основных элементов:
Первый элемент включает обмен информацией между органами ЕС и бизес-сообществом, который призван содействовать в подготовке к соблюдению требований грядущего Регламента. Для этого AI Office будет проводить разъяснительные мероприятия, а также собирать и публиковать лучшие практики.
Второй элемент предполагает поддержку бизнеса со стороны органов ЕС в поэтапном добровольном принятии обязательств по выполнению требований Регламента до того, как они станут общеобязательными. AI Office также будет обобщать и публиковать соответствующую практику.
ВАЖНО: 16 мая AI Office проведет первый вебинар по разъяснению положений проекта Регламента ЕС об ИИ. На нем будут рассмотрены основные подходы к управлению рисками.
Курс по AI Governance от RPPA
Друзья, я присоединился в качестве преподавателя на курс AI Governance, который проводит Russian Privacy Professionals Association.
Курс поможет за несколько месяцев интенсивно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов. В этом поможет крайне профессиональный состав преподавателей.
В рамках курса я прочитаю лекцию об основах нормативного правового регулирования в сфере разработки и применения систем ИИ в США, КНР и России.
Более подробно с программой можно ознакомиться по ссылке.
Друзья, я присоединился в качестве преподавателя на курс AI Governance, который проводит Russian Privacy Professionals Association.
Курс поможет за несколько месяцев интенсивно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов. В этом поможет крайне профессиональный состав преподавателей.
В рамках курса я прочитаю лекцию об основах нормативного правового регулирования в сфере разработки и применения систем ИИ в США, КНР и России.
Более подробно с программой можно ознакомиться по ссылке.
Telegram
Privacy GDPR Russia
#education #AI
😎У нас сегодня уже стартует курс, но нас не остановить, и мы еще позвали звездного преподавателя - Дмитрия Кутейникова.
👤 Дмитрий - кандидат юридических наук, руководитель лаборатории «Социально-правовые подходы использования искусственного…
😎У нас сегодня уже стартует курс, но нас не остановить, и мы еще позвали звездного преподавателя - Дмитрия Кутейникова.
👤 Дмитрий - кандидат юридических наук, руководитель лаборатории «Социально-правовые подходы использования искусственного…
🔥4 4❤1 1
Обновления по проекту регламента ЕС об ИИ
Сегодня Евросовет одобрил проект Регламента ЕС об ИИ. Это фактически знаменует собой переход к последней стадии правотворческого процесса.
Далее акт будет подписан председателями Европарламента и Евросовета и опубликован в официальном источнике в ближайшее время.
После публикации Регламент вступит в силу по истечении двадцати дней. Напомню, что для целого ряда положений установлен двухлетний переходный период.
Сегодня Евросовет одобрил проект Регламента ЕС об ИИ. Это фактически знаменует собой переход к последней стадии правотворческого процесса.
Далее акт будет подписан председателями Европарламента и Евросовета и опубликован в официальном источнике в ближайшее время.
После публикации Регламент вступит в силу по истечении двадцати дней. Напомню, что для целого ряда положений установлен двухлетний переходный период.
Consilium
Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI
Council gives final green light to artificial intelligence act, the first law of such kind in the world.
👍4 4❤3
Индекс прозрачности фундаментальных моделей ИИ
Группа из восьми исследователей, представляющих университеты Стэнфорда, MIT и Принстона, опубликовала Индекс прозрачности фундаментальных моделей ИИ. Предыдущий аналогичный индекс был опубликован в октябре 2023 года.
В этом году авторы исследовали отчеты о прозрачности 14 компаний-разработчиков ИИ по 100 параметрам. В прошлом году параметры были те же, но компаний исследовалось 10.
За шесть месяцев можно отметить следующие изменения:
- увеличились средние (58) и высшие баллы (85 из 100). Это на 21 балл лучше, чем в октябре 2023 года;
- высший балл вырос на 31 пункт, а низший – на 21. Все восемь разработчиков, которые участвовали в обоих индексах, улучшили свои показатели;
- разработчики стали более активно публиковать отчеты о прозрачности. Сами отчеты стали более подробными и содержательными.
Группа из восьми исследователей, представляющих университеты Стэнфорда, MIT и Принстона, опубликовала Индекс прозрачности фундаментальных моделей ИИ. Предыдущий аналогичный индекс был опубликован в октябре 2023 года.
В этом году авторы исследовали отчеты о прозрачности 14 компаний-разработчиков ИИ по 100 параметрам. В прошлом году параметры были те же, но компаний исследовалось 10.
За шесть месяцев можно отметить следующие изменения:
- увеличились средние (58) и высшие баллы (85 из 100). Это на 21 балл лучше, чем в октябре 2023 года;
- высший балл вырос на 31 пункт, а низший – на 21. Все восемь разработчиков, которые участвовали в обоих индексах, улучшили свои показатели;
- разработчики стали более активно публиковать отчеты о прозрачности. Сами отчеты стали более подробными и содержательными.
Frontier Safety Framework от Google Deepmind
Исследователи из Google Deepmind опубликовали первую версию Frontier Safety Framework, направленную на выявление и митигирование будущих рисков, которые потенциально могут возникнуть при появлении более продвинутых моделей ИИ.
Фреймворк призван дополнить уже разработанные подходы компании по созданию безопасного и ответственного ИИ, а также выравниваю ценностей и задач между человеком и ИИ. К началу 2025 года предполагается его окончательно доработать и начать использовать в полной мере.
Фреймворк состоит из трех основных частей:
- выявление опасных возможностей моделей ИИ. Для этого предполагается исследовать, каким минимальным уровнем возможностей должна обладать модель ИИ, чтобы быть способной причинить вред. Начиная с этого минимального порога, исследователи выделяют уровни критических возможностей (Critical Capability Levels, CCL), которые определяют подход к оценке и уменьшению рисков. Эти уровни определяются по четырем областям: автономности, биобезопасности, кибербезопасности и исследований и разработок в области машинного обучения. Каждому уровню корреспондирует набор мер по общей безопасности моделей ИИ и их развертыванию;
- периодическая оценка существующих моделей компании на достижение критических уровней возможностей. Для этого предполагается выработать критерии оценки моделей, которые буду способны предупреждать разработчиков о достижении ими критического уровня возможностей (early warning evaluations);
- применение плана уменьшения вредных последствий в том случае, если модель прошла оценку раннего предупреждения. Соответствующие меры будут направлены в первую очередь на безопасность (предотвращение утечки моделей) и развертывание (предотвращение неправильного использования критических возможностей).
Исследователи из Google Deepmind опубликовали первую версию Frontier Safety Framework, направленную на выявление и митигирование будущих рисков, которые потенциально могут возникнуть при появлении более продвинутых моделей ИИ.
Фреймворк призван дополнить уже разработанные подходы компании по созданию безопасного и ответственного ИИ, а также выравниваю ценностей и задач между человеком и ИИ. К началу 2025 года предполагается его окончательно доработать и начать использовать в полной мере.
Фреймворк состоит из трех основных частей:
- выявление опасных возможностей моделей ИИ. Для этого предполагается исследовать, каким минимальным уровнем возможностей должна обладать модель ИИ, чтобы быть способной причинить вред. Начиная с этого минимального порога, исследователи выделяют уровни критических возможностей (Critical Capability Levels, CCL), которые определяют подход к оценке и уменьшению рисков. Эти уровни определяются по четырем областям: автономности, биобезопасности, кибербезопасности и исследований и разработок в области машинного обучения. Каждому уровню корреспондирует набор мер по общей безопасности моделей ИИ и их развертыванию;
- периодическая оценка существующих моделей компании на достижение критических уровней возможностей. Для этого предполагается выработать критерии оценки моделей, которые буду способны предупреждать разработчиков о достижении ими критического уровня возможностей (early warning evaluations);
- применение плана уменьшения вредных последствий в том случае, если модель прошла оценку раннего предупреждения. Соответствующие меры будут направлены в первую очередь на безопасность (предотвращение утечки моделей) и развертывание (предотвращение неправильного использования критических возможностей).
❤4 3
В Японии выпустили руководство по ИИ для бизнеса
Несколько японских министерств в апреле выпустили первую версию Руководства для бизнеса в сфере ИИ.
Руководство рассчитано на разработчиков, поставщиков и бизнес-пользователей систем и моделей ИИ.
Документ условно можно разбить на три части:
- терминология. Тут интересного мало. Терминология во многом взята из стандартов ISO и документов ОЭСР;
- принципы использования ИИ для бизнеса. Из Социальных принципов человеко-ориентированного ИИ 2019 года взяты три базовых философских принципа (достоинство личности, разнообразие и инклюзивность, устойчивое развитие), а также на основе международных документов сформулированы десять более конкретных принципов и описаны шаги для бизнеса по их имплементации (расписаны на скриншоте);
- конкретные рекомендации для разработчиков, поставщиков и бизнес-пользователей. Большинство этих рекомендаций также взяты из международных документов, но не будет лишним еще раз по ним пробежаться.
Несколько японских министерств в апреле выпустили первую версию Руководства для бизнеса в сфере ИИ.
Руководство рассчитано на разработчиков, поставщиков и бизнес-пользователей систем и моделей ИИ.
Документ условно можно разбить на три части:
- терминология. Тут интересного мало. Терминология во многом взята из стандартов ISO и документов ОЭСР;
- принципы использования ИИ для бизнеса. Из Социальных принципов человеко-ориентированного ИИ 2019 года взяты три базовых философских принципа (достоинство личности, разнообразие и инклюзивность, устойчивое развитие), а также на основе международных документов сформулированы десять более конкретных принципов и описаны шаги для бизнеса по их имплементации (расписаны на скриншоте);
- конкретные рекомендации для разработчиков, поставщиков и бизнес-пользователей. Большинство этих рекомендаций также взяты из международных документов, но не будет лишним еще раз по ним пробежаться.
❤5 3👍1
Еврокомиссия определилась со структурой компетентного органа в сфере ИИ
Вчера Еврокомиссия опубликована пресс-релиз, в котором содержится информация о внутренней структуре European AI Office. Орган начал действовать в составе Еврокомиссии с февраля этого года. Подробнее писал об этом тут.
Также известный нам по инсайдам о проекте Регламента ЕС об ИИ журналист Лука Бертуцци опубликовал в своем Линкедине пост о персональном составе руководства органа.
Возглавлять орган будет Руководитель AI Office, который будет работать вместе с советником по науке и советником по международным вопросам.
Руководителем стала Лучилла Сиоли, которая ранее работала на лидирующих позициях, связанных с ИИ, внутри Еврокомиссии.
AI Office будет состоять из пяти структурных подразделений:
Отдел по нормативному регулированию и комплаенсу (Regulation and Compliance Unit), который будет координировать единообразное применение Регламента ЕС об ИИ в странах-членах и участвовать в расследованиях возможных нарушений;
Отдел по вопросам безопасности ИИ (Unit on AI safety), специализирующийся на выявлении системных рисков, связанных с использованием передовых моделей ИИ, а также на разработке подходов к оценке и тестированию систем и моделей ИИ;
Отдел передового опыта в области ИИ и робототехники (Excellence in AI and Robotics Unit), который буде поддерживать передовые исследования и обеспечивать обмен опытом. Подразделение будет координировать инициативу GenAI4EU (направлена на внедрение моделей ИИ в ключевые секторы экономики);
Отдел по использованию искусственного интеллекта в интересах общества (AI for Societal Good Unit) будет координировать международное сотрудничество в таких областях, как применение ИИ для моделирования погоды, диагностика рака, создания цифровых двойников для реконструкции зданий;
Отдел координации инноваций и политики в сфере ИИ (AI Innovation and Policy Coordination Unit ), который будет отвечать за реализацию стратегии ЕС в сфере ИИ, стимулировать внедрение ИИ через сеть европейских центров цифровых инноваций и создание фабрик ИИ, а также содействовать развитию инновационной экосистемы путем создания регуляторных песочниц и иных тестовых зон.
Для обеспечения работы в AI Office предполагается принять на работу более 140 сотрудников (конечно, будут и юристы). Пока вакантными являются более 80 позиций. Можно попытать удачу тут.
В своей деятельности AI Office будет сотрудничать вместе с Европейским советом по ИИ (European Artificial Intelligence Board), состоящим из представителей государств-членов, Научной группой независимых экспертов (Scientific Panel of independent experts) и Консультативным форумом (Advisory Forum), представляющем интересы стейкхолдеров.
Вчера Еврокомиссия опубликована пресс-релиз, в котором содержится информация о внутренней структуре European AI Office. Орган начал действовать в составе Еврокомиссии с февраля этого года. Подробнее писал об этом тут.
Также известный нам по инсайдам о проекте Регламента ЕС об ИИ журналист Лука Бертуцци опубликовал в своем Линкедине пост о персональном составе руководства органа.
Возглавлять орган будет Руководитель AI Office, который будет работать вместе с советником по науке и советником по международным вопросам.
Руководителем стала Лучилла Сиоли, которая ранее работала на лидирующих позициях, связанных с ИИ, внутри Еврокомиссии.
AI Office будет состоять из пяти структурных подразделений:
Отдел по нормативному регулированию и комплаенсу (Regulation and Compliance Unit), который будет координировать единообразное применение Регламента ЕС об ИИ в странах-членах и участвовать в расследованиях возможных нарушений;
Отдел по вопросам безопасности ИИ (Unit on AI safety), специализирующийся на выявлении системных рисков, связанных с использованием передовых моделей ИИ, а также на разработке подходов к оценке и тестированию систем и моделей ИИ;
Отдел передового опыта в области ИИ и робототехники (Excellence in AI and Robotics Unit), который буде поддерживать передовые исследования и обеспечивать обмен опытом. Подразделение будет координировать инициативу GenAI4EU (направлена на внедрение моделей ИИ в ключевые секторы экономики);
Отдел по использованию искусственного интеллекта в интересах общества (AI for Societal Good Unit) будет координировать международное сотрудничество в таких областях, как применение ИИ для моделирования погоды, диагностика рака, создания цифровых двойников для реконструкции зданий;
Отдел координации инноваций и политики в сфере ИИ (AI Innovation and Policy Coordination Unit ), который будет отвечать за реализацию стратегии ЕС в сфере ИИ, стимулировать внедрение ИИ через сеть европейских центров цифровых инноваций и создание фабрик ИИ, а также содействовать развитию инновационной экосистемы путем создания регуляторных песочниц и иных тестовых зон.
Для обеспечения работы в AI Office предполагается принять на работу более 140 сотрудников (конечно, будут и юристы). Пока вакантными являются более 80 позиций. Можно попытать удачу тут.
В своей деятельности AI Office будет сотрудничать вместе с Европейским советом по ИИ (European Artificial Intelligence Board), состоящим из представителей государств-членов, Научной группой независимых экспертов (Scientific Panel of independent experts) и Консультативным форумом (Advisory Forum), представляющем интересы стейкхолдеров.
European Commission - European Commission
Commission establishes AI Office to strengthen EU leadership in safe and trustworthy Artificial Intelligence
Today the Commission has unveiled the AI Office, established within the Commission.
Набор данных о законодательстве и органах ЕС в сфере цифровых инноваций
Исследователи из аналитического центра Bruegel представили сегодня набор данных о законодательстве и органах на уровне ЕС, занимающихся вопросами регулирования отношений в сфере цифрового пространства.
Документ состоит из двух частей:
- существующее законодательство в цифровой сфере и проекты НПА с ходом их движения в рамках правотворческого процесса;
- правительственные и неправительственные органы на уровне ЕС, компетентные в сфере цифровых инноваций.
Уверен, что у большинства коллег, кто профессионально занимается данной сферой, уже были похожие базы знаний в ноушене или экселе👀 , но сверить часы не помешает никому.
Исследователи из аналитического центра Bruegel представили сегодня набор данных о законодательстве и органах на уровне ЕС, занимающихся вопросами регулирования отношений в сфере цифрового пространства.
Документ состоит из двух частей:
- существующее законодательство в цифровой сфере и проекты НПА с ходом их движения в рамках правотворческого процесса;
- правительственные и неправительственные органы на уровне ЕС, компетентные в сфере цифровых инноваций.
Уверен, что у большинства коллег, кто профессионально занимается данной сферой, уже были похожие базы знаний в ноушене или экселе
Please open Telegram to view this post
VIEW IN TELEGRAM
Bruegel | The Brussels-based economic think tank
A dataset on EU legislation for the digital world
❤5 2