Лучшие практики по соблюдению требований проекта Регламента ЕС об ИИ в части обеспечения прозрачности использования чатботов и дипфейков
Бельгийский The Knowledge Centre Data & Society опубликовал отчет, разработанный юристами и представителями ИИ-индустрии с целью оценки особенностей применения на практике положений проекта Регламента ЕС о прозрачности, которые содержатся в статьях 13 и 52.
Статья 13 предусматривает, что системы ИИ повышенного риска должны сопровождаться инструкциями по использованию (instructions for use) и устанавливает требования к ним.
В рамках подготовки отчета были разработаны три модельные инструкции по использованию ИИ-продуктов: ПО для выявления патологий глаз на основе изображений сетчатки глаза, медицинский прибор для прогнозирования сердечных аритмий и инструмент для подбора персонала.
Статья 52 предусматривает требования по раскрытию информации для отдельных систем и моделей ИИ.
Авторы подготовили два модельных дисклеймера для HR-чатбота и инструмента по созданию дипфейков для документальных фильмов.
К посту прикладываю скриншоты, на которых авторы изложили общие рекомендации по составлению документов.
С полным текстом модельных документов можно ознакомиться в приложении к отчету.
Среди общих пожеланий к проекту Регламента ЕС об ИИ авторы отметили необходимость уточнения требований в будущих имплементационных актах, а также выработки более простых рекомендаций и шаблонов документов.
Отмечу, что это очень важная и своевременная инициатива. Если вы готовите ваш продукт к соответствию требованиям будущего Регламента, то советую ознакомиться.
Бельгийский The Knowledge Centre Data & Society опубликовал отчет, разработанный юристами и представителями ИИ-индустрии с целью оценки особенностей применения на практике положений проекта Регламента ЕС о прозрачности, которые содержатся в статьях 13 и 52.
Статья 13 предусматривает, что системы ИИ повышенного риска должны сопровождаться инструкциями по использованию (instructions for use) и устанавливает требования к ним.
В рамках подготовки отчета были разработаны три модельные инструкции по использованию ИИ-продуктов: ПО для выявления патологий глаз на основе изображений сетчатки глаза, медицинский прибор для прогнозирования сердечных аритмий и инструмент для подбора персонала.
Статья 52 предусматривает требования по раскрытию информации для отдельных систем и моделей ИИ.
Авторы подготовили два модельных дисклеймера для HR-чатбота и инструмента по созданию дипфейков для документальных фильмов.
К посту прикладываю скриншоты, на которых авторы изложили общие рекомендации по составлению документов.
С полным текстом модельных документов можно ознакомиться в приложении к отчету.
Среди общих пожеланий к проекту Регламента ЕС об ИИ авторы отметили необходимость уточнения требований в будущих имплементационных актах, а также выработки более простых рекомендаций и шаблонов документов.
Отмечу, что это очень важная и своевременная инициатива. Если вы готовите ваш продукт к соответствию требованиям будущего Регламента, то советую ознакомиться.
❤7 2
Канадские исследователи проанализировали 84 государственные инициативы в сфере ИИ
Обращаю ваше внимание на статью канадских исследователей, которые проанализировали государственные инициативы уровня федерации и отдельных провинций (Онтарио, Квебек, Альберта) в сфере ИИ.
Исследование в большей степени направлено на обобщение и анализ существующих инициатив. Таким образом, интересующимся рекомендую ознакомиться с перечнем всех исследованных документов в приложении.
Общие выводы достаточно ожидаемы: авторы рекомендуют госорганам сделать больший акцент на публикацию информации о результатах, которые были получены по итогам реализации принятых документов, а также выработать новый, более целостный подход к нормативному регулированию в сфере ИИ.
Обращаю ваше внимание на статью канадских исследователей, которые проанализировали государственные инициативы уровня федерации и отдельных провинций (Онтарио, Квебек, Альберта) в сфере ИИ.
Исследование в большей степени направлено на обобщение и анализ существующих инициатив. Таким образом, интересующимся рекомендую ознакомиться с перечнем всех исследованных документов в приложении.
Общие выводы достаточно ожидаемы: авторы рекомендуют госорганам сделать больший акцент на публикацию информации о результатах, которые были получены по итогам реализации принятых документов, а также выработать новый, более целостный подход к нормативному регулированию в сфере ИИ.
❤7 4
Опубликован индекс искусственного интеллекта и демократических ценностей за 2023 год
Американский Center for AI and Digital Policy выпустил пятую версию ежегодного доклада AI and Democratic Values Index 2023.
В 2023 году индекс охватывает 80 стран (в прошлом году – 75) и пересматривает прошлогодний рейтинг за счет уточнения критериев оценки. Отчет является результатом работы более 500 экспертов по регулированию в сфере ИИ из почти 90 стран.
Рейтинг составлен на основе 12 значимых факторов, которые оценивались при помощи ответов на формализованные вопросы о соответствии национального регулирования международным стандартам. В зависимости от ответов страны были разделены на пять уровней.
Про прошлогодний доклад и методику оценки стран можно почитать в посте тут.
Лидирующие места заняли Канада, Япония и Южная Корея.
В числе аутсайдеров – Азербайджан, Мьянма и Венесуэла.
Россию можно найти на четвертом уровне между Катаром и Тайландом.
Однако, на мой взгляд, интерес вызывает не сам рейтинг, а содержание доклада, в котором проанализировано текущее состояние регулирования в сфере ИИ на международном уровне и с той или иной степенью подробности во всех 80 странах. Но и документ вышел весьма обширным – 1600+ страниц🤩 .
Доклад можно найти тут.
Еще в этом году исследователи визуализировали доклад на интерактивной карте.
Американский Center for AI and Digital Policy выпустил пятую версию ежегодного доклада AI and Democratic Values Index 2023.
В 2023 году индекс охватывает 80 стран (в прошлом году – 75) и пересматривает прошлогодний рейтинг за счет уточнения критериев оценки. Отчет является результатом работы более 500 экспертов по регулированию в сфере ИИ из почти 90 стран.
Рейтинг составлен на основе 12 значимых факторов, которые оценивались при помощи ответов на формализованные вопросы о соответствии национального регулирования международным стандартам. В зависимости от ответов страны были разделены на пять уровней.
Про прошлогодний доклад и методику оценки стран можно почитать в посте тут.
Лидирующие места заняли Канада, Япония и Южная Корея.
В числе аутсайдеров – Азербайджан, Мьянма и Венесуэла.
Россию можно найти на четвертом уровне между Катаром и Тайландом.
Однако, на мой взгляд, интерес вызывает не сам рейтинг, а содержание доклада, в котором проанализировано текущее состояние регулирования в сфере ИИ на международном уровне и с той или иной степенью подробности во всех 80 странах. Но и документ вышел весьма обширным – 1600+ страниц
Доклад можно найти тут.
Еще в этом году исследователи визуализировали доклад на интерактивной карте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Center for AI and Digital Policy
CAIDP Index 2023
AI policy, Artificial Intelligence, EU AI Act, democratic values, data protection, fairness, innovation, universal guidelines for AI, human rights, CAIDP, Marc Rotenberg, Merve Hickok
Опубликована вторая версия унифицированной терминологии в сфере ИИ между ЕС и США
В рамках шестого заседания в Левене (Бельгия) The U.S. and EU Trade and Technology Council (TTC) представил обновленную версию унифицированной терминологии в сфере ИИ (EU-U.S. Terminology and Taxonomy for Artificial Intelligence).
Новая версия документа включает 13 новых терминов и обновляет 24 из предыдущей. Интересно, что в таблице терминов указаны их источники, среди которых есть, например, и документы ОЭСР, проект Регламента ЕС об ИИ, научные и аналитические работы.
На встрече также выразили готовность в дальнейшем сближать регуляторные подходы ЕС и США, в том числе путем выработки совместных методик и бенчмарков.
С текстом документа можно ознакомиться тут.
О первом варианте документа писал в прошлом июне вот тут.
В рамках шестого заседания в Левене (Бельгия) The U.S. and EU Trade and Technology Council (TTC) представил обновленную версию унифицированной терминологии в сфере ИИ (EU-U.S. Terminology and Taxonomy for Artificial Intelligence).
Новая версия документа включает 13 новых терминов и обновляет 24 из предыдущей. Интересно, что в таблице терминов указаны их источники, среди которых есть, например, и документы ОЭСР, проект Регламента ЕС об ИИ, научные и аналитические работы.
На встрече также выразили готовность в дальнейшем сближать регуляторные подходы ЕС и США, в том числе путем выработки совместных методик и бенчмарков.
С текстом документа можно ознакомиться тут.
О первом варианте документа писал в прошлом июне вот тут.
Nextgov
US, EU update shared AI taxonomy, unveil new research alliance
At the conclusion of the sixth meeting of the US-EU Trade and Technology Council, leaders focused on creating uniformity in AI terminology and continuing transatlantic collaboration.
Развитие ИИ начинает влиять на корпоративную структуру компаний
Консультанты по корпоративному управлению из ISS-Corporate опубликовали отчет, посвященные влиянию развития ИИ-технологий на корпоративную структуру компаний (заметку про него еще можно почитать в посте на форуме Harvard Law School). Для этого были исследованы компании, входящие в индекс S&P 500 (а именно отчеты для SEC по форме DEF 14A).
Исходя из проведенного анализа, со стороны совета директоров обычно используются следующие методы по обеспечению безопасности и прозрачности использования систем ИИ:
- за использование ИИ ответственность возлагается на весь совет директоров или на конкретный комитет;
- в совете директоров имеется минимум один человек, компетентный в сфере ИИ;
- в компании создан отдельный комитет по ИИ-этике или сходное подразделение.
В процессе исследования авторы пришли к следующим выводам:
- только около 15% компаний, входящих в S&P 500, раскрывают в отчетах информацию о надзоре за использованием ИИ со стороны совета директоров;
- раскрытие информации о надзоре совета директоров за ИИ и об опыте директоров в области ИИ в основном встречается в секторе информационных технологий, где 38% компаний предоставляют информацию о том или ином уровне надзора;
- в 13% компаний из списка S&P 500 есть хотя бы один директор с опытом работы в сфере ИИ;
- поскольку ИИ становится существенным фактором для многих компаний, инвесторы могут начать требовать от компаний не только раскрытие информации о соответствующих функциях и составе совета директоров относительно ИИ, но и в целом предоставления большей информации об использовании ИИ в работе компании и продуктах.
Также интересно, что авторы отчета полагают: вероятность введения более жестких требований со стороны регуляторов относительно расширения доступа к информации в сфере ИИ довольно мала. Однако компании могут добровольно раскрывать эту информацию из-за увеличивающегося запроса на прозрачность со стороны клиентов и инвесторов.
Консультанты по корпоративному управлению из ISS-Corporate опубликовали отчет, посвященные влиянию развития ИИ-технологий на корпоративную структуру компаний (заметку про него еще можно почитать в посте на форуме Harvard Law School). Для этого были исследованы компании, входящие в индекс S&P 500 (а именно отчеты для SEC по форме DEF 14A).
Исходя из проведенного анализа, со стороны совета директоров обычно используются следующие методы по обеспечению безопасности и прозрачности использования систем ИИ:
- за использование ИИ ответственность возлагается на весь совет директоров или на конкретный комитет;
- в совете директоров имеется минимум один человек, компетентный в сфере ИИ;
- в компании создан отдельный комитет по ИИ-этике или сходное подразделение.
В процессе исследования авторы пришли к следующим выводам:
- только около 15% компаний, входящих в S&P 500, раскрывают в отчетах информацию о надзоре за использованием ИИ со стороны совета директоров;
- раскрытие информации о надзоре совета директоров за ИИ и об опыте директоров в области ИИ в основном встречается в секторе информационных технологий, где 38% компаний предоставляют информацию о том или ином уровне надзора;
- в 13% компаний из списка S&P 500 есть хотя бы один директор с опытом работы в сфере ИИ;
- поскольку ИИ становится существенным фактором для многих компаний, инвесторы могут начать требовать от компаний не только раскрытие информации о соответствующих функциях и составе совета директоров относительно ИИ, но и в целом предоставления большей информации об использовании ИИ в работе компании и продуктах.
Также интересно, что авторы отчета полагают: вероятность введения более жестких требований со стороны регуляторов относительно расширения доступа к информации в сфере ИИ довольно мала. Однако компании могут добровольно раскрывать эту информацию из-за увеличивающегося запроса на прозрачность со стороны клиентов и инвесторов.
❤6 3
Stanford HAI опубликовал свой AI Index за 2024 год
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
На днях был опубликован очередной отчет AI Index, посвященный основным событиям (преимущественно в США), произошедшим в сфере ИИ за 2024 год. Отчет состоит из девяти разделов. Традиционно нас больше всего интересует седьмой раздел – Policy and Governance.
В нем очень много интересных данных. Пройдемся по основным выводам:
В США за последние пять лет резко возросло количество нормативных актов, связанных со сферой ИИ. В 2023 году их насчитывается 25 против одного в 2016 году. При том, что за прошедший год число актов выросло на 56,3%. В два раза выросло и число законопроектов – 181 за 2023 год против 88 за 2022. Также с 17 до 21 увеличилось число органов исполнительной власти, которые выпустили какие-либо документы, связанные с ИИ (это показывает расширение числа отраслей, в которых ИИ стал активно применяться).
Аналогичная тенденция наблюдается и в глобальном масштабе: за 2023 год число актов, так или иначе связанных с ИИ, удвоилось по всему миру (с 1247 в 2022 году до 2175 в 2023 году). За прошлый год ИИ упоминался в законодательных актах 49 стран.
Скриншоты с наиболее интересными цифрами прикладываю к посту.
UPDATE:
1 мая состоится презентация отчета.
Если кто- то желает посетить (очно или онлайн), то зарегистрироваться можно по ссылке.
❤5 4
Очередная версия текста проекта Регламента ЕС об ИИ
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Наверное, многие из тех, кто ознакамливались с текстом проекта Регламента ЕС об ИИ, опубликованным по итогам трилога, обратили внимание на то, что документ находился в достаточно сыром состоянии в плане юридической техники и оформления. Имелись и фактические ошибки, которые породили массу споров среди экспертов относительно истинного содержания отдельных статей.
Вчера Европарламент опубликовал исправленный текст проекта Регламента.
Далее, 18 апреля исправленный текст будет рассмотрен на совместном заседании двух комитетов Европарламента – по гражданским свободам, правосудию и внутренним делам (LIBE) и по внутреннему рынку и защите прав потребителей (IMCO).
Если все пройдет нормально, то далее, как и предполагалось ранее, он будет вынесен на пленарное заседание Европарламента во второй половине апреля.
Обновленная версия Российской Национальной стратегии развития искусственного интеллекта до 2030 года
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит🤩 .
Давненько ничего не писал про Россию. Новость не самая свежая, но требует внимания. 15 февраля вступил в силу указ Президента РФ, который внес поправки в его же Указ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации».
Исходя из содержания, документ призван осовременить первоначальную версию указа от 2019 года, которая уже значительно устарела. Хотя и раньше к ней была масса вопросов.
Во-первых, истекает жизненный цикл у нацпроекта «Цифровая экономика», поэтому поручается до 1 июля 2024 г. обеспечить включение ФП «Искусственный интеллект» в новый нацпроект «Экономика данных», который должен быть разработан в этом году.
Во-вторых, незначительно изменилось определение ИИ.
Теперь это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Жирным выделил места, которые изменились. С самого начала это определение мне казалось несколько странным, так как оно: а) отсылает к способностям и когнитивным функциям человека, а не дает нам конкретные признаки ИИ; б) не является технологически нейтральным (что очень важно для нормативного регулирования), но при этом и не определяет перечень ИИ-технологий, а только вскользь упоминает ML; в) если речь идет про конкретные задачи, то получается, тут мы говорим только о «слабом ИИ»? (дальше будет понятно, к чему этот вопрос). Понятно, что определение взято из техстандарта, но терминология ОЭСР и ISO/IEC вызывает значительно меньше вопросов.
Незначительно поменялись и другие термины.
В-третьих, появился целый спектр новых терминов, например:
Сильный искусственный интеллект – тип искусственного интеллекта, который способен выполнять различные задачи, взаимодействовать с человеком и самостоятельно (без участия человека) адаптироваться к изменяющимся условиям.
Друзья, поздравляю, если дословно читать указ, то AGI уже тут!
Но если отбросить шутки, то не очень понятно, зачем такое теоретическое и размытое определение включать в НПА. Даже в науке нет устоявшегося подхода. Кто-то определяет AGI через наличие сознания, а кто-то – через возможность выполнять любые (не различные) задачи на одном уровне со средним человеком.
Есть сомнения, что к AGI можно отнести систему, которая может выполнять, допустим, две-три-пять задач на одном уровне с человеком, взаимодействовать с ним (например, общаться через какой-либо интерфейс) и адаптироваться (например, в ходе общения и перемещения в пространстве).
На мой взгляд, лучше доработать определение ИИ (систем ИИ), чтобы оно позволяло четко понимать предмет регулирования, чем вводить раньше времени еще более широкие термины.
Чтобы соответствовать духу времени были также включены определения модели ИИ, параметров модели ИИ, большой генеративной модели и большой фундаментальной модели.
Большие фундаментальные модели отличаются тем, что они могут: а) быть основой для создания и доработки различных видов программного обеспечения; б) содержать не менее 1 млрд. параметров (например, в GPT-2 - 1,5 млрд.); в) применяться для выполнения различных задач.
Интересно, что в Указе дается определение сильного ИИ, но при этом отсутствует какая-либо классификация фундаментальных моделей. Хотя, например, наиболее продвинутые модели уже выделяются и в проекте Регламента ЕС об ИИ и в последнем указе Президента США. Писал про это многократно на канале. Например, тут.
В тексте Указа также содержится много иной информации о современных трендах развития ИИ, а также о достигнутых результатах и планах на будущее. Хочется про них написать, но в посте уже лимит
Please open Telegram to view this post
VIEW IN TELEGRAM
publication.pravo.gov.ru
Указ Президента Российской Федерации от 15.02.2024 № 124 ∙ Официальное опубликование правовых актов
Указ Президента Российской Федерации от 15.02.2024 № 124
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…
"О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим…