Исследователи из Института Ады Лавлейс выпустили статью о том, каким образом лучше организовать проведение внешнего независимого аудита для систем ИИ
Группа авторов из Института Ады Лавлейс опубликовала статью с рефлексией относительно текущей практики проведения внешних независимых аудитов систем ИИ. Исследователи сконцентрировались на опыте реализации положений акта города Нью-Йорк об аудите предвзятости при использовании автоматизированных инструментов принятия решений в сфере трудоустройства, который вступил в силу 5 июля прошлого года. Разбор акта имеется на моем канале тут.
Остановимся на некоторых интересных выводах:
- принятие акта не повлияло на справедливость при приеме на работу. За год всего 20 работодателей в Нью-Йорке провели аудит и опубликовали отчеты;
- отчасти корень проблемы зарыт в самих положениях акта, которые требуют лишь предоставить кандидатам или работникам информацию об использовании в их отношении алгоритма, но не вводят запрет на применение предвзятых систем;
- терминология, использующаяся в акте, слишком узкая, а органам власти не переданы полномочия по контролю за его соблюдением;
- эффективности акта помешало также отсутствие четких стандартов и методик работы аудиторов, которые позволили бы им получать всю необходимую информацию, особенно касающуюся чувствительных вопросов;
- однако благодаря вступлению акту в силу удалось разработать стандартизированные критерии оценки работодателей, что заставило некоторых из них расширить внедрение практик ответственного использования ИИ-решений.
По итогам проведенного исследования авторы сформулировали рекомендации для законодателей:
- нормативные акты должны содержать четкие определения, которые позволяют однозначно понять предмет регулирования (какие конкретно системы и модели подлежат аудиту);
- нормативные акты должны устанавливать четкие метрики для аудиторов, а также необходимость разработки стандартных методик и правил поведения аудитора. Аудиторы должны быть обеспечены соответствующими правами по доступу к информации;
- необходимо создать единый публично доступный реестр, в котором будут содержаться отчеты о проведенных аудитах, а также юридические механизмы, позволяющие оспаривать их результаты;
- нормативные акты должны устанавливать механизмы, позволяющие контролировать их соблюдение.
Интересно, что в рамках исследования были опрошены эксперты из компаний и организаций, которые занимаются оценкой систем и моделей ИИ. В их числе, например, знакомые многим моим читателям ForHumanity, BABL, HollisticAI, CredoAI, SolasAI.
Над постом прикрепляю полезную инфографику из статьи.
Группа авторов из Института Ады Лавлейс опубликовала статью с рефлексией относительно текущей практики проведения внешних независимых аудитов систем ИИ. Исследователи сконцентрировались на опыте реализации положений акта города Нью-Йорк об аудите предвзятости при использовании автоматизированных инструментов принятия решений в сфере трудоустройства, который вступил в силу 5 июля прошлого года. Разбор акта имеется на моем канале тут.
Остановимся на некоторых интересных выводах:
- принятие акта не повлияло на справедливость при приеме на работу. За год всего 20 работодателей в Нью-Йорке провели аудит и опубликовали отчеты;
- отчасти корень проблемы зарыт в самих положениях акта, которые требуют лишь предоставить кандидатам или работникам информацию об использовании в их отношении алгоритма, но не вводят запрет на применение предвзятых систем;
- терминология, использующаяся в акте, слишком узкая, а органам власти не переданы полномочия по контролю за его соблюдением;
- эффективности акта помешало также отсутствие четких стандартов и методик работы аудиторов, которые позволили бы им получать всю необходимую информацию, особенно касающуюся чувствительных вопросов;
- однако благодаря вступлению акту в силу удалось разработать стандартизированные критерии оценки работодателей, что заставило некоторых из них расширить внедрение практик ответственного использования ИИ-решений.
По итогам проведенного исследования авторы сформулировали рекомендации для законодателей:
- нормативные акты должны содержать четкие определения, которые позволяют однозначно понять предмет регулирования (какие конкретно системы и модели подлежат аудиту);
- нормативные акты должны устанавливать четкие метрики для аудиторов, а также необходимость разработки стандартных методик и правил поведения аудитора. Аудиторы должны быть обеспечены соответствующими правами по доступу к информации;
- необходимо создать единый публично доступный реестр, в котором будут содержаться отчеты о проведенных аудитах, а также юридические механизмы, позволяющие оспаривать их результаты;
- нормативные акты должны устанавливать механизмы, позволяющие контролировать их соблюдение.
Интересно, что в рамках исследования были опрошены эксперты из компаний и организаций, которые занимаются оценкой систем и моделей ИИ. В их числе, например, знакомые многим моим читателям ForHumanity, BABL, HollisticAI, CredoAI, SolasAI.
Над постом прикрепляю полезную инфографику из статьи.
www.adalovelaceinstitute.org
Code & conduct
How to create third-party auditing regimes for AI systems
❤6 4👍2
Системы_искусственного_интеллекта_и_внедоговорная_гражданско_правовая.pdf
389.9 KB
Опубликована моя статья о системах ИИ и внедоговорной гражданско-правовой ответственности
Друзья, пока я нахожусь в небольшом отпуске после адского по числу проектов прошлого месяца, делюсь с вами статьей, которую мы с коллегой недавно опубликовали. Сразу обращу ваше внимание, что первый ее текст был направлен в редакцию еще в январе месяце, поэтому некоторые законодательные новеллы и самые свежие доктринальные источники по понятным причинам остались за кадром.
В статье предлагается сочетать правила строгой и виновной ответственности для случаев, когда функционирование систем и моделей ИИ причиняет вред третьим лицам. Для систем и моделей, которые представляют неприемлемый или высокий риск правам и человека, предлагается применять правила строгой ответственности разработчика. Для других случаев при восстановлении прав потерпевших предлагается использовать правила виновной ответственности с необходимостью доказывания вины ответчика и причинно-следственной связи.
Полный текст статьи прикладываю к посту, буду рад обратной связи🤩 .
Друзья, пока я нахожусь в небольшом отпуске после адского по числу проектов прошлого месяца, делюсь с вами статьей, которую мы с коллегой недавно опубликовали. Сразу обращу ваше внимание, что первый ее текст был направлен в редакцию еще в январе месяце, поэтому некоторые законодательные новеллы и самые свежие доктринальные источники по понятным причинам остались за кадром.
В статье предлагается сочетать правила строгой и виновной ответственности для случаев, когда функционирование систем и моделей ИИ причиняет вред третьим лицам. Для систем и моделей, которые представляют неприемлемый или высокий риск правам и человека, предлагается применять правила строгой ответственности разработчика. Для других случаев при восстановлении прав потерпевших предлагается использовать правила виновной ответственности с необходимостью доказывания вины ответчика и причинно-следственной связи.
Полный текст статьи прикладываю к посту, буду рад обратной связи
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10 4❤2
Насколько могут быть убедительными современные модели ИИ в общении с человеком?
Недавно наткнулся на предварительное исследование, в котором авторы протестировали, насколько эффективно GPT-4 может использоваться в дебатах с людьми для изменения их мнения по тому или иному вопросу. Помимо эффективности убеждения, исследователи также проверили, влияет ли на нее дополнительная информация о личности и убеждениях собеседника, заданная модели через промт.
Выводы оказались интересными: GPT-4 с персонализацией на 81.7% эффективней убеждает, чем обычный человек. Более того, GPT-4 с персонализацией все еще эффективней (но уже не так значительно), чем человек, обладающий теми же данными о своем оппоненте. Таким образом, по данным исследования, модели ИИ способны эффективно использовать персональную информацию для адаптации своих аргументов и делают это гораздо эффективнее, чем люди.
Более подробная информация о методологии исследования и используемых промтах и обсуждаемых вопросах приложена в скриншотах к посту.
Таким образом, очевидно, что использование моделей ИИ как в политических, так и в коммерческих целях, в ближайшее время будет только нарастать. Вместе с тем ситуацию вряд ли серьезно изменят отдельные законодательные решения, направленные на конкретные сферы жизни, такие как, например, выборы или алгоритмические рекомендации.
Недавно наткнулся на предварительное исследование, в котором авторы протестировали, насколько эффективно GPT-4 может использоваться в дебатах с людьми для изменения их мнения по тому или иному вопросу. Помимо эффективности убеждения, исследователи также проверили, влияет ли на нее дополнительная информация о личности и убеждениях собеседника, заданная модели через промт.
Выводы оказались интересными: GPT-4 с персонализацией на 81.7% эффективней убеждает, чем обычный человек. Более того, GPT-4 с персонализацией все еще эффективней (но уже не так значительно), чем человек, обладающий теми же данными о своем оппоненте. Таким образом, по данным исследования, модели ИИ способны эффективно использовать персональную информацию для адаптации своих аргументов и делают это гораздо эффективнее, чем люди.
Более подробная информация о методологии исследования и используемых промтах и обсуждаемых вопросах приложена в скриншотах к посту.
Таким образом, очевидно, что использование моделей ИИ как в политических, так и в коммерческих целях, в ближайшее время будет только нарастать. Вместе с тем ситуацию вряд ли серьезно изменят отдельные законодательные решения, направленные на конкретные сферы жизни, такие как, например, выборы или алгоритмические рекомендации.
❤5 5
Обзор Закона штата Колорадо «О защите прав потребителей при взаимодействии с системами искусственного интеллекта»
Друзья, сегодня решил порадовать вас материалом, в котором я разобрал свежий закон штата Колорадо «О защите прав потребителей при взаимодействии с системами искусственного интеллекта» (Colorado AI Act (CAIA)). Этот закон является первой попыткой комплексно урегулировать разработку и применение систем ИИ на уровне штатов США.
Примечательно, что по аналогии с Регламентом ЕС об ИИ в основе акта также лежит риск-ориентированный подход. В законе выделяется группа систем ИИ повышенного риска, к разработчикам и эксплуатантам которых и применяется большая часть его требований.
Интересна и роль генерального прокурора штата, на которого возложены функции по контролю за исполнением положений закона и разработки вспомогательных документов и систем риск-менеджмента.
Также законодатели признают роль других актов и систем риск-менеджмента: разработчики и эксплуатанты могут сослаться на то, что уже соответствуют положениям других актов и документов, устанавливающих сходные или более жесткие требования: NIST AI RMF, ISO/IEC 42001, иные международные стандарты и акты других стран (например, Регламент ЕС об ИИ).
Как вы думаете, стоит ли ждать от этого акта «Калифорнийского эффекта» или скоро мы увидим новые комплексные инициативы в других штатах США?
С полным текстом обзора можно ознакомиться по ссылке.
Друзья, сегодня решил порадовать вас материалом, в котором я разобрал свежий закон штата Колорадо «О защите прав потребителей при взаимодействии с системами искусственного интеллекта» (Colorado AI Act (CAIA)). Этот закон является первой попыткой комплексно урегулировать разработку и применение систем ИИ на уровне штатов США.
Примечательно, что по аналогии с Регламентом ЕС об ИИ в основе акта также лежит риск-ориентированный подход. В законе выделяется группа систем ИИ повышенного риска, к разработчикам и эксплуатантам которых и применяется большая часть его требований.
Интересна и роль генерального прокурора штата, на которого возложены функции по контролю за исполнением положений закона и разработки вспомогательных документов и систем риск-менеджмента.
Также законодатели признают роль других актов и систем риск-менеджмента: разработчики и эксплуатанты могут сослаться на то, что уже соответствуют положениям других актов и документов, устанавливающих сходные или более жесткие требования: NIST AI RMF, ISO/IEC 42001, иные международные стандарты и акты других стран (например, Регламент ЕС об ИИ).
Как вы думаете, стоит ли ждать от этого акта «Калифорнийского эффекта» или скоро мы увидим новые комплексные инициативы в других штатах США?
С полным текстом обзора можно ознакомиться по ссылке.
Telegraph
Обзор Закона штата Колорадо “О защите прав потребителей при взаимодействии с системами ИИ”
В мае 2024 года в штате Колорадо вступил в силу закон "О защите прав потребителей при взаимодействии с системами искусственного интеллекта” (“Concerning Consumer Protections in Interactions with Artificial Intelligence Systems”). Сокращенно акт именуют Colorado…
❤10 4
Подписан закон о внесении изменений в ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ»
Позавчера Президент РФ подписал закон, который вносит изменения в ФЗ № 258. Закон содержит ряд технических правок, позволяет собирать больше информации о разных субъектах (например, субъекты ЭПР теперь должны будут вести реестры контрагентов и ИС, в том числе созданной с помощью систем ИИ).
Также на основе обобщения опыта более четко прописано требование об обязательном страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц.
Еще одной новацией стал механизм, позволяющий определять лиц, ответственных за причинение вреда жизни, здоровью или имуществу человека либо имуществу юридического лица.
Для этого будет создаваться специальная комиссия, которая должна будет изучить обстоятельства происшедшего и издать заключение. Правда, самым жестким последствием для субъекта ЭПР может стать решение уполномоченного органа о приостановлении его статуса. Из финального текста закона пропало положение о том, что заключение может быть использовано при проведении расследования или судебного разбирательства (но и запретов на его использование тоже нет). Однако заключение может быть обжаловано в суде.
Плюс теперь Правительство РФ должно будет ежегодно предоставлять доклад Федеральному собранию о реализации ЭПР.
Закон вступает в силу по истечение 180 дней со дня официального опубликования (опубликован 8 июля).
Мою рефлексию на предложенные изменения я изложил в посте в январе месяце, когда Правительство РФ только инициировало законопроект.
Полный текст закона тут.
Позавчера Президент РФ подписал закон, который вносит изменения в ФЗ № 258. Закон содержит ряд технических правок, позволяет собирать больше информации о разных субъектах (например, субъекты ЭПР теперь должны будут вести реестры контрагентов и ИС, в том числе созданной с помощью систем ИИ).
Также на основе обобщения опыта более четко прописано требование об обязательном страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц.
Еще одной новацией стал механизм, позволяющий определять лиц, ответственных за причинение вреда жизни, здоровью или имуществу человека либо имуществу юридического лица.
Для этого будет создаваться специальная комиссия, которая должна будет изучить обстоятельства происшедшего и издать заключение. Правда, самым жестким последствием для субъекта ЭПР может стать решение уполномоченного органа о приостановлении его статуса. Из финального текста закона пропало положение о том, что заключение может быть использовано при проведении расследования или судебного разбирательства (но и запретов на его использование тоже нет). Однако заключение может быть обжаловано в суде.
Плюс теперь Правительство РФ должно будет ежегодно предоставлять доклад Федеральному собранию о реализации ЭПР.
Закон вступает в силу по истечение 180 дней со дня официального опубликования (опубликован 8 июля).
Мою рефлексию на предложенные изменения я изложил в посте в январе месяце, когда Правительство РФ только инициировало законопроект.
Полный текст закона тут.
Telegram
howtocomply_AI: право и ИИ
Правительство РФ инициировало законопроект, направленный на обобщение практики работы ИИ-песочниц
Друзья, праздники подходят к концу, а значит, самое время поздравить вас с наступившим Новым годом! В нем нас ожидает большое число интересных новостей не…
Друзья, праздники подходят к концу, а значит, самое время поздравить вас с наступившим Новым годом! В нем нас ожидает большое число интересных новостей не…
❤7 2👍1
Опубликован финальный текст Регламента ЕС об ИИ
Сегодня в официальном источнике был опубликован финальный текст Регламента ЕС об ИИ. В силу документ вступит уже скоро – 1 августа.
Однако напоминаю, что применяться Регламент начнет со 2 августа 2026 года. Таким образом, законодатели, с одной стороны, дали время бизнесу изучить новые требования и подготовиться к ним, а с другой – органам ЕС разработать необходимые рекомендации, имплементационные акты и технические стандарты.
Для отдельных положений установлены иные сроки:
- Главы I (Общие положения) и II (Запрещенные ИИ-практики) применяются со 2 февраля 2025 года;
- раздел 4 Главы III (Нотифицированные органы), глава V (Модели ИИ общего назначения), глава VII (Управление (Governance)) и глава XII (Штрафы и иные меры воздействия (за исключением статьи 101 – Штрафы для поставщиков моделей ИИ общего назначения)), а также статья 78 (Конфиденциальность) применяются со 2 августа 2025 года;
- Часть 1 Статьи 6 (основания классификации систем ИИ в качестве систем повышенного риска) и соответствующие ей обязательства применяются со 2 августа 2027 года.
Сегодня в официальном источнике был опубликован финальный текст Регламента ЕС об ИИ. В силу документ вступит уже скоро – 1 августа.
Однако напоминаю, что применяться Регламент начнет со 2 августа 2026 года. Таким образом, законодатели, с одной стороны, дали время бизнесу изучить новые требования и подготовиться к ним, а с другой – органам ЕС разработать необходимые рекомендации, имплементационные акты и технические стандарты.
Для отдельных положений установлены иные сроки:
- Главы I (Общие положения) и II (Запрещенные ИИ-практики) применяются со 2 февраля 2025 года;
- раздел 4 Главы III (Нотифицированные органы), глава V (Модели ИИ общего назначения), глава VII (Управление (Governance)) и глава XII (Штрафы и иные меры воздействия (за исключением статьи 101 – Штрафы для поставщиков моделей ИИ общего назначения)), а также статья 78 (Конфиденциальность) применяются со 2 августа 2025 года;
- Часть 1 Статьи 6 (основания классификации систем ИИ в качестве систем повышенного риска) и соответствующие ей обязательства применяются со 2 августа 2027 года.
👍8❤4 4
Есть ли у AGI уровни и как это связано с правом?
На днях в Bloomberg вышла статья, в которой со ссылкой на источники внутри OpenAI утверждается, что компания представила для своих сотрудников классификацию сильного искусственного интеллекта (AGI). Это сделано для того, чтобы они лучше понимали, с чем имеют дело и куда технологии будут развиваться в будущем.
Классификация состоит из пяти уровней: от ИИ способного взаимодействовать с людьми на естественном языке (уровень 1), до ИИ способного заменить собой работу целой компании (уровень 5). Также предполагается, что первый уровень уже достигнут, и сейчас компания пытается достичь ИИ второго уровня (ИИ способного заниматься научными исследованиями).
В связи с этим мне и журналистам издания вспомнилась прошлогодняя статья группы ученых из Google DeepMind, в которой предлагается аналогичная классификация AGI на пять уровней (если не считать нулевой уровень – нет ИИ). Интересно, что классификация затрагивает как прикладной ИИ (Narrow AI), так и общий ИИ (AGI). Как можно видеть на скриншотах выше поста, то, по мнению авторов, мы уже имеем Narrow AI, превосходящий способности человека, но AGI аналогично достиг только первого уровня своего развития.
Почему такие классификации важны для правового регулирования?
Как мы с вами знаем, законодательной инновацией последнего года стало разделение на группы не только систем, но и моделей ИИ. Регламент ЕС об ИИ среди моделей ИИ общего назначения выделяет модели общего назначения, представляющие системные риски. Октябрьский указ Президента США выделил группу моделей ИИ двойного назначения. Необходимость разделения моделей на обычные и передовые многократно была предметом обсуждения на страницах научных изданий, что, безусловно, повлияло и на выработанные законодателями решения.
Вместе с тем очевидно, что с развитием технологий и внедрением их во все сферы общественной жизни потребуется выделение большего числа групп систем и моделей ИИ. Это позволит более гибко распространять юридические требования в отношении субъектов, которые их разрабатывают, применяют и используют.
На днях в Bloomberg вышла статья, в которой со ссылкой на источники внутри OpenAI утверждается, что компания представила для своих сотрудников классификацию сильного искусственного интеллекта (AGI). Это сделано для того, чтобы они лучше понимали, с чем имеют дело и куда технологии будут развиваться в будущем.
Классификация состоит из пяти уровней: от ИИ способного взаимодействовать с людьми на естественном языке (уровень 1), до ИИ способного заменить собой работу целой компании (уровень 5). Также предполагается, что первый уровень уже достигнут, и сейчас компания пытается достичь ИИ второго уровня (ИИ способного заниматься научными исследованиями).
В связи с этим мне и журналистам издания вспомнилась прошлогодняя статья группы ученых из Google DeepMind, в которой предлагается аналогичная классификация AGI на пять уровней (если не считать нулевой уровень – нет ИИ). Интересно, что классификация затрагивает как прикладной ИИ (Narrow AI), так и общий ИИ (AGI). Как можно видеть на скриншотах выше поста, то, по мнению авторов, мы уже имеем Narrow AI, превосходящий способности человека, но AGI аналогично достиг только первого уровня своего развития.
Почему такие классификации важны для правового регулирования?
Как мы с вами знаем, законодательной инновацией последнего года стало разделение на группы не только систем, но и моделей ИИ. Регламент ЕС об ИИ среди моделей ИИ общего назначения выделяет модели общего назначения, представляющие системные риски. Октябрьский указ Президента США выделил группу моделей ИИ двойного назначения. Необходимость разделения моделей на обычные и передовые многократно была предметом обсуждения на страницах научных изданий, что, безусловно, повлияло и на выработанные законодателями решения.
Вместе с тем очевидно, что с развитием технологий и внедрением их во все сферы общественной жизни потребуется выделение большего числа групп систем и моделей ИИ. Это позволит более гибко распространять юридические требования в отношении субъектов, которые их разрабатывают, применяют и используют.
AI Pact commitments.pdf
334.6 KB
Опубликован проект обязательств участников Европейского ИИ-Пакта
В мае этого года начал действовать ИИ-Пакт, направленный на то, чтобы, с одной стороны, помочь бизнесу подготовиться к поэтапному вступлению в силу положений Регламента ЕС об ИИ, а с другой – получить органам власти обратную связь о реализации его положений на практике. Подробнее про Пакт писал тут.
Теперь Европейский AI Office опубликовал Опубликован проект обязательств участников Европейского ИИ-Пакта, которые субъекты, согласившиеся на участие в Пакте, должны добровольно взять на себя.
Все обязательства условно можно разделить на две группы:
1) три основных обязательства;
2) дополнительные обязательства для разработчиков и поставщиков.
Основные обязательства должны реализовывать все участники, а к выполнению дополнительных стремиться (либо выбрать конкретные, применимые к сфере их деятельности).
К основным обязательствам относятся:
1. принять стратегию по управлению ИИ, включающую шаги по дальнейшему соблюдению требований Регламента;
2. провести анализ применяющихся и разрабатываемых систем ИИ на предмет их отнесения к группе систем ИИ повышенного риска;
3. содействовать развитию ИИ-грамотности сотрудников организации.
Среди дополнительных требований можно выделить, например, разработку необходимых политик, оценку рисков, маркировку синтетического контента, информирование пользователей, внедрения контроля со стороны человека над решениями, принятыми системами ИИ.
Хочется отметить, что как минимум разработать стратегию по управлению ИИ, оценить риски и понять, каким образом ими управлять, подготовить политики и персонал, информировать контрагентов и пользователей было бы не лишним в обозримом будущем, даже если ваша организация не собирается участвовать в ИИ-Пакте👀 .
В мае этого года начал действовать ИИ-Пакт, направленный на то, чтобы, с одной стороны, помочь бизнесу подготовиться к поэтапному вступлению в силу положений Регламента ЕС об ИИ, а с другой – получить органам власти обратную связь о реализации его положений на практике. Подробнее про Пакт писал тут.
Теперь Европейский AI Office опубликовал Опубликован проект обязательств участников Европейского ИИ-Пакта, которые субъекты, согласившиеся на участие в Пакте, должны добровольно взять на себя.
Все обязательства условно можно разделить на две группы:
1) три основных обязательства;
2) дополнительные обязательства для разработчиков и поставщиков.
Основные обязательства должны реализовывать все участники, а к выполнению дополнительных стремиться (либо выбрать конкретные, применимые к сфере их деятельности).
К основным обязательствам относятся:
1. принять стратегию по управлению ИИ, включающую шаги по дальнейшему соблюдению требований Регламента;
2. провести анализ применяющихся и разрабатываемых систем ИИ на предмет их отнесения к группе систем ИИ повышенного риска;
3. содействовать развитию ИИ-грамотности сотрудников организации.
Среди дополнительных требований можно выделить, например, разработку необходимых политик, оценку рисков, маркировку синтетического контента, информирование пользователей, внедрения контроля со стороны человека над решениями, принятыми системами ИИ.
Хочется отметить, что как минимум разработать стратегию по управлению ИИ, оценить риски и понять, каким образом ими управлять, подготовить политики и персонал, информировать контрагентов и пользователей было бы не лишним в обозримом будущем, даже если ваша организация не собирается участвовать в ИИ-Пакте
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5 3 3🔥1
Регулирование в сфере ИИ в России: электропони бегают по кругу
Сегодня в Коммерсанте вышел материал, в котором были изложены некоторые выводы спикеров по итогам прошедшей вчера конференции по развитию цифровой экономики БРИКС. После ознакомления с ним и небольшого обсуждения с коллегами возникло острое ощущение дежавю.
Например, спикеркой из Роспотребнадзора были подняты вопросы заимствования европейского опыта в связи с недавним принятием Регламента ЕС об ИИ, особенно в части требований к прозрачности функционирования систем ИИ: обязательное информирование пользователя о том, что он взаимодействует с системой ИИ, и возможность одностороннего отказа от такого взаимодействия.
Хочется отметить, что предложение использовать риск-ориентированный подход при формулировании отечественного подхода к регулированию в сфере ИИ по аналогии ЕС имелось еще в крайне неоднозначной Концепции развития регулирования до 2024 года, утвержденной Правительством РФ. Более того, в ней содержатся и те же самые предложения о прозрачности. Сам документ разрабатывался и обсуждался в 2019-2020 годах (бывал на тех мероприятиях). Тогда текст проекта Регламента ЕС об ИИ еще не был представлен. Все вдохновлялись документами HLEG и CAHAI, а потом и вайтпейпером 2020 года, в котором и были сформулированы основы будущего подхода ЕС.
Что мы имеем в мире спустя почти 5 лет?
В ЕС скоро начнет действовать Регламент ЕС об ИИ, равно как и разработан и/или принят целый кластер новых нормативных правовых актов, затрагивающих как публичный, так и частный секторы.
В США урегулирована деятельность федеральных органов власти в сфере разработки и применения систем ИИ. Для частного сектора разработаны акты мягкого права. Суды и органы власти оперативно делятся лучшими практиками и восполняют пробелы в рамках своей компетенции. Штаты экспериментируют над собственными опережающими подходами.
В Китае на время разработки комплексного правового регулирования для частного сектора были разработаны акты, регламентирующие отдельные сферы применения систем ИИ (с публичным все не очень).
Что мы имеем в России спустя почти 5 лет?
В этом году была незначительно скорректирована под современные тренды Национальная стратегия развития ИИ до 2030 года (писал об этом тут). Крайне фрагментарно урегулированы рекомендательные технологии (можно почитать тут). Действуют 14 экспериментальных правовых режимов, но только в сферах медицины и беспилотного транспорта. Упомянутая мной ранее концепция за четыре года так и не была реализована. Еще был разработан Кодекс этики и другие рекомендации, соблюдение которых ничем не обеспечено. Таким образом, разработчиков и пользователей систем и моделей ИИ сейчас ограничивает по большей части только общее законодательство и деловая репутация. А вот государство не ограничивает почти ничего.
Может быть, и не надо нам ваше регулирование?
Очень часто я сталкиваюсь с тезисом о том, что нормативное регулирование не нужно, так как оно тормозит развитие инноваций. Действительно, поспешное, чрезмерное или некачественное правовое регулирование отнюдь нельзя назвать хорошим способом решения проблем. Так же, как и его отсутствие или недостаточность.
Дикий Запад в частной сфере скорее толкает к использованию недобросовестных практик, чем стимулирует развитие. Бизнесу (особенно юристам) проще работать, когда в сложных и неоднозначных ситуациях есть возможность опереться на сформулированные органами позиции и лучшие практики.
Однако если в частной сфере недостаточность правового регулирования можно еще связать с намеренной проинновационностью, то следует как минимум урегулировать разработку и применение систем и моделей ИИ органами власти. Особенно, когда это уже приводит к многочисленным нарушениям прав человека, например, за счет произвольного использования систем распознавания лиц правоохранительными органами (например, писал об этом тут).
На мой взгляд, стоило бы для начала защитить конституционные права человека, а не обсуждать из года в год одно и то же, когда представляется инфоповод в виде новостей из-за рубежа.
Сегодня в Коммерсанте вышел материал, в котором были изложены некоторые выводы спикеров по итогам прошедшей вчера конференции по развитию цифровой экономики БРИКС. После ознакомления с ним и небольшого обсуждения с коллегами возникло острое ощущение дежавю.
Например, спикеркой из Роспотребнадзора были подняты вопросы заимствования европейского опыта в связи с недавним принятием Регламента ЕС об ИИ, особенно в части требований к прозрачности функционирования систем ИИ: обязательное информирование пользователя о том, что он взаимодействует с системой ИИ, и возможность одностороннего отказа от такого взаимодействия.
Хочется отметить, что предложение использовать риск-ориентированный подход при формулировании отечественного подхода к регулированию в сфере ИИ по аналогии ЕС имелось еще в крайне неоднозначной Концепции развития регулирования до 2024 года, утвержденной Правительством РФ. Более того, в ней содержатся и те же самые предложения о прозрачности. Сам документ разрабатывался и обсуждался в 2019-2020 годах (бывал на тех мероприятиях). Тогда текст проекта Регламента ЕС об ИИ еще не был представлен. Все вдохновлялись документами HLEG и CAHAI, а потом и вайтпейпером 2020 года, в котором и были сформулированы основы будущего подхода ЕС.
Что мы имеем в мире спустя почти 5 лет?
В ЕС скоро начнет действовать Регламент ЕС об ИИ, равно как и разработан и/или принят целый кластер новых нормативных правовых актов, затрагивающих как публичный, так и частный секторы.
В США урегулирована деятельность федеральных органов власти в сфере разработки и применения систем ИИ. Для частного сектора разработаны акты мягкого права. Суды и органы власти оперативно делятся лучшими практиками и восполняют пробелы в рамках своей компетенции. Штаты экспериментируют над собственными опережающими подходами.
В Китае на время разработки комплексного правового регулирования для частного сектора были разработаны акты, регламентирующие отдельные сферы применения систем ИИ (с публичным все не очень).
Что мы имеем в России спустя почти 5 лет?
В этом году была незначительно скорректирована под современные тренды Национальная стратегия развития ИИ до 2030 года (писал об этом тут). Крайне фрагментарно урегулированы рекомендательные технологии (можно почитать тут). Действуют 14 экспериментальных правовых режимов, но только в сферах медицины и беспилотного транспорта. Упомянутая мной ранее концепция за четыре года так и не была реализована. Еще был разработан Кодекс этики и другие рекомендации, соблюдение которых ничем не обеспечено. Таким образом, разработчиков и пользователей систем и моделей ИИ сейчас ограничивает по большей части только общее законодательство и деловая репутация. А вот государство не ограничивает почти ничего.
Может быть, и не надо нам ваше регулирование?
Очень часто я сталкиваюсь с тезисом о том, что нормативное регулирование не нужно, так как оно тормозит развитие инноваций. Действительно, поспешное, чрезмерное или некачественное правовое регулирование отнюдь нельзя назвать хорошим способом решения проблем. Так же, как и его отсутствие или недостаточность.
Дикий Запад в частной сфере скорее толкает к использованию недобросовестных практик, чем стимулирует развитие. Бизнесу (особенно юристам) проще работать, когда в сложных и неоднозначных ситуациях есть возможность опереться на сформулированные органами позиции и лучшие практики.
Однако если в частной сфере недостаточность правового регулирования можно еще связать с намеренной проинновационностью, то следует как минимум урегулировать разработку и применение систем и моделей ИИ органами власти. Особенно, когда это уже приводит к многочисленным нарушениям прав человека, например, за счет произвольного использования систем распознавания лиц правоохранительными органами (например, писал об этом тут).
На мой взгляд, стоило бы для начала защитить конституционные права человека, а не обсуждать из года в год одно и то же, когда представляется инфоповод в виде новостей из-за рубежа.
Коммерсантъ
Ботов заставят представляться
В предложения по регулированию ИИ впишут европейский опыт и российские жалобы
❤8 4👍3🔥3
Американский AI Safety Institute опубликовал рекомендации по снижению рисков ненадлежащего использования фундаментальных моделей ИИ двойного назначения
Американский AI Safety Institute подготовил еще один проект документа (NIST AI 800-1 Managing Misuse Risk for Dual-Use Foundation Models), который призван дополнить Систему управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованную в марте 2023 года. Разработка данного документа была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
В Указе содержится определение моделей ИИ двойного назначения. Так как оно довольно громоздкое, выложу его отдельно комментарием к посту.
Документ обобщает лучшие практики по выявлению, оценке и управлению рисками, которые могут возникнуть при ненадлежащем использовании моделей ИИ. Указанные в нем рекомендации направлены на всех субъектов, участвующих в жизненном цикле моделей, но наиболее релевантны именно для разработчиков.
Рекомендации определяются в виде семи целей, которым корреспондируют конкретные практики (в документе практики расписаны более подробно, включая необходимое документирование):
1. Оценить риски потенциальной возможности ненадлежащего использования моделей, если они станут доступны злоумышленникам. Делать это следует еще до разработки моделей на основе их предполагаемых характеристик.
2. Разработать планы по управлению рисками в случае ненадлежащего использования моделей. В частности, следует определить приемлемые и неприемлемые уровни риска, учитывая нормативные требования и потенциальные выгоды (оправданы ли риски), а также согласовать планы разработки и развертывания моделей с ресурсами и ограничениями, которые могут потребоваться для управления рисками.
3. Управлять рисками утечки и кражи информации, которая позволит злоумышленникам воссоздать модель. Стоит разрабатывать модель только тогда, когда соответствующие риски значительно снижены путем использования разнообразных методов (например, посредством метода красных команд, использования передовых фреймворков кибербезопасности).
4. Оценить, учитывая технические и социальные факторы, каким образом злоумышленники могут использовать модель ненадлежащим образом.
5. Распространять модель (через API или публиковать параметры и иные характеристики) только тогда, когда риски адекватно снижены.
6. Изучать опыт уже развернутых моделей, а также взаимодействовать с общественность и другими организациями в целях поиска путей митигирования потенциальных рисков.
7. Раскрыть релевантную информацию о разработке и применении моделей для общественности и научных организаций.
В документе содержатся два приложения. Первое представляет собой глоссарий терминов, а второе – примеры конкретных мер защиты моделей от ненадлежащего использования.
К таким мерам относятся, например: а) внедрение более совершенных методов обучения моделей; б) определение и блокирование попыток ненадлежащего использования моделей; в) ограничение доступа к возможностям моделей; г) обеспечение адекватного уровеня открытости моделей; д) прекращение разработки и использования моделей, если имеются высокие риски их ненадлежащего использования.
Также ранее Национальный институт стандартов и технологий США (NIST) опубликовал еще четыре проекта документа, связанных с генеративными системами ИИ. Почитать про них подробнее можно в моем посте тут.
Американский AI Safety Institute подготовил еще один проект документа (NIST AI 800-1 Managing Misuse Risk for Dual-Use Foundation Models), который призван дополнить Систему управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованную в марте 2023 года. Разработка данного документа была определена октябрьским Указом Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия» (мой разбор указа можно почитать тут).
В Указе содержится определение моделей ИИ двойного назначения. Так как оно довольно громоздкое, выложу его отдельно комментарием к посту.
Документ обобщает лучшие практики по выявлению, оценке и управлению рисками, которые могут возникнуть при ненадлежащем использовании моделей ИИ. Указанные в нем рекомендации направлены на всех субъектов, участвующих в жизненном цикле моделей, но наиболее релевантны именно для разработчиков.
Рекомендации определяются в виде семи целей, которым корреспондируют конкретные практики (в документе практики расписаны более подробно, включая необходимое документирование):
1. Оценить риски потенциальной возможности ненадлежащего использования моделей, если они станут доступны злоумышленникам. Делать это следует еще до разработки моделей на основе их предполагаемых характеристик.
2. Разработать планы по управлению рисками в случае ненадлежащего использования моделей. В частности, следует определить приемлемые и неприемлемые уровни риска, учитывая нормативные требования и потенциальные выгоды (оправданы ли риски), а также согласовать планы разработки и развертывания моделей с ресурсами и ограничениями, которые могут потребоваться для управления рисками.
3. Управлять рисками утечки и кражи информации, которая позволит злоумышленникам воссоздать модель. Стоит разрабатывать модель только тогда, когда соответствующие риски значительно снижены путем использования разнообразных методов (например, посредством метода красных команд, использования передовых фреймворков кибербезопасности).
4. Оценить, учитывая технические и социальные факторы, каким образом злоумышленники могут использовать модель ненадлежащим образом.
5. Распространять модель (через API или публиковать параметры и иные характеристики) только тогда, когда риски адекватно снижены.
6. Изучать опыт уже развернутых моделей, а также взаимодействовать с общественность и другими организациями в целях поиска путей митигирования потенциальных рисков.
7. Раскрыть релевантную информацию о разработке и применении моделей для общественности и научных организаций.
В документе содержатся два приложения. Первое представляет собой глоссарий терминов, а второе – примеры конкретных мер защиты моделей от ненадлежащего использования.
К таким мерам относятся, например: а) внедрение более совершенных методов обучения моделей; б) определение и блокирование попыток ненадлежащего использования моделей; в) ограничение доступа к возможностям моделей; г) обеспечение адекватного уровеня открытости моделей; д) прекращение разработки и использования моделей, если имеются высокие риски их ненадлежащего использования.
Также ранее Национальный институт стандартов и технологий США (NIST) опубликовал еще четыре проекта документа, связанных с генеративными системами ИИ. Почитать про них подробнее можно в моем посте тут.
❤6🔥4 2
Исследователи из Ada Lovelace Institute опубликовали отчет об оценке фундаментальных моделей ИИ
Группа исследователей из Ada Lovelace Institute подготовила большой отчет, в котором они проанализировали то, насколько эффективны существующие методы оценки фундаментальных моделей ИИ.
Исследование было проведено на основе опроса 16 экспертов, представляющих разработчиков, внешних оценщиков и аудиторов, научные организации и гражданское общество.
Авторы пришли к следующим основным выводам:
1. Существующие методы оценки помогают лучше понимать особенности работы фундаментальных моделей, но недостаточно эффективны для обеспечения безопасности. Авторы выделили три группы проблем проведения оценок моделей: теоретические, социальные, технико-внедренческие. Более подробно проблемы описаны на скриншоте.
2. Для обеспечения безопасности оценки должны сопровождаться другими методами, такими как кодексы практики, отчеты об инцидентах и пост-рыночный мониторинг. В частности, авторы предлагают многослойный подход к AI Governance, в котором уменьшение рисков будет достигаться за счет использования разного набора методов на протяжении всего жизненного цикла моделей ИИ. Интересно, что объясняют они его на примере сыра с дырками: в разных кусочках сыра расположение дырок отличается. Значит, и шанс их совпадения на всем протяжении уменьшается. Подход нельзя назвать новым, но визуализация достойная🤩 .
3. Существующие методы оценки, такие как метод красных команд и бенчмаркинг, также имеют технические и практические ограничения. Например, разработчики могут повлиять на результаты оценки или выбрать только те методы, которые для них наиболее выгодны. То есть нужны единые одобренные госорганами критерии и схемы сертификации.
4. Результаты оценки валидны только для конкретной версии модели. Любые изменения или тонкая настройка могут существенно повлиять на полученные в ходе оценки данные.
5. Оценки моделей не могут происходить в вакууме. Для обеспечения безопасности важно учитывать сценарии, условия и контекст, в которых модель будет использоваться.
В отчете содержится масса иной полезной информации о самих фундаментальных моделях ИИ и рисках их разработки и функционирования. Так что смело можно его начинать читать, даже если нет глубоких знаний предмета. Все изложено очень доступным языком.
Также недавно я разбирал прошлое исследование команды Института о практике реализации внешних независимых аудитов систем ИИ.
Группа исследователей из Ada Lovelace Institute подготовила большой отчет, в котором они проанализировали то, насколько эффективны существующие методы оценки фундаментальных моделей ИИ.
Исследование было проведено на основе опроса 16 экспертов, представляющих разработчиков, внешних оценщиков и аудиторов, научные организации и гражданское общество.
Авторы пришли к следующим основным выводам:
1. Существующие методы оценки помогают лучше понимать особенности работы фундаментальных моделей, но недостаточно эффективны для обеспечения безопасности. Авторы выделили три группы проблем проведения оценок моделей: теоретические, социальные, технико-внедренческие. Более подробно проблемы описаны на скриншоте.
2. Для обеспечения безопасности оценки должны сопровождаться другими методами, такими как кодексы практики, отчеты об инцидентах и пост-рыночный мониторинг. В частности, авторы предлагают многослойный подход к AI Governance, в котором уменьшение рисков будет достигаться за счет использования разного набора методов на протяжении всего жизненного цикла моделей ИИ. Интересно, что объясняют они его на примере сыра с дырками: в разных кусочках сыра расположение дырок отличается. Значит, и шанс их совпадения на всем протяжении уменьшается. Подход нельзя назвать новым, но визуализация достойная
3. Существующие методы оценки, такие как метод красных команд и бенчмаркинг, также имеют технические и практические ограничения. Например, разработчики могут повлиять на результаты оценки или выбрать только те методы, которые для них наиболее выгодны. То есть нужны единые одобренные госорганами критерии и схемы сертификации.
4. Результаты оценки валидны только для конкретной версии модели. Любые изменения или тонкая настройка могут существенно повлиять на полученные в ходе оценки данные.
5. Оценки моделей не могут происходить в вакууме. Для обеспечения безопасности важно учитывать сценарии, условия и контекст, в которых модель будет использоваться.
В отчете содержится масса иной полезной информации о самих фундаментальных моделях ИИ и рисках их разработки и функционирования. Так что смело можно его начинать читать, даже если нет глубоких знаний предмета. Все изложено очень доступным языком.
Также недавно я разбирал прошлое исследование команды Института о практике реализации внешних независимых аудитов систем ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Маленький праздник для любителей AI Governance
Друзья, сегодня, наконец, вступил в силу Регламент ЕС об ИИ. Это событие многие из нас ждали с далекого 21 апреля 2021 года, когда официально была представлена первая версия текста.
С тех пор документ значительно преобразился. Что-то поменялось в лучшую сторону, а что-то – в худшую. Появились и полностью новые подходы к регулированию. Однако, несомненно, Регламент не стал той самой заветной пилюлей (единым комплексным актом), способной решить все проблемы, связанные с разработкой и применением систем и моделей ИИ. Скорее, он занял место одного из ядер (не забываем, что в ЕС есть масса других актов, связанных с ИИ), вокруг которых в дальнейшем будет выстроена более-менее целостная система правового и технического регулирования.
Во-первых, сам акт предполагает дальнейшую разработку Еврокомиссией ряда разъяснений и имплементационных актов. Например, на днях Европейский AI Office запустил подготовку и обсуждение Кодекса лучших практик для систем и моделей ИИ общего назначения. Проект Кодекса должен быть подготовлен к апрелю 2025 года.
Во-вторых, CEN-CENELEC недавно начал работу над соответствующими техническими стандартами, которые должны быть приняты в ближайшие годы (пока планируется на 2025 год).
В-третьих, предварительная работа по формированию лучших практик и подготовке бизнеса к соблюдению требований Регламента активно идет в рамках AI-Pact (писал об этом тут и тут).
В-четвертых, продолжается работа над другими решениями в сфере создания необходимой инфраструктуры для развития ИИ (писал об этом тут).
В-пятых, был приведен в соответствие с финальным текстом Регламента проект Директивы об ответственности в сфере ИИ (AI Liability Directive). Ждем обновленный текст. Если кто-то увидит раньше, поделитесь.
Напоминаю, что документ начнет применяться не сразу. Недавно детально расписал этот вопрос в своем посте.
Таким образом, развитие ИИ готовит еще много захватывающих загадок для юридических умов🤩 .
Друзья, сегодня, наконец, вступил в силу Регламент ЕС об ИИ. Это событие многие из нас ждали с далекого 21 апреля 2021 года, когда официально была представлена первая версия текста.
С тех пор документ значительно преобразился. Что-то поменялось в лучшую сторону, а что-то – в худшую. Появились и полностью новые подходы к регулированию. Однако, несомненно, Регламент не стал той самой заветной пилюлей (единым комплексным актом), способной решить все проблемы, связанные с разработкой и применением систем и моделей ИИ. Скорее, он занял место одного из ядер (не забываем, что в ЕС есть масса других актов, связанных с ИИ), вокруг которых в дальнейшем будет выстроена более-менее целостная система правового и технического регулирования.
Во-первых, сам акт предполагает дальнейшую разработку Еврокомиссией ряда разъяснений и имплементационных актов. Например, на днях Европейский AI Office запустил подготовку и обсуждение Кодекса лучших практик для систем и моделей ИИ общего назначения. Проект Кодекса должен быть подготовлен к апрелю 2025 года.
Во-вторых, CEN-CENELEC недавно начал работу над соответствующими техническими стандартами, которые должны быть приняты в ближайшие годы (пока планируется на 2025 год).
В-третьих, предварительная работа по формированию лучших практик и подготовке бизнеса к соблюдению требований Регламента активно идет в рамках AI-Pact (писал об этом тут и тут).
В-четвертых, продолжается работа над другими решениями в сфере создания необходимой инфраструктуры для развития ИИ (писал об этом тут).
В-пятых, был приведен в соответствие с финальным текстом Регламента проект Директивы об ответственности в сфере ИИ (AI Liability Directive). Ждем обновленный текст. Если кто-то увидит раньше, поделитесь.
Напоминаю, что документ начнет применяться не сразу. Недавно детально расписал этот вопрос в своем посте.
Таким образом, развитие ИИ готовит еще много захватывающих загадок для юридических умов
Please open Telegram to view this post
VIEW IN TELEGRAM
Shaping Europe’s digital future
AI Act: Participate in the drawing-up of the first General-Purpose AI Code of Practice
The European AI Office has opened a call for expression of interest to participate in the drawing-up of the first general-purpose AI Code of Practice.
👍4 4 3❤1
Национальный институт стандартов и технологий США (NIST) опубликовал рекомендации для генеративных систем ИИ
В апреле я опубликовал пост о том, что NIST разместил для широкого обсуждения четыре проекта документа, связанных с генеративными системами ИИ. В конце июля два из них были опубликованы в финальной версии.
Оба документа имеют важное значение и определяют шаги по обеспечению безопасности для субъектов, которые разрабатывают и используют системы и модели ИИ. В первую очередь они направлены на модели и системы генеративного ИИ и на модели ИИ двойного назначения.
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах. Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. Эти риски я раскрывал в предыдущем посте, они не претерпели значительных изменений.
2. Secure Software Development Practices for Generative AI and Dual-Use Foundation Models (NIST SP 800-218A)
Документ призван дополнить Систему безопасной разработки программного обеспечения (Secure Software Development Framework (SSDF) Version 1.1: Recommendations for Mitigating the Risk of Software Vulnerabilities (NIST SP 800-218)) в отношении особенностей, связанных с системами и моделями генеративного ИИ и моделями ИИ двойного назначения.
Особое внимание следует уделить вторым частям обоих документов, в которых содержатся рекомендации по осуществлению конкретных действий по управлению рисками и обеспечению безопасности разработки и применения. Если вам уже сейчас нужно предпринимать шаги по обеспечению безопасности продуктов, но вы не знаете, каким образом это делать в отсутствии нормальных законодательных требований, то рекомендую ознакомиться с содержанием новых документов, даже если вы не собираетесь работать с данной юрисдикцией.
Бонусом еще одна интересная новость из США: Сэм Альтман в своем твитте подчеркнул, что OpenAI сейчас работает над соглашением с US AI Safety Institute (функционирует в структуре NIST) о предоставлении раннего доступа к своим передовым фундаментальным моделям для проведения проверок на их безопасность.
Таким образом, мы продолжаем прослеживать тренд на постепенное установление требований о проведении внешних оценок передовых моделей государственными органами или независимыми организациями.
В апреле я опубликовал пост о том, что NIST разместил для широкого обсуждения четыре проекта документа, связанных с генеративными системами ИИ. В конце июля два из них были опубликованы в финальной версии.
Оба документа имеют важное значение и определяют шаги по обеспечению безопасности для субъектов, которые разрабатывают и используют системы и модели ИИ. В первую очередь они направлены на модели и системы генеративного ИИ и на модели ИИ двойного назначения.
1. AI RMF Generative AI Profile (NIST AI 600-1)
Документ является дополнением к Системе управления рисками в сфере ИИ (NIST AI Risk Management Framework (AI RMF)), опубликованной в марте 2023 года. Напомню, что AI RMF предусматривает рекомендации, сформулированные органами власти для частных компаний, по безопасным разработке и использованию систем ИИ в разных сферах. Новый документ сосредоточен на способах митигирования специфических рисков, которые возникают в ходе разработки и использования генеративных систем ИИ. Эти риски я раскрывал в предыдущем посте, они не претерпели значительных изменений.
2. Secure Software Development Practices for Generative AI and Dual-Use Foundation Models (NIST SP 800-218A)
Документ призван дополнить Систему безопасной разработки программного обеспечения (Secure Software Development Framework (SSDF) Version 1.1: Recommendations for Mitigating the Risk of Software Vulnerabilities (NIST SP 800-218)) в отношении особенностей, связанных с системами и моделями генеративного ИИ и моделями ИИ двойного назначения.
Особое внимание следует уделить вторым частям обоих документов, в которых содержатся рекомендации по осуществлению конкретных действий по управлению рисками и обеспечению безопасности разработки и применения. Если вам уже сейчас нужно предпринимать шаги по обеспечению безопасности продуктов, но вы не знаете, каким образом это делать в отсутствии нормальных законодательных требований, то рекомендую ознакомиться с содержанием новых документов, даже если вы не собираетесь работать с данной юрисдикцией.
Бонусом еще одна интересная новость из США: Сэм Альтман в своем твитте подчеркнул, что OpenAI сейчас работает над соглашением с US AI Safety Institute (функционирует в структуре NIST) о предоставлении раннего доступа к своим передовым фундаментальным моделям для проведения проверок на их безопасность.
Таким образом, мы продолжаем прослеживать тренд на постепенное установление требований о проведении внешних оценок передовых моделей государственными органами или независимыми организациями.
Telegram
howtocomply_AI: право и ИИ
Национальный институт стандартов и технологий США (NIST) опубликовал четыре проекта документа, связанных с генеративными системами ИИ
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена…
Вчера Национальный институт стандартов и технологий США опубликовал четыре проекта документа, разработка которых была определена…
❤5 3🔥2
OpenAI собирается выполнять требования Регламента ЕС об ИИ
На сайте компании появился пост, в котором кратко изложены основные требования Регламента ЕС об ИИ. Можно ознакомиться, если еще не успели. Но лучше, конечно, прочитать акт целиком.
Однако нам сейчас интересен последний абзац поста: в нем говорится, что компания планирует соблюдать требования акта, активно работать над этим напрямую с Европейским AI Office, а также в ближайшее время начнет готовить техническую и иную документацию к своим моделям ИИ общего назначения для ее передачи другим субъектам в цепочке поставки (поставщикам, эксплуатантам, пользователям).
Видимо, юристы компании наконец внимательно изучили акт и поняли, что все на самом деле не так страшно, как это казалось со стороны. Хотя ранее Сэм Альтман, бывало, высказывался, что компания раздумывает уйти с европейского рынка из-за чрезмерно сурового законодательства.
Интересно, что несколькими неделями ранее Ян Лекун (вице-президент и ведущий исследователь ИИ в Meta (запрещена и признана экстремистской в РФ)) в своем посте в LinkedIn, наоборот, указал, что компания не будет выходить на рынок ЕС с мультимодальными версиями Llama-3 из-за «непредсказуемости нормативно-правовой базы». На что, естественно, получил волну критики со стороны юридической публики в комментариях. Ждем, когда разберутся и передумают🤩 .
На сайте компании появился пост, в котором кратко изложены основные требования Регламента ЕС об ИИ. Можно ознакомиться, если еще не успели. Но лучше, конечно, прочитать акт целиком.
Однако нам сейчас интересен последний абзац поста: в нем говорится, что компания планирует соблюдать требования акта, активно работать над этим напрямую с Европейским AI Office, а также в ближайшее время начнет готовить техническую и иную документацию к своим моделям ИИ общего назначения для ее передачи другим субъектам в цепочке поставки (поставщикам, эксплуатантам, пользователям).
Видимо, юристы компании наконец внимательно изучили акт и поняли, что все на самом деле не так страшно, как это казалось со стороны. Хотя ранее Сэм Альтман, бывало, высказывался, что компания раздумывает уйти с европейского рынка из-за чрезмерно сурового законодательства.
Интересно, что несколькими неделями ранее Ян Лекун (вице-президент и ведущий исследователь ИИ в Meta (запрещена и признана экстремистской в РФ)) в своем посте в LinkedIn, наоборот, указал, что компания не будет выходить на рынок ЕС с мультимодальными версиями Llama-3 из-за «непредсказуемости нормативно-правовой базы». На что, естественно, получил волну критики со стороны юридической публики в комментариях. Ждем, когда разберутся и передумают
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
A Primer on the EU AI Act: What It Means for AI Providers and Deployers
We’re sharing a preliminary overview of the EU AI Act including upcoming deadlines and requirements, with a particular focus on prohibited and high-risk use cases