howtocomply_AI: право и ИИ – Telegram
howtocomply_AI: право и ИИ
1.33K subscribers
229 photos
4 videos
6 files
313 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
В Японии выпустили руководство по ИИ для бизнеса

Несколько японских министерств в апреле выпустили первую версию Руководства для бизнеса в сфере ИИ.

Руководство рассчитано на разработчиков, поставщиков и бизнес-пользователей систем и моделей ИИ.

Документ условно можно разбить на три части:

- терминология. Тут интересного мало. Терминология во многом взята из стандартов ISO и документов ОЭСР;

- принципы использования ИИ для бизнеса. Из Социальных принципов человеко-ориентированного ИИ 2019 года взяты три базовых философских принципа (достоинство личности, разнообразие и инклюзивность, устойчивое развитие), а также на основе международных документов сформулированы десять более конкретных принципов и описаны шаги для бизнеса по их имплементации (расписаны на скриншоте);

- конкретные рекомендации для разработчиков, поставщиков и бизнес-пользователей. Большинство этих рекомендаций также взяты из международных документов, но не будет лишним еще раз по ним пробежаться.
53👍1
Еврокомиссия определилась со структурой компетентного органа в сфере ИИ

Вчера Еврокомиссия опубликована пресс-релиз, в котором содержится информация о внутренней структуре European AI Office. Орган начал действовать в составе Еврокомиссии с февраля этого года. Подробнее писал об этом тут.

Также известный нам по инсайдам о проекте Регламента ЕС об ИИ журналист Лука Бертуцци опубликовал в своем Линкедине пост о персональном составе руководства органа.

Возглавлять орган будет Руководитель AI Office, который будет работать вместе с советником по науке и советником по международным вопросам.

Руководителем стала Лучилла Сиоли, которая ранее работала на лидирующих позициях, связанных с ИИ, внутри Еврокомиссии.

AI Office будет состоять из пяти структурных подразделений:


Отдел по нормативному регулированию и комплаенсу (Regulation and Compliance Unit), который будет координировать единообразное применение Регламента ЕС об ИИ в странах-членах и участвовать в расследованиях возможных нарушений;

Отдел по вопросам безопасности ИИ (Unit on AI safety), специализирующийся на выявлении системных рисков, связанных с использованием передовых моделей ИИ, а также на разработке подходов к оценке и тестированию систем и моделей ИИ;

Отдел передового опыта в области ИИ и робототехники (Excellence in AI and Robotics Unit), который буде поддерживать передовые исследования и обеспечивать обмен опытом. Подразделение будет координировать инициативу GenAI4EU (направлена на внедрение моделей ИИ в ключевые секторы экономики);

Отдел по использованию искусственного интеллекта в интересах общества (AI for Societal Good Unit) будет координировать международное сотрудничество в таких областях, как применение ИИ для моделирования погоды, диагностика рака, создания цифровых двойников для реконструкции зданий;

Отдел координации инноваций и политики в сфере ИИ (AI Innovation and Policy Coordination Unit ), который будет отвечать за реализацию стратегии ЕС в сфере ИИ, стимулировать внедрение ИИ через сеть европейских центров цифровых инноваций и создание фабрик ИИ, а также содействовать развитию инновационной экосистемы путем создания регуляторных песочниц и иных тестовых зон.

Для обеспечения работы в AI Office предполагается принять на работу более 140 сотрудников (конечно, будут и юристы). Пока вакантными являются более 80 позиций. Можно попытать удачу тут.

В своей деятельности AI Office будет сотрудничать вместе с Европейским советом по ИИ (European Artificial Intelligence Board), состоящим из представителей государств-членов, Научной группой независимых экспертов (Scientific Panel of independent experts) и Консультативным форумом (Advisory Forum), представляющем интересы стейкхолдеров.
43
Набор данных о законодательстве и органах ЕС в сфере цифровых инноваций

Исследователи из аналитического центра Bruegel представили сегодня набор данных о законодательстве и органах на уровне ЕС, занимающихся вопросами регулирования отношений в сфере цифрового пространства.

Документ состоит из двух частей:

- существующее законодательство в цифровой сфере и проекты НПА с ходом их движения в рамках правотворческого процесса;

- правительственные и неправительственные органы на уровне ЕС, компетентные в сфере цифровых инноваций.

Уверен, что у большинства коллег, кто профессионально занимается данной сферой, уже были похожие базы знаний в ноушене или экселе 👀, но сверить часы не помешает никому.
Please open Telegram to view this post
VIEW IN TELEGRAM
52
Media is too big
VIEW IN TELEGRAM
Друзья, на днях я прочитал лекцию о подходах к нормативному правовому регулированию в сфере разработки и применения систем и моделей ИИ в США, КНР и России — в рамках курса AI Governance от RPPA, которую недавно анонсировал.

Несмотря на то, что аналогичные лекции или курсы по ИИ регулированию я проводил уже неоднократно, все равно было интересно отвлечься от регулирования ЕС, которое сейчас по большей части находится в фокусе ИИ-юристов.

В лекции мы рассмотрели пути возникновения и развития подходов стран, их особенности, а также сформулировали действующую систему нормативного правого регулирования в сфере разработки и применения систем и моделей ИИ, беспилотного трансопрта и робототехники.

В небольшом эпизоде из лекции, который я приложил к посту, мы со студентами курса разбирали классификацию передовых фундаментальных моделей ИИ в контексте Указа Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия», который я анализировал тут.

Всем приятных выходных! А я пока буду готовить для вас новый пост 🤓.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1054👍3
👍22
Исследователи из Института Ады Лавлейс выпустили статью о том, каким образом лучше организовать проведение внешнего независимого аудита для систем ИИ

Группа авторов из Института Ады Лавлейс опубликовала статью с рефлексией относительно текущей практики проведения внешних независимых аудитов систем ИИ. Исследователи сконцентрировались на опыте реализации положений акта города Нью-Йорк об аудите предвзятости при использовании автоматизированных инструментов принятия решений в сфере трудоустройства, который вступил в силу 5 июля прошлого года. Разбор акта имеется на моем канале тут.

Остановимся на некоторых интересных выводах:

- принятие акта не повлияло на справедливость при приеме на работу. За год всего 20 работодателей в Нью-Йорке провели аудит и опубликовали отчеты;

- отчасти корень проблемы зарыт в самих положениях акта, которые требуют лишь предоставить кандидатам или работникам информацию об использовании в их отношении алгоритма, но не вводят запрет на применение предвзятых систем;

- терминология, использующаяся в акте, слишком узкая, а органам власти не переданы полномочия по контролю за его соблюдением;

- эффективности акта помешало также отсутствие четких стандартов и методик работы аудиторов, которые позволили бы им получать всю необходимую информацию, особенно касающуюся чувствительных вопросов;

- однако благодаря вступлению акту в силу удалось разработать стандартизированные критерии оценки работодателей, что заставило некоторых из них расширить внедрение практик ответственного использования ИИ-решений.

По итогам проведенного исследования авторы сформулировали рекомендации для законодателей:

- нормативные акты должны содержать четкие определения, которые позволяют однозначно понять предмет регулирования (какие конкретно системы и модели подлежат аудиту);

- нормативные акты должны устанавливать четкие метрики для аудиторов, а также необходимость разработки стандартных методик и правил поведения аудитора. Аудиторы должны быть обеспечены соответствующими правами по доступу к информации;

- необходимо создать единый публично доступный реестр, в котором будут содержаться отчеты о проведенных аудитах, а также юридические механизмы, позволяющие оспаривать их результаты;

- нормативные акты должны устанавливать механизмы, позволяющие контролировать их соблюдение.

Интересно, что в рамках исследования были опрошены эксперты из компаний и организаций, которые занимаются оценкой систем и моделей ИИ. В их числе, например, знакомые многим моим читателям ForHumanity, BABL, HollisticAI, CredoAI, SolasAI.

Над постом прикрепляю полезную инфографику из статьи.
64👍2
Системы_искусственного_интеллекта_и_внедоговорная_гражданско_правовая.pdf
389.9 KB
Опубликована моя статья о системах ИИ и внедоговорной гражданско-правовой ответственности

Друзья, пока я нахожусь в небольшом отпуске после адского по числу проектов прошлого месяца, делюсь с вами статьей, которую мы с коллегой недавно опубликовали. Сразу обращу ваше внимание, что первый ее текст был направлен в редакцию еще в январе месяце, поэтому некоторые законодательные новеллы и самые свежие доктринальные источники по понятным причинам остались за кадром.

В статье предлагается сочетать правила строгой и виновной ответственности для случаев, когда функционирование систем и моделей ИИ причиняет вред третьим лицам. Для систем и моделей, которые представляют неприемлемый или высокий риск правам и человека, предлагается применять правила строгой ответственности разработчика. Для других случаев при восстановлении прав потерпевших предлагается использовать правила виновной ответственности с необходимостью доказывания вины ответчика и причинно-следственной связи.

Полный текст статьи прикладываю к посту, буду рад обратной связи 🤩.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1042
Насколько могут быть убедительными современные модели ИИ в общении с человеком?

Недавно наткнулся на предварительное исследование, в котором авторы протестировали, насколько эффективно GPT-4 может использоваться в дебатах с людьми для изменения их мнения по тому или иному вопросу. Помимо эффективности убеждения, исследователи также проверили, влияет ли на нее дополнительная информация о личности и убеждениях собеседника, заданная модели через промт.

Выводы оказались интересными: GPT-4 с персонализацией на 81.7% эффективней убеждает, чем обычный человек. Более того, GPT-4 с персонализацией все еще эффективней (но уже не так значительно), чем человек, обладающий теми же данными о своем оппоненте. Таким образом, по данным исследования, модели ИИ способны эффективно использовать персональную информацию для адаптации своих аргументов и делают это гораздо эффективнее, чем люди.

Более подробная информация о методологии исследования и используемых промтах и обсуждаемых вопросах приложена в скриншотах к посту.

Таким образом, очевидно, что использование моделей ИИ как в политических, так и в коммерческих целях, в ближайшее время будет только нарастать. Вместе с тем ситуацию вряд ли серьезно изменят отдельные законодательные решения, направленные на конкретные сферы жизни, такие как, например, выборы или алгоритмические рекомендации.
55
Обзор Закона штата Колорадо «О защите прав потребителей при взаимодействии с системами искусственного интеллекта»

Друзья, сегодня решил порадовать вас материалом, в котором я разобрал свежий закон штата Колорадо «О защите прав потребителей при взаимодействии с системами искусственного интеллекта» (Colorado AI Act (CAIA)). Этот закон является первой попыткой комплексно урегулировать разработку и применение систем ИИ на уровне штатов США.

Примечательно, что по аналогии с Регламентом ЕС об ИИ в основе акта также лежит риск-ориентированный подход. В законе выделяется группа систем ИИ повышенного риска, к разработчикам и эксплуатантам которых и применяется большая часть его требований.

Интересна и роль генерального прокурора штата, на которого возложены функции по контролю за исполнением положений закона и разработки вспомогательных документов и систем риск-менеджмента.

Также законодатели признают роль других актов и систем риск-менеджмента: разработчики и эксплуатанты могут сослаться на то, что уже соответствуют положениям других актов и документов, устанавливающих сходные или более жесткие требования: NIST AI RMF, ISO/IEC 42001, иные международные стандарты и акты других стран (например, Регламент ЕС об ИИ).

Как вы думаете, стоит ли ждать от этого акта «Калифорнийского эффекта» или скоро мы увидим новые комплексные инициативы в других штатах США?

С полным текстом обзора можно ознакомиться по ссылке.
104
Подписан закон о внесении изменений в ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ»

Позавчера Президент РФ подписал закон, который вносит изменения в ФЗ № 258. Закон содержит ряд технических правок, позволяет собирать больше информации о разных субъектах (например, субъекты ЭПР теперь должны будут вести реестры контрагентов и ИС, в том числе созданной с помощью систем ИИ).

Также на основе обобщения опыта более четко прописано требование об обязательном страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц.

Еще одной новацией стал механизм, позволяющий определять лиц, ответственных за причинение вреда жизни, здоровью или имуществу человека либо имуществу юридического лица.

Для этого будет создаваться специальная комиссия, которая должна будет изучить обстоятельства происшедшего и издать заключение. Правда, самым жестким последствием для субъекта ЭПР может стать решение уполномоченного органа о приостановлении его статуса. Из финального текста закона пропало положение о том, что заключение может быть использовано при проведении расследования или судебного разбирательства (но и запретов на его использование тоже нет). Однако заключение может быть обжаловано в суде.

Плюс теперь Правительство РФ должно будет ежегодно предоставлять доклад Федеральному собранию о реализации ЭПР.

Закон вступает в силу по истечение 180 дней со дня официального опубликования (опубликован 8 июля).

Мою рефлексию на предложенные изменения я изложил в посте в январе месяце, когда Правительство РФ только инициировало законопроект.

Полный текст закона тут.
72👍1
Опубликован финальный текст Регламента ЕС об ИИ

Сегодня в официальном источнике был опубликован финальный текст Регламента ЕС об ИИ. В силу документ вступит уже скоро – 1 августа.

Однако напоминаю, что применяться Регламент начнет со 2 августа 2026 года. Таким образом, законодатели, с одной стороны, дали время бизнесу изучить новые требования и подготовиться к ним, а с другой – органам ЕС разработать необходимые рекомендации, имплементационные акты и технические стандарты.

Для отдельных положений установлены иные сроки:

- Главы I (Общие положения) и II (Запрещенные ИИ-практики) применяются со 2 февраля 2025 года;

- раздел 4 Главы III (Нотифицированные органы), глава V (Модели ИИ общего назначения), глава VII (Управление (Governance)) и глава XII (Штрафы и иные меры воздействия (за исключением статьи 101 – Штрафы для поставщиков моделей ИИ общего назначения)), а также статья 78 (Конфиденциальность) применяются со 2 августа 2025 года;

- Часть 1 Статьи 6 (основания классификации систем ИИ в качестве систем повышенного риска) и соответствующие ей обязательства применяются со 2 августа 2027 года.
👍844
Есть ли у AGI уровни и как это связано с правом?

На днях в Bloomberg вышла статья, в которой со ссылкой на источники внутри OpenAI утверждается, что компания представила для своих сотрудников классификацию сильного искусственного интеллекта (AGI). Это сделано для того, чтобы они лучше понимали, с чем имеют дело и куда технологии будут развиваться в будущем.

Классификация состоит из пяти уровней: от ИИ способного взаимодействовать с людьми на естественном языке (уровень 1), до ИИ способного заменить собой работу целой компании (уровень 5). Также предполагается, что первый уровень уже достигнут, и сейчас компания пытается достичь ИИ второго уровня (ИИ способного заниматься научными исследованиями).

В связи с этим мне и журналистам издания вспомнилась прошлогодняя статья группы ученых из Google DeepMind, в которой предлагается аналогичная классификация AGI на пять уровней (если не считать нулевой уровень – нет ИИ). Интересно, что классификация затрагивает как прикладной ИИ (Narrow AI), так и общий ИИ (AGI). Как можно видеть на скриншотах выше поста, то, по мнению авторов, мы уже имеем Narrow AI, превосходящий способности человека, но AGI аналогично достиг только первого уровня своего развития.

Почему такие классификации важны для правового регулирования?

Как мы с вами знаем, законодательной инновацией последнего года стало разделение на группы не только систем, но и моделей ИИ. Регламент ЕС об ИИ среди моделей ИИ общего назначения выделяет модели общего назначения, представляющие системные риски. Октябрьский указ Президента США выделил группу моделей ИИ двойного назначения. Необходимость разделения моделей на обычные и передовые многократно была предметом обсуждения на страницах научных изданий, что, безусловно, повлияло и на выработанные законодателями решения.

Вместе с тем очевидно, что с развитием технологий и внедрением их во все сферы общественной жизни потребуется выделение большего числа групп систем и моделей ИИ. Это позволит более гибко распространять юридические требования в отношении субъектов, которые их разрабатывают, применяют и используют.
53👍1