howtocomply_AI: право и ИИ – Telegram
howtocomply_AI: право и ИИ
1.33K subscribers
229 photos
4 videos
6 files
313 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Выводы из предыдущего поста

Из всего вышеизложенного хочется сформулировать две дополняющих друг друга мысли:

1. В силу особенностей распространения базовых моделей и систем ИИ общего назначения регулировать все этапы их жизненного цикла необходимо. Перекладывание груза требований и ответственности с примерно двадцати глобальных технологических гигантов на фактических нижестоящих поставщиков не является ни рациональным, ни справедливым. Более того, нижестоящие поставщики зачастую не имеют необходимой информации об инфраструктуре и обучении модели, а также о ведущихся доработках. Это мы еще даже не начали обсуждать вопрос возможных катастрофических рисков от передовых систем ИИ и их потенциальных эмерджентных возможностях.

2. Однако нормативное регулирование не должно быть сфокусировано только на бигтэках и передовых базовых моделях/системах ИИ. Разработка и применение всех других моделей и систем ИИ, которых есть и будет большинство, требует не меньше внимания со стороны законодателя. В этом, например, в ЕС куда больше преуспели, чем в США с фокусированием в последнем указе Президента США на базовых моделях двойного назначения (законопроекты пока в счет не берем).

Также наглядно можно посмотреть сравнение требований разных документов в материале от the Future of Life Institute.
👍4👾2🦄1
pdf
EU AI Act Risk-Based Approach.pdf
4.8 MB
Статья о риск-ориентированном подходе в проекте Регламента ЕС об ИИ

В прошлом месяце у меня с коллегой вышла статья с общим анализом риск-ориентированного подхода, на котором основывается проект Регламента ЕС об ИИ, и выявлением некоторых присущих ему проблем. К сожалению, большая часть текста была написана еще летом, поэтому в ней отсутствует разбор новых предложений Евросовета, Еврокомиссии и отдельных стран ЕС. Тем не менее, оба этих вопроса рассмотрены в моих недавних постах тут и тут.

Статья вышла на английском языке. Прикладываю к посту аннотацию на русском. Полный текст можно скачать по ссылке на странице журнала или в пдф файле под постом.

Аннотация:
В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искусственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализируются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.
🔥7🦄2👾2👍1
Еврокомиссия объявила о создании ИИ-Пакта в поддержку реализации положений проекта Регламента ЕС об ИИ

В ноябре Еврокомиссия призвала ключевых европейских и иностранных отраслевых игроков к участие в ИИ-Пакте. Последний направлен на то, чтобы сверить часы и подготовиться к поэтапному вступлению в силу положений грядущего Регламента ЕС об ИИ.

В рамках Пакта предлагается, чтобы стейкхолдеры собирали релевантную информацию и обменивались лучшими практиками между собой и Еврокомиссией. Также у компаний будет возможность подготовить свои продукты к соответствию требованиям Регламента и предварительно продемонстрировать это компетентным органам. Для этого они будут подписывать декларации о сотрудничестве, в которых будет публично сообщаться о поэтапном добровольном принятии обязательств по соблюдению требований Регламента.

Еврокомиссия, со своей стороны, обязуется всячески помогать компаниям на этом пути. Например, через объяснение нормативных положений, содействие в построении внутренних процессов, обучение персонала.

Старт проекта намечен на начало 2024 года после сбора заявок от всех заинтересованных компаний.
5👍11
Каким образом американские бигтэки лоббируют уменьшение требований к поставщикам базовых моделей и систем ИИ в процессе принятия проекта Регламента ЕС об ИИ

Пока мы ждем пресс-конференцию по итогам последнего трилога по проекту Регламента ЕС об ИИ, обращаю ваше внимание на исследование, подготовленное Corporate Europe Observatory (предыдущее их исследование разобрано тут). В исследовании анализируется, каким образом в процессе обсуждения проекта Регламента ЕС об ИИ за последние несколько лет менялись позиции законодателей, а также какую роль в этом играли американские корпорации (а также с недавних пор и отдельные страны Европы с их ИИ-стартапами). В документе очень много интересных деталей, рассмотрим некоторые из них. В следующем посте будет выложена инфографика из исследования.

Во-первых, авторы демонстрируют тенденцию смещения риторики вокруг вопроса о регулировании в сфере разработки и применения моделей и систем ИИ общего назначения. Первоначальная жесткая позиция об отнесении их к группе систем ИИ повышенного риска сменилась на установление дополнительных требований по раскрытию информации внутри цепочки поставки и прозрачности. Также интерес вызывает и то, что исследователи подчеркивают выгоду бигтектов от смещения дискурса от сквозного регулирования всех систем ИИ в сторону разработки и применения только лишь передовых базовых моделей и митигирования потенциально порождаемых ими катастрофических рисков.

Во-вторых, в статье показывается поэтапное смягчение позиции относительно отнесения систем ИИ к группе повышенного риска (на поставщиков которых распространяются наиболее объемные обязательства). В последней версии документа системы ИИ повышенного риска, выделенные на основе сфер применения (приложение III), будут признаны таковыми, только если они потенциально представляют значительную опасность для жизни, безопасности и основным правам человека. А системы ИИ, предназначенные для управления и эксплуатации критически важной цифровой инфраструктуры, дополнительно должны создавать существенные риски для окружающей среды. Введение данного дополнительного слоя требований стало значительным шагом в сторону либерализации требований к бизнесу.

В-третьих, произошел полный отказ от введения внешнего независимого аудита для систем ИИ. В тексте документа предусматриваются два вида процедуры оценки соответствия: а) оценка, основанная на внутреннем контроле в соответствии с Приложением VI; б) оценка, основанная на проверке системы оценки качества и технической документации с участием нотифицированного органа в соответствии с Приложением VII. При этом последняя процедура будет использоваться для относительно небольшой категории случаев, когда неприменимы технические стандарты и единые спецификации, разработанные Еврокомиссией, либо поставщик добровольно решил пройти внешнюю оценку соответствия вне зависимости от отнесения системы ИИ к тому или иному уровню риска.

Пресс-конференцию по итогам трилога можно посмотреть по ссылке, но время начала уже переносили два раза подряд.
321
31
По итогам трилога достигнуто соглашение по тексте проекта Регламента ЕС об ИИ

В минувшую субботу после трехдевного переговорного марафона было достигнуто политическое соглашение между Европарламентом и Евросоветом по финальному тексту проекта Регламента ЕС об ИИ. Шаг сам по себе очень важный, но текст еще не финализирован, соответственно, делать выводы пока рано.

Судя по текстам пресс-релизов от Еврокомиссии, Европарламента и Евросовета, на первый взгляд документ сохранил по большей части подход, содержащийся в тексте Европарламента. Однако имеются некоторые дополнения. Например, несколько расширен перечень запрещенных систем ИИ и систем ИИ повышенного риска, уточнены требования для использования систем ИИ государственными органами. По поводу моделей и систем ИИ общего назначения, похоже, были взяты за основу последние известные компромиссные предложения (писал о них тут).

Далее предварительно согласованный текст должен быть окончательно оформлен и доработан, после чего будет представлен для формального принятия Европарламентом и Евросоветом. После этого Регламент вступит в силу по истечению двадцати дней после даты официального опубликования.

В полной мере Регламент начнет действовать через два года, однако отдельные положения будут действовать по истечение шести месяцев, а также одного года.
43
Где же граница между продвинутыми моделями ИИ общего назначения и всеми остальными

Термин базовая модель ИИ был введен в широкий оборот в октябре 2021 года благодаря публикации исследователей из Stanford HAI. В статье он определяется как “модель, обученная на больших объемах данных, которая может быть в дальнейшем применена для решения широкого круга задач”. За последний год (датой отчета можно считать 30 ноября - релиз ChatGPT) данный термин широко вошел в обиход законодателей разных стран и регионов.

Основными причинами для установления отдельных требований для их поставщиков стали широкий круг потенциальных сценариев их применения (в том числе повышенного риска и нужд национальной безопасности) и необходимость перераспределения обязанностей между субъектами (разработчиками и теми, кто их фактически выводит на рынок в своих продуктах) внутри всех этапов их жизненного цикла.

Однако базовые модели различаются между собой по ряду характеристик. Например, они могут быть развернуты на разной инфраструктуре, иметь разное число параметров, быть обучены на разных наборах данных и т.д. Все это в совокупности сказывается на их эффективности. Таким образом, для сбалансированности нормативного регулирования возникла необходимость в разделении базовых моделей на группы. Это нужно для того, чтобы малый и средний бизнес имел меньше обязательств, чем глобальные технологические компании.

Так и появилось предложение делить базовые модели на продвинуты (передовые) и все остальные. Отдельные исследования предлагали большее число групп. Например, в The Future Society высказали идею о выделении трех групп (разбирал материал тут). К продвинутым в общем смысле относят те модели, которые являются наиболее большими и производительными. По разным подсчетам, к их поставщикам относятся сейчас всего 15–20 компаний в мире.

С юридической точки зрения крайне важным вопросом являются конкретные критерии, по которым модели относят к продвинутым.

Недавно опубликованный Еврокомиссией краткий пресс-релиз по итогам последнего трилога (писал о нем в предыдущем посте) вокруг проекта Регламента ЕС об ИИ содержит информацию о том, что было согласовано решение разделить базовые модели на две группы: модели, которые представляют системные риски, и все остальные. К первой группе буду относиться модели, которые были обучены с использованием общей вычислительной мощности более 10^25 FLOPs.

При этом AI Office (созданный в рамках Еврокомиссии) может обновлять этот порог в процессе технологического развития, а также в отдельных случаях определять другие модели в качестве таковых на основе других критериев (например, количества пользователей или степени автономности).

Поставщики таких моделей обязаны будут оценивать и снижать риски, сообщать о серьезных инцидентах, проводить современные испытания и оценку моделей, обеспечивать кибербезопасность и предоставлять информацию об энергопотреблении своих моделей. Для этого им предлагается взаимодействовать с ИИ Офисом для разработки кодексов поведения в сотрудничестве с другими экспертами. Центральную роль в обеспечении надзора за такими моделями будет играть специальная научная комиссия.

В публикованном 30 октября Указе Президента США в сфере разработки и применения систем ИИ (делал его большой обзор тут) указано, что органам исполнительной власти поручается разработать критерии для отнесения моделей к базовым моделям ИИ двойного назначения. До формулирования этих критериев к ним будут относиться модели, для обучения которых потребовалось 10^26 FLOPs (10^23 для использующих данные о биологических последовательностях).

Почему пороговое значение в 10^25 FLOPs? Потому что оно соответствует таким моделям, как, например, GPT-4 от OpenAI и Gemini от Google DeepMind.
👍65🔥2
Стоимость соблюдения требований проекта Регламента ЕС об ИИ для разработчиков передовых базовых моделей

В продолжение предыдущего поста разбираю интересный материал от The Future Society, в котором исследователи высказывают предположения о стоимости AIA комплаенса для крупных технологических компаний, основываясь на ранее известной версии документа (статье 28b из текста Европарламента).

Поводом к исследованию стали массовые жалобы со стороны европейских и американских компаний о том, что жесткие требования будут существенно тормозить технологический прогресс.

Обращаю внимание, что речь идет не про малый и средний бизнес, а про передовые модели, которые выше порогового значения в 10^24 FLOPs (подробно об этих значения писал в посте выше).

Предполагаемые затраты на соблюдение требований включают в себя внутренние и внешние оценки для управления рисками и обеспечения надлежащего уровня безопасности, техническую документацию и систему управления качеством.

В результате исследователи выяснили (с учетом их методики), что затраты на обеспечение соответствия для таких продвинутых моделей составляют от 0,07% до 1,34% от общих затрат, необходимых для их создания.

Таким образом, они рекомендовали европейским законодателям ввести более строгие обязательства для поставщиков моделей выше порогового значения 10^24 FLOPs, что, по их мнению, не помешает инновационному развитию.

Как уже отмечалось в предыдущем посте, по итогам трилога, по всей видимости, все же было принято выделить продвинутые модели в отдельную группу (представляющих системные риски). Однако требования к их поставщикам были дополнены скорее в духе Хиросимских принципов G7 (разбирал их тут), чем в сторону ужесточения обязательств.
621
Исследователи из Stanford HAI о соотношении требований проекта Регламента ЕС об ИИ с затратами на их соблюдение

Исследователи из Stanford HAI в своей заметке приходят к интересным выводам о стоимости будущего AIA комплаенса. Данный материал имел целью дать европейским законодателям рекомендации по нормативному регулированию перед последним трилогом по проекту Регламента ЕС об ИИ.

Авторы исходили из идеи о разделении базовых моделей на две группы: которые оказывают значительное воздействие на общество, и все остальные.

Для второй группы (самой значительной) предполагается введение лишь дополнительных требований по прозрачности, которые, по мнению исследователей, не понесут значительных затрат для поставщиков.

Для первой группы (под ней, по всей видимости, подразумеваются передовые модели) должны быть введены более жесткие требования, вплоть до внутренних оценок с помощь метода красных команд и внешнего независимого аудита. Среди критериев, по которым таки модели будут подразделяться от всех остальных, по мнению исследователей, должны быть такие, как, например, пороговое значение FLOPs, число пользователей и запросов к модели, количество последующих поставщиков, возможность использования в сценариях повышенного риска.

Что касается затрат, то авторы заметки исходят из следующей логики: если разработка передовых моделей дорогая, то и провести комплаенс тоже будет эквивалентно дорого. Однако европейские исследователи пришли, как я уже отмечал в предыдущем посте, к противоположным выводам: удорожание разработки модели не приводит к существенному удорожанию комплаенса.

Также интересно, что авторы из Stanford HAI смещают акцент по введению наиболее жестких требований на поставщиков передовых базовых моделей, предусматривая для всех остальных лишь дополнительные меры по прозрачности. Это удивительно совпадает с позицией лоббистов от американских бигтэков, которые целенаправленно пытаются отвлекать внимание от массовых продуктов страшилками про Терминатора и катастрофические риски. Более подробно писал об этом тут.
421
Юридическая сага о признании авторства за системой ИИ продолжается

В 2018 году был запущен наделавший много шума за последние годы проект Artificial Inventor. Его идея заключается в том, что интернациональная команда IP-юристов пробуют юридическими методами добиться признания системы ИИ в качестве автора изобретения и произведения в разных юрисдикциях.

Споры разворачиваются вокруг системы ИИ DABUS, которая была разработана исследователем Стивеном Талером и применена им для создания нескольких изобретений.

Важную роль в проекте также играет Райан Эббот (профессор, Университет Суррея и Калифорнийский университет в Лос-Анджелесе, автор книги The Reasonable Robot: Artificial Intelligence and the Law). Он непосредственно принимает участие в подготовке документов по направлению патентных заявок в 18 юрисдикциях. Данные заявки были одобрены в Южной Африке и Саудовской Аравии и окончательно отклонены в США, Австралии и Тайване. В США это закончилось делом Thaler v. Vidal (подробнее в посте тут).

На днях эпопея дополнилась новым эпизодом. Верховный суд Великобритании вынес решение по делу Thaler (Appellant) v. Comptroller-General of Patents, Designs and Trade Marks (Respondent).

Суд рассмотрел три вопроса и пришел к следующим выводам:

1. Какой объем и значение понятия «изобретатель» в Законе о патентах 1977 года данном контексте? DABUS - не изобретатель, так как не обладает правосубъективностью.

2. Являлся ли Талер обладателем прав на изобретение, созданное DABUS, и имел ли он право подать заявку и получить патент на него? Талер пытался доказать, что он имеет права на изобретение, созданное его имуществом, по аналогии с правом собственности хозяина коровы на теленка. Однако суд отверг этот довод, указав, что DABUS все же не человек и не может быть изобретателем.

3. Был ли прав компетентный орган, отклонивший патентную заявку? Да, орган был прав.

Вместе с тем основной судья, ответственный за подготовку решения, Лорд Кичин, согласился с позицией судьи апелляционного суда Элизабет Лэнг:

"Независимо от того, были ли мыслящие машины способны создавать изобретения в 1977 году, для меня очевидно, что парламент не имел их в виду, когда принимал данные нормы. Если патенты будут выдаваться на изобретения, созданные машинами, то в Закон 1977 года придется внести поправки".

Таким образом, участие человека все еще остается краеугольным камнем до тех пор, пока парламентарии не изменят законодательство. Однако ожидать подобные новации явно преждевременно.
74
Правительство РФ инициировало законопроект, направленный на обобщение практики работы ИИ-песочниц

Друзья, праздники подходят к концу, а значит, самое время поздравить вас с наступившим Новым годом! В нем нас ожидает большое число интересных новостей не только из мира ИИ-технологий, но и из сферы нормативного регулирования, которая наконец-то набирает обороты во многих юрисдикциях.

Начнем с нескольких новостей из России. В декабре Правительство РФ внесло в Государственную Думу законопроект, которым предлагается внести ряд изменений в закон "Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ”. Документ по большой части направлен на доработку законодательства с учетом опыта функционирования существующих ЭПР (по данным реестра, их сейчас инициировано 189, а около 20 фактически реализуются и непосредственно связаны с ИИ-технологиями).

Например, предложено внести ряд технических правок, собирать больше информации о разных субъектах, а также оптимизировать сроки отдельных процедур. Также предлагается более четко прописать требование об обязательном страховании участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц. Несмотря на то, что данная мера в СМИ преподносилась как новация, на самом деле схожие нормы уже были включены в программы других ЭПР, утвержденных постановлениями Правительства РФ. Поэтому здесь скорее идет речь об обобщении опыта.

Внимание заслуживает и новый механизм, позволяющий определять лиц, ответственных за причинение вреда жизни, здоровью или имуществу человека либо имуществу юридического лица. В соответсвии с законопроектом, в течение тридцати дней со дня причинения вреда компетентный госорган создает комиссию для установления причин и определения ответственных лиц. В состав комиссии будут входить представители госорганов. Другие лица, в том числе члены экспертного и предпринимательского сообществ и участники ЭПР, могут входить в комиссию по решению госорганов.

По итогам комиссия составляет заключение со следующими выводами:

1. о причинах нарушения законодательства РФ, которые привели к причинению вреда;
2. об обстоятельствах, указывающих на виновность лиц;
3. о необходимых мерах, направленных на возмещение участником ЭПР причиненного вреда.

Заключение публикуется, а также может быть использовано при проведении расследования или судебного разбирательства и быть обжаловано в суде.

Хочется отметить, что желание упростить определение лиц, ответственных за вред, причиненный системами ИИ рамках эксперимента, понятно с точки зрения исполнительных органов. Вместе с тем настороженность вызывает тенденция, в рамках которой решения будут фактически выноситься органами исполнительной власти, а суды - лишь подтверждать выводы правоприменителей в своих актах. Примеры мы многократно видели в других отраслях. При кажущейся оптимизации процессов такой подход крайне вреден для безопасного использования технологических решений, особенно государственными органами и окологосударственными организациями.
🔥422
Развитие искусственного интеллекта в России идет рука об руку с построением государственной монополии на данные

В продолжение предыдущего поста о России. В конце декабря появилась информация о том, что Минцифры, Минпромторг и Альянс в сфере ИИ в течение месяца должны представить Совету Федерации предложения в части выделения промышленных данных в самостоятельную категорию, формулирования правил их использования для обучения моделей ИИ и определения прав на РИД.

Информации пока довольно мало, но некоторые моменты крайне неоднозначны. В 2021 году уже была предпринята попытка урегулировать оборот “промышленных данных”. Для этого предлагалось создать государственную информационную систему, через которую бизнес должен был бы обмениваться данными между госорганами и друг другом. Однако тогда законопроект подвергся критике со стороны бизнеса и так и не был принят. Очень похоже на то, что нынешние разговоры являются попыткой реинкарнировать старые идеи под новым ИИ-соусом. Что касается вопросов об использовании данных для обучения моделей ИИ и определения прав на РИД, то попытка сосредотачиваться только на сфере промышленности вместо выработки общего подхода выглядит крайне странно и контрпродуктивно.

Также в Государственной Думе готовится ко второму чтению скандально известный законопроект, вносящий изменения в ФЗ «О персональных данных» в части обезличенных данных. Данный законопроект подвергся резкой критике со стороны бизнеса также во многом из-за попытки создания ГИС.
Оба этих случая являются частью намного более широкой картины, в рамках которой через создание ГИС (их сейчас более 600), фактически вводится государственная монополия на данные. Обычно законодатели принимают акт, который обязывает всех участников рынка передавать определенный объем данных в систему (иногда сначала проводится эксперимент). Затем назначается оператор системы, которым может быть госорган или иная уполномоченная организация. После этого по запросам (иногда за плату) данные могут предоставляться другим субъектам.

На днях также появился проект постановления Правительства РФ, вносящий изменения в Постановление от 14 мая 2021 года №733, которым предлагается расширить доступ для отдельных субъектов к государственным наборам данных. В комментарии Коммерсанту я отметил, что, несмотря на то, что данный законопроект хоть и облегчает доступ к отдельным данным для разработчиков систем ИИ, однако исходит из той же логики. Государственные органы будут решать, каким представителям бизнеса и научным организациям предоставить доступ, а каким – нет. Это может стать еще одним рычагом со стороны органов власти по давлению на одних участников рынка и созданию конкурентных преимуществ для других.
5🔥22