howtocomply_AI: право и ИИ – Telegram
howtocomply_AI: право и ИИ
1.33K subscribers
229 photos
4 videos
6 files
313 links
Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников
Download Telegram
Япония между США и ЕС

По данным Reuters, Япония склоняется к более мягкому подходу к нормативному регулированию применения систем ИИ, чем ЕС. Со ссылкой на неназванного чиновника издание утверждает, что страна планирует до конца года сформулировать свой подход, который будет идейно близок с подходом США (опять же, про него мы писали тут).

Япония возлагает большие надежды на развитие ИИ-отрасли.

Во-первых, это поможет им справиться с дефицитом рабочей силы, вызванной старением населения.

Во-вторых, страна планирует занять ведущее место в производстве современного железа, необходимого для разработки и обучения систем ИИ и базовых моделей.

В-третьих, власти Японии, с одной стороны, намерены защищать крайне развитую креативную индустрию, а с другой, по предварительным заявлениям, планируют более мягко относиться к использованию данных для обучения базовых моделей.

На днях Еврокомиссар по внутреннему рынку Тьерри Бретон направился с визитом в Японию, который в том числе займется разъяснением сильных сторон европейского регулирования для упрочнения дальнейшего сотрудничества.

Таким образом, некоторая интрига в поиске мирового бенчмарка нормативного регулирования все еще сохраняется. Однако ожесточенное соперничество на технологическом рынке с Китаем заставляет другие страны гармонизировать свои подходы друг с другом.

Напомним, что с 2019 года после принятия Социальных принципов человеко-ориентированного ИИ Япония придерживалась подхода, главная ставка в котором делалась на отказ от жесткого сквозного регулирования в пользу добровольного введения корпоративных стандартов и саморегулирования со стороны бизнеса. Государство поддерживало компании с помощью мягкого права (концепций, рекомендательных руководств) и регулировало вопросы, связанные с отдельными областями (оборот данных, деятельность цифровых платформ, медицина и т.д.).
👍6
Распознавание лиц в московском метро: решение ЕСПЧ

Вчера Европейский суд по правам человека вынес решение по делу Николая Глухина. Жалоба была подана еще до выхода России из Совета Европы.

Суть дела заключается в том, что в ходе обычного мониторинга в интернете полиция обнаружила фотографии и видеозапись одиночной демонстрации заявителя в московском метро, опубликованные на общедоступном канале в Telegram. Заявитель держал в руках картонную фигуру в натуральную величину активиста Константина Котова, которая держала в руках транспарант, гласивший: «А вы не <ошалели>? Я Константин Котов, за мирные пикеты мне грозит до 5 лет».

Прим.: дело Константина Котова имело большой резонанс, так как он был вторым человеком, привлеченным к ответственности по статье 212.1 УК РФ. Статья установила административную преюдицию за нарушение законодательства в сфере публичных мероприятий. Ранее данная статья была обжалована в Конституционный суд РФ по еще более громкому делу активиста Ильдара Дадина. Суд тогда в постановлении рекомендовал законодателю доработать статью таким образом, чтобы исключалось произвольное привлечение к уголовной ответственности без соответствия характера и степени общественной опасности совершенного деяния преступлению. Однако статья до сих пор остается неизменной, и к ответственности привлечены десятки человек.

Также, по словам заявителя, полиция использовала камеры с применением технологии распознавания лиц:

а) чтобы идентифицировать его по скриншотам из канала; б) собрать видеозаписи с камер видеонаблюдения, установленных на станциях московского метрополитена, через которые он проезжал; в) чтобы через несколько дней спустя обнаружить и арестовать его во время поездки в метро.

Скриншоты из Telegram-канала и видеозаписи с камер видеонаблюдения были использованы в качестве доказательств при рассмотрении дела об административном правонарушении в отношении заявителя. Он был привлечен к ответственности за нарушение законодательства о публичных мероприятиях по ч. 5 ст. 20.2 КоАП РФ (штраф 20 тыс. рублей).

ЕСПЧ усмотрел нарушение статьи 8 (право на уважение частной жизни) и нарушение статьи 10 (свобода выражения мнения) Европейской конвенции по правам человека. Если со статьей 10 ситуация достаточно распространенная для РФ (наказание за сам факт отсутствия согласования публичного мероприятия, даже если не было противоправных последствий) то со статьей 8 ситуация более интересная.

Европейский суд указал на следующее:

во-первых, суд признал, что технологии распознавания лиц действительно применялись, несмотря на отрицание органов власти;

во-вторых, законодательство РФ не определяет ни оснований, ни процессуальных гарантий и прав, ни требований к органам власти по использованию этих технологий для идентификации людей (фактически использование произвольное);

в-третьих, хранение фотографий и иных персональных данных (в том числе чувствительных, например, политические взгляды) полицией в сочетании с возможностью применения к ним технологии распознавания лиц (в том числе для определения местонахождения и ареста) представляет собой вмешательство в право на частную жизнь;

в-четвертых, применение несоразмерно жестких мер, грозящих нарушению прав человека, для пресечения деяния, не представляющего значительной общественной опасности, не соответствует «социальным потребностям демократического государства».
6👍2
В Нью-Йорке введен обязательный аудит предвзятости автоматизированных инструментов принятия решений в сфере трудоустройства

Друзья, буквально вчера, 5 июля вступил в силу Акт Нью-Йорка об аудите предвзятости. Акт был внесен в виде поправки в Административный кодекс города Нью-Йорк и является его составной частью (раздел 20, глава 5, подглава 25: Автоматизированные инструменты принятия решений в сфере трудоустройства).

Документ является значимым, поскольку им предусматривается обязательный независимый аудит автоматизированных инструментов принятия решений, используемых для отбора кандидатов на вакансии и оценки сотрудников в контексте их возможного повышения.

Несмотря на то, что данный акт имеет очень ограниченную территорию действия, его содержание во многом приоткрывает окно в будущее нормативного регулирования применения систем ИИ.

Таким образом, для успешного развития ИИ-продуктов и дальнейшего их вывода на рынки разных юрисдикций необходимо оценивать тренды развития законодательства.

Полный текст поста доступен по ссылке ниже:
5👍1🔥1
Вебинар HAI про проект Регламента ЕС об ИИ

На днях мы писали про то, что 5 июля на базе Института человеко-ориентированного ИИ (HAI) Стэнфордского университета пройдет вебинар, посвященный проекту Регламента ЕС об ИИ.

Делаем небольшой обзор наиболее интересных моментов.

На мероприятии выступили несколько экспертов от науки, бизнеса и государственных органов. Модератором выступила научный сотрудник HAI и директор по международной политике Центра киберполитики Стэнфордского университета Мариеш Шааке (в прошлом член Европарламента).

Член Европарламента и председатель специального комитета по искусственному интеллекту в цифровую эпоху Драгош Тюдораке (он принимал и принимает важное значение в ходе разработки проекта Регламента ЕС об ИИ) подтвердил намерение властей ЕС принять акт до конца этого года. Также он обратил внимание на несколько наиболее острых проблем, которые обсуждаются во время трилога и по которым могут быть расхождения позиций между Еврокомиссией, Европарламентом и Евросоветом. В их числе, например, сценарии использования систем ИИ для биометрической идентификации личности, круг систем ИИ высокого риска, вопросы создания специальных органов ЕС и их соотношение с компетенцией органов стран-членов, оценка соответствия систем ИИ и проверка соблюдения базовых демократических принципов.

Руководитель общественного направления Центра исследования базовых моделей Стэнфордского университета Риши Боммасани остановился на ключевых выводах крайне интересной статьи о текущем уровне соответствия наиболее значимых базовых моделей проекту Регламента ЕС об ИИ, соавтором которой он является (саму статью мы недавно разбирали тут). Также он отметил, что в дальнейшем развитии проекта Регламента, по его мнению, следовало бы уделить внимание соотношению сценариев использования базовых моделей с регулированием (например, применение ChatGPT для написания сказок или для медицины), а также более детальной регламентации взаимоотношений всей цепочки субъектов на протяжении жизненного цикла базовой модели.

Директор по вопросам политики Hugging Face Ирен Солайман остановилась на трех таких важных аспектах, как прозрачность (моделей, датасетов и т.п.), открытость доступа к базовым моделям (в том числе для исследователей) и оценке их воздействия (особенно опенсорс решений). Проблему важности доступа к базовым моделям исследователей также подчеркнул и Драгош Тюдораке, отметивший, что этот вопрос сейчас изучается законодателями.

Научный сотрудник по вопросам государственного управления The Brookings Institution Алекс Энглер отметил проблему распределения компетенции между органами стран-членов ЕС. Например, должны ли создаваться отдельные органы или соответствующие функции будут распределяться между отраслевыми ведомствами. Также он отметил важность создания общего (или довольно близкого) регуляторного пространства для США и ЕС.

Также спикеры отметили, что США должны пользоваться наработками ЕС в плане законодательства, а ЕС - для написания технических стандартов.

Полную запись мероприятия можно посмотреть по ссылке.
🔥41
Экосистема базовых моделей

Институт человеко-ориентированного ИИ Стэнфордского университета разработал экосистему базовых моделей. Это полезный ресурс, из которого в виде интерактивной карты или таблицы можно узнать актуальную информацию о существующих сейчас базовых моделях (про датасеты, модели, приложения), а также посмотреть на их связи с другими продуктами.

Материал позволит быть в курсе характеристик новейших базовых моделей, о том кто их разрабатывает, для чего они используются и в каких приложениях.
👍4
Принцип модульности при разработке систем ИИ и ответственность

Сегодня хотим рассказать про статью “Смещенная ответственность в "цепочке поставок ИИ": модульность и представления разработчиков об ответственности”. Она посвящена изучению того, как в настоящее время организована работа по созданию ответственного ИИ, а также выявлению возможностей по совершенствованию такой работы.

Авторы, являясь экспертами в области компьютерных наук, выдвигают тезис, что современные системы ИИ создаются посредством “соединения” множества готовых программных модулей, в разработке которых участвует широкий круг разных субъектов. Они имеют в виду так называемый принцип модульности (модульное программирование), в соответствии с которым при проектировании ПО вся программа делится на отдельные части (модули), и, соответственно, разработкой таких модулей занимаются независимые друг от друга команды программистов.

Эксперты в рамках исследования провели интервью с 27 инженерами по ИИ, работающими в индустрии, а также в академической сфере. Они выяснили, что разработчики часто считают, что обеспечение соблюдения положений руководств по ответственному ИИ выходит за рамки их компетенций. В частности, один из опрошенных утверждал: "У меня нет времени в течение обычной недели думать об [...] ответственном ИИ. По мнению моего руководства, это не та часть работы, о которой я должен беспокоиться”. Одной из основных причин такого положения является использование принципа модульности при создании систем ИИ. Каждая самостоятельная команда полагает, что ответственность за возможный вред от систем ИИ должны нести участники процесса, занятые разработкой других модулей.

В зависимости от отношения к принципу модульности в статье предлагаются три разные рекомендации по улучшению рабочих процессов, направленных на создание ответственных систем ИИ.

Действие в рамках модулей

В данном случае подразумевается, что доминирование модульного программирования вряд ли изменится в ближайшем будущем. В связи с этим нужно искать способы совершенствования работы в рамках модульного программирования. Решением представляется обязательное указание разработчиками в документальной форме доступной им информации о недостатках, ограничениях, контексте использования систем ИИ, в создании которых они принимают участие. Это позволит, как минимум, разработчикам из других уровней и команд обладать необходимой информацией.

Укрепление связей между компаниями

Нужно улучшить коммуникации между компаниями таким образом, чтобы, например, те, кто выступает в роли заказчика продукта, могли бы тщательно проверять поставщиков, требуя от них наличия необходимой информации о модели, о правомерности получения данных для обучения, об оплате труда специалистов по маркировке данных и т.п. Такие обязательства сторон могут учитываться при заключении контрактов.

Отказ от принципа модульности

В соответствии с этим решением предусматривается отказ от модульного программирования. Авторы статьи предлагают в списке приоритетов при создании систем ИИ на первое место поставить “качество отношений внутри команд”, на второе место – “разработку кода”, и только на третье место “масштабируемость”. Под последним имеется в виду то, что часто на практике компании пытаются быстрее коммерциализировать свои ИИ продукты без должного учета риска нарушения этических стандартов.
👍6
Проект Регламента ЕС об ИИ и стартапы

Друзья, 13 июля в 10:00 CET состоится вебинар, организованный EIT Hub Israel и Startup Nation Policy Institute.

Организаторы планируют обсудить вопросы подготовки стартапов к соответствию требованиям грядущего проекта Регламента ЕС об ИИ.

Для посещения мероприятия необходимо предварительно зарегистрироваться.
👍1🔥1
Триквел соглашения о трансграничной передаче персональных данных между США и ЕС (но это неточно)

10 июля Еврокомиссия приняла акт, которым признала достаточным уровень защиты персональных данных в США в соответствии с Рамочным соглашением о конфиденциальности данных между ЕС и США (EU-US Data Privacy Framework). Теперь американским компаниям передавать данные будет проще, и для этого не потребуется оформления дополнительных документов. Очевидно, что и ИИ-компаний, в том числе бигтэков, это тоже коснется.

Напомним, что это уже третье подобное соглашение. Два других постигла печальная судьба.

В 1995 году в ЕС была принята Директива о защите данных, которой персональные данные могут быть переданы в третью страну, если ее законодательство обеспечивает адекватный уровень защиты данных (за некоторыми исключениями). В 2000 году Еврокомиссия издала акт, получивший краткое название “Безопасная гавань” (Save Harbor), который определил CША в качестве безопасной юрисдикции.

В 2013 году Эдвард Сноуден раскрыл информацию о том, что государственные органы США в соответствии с Актом о негласном наблюдении в целях внешней разведки (FISA, Section 702 (пока его действие пролонгировано до конца 2023 года)) и Указом Президента США N 12333 используют бигтэки и разнообразное ПО (например, PRISM) для организации шпионажа за гражданами других стран без достаточных оснований и необходимости получения судебного решения. Однако в соответствии с Поправкой 4 Конституции США для граждан США соблюдение этих требований обязательно для правоприменителей. Таким образом, для американских госорганов в сфере безопасности иностранные граждане обладают меньшими правами и гарантиями, чем собственные.

В 2015 году прайваси активист Макс Шремс на основе данной информации оспорил акт о “безопасной гавани” в Суд ЕС. Суд признал недостаточную защищенность граждан ЕС относительно граждан США и отменил этот акт (Schrems I).

В 2016 году Еврокомиссией была предпринята еще одна попытка принять схожий акт, который получил краткое название “Щит конфиденциальности” (Privacy Shield). Однако он также был по схожим основаниям обжалован в суд и отменен в 2020 году (Schrems II).

Как уже отмечалось в начале поста, 10 июля Еврокомиссией была предпринята третья попытка по принятию акта. Макс Шремс, теперь, будучи одним из сооснователей команды правозащитной организации NOYB - Европейский центр цифровых прав, заявил, что фундаментальные проблемы так и не были решены, и они будут обжаловать акт снова.
2👍2🔥2
Google обвиняют в многочисленных нарушениях законодательства, допущенных при разработке ИИ-продуктов

11 июля 2023 года в окружной суд США северного округа Калифорнии от имени группы физических лиц был подан иск против компаний Alphabet Inc., Google DeepMind, Google LLC (ответчики, Google).

Истцами являются американцы, которые полагают, что при разработке своих ИИ-продуктов Google использовала тайным образом их данные. В частности, один из истцов является автором бестселлеров по версии New York Times и журналистом-расследователем. Он полагает, что ответчики использовали его книгу, размещенную на одном из пиратских сайтов, для обучения чат-бота Bard и других продуктов. Работа, защищенная авторским правом, которую ответчики незаконно присвоили, является результатом более десяти лет журналистских расследований истца. Содержащиеся в книге его авторские идеи теперь доступны на сайте Bard бесплатно. По запросу Bard может не просто подробно изложить содержание книги, но и воспроизвести ее текст дословно.

В иске утверждается, что Google тайно похищает все, что когда-либо было создано и выложено в Интернет сотнями миллионов американцев. Google завладела личной и профессиональной информацией, творческими и авторскими работами, фотографиями и электронной почтой - практически всем цифровым наследием истцов - и использует ее для создания коммерческих продуктов на основе ИИ.

Например, так был разработан чат-бот Bard, построенный на базе большой языковой модели LaMDA. Впоследствии Google перевела Bard на PaLM 2, обученную на 3,6 трлн. токенов, что превышает возможности любой существующей модели. Помимо этого в иске фигурируют следующие ИИ-продукты от Google: Imagen (генерирует изображения из текста); MusicLM (преобразовывает текст в музыку); Duet AI (ИИ-помощник для составления документов); Gemini (мультимодальная модель машинного обучения). Все перечисленные продукты, по мнению истцов, были созданы с использованием частных, личных и/или защищенных авторским правом материалов без получения надлежащего согласия или справедливой компенсации.

Ответчики обвиняются в нарушении следующих пунктов:

Нарушение законодательства штата Калифорния о недобросовестной конкуренции: ответчики осуществляли незаконную, нечестную и мошенническую деловую практику.

Халатность: ответчики обязаны были проявить должную осмотрительность в отношении истцов (и аналогичных групп населения): а) для получения данных при обучении своих продуктов; б) не использовать частную информацию людей при обучении ИИ; в) уничтожить информацию, которой обладали неправомерно.

Нарушение конфиденциальности в соответствии с конституцией Калифорнии: ответчики были обязаны по отношению к истцам: а) не собирать информацию о лицах путем незаконного веб-скреппинга; б) не обучать свои продукты ИИ на основе персональных данных; в) обеспечивать конфиденциальность собранных данных.

Посягательство на неприкосновенность частной жизни: ответчики намеренно вторглись в частную жизнь истцов, создав систему, которая собирает, хранит и использует персональные данные миллионов людей (как пользователей, так и не пользователей продуктов Google). Эти сведения включают в себя личную, медицинскую, финансовую информацию, а также материалы, защищенные авторским правом.

Кража/использование похищенного имущества: ответчики завладели информацией физических лиц для обучения ИИ-продуктов и тем самым нарушили имущественные интересы истцов.

Конверсия: ответчики незаконно собирали, использовали и осуществляли контроль над личной и частной информацией людей без их разрешения.

Неосновательное обогащение: в результате незаконного, нечестного и обманчивого поведения, ответчики заработали сотни миллионов долларов дохода в результате использования персональных данных истцов (и аналогичных групп населения) для обучения своих коммерческих ИИ-продуктов.

Нарушения авторских прав: при разработке чат-бота Bard ответчики неправомерно использовали огромный массив данных, взятых из Интернета, включая точную цифровую копию книги одного из истцов, а также его мнения и суждения, опубликованные в СМИ.
👍42
Продолжение истории с генеративными системами ИИ в Китае

Китай продолжает двигаться в сторону разработки нормативного правового регулирования применения генеративных систем ИИ. В апреле мы уже писали о первой версии проекта документа, а 10 июля он был принят, вступит в силу с 15 августа.

Вместе с тем данные меры являются временными, что и отражено в названии документа. Данный акт является одним из первых, дошедших до принятия на сегодняшний день. Путем его принятия Китай, с одной стороны, пытается защититься от американских бигтэков, а с другой - упорядочить применение собственных базовых моделей, которых, по информации на май месяц, уже более 78.

Финальная версия документа стала несколько более мягкой в плане отдельных формулировок.

Например, из основных принципов, закрепленных в статье 4, пропала необходимость соблюдения мер по достоверности и точности генерируемого контента. Вместо этого добавили общий запрет на нарушение прав и законных интересов.

Из статьи 7 исключили требование к поставщикам об обеспечении подлинности, точности, объективности и разнообразия данных. Вместо этого теперь они должны принять эффективные меры по улучшению качества данных для обучения базовых моделей и повышению их достоверности, точности, объективности и разнообразия.

Обязательная проверка безопасности генеративных систем ИИ со стороны государственного органа теперь должна проводиться не для всех систем, а для тех, которые касаются общественного мнения и социального единения населения.

Также из текста документа пропали и конкретные штрафы, выраженные в денежном эквиваленте. Вместо этого теперь органы власти должны выносить предупреждения, приостанавливать деятельность генеративных систем ИИ, или наказывать в соответствии с общим законодательством.

Несколько статей теперь посвящены пользе развития генеративных систем ИИ, а также мерам поддержки бизнеса.
2🔥1
Федеральная комиссия по торговле США проверяет OpenAI на предмет нарушений законодательства при разработке ChatGPT

По информации The Washington Post, на этой неделе Федеральная комиссия по торговле (ФКТ) направила в адрес компании OpenAI (разработчик ChatGPT) 20-страничное письмо. ФКТ запросила документы, касающиеся разработки и обучения больших языковых моделей, а также безопасности данных. ФКТ хочет получить подробную информацию о том, как OpenAI проверяет информацию, используемую для обучения своих моделей, и как она предотвращает предоставление со стороны ChatGPT недостоверной информации ее пользователям.

Из письма следует, что предметом расследования является выяснение того, применяла ли компания OpenAI:

а) недобросовестные или вводящие в заблуждение методы обеспечения конфиденциальности или безопасности данных;

б) недобросовестные или вводящие в заблуждение действия, связанные с риском или вредом для потребителей, включая репутационный вред;

ФКТ также хочет понять, будет ли получение денежной компенсации отвечать общественным интересам.

В рамках расследования ФКТ задает компании OpenAI десятки вопросов, в том числе:

– подробные вопросы о разработке моделей и обучении;

– как компания получает данные;

– все источники данных, включая третьи стороны, предоставившие наборы данных;

– как компания оценивает и устраняет риски;

– про риски, связанные с конфиденциальностью и оперативным внедрением, и меры по их снижению;

– как осуществляется мониторинг, сбор, использование и хранение персональных данных.

Будем наблюдать, к каким выводам придет ФКТ по результатам анализа и оценки документов, которые им предоставит OpenAI. Это особенно интересно с учетом того, что OpenAI не раскрывает информацию о методах сбора данных, а также об источниках, которые она использует для обучения больших языковых моделей.

Кроме того, мы узнаем о регуляторных и надзорных возможностях ФКТ в части обеспечения компаниями конфиденциальности и осуществления ими недобросовестных и вводящих в заблуждение практик при создании больших языковых моделей.
👍1
Media is too big
VIEW IN TELEGRAM
Проект Регламента ЕС об ИИ и стартапы

Друзья, делимся с вами записью вебинара, о котором писали недавно тут.
👍1
Передние рубежи нормативного регулирования в сфере ИИ

В начале месяца очень обширной и представительной группой ученых был опубликован препринт статьи «Передние рубежи ИИ-регулирования: управление рисками, возникающими в сфере общественной безопасности» (Frontier AI Regulation: Managing Emerging Risks to Public Safety).

В статье авторы приходят к выводу о том, что для безопасного применения современных базовых моделей уже недостаточно полагаться только на корпоративные стандарты и лучше практики. Необходимо комплексное законодательное регулирование. Это связано с рядом проблем, присущих базовым моделям, которые потенциально способны сделать их применение опасным для человека.

Проблема неожиданных возможностей базовых моделей. Она связана с тем, что последние могут приобретать некоторые функции, которые не были заранее предусмотрены разработчиками. Например, это может быть связано с увеличением числа параметров или подключения к дополнительным продуктам или интернету, загрузке новых данных. Некоторые из таких функций иногда относят к эмерджентным способностям. Про них мы писали тут.

Проблема безопасности эксплуатации базовых моделей. Эта проблема связана со сложностью обеспечения стабильности функционирования наиболее передовых моделей. Остается масса узких мест в обеспечении их корректной работы и безопасности.

Проблема быстрого распространения базовых моделей. Последние крайне быстро становятся доступными широкому кругу лиц. В связи с этим любые их недостатки потенциально становятся значительной угрозой для многих людей.

Отдельные управленческие и нормативные механизмы, направленные на уменьшение указанных рисков:

Во-первых, необходимо сформировать механизмы оперативного и регулярного обновления нормативных требований под изменяющиеся технологические реалии с учетом мнения экспертного сообщества и заинтересованных сторон.

Во-вторых, должны иметься механизмы по раскрытию информации, которые позволят органам власти следить за развитием передовых базовых моделей и вовремя реагировать на новые вызовы.

В-третьих, необходимо создать систему обеспечения соблюдения нормативных требований в виде создания компетентных органов и введения наряду с добровольными обязательных внешних независимых аудитов и сертификаций для отдельных базовых моделей.

Минимально необходимый набор нормативных требований должен включать:

Во-первых, проведение всесторонней оценки рисков с учетом анализа опасных потенциальных
возможностей и управляемости базовых моделей.

Во-вторых, привлечение внешних экспертов для независимой оценки моделей.

В-третьих, следование стандартизированным требованиям для разработки и вывода на рынок базовых моделей с учетом проведенной оценки рисков. Результаты оценки риска должны определять, будет ли развернута модель и каким образом, а также какие меры предосторожности будут предприняты.

В-четвертых, регулярное обновление требований к оценке риска на основе информации о развитии технологий.
🔥2👍1
Как должны регулироваться передовые базовые модели?

20 июля обсуждение данной статьи состоится в рамках вебинара в Центре государственного управления в сфере ИИ.

Зарегистрироваться можно по ссылке.
2👍1
Llama 2 свободно доступна для коммерческого использования ⚡️

Базовая модель Llama от компании Meta (запрещена в РФ) в свое время оказывает огромное значение на развитие опенсорс решений и проектов энтузиастов.

Она распространяется по открытой лицензии для некоммерческого использования. Тем не менее через несколько недель после релиза модель утекла в сеть и стала широко использоваться энтузиастами в своих проектах. Это позволило буквально за несколько месяцев за счет усилий коммьюнити доработать модель до уровня таких приложений, как ChatGPT, а также добавить в нее возможности тонкой настройки (fine tuning), мультимодальность, обучения с подкреплением на основе отзывов от человека (RLHF), в том числе и для решения проблемы этического выравнивания и контроля (alignment).

Более подробно про будущее моделей распространения базовых моделей можно почитать в нашем посте тут.

Сегодня Meta анонсировала выход базовой модели Llama 2, которую свободно можно будет использовать как для исследовательских, так и для коммерческих задач.

Доступны предварительно обученные и тонко настроенные модели с параметрами 7B, 13B и 70B.

Событие действительно историческое, так как теперь каждый сможет запустить и адаптировать под свои нужды передовую базовую модель. А за счет энтузиастов и коммьюнити в течение ближайших месяцев появятся сотни модификаций и приложений.

Также это сильнейший вызов для компаний, выбравшим SaaS модель распространения базовых моделей (например, OpenAI).

В очень интересное время живем, друзья!

Ссылка на сайт модели.

Статья с подробным описанием модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
ОЭСР подготовила доклад про регуляторные песочницы в сфере ИИ

Организация экономического сотрудничества и развития (ОЭСР) изучила вопрос использования регуляторных песочниц для тестирования ИИ и опубликовала в этом месяце доклад: «Регуляторные песочницы в сфере ИИ» (Regulatory Sandboxes in AI). В документе рассмотрены различные проблемы применения песочниц и сформулированы предложения по совершенствованию политики в этой сфере.

Междисциплинарное и многостороннее сотрудничество

ИИ-продукты являются комплексными и часто затрагивают несколько областей, поэтому в их тестировании должны участвовать разные регулирующие органы. Например, в Великобритании создана специальная группа по регулированию цифровой среды, в рамках которой сотрудничают антимонопольные, информационно-коммуникационные, финансовые органы и органы по защите информации. В Корее в запуске песочниц участвуют представители различных министерств, а в Бразилии Комиссия по ценным бумагам совместно с Центральным банком создали комитет, который взаимодействует с университетами, ассоциациями и представителями отраслей для оценки заявок на участие в песочнице.

Международное взаимодействие регулирующих органов и роль политики в сфере торговли

Требуется тесное международное сотрудничество при осуществлении экспериментального регулирования. Песочницы и другие способы регулирования в сфере технологий могут быть приравнены к «техническим регламентам» через «соглашения об эквивалентности». Уже сейчас имеется торговое соглашение о партнерстве в области цифровой экономики между Чили, Новой Зеландией и Сингапуром, направленное на содействие безопасному и ответственному использованию ИИ, которое также выступает за внедрение песочниц.

Схожие критерии для запуска и тестирования ИИ

Необходимо международное сотрудничество по вопросам совместимых способов проведения экспериментов, включая условий по тестированию ИИ. В частности, такие критерии, как инновационность, общественный интерес и готовность к тестированию могут быть унифицированы на международном уровне. А учитывая то, что бизнес в сфере ИИ, как правило, является международным, то наличие совместимых условий проведения экспериментов в разных юрисдикциях было бы очень выгодно компаниям.

Так, ОЭСР в пример приводит ЕС, который во избежание разрозненности регулирования в странах-членах союза планирует реализовать через Регламент ЕС об ИИ единый подход к песочницам, предлагая схожий набор требований и процедур тестирования ИИ.

Влияние на инновации

Растущее число песочниц по всему миру ведет к формированию глобальной экосистемы регулирования, поощряющей инновации. Однако отсутствие стандартных типологий приводит к тому, что каждая песочница отличается от другой. В частности, песочницы в зависимости от времени выхода на рынок ИИ-продукта могут являться: 1) предрыночным инструментом - до запуска системы ИИ; 2) регуляторным инструментом - работает параллельно с выпуском системы ИИ на рынок, позволяя заинтересованным сторонам коммерциализировать свои системы; 3) добровольным инструментом ex-post - используется уже после выхода продукта на рынок с тем, чтобы расширить возможные сценарии его использования.

Взаимодействие с другими инструментами, стимулирующими инновации

Песочницы должны оцениваться в сочетании с другими инструментами, например, стандартами. Данные, собираемые в песочницах ИИ, могут использоваться для выявления закономерностей и необходимости разработки стандарта в конкретной области. И наоборот, текущие процессы стандартизации могут служить основой для тестирования ИИ в песочницах.

Стандарты также позволяют обеспечить совместимость между песочницами. В двух юрисдикциях могут применяться различные песочницы, но при этом использоваться одни и те же стандарты для тестирования безопасности или выявления рисков ИИ. Это может привести к созданию общей системы тестирования и, возможно, к согласованным результатам работы песочницы. Напротив, принятие различных стандартов ИИ может привести к различным оценкам безопасности или качества ИИ, что может негативно сказаться на торговых отношениях между странами.
3
Продолжение дискуссии про передовые базовые модели

На неделе делились с вами постом про препринт статьи «Передние рубежи ИИ-регулирования: управление рисками, возникающими в сфере общественной безопасности» (Frontier AI Regulation: Managing Emerging Risks to Public Safety).

В статье авторы приходят к выводу о том, что для безопасного применения современных базовых моделей уже недостаточно полагаться только на корпоративные стандарты и лучшие практики.

Необходимо комплексное законодательное регулирование. Это связано с рядом проблем, присущих базовым моделям, которые потенциально способны сделать их применение опасным для человека.

Более подробно можно почитать в нашем посте тут.

Отдельно необходимо подчеркнуть, что речь в статье и посте будет идти именно о передовых базовых моделях, а не обо всех системах ИИ.

Этот термин используют авторы статьи, чтобы описать наиболее развитые современные базовые модели, которые могут представлять потенциальную угрозу для общества.

Австралийский ученый и предприниматель Джереми Ховард опубликовал заметку с критикой отдельных положений статьи. Остановимся на нескольких дискуссионных вопросах.

Во-первых, по его мнению, нормативное регулирование в сфере разработки и использования передовых базовых моделей должно исходить из следующей развилки:

а) создать общий ИИ (AGI) невозможно, существующие модели будут улучшаться до определенного предела. Тогда и не требуется специфических требований для их разработки и использования. Для применения существующих систем ИИ, как и любых других изобретений человека, потребуется доработка общей нормативной базы;

б) создание общего ИИ возможно, и наука плавно движется к этому. В этом случае необходимо предпринять ряд конкретных и довольно жестких нормативных требований к разработчикам передовых базовых моделей. Автор предлагает исходить именно из второго сценария.

Во-вторых, необходимо сосредоточиться не на уровне применения базовых моделей, а на уровне их разработки. Это связано с тем, что, как правило, наиболее продвинутые базовые модели создаются и эксклюзивно используются крупными технологическими компаниями (например, OpenA и Anthropic). Пользователи лишь получают доступ к отдельной части данной модели, которая подверглась тонкой настройке и различным ограничениями. Соответственно, никто в точности не знает, с какими моделями имеют дело сами разработчики внутри компаний. Таким образом, если какая-то команда действительно создаст общий ИИ, то у очень узкого круга допущенных к ней людей мгновенно откроются беспрецедентные возможности по контролю над человечеством.

Другой стороной этой проблемы является и то, что выпущенные (или слитые) на рынок модели мгновенно становятся доступными для использования каждому человеку и могут быть реплицированы огромное число раз. Это и делает передовые модели более опасными, чем, например, ядерное оружие. Создать и распространить последнее - задача трудно выполнимая.

Таким образом, необходимо установить обязательное раскрытие информации о намерении разрабатывать передовые базовые модели, а также проводить внешний независимый аудит уже на стадии разработки, а не фактического применения. Вместе с тем современные законодательные инициативы в большей степени направлены именно на этап вывода на рынок систем ИИ.

В-третьих, по мнению автора, неверные подходы к регулированию приведут лишь к дальнейшей монополизации отрасли. Например, он выразил свои опасения по поводу предложенной в статье идеи по введению лицензирования для создание передовых базовых моделей. Создание органа, уполномоченного решать, кому можно и кому нельзя создавать такие модели, приведет к его чрезмерному усилению и возможности влияния через него на потенциальных конкурентов со стороны бигтэков.

Дискуссия продолжилась также в ходе вебинара, на который мы давали ссылку тут. Запись мероприятия пока не нашли. Если кто-то видел, поделитесь!
🔥2
Крупные ИИ-компании дали слово Белому дому быть молодцами

Еще одна заметная новость прошедшей недели. Несколько дней назад Президент США Джо Байден провел встречу с представителями семи ведущих компаний в области искусственного интеллекта - Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI.

По результатам встречи было объявлено, что данные компании добровольно обязуются обеспечивать ряд мер по ответственному развитию ИИ.

В основе договоренности лежат три принципа: безопасность, защищенность и доверие.
В рамках них компаниям надлежит предпринять восемь мер:

1. Принять на себя обязательства по проведению внутренней и внешней оценки базовых моделей и систем ИИ в таких областях, как нецелевое использование, риски для общества и угрозы национальной безопасности.

Проверять их надлежит на:

а) риски по упрощению создания биологического, химического и ядерного оружия за счет использования базовых моделей;

б) риски для кибербезопасности (способность базовых моделей искать уязвимости);

в) способность базовой модели использовать объекты (в том числе материальные) в качестве инструментов;

г) способность создавать свои копии или иным образом самовоспроизводиться;

д) риски для общества, такие как предвзятость и дискриминация.

2. Обмениваться информацией между собой, другими компаниями и государственными органами относительно потенциальных рисков и способов их уменьшения. В том числе надлежит обмениваться стандартами и лучшими практикам.

3. Инвестировать средства в обеспечение кибербезопасности и защиту от инсайдеров для сохранения важной инфраструктурной информации о базовых моделях.

4. Стимулировать поиск проблем и уязвимостей со стороны внешних участников (например, установить вознаграждения за информацию, проводить чемпионаты по хакингу и т.п.).

5. Разрабатывать и внедрять механизмы, позволяющие пользователям понять, является ли аудио- или визуальный контент сгенерированным ИИ (подтверждение происхождения, маркировки, водяные знаки и т.п.).

6. Публично раскрывать информацию о возможностях, ограничениях и целесообразных сценариях использования базовых моделей и систем ИИ. Для этого компании обязуются публиковать соответствующие отчеты.

7. Сделать исследования социальных рисков применения базовых моделей и систем ИИ приоритетными. Это включает в себя, в том числе, предотвращение предвзятостей, дискриминации, проникновение в частную жизнь.

8. Разрабатывать и внедрять передовые базовые модели в целях решения важнейших проблем общества. Например, борьба с изменением климата, киберугрозами, поддержка научный исследований, образование и просвещение людей и т.п.

Следует отметить, что никакой ответственности для компаний за нарушение договоренностей не устанавливается. Только репутационные издержки и доброе отношение властей.

Таким образом, документ является плоть от плоти американского подхода к нормативному регулированию применения систем ИИ. Последний заключается в поддержке государством технологического бизнеса при избежании установления жестких нормативных требований.

Подробно про американский подход можно почитать в нашем недавнем большом обзоре.
👍21👾1
Как в России планируют регулировать применение рекомендательных алгоритмов

О необходимости регулирования рекомендательных алгоритмов в РФ в парламенте говорили еще давно. Однако до конкретных шагов дело никак не доходило. Месяц назад в Госдуму внесли проект закона, в соответствии с которым к использованию рекомендательных алгоритмов в интернете будет предъявляться ряд требований.

Прежде всего отметим, что акт использует термин рекомендательные технологии, под которыми понимаются технологии, позволяющие предоставлять информацию на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей интернета. Не ошибемся, если скажем, что рекомендательные технологии и рекомендательные алгоритмы равнозначны по своей сути, но далее по тексту будем использовать термин из проекта закона.

Так, в соответствии с законопроектом не допускается применение рекомендательных технологий:

а) нарушающих права и законные интересы граждан и организаций;

б) без информирования об этом пользователей соответствующих информационных ресурсов.

Пункт “а” носит декларативный характер, поскольку положение “нарушение прав и законных интересов” не конкретизируется в тексте. Можно было бы указать, в чем именно должно выражаться такое нарушение, например, рекомендации манипулировали поведением лица таким образом, что это причинило ему существенный вред. В отсутствие какой-либо детализации основным способом воздействия акта на общественные отношения будет являться пункт “б”, который содержит конкретное требование по информированию пользователей.

Однако и здесь можно было бы пойти дальше и предусмотреть право пользователей на отказ от применения в их отношении алгоритма или хотя бы изменение его параметров. По такому пути последовали, в частности, Китай (приказ Администрации киберпространства Китая "О регулировании применения рекомендательных алгоритмов информационных Интернет-служб") и Европейский союз ("Акт о цифровых услугах").

Согласно законопроекту информирование должно осуществляться посредством размещения на информационном ресурсе документа с правилами применения рекомендательных технологий. Сами правила применения должны содержать:

а) описание применяемых рекомендательных технологий;

б) виды сведений о предпочтениях пользователей интернета, на основе которых работают рекомендации, а также источники получения таких сведений.

Последствия несоблюдения требований

Если Роскомнадзор обнаружит информационный ресурс, на котором: 1) применяются рекомендательные технологии, нарушающие права и законные интересы граждан и организаций; или 2) отсутствует информирование пользователей, то он может запросить у владельца ресурса документацию, касающуюся технологии, и доступ к программно-техническим средствам для проведения оценки соответствия законодательству.

При выявлении факта нарушения Роскомнадзор направляет владельцу ресурса уведомление о необходимости его устранения. Если владелец не выполняет свои обязанности, то Роскомнадзор направляет указанному лицу требование о запрете предоставления информации с применением рекомендательных технологий. В случае отказа от приостановления применения рекомендательной технологии Роскомнадзор незамедлительно направляет операторам связи требование об ограничении доступа к ресурсу, на котором применяется технология. Оператор, соответственно, будет обязан заблокировать этот ресурс. Также предусматривается, что после устранения нарушений у владельца есть право на то, чтобы доступ к ресурсу был возобновлен.

Положения акта распространяются только на частный сектор. Таким образом, государственные информационные системы (их сейчас более 800 только на федеральном уровне и они содержат большие объемы данных различного характера), государственные органы и органы местного самоуправления не будут подпадать под регулирование. Представляется, что основными объектами регулирования станут маркетплейсы, социальные сети и видеохостинги.

Проект закона к настоящему времени практически единогласно прошел первое чтение. Сейчас идет процесс по его доработке, возможно, в скором времени он будет принят.
🔥2