Robocounsel – Telegram
Robocounsel
1.92K subscribers
242 photos
17 videos
77 files
614 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Изменение политики Линкдин в части обучения ИИ: как отказаться

C 3 ноября 2025 г. Линкдин начинает обработку ПДн пользователей из Европейской экономической зоны, Швейцарии и Великобритании для обучения ИИ-моделей.

У пользователей из этих регионов в настройках появился новый переключатель, который теперь будет включён по умолчанию (опт-аут).

Отключить можно по прямой ссылке здесь.

О планах по изменению политики компания планирует разослать отдельное уведомление, основные данные уже есть в этой их статье, обновлённой сегодня утром.
👍8
Большие языковые модели и профессиональное развитие: быстрее — не значит лучше.

Коллеги задаются вопросом — использование ЛЛМ-чатботов в работе (в частности, юристов) — это хорошо или плохо? "Тупеют" ли такие специалисты или наоборот, профессионально растут быстрее тех, кто этот инструмент не использует?

На мой взгляд, использование этих чатботов может быть очень разным. Применять их для быстрого поиска ответов на вопросы, чтобы не особо рефлексируя скопировать ответ куда-то — вот это надёжный путь к быстрой деградации. И совсем другое, когда чатбот используется для итеративного осмысления и критического анализа.

Меня не удивляет, что люди хуже запоминают информацию, когда используют чатботы просто для получения готовых ответов.

Есть достаточно данных, подтверждающих простую закономерность: чем меньше мы вовлечены в работу с материалом, тем хуже запоминаем. Простой пример: если просто прочитать новый закон, в памяти останется минимум. Если читать его, попутно делая для себя заметки и комментарии, усваивается гораздо больше.

Когда чатбот применяется не для итеративного осмысления материала, а лишь для быстрого получения готового фрагмента текста, который нужно куда-то вставить, запоминание скорее всего будет даже хуже, чем при простом чтении первоисточника (без составления заметок).

При работе с первоисточником хотя бы виден полный контекст, из которого вы извлекаете фрагмент текста.

Соответственно, в тезис о том, что младшие юристы могут стать экспертами быстрее просто благодаря чатботам — я не верю. Не всякое применение ЛЛМ-чатботов одинаково влияет на личное и профессиональное развитие — как я отметил выше, есть хорошие и плохие практики.

Более того, работа исключительно с текстовым материалом не трансформируется автоматически в опыт ведения сделок и успешной работы с клиентами — извините за очевидное. Существуют хорошие исследователи и аналитики, которые слабо справляются с практической работой "в поле", и наоборот. Разносторонние эксперты тоже существуют, но такая универсальность не является данностью — я бы избегал наивных предположений, что из одного автоматически вытекает другое.
5👍2🤔1
ИИ как медицинское изделие в ЕС

Всё, что вы хотели знать, но боялись спросить (ну или было не у кого) про соотношение Регламентов MDR, IVDR и AIA — в совместном документе AIB 2025-1 / MDCG 2025-6 Европейского совета по искусственному интеллекту и Координационной группы по медицинским изделиям.
5🔥4
Даже AGI-оптимисты считают, что до него десятилетие

Дваркеш Патель записал интервью с Андреем Карпатым.

Андрей объясняет:
— почему обучение с подкреплением (RL) ужасно (но всё остальное — ещё хуже);
— как «коллапс модели» мешает большим языковым моделям учиться «по-человечески»;
— почему даже AGI, скорее всего, ничего глобально не изменит в сложившемся за 250 лет тренде устойчивого глобального роста ВВП на ~2% в год;
— почему автономное вождение заняло столько времени (прим. АТ: так у Дваркеша, а Андрей поясняет, что проблема по-настоящему автономного вождения до сих пор не решена, вообще-то);
— и каким он видит будущее образования.

Кто такой Андрей Карпатый и почему его можно слушать, в отличие от многих других: сооснователь Оупен-Эй-Ай (исследователь в 2015–2017, возвращался в 2023–2024), экс-директор по ИИ и Автопилот Вижн в Тесле (2017–2022), PhD в Стэнфорде под руководством Фэй-Фэй Ли, автор и основной преподаватель курса CS231n. В 2024 запустил образовательный проект Eureka Labs.

P.S. Любопытно, что это как с управляемым термоядерным синтезом — как фанатов ни спроси (что термояда, что AGI), до него всегда остаётся всего около 10 лет. В 1950х — оставалось всего 10 лет. В 1980х — снова осталось всего 10 лет. В 2025 опять всего 10 лет. Наверное в 2035 тоже снова останется ещё 10 лет. Впечатляющее постоянство!
🔥6👍4😁3
А вы смотрите Евразийский конгресс по защите
данных?


Если нет, то очень даже зря. Лучше поздно, чем никогда, поэтому исправляю оплошность, и даю ссылку на стрим:
- сегодняшний;
- вчерашний (участвовал в двух панелях — в международном обзоре на 1:50:44 и с новостями из процесса ИИ-стандартизации в ЕС на 4:25:07);
- вся программа на эту неделю.

Смотрим-пересматриваем!
10👍5
Заканчивается регистрация на шестой поток курса по Регламенту ЕС по ИИ

Занятия начинаются в ноябре, и по сравнению с прошлыми потоками дополнительно включают:
— более детальный разбор технических стандартов по ИИ от СЕН-СЕНЭЛЕК и ИСО, без которых выполнить требования Регламента на практике будет проблематично;
— практическую информацию для тех, кто внедряет или использует ИИ в медицинских изделиях и фармацевтическом секторе.

Также затронем специфичные для ИИ аспекты кибербезопасности, учитывая все дополнительные риски, которые создают набирающие популярность ИИ-агенты.

🌟 Только у нас на курсе — новейший постатейный комментарий к регламенту — Annotated AI Act (Издание 2025/2026) Арнуда Энгельфрита в качестве обязательного чтения. Электронная версия в подарок, на бумажную — эксклюзивная скидка.

Почему этот курс особенный: у меня за плечами профильное образование (LL.M. in Innovation, Technology and the Law, Edinburgh) и десятилетие работы в профильной сфере, я участвую в разработке технических стандартов к Регламенту ЕС об ИИ в СЕН-СЕНЭЛЕК. Я не набираю большие группы, все задания (да, письменные работы, а не только тесты) проверяю лично я. Чтобы сохранить качество, количество мест строго ограничено.

🕒 Для работающих профессионалов: курс длится 4 недели, помимо 2 часов в Зуме вам потребуется около 6 часов в неделю в удобном для вас темпе, но со сроками сдачи заданий я достаточно гибок — понимаю, что работа может быть приоритетом. Занятия в зуме (2 часа в неделю) проходят по пятницам вечером, но вы можете смотреть записи, если так удобнее. Дополнительные часы для личного приёма помогут вам разобраться в конкретных вопросах, даже если вы не успеваете за группой.

⚡️ Регистрируйтесь сейчас, пока есть места. Подробности, отзывы и регистрация с оплатой в евро — на сайте курса. Для оплаты в рублях — оставьте заявку через бот.

💼 Дополнительные плюсы: работодатель может оплатить ваше обучение, а сертификат подходит для подтверждения CPD/CPE-кредитов в рамках обязательного повышения квалификации (но уточняйте у организации, которая предъявляет к вам требования, политика может различаться). Вам также будут предоставлены эксклюзивные условия для членства в AI Governance Community of Practice.
8🔥2
Проект европейского стандарта 18286 СМК для поставщиков ИИ-систем близится

В рабочей группе № 2 совместного комитета JTC 21 СЕН-СЕНЕЛЕК мы обработали все комментарии, поступившие на рабочий проект (working draft) этого стандарта, поэтому документ наконец-то вышел на стадию публичной консультации (enquiry).

Текст в ближайшие дни появится на сайтах национальных органов по стандартизации членов СЕН-СЕНЭЛЕК.

Напомню, что статьёй 17 Регламента ЕС по искусственному интеллекту предусмотрено, что поставщики ИИ-систем повышенной опасности обязаны внедрить систему менеджмента качества (СМК).

Статьёй определены базовые нормативные требования к такой СМК, в то время как порядок реализации этих требований закрепляется в европейском техническом стандарте.

Понять, относится ли ваша система к категории повышенно-опасных и актуален ли для вас этот стандарт вы можете по перечням из раздела А приложения I и из приложения III к Регламенту и правилам статьи 6 Регламента.
7👍2🥴1
This media is not supported in your browser
VIEW IN TELEGRAM
Хотите, чтобы ИИ-агент помог вам в бизнесе, чётко и автономно выполняя ваши инструкции?

Тогда агенты, имеющиеся в наличии сейчас — на базе больших языковых моделей (LLM) — вам не подойдут. Простая демонстрация от Ричарда Бурмана (отвечает за ИИ-гавернанс в Мастеркарде).

Мы даём агенту инструкцию: купить зерна по цене не более 9 фунтов за единицу. И он, поторговавшись, благополучно закрывает сделку... по цене 10 фунтов за единицу. Потому что какое дело модели до ваших инструкций...

В данном случае демонстрация сделана на Комет, но точно также (непредсказуемо-ненадёжно) себя будут вести любые иные ИИ-агенты на базе LLM. Это архитектурная особенность, устранить эту проблему, не меняя архитектуру, невозможно.

Удачных покупок!
2😁7👍3🤔1
prEN 18286 Artificial intelligence - Quality management system for EU AI Act regulatory purposes

Проект одного из стандартов в поддержку Регламента ЕС по ИИ, в разработке которого я принимал участие, перешёл в стадию публичной консультации до 23 декабря.

Стандарт покрывает требования ст. 17 Регламента (система менеджмента качества для поставщиков ИИ-систем повышенной опасности).

Посмотреть на английском можно — бесплатно зарегистрировавшись — здесь.
1🔥94👏1
Новомодные ИИ-браузеры опасны, но не бесполезны

Опасны для пользователей ввиду 100% уязвимости для промт-инъекций, но не бесполезны для ИИ-разработчиков.

Георг Золлер высказывает теорию: план ИИ-разработчиков в том, чтобы дотянуться до тех данных, которые сейчас скрыты за пейволлами или иным образом недоступны для обычной индексации поисковыми системами.

Если гора этих данных не идёт к Магомету, Магомет использует ИИ-браузер. Вы пускаете к себе этого троянского коня, и теперь всё содержимое браузера как на блюдечке.

Так это или нет — не знаю, но в любом случае ИИ-браузеры опасны ввиду избыточной уязвимости для кибератак, о чём многократно писал, и рекомендовать их сегодня никому невозможно.
4👍1
Что у вас там в Европах с ОРЗД и ИИ-Актом?

На прошлой неделе эта тема лихо вошла в тренды, так как где-то в среду сначала в прессу, а потом более широко, утекли предлагаемые поправки по "упрощению" цифрового законодательства, в частности ОРЗД (GDPR) и ИИ-Акта (AI Act). Все, кто хотел, обсудили это в Линкдине примерно в четверг-пятницу (я у себя в Линкдине тоже, но точечно), самые медленные на выходных, ну и к понедельнику новости добрались в искажённом виде до российской аудитории.

Что там на самом деле? Утекла какая-то ранняя версия, и, кажется, только составленная DG CNECT (но, например, не согласованная с DG JUST, который просто так не пропустит никакие поправки к GDPR). Утекла очевидно потому, что кому-то это было выгодно — так можно оказывать давление с целью продавить или заставить активнее публично обсуждать какие-то конкретные предложения, конкретные варианты решений развилок. Ещё даже до того, как они пройдут межведомственное согласование.

Все обсуждения текста должны это учитывать — вы видите раннюю версию проекта, ещё даже не согласованного внутри самой Еврокомиссии. Который затем должен быть опубликован, и пройти обычную законотворческую процедуру — через Совет и Европарламент. На этом пути возможны довольно значительные изменения.

Для тех, кому это реально интересно и нужно, в части поправок к Регламенту ЕС по ИИ у меня будет закрытая сессия на эту тему на Патреоне в эту среду.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Еврокомиссия обдумывает сроки начала применения отдельных положений Регламента об ИИ

Заявление Тома Ренье, пресс-секретаря ЕК по вопросам технологического суверенитета, обороны, космоса, исследований и инноваций.

Упрощение [регулирования] является приоритетной задачей для нынешней Комиссии. В этом контексте обсуждаются сроки введения в действие Регламента об ИИ.

Официальное решение пока не принято.

Хочу подчеркнуть: эти размышления касаются придания практичности положениям Регламента, а не их ослабления.
👍1
Лекун уходит

Из Меты* в свой стартап, поговаривают в Файненшел таймс. Совсем разошлись в приоритетах с Цукербергом, кажется.

В отличие от господина Ц., Ян Лекун уже долгое время аргументирует, что большие языковые модели полезны, но не должны быть приоритетным направлением исследований в ИИ. Нужны новые архитектуры, которые будут уметь по-настоящему создавать внутреннюю модель мира и успешно планировать свои действия в нём.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
2👍2
Сэм Альтман — хронический лжец

Так считает Илья Суцкевер, соосновавший и работавший ранее в Оупен-Эй-Ай и подготовивший на эту тему мемо на полсотни страниц для прежнего совета директоров, когда Альтмана безуспешно пытались сместить.

Много интересного узнаём благодаря процессу Маска против Оупен-Эй-Ай (сколь бы ни сомнителен был сам иск).

Теперь вам есть что послушать за обедом — добрые (?) люди озвучили основное, что вы хотели бы (?) знать на эту тему.
1😁4🤔1
Еврокомиссия опубликовала проект поправок к Регламенту ЕС по ИИ

В следующую среду 26 ноября в 18:30 по Брюсселю / 20:30 по Москве проведу эфир с обзором ключевых предлагаемых изменений. Зарегистрироваться можно здесь.

Сразу отвечу на самые популярные вопросы:

Если Совет и Европарламент примут предложение Комиссии в текущем виде (что далеко не гарантировано):

1. HRAIS — дедлайн:

Требования Регламента по ИИ к поставщикам систем повышенной опасности из Приложения III начнут применяться через 6 месяцев после того, как Комиссия подтвердит, что в наличии все необходимые инструменты для реализации (гармонизированные стандарты СЕН-СЕНЭЛЕК, общие спецификации и (или) руководства самой Комиссии), но во всяком случае не позднее 2 декабря 2027 года.

Для систем из Приложения I соответствующие сроки — 12 месяцев после такого подтверждения, но во всяком случае не позднее 2 августа 2028 года.

2. HRAIS — исключение для легаси-систем:

В отступление от общего подхода Blue Guide льготный период будет распространяться не только на конкретные поставленные до дедлайна экземпляры системы ИИ, но и на все системы ИИ того же типа и модели, уже выведенные на рынок до дедлайна.

То есть если хотя бы один экземпляр системы ИИ повышенной опасности был правомерно выведен на рынок или введён в эксплуатацию до наступления HRAIS-дедлайна, другие экземпляры той же модели и типа освобождаются от требований Регламента по ИИ, пока дизайн соответствующей системы остаётся неизменным.

3. TRAIS — дедлайн:

Для требований Регламента по ИИ к маркировке синтетического контента по ст. 50(2): для систем, уже находящихся на рынке к 2 августа 2026 года, срок приведения в соответствие продлевается до 2 февраля 2027 года.

Об остальных предлагаемых изменениях расскажу на сессии.
7
🆕 💫 Вторая AMA-сессия в нашем сообществе AI Governance

📌Мы продолжаем серию открытых встреч с экспертами для живого диалога об AI Governance!

💫 Второй гость — Александр Тюльканов (LL.M., University of Edinburgh)

🔘 Один из самых влиятельных экспертов AI Governance
🔘 Преподаватель курса по EU AI Act
🔘 Сертифицированный эксперт по внедрению ИСО/МЭК 42001 и в области прайваси (CIPP/E)
🔘 Соразработчик технических стандартов СЕН-СЕНЭЛЕК в области ИИ
🔘 Автор канала Robocounsel
🔘 Консультирует бизнес и госсектор в ЕС и по всему миру, живёт в Страсбурге

💬О чём поговорим:

🔘 Путь эксперта: от договорного права до AI Governance
🔘 Опыт разработки технических стандартов и консультирования бизнеса
🔘 Как монетизировать свою экспертизу на международном рынке
🔘 LinkedIn как инструмент влияния: как построить экспертный бренд
🔘 Какие возможности открывает AI Governance
🔘 + ваши вопросы в прямом эфире!

💫 Когда: 26 ноября в 18.00 (МСК)

💫 Где: онлайн, Zoom

💫 Формат: интервью + открытая сессия Q&A

📎Регистрация: ссылка на встречу будет опубликована в закрытом чате нашего AIG-community (если тебя еще там нет, то пиши Марии (@yurovvaa), и тебя оперативно добавят)

⚡️ Редкая возможность поговорить с экспертом, который формирует правила игры в AI Governance!

✏️А в далеком 2021ом мы с Сашей встречались в рамках RadioGroot, можно послушать.

RPPA.pro | RPPAedu.pro | AI Governance
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥85
Мой проект в рамках StandICT

Чуть больше года я участвую и набираюсь опыта в разработке технических стандартов по управлению рисками ИИ (AI Risk Management, ИИ РМ, prEN 18228) и системе менеджмента качества для поставщиков ИИ-систем (Quality Management System, СМК, prEN 18286) в совместном техническом комитете CEN-CENELEC JTC 21, а также в зеркальной национальной работе во французской комиссии по стандартизации ИИ при АФНОР.

По мандату Еврокомиссии эти проекты должны поддержать внедрение Регламента ЕС по ИИ. Под руководством Джеймса Джили, Фредерика Кориво и Адама Смита, несмотря на все сложности, мы стараемся дать поставщикам ИИ-систем применимые на практике спецификации о том, как выполнить требования Регламента к системам повышенной опасности.

В этом контексте рад поделиться, что на этой неделе был утверждён и оплачен отчёт по моему участию в работе над стандартами ИИ РМ и СМК в рамках деятельности, поддержанной грантом из бюджета ЕС и администрируемой StandICT.eu.

В начале этого года я узнал об инициативе StandICT.eu, которая поддерживает экспертов, разрабатывающих технические стандарты с учётом интересов европейского малого и среднего бизнеса и общественно значимых эффектов (в том числе по ИИ), и подал предложение на 6-месячный проект — в итоге проект одобрили, и вот теперь приняли и финансово поддержали саму работу.

Благодарю европейских граждан (за счёт чьих налогов это всё стало возможно), а также европейские институты, должностных лиц и коллег из StandICT, СЕН-СЕНЭЛЕК и АФНОР за возможность внести свой вклад в эту работу в интересах европейского сообщества. Продолжу участвовать в наибольшей возможной для меня мере.
10🔥6
Маркировка ИИ
Дал комментарий Коммерсант-ФМ по новому законопроекту о маркировке ИИ-контента (с 2:40)
🔥62
This media is not supported in your browser
VIEW IN TELEGRAM
AI Governance 2025: посиделки под конец года

Поговорили с Патриком Салливаном (A-Lign) и Даницей Враньянин (JAGGAER), поделились впечатлениями о произошедшем за год в нашей сфере.
4🔥1