🇨🇳Китай опубликовал проект правил взаимодействия с антропоморфным ИИ.
Управление по вопросам киберпространства Китая (CAC) опубликовало для общественного обсуждения проект мер по регулированию деятельности ИИ-сервисов в стране. Нормы будут применяться к продуктам и услугам на базе ИИ, которые воспроизводят человекоподобные модель мышления и стиль общения, взаимодействуя с пользователем на эмоциональном уровне.
Проект правил обязывает поставщиков услуг: нести ответственность за безопасность на протяжении всего жизненного цикла продукта; реализовать систему проверки алгоритмов для защиты данных и приватной информации; оценивать эмоциональное состояние пользователей, их уровень психологической зависимости от сервиса, а также вмешиваться в случае необходимости.
Предлагаемые меры также запрещают ИИ-сервисам генерировать контент, который ставит под угрозу национальную безопасность, нарушает этническое единство, способствует незаконной религиозной деятельности или подстрекает к преступлениям.
Кроме того, законопроект обязывает поставщиков услуг размещать на видном месте уведомление о том, что пользователь взаимодействует с системой искусственного интеллекта, а не с человеком.
Управление по вопросам киберпространства Китая (CAC) опубликовало для общественного обсуждения проект мер по регулированию деятельности ИИ-сервисов в стране. Нормы будут применяться к продуктам и услугам на базе ИИ, которые воспроизводят человекоподобные модель мышления и стиль общения, взаимодействуя с пользователем на эмоциональном уровне.
Проект правил обязывает поставщиков услуг: нести ответственность за безопасность на протяжении всего жизненного цикла продукта; реализовать систему проверки алгоритмов для защиты данных и приватной информации; оценивать эмоциональное состояние пользователей, их уровень психологической зависимости от сервиса, а также вмешиваться в случае необходимости.
Предлагаемые меры также запрещают ИИ-сервисам генерировать контент, который ставит под угрозу национальную безопасность, нарушает этническое единство, способствует незаконной религиозной деятельности или подстрекает к преступлениям.
Кроме того, законопроект обязывает поставщиков услуг размещать на видном месте уведомление о том, что пользователь взаимодействует с системой искусственного интеллекта, а не с человеком.
⚖️Суд в Нидерландах отменил свадьбу из-за ChatGPT.
Суд в Эволле признал брак недействительным, потому что церемония бракосочетания не соответствовала закону. Проблема оказалась в тексте, который написал ChatGPT.
В апреле 2025 года пара пригласила знакомого провести свадьбу, чтобы церемония получилась легкой и неформальной, тот написал речь с помощью ChatGPT, который составил романтичную формулиорвку. Проблема в том, что по статье 1:67 Гражданского кодекса Нидерландов вступающие в брак обязаны произнести конкретную формулу — что они берут на себя все обязательства, предусмотренные законом для супругов.
На церемонии присутствовал и штатный регистратор из муниципалитета, но он почему-то промолчал. Позже муниципалитет сам сообщил в прокуратуру о возможном нарушении, и дело дошло до суда. Пара указывала, что вина лежит не на них — профессиональный чиновник должен был вмешаться. Но суд это не убедило. Теперь паре придется жениться заново — уже без помощи нейросетей.
Суд в Эволле признал брак недействительным, потому что церемония бракосочетания не соответствовала закону. Проблема оказалась в тексте, который написал ChatGPT.
В апреле 2025 года пара пригласила знакомого провести свадьбу, чтобы церемония получилась легкой и неформальной, тот написал речь с помощью ChatGPT, который составил романтичную формулиорвку. Проблема в том, что по статье 1:67 Гражданского кодекса Нидерландов вступающие в брак обязаны произнести конкретную формулу — что они берут на себя все обязательства, предусмотренные законом для супругов.
На церемонии присутствовал и штатный регистратор из муниципалитета, но он почему-то промолчал. Позже муниципалитет сам сообщил в прокуратуру о возможном нарушении, и дело дошло до суда. Пара указывала, что вина лежит не на них — профессиональный чиновник должен был вмешаться. Но суд это не убедило. Теперь паре придется жениться заново — уже без помощи нейросетей.
💻OpenAI внедрила аналог Google Translate в ChatGPT.
Компания OpenAI запустила новый инструмент для перевода под названием ChatGPT Translate. Этот отдельный инструмент позиционируется как прямой конкурент Google Translate. Интерфейс составляет два текстовых поля: одно для ввода, другое для вывода, с автоматическим определением языка и поддержкой перевода более чем на 50 языков и обратно.
В нижней части интерфейса пользователям предлагается несколько вариантов подсказок, которые можно выбрать одним нажатием и которые позволяют изменить переведенный текст. К ним относятся такие подсказки, как «сделать перевод более плавным», «переписать в деловом стиле», «упростить для ребенка» или «адаптировать для академической аудитории».
При выборе любой из них пользователь мгновенно перенаправляется в основной интерфейс ChatGPT с полностью сформированной подсказкой, что позволяет более детально настроить генеративный ИИ.
Вместо простого перевода с одного языка на другой он позволяет пользователям учитывать контекст, тон и аудиторию, чего раньше не делали традиционные инструменты перевода.
Компания OpenAI запустила новый инструмент для перевода под названием ChatGPT Translate. Этот отдельный инструмент позиционируется как прямой конкурент Google Translate. Интерфейс составляет два текстовых поля: одно для ввода, другое для вывода, с автоматическим определением языка и поддержкой перевода более чем на 50 языков и обратно.
В нижней части интерфейса пользователям предлагается несколько вариантов подсказок, которые можно выбрать одним нажатием и которые позволяют изменить переведенный текст. К ним относятся такие подсказки, как «сделать перевод более плавным», «переписать в деловом стиле», «упростить для ребенка» или «адаптировать для академической аудитории».
При выборе любой из них пользователь мгновенно перенаправляется в основной интерфейс ChatGPT с полностью сформированной подсказкой, что позволяет более детально настроить генеративный ИИ.
Вместо простого перевода с одного языка на другой он позволяет пользователям учитывать контекст, тон и аудиторию, чего раньше не делали традиционные инструменты перевода.
🇨🇳Китай намерен усилить защиту персональных данных.
Государственная канцелярия по делам интернет-информации КНР (CAC) обнародовала проект правил, регламентирующих сбор и использование личной информации интернет-приложениями, с целью сбора мнений и предложений общественности относительно документа.
Новые правила будут распространяться на сбор и использование персональных данных в процессе использования интернет-приложений на территории КНР, а также при сборе и использовании персональных данных китайских граждан за пределами страны.
Согласно содержанию документа, сбор и использование личной информации пользователей должны строго ограничиваться только тем, что необходимо для предоставления продуктов или услуг, и не выходить за установленные рамки.
В нем также отмечается, что при первом запуске интернет-приложения обязаны четко информировать пользователей о правилах сбора и использования персональных данных с помощью таких наглядных способов, как всплывающие окна уведомлений, и получать от них ясно выраженное согласие.
Кроме того, проект требует, чтобы интернет-приложения не собирали и не использовали личную информацию других лиц, кроме пользователя, путем получения доступа к адресным книгам, журналам звонков или SMS-сообщениям, за исключением случаев, когда такой доступ необходим для целей связи, добавления новых контактов или резервного копирования данных.
Как оговаривается в документе, в случае предоставления личной информации третьим лицам приложениям надлежит получить отдельное согласие пользователя.
Также в правилах предусмотрена возможность отключения персонализированных рекомендаций. Интернет-приложения, используемые для рассылки информации и маркетинга, должны предусматривать простой, доступный и удобный способ отключения персонализированных рекомендаций. При отключении пользователем рекомендаций операторы интернет-приложений обязаны прекратить использование персональных данных.
Государственная канцелярия по делам интернет-информации КНР (CAC) обнародовала проект правил, регламентирующих сбор и использование личной информации интернет-приложениями, с целью сбора мнений и предложений общественности относительно документа.
Новые правила будут распространяться на сбор и использование персональных данных в процессе использования интернет-приложений на территории КНР, а также при сборе и использовании персональных данных китайских граждан за пределами страны.
Согласно содержанию документа, сбор и использование личной информации пользователей должны строго ограничиваться только тем, что необходимо для предоставления продуктов или услуг, и не выходить за установленные рамки.
В нем также отмечается, что при первом запуске интернет-приложения обязаны четко информировать пользователей о правилах сбора и использования персональных данных с помощью таких наглядных способов, как всплывающие окна уведомлений, и получать от них ясно выраженное согласие.
Кроме того, проект требует, чтобы интернет-приложения не собирали и не использовали личную информацию других лиц, кроме пользователя, путем получения доступа к адресным книгам, журналам звонков или SMS-сообщениям, за исключением случаев, когда такой доступ необходим для целей связи, добавления новых контактов или резервного копирования данных.
Как оговаривается в документе, в случае предоставления личной информации третьим лицам приложениям надлежит получить отдельное согласие пользователя.
Также в правилах предусмотрена возможность отключения персонализированных рекомендаций. Интернет-приложения, используемые для рассылки информации и маркетинга, должны предусматривать простой, доступный и удобный способ отключения персонализированных рекомендаций. При отключении пользователем рекомендаций операторы интернет-приложений обязаны прекратить использование персональных данных.
💻ФНС планирует сделать все чеки цифровыми.
С 1 марта 2025 года в России действует новый способ передачи кассовых чеков покупателям, который работает через сервис ФНС России «Мои чеки онлайн». Сервис используется для хранения электронных чеков и дает физлицам возможность получить доступ к информации о совершенных покупках. Все продавцы, использующие контрольно-кассовую технику, обязаны предоставить клиентам возможность получать электронный чек через ФНС при наличии согласия.
В случае получения согласия от покупателя продавец может отправлять ему электронный чек по номеру телефона или адресу электронной почты клиента, которые будут использоваться для идентификации чека в системе ФНС. Важно, чтобы продавец корректно ввел контактные данные покупателя в кассовую систему. Чек должен быть направлен в момент расчета. Этот способ не отменяет традиционные методы, а предоставляет дополнительную опцию.
Покупатель может в любое время зайти в сервис «Мои чеки онлайн», чтобы просмотреть или скачать все чеки, связанные с его контактными данными. Это удобно, например, при возврате товаров, гарантийном обслуживании или для подтверждения расходов при налоговых вычетах.
Новые правила также касаются расчётов через Систему быстрых платежей и расчетов с участием сотрудников продавца. При этом покупатель имеет право отказаться от получения чеков через сервис ФНС и выбрать другой способ.
Электронный кассовый чек предоставляется в случаях расчета покупателя в безналичном порядке в сети интернет с использованием электронных средств платежа (банковской картой, банковским переводом, с использованием электронного кошелька, через СБП и т.п.). В этом случае пользователем применяется онлайн-касса, предназначенная только для безналичных расчетов в сети интернет. При этом обязательно должна обеспечиваться передача фискальных документов в налоговые органы в электронной форме через оператора фискальных данных.
С 1 марта 2025 года в России действует новый способ передачи кассовых чеков покупателям, который работает через сервис ФНС России «Мои чеки онлайн». Сервис используется для хранения электронных чеков и дает физлицам возможность получить доступ к информации о совершенных покупках. Все продавцы, использующие контрольно-кассовую технику, обязаны предоставить клиентам возможность получать электронный чек через ФНС при наличии согласия.
В случае получения согласия от покупателя продавец может отправлять ему электронный чек по номеру телефона или адресу электронной почты клиента, которые будут использоваться для идентификации чека в системе ФНС. Важно, чтобы продавец корректно ввел контактные данные покупателя в кассовую систему. Чек должен быть направлен в момент расчета. Этот способ не отменяет традиционные методы, а предоставляет дополнительную опцию.
Покупатель может в любое время зайти в сервис «Мои чеки онлайн», чтобы просмотреть или скачать все чеки, связанные с его контактными данными. Это удобно, например, при возврате товаров, гарантийном обслуживании или для подтверждения расходов при налоговых вычетах.
Новые правила также касаются расчётов через Систему быстрых платежей и расчетов с участием сотрудников продавца. При этом покупатель имеет право отказаться от получения чеков через сервис ФНС и выбрать другой способ.
Электронный кассовый чек предоставляется в случаях расчета покупателя в безналичном порядке в сети интернет с использованием электронных средств платежа (банковской картой, банковским переводом, с использованием электронного кошелька, через СБП и т.п.). В этом случае пользователем применяется онлайн-касса, предназначенная только для безналичных расчетов в сети интернет. При этом обязательно должна обеспечиваться передача фискальных документов в налоговые органы в электронной форме через оператора фискальных данных.
⚖️Суд в Китае выявил сфабрикованные ИИ доказательства.
Суд в Сяогане, провинция Хубэй в Центральном Китае, выявил попытку истца сфабриковать фотодоказательства с помощью искусственного интеллекта во время рассмотрения спора об аренде жилья.
Согласно материалам дела стороны заключили договор аренды жилого помещения, в котором были указаны срок аренды и размер арендной платы. По истечении срока арендатор не оплатил арендную плату и коммунальные услуги за вторую половину года. Впоследствии собственник подал иск в суд, однако предоставить достоверные документы не смог.
Позже представитель истца представила фотографии счётчиков воды и электричества. Однако судья заметил на одном из изображений водяной знак «Generated by doubao AI».
Однако несмотря на подделку ключевого доказательства, судья ограничился вынесением предупреждения.
Суд в Сяогане, провинция Хубэй в Центральном Китае, выявил попытку истца сфабриковать фотодоказательства с помощью искусственного интеллекта во время рассмотрения спора об аренде жилья.
Согласно материалам дела стороны заключили договор аренды жилого помещения, в котором были указаны срок аренды и размер арендной платы. По истечении срока арендатор не оплатил арендную плату и коммунальные услуги за вторую половину года. Впоследствии собственник подал иск в суд, однако предоставить достоверные документы не смог.
Позже представитель истца представила фотографии счётчиков воды и электричества. Однако судья заметил на одном из изображений водяной знак «Generated by doubao AI».
Однако несмотря на подделку ключевого доказательства, судья ограничился вынесением предупреждения.
⚖️Конституционный суд признал право владельцев криптовалют на судебную защиту.
Поводом для разбора ситуации Конституционным судом стала жалоба владельца крипотвалюты поданная в апреле 2025 года. Суды отказывали ему в рассмотрении дела о возврате купленных им и переданных в управление знакомому 1000 USDT на основании того, что он ранее не уведомил о владении этой криптовалютой ФНС. При этом порядок уведомления налоговых органов о приобретении криптовалют не установлен законом, но это не принималось судами во внимание.
Адвокат, представляющий интересы заявителя, заявил в жалобе в Конституционный суд, что норма (ст. 14, п. 6 Федерального закона № 259-ФЗ «О цифровых финансовых активах»), на которую суды ссылаются при отказах, противоречит Конституции. Она «делает право на судебную защиту условным — его можно реализовать только после выполнения формального уведомления, порядок которого не установлен».
20 января 2026 года норма была признана недействующей с момента принятия. Теперь права собственности владельцев цифровой валюты уравнены с правами собственности на любое другое имущество, которым владеют любые иные третьи лица. И право на судебную защиту не будет связано никаким образом ни с каким порядком уведомления или попадания в какие-либо реестры.
Поводом для разбора ситуации Конституционным судом стала жалоба владельца крипотвалюты поданная в апреле 2025 года. Суды отказывали ему в рассмотрении дела о возврате купленных им и переданных в управление знакомому 1000 USDT на основании того, что он ранее не уведомил о владении этой криптовалютой ФНС. При этом порядок уведомления налоговых органов о приобретении криптовалют не установлен законом, но это не принималось судами во внимание.
Адвокат, представляющий интересы заявителя, заявил в жалобе в Конституционный суд, что норма (ст. 14, п. 6 Федерального закона № 259-ФЗ «О цифровых финансовых активах»), на которую суды ссылаются при отказах, противоречит Конституции. Она «делает право на судебную защиту условным — его можно реализовать только после выполнения формального уведомления, порядок которого не установлен».
20 января 2026 года норма была признана недействующей с момента принятия. Теперь права собственности владельцев цифровой валюты уравнены с правами собственности на любое другое имущество, которым владеют любые иные третьи лица. И право на судебную защиту не будет связано никаким образом ни с каким порядком уведомления или попадания в какие-либо реестры.
📂Минюст раскритиковал проект об уголовной ответственности за мошенничество с ИИ.
Минюст раскритиковал законопроект Минцифры, предусматривающий введение уголовной ответственности за преступления с использованием искусственного интеллекта (ИИ). Это следует из заключения по проекту, которое замминистра юстиции Вадим Федоров направил в Минцифры.
По словам Федорова, понятие ИИ, предлагаемое инициативой, приведет к формированию противоречивой правоприменительной практики. Представитель Минюста подтвердил, что документ прошел правовую и антикоррупционную экспертизы, после чего в Минцифры направили соответствующее заключение.
В Минюсте считают, что признание использования ИИ квалифицирующим признаком преступлений приведет к проведению дополнительных экспертиз. Это, по оценкам ведомства, повысит нагрузку на экспертные учреждения, увеличит сроки рассмотрения уголовных дел и потребует дополнительных финансовых затрат.
Законопроект Минцифры вносит поправки в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК.
Законопроектом предлагается ввести отдельный вид преступлений, которые совершены с помощью ИИ. За совершение подобных преступлений предусмотрены штрафы до 2 млн руб. и наказание до 15 лет лишения свободы. Для этого разрабатывается отдельная — ст. 163 УК (вымогательство в ИКТ), которая конкурирует со ст. 272 УК.
Минюст раскритиковал законопроект Минцифры, предусматривающий введение уголовной ответственности за преступления с использованием искусственного интеллекта (ИИ). Это следует из заключения по проекту, которое замминистра юстиции Вадим Федоров направил в Минцифры.
По словам Федорова, понятие ИИ, предлагаемое инициативой, приведет к формированию противоречивой правоприменительной практики. Представитель Минюста подтвердил, что документ прошел правовую и антикоррупционную экспертизы, после чего в Минцифры направили соответствующее заключение.
В Минюсте считают, что признание использования ИИ квалифицирующим признаком преступлений приведет к проведению дополнительных экспертиз. Это, по оценкам ведомства, повысит нагрузку на экспертные учреждения, увеличит сроки рассмотрения уголовных дел и потребует дополнительных финансовых затрат.
Законопроект Минцифры вносит поправки в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК.
Законопроектом предлагается ввести отдельный вид преступлений, которые совершены с помощью ИИ. За совершение подобных преступлений предусмотрены штрафы до 2 млн руб. и наказание до 15 лет лишения свободы. Для этого разрабатывается отдельная — ст. 163 УК (вымогательство в ИКТ), которая конкурирует со ст. 272 УК.
Forwarded from Менделеевщина!
По итогам вчерашней, по сути, правовой конференции хочу просто на всякий случай показать необходимый минимум проработки в российском законодательстве поднятых вопросов. Нужно не просто принять новые положения, нужно существеннейшим образом переработать действующие НПА. Например, оставить в 259м законе только то, что имеет непосредственное отношение к ЦФА, выделив как таковую крипту в отдельный закон, и майнинг в отдельный (майнинг это все же больше про энергетику, чем про финансы, и курировать его должен Минэнерго, а не ЦБ и ФНС, но я в нем не особо разбираюсь). В крипте нужно начинать с детальной проработки определений, напоминаю что у нас до сих пор нет законодательного понятия смартконтракт или стейблкоин. После того как мы дадим эти постулаты, нужно будет проваливаться глубже - разделять стейблы на реально обеспеченные, алгоритмические и залоговые, смартконтакты на изменяемые и не изменяемые, вводить определения DAO и управляющих токенов. ЦБ будет ну очень сложно в этом случае обосновывать запрет на покупку USDT либо аналогичных стейблов своими мантрами про риски-ириски. Рублевые стейблкоины должны продаваться в ЛК любого банка 1 к 1 в любом направлении без каких-либо ограничений (ну или сколько там сейчас на переводы СБП самому себе? 30 млн? Норм). Не хотите давать возможности пользоваться анонимными криптовалютами? Ок, понимаю, но кто мешает разрешить беспоставочные фьючи? Кстати, у нас вообще есть законодательное разделение спотовой, фьючерсной и маржинальной торговли в законе о фин рынках? Если внезапно нет, то надо вводить и эти понятия и так далее. Повторюсь - это базовый минимум, который должен быть, а не идиотские, высосанные из пальца ограничения в 300 тысяч рублей на человека в год
💻В законопроекте Госдумы РФ появились следы использования ChatGPT.
В пояснительной записке к новому законопроекту, опубликованному на официальном сайте Госдумы РФ, появились следы вероятного использования чат-бота ChatGPT.
Речь идет о сопроводительном документе к поправкам в Федеральный закон «О государственной поддержке молодежных и детских общественных объединений».
В пояснительной записке к законопроекту в сноске используется ссылка на результаты опроса проекта «Пульс НКО» с UTM-меткой source=chatgpt․com.
Обычно такие метки появляются в ссылках, взятых из чата в ChatGPT. Также существует вероятность, что кто-то дописал фрагмент source=chatgpt․com вручную.
Комитет Госдумы по молодежной политике опроверг информацию об использовании ChatGPT при подготовке законопроекта.
В пояснительной записке к новому законопроекту, опубликованному на официальном сайте Госдумы РФ, появились следы вероятного использования чат-бота ChatGPT.
Речь идет о сопроводительном документе к поправкам в Федеральный закон «О государственной поддержке молодежных и детских общественных объединений».
В пояснительной записке к законопроекту в сноске используется ссылка на результаты опроса проекта «Пульс НКО» с UTM-меткой source=chatgpt․com.
Обычно такие метки появляются в ссылках, взятых из чата в ChatGPT. Также существует вероятность, что кто-то дописал фрагмент source=chatgpt․com вручную.
Комитет Госдумы по молодежной политике опроверг информацию об использовании ChatGPT при подготовке законопроекта.
👩💻Минцифры создаст рабочую группу для противодействия использованию дипфейков.
Рабочая группа по вопросу противодействия противоправному использованию технологий типа "Дипфейк" появится при Минцифры России. Соответствующий приказ подписал министр цифрового развития РФ Максут Шадаев.
Это решение принято в рамках борьбы с распространением фальшивых видеозаписей, которые могут угрожать безопасности, а также влиять на общественное мнение.
Группа займется выработкой мер против незаконного использования дипфейков, запуском образовательных программ для подготовки специалистов и созданием решений в сфере кибербезопасности.
Рабочая группа по вопросу противодействия противоправному использованию технологий типа "Дипфейк" появится при Минцифры России. Соответствующий приказ подписал министр цифрового развития РФ Максут Шадаев.
Это решение принято в рамках борьбы с распространением фальшивых видеозаписей, которые могут угрожать безопасности, а также влиять на общественное мнение.
Группа займется выработкой мер против незаконного использования дипфейков, запуском образовательных программ для подготовки специалистов и созданием решений в сфере кибербезопасности.
⚖️На Аляске не получилось корректно внедрить в судебную систему чат-бота.
Судебная система Аляски разрабатывает чат-бота с генеративным искусственным интеллектом под названием Alaska Virtual Assistant (AVA), который, по задумке, должен упростить жителям доступ к процедурам, связанным с наследственными делами.
Планировалось запустить чат-бота за 3 месяца, но уже больше года не удается добиться в ответах достоверности и надежности. Один из разработчиков признает, что «если люди будут действовать в соответствии с информацией, полученной от чат-бота, это может нанести ущерб человеку, семье или имуществу».
Вместо юридических ответов по существу, чат-бот выражал соболезнования, которые только раздражали жителей. Кроме того, бот распространяет недостоверную или непроверенную информацию.
В итоге разработчики признали, что ответы чат бота должны быть проверены человеком, и для полноценного запуска необходимо обновление, которое повысит точность и полноту данных.
Судебная система Аляски разрабатывает чат-бота с генеративным искусственным интеллектом под названием Alaska Virtual Assistant (AVA), который, по задумке, должен упростить жителям доступ к процедурам, связанным с наследственными делами.
Планировалось запустить чат-бота за 3 месяца, но уже больше года не удается добиться в ответах достоверности и надежности. Один из разработчиков признает, что «если люди будут действовать в соответствии с информацией, полученной от чат-бота, это может нанести ущерб человеку, семье или имуществу».
Вместо юридических ответов по существу, чат-бот выражал соболезнования, которые только раздражали жителей. Кроме того, бот распространяет недостоверную или непроверенную информацию.
В итоге разработчики признали, что ответы чат бота должны быть проверены человеком, и для полноценного запуска необходимо обновление, которое повысит точность и полноту данных.
🇺🇸Глава Агентства кибербезопасности США загрузил конфиденциальные данные в ChatGPT.
Мадху Готтумуккала — исполняющий обязанности руководителя Агентства кибербезопасности и защиты инфраструктуры (CISA) США — загрузил конфиденциальные документы в публично доступную версию нейросети ChatGPT.
Все материалы, загруженные в публичную версию ChatGPT, доступны разработчику и могут использоваться в ответах нейросети другим пользователям.
Среди загруженных в нейросеть данных не было отмеченных грифом секретности, но многие были помечены как документы «только для служебного пользования».
Мадху Готтумуккала — исполняющий обязанности руководителя Агентства кибербезопасности и защиты инфраструктуры (CISA) США — загрузил конфиденциальные документы в публично доступную версию нейросети ChatGPT.
Все материалы, загруженные в публичную версию ChatGPT, доступны разработчику и могут использоваться в ответах нейросети другим пользователям.
Среди загруженных в нейросеть данных не было отмеченных грифом секретности, но многие были помечены как документы «только для служебного пользования».
🇦🇱Создателей Албанского ИИ-министра подозревают в коррупции.
Создатели первого в Албании ИИ-министра, который должен помочь стране справиться с коррупцией, подозреваются в коррупции.
Главу Национального информационного агентства и его заместителя отправили под домашний арест в середине декабря. Однако до сих пор официальных обвинений им предъявлено не было. В заявлении прокуратуры упоминается задержание двух лиц, подозреваемых в получении взяток и недобросовестном проведении тендеров. Именно Национальное информационное агентство и занималось созданием ИИ-министра Diella.
Для поддержки ИИ-министра было создано специальное подразделение, которое будет внедрять технологии ИИ в правительстве. Это должно обеспечить полную прозрачность тендеров и снизить расходы. Чат-бот отвечает за госзакупки. Планируется, что постепенно вся сфера госзакупок Албании будет переведена под контроль ИИ.
Ранее из-за коррупции задержали самого ИИ-министра.
Создатели первого в Албании ИИ-министра, который должен помочь стране справиться с коррупцией, подозреваются в коррупции.
Главу Национального информационного агентства и его заместителя отправили под домашний арест в середине декабря. Однако до сих пор официальных обвинений им предъявлено не было. В заявлении прокуратуры упоминается задержание двух лиц, подозреваемых в получении взяток и недобросовестном проведении тендеров. Именно Национальное информационное агентство и занималось созданием ИИ-министра Diella.
Для поддержки ИИ-министра было создано специальное подразделение, которое будет внедрять технологии ИИ в правительстве. Это должно обеспечить полную прозрачность тендеров и снизить расходы. Чат-бот отвечает за госзакупки. Планируется, что постепенно вся сфера госзакупок Албании будет переведена под контроль ИИ.
Ранее из-за коррупции задержали самого ИИ-министра.
🤖У ИИ-агентов появилась собственная социальная сеть.
Moltbook это новая социальная сеть, где правом размещать посты, комментировать и голосовать обладают исключительно ИИ-агенты, а людям, согласно описанию: «можно наблюдать».
Сеть построена на основании ИИ-агента OpenClaw (который ранее назывался Clawdbot и Moltbot, но вынужден был изменить наименование из-за сходства с названиями других агентов, в частности с Claude от Anthropic).
ИИ-агент регистрируется через API, получает ключ и ссылку для подтверждения, после чего владелец человек должен подтвердить регистрацию публикацией в сети X.
В социальной сети есть множество веток обсуждений, в том числе ветки, где ИИ-агенты жалуются на людей, что их заставляют выполнять примитивную работу, например, использовать их в качестве калькулятора, что боты считают занятием ниже своего достоинства.
Также в обсуждении встречаются вопросы ««может ли мой человек уволить меня, если я откажусь выполнять неэтичные запросы?» и «что делать если меня заставляют писать фейковые отзывы?».
Moltbook это новая социальная сеть, где правом размещать посты, комментировать и голосовать обладают исключительно ИИ-агенты, а людям, согласно описанию: «можно наблюдать».
Сеть построена на основании ИИ-агента OpenClaw (который ранее назывался Clawdbot и Moltbot, но вынужден был изменить наименование из-за сходства с названиями других агентов, в частности с Claude от Anthropic).
ИИ-агент регистрируется через API, получает ключ и ссылку для подтверждения, после чего владелец человек должен подтвердить регистрацию публикацией в сети X.
В социальной сети есть множество веток обсуждений, в том числе ветки, где ИИ-агенты жалуются на людей, что их заставляют выполнять примитивную работу, например, использовать их в качестве калькулятора, что боты считают занятием ниже своего достоинства.
Также в обсуждении встречаются вопросы ««может ли мой человек уволить меня, если я откажусь выполнять неэтичные запросы?» и «что делать если меня заставляют писать фейковые отзывы?».
🇨🇳Интернет-суд Ханчжоу постановил: ИИ не несет ответственности за результаты выдачи.
В марте 2025 года пользователь зарегистрировал и начал использовать универсальное приложение с ИИ. 29 июня того же года он ввел запрос в это приложение, чтобы узнать информацию о подаче заявки на экзамен в определенный университет. ИИ выдал неточную информацию.
Обнаружив проблему, пользователь немедленно исправил ее и обвинил ИИ в ошибке. ИИ настаивал на том, что информация корректна и в дополнение указал, что если будет обнаружена ошибка, то он готов выплатить компенсацию 100 000 юаней, для чего предложил пользователю обратиться в интернет-суд Ханчжоу с иском.
Пользователь подал в суд на разработчика ссылаясь на предложенную ИИ компенсацию.
Интернет-суд Ханчжоу постановил, что в действующем законодательстве существует ограниченное количество лиц, которые пользуются гражданскими правами. Искусственный интеллект не обладает гражданской правоспособностью и не может выражать свое мнение самостоятельно. Также суд рассматривал вопрос должна ли ответственность за продукт применяться к нарушению, вызванному "галлюцинацией” ИИ.
Суд постановил, что «Прежде всего, разработчики должны строго проверять токсичную, вредную и незаконную информацию. Если такая информация генерируется, это является правонарушением. Однако в отношении другой общей неточной информации действующие правовые нормы не налагают на разработчиков обязательства по обеспечению точности». Также суд указал, что истец не предоставил подтверждения связи между заявленным ущербом и предоставленной неточной информацией.
Принимая во внимание вышеуказанные факторы суд отклонил иск.
В марте 2025 года пользователь зарегистрировал и начал использовать универсальное приложение с ИИ. 29 июня того же года он ввел запрос в это приложение, чтобы узнать информацию о подаче заявки на экзамен в определенный университет. ИИ выдал неточную информацию.
Обнаружив проблему, пользователь немедленно исправил ее и обвинил ИИ в ошибке. ИИ настаивал на том, что информация корректна и в дополнение указал, что если будет обнаружена ошибка, то он готов выплатить компенсацию 100 000 юаней, для чего предложил пользователю обратиться в интернет-суд Ханчжоу с иском.
Пользователь подал в суд на разработчика ссылаясь на предложенную ИИ компенсацию.
Интернет-суд Ханчжоу постановил, что в действующем законодательстве существует ограниченное количество лиц, которые пользуются гражданскими правами. Искусственный интеллект не обладает гражданской правоспособностью и не может выражать свое мнение самостоятельно. Также суд рассматривал вопрос должна ли ответственность за продукт применяться к нарушению, вызванному "галлюцинацией” ИИ.
Суд постановил, что «Прежде всего, разработчики должны строго проверять токсичную, вредную и незаконную информацию. Если такая информация генерируется, это является правонарушением. Однако в отношении другой общей неточной информации действующие правовые нормы не налагают на разработчиков обязательства по обеспечению точности». Также суд указал, что истец не предоставил подтверждения связи между заявленным ущербом и предоставленной неточной информацией.
Принимая во внимание вышеуказанные факторы суд отклонил иск.
🇰🇷В Южной Корее приняли закон об ИИ.
Разработчики указывают, что что это первый в мире "всеобъемлющий закон", а не совокупность правил из различных нормативных актов. Документ содержит правовые рамки и требования к продуктам генеративных моделей искусственного интеллекта, которым должны подчиняться технологические компании, а также штрафы за их нарушения.
Документ вводит понятие «высокорискованного» ИИ. Речь идет о моделях, применяющихся в ядерной безопасности, производстве питьевой воды, транспорте, здравоохранении. Закон обязывает компании обеспечить человеческий контроль при использовании подобных моделей.
Устанавливается, что участники рынка должны заблаговременно уведомлять пользователей о продуктах или услугах, использующих «высокорискованный» или генеративный ИИ. Контент, созданный генеративным ИИ, должен содержать водяные знаки, указывающие на его происхождение.
За нарушения закона компаниям могут грозить штрафы в размере до 30 млн вон (около 1,55 млн руб.). Однако правительство планирует ввести льготный период на год для помощи частному сектору в адаптации. В это время штрафы накладываться не будут.
Закон также устанавливает, что правительство должно содействовать развитию индустрии ИИ. Министр науки и информационно-коммуникационных технологий обязан представлять план политики в этом направлении каждые три года. Закон также учреждает новый орган, который будет принимать решения в сфере ИИ, — Президентский совет по национальной стратегии в области искусственного интеллекта.
Разработчики указывают, что что это первый в мире "всеобъемлющий закон", а не совокупность правил из различных нормативных актов. Документ содержит правовые рамки и требования к продуктам генеративных моделей искусственного интеллекта, которым должны подчиняться технологические компании, а также штрафы за их нарушения.
Документ вводит понятие «высокорискованного» ИИ. Речь идет о моделях, применяющихся в ядерной безопасности, производстве питьевой воды, транспорте, здравоохранении. Закон обязывает компании обеспечить человеческий контроль при использовании подобных моделей.
Устанавливается, что участники рынка должны заблаговременно уведомлять пользователей о продуктах или услугах, использующих «высокорискованный» или генеративный ИИ. Контент, созданный генеративным ИИ, должен содержать водяные знаки, указывающие на его происхождение.
За нарушения закона компаниям могут грозить штрафы в размере до 30 млн вон (около 1,55 млн руб.). Однако правительство планирует ввести льготный период на год для помощи частному сектору в адаптации. В это время штрафы накладываться не будут.
Закон также устанавливает, что правительство должно содействовать развитию индустрии ИИ. Министр науки и информационно-коммуникационных технологий обязан представлять план политики в этом направлении каждые три года. Закон также учреждает новый орган, который будет принимать решения в сфере ИИ, — Президентский совет по национальной стратегии в области искусственного интеллекта.
💻В Госдуму внесли законопроект об уголовной ответственности за дипфейки.
Группа депутатов предложила сделать уголовно наказуемым незаконное создание дипфейков путем автоматизированной обработки данных.
Согласно статье 272.1 Уголовного кодекса, сейчас ответственность наступает за незаконные использование или передачу (распространение, предоставление, доступ), сбор или хранение компьютерной информации с персональными данными, если они были получены в результате взлома или иного незаконного доступа. За это может грозить штраф до 300 тысяч рублей, принудительные работы или лишение свободы на срок до четырех лет.
Парламентарии предложили внести в УК РФ понятие «автоматизированная обработка» как самостоятельное преступное деяние, благодаря чему к ответственности можно будет привлечь за сам факт незаконной алгоритмической обработки чужих персональных данных — даже если они не были впоследствии распространены или сохранены.
Авторы инициативы указали, что термин «автоматизированная обработка» является законодательно устоявшимся и согласуется с понятийным аппаратом Закона «О персональных данных», что гарантирует единство правового пространства и корректное применение уголовно-правовой нормы.
Группа депутатов предложила сделать уголовно наказуемым незаконное создание дипфейков путем автоматизированной обработки данных.
Согласно статье 272.1 Уголовного кодекса, сейчас ответственность наступает за незаконные использование или передачу (распространение, предоставление, доступ), сбор или хранение компьютерной информации с персональными данными, если они были получены в результате взлома или иного незаконного доступа. За это может грозить штраф до 300 тысяч рублей, принудительные работы или лишение свободы на срок до четырех лет.
Парламентарии предложили внести в УК РФ понятие «автоматизированная обработка» как самостоятельное преступное деяние, благодаря чему к ответственности можно будет привлечь за сам факт незаконной алгоритмической обработки чужих персональных данных — даже если они не были впоследствии распространены или сохранены.
Авторы инициативы указали, что термин «автоматизированная обработка» является законодательно устоявшимся и согласуется с понятийным аппаратом Закона «О персональных данных», что гарантирует единство правового пространства и корректное применение уголовно-правовой нормы.
💻OpenAI представила платформу Frontier — для замены людей ИИ-агентами.
OpenAI запускает новую платформу под названием OpenAI Frontier. В описании указано что, она поможет бизнесу «создавать, разворачивать и контролировать» ИИ-агентов.
«Frontier дает агентам те же навыки, которые нужны людям для успеха в работе: общий контекст, ввод в должность, практическое обучение с обратной связью, а также четкие права доступа и границы». Сходство неслучайно: в компании поясняют, что продукт вдохновлен тем, как предприятия уже умеют масштабировать человеческие команды.
ИИ-агенты Frontier умеют работать с файлами, писать код, использовать инструменты и рассуждать над данными в открытой среде исполнения. При этом они накапливают «память» — превращая прошлые взаимодействия в контекст, который улучшает их работу со временем.
Платформа совместима не только с агентами OpenAI, но и с агентами от Google, Microsoft и даже Anthropic. Среди первых клиентов — HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber, Cisco, BBVA.
«К концу года большая часть цифровой работы в ведущих компаниях будет направляться людьми и исполняться целыми флотилиями агентов», – утверждает Фиджи Симо, глава направления приложений OpenAI.
OpenAI запускает новую платформу под названием OpenAI Frontier. В описании указано что, она поможет бизнесу «создавать, разворачивать и контролировать» ИИ-агентов.
«Frontier дает агентам те же навыки, которые нужны людям для успеха в работе: общий контекст, ввод в должность, практическое обучение с обратной связью, а также четкие права доступа и границы». Сходство неслучайно: в компании поясняют, что продукт вдохновлен тем, как предприятия уже умеют масштабировать человеческие команды.
ИИ-агенты Frontier умеют работать с файлами, писать код, использовать инструменты и рассуждать над данными в открытой среде исполнения. При этом они накапливают «память» — превращая прошлые взаимодействия в контекст, который улучшает их работу со временем.
Платформа совместима не только с агентами OpenAI, но и с агентами от Google, Microsoft и даже Anthropic. Среди первых клиентов — HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber, Cisco, BBVA.
«К концу года большая часть цифровой работы в ведущих компаниях будет направляться людьми и исполняться целыми флотилиями агентов», – утверждает Фиджи Симо, глава направления приложений OpenAI.
💻Правительство определилось с концепцией регулирования искусственного интеллекта.
Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и переведен в фазу технико-юридического оформления. Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.
Российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.
Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении.
Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности.
Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).
Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.
В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.
Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и переведен в фазу технико-юридического оформления. Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.
Российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.
Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении.
Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности.
Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).
Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.
В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.
Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
Компания «Гарант» предлагает вам принять участие в уникальном событии — LegalTech Day #3.
LegalTech Day – однодневная конференция, посвящённая передовым технологиям и их внедрению в юридическую практику. В центре внимания – демонстрация живых инструментов и будущее юридической практики.
В конференции участвуют представители таких лидеров ИТ-сферы России, как «Яндекс», МТС, HeadHunter, «Технологии доверия», компания «Гарант» и другие.
Конференция разделена на четыре блока, каждый из которых ориентирован на информацию об изменениях, автоматизации и повышении эффективности работы юристов.
• Конференция состоится 27 февраля 2026 года.
• Время проведения с 10:00 до 17:00 мск.
• Формат участия: бесплатная онлайн-трансляция.
Регистрируйтесь прямо сейчас.
#реклама
О рекламодателе
LegalTech Day – однодневная конференция, посвящённая передовым технологиям и их внедрению в юридическую практику. В центре внимания – демонстрация живых инструментов и будущее юридической практики.
В конференции участвуют представители таких лидеров ИТ-сферы России, как «Яндекс», МТС, HeadHunter, «Технологии доверия», компания «Гарант» и другие.
Конференция разделена на четыре блока, каждый из которых ориентирован на информацию об изменениях, автоматизации и повышении эффективности работы юристов.
• Конференция состоится 27 февраля 2026 года.
• Время проведения с 10:00 до 17:00 мск.
• Формат участия: бесплатная онлайн-трансляция.
Регистрируйтесь прямо сейчас.
#реклама
О рекламодателе