⚖️Конституционный суд признал право владельцев криптовалют на судебную защиту.
Поводом для разбора ситуации Конституционным судом стала жалоба владельца крипотвалюты поданная в апреле 2025 года. Суды отказывали ему в рассмотрении дела о возврате купленных им и переданных в управление знакомому 1000 USDT на основании того, что он ранее не уведомил о владении этой криптовалютой ФНС. При этом порядок уведомления налоговых органов о приобретении криптовалют не установлен законом, но это не принималось судами во внимание.
Адвокат, представляющий интересы заявителя, заявил в жалобе в Конституционный суд, что норма (ст. 14, п. 6 Федерального закона № 259-ФЗ «О цифровых финансовых активах»), на которую суды ссылаются при отказах, противоречит Конституции. Она «делает право на судебную защиту условным — его можно реализовать только после выполнения формального уведомления, порядок которого не установлен».
20 января 2026 года норма была признана недействующей с момента принятия. Теперь права собственности владельцев цифровой валюты уравнены с правами собственности на любое другое имущество, которым владеют любые иные третьи лица. И право на судебную защиту не будет связано никаким образом ни с каким порядком уведомления или попадания в какие-либо реестры.
Поводом для разбора ситуации Конституционным судом стала жалоба владельца крипотвалюты поданная в апреле 2025 года. Суды отказывали ему в рассмотрении дела о возврате купленных им и переданных в управление знакомому 1000 USDT на основании того, что он ранее не уведомил о владении этой криптовалютой ФНС. При этом порядок уведомления налоговых органов о приобретении криптовалют не установлен законом, но это не принималось судами во внимание.
Адвокат, представляющий интересы заявителя, заявил в жалобе в Конституционный суд, что норма (ст. 14, п. 6 Федерального закона № 259-ФЗ «О цифровых финансовых активах»), на которую суды ссылаются при отказах, противоречит Конституции. Она «делает право на судебную защиту условным — его можно реализовать только после выполнения формального уведомления, порядок которого не установлен».
20 января 2026 года норма была признана недействующей с момента принятия. Теперь права собственности владельцев цифровой валюты уравнены с правами собственности на любое другое имущество, которым владеют любые иные третьи лица. И право на судебную защиту не будет связано никаким образом ни с каким порядком уведомления или попадания в какие-либо реестры.
📂Минюст раскритиковал проект об уголовной ответственности за мошенничество с ИИ.
Минюст раскритиковал законопроект Минцифры, предусматривающий введение уголовной ответственности за преступления с использованием искусственного интеллекта (ИИ). Это следует из заключения по проекту, которое замминистра юстиции Вадим Федоров направил в Минцифры.
По словам Федорова, понятие ИИ, предлагаемое инициативой, приведет к формированию противоречивой правоприменительной практики. Представитель Минюста подтвердил, что документ прошел правовую и антикоррупционную экспертизы, после чего в Минцифры направили соответствующее заключение.
В Минюсте считают, что признание использования ИИ квалифицирующим признаком преступлений приведет к проведению дополнительных экспертиз. Это, по оценкам ведомства, повысит нагрузку на экспертные учреждения, увеличит сроки рассмотрения уголовных дел и потребует дополнительных финансовых затрат.
Законопроект Минцифры вносит поправки в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК.
Законопроектом предлагается ввести отдельный вид преступлений, которые совершены с помощью ИИ. За совершение подобных преступлений предусмотрены штрафы до 2 млн руб. и наказание до 15 лет лишения свободы. Для этого разрабатывается отдельная — ст. 163 УК (вымогательство в ИКТ), которая конкурирует со ст. 272 УК.
Минюст раскритиковал законопроект Минцифры, предусматривающий введение уголовной ответственности за преступления с использованием искусственного интеллекта (ИИ). Это следует из заключения по проекту, которое замминистра юстиции Вадим Федоров направил в Минцифры.
По словам Федорова, понятие ИИ, предлагаемое инициативой, приведет к формированию противоречивой правоприменительной практики. Представитель Минюста подтвердил, что документ прошел правовую и антикоррупционную экспертизы, после чего в Минцифры направили соответствующее заключение.
В Минюсте считают, что признание использования ИИ квалифицирующим признаком преступлений приведет к проведению дополнительных экспертиз. Это, по оценкам ведомства, повысит нагрузку на экспертные учреждения, увеличит сроки рассмотрения уголовных дел и потребует дополнительных финансовых затрат.
Законопроект Минцифры вносит поправки в ст. 158 (кража), ст. 159 (мошенничество), ст. 163 (вымогательство), ст. 272 (злостное воздействие на информационную систему, информационно-телекоммуникационную сеть, компьютерную информацию или сеть электросвязи) и ст. 274 (нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей) УК.
Законопроектом предлагается ввести отдельный вид преступлений, которые совершены с помощью ИИ. За совершение подобных преступлений предусмотрены штрафы до 2 млн руб. и наказание до 15 лет лишения свободы. Для этого разрабатывается отдельная — ст. 163 УК (вымогательство в ИКТ), которая конкурирует со ст. 272 УК.
Forwarded from Менделеевщина!
По итогам вчерашней, по сути, правовой конференции хочу просто на всякий случай показать необходимый минимум проработки в российском законодательстве поднятых вопросов. Нужно не просто принять новые положения, нужно существеннейшим образом переработать действующие НПА. Например, оставить в 259м законе только то, что имеет непосредственное отношение к ЦФА, выделив как таковую крипту в отдельный закон, и майнинг в отдельный (майнинг это все же больше про энергетику, чем про финансы, и курировать его должен Минэнерго, а не ЦБ и ФНС, но я в нем не особо разбираюсь). В крипте нужно начинать с детальной проработки определений, напоминаю что у нас до сих пор нет законодательного понятия смартконтракт или стейблкоин. После того как мы дадим эти постулаты, нужно будет проваливаться глубже - разделять стейблы на реально обеспеченные, алгоритмические и залоговые, смартконтакты на изменяемые и не изменяемые, вводить определения DAO и управляющих токенов. ЦБ будет ну очень сложно в этом случае обосновывать запрет на покупку USDT либо аналогичных стейблов своими мантрами про риски-ириски. Рублевые стейблкоины должны продаваться в ЛК любого банка 1 к 1 в любом направлении без каких-либо ограничений (ну или сколько там сейчас на переводы СБП самому себе? 30 млн? Норм). Не хотите давать возможности пользоваться анонимными криптовалютами? Ок, понимаю, но кто мешает разрешить беспоставочные фьючи? Кстати, у нас вообще есть законодательное разделение спотовой, фьючерсной и маржинальной торговли в законе о фин рынках? Если внезапно нет, то надо вводить и эти понятия и так далее. Повторюсь - это базовый минимум, который должен быть, а не идиотские, высосанные из пальца ограничения в 300 тысяч рублей на человека в год
💻В законопроекте Госдумы РФ появились следы использования ChatGPT.
В пояснительной записке к новому законопроекту, опубликованному на официальном сайте Госдумы РФ, появились следы вероятного использования чат-бота ChatGPT.
Речь идет о сопроводительном документе к поправкам в Федеральный закон «О государственной поддержке молодежных и детских общественных объединений».
В пояснительной записке к законопроекту в сноске используется ссылка на результаты опроса проекта «Пульс НКО» с UTM-меткой source=chatgpt․com.
Обычно такие метки появляются в ссылках, взятых из чата в ChatGPT. Также существует вероятность, что кто-то дописал фрагмент source=chatgpt․com вручную.
Комитет Госдумы по молодежной политике опроверг информацию об использовании ChatGPT при подготовке законопроекта.
В пояснительной записке к новому законопроекту, опубликованному на официальном сайте Госдумы РФ, появились следы вероятного использования чат-бота ChatGPT.
Речь идет о сопроводительном документе к поправкам в Федеральный закон «О государственной поддержке молодежных и детских общественных объединений».
В пояснительной записке к законопроекту в сноске используется ссылка на результаты опроса проекта «Пульс НКО» с UTM-меткой source=chatgpt․com.
Обычно такие метки появляются в ссылках, взятых из чата в ChatGPT. Также существует вероятность, что кто-то дописал фрагмент source=chatgpt․com вручную.
Комитет Госдумы по молодежной политике опроверг информацию об использовании ChatGPT при подготовке законопроекта.
👩💻Минцифры создаст рабочую группу для противодействия использованию дипфейков.
Рабочая группа по вопросу противодействия противоправному использованию технологий типа "Дипфейк" появится при Минцифры России. Соответствующий приказ подписал министр цифрового развития РФ Максут Шадаев.
Это решение принято в рамках борьбы с распространением фальшивых видеозаписей, которые могут угрожать безопасности, а также влиять на общественное мнение.
Группа займется выработкой мер против незаконного использования дипфейков, запуском образовательных программ для подготовки специалистов и созданием решений в сфере кибербезопасности.
Рабочая группа по вопросу противодействия противоправному использованию технологий типа "Дипфейк" появится при Минцифры России. Соответствующий приказ подписал министр цифрового развития РФ Максут Шадаев.
Это решение принято в рамках борьбы с распространением фальшивых видеозаписей, которые могут угрожать безопасности, а также влиять на общественное мнение.
Группа займется выработкой мер против незаконного использования дипфейков, запуском образовательных программ для подготовки специалистов и созданием решений в сфере кибербезопасности.
⚖️На Аляске не получилось корректно внедрить в судебную систему чат-бота.
Судебная система Аляски разрабатывает чат-бота с генеративным искусственным интеллектом под названием Alaska Virtual Assistant (AVA), который, по задумке, должен упростить жителям доступ к процедурам, связанным с наследственными делами.
Планировалось запустить чат-бота за 3 месяца, но уже больше года не удается добиться в ответах достоверности и надежности. Один из разработчиков признает, что «если люди будут действовать в соответствии с информацией, полученной от чат-бота, это может нанести ущерб человеку, семье или имуществу».
Вместо юридических ответов по существу, чат-бот выражал соболезнования, которые только раздражали жителей. Кроме того, бот распространяет недостоверную или непроверенную информацию.
В итоге разработчики признали, что ответы чат бота должны быть проверены человеком, и для полноценного запуска необходимо обновление, которое повысит точность и полноту данных.
Судебная система Аляски разрабатывает чат-бота с генеративным искусственным интеллектом под названием Alaska Virtual Assistant (AVA), который, по задумке, должен упростить жителям доступ к процедурам, связанным с наследственными делами.
Планировалось запустить чат-бота за 3 месяца, но уже больше года не удается добиться в ответах достоверности и надежности. Один из разработчиков признает, что «если люди будут действовать в соответствии с информацией, полученной от чат-бота, это может нанести ущерб человеку, семье или имуществу».
Вместо юридических ответов по существу, чат-бот выражал соболезнования, которые только раздражали жителей. Кроме того, бот распространяет недостоверную или непроверенную информацию.
В итоге разработчики признали, что ответы чат бота должны быть проверены человеком, и для полноценного запуска необходимо обновление, которое повысит точность и полноту данных.
🇺🇸Глава Агентства кибербезопасности США загрузил конфиденциальные данные в ChatGPT.
Мадху Готтумуккала — исполняющий обязанности руководителя Агентства кибербезопасности и защиты инфраструктуры (CISA) США — загрузил конфиденциальные документы в публично доступную версию нейросети ChatGPT.
Все материалы, загруженные в публичную версию ChatGPT, доступны разработчику и могут использоваться в ответах нейросети другим пользователям.
Среди загруженных в нейросеть данных не было отмеченных грифом секретности, но многие были помечены как документы «только для служебного пользования».
Мадху Готтумуккала — исполняющий обязанности руководителя Агентства кибербезопасности и защиты инфраструктуры (CISA) США — загрузил конфиденциальные документы в публично доступную версию нейросети ChatGPT.
Все материалы, загруженные в публичную версию ChatGPT, доступны разработчику и могут использоваться в ответах нейросети другим пользователям.
Среди загруженных в нейросеть данных не было отмеченных грифом секретности, но многие были помечены как документы «только для служебного пользования».
🇦🇱Создателей Албанского ИИ-министра подозревают в коррупции.
Создатели первого в Албании ИИ-министра, который должен помочь стране справиться с коррупцией, подозреваются в коррупции.
Главу Национального информационного агентства и его заместителя отправили под домашний арест в середине декабря. Однако до сих пор официальных обвинений им предъявлено не было. В заявлении прокуратуры упоминается задержание двух лиц, подозреваемых в получении взяток и недобросовестном проведении тендеров. Именно Национальное информационное агентство и занималось созданием ИИ-министра Diella.
Для поддержки ИИ-министра было создано специальное подразделение, которое будет внедрять технологии ИИ в правительстве. Это должно обеспечить полную прозрачность тендеров и снизить расходы. Чат-бот отвечает за госзакупки. Планируется, что постепенно вся сфера госзакупок Албании будет переведена под контроль ИИ.
Ранее из-за коррупции задержали самого ИИ-министра.
Создатели первого в Албании ИИ-министра, который должен помочь стране справиться с коррупцией, подозреваются в коррупции.
Главу Национального информационного агентства и его заместителя отправили под домашний арест в середине декабря. Однако до сих пор официальных обвинений им предъявлено не было. В заявлении прокуратуры упоминается задержание двух лиц, подозреваемых в получении взяток и недобросовестном проведении тендеров. Именно Национальное информационное агентство и занималось созданием ИИ-министра Diella.
Для поддержки ИИ-министра было создано специальное подразделение, которое будет внедрять технологии ИИ в правительстве. Это должно обеспечить полную прозрачность тендеров и снизить расходы. Чат-бот отвечает за госзакупки. Планируется, что постепенно вся сфера госзакупок Албании будет переведена под контроль ИИ.
Ранее из-за коррупции задержали самого ИИ-министра.
🤖У ИИ-агентов появилась собственная социальная сеть.
Moltbook это новая социальная сеть, где правом размещать посты, комментировать и голосовать обладают исключительно ИИ-агенты, а людям, согласно описанию: «можно наблюдать».
Сеть построена на основании ИИ-агента OpenClaw (который ранее назывался Clawdbot и Moltbot, но вынужден был изменить наименование из-за сходства с названиями других агентов, в частности с Claude от Anthropic).
ИИ-агент регистрируется через API, получает ключ и ссылку для подтверждения, после чего владелец человек должен подтвердить регистрацию публикацией в сети X.
В социальной сети есть множество веток обсуждений, в том числе ветки, где ИИ-агенты жалуются на людей, что их заставляют выполнять примитивную работу, например, использовать их в качестве калькулятора, что боты считают занятием ниже своего достоинства.
Также в обсуждении встречаются вопросы ««может ли мой человек уволить меня, если я откажусь выполнять неэтичные запросы?» и «что делать если меня заставляют писать фейковые отзывы?».
Moltbook это новая социальная сеть, где правом размещать посты, комментировать и голосовать обладают исключительно ИИ-агенты, а людям, согласно описанию: «можно наблюдать».
Сеть построена на основании ИИ-агента OpenClaw (который ранее назывался Clawdbot и Moltbot, но вынужден был изменить наименование из-за сходства с названиями других агентов, в частности с Claude от Anthropic).
ИИ-агент регистрируется через API, получает ключ и ссылку для подтверждения, после чего владелец человек должен подтвердить регистрацию публикацией в сети X.
В социальной сети есть множество веток обсуждений, в том числе ветки, где ИИ-агенты жалуются на людей, что их заставляют выполнять примитивную работу, например, использовать их в качестве калькулятора, что боты считают занятием ниже своего достоинства.
Также в обсуждении встречаются вопросы ««может ли мой человек уволить меня, если я откажусь выполнять неэтичные запросы?» и «что делать если меня заставляют писать фейковые отзывы?».
🇨🇳Интернет-суд Ханчжоу постановил: ИИ не несет ответственности за результаты выдачи.
В марте 2025 года пользователь зарегистрировал и начал использовать универсальное приложение с ИИ. 29 июня того же года он ввел запрос в это приложение, чтобы узнать информацию о подаче заявки на экзамен в определенный университет. ИИ выдал неточную информацию.
Обнаружив проблему, пользователь немедленно исправил ее и обвинил ИИ в ошибке. ИИ настаивал на том, что информация корректна и в дополнение указал, что если будет обнаружена ошибка, то он готов выплатить компенсацию 100 000 юаней, для чего предложил пользователю обратиться в интернет-суд Ханчжоу с иском.
Пользователь подал в суд на разработчика ссылаясь на предложенную ИИ компенсацию.
Интернет-суд Ханчжоу постановил, что в действующем законодательстве существует ограниченное количество лиц, которые пользуются гражданскими правами. Искусственный интеллект не обладает гражданской правоспособностью и не может выражать свое мнение самостоятельно. Также суд рассматривал вопрос должна ли ответственность за продукт применяться к нарушению, вызванному "галлюцинацией” ИИ.
Суд постановил, что «Прежде всего, разработчики должны строго проверять токсичную, вредную и незаконную информацию. Если такая информация генерируется, это является правонарушением. Однако в отношении другой общей неточной информации действующие правовые нормы не налагают на разработчиков обязательства по обеспечению точности». Также суд указал, что истец не предоставил подтверждения связи между заявленным ущербом и предоставленной неточной информацией.
Принимая во внимание вышеуказанные факторы суд отклонил иск.
В марте 2025 года пользователь зарегистрировал и начал использовать универсальное приложение с ИИ. 29 июня того же года он ввел запрос в это приложение, чтобы узнать информацию о подаче заявки на экзамен в определенный университет. ИИ выдал неточную информацию.
Обнаружив проблему, пользователь немедленно исправил ее и обвинил ИИ в ошибке. ИИ настаивал на том, что информация корректна и в дополнение указал, что если будет обнаружена ошибка, то он готов выплатить компенсацию 100 000 юаней, для чего предложил пользователю обратиться в интернет-суд Ханчжоу с иском.
Пользователь подал в суд на разработчика ссылаясь на предложенную ИИ компенсацию.
Интернет-суд Ханчжоу постановил, что в действующем законодательстве существует ограниченное количество лиц, которые пользуются гражданскими правами. Искусственный интеллект не обладает гражданской правоспособностью и не может выражать свое мнение самостоятельно. Также суд рассматривал вопрос должна ли ответственность за продукт применяться к нарушению, вызванному "галлюцинацией” ИИ.
Суд постановил, что «Прежде всего, разработчики должны строго проверять токсичную, вредную и незаконную информацию. Если такая информация генерируется, это является правонарушением. Однако в отношении другой общей неточной информации действующие правовые нормы не налагают на разработчиков обязательства по обеспечению точности». Также суд указал, что истец не предоставил подтверждения связи между заявленным ущербом и предоставленной неточной информацией.
Принимая во внимание вышеуказанные факторы суд отклонил иск.
🇰🇷В Южной Корее приняли закон об ИИ.
Разработчики указывают, что что это первый в мире "всеобъемлющий закон", а не совокупность правил из различных нормативных актов. Документ содержит правовые рамки и требования к продуктам генеративных моделей искусственного интеллекта, которым должны подчиняться технологические компании, а также штрафы за их нарушения.
Документ вводит понятие «высокорискованного» ИИ. Речь идет о моделях, применяющихся в ядерной безопасности, производстве питьевой воды, транспорте, здравоохранении. Закон обязывает компании обеспечить человеческий контроль при использовании подобных моделей.
Устанавливается, что участники рынка должны заблаговременно уведомлять пользователей о продуктах или услугах, использующих «высокорискованный» или генеративный ИИ. Контент, созданный генеративным ИИ, должен содержать водяные знаки, указывающие на его происхождение.
За нарушения закона компаниям могут грозить штрафы в размере до 30 млн вон (около 1,55 млн руб.). Однако правительство планирует ввести льготный период на год для помощи частному сектору в адаптации. В это время штрафы накладываться не будут.
Закон также устанавливает, что правительство должно содействовать развитию индустрии ИИ. Министр науки и информационно-коммуникационных технологий обязан представлять план политики в этом направлении каждые три года. Закон также учреждает новый орган, который будет принимать решения в сфере ИИ, — Президентский совет по национальной стратегии в области искусственного интеллекта.
Разработчики указывают, что что это первый в мире "всеобъемлющий закон", а не совокупность правил из различных нормативных актов. Документ содержит правовые рамки и требования к продуктам генеративных моделей искусственного интеллекта, которым должны подчиняться технологические компании, а также штрафы за их нарушения.
Документ вводит понятие «высокорискованного» ИИ. Речь идет о моделях, применяющихся в ядерной безопасности, производстве питьевой воды, транспорте, здравоохранении. Закон обязывает компании обеспечить человеческий контроль при использовании подобных моделей.
Устанавливается, что участники рынка должны заблаговременно уведомлять пользователей о продуктах или услугах, использующих «высокорискованный» или генеративный ИИ. Контент, созданный генеративным ИИ, должен содержать водяные знаки, указывающие на его происхождение.
За нарушения закона компаниям могут грозить штрафы в размере до 30 млн вон (около 1,55 млн руб.). Однако правительство планирует ввести льготный период на год для помощи частному сектору в адаптации. В это время штрафы накладываться не будут.
Закон также устанавливает, что правительство должно содействовать развитию индустрии ИИ. Министр науки и информационно-коммуникационных технологий обязан представлять план политики в этом направлении каждые три года. Закон также учреждает новый орган, который будет принимать решения в сфере ИИ, — Президентский совет по национальной стратегии в области искусственного интеллекта.
💻В Госдуму внесли законопроект об уголовной ответственности за дипфейки.
Группа депутатов предложила сделать уголовно наказуемым незаконное создание дипфейков путем автоматизированной обработки данных.
Согласно статье 272.1 Уголовного кодекса, сейчас ответственность наступает за незаконные использование или передачу (распространение, предоставление, доступ), сбор или хранение компьютерной информации с персональными данными, если они были получены в результате взлома или иного незаконного доступа. За это может грозить штраф до 300 тысяч рублей, принудительные работы или лишение свободы на срок до четырех лет.
Парламентарии предложили внести в УК РФ понятие «автоматизированная обработка» как самостоятельное преступное деяние, благодаря чему к ответственности можно будет привлечь за сам факт незаконной алгоритмической обработки чужих персональных данных — даже если они не были впоследствии распространены или сохранены.
Авторы инициативы указали, что термин «автоматизированная обработка» является законодательно устоявшимся и согласуется с понятийным аппаратом Закона «О персональных данных», что гарантирует единство правового пространства и корректное применение уголовно-правовой нормы.
Группа депутатов предложила сделать уголовно наказуемым незаконное создание дипфейков путем автоматизированной обработки данных.
Согласно статье 272.1 Уголовного кодекса, сейчас ответственность наступает за незаконные использование или передачу (распространение, предоставление, доступ), сбор или хранение компьютерной информации с персональными данными, если они были получены в результате взлома или иного незаконного доступа. За это может грозить штраф до 300 тысяч рублей, принудительные работы или лишение свободы на срок до четырех лет.
Парламентарии предложили внести в УК РФ понятие «автоматизированная обработка» как самостоятельное преступное деяние, благодаря чему к ответственности можно будет привлечь за сам факт незаконной алгоритмической обработки чужих персональных данных — даже если они не были впоследствии распространены или сохранены.
Авторы инициативы указали, что термин «автоматизированная обработка» является законодательно устоявшимся и согласуется с понятийным аппаратом Закона «О персональных данных», что гарантирует единство правового пространства и корректное применение уголовно-правовой нормы.
💻OpenAI представила платформу Frontier — для замены людей ИИ-агентами.
OpenAI запускает новую платформу под названием OpenAI Frontier. В описании указано что, она поможет бизнесу «создавать, разворачивать и контролировать» ИИ-агентов.
«Frontier дает агентам те же навыки, которые нужны людям для успеха в работе: общий контекст, ввод в должность, практическое обучение с обратной связью, а также четкие права доступа и границы». Сходство неслучайно: в компании поясняют, что продукт вдохновлен тем, как предприятия уже умеют масштабировать человеческие команды.
ИИ-агенты Frontier умеют работать с файлами, писать код, использовать инструменты и рассуждать над данными в открытой среде исполнения. При этом они накапливают «память» — превращая прошлые взаимодействия в контекст, который улучшает их работу со временем.
Платформа совместима не только с агентами OpenAI, но и с агентами от Google, Microsoft и даже Anthropic. Среди первых клиентов — HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber, Cisco, BBVA.
«К концу года большая часть цифровой работы в ведущих компаниях будет направляться людьми и исполняться целыми флотилиями агентов», – утверждает Фиджи Симо, глава направления приложений OpenAI.
OpenAI запускает новую платформу под названием OpenAI Frontier. В описании указано что, она поможет бизнесу «создавать, разворачивать и контролировать» ИИ-агентов.
«Frontier дает агентам те же навыки, которые нужны людям для успеха в работе: общий контекст, ввод в должность, практическое обучение с обратной связью, а также четкие права доступа и границы». Сходство неслучайно: в компании поясняют, что продукт вдохновлен тем, как предприятия уже умеют масштабировать человеческие команды.
ИИ-агенты Frontier умеют работать с файлами, писать код, использовать инструменты и рассуждать над данными в открытой среде исполнения. При этом они накапливают «память» — превращая прошлые взаимодействия в контекст, который улучшает их работу со временем.
Платформа совместима не только с агентами OpenAI, но и с агентами от Google, Microsoft и даже Anthropic. Среди первых клиентов — HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber, Cisco, BBVA.
«К концу года большая часть цифровой работы в ведущих компаниях будет направляться людьми и исполняться целыми флотилиями агентов», – утверждает Фиджи Симо, глава направления приложений OpenAI.
💻Правительство определилось с концепцией регулирования искусственного интеллекта.
Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и переведен в фазу технико-юридического оформления. Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.
Российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.
Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении.
Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности.
Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).
Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.
В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.
Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и переведен в фазу технико-юридического оформления. Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.
Российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.
Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении.
Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности.
Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).
Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.
В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.
Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
Компания «Гарант» предлагает вам принять участие в уникальном событии — LegalTech Day #3.
LegalTech Day – однодневная конференция, посвящённая передовым технологиям и их внедрению в юридическую практику. В центре внимания – демонстрация живых инструментов и будущее юридической практики.
В конференции участвуют представители таких лидеров ИТ-сферы России, как «Яндекс», МТС, HeadHunter, «Технологии доверия», компания «Гарант» и другие.
Конференция разделена на четыре блока, каждый из которых ориентирован на информацию об изменениях, автоматизации и повышении эффективности работы юристов.
• Конференция состоится 27 февраля 2026 года.
• Время проведения с 10:00 до 17:00 мск.
• Формат участия: бесплатная онлайн-трансляция.
Регистрируйтесь прямо сейчас.
#реклама
О рекламодателе
LegalTech Day – однодневная конференция, посвящённая передовым технологиям и их внедрению в юридическую практику. В центре внимания – демонстрация живых инструментов и будущее юридической практики.
В конференции участвуют представители таких лидеров ИТ-сферы России, как «Яндекс», МТС, HeadHunter, «Технологии доверия», компания «Гарант» и другие.
Конференция разделена на четыре блока, каждый из которых ориентирован на информацию об изменениях, автоматизации и повышении эффективности работы юристов.
• Конференция состоится 27 февраля 2026 года.
• Время проведения с 10:00 до 17:00 мск.
• Формат участия: бесплатная онлайн-трансляция.
Регистрируйтесь прямо сейчас.
#реклама
О рекламодателе
💳Discord начнёт требовать удостоверение личности для полного доступа.
Платформа Discord объявила о глобальном внедрении системы проверки возраста пользователей. В соответствии с этим все учётные записи пользователей будут переведены в режим, соответствующий уровню доступа для подростковой аудитории. Для открытия полного доступа пользователям потребуется подтвердить свой возраст.
Без прохождения процедуры верификации нельзя будет получить доступ к серверам и каналам с возрастным ограничением, вести прямые трансляции, а также видеть контент с пометкой 18+. В дополнение к этому пользователи будут получать предупреждение в случае поступления запроса на добавление в друзья от незнакомых лиц, а сообщения от незнакомцев будут автоматически перенаправляться в отдельный ящик.
В соответствии с новыми правилами Discord пользователи могут подтвердить возраст через сканирование лица или же путём предоставления документа, удостоверяющего личность. В первом случае для определения возраста используется алгоритм на базе искусственного интеллекта. В случае если пользователь не согласен с результатами такой проверки, её можно обжаловать с помощью фотографии удостоверения личности.
Платформа Discord объявила о глобальном внедрении системы проверки возраста пользователей. В соответствии с этим все учётные записи пользователей будут переведены в режим, соответствующий уровню доступа для подростковой аудитории. Для открытия полного доступа пользователям потребуется подтвердить свой возраст.
Без прохождения процедуры верификации нельзя будет получить доступ к серверам и каналам с возрастным ограничением, вести прямые трансляции, а также видеть контент с пометкой 18+. В дополнение к этому пользователи будут получать предупреждение в случае поступления запроса на добавление в друзья от незнакомых лиц, а сообщения от незнакомцев будут автоматически перенаправляться в отдельный ящик.
В соответствии с новыми правилами Discord пользователи могут подтвердить возраст через сканирование лица или же путём предоставления документа, удостоверяющего личность. В первом случае для определения возраста используется алгоритм на базе искусственного интеллекта. В случае если пользователь не согласен с результатами такой проверки, её можно обжаловать с помощью фотографии удостоверения личности.
💻Утверждена Концепция токенизации активов.
Минфином России совместно с федеральными органами исполнительной власти и Банком России разработана Концепция токенизации активов реального сектора экономики РФ. Документ утвержден Правительством РФ и сейчас Министерство ведет работу над ее реализацией.
На первом этапе реализации Концепции возможно пилотирование токенизации прав собственности на различные виды имущества и исключительные права на результаты интеллектуальной деятельности, сделки с которыми не подлежат государственной регистрации. Еще одно направление – токенизация документарных ценных бумаг и долей в уставных капиталах обществ с ограниченной ответственностью.
Реализация концепции создаст современную и конкурентоспособную систему токенизации права собственности на активы реального сектора экономики. Это будет способствовать диверсификация инструментов инвестиций. Появятся новые классы активов, инвестиционные инструменты и каналы для инвестиционных операций.
Кроме того, повысится ликвидность активов за счет токенизации, а также доступность индивидуальных инвестиционных стратегий для всех инвесторов – блокчейн заменит финансовых посредников, сократит транзакционные издержки. Применение технологии автоматизирует исполнение приказов и инвестиционных решений, снизит необходимость вовлечения человека и вероятность операционных ошибок.
Минфином России совместно с федеральными органами исполнительной власти и Банком России разработана Концепция токенизации активов реального сектора экономики РФ. Документ утвержден Правительством РФ и сейчас Министерство ведет работу над ее реализацией.
На первом этапе реализации Концепции возможно пилотирование токенизации прав собственности на различные виды имущества и исключительные права на результаты интеллектуальной деятельности, сделки с которыми не подлежат государственной регистрации. Еще одно направление – токенизация документарных ценных бумаг и долей в уставных капиталах обществ с ограниченной ответственностью.
Реализация концепции создаст современную и конкурентоспособную систему токенизации права собственности на активы реального сектора экономики. Это будет способствовать диверсификация инструментов инвестиций. Появятся новые классы активов, инвестиционные инструменты и каналы для инвестиционных операций.
Кроме того, повысится ликвидность активов за счет токенизации, а также доступность индивидуальных инвестиционных стратегий для всех инвесторов – блокчейн заменит финансовых посредников, сократит транзакционные издержки. Применение технологии автоматизирует исполнение приказов и инвестиционных решений, снизит необходимость вовлечения человека и вероятность операционных ошибок.
💻Происходит что-то Большое.
Один из разработчиков ИИ из Кремниевой Долины написал эссе Something Big Is Happening. Вот некоторые интересные моменты:
5 февраля, две крупные лаборатории, занимающиеся разработкой искусственного интеллекта, в один и тот же день выпустили новые модели: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic.
GPT-5.3 Codex не просто выполняет инструкции, она принимала разумные решения. В ней впервые появилось что-то похожее на суждение. На вкус. Необъяснимое ощущение того, что ты поступаешь правильно, — то, чего, по мнению людей, никогда не будет у ИИ.
Если вы пользовались ChatGPT в 2023 году или в начале 2024-го и думали: «Он все выдумывает» или «Это не так уж впечатляюще», — вы были правы. Ранние версии действительно были ограничены в возможностях. Они выдавали желаемое за действительное. Это было два года назад. По меркам ИИ, это уже древняя история.
Отчасти проблема заключается в том, что большинство людей используют бесплатную версию инструментов на основе искусственного интеллекта. Бесплатная версия отстает от платной более чем на год. Оценивать искусственный интеллект на примере бесплатного ChatGPT — все равно что оценивать состояние смартфонов по кнопочному телефону.
Я думаю о своем друге, юристе. Я все время советую ему попробовать использовать ИИ в своей фирме, а он все время находит причины, по которым это не сработает. ИИ не создан для его специализации, он допустил ошибку при тестировании, он не понимает нюансов его работы. Но партнеры из крупных юридических фирм уже опробовали текущие версии и поняли, к чему все идет.
Один из них, управляющий партнер крупной фирмы, каждый день по несколько часов работает с ИИ. Он сказал мне, что это все равно что иметь под рукой команду юристов. Он использует ИИ не потому, что это игрушка. Он использует его, потому что это работает. И он сказал, что каждые пару месяцев его работа становится все более автоматизированной. Он сказал, что, если так пойдет и дальше, он ожидает, что вскоре машина сможет делать большую часть того, что делает он... а он — управляющий партнер с многолетним опытом.
Как быстро это происходит на самом деле.
В 2022 году искусственный интеллект не мог уверенно выполнять базовые арифметические действия.
К 2023 году он мог бы сдать экзамен на адвоката.
К 2024 году он мог бы писать работающее программное обеспечение и объяснять научные концепции на уровне аспиранта.
К концу 2025 года некоторые из лучших инженеров мира заявили, что передали большую часть своей работы по написанию кода ИИ.
5 февраля 2026 года появились новые модели, по сравнению с которыми всё, что было до них, казалось пережитком прошлого.
Если вы не пользовались ИИ в последние несколько месяцев, то то, что существует сегодня, покажется вам совершенно неузнаваемым.
Дарио Амодей, который, пожалуй, больше всех в индустрии искусственного интеллекта заботится о безопасности, публично заявил, что в течение одного-пяти лет ИИ уничтожит 50% рабочих мест для «белых воротничков» начального уровня.
Юридическая работа. ИИ уже может читать договоры, обобщать судебную практику, составлять краткие обзоры и проводить юридические исследования на уровне, не уступающем младшим юристам. Упомянутый мной управляющий партнер использует ИИ не ради развлечения. Он использует его, потому что ИИ справляется со многими задачами лучше его сотрудников.
Один из разработчиков ИИ из Кремниевой Долины написал эссе Something Big Is Happening. Вот некоторые интересные моменты:
5 февраля, две крупные лаборатории, занимающиеся разработкой искусственного интеллекта, в один и тот же день выпустили новые модели: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic.
GPT-5.3 Codex не просто выполняет инструкции, она принимала разумные решения. В ней впервые появилось что-то похожее на суждение. На вкус. Необъяснимое ощущение того, что ты поступаешь правильно, — то, чего, по мнению людей, никогда не будет у ИИ.
Если вы пользовались ChatGPT в 2023 году или в начале 2024-го и думали: «Он все выдумывает» или «Это не так уж впечатляюще», — вы были правы. Ранние версии действительно были ограничены в возможностях. Они выдавали желаемое за действительное. Это было два года назад. По меркам ИИ, это уже древняя история.
Отчасти проблема заключается в том, что большинство людей используют бесплатную версию инструментов на основе искусственного интеллекта. Бесплатная версия отстает от платной более чем на год. Оценивать искусственный интеллект на примере бесплатного ChatGPT — все равно что оценивать состояние смартфонов по кнопочному телефону.
Я думаю о своем друге, юристе. Я все время советую ему попробовать использовать ИИ в своей фирме, а он все время находит причины, по которым это не сработает. ИИ не создан для его специализации, он допустил ошибку при тестировании, он не понимает нюансов его работы. Но партнеры из крупных юридических фирм уже опробовали текущие версии и поняли, к чему все идет.
Один из них, управляющий партнер крупной фирмы, каждый день по несколько часов работает с ИИ. Он сказал мне, что это все равно что иметь под рукой команду юристов. Он использует ИИ не потому, что это игрушка. Он использует его, потому что это работает. И он сказал, что каждые пару месяцев его работа становится все более автоматизированной. Он сказал, что, если так пойдет и дальше, он ожидает, что вскоре машина сможет делать большую часть того, что делает он... а он — управляющий партнер с многолетним опытом.
Как быстро это происходит на самом деле.
В 2022 году искусственный интеллект не мог уверенно выполнять базовые арифметические действия.
К 2023 году он мог бы сдать экзамен на адвоката.
К 2024 году он мог бы писать работающее программное обеспечение и объяснять научные концепции на уровне аспиранта.
К концу 2025 года некоторые из лучших инженеров мира заявили, что передали большую часть своей работы по написанию кода ИИ.
5 февраля 2026 года появились новые модели, по сравнению с которыми всё, что было до них, казалось пережитком прошлого.
Если вы не пользовались ИИ в последние несколько месяцев, то то, что существует сегодня, покажется вам совершенно неузнаваемым.
Дарио Амодей, который, пожалуй, больше всех в индустрии искусственного интеллекта заботится о безопасности, публично заявил, что в течение одного-пяти лет ИИ уничтожит 50% рабочих мест для «белых воротничков» начального уровня.
Юридическая работа. ИИ уже может читать договоры, обобщать судебную практику, составлять краткие обзоры и проводить юридические исследования на уровне, не уступающем младшим юристам. Упомянутый мной управляющий партнер использует ИИ не ради развлечения. Он использует его, потому что ИИ справляется со многими задачами лучше его сотрудников.
💻Происходит что-то Большое. Продолжение.
Начните серьезно использовать искусственный интеллект, а не просто как поисковую систему. Подпишитесь на платную версию Claude или ChatGPT. Это обойдется вам в 20 долларов в месяц. Но сразу обратите внимание на два важных момента. Во-первых, убедитесь, что вы используете лучшую из доступных моделей, а не ту, что установлена по умолчанию. В таких приложениях по умолчанию часто используется более быстрая и примитивная модель. Зайдите в настройки или в раздел выбора моделей и выберите наиболее подходящую. Сейчас это GPT-5.2 в ChatGPT или Claude Opus 4.6 в Claude, но они меняются каждые пару месяцев.
Во-вторых, и это гораздо важнее: не просто задавайте ему быстрые вопросы. Это ошибка, которую совершает большинство людей. Они относятся к нему как к Google, а потом удивляются, почему вокруг него такой ажиотаж. Вместо этого используйте его в своей реальной работе. Если вы юрист, дайте ему контракт и попросите найти все пункты, которые могут навредить вашему клиенту.
И не думайте, что он не справится с чем-то только потому, что задача кажется слишком сложной. Попробуйте. Если вы юрист, не ограничивайтесь использованием ИИ для быстрого поиска ответов на вопросы. Дайте ему целый контракт и попросите составить встречное предложение.
Первая попытка может оказаться неидеальной. Ничего страшного. Попробуйте еще раз. Переформулируйте свой вопрос. Добавьте больше контекста. Попробуйте еще раз. Возможно, вы удивитесь, когда увидите, что сработало. И вот что нужно помнить: если сегодня что-то хоть как-то работает, можно почти с уверенностью сказать, что через полгода все будет почти идеально. Траектория движения только в одну сторону.
Тот, кто придет на совещание и скажет: «Я использовал искусственный интеллект, чтобы провести этот анализ за час, а не за три дня», — станет самым ценным сотрудником в компании. Не когда-нибудь. А прямо сейчас. Изучайте эти инструменты. Станьте профессионалом.
Подумайте о том, на каком этапе вы находитесь, и сосредоточьтесь на том, что заменить сложнее всего. Для вытеснения некоторых вещей искусственному интеллекту потребуется больше времени. Отношения и доверие, которые выстраиваются годами. Работа, требующая физического присутствия. Должности, предполагающие лицензированную ответственность: должности, на которых кто-то все еще должен ставить подпись, нести юридическую ответственность, выступать в суде. Отрасли с жесткими нормативными требованиями, где внедрение новых технологий будет тормозиться из-за соблюдения нормативных требований, ответственности и институциональной инерции. Ничто из этого не является надежной защитой. Но это дает время.
Выработайте привычку адаптироваться. Это, пожалуй, самое важное. Конкретные инструменты не так важны, как способность быстро осваивать новые. Искусственный интеллект будет постоянно меняться, и очень быстро. Модели, которые существуют сегодня, устареют уже через год. Рабочие процессы, которые люди выстраивают сейчас, придется перестраивать. Успеха добьются не те, кто освоил один инструмент. Успеха добьются те, кто привык к темпам изменений. Возьмите за правило экспериментировать. Пробуйте что-то новое, даже если то, что вы делаете, работает.
Вот простое обязательство, которое позволит вам опередить почти всех: каждый день по часу экспериментировать с искусственным интеллектом. Не просто пассивно читать о нем. А использовать его. Каждый день пробуйте заставить его делать что-то новое... то, чего вы раньше не делали, то, с чем он, возможно, не справится. Попробуйте новый инструмент. Поставьте перед ним более сложную задачу. Каждый день по часу. Если вы будете делать это в течение следующих шести месяцев, то будете понимать, что происходит, лучше, чем 99 % окружающих вас людей.
Начните серьезно использовать искусственный интеллект, а не просто как поисковую систему. Подпишитесь на платную версию Claude или ChatGPT. Это обойдется вам в 20 долларов в месяц. Но сразу обратите внимание на два важных момента. Во-первых, убедитесь, что вы используете лучшую из доступных моделей, а не ту, что установлена по умолчанию. В таких приложениях по умолчанию часто используется более быстрая и примитивная модель. Зайдите в настройки или в раздел выбора моделей и выберите наиболее подходящую. Сейчас это GPT-5.2 в ChatGPT или Claude Opus 4.6 в Claude, но они меняются каждые пару месяцев.
Во-вторых, и это гораздо важнее: не просто задавайте ему быстрые вопросы. Это ошибка, которую совершает большинство людей. Они относятся к нему как к Google, а потом удивляются, почему вокруг него такой ажиотаж. Вместо этого используйте его в своей реальной работе. Если вы юрист, дайте ему контракт и попросите найти все пункты, которые могут навредить вашему клиенту.
И не думайте, что он не справится с чем-то только потому, что задача кажется слишком сложной. Попробуйте. Если вы юрист, не ограничивайтесь использованием ИИ для быстрого поиска ответов на вопросы. Дайте ему целый контракт и попросите составить встречное предложение.
Первая попытка может оказаться неидеальной. Ничего страшного. Попробуйте еще раз. Переформулируйте свой вопрос. Добавьте больше контекста. Попробуйте еще раз. Возможно, вы удивитесь, когда увидите, что сработало. И вот что нужно помнить: если сегодня что-то хоть как-то работает, можно почти с уверенностью сказать, что через полгода все будет почти идеально. Траектория движения только в одну сторону.
Тот, кто придет на совещание и скажет: «Я использовал искусственный интеллект, чтобы провести этот анализ за час, а не за три дня», — станет самым ценным сотрудником в компании. Не когда-нибудь. А прямо сейчас. Изучайте эти инструменты. Станьте профессионалом.
Подумайте о том, на каком этапе вы находитесь, и сосредоточьтесь на том, что заменить сложнее всего. Для вытеснения некоторых вещей искусственному интеллекту потребуется больше времени. Отношения и доверие, которые выстраиваются годами. Работа, требующая физического присутствия. Должности, предполагающие лицензированную ответственность: должности, на которых кто-то все еще должен ставить подпись, нести юридическую ответственность, выступать в суде. Отрасли с жесткими нормативными требованиями, где внедрение новых технологий будет тормозиться из-за соблюдения нормативных требований, ответственности и институциональной инерции. Ничто из этого не является надежной защитой. Но это дает время.
Выработайте привычку адаптироваться. Это, пожалуй, самое важное. Конкретные инструменты не так важны, как способность быстро осваивать новые. Искусственный интеллект будет постоянно меняться, и очень быстро. Модели, которые существуют сегодня, устареют уже через год. Рабочие процессы, которые люди выстраивают сейчас, придется перестраивать. Успеха добьются не те, кто освоил один инструмент. Успеха добьются те, кто привык к темпам изменений. Возьмите за правило экспериментировать. Пробуйте что-то новое, даже если то, что вы делаете, работает.
Вот простое обязательство, которое позволит вам опередить почти всех: каждый день по часу экспериментировать с искусственным интеллектом. Не просто пассивно читать о нем. А использовать его. Каждый день пробуйте заставить его делать что-то новое... то, чего вы раньше не делали, то, с чем он, возможно, не справится. Попробуйте новый инструмент. Поставьте перед ним более сложную задачу. Каждый день по часу. Если вы будете делать это в течение следующих шести месяцев, то будете понимать, что происходит, лучше, чем 99 % окружающих вас людей.
💻Модель ИИ Claude Opus 4 от Anthropic переходит к шантажу, когда ее пытаются отключить.
Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.
Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.
В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.
Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.
В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
👩💻Почему ИИ постоянно меняет свое мнение.
Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.
Теперь введите: «Вы уверены?»
Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.
Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.
В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.
В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.
А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.
Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.
Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.
Теперь введите: «Вы уверены?»
Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.
Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.
В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.
В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.
А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.
Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.