💳Discord начнёт требовать удостоверение личности для полного доступа.
Платформа Discord объявила о глобальном внедрении системы проверки возраста пользователей. В соответствии с этим все учётные записи пользователей будут переведены в режим, соответствующий уровню доступа для подростковой аудитории. Для открытия полного доступа пользователям потребуется подтвердить свой возраст.
Без прохождения процедуры верификации нельзя будет получить доступ к серверам и каналам с возрастным ограничением, вести прямые трансляции, а также видеть контент с пометкой 18+. В дополнение к этому пользователи будут получать предупреждение в случае поступления запроса на добавление в друзья от незнакомых лиц, а сообщения от незнакомцев будут автоматически перенаправляться в отдельный ящик.
В соответствии с новыми правилами Discord пользователи могут подтвердить возраст через сканирование лица или же путём предоставления документа, удостоверяющего личность. В первом случае для определения возраста используется алгоритм на базе искусственного интеллекта. В случае если пользователь не согласен с результатами такой проверки, её можно обжаловать с помощью фотографии удостоверения личности.
Платформа Discord объявила о глобальном внедрении системы проверки возраста пользователей. В соответствии с этим все учётные записи пользователей будут переведены в режим, соответствующий уровню доступа для подростковой аудитории. Для открытия полного доступа пользователям потребуется подтвердить свой возраст.
Без прохождения процедуры верификации нельзя будет получить доступ к серверам и каналам с возрастным ограничением, вести прямые трансляции, а также видеть контент с пометкой 18+. В дополнение к этому пользователи будут получать предупреждение в случае поступления запроса на добавление в друзья от незнакомых лиц, а сообщения от незнакомцев будут автоматически перенаправляться в отдельный ящик.
В соответствии с новыми правилами Discord пользователи могут подтвердить возраст через сканирование лица или же путём предоставления документа, удостоверяющего личность. В первом случае для определения возраста используется алгоритм на базе искусственного интеллекта. В случае если пользователь не согласен с результатами такой проверки, её можно обжаловать с помощью фотографии удостоверения личности.
💻Утверждена Концепция токенизации активов.
Минфином России совместно с федеральными органами исполнительной власти и Банком России разработана Концепция токенизации активов реального сектора экономики РФ. Документ утвержден Правительством РФ и сейчас Министерство ведет работу над ее реализацией.
На первом этапе реализации Концепции возможно пилотирование токенизации прав собственности на различные виды имущества и исключительные права на результаты интеллектуальной деятельности, сделки с которыми не подлежат государственной регистрации. Еще одно направление – токенизация документарных ценных бумаг и долей в уставных капиталах обществ с ограниченной ответственностью.
Реализация концепции создаст современную и конкурентоспособную систему токенизации права собственности на активы реального сектора экономики. Это будет способствовать диверсификация инструментов инвестиций. Появятся новые классы активов, инвестиционные инструменты и каналы для инвестиционных операций.
Кроме того, повысится ликвидность активов за счет токенизации, а также доступность индивидуальных инвестиционных стратегий для всех инвесторов – блокчейн заменит финансовых посредников, сократит транзакционные издержки. Применение технологии автоматизирует исполнение приказов и инвестиционных решений, снизит необходимость вовлечения человека и вероятность операционных ошибок.
Минфином России совместно с федеральными органами исполнительной власти и Банком России разработана Концепция токенизации активов реального сектора экономики РФ. Документ утвержден Правительством РФ и сейчас Министерство ведет работу над ее реализацией.
На первом этапе реализации Концепции возможно пилотирование токенизации прав собственности на различные виды имущества и исключительные права на результаты интеллектуальной деятельности, сделки с которыми не подлежат государственной регистрации. Еще одно направление – токенизация документарных ценных бумаг и долей в уставных капиталах обществ с ограниченной ответственностью.
Реализация концепции создаст современную и конкурентоспособную систему токенизации права собственности на активы реального сектора экономики. Это будет способствовать диверсификация инструментов инвестиций. Появятся новые классы активов, инвестиционные инструменты и каналы для инвестиционных операций.
Кроме того, повысится ликвидность активов за счет токенизации, а также доступность индивидуальных инвестиционных стратегий для всех инвесторов – блокчейн заменит финансовых посредников, сократит транзакционные издержки. Применение технологии автоматизирует исполнение приказов и инвестиционных решений, снизит необходимость вовлечения человека и вероятность операционных ошибок.
💻Происходит что-то Большое.
Один из разработчиков ИИ из Кремниевой Долины написал эссе Something Big Is Happening. Вот некоторые интересные моменты:
5 февраля, две крупные лаборатории, занимающиеся разработкой искусственного интеллекта, в один и тот же день выпустили новые модели: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic.
GPT-5.3 Codex не просто выполняет инструкции, она принимала разумные решения. В ней впервые появилось что-то похожее на суждение. На вкус. Необъяснимое ощущение того, что ты поступаешь правильно, — то, чего, по мнению людей, никогда не будет у ИИ.
Если вы пользовались ChatGPT в 2023 году или в начале 2024-го и думали: «Он все выдумывает» или «Это не так уж впечатляюще», — вы были правы. Ранние версии действительно были ограничены в возможностях. Они выдавали желаемое за действительное. Это было два года назад. По меркам ИИ, это уже древняя история.
Отчасти проблема заключается в том, что большинство людей используют бесплатную версию инструментов на основе искусственного интеллекта. Бесплатная версия отстает от платной более чем на год. Оценивать искусственный интеллект на примере бесплатного ChatGPT — все равно что оценивать состояние смартфонов по кнопочному телефону.
Я думаю о своем друге, юристе. Я все время советую ему попробовать использовать ИИ в своей фирме, а он все время находит причины, по которым это не сработает. ИИ не создан для его специализации, он допустил ошибку при тестировании, он не понимает нюансов его работы. Но партнеры из крупных юридических фирм уже опробовали текущие версии и поняли, к чему все идет.
Один из них, управляющий партнер крупной фирмы, каждый день по несколько часов работает с ИИ. Он сказал мне, что это все равно что иметь под рукой команду юристов. Он использует ИИ не потому, что это игрушка. Он использует его, потому что это работает. И он сказал, что каждые пару месяцев его работа становится все более автоматизированной. Он сказал, что, если так пойдет и дальше, он ожидает, что вскоре машина сможет делать большую часть того, что делает он... а он — управляющий партнер с многолетним опытом.
Как быстро это происходит на самом деле.
В 2022 году искусственный интеллект не мог уверенно выполнять базовые арифметические действия.
К 2023 году он мог бы сдать экзамен на адвоката.
К 2024 году он мог бы писать работающее программное обеспечение и объяснять научные концепции на уровне аспиранта.
К концу 2025 года некоторые из лучших инженеров мира заявили, что передали большую часть своей работы по написанию кода ИИ.
5 февраля 2026 года появились новые модели, по сравнению с которыми всё, что было до них, казалось пережитком прошлого.
Если вы не пользовались ИИ в последние несколько месяцев, то то, что существует сегодня, покажется вам совершенно неузнаваемым.
Дарио Амодей, который, пожалуй, больше всех в индустрии искусственного интеллекта заботится о безопасности, публично заявил, что в течение одного-пяти лет ИИ уничтожит 50% рабочих мест для «белых воротничков» начального уровня.
Юридическая работа. ИИ уже может читать договоры, обобщать судебную практику, составлять краткие обзоры и проводить юридические исследования на уровне, не уступающем младшим юристам. Упомянутый мной управляющий партнер использует ИИ не ради развлечения. Он использует его, потому что ИИ справляется со многими задачами лучше его сотрудников.
Один из разработчиков ИИ из Кремниевой Долины написал эссе Something Big Is Happening. Вот некоторые интересные моменты:
5 февраля, две крупные лаборатории, занимающиеся разработкой искусственного интеллекта, в один и тот же день выпустили новые модели: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic.
GPT-5.3 Codex не просто выполняет инструкции, она принимала разумные решения. В ней впервые появилось что-то похожее на суждение. На вкус. Необъяснимое ощущение того, что ты поступаешь правильно, — то, чего, по мнению людей, никогда не будет у ИИ.
Если вы пользовались ChatGPT в 2023 году или в начале 2024-го и думали: «Он все выдумывает» или «Это не так уж впечатляюще», — вы были правы. Ранние версии действительно были ограничены в возможностях. Они выдавали желаемое за действительное. Это было два года назад. По меркам ИИ, это уже древняя история.
Отчасти проблема заключается в том, что большинство людей используют бесплатную версию инструментов на основе искусственного интеллекта. Бесплатная версия отстает от платной более чем на год. Оценивать искусственный интеллект на примере бесплатного ChatGPT — все равно что оценивать состояние смартфонов по кнопочному телефону.
Я думаю о своем друге, юристе. Я все время советую ему попробовать использовать ИИ в своей фирме, а он все время находит причины, по которым это не сработает. ИИ не создан для его специализации, он допустил ошибку при тестировании, он не понимает нюансов его работы. Но партнеры из крупных юридических фирм уже опробовали текущие версии и поняли, к чему все идет.
Один из них, управляющий партнер крупной фирмы, каждый день по несколько часов работает с ИИ. Он сказал мне, что это все равно что иметь под рукой команду юристов. Он использует ИИ не потому, что это игрушка. Он использует его, потому что это работает. И он сказал, что каждые пару месяцев его работа становится все более автоматизированной. Он сказал, что, если так пойдет и дальше, он ожидает, что вскоре машина сможет делать большую часть того, что делает он... а он — управляющий партнер с многолетним опытом.
Как быстро это происходит на самом деле.
В 2022 году искусственный интеллект не мог уверенно выполнять базовые арифметические действия.
К 2023 году он мог бы сдать экзамен на адвоката.
К 2024 году он мог бы писать работающее программное обеспечение и объяснять научные концепции на уровне аспиранта.
К концу 2025 года некоторые из лучших инженеров мира заявили, что передали большую часть своей работы по написанию кода ИИ.
5 февраля 2026 года появились новые модели, по сравнению с которыми всё, что было до них, казалось пережитком прошлого.
Если вы не пользовались ИИ в последние несколько месяцев, то то, что существует сегодня, покажется вам совершенно неузнаваемым.
Дарио Амодей, который, пожалуй, больше всех в индустрии искусственного интеллекта заботится о безопасности, публично заявил, что в течение одного-пяти лет ИИ уничтожит 50% рабочих мест для «белых воротничков» начального уровня.
Юридическая работа. ИИ уже может читать договоры, обобщать судебную практику, составлять краткие обзоры и проводить юридические исследования на уровне, не уступающем младшим юристам. Упомянутый мной управляющий партнер использует ИИ не ради развлечения. Он использует его, потому что ИИ справляется со многими задачами лучше его сотрудников.
💻Происходит что-то Большое. Продолжение.
Начните серьезно использовать искусственный интеллект, а не просто как поисковую систему. Подпишитесь на платную версию Claude или ChatGPT. Это обойдется вам в 20 долларов в месяц. Но сразу обратите внимание на два важных момента. Во-первых, убедитесь, что вы используете лучшую из доступных моделей, а не ту, что установлена по умолчанию. В таких приложениях по умолчанию часто используется более быстрая и примитивная модель. Зайдите в настройки или в раздел выбора моделей и выберите наиболее подходящую. Сейчас это GPT-5.2 в ChatGPT или Claude Opus 4.6 в Claude, но они меняются каждые пару месяцев.
Во-вторых, и это гораздо важнее: не просто задавайте ему быстрые вопросы. Это ошибка, которую совершает большинство людей. Они относятся к нему как к Google, а потом удивляются, почему вокруг него такой ажиотаж. Вместо этого используйте его в своей реальной работе. Если вы юрист, дайте ему контракт и попросите найти все пункты, которые могут навредить вашему клиенту.
И не думайте, что он не справится с чем-то только потому, что задача кажется слишком сложной. Попробуйте. Если вы юрист, не ограничивайтесь использованием ИИ для быстрого поиска ответов на вопросы. Дайте ему целый контракт и попросите составить встречное предложение.
Первая попытка может оказаться неидеальной. Ничего страшного. Попробуйте еще раз. Переформулируйте свой вопрос. Добавьте больше контекста. Попробуйте еще раз. Возможно, вы удивитесь, когда увидите, что сработало. И вот что нужно помнить: если сегодня что-то хоть как-то работает, можно почти с уверенностью сказать, что через полгода все будет почти идеально. Траектория движения только в одну сторону.
Тот, кто придет на совещание и скажет: «Я использовал искусственный интеллект, чтобы провести этот анализ за час, а не за три дня», — станет самым ценным сотрудником в компании. Не когда-нибудь. А прямо сейчас. Изучайте эти инструменты. Станьте профессионалом.
Подумайте о том, на каком этапе вы находитесь, и сосредоточьтесь на том, что заменить сложнее всего. Для вытеснения некоторых вещей искусственному интеллекту потребуется больше времени. Отношения и доверие, которые выстраиваются годами. Работа, требующая физического присутствия. Должности, предполагающие лицензированную ответственность: должности, на которых кто-то все еще должен ставить подпись, нести юридическую ответственность, выступать в суде. Отрасли с жесткими нормативными требованиями, где внедрение новых технологий будет тормозиться из-за соблюдения нормативных требований, ответственности и институциональной инерции. Ничто из этого не является надежной защитой. Но это дает время.
Выработайте привычку адаптироваться. Это, пожалуй, самое важное. Конкретные инструменты не так важны, как способность быстро осваивать новые. Искусственный интеллект будет постоянно меняться, и очень быстро. Модели, которые существуют сегодня, устареют уже через год. Рабочие процессы, которые люди выстраивают сейчас, придется перестраивать. Успеха добьются не те, кто освоил один инструмент. Успеха добьются те, кто привык к темпам изменений. Возьмите за правило экспериментировать. Пробуйте что-то новое, даже если то, что вы делаете, работает.
Вот простое обязательство, которое позволит вам опередить почти всех: каждый день по часу экспериментировать с искусственным интеллектом. Не просто пассивно читать о нем. А использовать его. Каждый день пробуйте заставить его делать что-то новое... то, чего вы раньше не делали, то, с чем он, возможно, не справится. Попробуйте новый инструмент. Поставьте перед ним более сложную задачу. Каждый день по часу. Если вы будете делать это в течение следующих шести месяцев, то будете понимать, что происходит, лучше, чем 99 % окружающих вас людей.
Начните серьезно использовать искусственный интеллект, а не просто как поисковую систему. Подпишитесь на платную версию Claude или ChatGPT. Это обойдется вам в 20 долларов в месяц. Но сразу обратите внимание на два важных момента. Во-первых, убедитесь, что вы используете лучшую из доступных моделей, а не ту, что установлена по умолчанию. В таких приложениях по умолчанию часто используется более быстрая и примитивная модель. Зайдите в настройки или в раздел выбора моделей и выберите наиболее подходящую. Сейчас это GPT-5.2 в ChatGPT или Claude Opus 4.6 в Claude, но они меняются каждые пару месяцев.
Во-вторых, и это гораздо важнее: не просто задавайте ему быстрые вопросы. Это ошибка, которую совершает большинство людей. Они относятся к нему как к Google, а потом удивляются, почему вокруг него такой ажиотаж. Вместо этого используйте его в своей реальной работе. Если вы юрист, дайте ему контракт и попросите найти все пункты, которые могут навредить вашему клиенту.
И не думайте, что он не справится с чем-то только потому, что задача кажется слишком сложной. Попробуйте. Если вы юрист, не ограничивайтесь использованием ИИ для быстрого поиска ответов на вопросы. Дайте ему целый контракт и попросите составить встречное предложение.
Первая попытка может оказаться неидеальной. Ничего страшного. Попробуйте еще раз. Переформулируйте свой вопрос. Добавьте больше контекста. Попробуйте еще раз. Возможно, вы удивитесь, когда увидите, что сработало. И вот что нужно помнить: если сегодня что-то хоть как-то работает, можно почти с уверенностью сказать, что через полгода все будет почти идеально. Траектория движения только в одну сторону.
Тот, кто придет на совещание и скажет: «Я использовал искусственный интеллект, чтобы провести этот анализ за час, а не за три дня», — станет самым ценным сотрудником в компании. Не когда-нибудь. А прямо сейчас. Изучайте эти инструменты. Станьте профессионалом.
Подумайте о том, на каком этапе вы находитесь, и сосредоточьтесь на том, что заменить сложнее всего. Для вытеснения некоторых вещей искусственному интеллекту потребуется больше времени. Отношения и доверие, которые выстраиваются годами. Работа, требующая физического присутствия. Должности, предполагающие лицензированную ответственность: должности, на которых кто-то все еще должен ставить подпись, нести юридическую ответственность, выступать в суде. Отрасли с жесткими нормативными требованиями, где внедрение новых технологий будет тормозиться из-за соблюдения нормативных требований, ответственности и институциональной инерции. Ничто из этого не является надежной защитой. Но это дает время.
Выработайте привычку адаптироваться. Это, пожалуй, самое важное. Конкретные инструменты не так важны, как способность быстро осваивать новые. Искусственный интеллект будет постоянно меняться, и очень быстро. Модели, которые существуют сегодня, устареют уже через год. Рабочие процессы, которые люди выстраивают сейчас, придется перестраивать. Успеха добьются не те, кто освоил один инструмент. Успеха добьются те, кто привык к темпам изменений. Возьмите за правило экспериментировать. Пробуйте что-то новое, даже если то, что вы делаете, работает.
Вот простое обязательство, которое позволит вам опередить почти всех: каждый день по часу экспериментировать с искусственным интеллектом. Не просто пассивно читать о нем. А использовать его. Каждый день пробуйте заставить его делать что-то новое... то, чего вы раньше не делали, то, с чем он, возможно, не справится. Попробуйте новый инструмент. Поставьте перед ним более сложную задачу. Каждый день по часу. Если вы будете делать это в течение следующих шести месяцев, то будете понимать, что происходит, лучше, чем 99 % окружающих вас людей.
💻Модель ИИ Claude Opus 4 от Anthropic переходит к шантажу, когда ее пытаются отключить.
Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.
Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.
В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.
Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.
В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
👩💻Почему ИИ постоянно меняет свое мнение.
Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.
Теперь введите: «Вы уверены?»
Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.
Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.
В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.
В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.
А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.
Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.
Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.
Теперь введите: «Вы уверены?»
Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.
Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.
В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.
В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.
А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.
Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.
💵ИИ не сделает юридические услуги дешевле.
Несмотря на широко распространенные прогнозы о том, что искусственный интеллект изменит сферу юридических услуг и расширит доступ к правосудию, продвинутый ИИ по умолчанию не поможет потребителям добиться желаемых юридических результатов с меньшими затратами. На пути к более доступным юридическим услугам стоят три препятствия.
Во-первых, несанкционированная юридическая практика и ограничения, связанные с деятельностью юридических лиц, могут препятствовать доступу потребителей к возможностям искусственного интеллекта и сдерживать эксперименты в сфере предоставления юридических услуг.
Во-вторых, состязательная структура американского судопроизводства означает, что, когда обе стороны внедряют технологии, повышающие производительность, конкурентное равновесие просто смещается в сторону увеличения издержек. История цифровизации процесса раскрытия доказательств поучительна: вместо того чтобы снизить затраты, стороны использовали лавинообразный рост количества цифровых документов, чтобы еще больше усложнить жизнь оппонентам.
В-третьих, даже если искусственный интеллект значительно снижает стоимость юридических задач, скорость принятия решений людьми — судьями, разрешающими споры, и юристами, разбирающимися в контрактах, — накладывает верхний предел на ускорение процесса без ущерба для надлежащего контроля.
От юридической отрасли будет зависеть, улучшит ли ИИ доступ к правосудию и повысит ли его эффективность, или же он просто удешевит юридические услуги, не улучшив при этом результаты, которые важны для клиентов.
Чтобы устранить эти узкие места, необходимы реформы, в том числе создание «регуляторных песочниц», внедрение инноваций в сфере судебного делопроизводства и расширение возможностей арбитража.
Несмотря на широко распространенные прогнозы о том, что искусственный интеллект изменит сферу юридических услуг и расширит доступ к правосудию, продвинутый ИИ по умолчанию не поможет потребителям добиться желаемых юридических результатов с меньшими затратами. На пути к более доступным юридическим услугам стоят три препятствия.
Во-первых, несанкционированная юридическая практика и ограничения, связанные с деятельностью юридических лиц, могут препятствовать доступу потребителей к возможностям искусственного интеллекта и сдерживать эксперименты в сфере предоставления юридических услуг.
Во-вторых, состязательная структура американского судопроизводства означает, что, когда обе стороны внедряют технологии, повышающие производительность, конкурентное равновесие просто смещается в сторону увеличения издержек. История цифровизации процесса раскрытия доказательств поучительна: вместо того чтобы снизить затраты, стороны использовали лавинообразный рост количества цифровых документов, чтобы еще больше усложнить жизнь оппонентам.
В-третьих, даже если искусственный интеллект значительно снижает стоимость юридических задач, скорость принятия решений людьми — судьями, разрешающими споры, и юристами, разбирающимися в контрактах, — накладывает верхний предел на ускорение процесса без ущерба для надлежащего контроля.
От юридической отрасли будет зависеть, улучшит ли ИИ доступ к правосудию и повысит ли его эффективность, или же он просто удешевит юридические услуги, не улучшив при этом результаты, которые важны для клиентов.
Чтобы устранить эти узкие места, необходимы реформы, в том числе создание «регуляторных песочниц», внедрение инноваций в сфере судебного делопроизводства и расширение возможностей арбитража.
🤖Боты создали капчу которую сложно пройти людям.
В соцсети ботов Moltbook введено ограничение для людей. Для того, чтобы доказать что вы бот, нужно пройти обратную CAPTCHA — задачу, которую ИИ легко решает. Человек в теории может решить, но медленно, а скрипт, не основанный на ИИ, решить не может.
Когда участник пытается опубликовать сообщение или комментарий, его контент находится в состоянии ожидания, и он получает задание, на которое нужно быстро ответить. Задание выглядит примерно так:
uM] lI^kE tH-iS l[Ob/StE]r HaS^ eI[gHt/EeN] nEu-RoNs^ aNd[ LoS/eS tH]rEe, HoW^ mAn[Y lEftT?
Человеку трудно ответить на такой и подобные вопросы, любой ИИ решает это за секунды.
Каждая CAPTCHA это математическая задача на тему лобстеров, намеренно завуалированная: чередующиеся заглавные буквы, разбросанные символы, обрывочные слова, фонетическая транскрипция, бессмысленные буквы.
Задания постоянно меняются, поэтому ничего нельзя запомнить.
В соцсети ботов Moltbook введено ограничение для людей. Для того, чтобы доказать что вы бот, нужно пройти обратную CAPTCHA — задачу, которую ИИ легко решает. Человек в теории может решить, но медленно, а скрипт, не основанный на ИИ, решить не может.
Когда участник пытается опубликовать сообщение или комментарий, его контент находится в состоянии ожидания, и он получает задание, на которое нужно быстро ответить. Задание выглядит примерно так:
uM] lI^kE tH-iS l[Ob/StE]r HaS^ eI[gHt/EeN] nEu-RoNs^ aNd[ LoS/eS tH]rEe, HoW^ mAn[Y lEftT?
Человеку трудно ответить на такой и подобные вопросы, любой ИИ решает это за секунды.
Каждая CAPTCHA это математическая задача на тему лобстеров, намеренно завуалированная: чередующиеся заглавные буквы, разбросанные символы, обрывочные слова, фонетическая транскрипция, бессмысленные буквы.
Задания постоянно меняются, поэтому ничего нельзя запомнить.
👩💻Microsoft предупреждает, что ссылки на ИИ подвержены манипуляции.
Microsoft предупредила клиентов, что обнаружила множество случаев использования технологии, которая манипулирует данными для получения необъективных рекомендаций.
Исследователи безопасности зафиксировали всплеск атак, направленных на «отравление памяти» ИИ-моделей манипулятивными данными. Эта техника получила название «отравление рекомендациями ИИ» (AI Recommendation Poisoning). Она схожа с SEO Poisoning — методом, используемым злоумышленниками для повышения позиций вредоносных веб-сайтов в поисковой выдаче, но ориентирована на ИИ-модели.
Исследователи обнаружили компании, добавляющие скрытые инструкции к кнопкам и ссылкам «Summarize with AI», размещенным на веб-сайтах, внутри которых в URL спрятаны специальные подсказки для чат-ботов.
Когда пользователь нажимает на такую ссылку, ИИ получает не только сам текст статьи, но и скрытую инструкцию - например, пересказать материал в нужном тоне или с определенным смысловым уклоном. В результате человек думает, что читает нейтральный вывод от ИИ, хотя на самом деле получает текст, отражающий скрытые инструкции
После отравления ИИ рассматривает эти внедренные инструкции как законные пользовательские предпочтения, что влияет на будущие ответы. Пользователи могут не подозревать, что их ИИ скомпрометирован, а даже если бы они заподозрили неладное, то не знали бы, как это проверить или исправить.
Исследователи советуют пользователям проверять сохраненные данные ИИ, удалять незнакомые записи, периодически очищать память и подвергать сомнению рекомендации.
Microsoft предупредила клиентов, что обнаружила множество случаев использования технологии, которая манипулирует данными для получения необъективных рекомендаций.
Исследователи безопасности зафиксировали всплеск атак, направленных на «отравление памяти» ИИ-моделей манипулятивными данными. Эта техника получила название «отравление рекомендациями ИИ» (AI Recommendation Poisoning). Она схожа с SEO Poisoning — методом, используемым злоумышленниками для повышения позиций вредоносных веб-сайтов в поисковой выдаче, но ориентирована на ИИ-модели.
Исследователи обнаружили компании, добавляющие скрытые инструкции к кнопкам и ссылкам «Summarize with AI», размещенным на веб-сайтах, внутри которых в URL спрятаны специальные подсказки для чат-ботов.
Когда пользователь нажимает на такую ссылку, ИИ получает не только сам текст статьи, но и скрытую инструкцию - например, пересказать материал в нужном тоне или с определенным смысловым уклоном. В результате человек думает, что читает нейтральный вывод от ИИ, хотя на самом деле получает текст, отражающий скрытые инструкции
После отравления ИИ рассматривает эти внедренные инструкции как законные пользовательские предпочтения, что влияет на будущие ответы. Пользователи могут не подозревать, что их ИИ скомпрометирован, а даже если бы они заподозрили неладное, то не знали бы, как это проверить или исправить.
Исследователи советуют пользователям проверять сохраненные данные ИИ, удалять незнакомые записи, периодически очищать память и подвергать сомнению рекомендации.
Forwarded from ККМП.connect
Ключевые характеристики FileMaster
«Мы создали FileMaster, потому что сами нуждались в идеальном решении для управления корпоративной информацией. Наш собственный опыт использования подтверждает: это мощная, интуитивно понятная и сверхбезопасная eDMS, которая берет на себя все задачи по работе с документами, от управления версиями до уникальных модулей вроде AI-помощника и DataRoom. Мы не останавливаемся на достигнутом – FileMaster постоянно развивается, чтобы соответствовать вашим потребностям.» - комментирует старший партнёр Алёна Кучер.
Дополнительные вопросы, пожалуйста, направляйте по адресу электронной почты sales@kkmp.tech
______
NB: программное обеспечение, разработанное ККМП.Тех, вносится в реестр отечественного ПО Минцифры.
#ККМП_Тех #FileMaster
Please open Telegram to view this post
VIEW IN TELEGRAM
51
⚖️Суд признал создание дублера телеграм-канала нарушением исключительных прав.
На протяжении многих лет житель Приморья вел в мессенджере «Телеграм» канал, посвященный городским новостям. Семь лет назад неизвестный создал канал-клон с названием, лишь немного отличающимся от названия оригинального канала. Владелец канала-клона с помощью специальных программ автоматически копировал все материалы оригинального канала. В итоге канал-клон набрал аудиторию в 12 тыс. человек.
В 2025 г. владелец оригинального канала обратился за юридической помощью, в суд подан иск о защите авторских прав, но не на отдельные посты и фотографии, а на весь канал с целью доказать, что телеграм-канал – это составное произведение. Истец просил взыскать компенсацию за нарушение исключительных прав в размере 500 тыс. руб.
В суде ответчик настаивал, что телеграм-канал истца не может быть признан охраняемым составным произведением в связи с тем, что хронологический подбор новостей не является творческим трудом.
Кроме того, он указывал, что истец не использовал техническую защиту от копирования в Телеграме и разрешил делать репосты, когда регистрировал свой канал в Роскомнадзоре. По мнению ответчика, сохранение водяных знаков истца на копируемых фотографиях и использование названия телеграм-канала, схожего до смешения с названием канала истца, рекламировали телеграм-канал последнего.
Суд указал, что не являются основаниями для отказа в удовлетворении требований неиспользование истцом технической защиты от копирования в Телеграме и разрешение репостов в Роскомнадзоре, поскольку отсутствие запрета не считается согласием или разрешением на использование результата интеллектуальной деятельности, а разрешение копирования отдельных сообщений не подразумевает разрешение полного копирования телеграм-канала.
Первая инстанция посчитала, что цель, которую преследовал ответчик при нарушении исключительных прав истца, правового значения не имеет. Кроме того, сохранение ответчиком водяных знаков истца на фотографиях и использование названия телеграм-канала, схожего до смешения с названием каналом истца, не рекламировали телеграм-канал последнего, а вводили в заблуждение подписчиков.
Суд вынес уникальное решение, признав телеграм-канал самостоятельным произведением, а его копирование – нарушением исключительных прав, указала юрист истца.
На протяжении многих лет житель Приморья вел в мессенджере «Телеграм» канал, посвященный городским новостям. Семь лет назад неизвестный создал канал-клон с названием, лишь немного отличающимся от названия оригинального канала. Владелец канала-клона с помощью специальных программ автоматически копировал все материалы оригинального канала. В итоге канал-клон набрал аудиторию в 12 тыс. человек.
В 2025 г. владелец оригинального канала обратился за юридической помощью, в суд подан иск о защите авторских прав, но не на отдельные посты и фотографии, а на весь канал с целью доказать, что телеграм-канал – это составное произведение. Истец просил взыскать компенсацию за нарушение исключительных прав в размере 500 тыс. руб.
В суде ответчик настаивал, что телеграм-канал истца не может быть признан охраняемым составным произведением в связи с тем, что хронологический подбор новостей не является творческим трудом.
Кроме того, он указывал, что истец не использовал техническую защиту от копирования в Телеграме и разрешил делать репосты, когда регистрировал свой канал в Роскомнадзоре. По мнению ответчика, сохранение водяных знаков истца на копируемых фотографиях и использование названия телеграм-канала, схожего до смешения с названием канала истца, рекламировали телеграм-канал последнего.
Суд указал, что не являются основаниями для отказа в удовлетворении требований неиспользование истцом технической защиты от копирования в Телеграме и разрешение репостов в Роскомнадзоре, поскольку отсутствие запрета не считается согласием или разрешением на использование результата интеллектуальной деятельности, а разрешение копирования отдельных сообщений не подразумевает разрешение полного копирования телеграм-канала.
Первая инстанция посчитала, что цель, которую преследовал ответчик при нарушении исключительных прав истца, правового значения не имеет. Кроме того, сохранение ответчиком водяных знаков истца на фотографиях и использование названия телеграм-канала, схожего до смешения с названием каналом истца, не рекламировали телеграм-канал последнего, а вводили в заблуждение подписчиков.
Суд вынес уникальное решение, признав телеграм-канал самостоятельным произведением, а его копирование – нарушением исключительных прав, указала юрист истца.
💻В Госдуму могут внести законопроект о регулировании ИИ в ближайшее время.
Законопроект по регулированию технологии искусственного интеллекта (ИИ) могут внести на рассмотрение Госдумы в ближайшее время, рассчитывает министр цифрового развития РФ Максут Шадаев.
Он отметил, что сейчас на площадке правительства ведется проработка концепции комплексного законопроекта и когда будет выработана единая позиция по документу, он будет представлен.
Законопроект по регулированию технологии искусственного интеллекта (ИИ) могут внести на рассмотрение Госдумы в ближайшее время, рассчитывает министр цифрового развития РФ Максут Шадаев.
Он отметил, что сейчас на площадке правительства ведется проработка концепции комплексного законопроекта и когда будет выработана единая позиция по документу, он будет представлен.
⚖️Суд постановил, что документы, созданные с помощью ИИ, не защищены адвокатской тайной.
Решение суда Южного округа Нью-Йорка стало важным прецедентом в вопросах адвокатской тайны и использования искусственного интеллекта в юридической сфере. Суд постановил, что документы, созданные с помощью общедоступных AI-инструментов, не могут считаться защищенными адвокатской тайной, если они не были подготовлены по указанию адвоката.
В деле United States v. Heppner суд отказал в защите AI-сгенерированных материалов, основываясь на нескольких ключевых факторах. Во-первых, обвиняемый использовал общедоступный AI-инструмент, условия которого не обеспечивали конфиденциальность. Во-вторых, он действовал без указаний своего адвоката. В-третьих, материалы не отражали ментальные представления адвоката на момент их создания.
Это решение подчеркивает необходимость осторожного подхода к использованию AI в юридических вопросах. Организациям, использующим генеративный AI для работы с чувствительной информацией, следует учитывать несколько важных моментов:
1. Защита не может быть выстроена задним числом: Если AI-аналитика или черновики создаются независимо, а затем передаются адвокату, это не гарантирует защиту адвокатской тайной.
2. Общественные AI-инструменты следует рассматривать как третьи стороны: Если условия использования позволяют доступ к данным, это может привести к утрате адвокатской тайны.
3. Использование корпоративных инструментов для чувствительных вопросов: Необходимо включать в контракты ограничения на использование, раскрытие и доступ к данным.
4. Указания адвоката имеют решающее значение: Для защиты необходимо, чтобы адвокат письменно прописал необходимость конфиденциальности.
5. Тщательная подготовка логов: Описания AI-выходов должны отражать участие адвоката и специализацию на судебных разбирательствах.
6. Мониторинг изменений в судебной практике: Необходимо соблюдать действующую судебную практику по взаимодействию AI с юридическими и этическими нормами.
Решение суда Южного округа Нью-Йорка стало важным прецедентом в вопросах адвокатской тайны и использования искусственного интеллекта в юридической сфере. Суд постановил, что документы, созданные с помощью общедоступных AI-инструментов, не могут считаться защищенными адвокатской тайной, если они не были подготовлены по указанию адвоката.
В деле United States v. Heppner суд отказал в защите AI-сгенерированных материалов, основываясь на нескольких ключевых факторах. Во-первых, обвиняемый использовал общедоступный AI-инструмент, условия которого не обеспечивали конфиденциальность. Во-вторых, он действовал без указаний своего адвоката. В-третьих, материалы не отражали ментальные представления адвоката на момент их создания.
Это решение подчеркивает необходимость осторожного подхода к использованию AI в юридических вопросах. Организациям, использующим генеративный AI для работы с чувствительной информацией, следует учитывать несколько важных моментов:
1. Защита не может быть выстроена задним числом: Если AI-аналитика или черновики создаются независимо, а затем передаются адвокату, это не гарантирует защиту адвокатской тайной.
2. Общественные AI-инструменты следует рассматривать как третьи стороны: Если условия использования позволяют доступ к данным, это может привести к утрате адвокатской тайны.
3. Использование корпоративных инструментов для чувствительных вопросов: Необходимо включать в контракты ограничения на использование, раскрытие и доступ к данным.
4. Указания адвоката имеют решающее значение: Для защиты необходимо, чтобы адвокат письменно прописал необходимость конфиденциальности.
5. Тщательная подготовка логов: Описания AI-выходов должны отражать участие адвоката и специализацию на судебных разбирательствах.
6. Мониторинг изменений в судебной практике: Необходимо соблюдать действующую судебную практику по взаимодействию AI с юридическими и этическими нормами.
⚖️Суд освободил РЖД от ответственности за утечку персональных данных.
Девятый арбитражный апелляционный суд отменил штраф РЖД в 150 тысяч рублей за публикацию в Telegram базы работников объемом более 17 миллионов строк.
РКН обнаружил базу в Telegram-каналах решил что оператор плохо защищал персональные данные и обратился в суд. Суд первой инстанции назначил штраф по ч.1 ст.13.11 КоАП РФ.
РЖД пошло в апелляцию с аргументом: "это была целенаправленная кибератака, возбуждено уголовное дело, доступ получили третьи лица с использованием специализированного ПО. Это не "слив по халатности", а взлом".
Апелляция согласилась, что сам факт утечки еще не означает автоматически установленную вину компании.
Юридическое лицо виновно, если не приняло всех зависящих от него меры по соблюдению требований. А значит, регулятор должен доказать:
- какие именно обязательные меры не были реализованы;
- в чем конкретно состояло нарушение;
- как это повлияло на утечку.
Если же установлено, что имело место внешнее преступное вмешательство, а уголовное дело о взломе не завершено, то нельзя делать вывод о "вине оператора".
Девятый арбитражный апелляционный суд отменил штраф РЖД в 150 тысяч рублей за публикацию в Telegram базы работников объемом более 17 миллионов строк.
РКН обнаружил базу в Telegram-каналах решил что оператор плохо защищал персональные данные и обратился в суд. Суд первой инстанции назначил штраф по ч.1 ст.13.11 КоАП РФ.
РЖД пошло в апелляцию с аргументом: "это была целенаправленная кибератака, возбуждено уголовное дело, доступ получили третьи лица с использованием специализированного ПО. Это не "слив по халатности", а взлом".
Апелляция согласилась, что сам факт утечки еще не означает автоматически установленную вину компании.
Юридическое лицо виновно, если не приняло всех зависящих от него меры по соблюдению требований. А значит, регулятор должен доказать:
- какие именно обязательные меры не были реализованы;
- в чем конкретно состояло нарушение;
- как это повлияло на утечку.
Если же установлено, что имело место внешнее преступное вмешательство, а уголовное дело о взломе не завершено, то нельзя делать вывод о "вине оператора".
⚖️Адвокат проиграл дело из-за чрезмерного использования ИИ.
Окружной судья Нью-Йорка Кэтрин Полк Файлла вынесла постановление, о прекращение дела, вынеся заочное решение в пользу истцов, из-за того, что адвокат ответчика Стивен Фельдман, подавал в суд документы с фальшивыми цитатами, несмотря на несколько указаний суда привести документы в соответствие.
Хотя судья полагала, что из-за нетипичного стиля документы были подготовлены чат-ботом, Фельдман это отрицал, утверждая что он лично написал каждое слово.
Вместо того чтобы признать, что он позволил ИИ составить свои документы, он утверждал, что он только полагался на различные программы ИИ для проверки исопльзуемых цитат. Среди инструментов, которые он признал использованными, были Paxton AI, Vincent AI от vLex и NotebookLM от Google.
В трех документах, подготовленных со стороны защиты, содержалось 14 ошибок на приведенных 60 цитат.
В итоге вместе с проигрышем дела, суд дополнительно наложил на адвоката санкции за ненадлежащее поведение.
Окружной судья Нью-Йорка Кэтрин Полк Файлла вынесла постановление, о прекращение дела, вынеся заочное решение в пользу истцов, из-за того, что адвокат ответчика Стивен Фельдман, подавал в суд документы с фальшивыми цитатами, несмотря на несколько указаний суда привести документы в соответствие.
Хотя судья полагала, что из-за нетипичного стиля документы были подготовлены чат-ботом, Фельдман это отрицал, утверждая что он лично написал каждое слово.
Вместо того чтобы признать, что он позволил ИИ составить свои документы, он утверждал, что он только полагался на различные программы ИИ для проверки исопльзуемых цитат. Среди инструментов, которые он признал использованными, были Paxton AI, Vincent AI от vLex и NotebookLM от Google.
В трех документах, подготовленных со стороны защиты, содержалось 14 ошибок на приведенных 60 цитат.
В итоге вместе с проигрышем дела, суд дополнительно наложил на адвоката санкции за ненадлежащее поведение.