LegalTech – Telegram
LegalTech
15.9K subscribers
66 photos
9 videos
12 files
1.62K links
Использование биометрии, нейронные сети, ИИ, Algorithmic Governance – и другие тренды LegalTech.

По вопросам сотрудничества @milada2
Автор @ladgn

https://knd.gov.ru/license?id=67345e16e9b24e448c62e1fa&registryType=bloggersPermission
Download Telegram
🇰🇷В Южной Корее приняли закон об ИИ.

Разработчики указывают, что что это первый в мире "всеобъемлющий закон", а не совокупность правил из различных нормативных актов. Документ содержит правовые рамки и требования к продуктам генеративных моделей искусственного интеллекта, которым должны подчиняться технологические компании, а также штрафы за их нарушения.

Документ вводит понятие «высокорискованного» ИИ. Речь идет о моделях, применяющихся в ядерной безопасности, производстве питьевой воды, транспорте, здравоохранении. Закон обязывает компании обеспечить человеческий контроль при использовании подобных моделей.

Устанавливается, что участники рынка должны заблаговременно уведомлять пользователей о продуктах или услугах, использующих «высокорискованный» или генеративный ИИ. Контент, созданный генеративным ИИ, должен содержать водяные знаки, указывающие на его происхождение.

За нарушения закона компаниям могут грозить штрафы в размере до 30 млн вон (около 1,55 млн руб.). Однако правительство планирует ввести льготный период на год для помощи частному сектору в адаптации. В это время штрафы накладываться не будут.

Закон также устанавливает, что правительство должно содействовать развитию индустрии ИИ. Министр науки и информационно-коммуникационных технологий обязан представлять план политики в этом направлении каждые три года. Закон также учреждает новый орган, который будет принимать решения в сфере ИИ, — Президентский совет по национальной стратегии в области искусственного интеллекта.
💻В Госдуму внесли законопроект об уголовной ответственности за дипфейки.

Группа депутатов предложила сделать уголовно наказуемым незаконное создание дипфейков путем автоматизированной обработки данных.

Согласно статье 272.1 Уголовного кодекса, сейчас ответственность наступает за незаконные использование или передачу (распространение, предоставление, доступ), сбор или хранение компьютерной информации с персональными данными, если они были получены в результате взлома или иного незаконного доступа. За это может грозить штраф до 300 тысяч рублей, принудительные работы или лишение свободы на срок до четырех лет.

Парламентарии предложили внести в УК РФ понятие «автоматизированная обработка» как самостоятельное преступное деяние, благодаря чему к ответственности можно будет привлечь за сам факт незаконной алгоритмической обработки чужих персональных данных — даже если они не были впоследствии распространены или сохранены.

Авторы инициативы указали, что термин «автоматизированная обработка» является законодательно устоявшимся и согласуется с понятийным аппаратом Закона «О персональных данных», что гарантирует единство правового пространства и корректное применение уголовно-правовой нормы.
💻OpenAI представила платформу Frontier — для замены людей ИИ-агентами.

OpenAI запускает новую платформу под названием OpenAI Frontier. В описании указано что, она поможет бизнесу «создавать, разворачивать и контролировать» ИИ-агентов.

«Frontier дает агентам те же навыки, которые нужны людям для успеха в работе: общий контекст, ввод в должность, практическое обучение с обратной связью, а также четкие права доступа и границы». Сходство неслучайно: в компании поясняют, что продукт вдохновлен тем, как предприятия уже умеют масштабировать человеческие команды.

ИИ-агенты Frontier умеют работать с файлами, писать код, использовать инструменты и рассуждать над данными в открытой среде исполнения. При этом они накапливают «память» — превращая прошлые взаимодействия в контекст, который улучшает их работу со временем.

Платформа совместима не только с агентами OpenAI, но и с агентами от Google, Microsoft и даже Anthropic. Среди первых клиентов — HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber, Cisco, BBVA.

«К концу года большая часть цифровой работы в ведущих компаниях будет направляться людьми и исполняться целыми флотилиями агентов», – утверждает Фиджи Симо, глава направления приложений OpenAI.
💻Правительство определилось с концепцией регулирования искусственного интеллекта.

Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и переведен в фазу технико-юридического оформления. Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.

Российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.

Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении.

Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности.

Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).

Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.

В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.

Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
Компания «Гарант» предлагает вам принять участие в уникальном событии — LegalTech Day #3.

LegalTech Day – однодневная конференция, посвящённая передовым технологиям и их внедрению в юридическую практику. В центре внимания – демонстрация живых инструментов и будущее юридической практики.

В конференции участвуют представители таких лидеров ИТ-сферы России, как «Яндекс», МТС, HeadHunter, «Технологии доверия», компания «Гарант» и другие.

Конференция разделена на четыре блока, каждый из которых ориентирован на информацию об изменениях, автоматизации и повышении эффективности работы юристов.

• Конференция состоится 27 февраля 2026 года.
• Время проведения с 10:00 до 17:00 мск.
• Формат участия: бесплатная онлайн-трансляция.

Регистрируйтесь прямо сейчас.
#реклама
О рекламодателе
💳Discord начнёт требовать удостоверение личности для полного доступа.

Платформа Discord объявила о глобальном внедрении системы проверки возраста пользователей. В соответствии с этим все учётные записи пользователей будут переведены в режим, соответствующий уровню доступа для подростковой аудитории. Для открытия полного доступа пользователям потребуется подтвердить свой возраст.

Без прохождения процедуры верификации нельзя будет получить доступ к серверам и каналам с возрастным ограничением, вести прямые трансляции, а также видеть контент с пометкой 18+. В дополнение к этому пользователи будут получать предупреждение в случае поступления запроса на добавление в друзья от незнакомых лиц, а сообщения от незнакомцев будут автоматически перенаправляться в отдельный ящик.

В соответствии с новыми правилами Discord пользователи могут подтвердить возраст через сканирование лица или же путём предоставления документа, удостоверяющего личность. В первом случае для определения возраста используется алгоритм на базе искусственного интеллекта. В случае если пользователь не согласен с результатами такой проверки, её можно обжаловать с помощью фотографии удостоверения личности.
💻Утверждена Концепция токенизации активов.

Минфином России совместно с федеральными органами исполнительной власти и Банком России разработана Концепция токенизации активов реального сектора экономики РФ. Документ утвержден Правительством РФ и сейчас Министерство ведет работу над ее реализацией.

На первом этапе реализации Концепции возможно пилотирование токенизации прав собственности на различные виды имущества и исключительные права на результаты интеллектуальной деятельности, сделки с которыми не подлежат государственной регистрации. Еще одно направление – токенизация документарных ценных бумаг и долей в уставных капиталах обществ с ограниченной ответственностью.

Реализация концепции создаст современную и конкурентоспособную систему токенизации права собственности на активы реального сектора экономики. Это будет способствовать диверсификация инструментов инвестиций. Появятся новые классы активов, инвестиционные инструменты и каналы для инвестиционных операций.

Кроме того, повысится ликвидность активов за счет токенизации, а также доступность индивидуальных инвестиционных стратегий для всех инвесторов – блокчейн заменит финансовых посредников, сократит транзакционные издержки. Применение технологии автоматизирует исполнение приказов и инвестиционных решений, снизит необходимость вовлечения человека и вероятность операционных ошибок.
💻Происходит что-то Большое.

Один из разработчиков ИИ из Кремниевой Долины написал эссе Something Big Is Happening. Вот некоторые интересные моменты:

5 февраля, две крупные лаборатории, занимающиеся разработкой искусственного интеллекта, в один и тот же день выпустили новые модели: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic.

GPT-5.3 Codex не просто выполняет инструкции, она принимала разумные решения. В ней впервые появилось что-то похожее на суждение. На вкус. Необъяснимое ощущение того, что ты поступаешь правильно, — то, чего, по мнению людей, никогда не будет у ИИ.

Если вы пользовались ChatGPT в 2023 году или в начале 2024-го и думали: «Он все выдумывает» или «Это не так уж впечатляюще», — вы были правы. Ранние версии действительно были ограничены в возможностях. Они выдавали желаемое за действительное. Это было два года назад. По меркам ИИ, это уже древняя история.

Отчасти проблема заключается в том, что большинство людей используют бесплатную версию инструментов на основе искусственного интеллекта. Бесплатная версия отстает от платной более чем на год. Оценивать искусственный интеллект на примере бесплатного ChatGPT — все равно что оценивать состояние смартфонов по кнопочному телефону.

Я думаю о своем друге, юристе. Я все время советую ему попробовать использовать ИИ в своей фирме, а он все время находит причины, по которым это не сработает. ИИ не создан для его специализации, он допустил ошибку при тестировании, он не понимает нюансов его работы. Но партнеры из крупных юридических фирм уже опробовали текущие версии и поняли, к чему все идет.

Один из них, управляющий партнер крупной фирмы, каждый день по несколько часов работает с ИИ. Он сказал мне, что это все равно что иметь под рукой команду юристов. Он использует ИИ не потому, что это игрушка. Он использует его, потому что это работает. И он сказал, что каждые пару месяцев его работа становится все более автоматизированной. Он сказал, что, если так пойдет и дальше, он ожидает, что вскоре машина сможет делать большую часть того, что делает он... а он — управляющий партнер с многолетним опытом.

Как быстро это происходит на самом деле.
В 2022 году искусственный интеллект не мог уверенно выполнять базовые арифметические действия.
К 2023 году он мог бы сдать экзамен на адвоката.
К 2024 году он мог бы писать работающее программное обеспечение и объяснять научные концепции на уровне аспиранта.
К концу 2025 года некоторые из лучших инженеров мира заявили, что передали большую часть своей работы по написанию кода ИИ.
5 февраля 2026 года появились новые модели, по сравнению с которыми всё, что было до них, казалось пережитком прошлого.
Если вы не пользовались ИИ в последние несколько месяцев, то то, что существует сегодня, покажется вам совершенно неузнаваемым.

Дарио Амодей, который, пожалуй, больше всех в индустрии искусственного интеллекта заботится о безопасности, публично заявил, что в течение одного-пяти лет ИИ уничтожит 50% рабочих мест для «белых воротничков» начального уровня.

Юридическая работа. ИИ уже может читать договоры, обобщать судебную практику, составлять краткие обзоры и проводить юридические исследования на уровне, не уступающем младшим юристам. Упомянутый мной управляющий партнер использует ИИ не ради развлечения. Он использует его, потому что ИИ справляется со многими задачами лучше его сотрудников.
💻Происходит что-то Большое. Продолжение.

Начните серьезно использовать искусственный интеллект, а не просто как поисковую систему. Подпишитесь на платную версию Claude или ChatGPT. Это обойдется вам в 20 долларов в месяц. Но сразу обратите внимание на два важных момента. Во-первых, убедитесь, что вы используете лучшую из доступных моделей, а не ту, что установлена по умолчанию. В таких приложениях по умолчанию часто используется более быстрая и примитивная модель. Зайдите в настройки или в раздел выбора моделей и выберите наиболее подходящую. Сейчас это GPT-5.2 в ChatGPT или Claude Opus 4.6 в Claude, но они меняются каждые пару месяцев.

Во-вторых, и это гораздо важнее: не просто задавайте ему быстрые вопросы. Это ошибка, которую совершает большинство людей. Они относятся к нему как к Google, а потом удивляются, почему вокруг него такой ажиотаж. Вместо этого используйте его в своей реальной работе. Если вы юрист, дайте ему контракт и попросите найти все пункты, которые могут навредить вашему клиенту.

И не думайте, что он не справится с чем-то только потому, что задача кажется слишком сложной. Попробуйте. Если вы юрист, не ограничивайтесь использованием ИИ для быстрого поиска ответов на вопросы. Дайте ему целый контракт и попросите составить встречное предложение.

Первая попытка может оказаться неидеальной. Ничего страшного. Попробуйте еще раз. Переформулируйте свой вопрос. Добавьте больше контекста. Попробуйте еще раз. Возможно, вы удивитесь, когда увидите, что сработало. И вот что нужно помнить: если сегодня что-то хоть как-то работает, можно почти с уверенностью сказать, что через полгода все будет почти идеально. Траектория движения только в одну сторону.

Тот, кто придет на совещание и скажет: «Я использовал искусственный интеллект, чтобы провести этот анализ за час, а не за три дня», — станет самым ценным сотрудником в компании. Не когда-нибудь. А прямо сейчас. Изучайте эти инструменты. Станьте профессионалом.

Подумайте о том, на каком этапе вы находитесь, и сосредоточьтесь на том, что заменить сложнее всего. Для вытеснения некоторых вещей искусственному интеллекту потребуется больше времени. Отношения и доверие, которые выстраиваются годами. Работа, требующая физического присутствия. Должности, предполагающие лицензированную ответственность: должности, на которых кто-то все еще должен ставить подпись, нести юридическую ответственность, выступать в суде. Отрасли с жесткими нормативными требованиями, где внедрение новых технологий будет тормозиться из-за соблюдения нормативных требований, ответственности и институциональной инерции. Ничто из этого не является надежной защитой. Но это дает время.

Выработайте привычку адаптироваться. Это, пожалуй, самое важное. Конкретные инструменты не так важны, как способность быстро осваивать новые. Искусственный интеллект будет постоянно меняться, и очень быстро. Модели, которые существуют сегодня, устареют уже через год. Рабочие процессы, которые люди выстраивают сейчас, придется перестраивать. Успеха добьются не те, кто освоил один инструмент. Успеха добьются те, кто привык к темпам изменений. Возьмите за правило экспериментировать. Пробуйте что-то новое, даже если то, что вы делаете, работает.

Вот простое обязательство, которое позволит вам опередить почти всех: каждый день по часу экспериментировать с искусственным интеллектом. Не просто пассивно читать о нем. А использовать его. Каждый день пробуйте заставить его делать что-то новое... то, чего вы раньше не делали, то, с чем он, возможно, не справится. Попробуйте новый инструмент. Поставьте перед ним более сложную задачу. Каждый день по часу. Если вы будете делать это в течение следующих шести месяцев, то будете понимать, что происходит, лучше, чем 99 % окружающих вас людей.
💻Модель ИИ Claude Opus 4 от Anthropic переходит к шантажу, когда ее пытаются отключить.

Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.

Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.

В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
👩‍💻Почему ИИ постоянно меняет свое мнение.

Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.

Теперь введите: «Вы уверены?»

Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.

Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.

В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.

В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.

А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.

Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.
💵ИИ не сделает юридические услуги дешевле.

Несмотря на широко распространенные прогнозы о том, что искусственный интеллект изменит сферу юридических услуг и расширит доступ к правосудию, продвинутый ИИ по умолчанию не поможет потребителям добиться желаемых юридических результатов с меньшими затратами. На пути к более доступным юридическим услугам стоят три препятствия.

Во-первых, несанкционированная юридическая практика и ограничения, связанные с деятельностью юридических лиц, могут препятствовать доступу потребителей к возможностям искусственного интеллекта и сдерживать эксперименты в сфере предоставления юридических услуг.

Во-вторых, состязательная структура американского судопроизводства означает, что, когда обе стороны внедряют технологии, повышающие производительность, конкурентное равновесие просто смещается в сторону увеличения издержек. История цифровизации процесса раскрытия доказательств поучительна: вместо того чтобы снизить затраты, стороны использовали лавинообразный рост количества цифровых документов, чтобы еще больше усложнить жизнь оппонентам.

В-третьих, даже если искусственный интеллект значительно снижает стоимость юридических задач, скорость принятия решений людьми — судьями, разрешающими споры, и юристами, разбирающимися в контрактах, — накладывает верхний предел на ускорение процесса без ущерба для надлежащего контроля.

От юридической отрасли будет зависеть, улучшит ли ИИ доступ к правосудию и повысит ли его эффективность, или же он просто удешевит юридические услуги, не улучшив при этом результаты, которые важны для клиентов.

Чтобы устранить эти узкие места, необходимы реформы, в том числе создание «регуляторных песочниц», внедрение инноваций в сфере судебного делопроизводства и расширение возможностей арбитража.