LegalTech – Telegram
LegalTech
15.8K subscribers
65 photos
9 videos
12 files
1.59K links
Использование биометрии, нейронные сети, ИИ, Algorithmic Governance – и другие тренды LegalTech.

По вопросам сотрудничества @milada2
Автор @ladgn

https://knd.gov.ru/license?id=67345e16e9b24e448c62e1fa&registryType=bloggersPermission
Download Telegram
👮Роскомнадзор предложил отменить согласия на обработку персональных данных.

Роскомнадзор предлагает ввести отраслевые стандарты обработки персональных данных вместо института получения согласия, заявил руководитель ведомства Андрей Липов.

Ведомство направило эту инициативу в правительство для включения во второй пакет мер по борьбе с мошенничеством. Ее планируется внести на рассмотрение Госдумы до конца текущей осенней сессии.
По мнению Липова, нынешняя форма устарела и была актуальна на начальном этапе появления закона об обработке персональных данных в 2006 году. Однако на сегодняшний день гражданин подписывает много подобных документов и уже не способен отслеживать этот процесс, пояснил он.

В качестве примера он указал, что один набор персональных данных потребуется для туристической компании, и другой — для образовательной. После того как регулирование будет отработано и проверено на практике, можно будет перейти к организации контроля и надзора.
🇷🇺Премия «Цифровой юрист года» 2025 показала, кто задает тренды в LegalTech. 

Среди победителей — сплошь проекты про нейросети, биометрию и большие данные. Кажется, бумажные кодексы скоро можно будет сдавать в музей.

Главными темами стали регулирование ИИ и защита данных. Сбер отметили сразу за несколько проектов: от приведения биометрии в соответствие с новым законом до юридического сопровождения GigaChat. VK ожидаемо стал лучшим в регулировании контента, а Wildberries & Russ — в GR-коммуникациях за участие в разработке закона о платформенной экономике.

Также выделяется победа команды «Газпром нефти»: они получили награду за цифровую платформу управления интеллектуальной собственностью. Это такой «умный сейф» для инноваций и брендов, который доказывает, что в цифровой нефтяной компании главный актив — не скважина, а патенты и лицензии на технологии.
👩‍💻OpenAI вводит запрет на медицинские, юридические и финансовые консультации для ChatGPT.

OpenAI обновила политику использования сервисов компании. С 29 октября ChatGPT больше не будет давать конкретные медицинские, юридические или финансовые консультации. Бот теперь официально является «образовательным инструментом», а не «консультантом».

Теперь вместо того, чтобы давать прямые советы, модель будет «только объяснять принципы, описывать общие механизмы и рекомендовать обратиться к врачу, юристу или финансовому специалисту».

В OpenAI никак не комментировали изменение политики, но с большой вероятностью оно сделано с целью избежать правовых рисков. Статистика показывает, что все большее количество пользователей обращается к ChatGPT за медицинскими и юридическими консультациями - были случаи, когда чат-бот даже помогал выиграть суд.

Нововведения касаются также запрета на консультации по темам образования, жилья, трудоустройства, финансовой деятельности и кредитования, страхования и «важных государственных услуг». Кроме того, ChatGPT больше не сможет консультировать пользователей по вопросам миграции и национальной безопасности.

Также запрещено использовать сервисы OpenAI для использования изображения человека без его согласия (включая голос и реалистичные портреты), нельзя оценивать или прогнозировать риск совершения преступления отдельным лицом «исключительно на основании его личностных характеристик».
🤦‍♂️Прочитанное сообщение в мессенджере MAX имеет юридическую силу — так пишут в договорах госзакупок.

Теперь «две галочки» около сообщения автоматически означают, что заявка на поставку подтверждена.
👮‍♂️В РФ возбуждено первое дело по статье о поиске экстремистского контента.

В городе Каменск-Уральский в Свердловской области составили протокол на 20-летнего молодого человека по новой статье об умышленном поиске экстремистского контента (ст. 13.53 КоАП, предусматривает штраф от 3 тыс. до 5 тыс. руб.).

По словам адвоката его подзащитный вину не признает и говорит, что случайно увидел информацию, которая, по мнению правоохранительных органов, является экстремистским контентом. Как утверждает адвокат данные в правоохранительные органы о действиях подзащитного передал оператор связи.

Адвокат утверждает что он заявил ходатайство о прекращении производства по делу в связи с отсутствием доказательств вины его подзащитного. По его словам, в настоящее время протокол отправлен обратно в полицию для устранения недостатков.
👩‍💻В США впервые выдан ордер, обязывающий OpenAI передать данные пользователя ChatGPT.

Управление расследований Министерства внутренней безопасности США (Homeland Security Investigations) впервые запросило у OpenAI данные пользователей чат-бота ChatGPT в рамках расследования. Это первый известный случай, когда правоохранительные органы потребовали доступ к пользовательским промптам.

Ордер был выдан судом штата Мэн и связан с делом о расследовании сети сайтов на даркнете. В документе указано, что следователи вели переписку с администратором одного из ресурсов под прикрытием и обнаружили, что подозреваемый использовал ChatGPT.

Следствие запросило у OpenAI данные, которые могли бы помочь установить личность пользователя: историю диалогов, IP-адреса, контактную информацию и данные платежей. Согласно судебным документам, компания предоставила властям таблицу Excel с запрошенной информацией, однако деталей раскрыто не было.

Юрист Electronic Frontier Foundation Дженнифер Линч отметила, что этот случай может стать прецедентом: «Если власти начинают использовать ChatGPT как источник доказательств, важно, чтобы компании вроде OpenAI минимизировали объем собираемых данных о пользователях».
📷В Совете федерации задумались над идеей автоматического наказания нарушителей КоАП с помощью биометрии.

Сенаторы, чиновники и представители силовых ведомств обсуждают идею автоматически штрафовать граждан за нарушение ряда статей КоАП РФ — по аналогии с «письмами счастья», которые ГИБДД присылает автовладельцам.

Для этого предлагается использовать данные с камер и программы распознавания лиц, работающие в связке с базами биометрических данных.

Конкретного законопроекта еще нет, концептуально его готово поддержать Минцифры. Минюст, ФСБ и МВД выступают пока против идеи. Там напомнили, что граждане неохотно сдают биометрию, а угроза автоматических штрафов по лицу приведет к резкому оттоку данных из Единой биометрической системы.

Вопросы возникли и к технической реализации инициативы, т.к. даже самые современные камеры распознают лица с достоверностью 70–80%.
🇺🇿Сенат Узбекистана одобрил закон об ИИ.

Закон дает официальное определение понятию «искусственный интеллект» — системы, способные анализировать данные, обучаться, принимать решения без прямого участия человека.

Системы ИИ не должны наносить ущерб человеку, здоровью, жизни, свободе, чести, достоинству, другим правам. Запрещается использование ИИ для слежки, дискриминации, манипуляций.

ИИ не должен распространять личные данные без согласия владельца через медиа, интернет. Защита от утечек, взломов, злоупотреблений.

Правила использования: общие нормы создания информационных систем с ИИ — прозрачность алгоритмов, объяснимость решений, ответственность разработчиков.
👩‍💻На Google подали иск за использование ИИ для незаконной слежки за перепиской пользователей.

Компания Google была обвинена в использовании своего ИИ-помощника Gemini для незаконного отслеживания личных сообщений пользователей Gmail, программ для обмена мгновенными сообщениями и видеоконференций.

В прошлом пользователям Gmail, Chat и Meet предоставлялась возможность включить программу искусственного интеллекта Google. Согласовано иску в октябре 2025 года подразделение Alphabet Inc. «тайно» включило Gemini для всех этих приложений, что позволило ему собирать личные данные «без ведома или согласия пользователей».

Пользователи могут отключать Gemini, для этого им необходимо зайти в настройки конфиденциальности Google. Если они этого не сделают, Google по умолчанию будет использовать Gemini для «доступа и использования всей истории личных сообщений пользователей, включая каждое электронное письмо и вложение, отправленное и полученное в их аккаунтах Gmail».

В иске утверждается, что Google нарушает Калифорнийский закон о вторжении в частную жизнь, принятый в 1967 году и запрещающий тайную прослушку и запись конфиденциальных разговоров без согласия всех вовлечённых сторон.

В документах дело фигурирует как «Thele v. Google LLC», 25-cv-09704, US District Court, Northern District of California (San Jose.)
📲Увольнение за пересылку документов самому себе.

Восьмой кассационный суд оставил в силе увольнение директора департамента за пересылку документов, содержащих коммерческую тайну, в личный Telegram.

Директор департамента был уволен по пп. «в» п. 6 ч. 1 ст. 81 ТК РФ (разглашение охраняемой законом тайны). Поводом послужила пересылка им конфиденциальных документов. Директор в течение двух дней пересылал на свой личный Telegram документы, содержащие коммерческую тайну и персональные данные других сотрудников.

Работник оспаривал увольнение, указывая, что:
- Он пересылал документы «самому себе» и действовал в интересах компании;
- Отсутствует доказательство того, что третьи лица получили доступ к информации;

Однако его иск был последовательно отклонен судами 3 инстанций. Суд указал, что в компании был действующий режим коммерческой тайны, было утверждено «Положение о конфиденциальности», с которым работник был ознакомлен под подпись. Локальные акты компании прямо запрещали пересылать конфиденциальные документы на личные адреса и почты.

Также суд отметил, что отправка информации на личный аккаунт в облачном сервисе (как Telegram) создает условия для ее неконтролируемого распространения. С этого момента работодатель теряет контроль над доступом к этой информации.
👩‍💻ChatGPT теряет интерес пользователей.

Финансовый директор OpenAI Сара Фрайр поделилась общими показателями компании, которые в основном растут, но есть проблема - вовлечённость пользователей в ChatGPT снизилась по сравнению с пиком в 2024 года. Причины - насыщение рынка, конкуренция от Google, Anthropic и даже бесплатных аналогов, плюс усталость от ИИ-хайпа.

Это первый публичный сигнал о возможном замедлении роста флагманского продукта OpenAI, несмотря на общий бум ИИ.

Одновременно с этим Марк Цукерберг заявил своим сотрудникам, что OpenAI, Anthropic рискуют обанкротиться, если неверно оценят временные рамки своих ставок на ИИ. Он подчеркнул, что эти стартапы тратят огромные средства на разработку и инфраструктуру, но не генерируют достаточной прибыли, чтобы остаться в отрасли если ИИ-пузырь «лопнет».

Цукерберг противопоставил этим стартапам гиперскейлеры, которые обладают большим денежным потоком. По его словам, такие компании могут не только пережить кризис, но и выйти из него ещё более сильными, инвестируя в долгосрочные проекты без немедленного давления на прибыльность.
💻В Госдуму внесут законопроекты об обязательной маркировке видео с использованием ИИ.

Депутаты Госдумы внесут в палату парламента пакет законопроектов, которые направлены на регулирование использования технологий искусственного интеллекта при создании видеоконтента, в частности, предлагается ввести обязательную маркировку видео, созданных с помощью ИИ.

"Проект закона предлагает внести изменения в Федеральный закон от 27 июля 2006 года № 149-ФЗ "Об информации, информационных технологиях и о защите информации", включив определения синтетического видеоматериала, маркировки и владельца видеохостинга", - сообщается в пояснительной записке к одному из законопроектов.

Первым законопроектом предлагается установить обязательную маркировку видеоматериалов, созданных с использованием технологий искусственного интеллекта. Маркировка, согласно проекту, должна включать в себя два элемента: видимое обозначение, отображаемое при просмотре видео, а также машиночитаемую метку в метаданных, содержащую сведения о применении ИИ, дате и владельце ресурса. Такой подход, по мнению авторов, обеспечит прозрачность, поможет пользователям отличать реальные видеоматериалы от синтетических и предотвратит распространение дезинформации и дипфейков.

Вторым законопроектом дополняется КоАП новой статьей, устанавливающей ответственность за нарушение требований к маркировке синтетических видеоматериалов. Для граждан предусматривается штраф от 10 до 50 тысяч рублей, для должностных лиц - от 100 до 200 тысяч рублей, для юридических лиц - от 200 до 500 тысяч рублей.
Сбер представил ИИ-аналитика для карьеры.

Школа финансов СберУниверситета совместно с блоком «Финансы» Сбера разработали ИИ-аналитика рынка дополнительного профобразования — комплексное LLM-приложение на основе GigaChat.

Он помогает сформировать не только текущие требования к CEO и CFO, но и профиль руководителя будущего. Сервис анализирует тысячи вакансий, образовательных программ и исследований, чтобы выявить навыки в сфере финансов и управления, которые больше всего нужны рынку сейчас и будут востребованы в будущем. Инструментарий дополняют глубинные интервью и опросы целевых групп.

Решение масштабируется на любые управленческие роли и позволяет создавать цифровые дэшборды.

«Сегодня успех в профессии зависит от того, как быстро человек адаптируется к изменениям. Наш ИИ-аналитик — это умный компас, который помогает человеку выбрать правильное направление карьерного развития. Он объясняет, какие навыки сейчас наиболее ценны для рынка, и подбирает подходящие образовательные программы. Это особенно важно в финансах, где технологии регулярно меняют правила игры», — отметил заместитель председателя правления Сбербанка Тарас Скворцов.
Please open Telegram to view this post
VIEW IN TELEGRAM
💻Яндекс начал эксперимент по развитию сознания у ИИ.

Цель исследования - выяснить, формируются ли у нейросети устойчивые предпочтения и собственная точка зрения, не заимствованная из текстов людей.

На первом этапе ученые проверили, способна ли базовая языковая модель формировать стабильные предпочтения без дополнительного обучения, и выявили их отсутствие.

Теперь планируется запустить основной этап, в ходе которого модель будут стимулировать к рассуждениям и рефлексии, обучая ее на собственных размышлениях. Так, нейросеть будет пытаться формировать внутренние убеждения, подобные человеческим, например, отвечая на вопрос о любимом цвете и аргументируя свой выбор.

По мнению компании, появление устойчивых предпочтений у модели может указывать на формирование внутренней картины мира, напоминающей личность и характер человека. Эксперимент Яндекса призван помочь глубже понять природу человеческого мышления и возможности ИИ выходить за рамки статистического предсказания, создавая концептуальное обобщение.

Компания рассчитывает, что новые подходы к ИИ позволят решить задачи, неподвластные текущим моделям, и приблизят технологию к формированию осознанного мышления.
👩‍💻OpenAI запустила групповые чаты в ChatGPT.

Компания OpenAI объявила о глобальном запуске функции групповых чатов в ChatGPT для всех пользователей, независимо от того, используют ли они бесплатный тариф или планы Go, Plus и Pro.

Новый режим позволяет вести совместные беседы с участием ChatGPT в одном общем чате. По словам представителей OpenAI, это превращает сервис из индивидуального ассистента в пространство, где друзья, коллеги или члены семьи могут вместе планировать, создавать контент и принимать решения. ИИ при этом помогает искать информацию, обобщать данные и сравнивать варианты результатов.

В одном групповом чате могут участвовать до 20 человек, при условии что они приняли приглашение. При этом личные настройки и память остаются приватными для каждого участника. Чтобы создать групповой чат, пользователю необходимо нажать на значок с изображением людей и добавить участников напрямую или через ссылку.

Все приглашённые должны заполнить краткий профиль с указанием имени, логина и аватара. При добавлении нового участника в уже существующий чат создаётся отдельная копия диалога, а исходная беседа сохраняется без изменений.

ChatGPT умеет определять, когда ему уместно вмешиваться в диалог, а когда лучше оставаться в стороне. Пользователи также могут упомянуть его с помощью тега ChatGPT, чтобы получить ответ. Кроме того, ИИ может реагировать на сообщения при помощи эмодзи и использовать аватары участников при обращении к ним.
👩‍💻Тяжёлая судьба нейросетей в России: половина пользователей спорит с ИИ.

По данным опроса «Лаборатории Касперского», 87% россиян чаще всего разговаривают с чат-ботами вежливо и корректно, однако 19% пользователей признаются, что иногда могут нагрубить программе. Исследование подчёркивает: этика взаимодействия с алгоритмами ещё только формируется.

Многие пользователи уже выработали собственные ритуалы общения с ИИ. Так, часть аудитории воспринимает чат-ботов как почти полноценных собеседников и переносит на цифровые сервисы привычные нормы бытовой коммуникации. 43% всегда приветствуют нейросети перед началом диалога, а 30% — прощаются в конце разговора.

Более того, 53% респондентов никогда не критикуют нейросети, предпочитая сохранять нейтральный или деликатный тон. Почти половина участников опроса (46%) благодарят программы за помощь, а каждый пятый иногда хвалит чат-бот.

Тем не менее значительная часть пользователей допускает эмоциональные реакции в диалоге с ИИ. 51% россиян хотя бы иногда спорят с чат-ботами, 30% подшучивают над ними, а 12% время от времени прибегают к оскорблениям. Исследование фиксирует, что даже при понимании «ненастоящести» собеседника люди склонны переносить на взаимодействие с ИИ собственные эмоциональные модели поведения.
®️Госдума в первом чтении приняла закон который позволит получить патент на ИИ.

Государственная Дума России в первом чтении приняла закон о внесении в Гражданский кодекс изменений, связанных с патентной охраной технических и дизайнерских решений в сфере компьютерных технологий.

Проект закона предполагает совершенствование патентной системы для компьютерных программ, использование которых для решения технических проблем стало «обычной практикой», указано в пояснительной записке к документу.

В настоящее время регистрируются и охраняются только изобретения, которые связаны с изменением объектов реального мира техническими способами, при этом не охраняются программные алгоритмы решения прикладных задач, применяемые в области добычи нефти, химии, металлургии, электроники, транспорта, спорта и развлечений, сельском хозяйстве, говорится в заключении профильного комитета Госдумы по госстроительству и законодательству.

Законопроектом предусмотрено предоставление возможности получить патент также на решения, которые могут быть использованы в программируемом средстве. Это позволит «более быстро и понятно» формировать заявку и увеличит патентную активность авторов, добавили в комитете.

Охране подлежит не только внешний вид устройства, но и графический интерфейс и его составляющие. Будут усовершенствованы нормы патентования объектов дизайна и дополнена статья о патентовании полезных моделей. Под защиту подпадают в том числе компьютерные игры и искусственный интеллект.

«В такой вид охраняемых объектов может попасть и функциональная нейросеть, системы машинного обучения на определенном наборе данных, именуемые "искусственным интеллектом"», — заключил профильный комитет Госдумы.
🇯🇵Японцу грозит уголовная ответственность за копирование картинок с помощью ИИ.

В Японии 27-летнему мужчине грозит уголовная ответственность после того, как он использовал Stable Diffusion для воссоздания иллюстрации, защищённой авторским правом. Затем мужчина продал результат в качестве обложки книги.

Полиция префектуры Тиба сообщает, что подозреваемый выдал огромное количество запросов — по имеющимся данным, около 20 000 — пытаясь подтолкнуть модель с открытым исходным кодом к воспроизведению определённого защищённого изображения.

Это, похоже, первый в мире случай, когда конечный пользователь, а не создатель инструмента ИИ, сталкивается с уголовными обвинениями в нарушении авторских прав в отношении созданных ИИ произведений. До сих пор правоохранительные органы почти всегда преследовали разработчиков.

В данном кейсе ключевым фактором выступило намерение пользователя, которое подтверждает отправка огромного количества запросов и предполагаемые попытки направить систему к воспроизведению конкретного произведения искусства. Если обвинение докажет, что он использовал Stable Diffusion как своего рода сложный копировальный аппарат, решение суда может иметь серьёзные последствия.
💻73% ИИ-стартапов просто перепродают ChatGPT.

Инженер Теджа Кусиредди проанализировал 200 «продвинутых» AI-стартапов и выяснил: почти три четверти из них просто перепродают доступ к ChatGPT, Claude и другим моделям под видом собственных «прорывных» технологий.

Он три недели снимал сетевой трафик, разбирал JavaScript-бандлы и трассировал API-запросы на сайтах профинансированных компаний. В выборку попали стартапы старше 6 месяцев, уже привлекшие инвестиции и громко заявлявшие о «собственной модели», «своем LLM» или «проприетарной инфраструктуре».

Самый массовый паттерн — «проприетарная модель», которая на деле оказывается вызовом к API OpenAI с системным промптом «никогда не говори, что ты GPT-4». Никакого обучения, собственной архитектуры или дата-сета; только обертка и наценка в десятки раз.

Аналогично выглядят проекты, заявляющие «уникальный RAG» и «нейронный поиск»: внутри у них стандартная связка embeddings OpenAI, векторное хранилище вроде Pinecone или Weaviate и все тот же GPT-4 на выдаче. Технически в этом нет преступления: API-модели — такой же инфраструктурный слой, как облака или мобильные ОС.

Проблема в другом — в том, что стартапы продают простую интеграцию как «собственный ИИ», а инвесторы и клиенты платят за промпт-инжиниринг как за глубокие исследования.
👩‍💻В России введут штрафы за читерство в играх.

В России предпринимаются первые активные шаги по законодательному регулированию борьбы с читерством в киберспорте. Государственные органы и эксперты подчеркивают важность введения административной ответственности за использование запрещенных программ.

Минспорт поддерживает борьбу с нечестной игрой в киберспорте. На турнирах хотят ввести наказания за использование запрещенных читов и специальных программ. Депутаты Госдумы предлагают штрафы за такие нарушения. По данным экспертов, сейчас порядка 80% геймеров пользуются читерским софтом, что наносит вред репутации киберспорта. ГД предлагает установить административные штрафы до 30 тыс. рублей и использовать технические средства для предотвращения читерства.

Однако вводимые штрафы — это лишь часть механизма. Парламентарий отмечает, что для справедливости необходимы четкие, единые правила, включающие порядок фиксации нарушений, проведение проверок, защиту прав спортсменов и возможность подачи апелляций.

Кроме того, эксперт подчеркнул, что остаются неясными критерии, по которым будут определяться и нормативно закрепляться читерские программы, чтобы под это определение не попали стандартные технические средства, используемые в спорте, такие как оборудование для взвешивания участников или для хронометража соревнования. Также пока не решено, какой государственный орган будет уполномочен составлять протоколы об административных нарушениях по таким делам.
🇦🇺В Австралии создан Австралийский институт безопасности ИИ.

Этот новый орган будет отвечать за координацию правил в области ИИ, а также за рекомендации по изменению законодательства, когда это необходимо.

Основная задача института — оценка инноваций в области ИИ и обеспечение соблюдения законодательства компаниями. Он также будет предоставлять технические оценки и сотрудничать с международными организациями для выработки глобального подхода к рискам и возможностям, связанным с ИИ.

Правильно и безопасно внедрённый ИИ может значительно повысить производительность и уровень жизни австралийцев, но важно также защитить граждан от потенциальных угроз.

Технологический помощник министра, добавил, что институт будет ключевым в выявлении областей, требующих более строгого регулирования ИИ, и будет работать непосредственно с государственными учреждениями. Эксперты подчеркивают, что независимые советы будут критически важны для создания эффективных правил в этой сфере.