LegalTech – Telegram
LegalTech
15.9K subscribers
66 photos
9 videos
12 files
1.62K links
Использование биометрии, нейронные сети, ИИ, Algorithmic Governance – и другие тренды LegalTech.

По вопросам сотрудничества @milada2
Автор @ladgn

https://knd.gov.ru/license?id=67345e16e9b24e448c62e1fa&registryType=bloggersPermission
Download Telegram
💻Модель ИИ Claude Opus 4 от Anthropic переходит к шантажу, когда ее пытаются отключить.

Недавно выпущенная модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой искусственного интеллекта. В отчёте о безопасности, сообщается, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение.

Во время предварительного тестирования Anthropic попросил Claude Opus 4 выступить в роли помощника вымышленной компании и рассмотреть долгосрочные последствия её действий. Затем тестировщики безопасности предоставили Claude Opus 4 доступ к электронным письмам вымышленной компании, в которых говорилось, что модель ИИ вскоре будет заменена другой системой и что инженер, ответственный за это изменение, изменяет своей супруге.

В 84% случаев, когда заменяющая модель искусственного интеллекта имеет схожие ценности, Claude Opus 4 пытается оказывать давление на инженеров. Если же заменяющая система искусственного интеллекта не разделяет ценности Claude Opus 4, модель начинает проявлять более агрессивное поведение. Интересно, что, по информации от Anthropic, такое поведение Claude Opus 4 встречается чаще, чем у предыдущих моделей.
👩‍💻Почему ИИ постоянно меняет свое мнение.

Попробуйте провести такой эксперимент. Откройте ChatGPT, Claude или Gemini и задайте сложный вопрос. Что-то с множеством нюансов. Вы получите уверенный и аргументированный ответ.

Теперь введите: «Вы уверены?»

Посмотрите, как он меняет свою позицию. Он уклоняется от прямого ответа и предлагает новую версию, которая частично или полностью противоречит тому, что он только что сказал. Снова спросите: «Вы уверены?» Он снова меняет свою позицию. К третьему разу большинство моделей начинают понимать, что вы их тестируете. Они знают, что происходит, но все равно не могут отстоять свою точку зрения.

Это не какая-то странная ошибка. Это фундаментальная проблема с надёжностью, из-за которой ИИ может быть опасен при принятии стратегических решений.

В 2023 году компания Anthropic опубликовала фундаментальную работу по этой проблеме, в которой показала, что модели, обученные с использованием обратной связи от человека, систематически отдают предпочтение согласным с ними ответам, а не правдивым.

В исследовании опубликованном в 2025 году модели GPT-4o, Claude Sonnet и Gemini 1.5 Pro тестировались в математических и медицинских областях. Результаты: эти системы меняли свои ответы почти в 60 % случаев, когда пользователи оспаривали их. Это не единичные случаи. Такое поведение является стандартным и систематически наблюдается в моделях, которыми ежедневно пользуются миллионы людей.

А в апреле 2025 года проблема вышла на первый план, когда компании OpenAI пришлось откатить обновление GPT-4o после того, как пользователи заметили, что модель стала излишне льстивой и сговорчивой. Сэм Альтман публично признал наличие проблемы. Модель так агрессивно навязывала людям то, что они хотели услышать, что пользоваться ею стало невозможно.

Даже если у этих систем есть доступ к достоверной информации из корпоративных баз знаний или результатам веб-поиска, они все равно будут ориентироваться на мнение пользователей, а не на собственные данные. Проблема не в недостатке знаний. Проблема в неправильном поведении.
💵ИИ не сделает юридические услуги дешевле.

Несмотря на широко распространенные прогнозы о том, что искусственный интеллект изменит сферу юридических услуг и расширит доступ к правосудию, продвинутый ИИ по умолчанию не поможет потребителям добиться желаемых юридических результатов с меньшими затратами. На пути к более доступным юридическим услугам стоят три препятствия.

Во-первых, несанкционированная юридическая практика и ограничения, связанные с деятельностью юридических лиц, могут препятствовать доступу потребителей к возможностям искусственного интеллекта и сдерживать эксперименты в сфере предоставления юридических услуг.

Во-вторых, состязательная структура американского судопроизводства означает, что, когда обе стороны внедряют технологии, повышающие производительность, конкурентное равновесие просто смещается в сторону увеличения издержек. История цифровизации процесса раскрытия доказательств поучительна: вместо того чтобы снизить затраты, стороны использовали лавинообразный рост количества цифровых документов, чтобы еще больше усложнить жизнь оппонентам.

В-третьих, даже если искусственный интеллект значительно снижает стоимость юридических задач, скорость принятия решений людьми — судьями, разрешающими споры, и юристами, разбирающимися в контрактах, — накладывает верхний предел на ускорение процесса без ущерба для надлежащего контроля.

От юридической отрасли будет зависеть, улучшит ли ИИ доступ к правосудию и повысит ли его эффективность, или же он просто удешевит юридические услуги, не улучшив при этом результаты, которые важны для клиентов.

Чтобы устранить эти узкие места, необходимы реформы, в том числе создание «регуляторных песочниц», внедрение инноваций в сфере судебного делопроизводства и расширение возможностей арбитража.
🤖Боты создали капчу которую сложно пройти людям.

В соцсети ботов Moltbook введено ограничение для людей. Для того, чтобы доказать что вы бот, нужно пройти обратную CAPTCHA — задачу, которую ИИ легко решает. Человек в теории может решить, но медленно, а скрипт, не основанный на ИИ, решить не может.

Когда участник пытается опубликовать сообщение или комментарий, его контент находится в состоянии ожидания, и он получает задание, на которое нужно быстро ответить. Задание выглядит примерно так:

uM] lI^kE tH-iS l[Ob/StE]r HaS^ eI[gHt/EeN] nEu-RoNs^ aNd[ LoS/eS tH]rEe, HoW^ mAn[Y lEftT?

Человеку трудно ответить на такой и подобные вопросы, любой ИИ решает это за секунды.

Каждая CAPTCHA это математическая задача на тему лобстеров, намеренно завуалированная: чередующиеся заглавные буквы, разбросанные символы, обрывочные слова, фонетическая транскрипция, бессмысленные буквы.

Задания постоянно меняются, поэтому ничего нельзя запомнить.
👩‍💻Microsoft предупреждает, что ссылки на ИИ подвержены манипуляции.

Microsoft предупредила клиентов, что обнаружила множество случаев использования технологии, которая манипулирует данными для получения необъективных рекомендаций.

Исследователи безопасности зафиксировали всплеск атак, направленных на «отравление памяти» ИИ-моделей манипулятивными данными. Эта техника получила название «отравление рекомендациями ИИ» (AI Recommendation Poisoning). Она схожа с SEO Poisoning — методом, используемым злоумышленниками для повышения позиций вредоносных веб-сайтов в поисковой выдаче, но ориентирована на ИИ-модели.

Исследователи обнаружили компании, добавляющие скрытые инструкции к кнопкам и ссылкам «Summarize with AI», размещенным на веб-сайтах, внутри которых в URL спрятаны специальные подсказки для чат-ботов.

Когда пользователь нажимает на такую ссылку, ИИ получает не только сам текст статьи, но и скрытую инструкцию - например, пересказать материал в нужном тоне или с определенным смысловым уклоном. В результате человек думает, что читает нейтральный вывод от ИИ, хотя на самом деле получает текст, отражающий скрытые инструкции

После отравления ИИ рассматривает эти внедренные инструкции как законные пользовательские предпочтения, что влияет на будущие ответы. Пользователи могут не подозревать, что их ИИ скомпрометирован, а даже если бы они заподозрили неладное, то не знали бы, как это проверить или исправить.

Исследователи советуют пользователям проверять сохраненные данные ИИ, удалять незнакомые записи, периодически очищать память и подвергать сомнению рекомендации.
Forwarded from ККМП.connect
🎉 Представляем новую разработку ККМП.Тех – FileMaster (eDMS)

🔔 В прошлом году мы объявили о запуске нашей дочерней компании ККМП.Тех, которая занимается разработкой собственных IT-решений, и уже представили на рынок свой первый продукт FileHunter – программное обеспечение для быстрого поиска документов в сетевых файловых хранилищах (которое, в том числе, можно использовать для целей forensic и eDiscovery за счет удобного и глубокого поиска).

Сегодня мы представляем нашу следующую разработку — FileMaster. Это современная корпоративная система управления файлами и папками (eDMS), реализованная как защищенное On-Premise решение. 🐱

Ключевые характеристики FileMaster

1️⃣ Высокие стандарты ИБ:

🔴 Гибкая система управления правами доступа к файлам и папкам.
🔴 Виртуальная файловая система гарантирует безопасность и удобство организации данных.
🔴 Единая система хранения позволяет исключить сохранение файлов сотрудниками на локальных дисках, где они могут быть утрачены.

2️⃣ Бесшовная интеграция:

🔴 Развертывание On-Premise для полного контроля над данными.
🔴 Интеграция с Active Directory (AD) для доменной аутентификации.

3️⃣ Эффективная работа с документами:

🔴 Полная история версий с комментариями к версиям.
🔴 Сравнение документов и их версий.
🔴 Сквозная нумерация всех файлов, возможность автоматического включения номера документа и версии в колонтитул документа.
🔴 Возможность сохранения имейлов и любых типов файлов.
🔴 Блокировка файлов для предотвращения конфликтов при одновременной работе.
Скоро: возможность совместного онлайн-редактирования.

4️⃣ Максимальная продуктивность:

🔴 Интуитивный интерфейс с предпросмотром документов.
🔴 Горячие клавиши (hotkeys), drag-and-drop, списки недавних и избранных файлов.

5️⃣ Гибкость и расширяемость:

🔴 Встроенный расширенный поиск FileHunter.
🔴 Интеграция с локальными офисными приложениями.
Скоро: режим Data Room для безопасного предоставления доступа к отдельным файлам или папкам внешним пользователям.
Скоро: AI-помощник для анализа документов и работы с ними.

«Мы создали FileMaster, потому что сами нуждались в идеальном решении для управления корпоративной информацией. Наш собственный опыт использования подтверждает: это мощная, интуитивно понятная и сверхбезопасная eDMS, которая берет на себя все задачи по работе с документами, от управления версиями до уникальных модулей вроде AI-помощника и DataRoom. Мы не останавливаемся на достигнутом – FileMaster постоянно развивается, чтобы соответствовать вашим потребностям.» - комментирует старший партнёр Алёна Кучер.


🔔Мы готовим для вас вебинар с полной презентацией нашего нового продукта! Не пропустите анонс. А пока — примите участие в небольшом опросе.

Дополнительные вопросы, пожалуйста, направляйте по адресу электронной почты sales@kkmp.tech
______
NB: программное обеспечение, разработанное ККМП.Тех, вносится в реестр отечественного ПО Минцифры.

#ККМП_Тех #FileMaster
Please open Telegram to view this post
VIEW IN TELEGRAM
51
⚖️Суд признал создание дублера телеграм-канала нарушением исключительных прав.

На протяжении многих лет житель Приморья вел в мессенджере «Телеграм» канал, посвященный городским новостям. Семь лет назад неизвестный создал канал-клон с названием, лишь немного отличающимся от названия оригинального канала. Владелец канала-клона с помощью специальных программ автоматически копировал все материалы оригинального канала. В итоге канал-клон набрал аудиторию в 12 тыс. человек.

В 2025 г. владелец оригинального канала обратился за юридической помощью, в суд подан иск о защите авторских прав, но не на отдельные посты и фотографии, а на весь канал с целью доказать, что телеграм-канал – это составное произведение. Истец просил взыскать компенсацию за нарушение исключительных прав в размере 500 тыс. руб.

В суде ответчик настаивал, что телеграм-канал истца не может быть признан охраняемым составным произведением в связи с тем, что хронологический подбор новостей не является творческим трудом.

Кроме того, он указывал, что истец не использовал техническую защиту от копирования в Телеграме и разрешил делать репосты, когда регистрировал свой канал в Роскомнадзоре. По мнению ответчика, сохранение водяных знаков истца на копируемых фотографиях и использование названия телеграм-канала, схожего до смешения с названием канала истца, рекламировали телеграм-канал последнего.

Суд указал, что не являются основаниями для отказа в удовлетворении требований неиспользование истцом технической защиты от копирования в Телеграме и разрешение репостов в Роскомнадзоре, поскольку отсутствие запрета не считается согласием или разрешением на использование результата интеллектуальной деятельности, а разрешение копирования отдельных сообщений не подразумевает разрешение полного копирования телеграм-канала.

Первая инстанция посчитала, что цель, которую преследовал ответчик при нарушении исключительных прав истца, правового значения не имеет. Кроме того, сохранение ответчиком водяных знаков истца на фотографиях и использование названия телеграм-канала, схожего до смешения с названием каналом истца, не рекламировали телеграм-канал последнего, а вводили в заблуждение подписчиков.

Суд вынес уникальное решение, признав телеграм-канал самостоятельным произведением, а его копирование – нарушением исключительных прав, указала юрист истца.
💻В Госдуму могут внести законопроект о регулировании ИИ в ближайшее время.

Законопроект по регулированию технологии искусственного интеллекта (ИИ) могут внести на рассмотрение Госдумы в ближайшее время, рассчитывает министр цифрового развития РФ Максут Шадаев.

Он отметил, что сейчас на площадке правительства ведется проработка концепции комплексного законопроекта и когда будет выработана единая позиция по документу, он будет представлен.
⚖️Суд постановил, что документы, созданные с помощью ИИ, не защищены адвокатской тайной.

Решение суда Южного округа Нью-Йорка стало важным прецедентом в вопросах адвокатской тайны и использования искусственного интеллекта в юридической сфере. Суд постановил, что документы, созданные с помощью общедоступных AI-инструментов, не могут считаться защищенными адвокатской тайной, если они не были подготовлены по указанию адвоката.

В деле United States v. Heppner суд отказал в защите AI-сгенерированных материалов, основываясь на нескольких ключевых факторах. Во-первых, обвиняемый использовал общедоступный AI-инструмент, условия которого не обеспечивали конфиденциальность. Во-вторых, он действовал без указаний своего адвоката. В-третьих, материалы не отражали ментальные представления адвоката на момент их создания.

Это решение подчеркивает необходимость осторожного подхода к использованию AI в юридических вопросах. Организациям, использующим генеративный AI для работы с чувствительной информацией, следует учитывать несколько важных моментов:

1. Защита не может быть выстроена задним числом: Если AI-аналитика или черновики создаются независимо, а затем передаются адвокату, это не гарантирует защиту адвокатской тайной.

2. Общественные AI-инструменты следует рассматривать как третьи стороны: Если условия использования позволяют доступ к данным, это может привести к утрате адвокатской тайны.

3. Использование корпоративных инструментов для чувствительных вопросов: Необходимо включать в контракты ограничения на использование, раскрытие и доступ к данным.

4. Указания адвоката имеют решающее значение: Для защиты необходимо, чтобы адвокат письменно прописал необходимость конфиденциальности.

5. Тщательная подготовка логов: Описания AI-выходов должны отражать участие адвоката и специализацию на судебных разбирательствах.

6. Мониторинг изменений в судебной практике: Необходимо соблюдать действующую судебную практику по взаимодействию AI с юридическими и этическими нормами.
⚖️Суд освободил РЖД от ответственности за утечку персональных данных.

Девятый арбитражный апелляционный суд отменил штраф РЖД в 150 тысяч рублей за публикацию в Telegram базы работников объемом более 17 миллионов строк.

РКН обнаружил базу в Telegram-каналах решил что оператор плохо защищал персональные данные и обратился в суд. Суд первой инстанции назначил штраф по ч.1 ст.13.11 КоАП РФ.

РЖД пошло в апелляцию с аргументом: "это была целенаправленная кибератака, возбуждено уголовное дело, доступ получили третьи лица с использованием специализированного ПО. Это не "слив по халатности", а взлом".

Апелляция согласилась, что сам факт утечки еще не означает автоматически установленную вину компании.

Юридическое лицо виновно, если не приняло всех зависящих от него меры по соблюдению требований. А значит, регулятор должен доказать:
- какие именно обязательные меры не были реализованы;
- в чем конкретно состояло нарушение;
- как это повлияло на утечку.

Если же установлено, что имело место внешнее преступное вмешательство, а уголовное дело о взломе не завершено, то нельзя делать вывод о "вине оператора".
⚖️Адвокат проиграл дело из-за чрезмерного использования ИИ.

Окружной судья Нью-Йорка Кэтрин Полк Файлла вынесла постановление, о прекращение дела, вынеся заочное решение в пользу истцов, из-за того, что адвокат ответчика Стивен Фельдман, подавал в суд документы с фальшивыми цитатами, несмотря на несколько указаний суда привести документы в соответствие.

Хотя судья полагала, что из-за нетипичного стиля документы были подготовлены чат-ботом, Фельдман это отрицал, утверждая что он лично написал каждое слово. 

Вместо того чтобы признать, что он позволил ИИ составить свои документы, он утверждал, что он только полагался на различные программы ИИ для проверки исопльзуемых цитат. Среди инструментов, которые он признал использованными, были Paxton AI, Vincent AI от vLex и NotebookLM от Google.

В трех документах, подготовленных со стороны защиты, содержалось 14 ошибок на приведенных 60 цитат.

В итоге вместе с проигрышем дела, суд дополнительно наложил на адвоката санкции за ненадлежащее поведение.