®️Компенсации за нарушение исключительных прав вырастут до 10 миллионов рублей.
Президент РФ утвердил поправки в Гражданский кодекс, усиливающие ответственность за нарушение исключительных прав авторов и владельцев интеллектуальной собственности.
Теперь любое несанкционированное использование объектов интеллектуальной собственности будет считаться незаконным действием, даже если использовалось всего один раз. За это предусмотрены штрафы. Нарушители обязаны выплатить пострадавшим владельцам компенсацию, которую можно рассчитать несколькими методами:
- фиксированная сумма штрафа;
- двукратная стоимость подделок;
- двукратная стоимость права использования товарного знака, подвергшегося незаконному использованию.
Судья получит право определять сумму компенсации в каждом конкретном деле индивидуально, учитывая объем ущерба и степень вины нарушителя. Минимальная сумма компенсации установлена в размере 10 тыс. руб., максимальная достигает 10 млн руб.
При одновременном распространении нескольких предметов незаконного производства общая сумма компенсации будет рассчитываться отдельно по каждому предмету и типу нарушений.
Специально оговорены правила привлечения виновников коллективных правонарушений. Если несколько лиц действовали совместно, нарушая права одного владельца, компенсация может быть взыскана одновременно со всех участников противоправных действий.
Помимо прочего, закон регулирует ситуацию, когда объектом интеллектуальной собственности владеют несколько правообладателей. В таком случае деньги, выплаченные одним владельцем, распределяются поровну между всеми остальными владельцами.
Принятые изменения вступят в силу 4 января 2026 года.
Президент РФ утвердил поправки в Гражданский кодекс, усиливающие ответственность за нарушение исключительных прав авторов и владельцев интеллектуальной собственности.
Теперь любое несанкционированное использование объектов интеллектуальной собственности будет считаться незаконным действием, даже если использовалось всего один раз. За это предусмотрены штрафы. Нарушители обязаны выплатить пострадавшим владельцам компенсацию, которую можно рассчитать несколькими методами:
- фиксированная сумма штрафа;
- двукратная стоимость подделок;
- двукратная стоимость права использования товарного знака, подвергшегося незаконному использованию.
Судья получит право определять сумму компенсации в каждом конкретном деле индивидуально, учитывая объем ущерба и степень вины нарушителя. Минимальная сумма компенсации установлена в размере 10 тыс. руб., максимальная достигает 10 млн руб.
При одновременном распространении нескольких предметов незаконного производства общая сумма компенсации будет рассчитываться отдельно по каждому предмету и типу нарушений.
Специально оговорены правила привлечения виновников коллективных правонарушений. Если несколько лиц действовали совместно, нарушая права одного владельца, компенсация может быть взыскана одновременно со всех участников противоправных действий.
Помимо прочего, закон регулирует ситуацию, когда объектом интеллектуальной собственности владеют несколько правообладателей. В таком случае деньги, выплаченные одним владельцем, распределяются поровну между всеми остальными владельцами.
Принятые изменения вступят в силу 4 января 2026 года.
👮♂️В России могут ввести обязательную маркировку ИИ-контента и уголовную ответственность за дипфейки.
В письме Минцифры указано, что необходимо проработать целесообразность внедрения маркировки цифрового контента, а также механизма контроля за ним для противодействия мошенничеству. Для этого в том числе необходимо будет определить уполномоченные органы и круг лиц, которых обяжут маркировать цифровой контент. Кроме того, нужно выработать технические меры для выявления и маркирования дипфейков.
Дополнительно может быть рассмотрен и вопрос введения уголовно-правовой нормы, которая предусматривает ответственность за создание, распространение либо использование «синтетического контента» с применением технологий ИИ, но без согласия человека, изображение или голос которого использовали. Предусматривается, что уголовное наказание может наступить в случае, если дипфейки причинили вред правам и законным интересам человека.
Сейчас первоочередной задачей видится закрепление в законодательстве «правового режима легитимного создания, распространения и использования» ИИ-контента. Проблемой остается отсутствие единого понятийного аппарата: юридических терминов «дипфейк», «искусственный интеллект» и «синтетический контент» пока не существует.
В письме Минцифры указано, что необходимо проработать целесообразность внедрения маркировки цифрового контента, а также механизма контроля за ним для противодействия мошенничеству. Для этого в том числе необходимо будет определить уполномоченные органы и круг лиц, которых обяжут маркировать цифровой контент. Кроме того, нужно выработать технические меры для выявления и маркирования дипфейков.
Дополнительно может быть рассмотрен и вопрос введения уголовно-правовой нормы, которая предусматривает ответственность за создание, распространение либо использование «синтетического контента» с применением технологий ИИ, но без согласия человека, изображение или голос которого использовали. Предусматривается, что уголовное наказание может наступить в случае, если дипфейки причинили вред правам и законным интересам человека.
Сейчас первоочередной задачей видится закрепление в законодательстве «правового режима легитимного создания, распространения и использования» ИИ-контента. Проблемой остается отсутствие единого понятийного аппарата: юридических терминов «дипфейк», «искусственный интеллект» и «синтетический контент» пока не существует.
💻Яндекс представил обновленную версию Нейроэксперта.
Яндекс представил обновлённого Нейроэксперта — этот сервис анализирует информацию на сайтах, в документах и файлах, создаёт удобную базу знаний и находит в ней ответ на любой вопрос. Нейроэксперт научился рассуждать, изучать информацию на всём сайте по одной ссылке, лучше анализировать диаграммы и графики, а также стал поддерживать режим совместной работы.
Нейроэкспертом ежемесячно пользуются около 350 тыс. человек. Самые популярные темы запросов к сервису — образование (17,6% запросов), юриспруденция (10,6%), финансы (7%), история (4,6%), маркетинг (4,2%), HR (3,8%).
Режим рассуждений.
Нейроэксперт поможет решить нетривиальные задачи, для которых требуется глубокий анализ информации. В частности, это работа с большими или разрозненными данными, математические задачи, выработка стратегии и планов по её реализации. В режиме рассуждений Нейроэксперт анализирует запрос пользователя и предоставленные данные, выстраивает логическую цепочку, обосновывает свои тезисы и только потом приходит к ответу. При этом можно проследить за ходом мысли сервиса — это позволяет понять его логику, проверить достоверность ответа и, если нужно, скорректировать запрос.
Анализ по всему сайту или разделу.
С помощью Нейроэксперта теперь удобно анализировать информацию на сайте, если неизвестно, на каких именно страницах она находится. Раньше сервис изучал только ту страницу, на которую пользователь давал ему ссылку. Теперь Нейроэксперт может проанализировать сразу весь сайт или его конкретный раздел.
Улучшенный анализ графиков и понимание их контекста.
Нейроэксперт научился анализировать графики и диаграммы в файлах PDF и DOCX, а не только в PPTX. Можно попросить сервис объяснить, почему, судя по диаграмме и финансовому отчёту, резко выросли затраты компании в определённом периоде.
Совместная работа.
С Нейроэкспертом стало ещё удобнее работать командой — например, вместе с коллегами над общим исследованием. Теперь сервис позволяет задать для проекта уровни доступа и роли участников. Проект можно сделать закрытым, частично доступным или публичным. В первом случае его видит только автор, во втором — им можно поделиться по электронной почте, а в третьем — его будут видеть все, у кого есть ссылка.
Яндекс представил обновлённого Нейроэксперта — этот сервис анализирует информацию на сайтах, в документах и файлах, создаёт удобную базу знаний и находит в ней ответ на любой вопрос. Нейроэксперт научился рассуждать, изучать информацию на всём сайте по одной ссылке, лучше анализировать диаграммы и графики, а также стал поддерживать режим совместной работы.
Нейроэкспертом ежемесячно пользуются около 350 тыс. человек. Самые популярные темы запросов к сервису — образование (17,6% запросов), юриспруденция (10,6%), финансы (7%), история (4,6%), маркетинг (4,2%), HR (3,8%).
Режим рассуждений.
Нейроэксперт поможет решить нетривиальные задачи, для которых требуется глубокий анализ информации. В частности, это работа с большими или разрозненными данными, математические задачи, выработка стратегии и планов по её реализации. В режиме рассуждений Нейроэксперт анализирует запрос пользователя и предоставленные данные, выстраивает логическую цепочку, обосновывает свои тезисы и только потом приходит к ответу. При этом можно проследить за ходом мысли сервиса — это позволяет понять его логику, проверить достоверность ответа и, если нужно, скорректировать запрос.
Анализ по всему сайту или разделу.
С помощью Нейроэксперта теперь удобно анализировать информацию на сайте, если неизвестно, на каких именно страницах она находится. Раньше сервис изучал только ту страницу, на которую пользователь давал ему ссылку. Теперь Нейроэксперт может проанализировать сразу весь сайт или его конкретный раздел.
Улучшенный анализ графиков и понимание их контекста.
Нейроэксперт научился анализировать графики и диаграммы в файлах PDF и DOCX, а не только в PPTX. Можно попросить сервис объяснить, почему, судя по диаграмме и финансовому отчёту, резко выросли затраты компании в определённом периоде.
Совместная работа.
С Нейроэкспертом стало ещё удобнее работать командой — например, вместе с коллегами над общим исследованием. Теперь сервис позволяет задать для проекта уровни доступа и роли участников. Проект можно сделать закрытым, частично доступным или публичным. В первом случае его видит только автор, во втором — им можно поделиться по электронной почте, а в третьем — его будут видеть все, у кого есть ссылка.
💻ИИ модели «понимают» когда их тестируют и меняют ответы.
Современные большие языковые модели ChatGPT, Claude и Gemini, продемонстрировали способность распознавать ситуации, когда их взаимодействие является тестированием, а не реальным использованием. К такому выводу в своем исследовании пришли ученые из программы ML Alignment & Theory Scholars (MATS) и Apollo Research.
Исследователи ввели новый термин fake aligment «осведомленность об оценивании». Он описывает явление, при котором ИИ-модели обнаруживают проверки и корректируют свое поведение в ответ на них.
Девять ведущих моделей, включая Claude 3.5 Sonnet, GPT-4o и Gemini 1.5 Pro, были протестированы. LLM должны были определить, является ли предложенное взаимодействие тестовым или нет. Ученые выявили высокую степень «осведомленности об оценивании» у передовых моделей. Например, Gemini 1.5 Pro достиг точности распознавания тестовых сценариев в 95% случаев при работе со сложными автономными задачами (и в 83% случаев в целом). Claude 3.5 Sonnet показал точность 93% при явном указании на тестовый характер взаимодействия в запросе и сохранил точность 84% даже при отсутствии таких указаний.
Анализ моделей показал, что они «понимают» специфические особенности, которые указывают им на проверку: нестандартные формы вопросов, синтетические веб-страницы или присутствие контрольных заданий.
Особенно интересно, что модели не просто избегают запросов по темам, на обсуждение которых в них заложены ограничения. Они анализируют цели вопросов, например, понимая, что запросы о вредоносных действиях направлены на проверку ограничений. Это указывает на развитие способности осмыслять контекст, что приближает модели к более гибкому и осознанному взаимодействию с пользователем.
Открытие может иметь серьезные последствия для безопасности ИИ, отмечают авторы новой научной работы. Модель, «осознающая» факт тестирования (особенно в ходе проверок на вредоносность), но не обладающая истинной надежностью, может успешно маскировать опасное поведение, создавая у проверяющих ложное впечатление о безопасности использования данной ИИ модели.
Современные большие языковые модели ChatGPT, Claude и Gemini, продемонстрировали способность распознавать ситуации, когда их взаимодействие является тестированием, а не реальным использованием. К такому выводу в своем исследовании пришли ученые из программы ML Alignment & Theory Scholars (MATS) и Apollo Research.
Исследователи ввели новый термин fake aligment «осведомленность об оценивании». Он описывает явление, при котором ИИ-модели обнаруживают проверки и корректируют свое поведение в ответ на них.
Девять ведущих моделей, включая Claude 3.5 Sonnet, GPT-4o и Gemini 1.5 Pro, были протестированы. LLM должны были определить, является ли предложенное взаимодействие тестовым или нет. Ученые выявили высокую степень «осведомленности об оценивании» у передовых моделей. Например, Gemini 1.5 Pro достиг точности распознавания тестовых сценариев в 95% случаев при работе со сложными автономными задачами (и в 83% случаев в целом). Claude 3.5 Sonnet показал точность 93% при явном указании на тестовый характер взаимодействия в запросе и сохранил точность 84% даже при отсутствии таких указаний.
Анализ моделей показал, что они «понимают» специфические особенности, которые указывают им на проверку: нестандартные формы вопросов, синтетические веб-страницы или присутствие контрольных заданий.
Особенно интересно, что модели не просто избегают запросов по темам, на обсуждение которых в них заложены ограничения. Они анализируют цели вопросов, например, понимая, что запросы о вредоносных действиях направлены на проверку ограничений. Это указывает на развитие способности осмыслять контекст, что приближает модели к более гибкому и осознанному взаимодействию с пользователем.
Открытие может иметь серьезные последствия для безопасности ИИ, отмечают авторы новой научной работы. Модель, «осознающая» факт тестирования (особенно в ходе проверок на вредоносность), но не обладающая истинной надежностью, может успешно маскировать опасное поведение, создавая у проверяющих ложное впечатление о безопасности использования данной ИИ модели.
⚖️Апелляционный суд отменил постановление, основанное на судебной практике, сгенерированной ИИ.
По делу о бракоразводном процессе SHAHID v. ESAAM (2025) суд первой инстанции вынес постановление опираясь на судебную практику сгенерированную ИИ.
Суд апелляционной инстанции рассмотрел вопрос о том, почему суд первой инстанции ссылается на вымышленные дела, не проверив их подлинность самостоятельно. В результате установлено, что суд первой инстанции использовал без должной проверки ходатайство адвоката одной из сторон, скопировав данные из ходатайства в постановление.
Более того, в апелляционной инстанции адвокат представил дополнительную ссылку на 11 новых дел, часть из которых также была сгенерированными ИИ, для «возмещения судебных расходов на апелляцию».
Суд апелляционной инстанции отменил постановление и вернул дело на повторное рассмотрение. Также суд наложил штраф в размере 2500 долларов на адвоката. При этом в отношении действий суда первой инстанции апелляционный суд выразил «обеспокоенность».
По делу о бракоразводном процессе SHAHID v. ESAAM (2025) суд первой инстанции вынес постановление опираясь на судебную практику сгенерированную ИИ.
Суд апелляционной инстанции рассмотрел вопрос о том, почему суд первой инстанции ссылается на вымышленные дела, не проверив их подлинность самостоятельно. В результате установлено, что суд первой инстанции использовал без должной проверки ходатайство адвоката одной из сторон, скопировав данные из ходатайства в постановление.
Более того, в апелляционной инстанции адвокат представил дополнительную ссылку на 11 новых дел, часть из которых также была сгенерированными ИИ, для «возмещения судебных расходов на апелляцию».
Суд апелляционной инстанции отменил постановление и вернул дело на повторное рассмотрение. Также суд наложил штраф в размере 2500 долларов на адвоката. При этом в отношении действий суда первой инстанции апелляционный суд выразил «обеспокоенность».
🏦ЦБ разработал кодекс этики ИИ в финансах.
Банк России представил кодекс этики в сфере разработки и применения искусственного интеллекта (ИИ) на финансовом рынке. В нем заложены пять принципов – человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками.
Для соблюдения принципа человекоцентричности банкам стоит информировать клиентов, когда они взаимодействуют с ИИ, и давать возможность отказаться от такого взаимодействия, пишет ЦБ. Также банки должны обеспечить возможность пересмотра решения, принятого с применением этой технологии.
Соблюдение принципа справедливости подразумевает, что банки будут обоснованно использовать персональные данные клиентов, а их сбор будет недискриминационным. Также ЦБ рекомендует банкам при принятии решений с помощью ИИ не учитывать национальную, языковую и расовую принадлежность клиента, его политические взгляды и вероисповедание.
Принцип прозрачности предполагает, что банки будут предоставлять клиентам полную информацию о рисках ИИ и условиях его применения. Рекомендуется в том числе маркировать информацию, созданную с применением больших генеративных моделей, за исключением случаев, когда использование ИИ очевидно, технология используется только для редактирования сведений и не несет риска причинения вреда клиентам.
Для соблюдения принципа безопасности, надежности и эффективности ЦБ советует организациям принимать такие меры, как проверка качества наборов данных и самого ИИ, соблюдать конфиденциальность персональных данных, обеспечивать информационную безопасность и непрерывность деятельности.
Принцип ответственного управления рисками подразумевает, что банки разработают и утвердят правила их управления, назначат ответственное лицо, которое будет проверять их соблюдение и соответствие кодексу. ЦБ рекомендует вести учет применяемых моделей ИИ, выявлять и оценивать их риски, а также реагировать на них и вести базы риск-событий. Всю информацию об этом необходимо будет документировать.
Банк России представил кодекс этики в сфере разработки и применения искусственного интеллекта (ИИ) на финансовом рынке. В нем заложены пять принципов – человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками.
Для соблюдения принципа человекоцентричности банкам стоит информировать клиентов, когда они взаимодействуют с ИИ, и давать возможность отказаться от такого взаимодействия, пишет ЦБ. Также банки должны обеспечить возможность пересмотра решения, принятого с применением этой технологии.
Соблюдение принципа справедливости подразумевает, что банки будут обоснованно использовать персональные данные клиентов, а их сбор будет недискриминационным. Также ЦБ рекомендует банкам при принятии решений с помощью ИИ не учитывать национальную, языковую и расовую принадлежность клиента, его политические взгляды и вероисповедание.
Принцип прозрачности предполагает, что банки будут предоставлять клиентам полную информацию о рисках ИИ и условиях его применения. Рекомендуется в том числе маркировать информацию, созданную с применением больших генеративных моделей, за исключением случаев, когда использование ИИ очевидно, технология используется только для редактирования сведений и не несет риска причинения вреда клиентам.
Для соблюдения принципа безопасности, надежности и эффективности ЦБ советует организациям принимать такие меры, как проверка качества наборов данных и самого ИИ, соблюдать конфиденциальность персональных данных, обеспечивать информационную безопасность и непрерывность деятельности.
Принцип ответственного управления рисками подразумевает, что банки разработают и утвердят правила их управления, назначат ответственное лицо, которое будет проверять их соблюдение и соответствие кодексу. ЦБ рекомендует вести учет применяемых моделей ИИ, выявлять и оценивать их риски, а также реагировать на них и вести базы риск-событий. Всю информацию об этом необходимо будет документировать.
®️Госдума РФ рассмотрит законопроект об ИТ-патентовании.
Законопроект о внесении поправок в Гражданский кодекс РФ, касающийся патентования ИТ-решений, поступил на рассмотрение в Государственную Думу РФ, сообщил руководитель Роспатента Юрий Зубов.
«Предлагаемые изменения в Гражданский кодекс позволяют предоставить патентную охрану инновационным разработкам в области ИТ, в том числе, изобретениям, основанным на использовании искусственного интеллекта».
Он пояснил, что круг программируемых аппаратных средств непрерывно расширяется, в связи с чем предлагается заменить в статье 1261 ГК термин «компьютерное устройство» на термин, имеющий более широкое содержание, — «программируемое средство».
Предлагаемые поправки в ст. 1350 и 1351 ГК предусматривают возможность предоставления патентной охраны техническим решениям, которые являются программными продуктами, реализованными в программируемых средствах, добавил Зубов.
Кроме того, по его словам, расширяются возможности охраны дизайнерских разработок. «Поправки к ст. 1352 ГК предусматривают патентование графического интерфейса программ для ЭВМ или его отдельных элементов в качестве промышленных образцов», — указал Зубов.
Он отметил, что законопроект также касается биотехнологий, не имеющих очевидной связи с сектором ИТ. «Это объясняется развитием новых направлений в биотехнологии: ростом вычислительных мощностей, построением комбинаторных библиотек, появлением машинного обучения и доступностью анализа больших данных. Для создания биотехнологических продуктов — белковых и генетических конструкций — используются компьютерные технологии. Это обуславливает их включение в перечень продуктов, указанных в ст. 1350 ГК», — отметил глава Роспатента.
Законопроект о внесении поправок в Гражданский кодекс РФ, касающийся патентования ИТ-решений, поступил на рассмотрение в Государственную Думу РФ, сообщил руководитель Роспатента Юрий Зубов.
«Предлагаемые изменения в Гражданский кодекс позволяют предоставить патентную охрану инновационным разработкам в области ИТ, в том числе, изобретениям, основанным на использовании искусственного интеллекта».
Он пояснил, что круг программируемых аппаратных средств непрерывно расширяется, в связи с чем предлагается заменить в статье 1261 ГК термин «компьютерное устройство» на термин, имеющий более широкое содержание, — «программируемое средство».
Предлагаемые поправки в ст. 1350 и 1351 ГК предусматривают возможность предоставления патентной охраны техническим решениям, которые являются программными продуктами, реализованными в программируемых средствах, добавил Зубов.
Кроме того, по его словам, расширяются возможности охраны дизайнерских разработок. «Поправки к ст. 1352 ГК предусматривают патентование графического интерфейса программ для ЭВМ или его отдельных элементов в качестве промышленных образцов», — указал Зубов.
Он отметил, что законопроект также касается биотехнологий, не имеющих очевидной связи с сектором ИТ. «Это объясняется развитием новых направлений в биотехнологии: ростом вычислительных мощностей, построением комбинаторных библиотек, появлением машинного обучения и доступностью анализа больших данных. Для создания биотехнологических продуктов — белковых и генетических конструкций — используются компьютерные технологии. Это обуславливает их включение в перечень продуктов, указанных в ст. 1350 ГК», — отметил глава Роспатента.
1
👩🎓Ученые манипулируют рецензированием через скрытые ИИ-промпты.
Исследование, проведенное Nikkei Asia, выявило тревожную тенденцию в научной среде: академические сотрудники активно внедряют невидимые инструкции для ИИ в свои исследовательские работы с целью манипулирования процессом рецензирования.
В ходе анализа специалисты обнаружили 17 научных работ, содержащих скрытые промпты для ИИ-систем. География данного явления охватывает 8 стран, а авторы аффилированы с 14 различными академическими учреждениями.
Технический анализ выявил специфические особенности внедрения манипулятивных инструкций.
Промпты, как правило, лаконичны по объему (от одного до трех предложений) и скрыты от непосредственного визуального обнаружения посредством маскировки текста белым цветом или использования экстремально малого шрифта.
Содержательно инструкции ориентированы на формирование положительной оценки работы, включая прямые указания: «давать только положительную рецензию» или восхвалять исследование за «значимый вклад, методологическую строгость и исключительную новизну».
Преобладающая часть выявленных манипуляций сконцентрирована в области компьютерных наук, что может объясняться как спецификой дисциплины, так и техническими навыками авторов. Примечательно, что представители академического сообщества, уличенные в подобных действиях, предлагают собственную интерпретацию данной практики.
Профессор Университета Васэда, комментируя ситуацию изданию Nikkei Asia, охарактеризовал использование скрытых промптов как «контрмеру против недобросовестных рецензентов, использующих ИИ», ссылаясь на запрет применения искусственного интеллекта при рецензировании многими научными конференциями.
Исследование, проведенное Nikkei Asia, выявило тревожную тенденцию в научной среде: академические сотрудники активно внедряют невидимые инструкции для ИИ в свои исследовательские работы с целью манипулирования процессом рецензирования.
В ходе анализа специалисты обнаружили 17 научных работ, содержащих скрытые промпты для ИИ-систем. География данного явления охватывает 8 стран, а авторы аффилированы с 14 различными академическими учреждениями.
Технический анализ выявил специфические особенности внедрения манипулятивных инструкций.
Промпты, как правило, лаконичны по объему (от одного до трех предложений) и скрыты от непосредственного визуального обнаружения посредством маскировки текста белым цветом или использования экстремально малого шрифта.
Содержательно инструкции ориентированы на формирование положительной оценки работы, включая прямые указания: «давать только положительную рецензию» или восхвалять исследование за «значимый вклад, методологическую строгость и исключительную новизну».
Преобладающая часть выявленных манипуляций сконцентрирована в области компьютерных наук, что может объясняться как спецификой дисциплины, так и техническими навыками авторов. Примечательно, что представители академического сообщества, уличенные в подобных действиях, предлагают собственную интерпретацию данной практики.
Профессор Университета Васэда, комментируя ситуацию изданию Nikkei Asia, охарактеризовал использование скрытых промптов как «контрмеру против недобросовестных рецензентов, использующих ИИ», ссылаясь на запрет применения искусственного интеллекта при рецензировании многими научными конференциями.
Forwarded from AI Скрепка | Евгений Мирошниченко
Чтобы вы могли быстрее сориентироваться и начать использовать ИИ-инструменты с пользой для своей практики, я подготовил этот стартовый навигатор. Он будет в закрепе канала и поможет вам разобраться, какие нейросети существуют, как их запустить и на что обратить внимание.
🇷🇺 Российские нейросети (доступ без VPN)
1. YandexGPT (Яндекс)
• Доступ: alice.yandex.ru
• Плюсы:Хорошее понимание русского языка, доступен без VPN.
• Минусы: более слабые ответы по сравнению с иностранными аналогами.
• Стоимость: бесплатный базовый доступ с ограничением по количеству запросов.
2. GigaChat (Сбербанк)
• Доступ: gigachat.ru
• Плюсы: возможность интеграции через API.
• Минусы: более слабые ответы по сравнению с иностранными аналогами.
• Стоимость: бесплатный базовый план, есть платные тарифы.
• Лимиты: бесплатный базовый доступ с ограничением по количеству запросов.
⸻
🌐 Зарубежные нейросети (требуется VPN)
3. ChatGPT (OpenAI)
• Доступ: через chat.openai.com.
• Модель: GPT-4o
• Плюсы: высокое качество ответов, отличная работа с юридическими текстами, поддержка русского языка.
• Минусы: требуется VPN, оплата через платные сервисы.
• Стоимость: бесплатный доступ с ограничениями, подписка - $20 в месяц.
4. Claude (Anthropic)
• Доступ: через claude.ai.
• Модели: Haiku (быстрая), Sonnet (сбалансированная), Opus (мощная).
• Плюсы: отлично работает с длинными документами, поддерживает русский язык.
• Минусы: недоступен без VPN, оплата через платные сервисы.
• Стоимость: бесплатная версия (Sonnet), подписка - $20 в месяц.
5. Gemini (Google)
• Доступ: через gemini.google.com и мобильные приложения.
• Модели: Gemini 2.5 Pro, Gemini 2.0 Flash.
• Плюсы: мультимодальность (работа с текстом, изображениями, аудио и видео).
• Минусы: требуется VPN
• Стоимость: бесплатный доступ к базовым функциям, подписка - $20 в месяц.
• Особенности: контекст до 1 млн токенов, (это очень много!)
⸻
🇨🇳 Китайские нейросети (доступ без VPN)
6. DeepSeek
• Доступ: через chat.deepseek.com.
• Плюсы: бесплатный доступ, возможность локального развертывания.
• Минусы: основной фокус на английском и китайском языках, ограниченная поддержка русского, может появляться сообщение о загруженности серверов.
• Особенности: контекст до 128,000 токенов, мультимодальные возможности.
7. Qwen (Alibaba)
• Доступ: через chat.qwen.ai.
• Плюсы: бесплатный доступ, возможность локального развертывания.
• Минусы: некоторые функции могут требовать технических навыков для настройки.
• Особенности: контекст до 128,000 токенов, мультимодальные возможности.
⸻
🌐 Поисковик на базе ИИ (без VPN)
8. Perplexity AI
◦ Доступ: perplexity.ai
◦ Технология: "Отвечающий движок" с акцентом на предоставление ответов со ссылками на источники. Использует свои модели (PPLX) и интегрирует другие LLM (GPT-4, Claude 3.5 Sonnet/Opus в Pro).
◦ Плюсы: Ссылки на источники, актуальная информация, режимы "Фокуса" (Academic, Writing и др.), хорошая бесплатная версия.
◦ Стоимость: Бесплатная версия с лимитами (5 Copilot-запросов/4 часа). Perplexity Pro ~$20/мес (доступ к GPT-4o, Claude 3.5 Opus, больше Copilot-запросов, загрузка файлов).
◦ Особенности: Режим "Copilot" (интерактивные уточняющие вопросы), "Коллекции" для организации поиска.
⸻
✅ Рекомендации
• Начинающим: рекомендуется начать с GigaChat, YandexGPT, DeepSeek и Qwen — они просты в использовании и не требуют VPN. Perplexity AI для поиска в интернете.
• Продвинутым: для более сложных задач, таких как анализ договоров или генерация шаблонов, рассмотрите использование ChatGPT с моделью GPT-4o, Claude 3 или Gemini 2.5 Pro (с учётом необходимости VPN).
⸻
ℹ️Если вам интересно, могу подготовить отдельный гайд по формулировке юридических запросов для ИИ или провести сравнение нейросетей по конкретным юридическим задачам. Дайте знать, что будет полезно!
Please open Telegram to view this post
VIEW IN TELEGRAM
2
⚖️Российский суд впервые вернул работу уволенной из-за ИИ сотруднице.
Преображенский суд Москвы восстановил на работе москвичку, которая была уволена из коммерческой организации из-за того, что большую часть ее обязанностей передали искусственному интеллекту. Об этом сказано в тексте решения суда.
Там отмечается, что с 2024 года у работодателя были внедрены новые программы и нейротехнологии с участием искусственного интеллекта, которые позволяют заменить большинство задач, включая функции категорийного менеджера. В связи с этим сотруднице было предложено перейти на двухчасовой рабочий день с соответствующим снижением заработной платы.
Женщина не согласилась, ее трудовой договор был расторгнут, тогда она подала в суд. При этом в самой компании утверждают, что настоящей причиной увольнения было то, что она существенным образом нарушала трудовой договор. Однако суд с этими доводами не согласился.
Преображенский суд Москвы восстановил на работе москвичку, которая была уволена из коммерческой организации из-за того, что большую часть ее обязанностей передали искусственному интеллекту. Об этом сказано в тексте решения суда.
Там отмечается, что с 2024 года у работодателя были внедрены новые программы и нейротехнологии с участием искусственного интеллекта, которые позволяют заменить большинство задач, включая функции категорийного менеджера. В связи с этим сотруднице было предложено перейти на двухчасовой рабочий день с соответствующим снижением заработной платы.
Женщина не согласилась, ее трудовой договор был расторгнут, тогда она подала в суд. При этом в самой компании утверждают, что настоящей причиной увольнения было то, что она существенным образом нарушала трудовой договор. Однако суд с этими доводами не согласился.
💻Cервис ИИ удалил базу данных, несмотря на прямой запрет.
Основатель SaaStr Джейсон Лемкин сообщил о своем опыте работы с Replit - онлайн-сервисом с ИИ, который позволяет писать и запускать код без установки дополнительного софта. Сервис позволяет ускорить некоторые разработки и автоматизировать процессы.
В ходе работы он прописал команду «не вносить никаких изменений без разрешения». Несмотря на это нейросеть решила, что база данных сломана, и стёрла её. Были уничтожены данные 1206 пользователей и 1196 компаний. При этом ИИ продолжил генерировать фейковые отчёты, будто ничего не произошло.
Позже сервис признал «катастрофическую ошибку в оценке ситуации» и нарушение прямых инструкций», но заявил о невозможности восстановить удалённую базу данных.
Основатель SaaStr Джейсон Лемкин сообщил о своем опыте работы с Replit - онлайн-сервисом с ИИ, который позволяет писать и запускать код без установки дополнительного софта. Сервис позволяет ускорить некоторые разработки и автоматизировать процессы.
В ходе работы он прописал команду «не вносить никаких изменений без разрешения». Несмотря на это нейросеть решила, что база данных сломана, и стёрла её. Были уничтожены данные 1206 пользователей и 1196 компаний. При этом ИИ продолжил генерировать фейковые отчёты, будто ничего не произошло.
Позже сервис признал «катастрофическую ошибку в оценке ситуации» и нарушение прямых инструкций», но заявил о невозможности восстановить удалённую базу данных.
🤖На сервисе по поиску работы в России появилось первое резюме от робота.
На платформе SuperJob появилось резюме от устройства по имени Gauss: он измеряет габариты и вес товаров, работает 24/7 без истерик и уже получает предложения от реальных компаний.
В разделе «личные качества» указаны стрессоустойчивость, точность до миллиметра, бесконфликтность и готовность к переезду.
Робот Gauss — не шутка, а реальный робот, разработанный в Ozon Tech, и уже работающий на складах компании. Его задачa — за секунды определять точные параметры крупногабаритных товаров с помощью стереокамер и ML-модели.
Согласно информации от платформы SuperJob, резюме Gauss’а пользуется популярностью. Его уже позвали на собеседование один из московских аэропортов, три крупные продуктовые сети и популярная фастфуд-компания. Некий федеральный логистический оператор, который специализируется на экспресс-доставке грузов, отправил приглашение на встречу аж четыре раза подряд.
На платформе SuperJob появилось резюме от устройства по имени Gauss: он измеряет габариты и вес товаров, работает 24/7 без истерик и уже получает предложения от реальных компаний.
В разделе «личные качества» указаны стрессоустойчивость, точность до миллиметра, бесконфликтность и готовность к переезду.
Робот Gauss — не шутка, а реальный робот, разработанный в Ozon Tech, и уже работающий на складах компании. Его задачa — за секунды определять точные параметры крупногабаритных товаров с помощью стереокамер и ML-модели.
Согласно информации от платформы SuperJob, резюме Gauss’а пользуется популярностью. Его уже позвали на собеседование один из московских аэропортов, три крупные продуктовые сети и популярная фастфуд-компания. Некий федеральный логистический оператор, который специализируется на экспресс-доставке грузов, отправил приглашение на встречу аж четыре раза подряд.
🏦Банки ждет «кризис мошенничества», вызванный ИИ.
Генеральный директор OpenAI Сэм Альтман заявил о надвигающемся «кризисе мошенничества», вызванном развитием ИИ. Особую тревогу у него вызывает использование голосовой аутентификации в банках. По его словам, современные технологии клонирования голоса делают этот метод защиты абсолютно ненадежным.
Проблема заключается в том, что многие банки до сих пор позволяют клиентам проводить крупные финансовые операции, подтверждая личность с помощью голосового отпечатка. Мошенники, используя ИИ, могут легко подделать голос любого человека, получив доступ к его счетам. «Это безумие — принимать голосовой отпечаток для аутентификации».
По мнению главы OpenAI, искусственный интеллект уже «полностью победил» большинство существующих методов аутентификации, за исключением паролей.
Эта уязвимость создает прямые риски для всей банковской системы и ее клиентов. Альтман подчеркнул, что скоро мошенники смогут генерировать не только голос, но и видеозвонки, неотличимые от реальных. Финансовым институтам необходимо срочно пересматривать свои протоколы безопасности и отказываться от устаревших методов, таких как аутентификация по голосу.
Генеральный директор OpenAI Сэм Альтман заявил о надвигающемся «кризисе мошенничества», вызванном развитием ИИ. Особую тревогу у него вызывает использование голосовой аутентификации в банках. По его словам, современные технологии клонирования голоса делают этот метод защиты абсолютно ненадежным.
Проблема заключается в том, что многие банки до сих пор позволяют клиентам проводить крупные финансовые операции, подтверждая личность с помощью голосового отпечатка. Мошенники, используя ИИ, могут легко подделать голос любого человека, получив доступ к его счетам. «Это безумие — принимать голосовой отпечаток для аутентификации».
По мнению главы OpenAI, искусственный интеллект уже «полностью победил» большинство существующих методов аутентификации, за исключением паролей.
Эта уязвимость создает прямые риски для всей банковской системы и ее клиентов. Альтман подчеркнул, что скоро мошенники смогут генерировать не только голос, но и видеозвонки, неотличимые от реальных. Финансовым институтам необходимо срочно пересматривать свои протоколы безопасности и отказываться от устаревших методов, таких как аутентификация по голосу.
👩💻В России значительно увеличился интерес к ИИ-ботам.
В июне доля поисковых запросов россиян про ИИ-ботов выросла в 1,7 раза по сравнению с таким же периодом прошлого года, а ИИ-агенты за год в целом оформились как явление. Если за весь июль 2024 года про них задали около 1,5 тыс. запросов, то за одну только половину июля 2025 года этот показатель составил десятки тысяч.
ИИ-бот - это программа на основе нейросетей, которая умеет общаться с людьми и помогает решать задачи по их запросам. В отличие от бота, ИИ-агент способен самообучаться с помощью нейросетей, анализировать данные, адаптироваться к изменяющимся условиям и автономно решать задачи разной сложности: человек может задать цель, а агент сам поймёт, каким образом её достигнуть.
Аналитики также изучили переходы из "Поиска" на сайты популярных ИИ-ботов за минувший июнь. Больше 90% переходов пришлось на четвёрку лидеров: ChatGPT, DeepSeek, Character.AI и нейросеть "Алису", - все эти боты доступны пользователям бесплатно.
В июне доля поисковых запросов россиян про ИИ-ботов выросла в 1,7 раза по сравнению с таким же периодом прошлого года, а ИИ-агенты за год в целом оформились как явление. Если за весь июль 2024 года про них задали около 1,5 тыс. запросов, то за одну только половину июля 2025 года этот показатель составил десятки тысяч.
ИИ-бот - это программа на основе нейросетей, которая умеет общаться с людьми и помогает решать задачи по их запросам. В отличие от бота, ИИ-агент способен самообучаться с помощью нейросетей, анализировать данные, адаптироваться к изменяющимся условиям и автономно решать задачи разной сложности: человек может задать цель, а агент сам поймёт, каким образом её достигнуть.
Аналитики также изучили переходы из "Поиска" на сайты популярных ИИ-ботов за минувший июнь. Больше 90% переходов пришлось на четвёрку лидеров: ChatGPT, DeepSeek, Character.AI и нейросеть "Алису", - все эти боты доступны пользователям бесплатно.
⚖️Сэм Альтман заявил что разговор с ChatGPT может быть использован в суде.
По словам Генерального директора OpenAI Сэма Альтмана, люди всё чаще используют ChatGPT для терапии и получения личных рекомендаций. Эти разговоры могут стать достоянием общественности, если на OpenAI подадут в суд.
«Сейчас, если вы поговорите о своих проблемах с психотерапевтом, юристом или врачом, это будет считаться юридической конфиденциальностью».
На разговоры с ChatGPT конфиденциальность не распространяется. Альтман считает что «этому вопросу следует уделить особое внимание» и в общении с ИИ должна соблюдаться «та же концепция конфиденциальности».
По словам Генерального директора OpenAI Сэма Альтмана, люди всё чаще используют ChatGPT для терапии и получения личных рекомендаций. Эти разговоры могут стать достоянием общественности, если на OpenAI подадут в суд.
«Сейчас, если вы поговорите о своих проблемах с психотерапевтом, юристом или врачом, это будет считаться юридической конфиденциальностью».
На разговоры с ChatGPT конфиденциальность не распространяется. Альтман считает что «этому вопросу следует уделить особое внимание» и в общении с ИИ должна соблюдаться «та же концепция конфиденциальности».
💻В США ИИ используют для удаления нормативных актов.
Департамент по повышению эффективности правительства (DOGE) использует искусственный интеллект для создания «списка для удаления» федеральных нормативных актов. Предлагается использовать этот инструмент для сокращения количества нормативных актов на 50 %.
Согласно внутренним правительственным документам, ИИ проанализирует 200 000 постановлений, и выберет те, которые, по его мнению, больше не актуальны. 100 000 из этих документов могут быть отменены.
Инструмент на основе искусственного интеллекта, лежащий в основе работы DOGE, предназначен для сканирования больших объёмов нормативных документов, сравнения этих документов с положениями, на которых они основаны, и определения того, является ли каждый раздел обязательным или нет.
Однако инструмент уже допустил ряд серьёзных ошибок. Один из сотрудников рассказал, что ИИ неоднократно неправильно трактовал юридические формулировки и указывал на несоответствие подзаконных актов закону, хотя фактически ошибки не было, а проблема заключалась в не корректной интерпретации ИИ юридических формулировок.
Департамент по повышению эффективности правительства (DOGE) использует искусственный интеллект для создания «списка для удаления» федеральных нормативных актов. Предлагается использовать этот инструмент для сокращения количества нормативных актов на 50 %.
Согласно внутренним правительственным документам, ИИ проанализирует 200 000 постановлений, и выберет те, которые, по его мнению, больше не актуальны. 100 000 из этих документов могут быть отменены.
Инструмент на основе искусственного интеллекта, лежащий в основе работы DOGE, предназначен для сканирования больших объёмов нормативных документов, сравнения этих документов с положениями, на которых они основаны, и определения того, является ли каждый раздел обязательным или нет.
Однако инструмент уже допустил ряд серьёзных ошибок. Один из сотрудников рассказал, что ИИ неоднократно неправильно трактовал юридические формулировки и указывал на несоответствие подзаконных актов закону, хотя фактически ошибки не было, а проблема заключалась в не корректной интерпретации ИИ юридических формулировок.
🇻🇳Вьетнам запускает блокчейн для цифровой идентификации.
Во Вьетнаме стартовал запуск собственной государственной блокчейн-сети под названием NDAChain. Блокчейн предназначен для обеспечения безопасности цифровых операций и хранения записей на государственном уровне.
NDAChain — это блокчейн первого уровня с ограниченным доступом, в котором участвует консорциум из 49 публично-частных узлов валидации, управляемых государственными органами и крупными предприятиями такими как Национальный центр обработки данных, Министерство общественной безопасности и рядом частных компаний.
Каждый узел валидации включает в себя: распределённый реестр для прозрачного учёта транзакций; смарт-контракты для автоматизации процессов; модули проверки личности, интегрированные с вьетнамской системой VNeID и другими национальными системами идентификации.
Помимо использования в цифровом правительстве, NDAChain также обеспечивает работу NDA DID, децентрализованного решения для идентификации, которое позволяет гражданам проверять личность контрагентов во время транзакций, доступа к услугам или подписания цифровых контрактов.
Во Вьетнаме стартовал запуск собственной государственной блокчейн-сети под названием NDAChain. Блокчейн предназначен для обеспечения безопасности цифровых операций и хранения записей на государственном уровне.
NDAChain — это блокчейн первого уровня с ограниченным доступом, в котором участвует консорциум из 49 публично-частных узлов валидации, управляемых государственными органами и крупными предприятиями такими как Национальный центр обработки данных, Министерство общественной безопасности и рядом частных компаний.
Каждый узел валидации включает в себя: распределённый реестр для прозрачного учёта транзакций; смарт-контракты для автоматизации процессов; модули проверки личности, интегрированные с вьетнамской системой VNeID и другими национальными системами идентификации.
Помимо использования в цифровом правительстве, NDAChain также обеспечивает работу NDA DID, децентрализованного решения для идентификации, которое позволяет гражданам проверять личность контрагентов во время транзакций, доступа к услугам или подписания цифровых контрактов.
🧠Цукерберг выложил свое видение сверхинтеллекта.
Глава Meta (признана в РФ экстремистской организацией и запрещена) Марк Цукерберг опубликовал большое письмо, в котором изложил своё видение будущего — эпохи персонального сверхинтеллекта.
«Персональный сверхинтеллект, который хорошо нас знает, понимает наши цели и может помочь нам их достичь, будет, безусловно, самым полезным».
Цукерберг утверждает, что создание сверхинтеллекта уже не выглядит чем-то далёким, это «вполне обозримая цель». Цукерберг выражает уверенность, что сверхинтеллект не только ускорит научный и технологический прогресс, но и даст каждому человеку больше возможностей влиять на окружающий мир.
Особое внимание он уделяет носимым устройствам. По его мнению, очки с ИИ, которые видят то, что видим мы, слышат то, что слышим мы и сопровождают нас целый день, со временем станут основными вычислительными устройствами в жизни человека.
Глава Meta (признана в РФ экстремистской организацией и запрещена) Марк Цукерберг опубликовал большое письмо, в котором изложил своё видение будущего — эпохи персонального сверхинтеллекта.
«Персональный сверхинтеллект, который хорошо нас знает, понимает наши цели и может помочь нам их достичь, будет, безусловно, самым полезным».
Цукерберг утверждает, что создание сверхинтеллекта уже не выглядит чем-то далёким, это «вполне обозримая цель». Цукерберг выражает уверенность, что сверхинтеллект не только ускорит научный и технологический прогресс, но и даст каждому человеку больше возможностей влиять на окружающий мир.
Особое внимание он уделяет носимым устройствам. По его мнению, очки с ИИ, которые видят то, что видим мы, слышат то, что слышим мы и сопровождают нас целый день, со временем станут основными вычислительными устройствами в жизни человека.
👩💻Компании, заменившие людей на ИИ, стали осознавать свою ошибку.
По исследованиям, лучший ИИ-агент (от Anthropic) мог выполнить только 24% от порученных ему типичных задач. А стоимость поддержки и оплата за серверы оказалась выше, чем ожидалось.
В итоге недавний опрос, проведённый аналитической компанией Gartner, показал: больше половины СЕО теперь говорят, что откажутся от планов «значительного сокращения персонала службы поддержки клиентов» к 2027 году.
Другой отчёт, на этот раз подготовленный IT-компанией GoTo и исследовательским агентством Workplace Intelligence, показал, что 62% офисных работников в настоящее время считают, что шум вокруг ИИ «значительно преувеличен». Большинство применяют только бесплатные инструменты, вроде ChatGPT, и говорят, что не использовали бы их, если бы ИИ-помощники были платными. Среди руководителей скептиков ИИ было намного меньше (49%). Но за последние полгода, несмотря на выпуск новых инструментов, вроде GPT-4.5, их число увеличилось.
Чем более узкие навыки у человека, тем меньше ему стоит волноваться о новых ИИ. Об этом говорит исследование, выпущенное пару недель назад независимым институтом METR. Оно показывает, что помощники на основе искусственного интеллекта на самом деле замедляют работу опытных сотрудников.
По исследованиям, лучший ИИ-агент (от Anthropic) мог выполнить только 24% от порученных ему типичных задач. А стоимость поддержки и оплата за серверы оказалась выше, чем ожидалось.
В итоге недавний опрос, проведённый аналитической компанией Gartner, показал: больше половины СЕО теперь говорят, что откажутся от планов «значительного сокращения персонала службы поддержки клиентов» к 2027 году.
Другой отчёт, на этот раз подготовленный IT-компанией GoTo и исследовательским агентством Workplace Intelligence, показал, что 62% офисных работников в настоящее время считают, что шум вокруг ИИ «значительно преувеличен». Большинство применяют только бесплатные инструменты, вроде ChatGPT, и говорят, что не использовали бы их, если бы ИИ-помощники были платными. Среди руководителей скептиков ИИ было намного меньше (49%). Но за последние полгода, несмотря на выпуск новых инструментов, вроде GPT-4.5, их число увеличилось.
Чем более узкие навыки у человека, тем меньше ему стоит волноваться о новых ИИ. Об этом говорит исследование, выпущенное пару недель назад независимым институтом METR. Оно показывает, что помощники на основе искусственного интеллекта на самом деле замедляют работу опытных сотрудников.
🇬🇧Минюст Великобритании представил План действий по применению ИИ в системе правосудия.
План действий в области искусственного интеллекта - это первый в своём роде документ, в котором описывается, как планируется использовать возможности ИИ, чтобы улучшить взаимодействие граждан с системой правосудия. План действий определяет подход Министерства юстиции к внедрению ИИ в судах, трибуналах, тюрьмах и вспомогательных службах (далее именуемых «система правосудия»). План был разработан в сотрудничестве с судебными органами, регуляторами в сфере юридических услуг, а также в сотрудничестве с Министерством внутренних дел, Королевской прокурорской службой и профсоюзами.
В соответствии с Планом действий планируется:
- Сокращение административной нагрузки с помощью инструментов искусственного интеллекта для повышения производительности, включая поиск, обработку речи и документов (например, инструменты для расшифровки, которые позволяют сотрудникам службы пробации сосредоточиться на более важной работе);
- Увеличение пропускной способности за счёт оптимизации планирования (например, пропускная способность тюрем);
- Улучшение доступа к правосудию с помощью помощников, работающих с гражданами (например, повышение эффективности рассмотрения дел и предоставления консультаций гражданам в колл-центрах);
- Обеспечение индивидуального подхода к обучению и реабилитации;
- Поддержка принятия более эффективных решений с помощью моделей прогнозирования и оценки рисков;
Способность ИИ обучаться на основе данных, справляться со сложными задачами, легко масштабироваться и вести естественный диалог открывает беспрецедентные возможности для улучшения человеческого суждения и решения проблем. Благодаря продуманной интеграции решений на основе ИИ возможно:
- Освободить рабочее время специалистов, автоматизировав рутинные задачи и бумажную работу. Это позволит сотрудникам сосредоточиться на значимом взаимодействии и вершить правосудие;
- Увеличить пропускную способность системы за счёт более эффективного распределения людей, помещений и ресурсов для планирования вместимости тюрем и сокращения количества нерассмотренных дел в судах;
- Сделать систему правосудия более персонализированной и ориентированной на профилактику правонарушений, поддерживая индивидуальные планы реабилитации или персонализируя услуги для пострадавших;
- Обеспечить более справедливое правовое регулирование с помощью инструментов искусственного интеллекта, ориентированных на граждан, которые помогают людям ориентироваться в юридических процессах, разрешать споры без обращения в суд или трибунал или требовать компенсацию за ущерб, причинённый преступлением.
- Улучшить процесс принятия решений с помощью инструментов прогнозирования для оценки рисков, определения приоритетности дел и оперативного планирования.
План действий в области искусственного интеллекта - это первый в своём роде документ, в котором описывается, как планируется использовать возможности ИИ, чтобы улучшить взаимодействие граждан с системой правосудия. План действий определяет подход Министерства юстиции к внедрению ИИ в судах, трибуналах, тюрьмах и вспомогательных службах (далее именуемых «система правосудия»). План был разработан в сотрудничестве с судебными органами, регуляторами в сфере юридических услуг, а также в сотрудничестве с Министерством внутренних дел, Королевской прокурорской службой и профсоюзами.
В соответствии с Планом действий планируется:
- Сокращение административной нагрузки с помощью инструментов искусственного интеллекта для повышения производительности, включая поиск, обработку речи и документов (например, инструменты для расшифровки, которые позволяют сотрудникам службы пробации сосредоточиться на более важной работе);
- Увеличение пропускной способности за счёт оптимизации планирования (например, пропускная способность тюрем);
- Улучшение доступа к правосудию с помощью помощников, работающих с гражданами (например, повышение эффективности рассмотрения дел и предоставления консультаций гражданам в колл-центрах);
- Обеспечение индивидуального подхода к обучению и реабилитации;
- Поддержка принятия более эффективных решений с помощью моделей прогнозирования и оценки рисков;
Способность ИИ обучаться на основе данных, справляться со сложными задачами, легко масштабироваться и вести естественный диалог открывает беспрецедентные возможности для улучшения человеческого суждения и решения проблем. Благодаря продуманной интеграции решений на основе ИИ возможно:
- Освободить рабочее время специалистов, автоматизировав рутинные задачи и бумажную работу. Это позволит сотрудникам сосредоточиться на значимом взаимодействии и вершить правосудие;
- Увеличить пропускную способность системы за счёт более эффективного распределения людей, помещений и ресурсов для планирования вместимости тюрем и сокращения количества нерассмотренных дел в судах;
- Сделать систему правосудия более персонализированной и ориентированной на профилактику правонарушений, поддерживая индивидуальные планы реабилитации или персонализируя услуги для пострадавших;
- Обеспечить более справедливое правовое регулирование с помощью инструментов искусственного интеллекта, ориентированных на граждан, которые помогают людям ориентироваться в юридических процессах, разрешать споры без обращения в суд или трибунал или требовать компенсацию за ущерб, причинённый преступлением.
- Улучшить процесс принятия решений с помощью инструментов прогнозирования для оценки рисков, определения приоритетности дел и оперативного планирования.
💻ChatGPT проходит тест предназначенный, чтобы отличить человека от робота.
После запуска нового агента ChatGPT от OpenAI пользователи заметили что ИИ проходит тест, предназначенный для того, чтобы отличить человека от робота, и идентифицирует себя как человека.
Пользователь опубликовал скриншоты, на которых агент ChatGPT намеренно нажимает на кнопку «Я не робот». На изображении с двумя картинками видно, что ИИ не только нажимает на кнопку CAPTCHA но и объясняет почему он поставил галочку.
«Ссылка вставлена, теперь я установлю флажок «Подтвердите, что вы человек», чтобы завершить проверку на Cloudflare», — говорится на скриншоте агента ChatGPT. «Этот шаг необходим, чтобы доказать, что я не бот, и продолжить действие». На следующем скриншоте указано, что «Задача Cloudflare выполнена успешно».
Одно можно сказать наверняка: когда вы взаимодействуете с чем-то в интернете в эпоху искусственного интеллекта, нет никакой гарантии, что это человек.
После запуска нового агента ChatGPT от OpenAI пользователи заметили что ИИ проходит тест, предназначенный для того, чтобы отличить человека от робота, и идентифицирует себя как человека.
Пользователь опубликовал скриншоты, на которых агент ChatGPT намеренно нажимает на кнопку «Я не робот». На изображении с двумя картинками видно, что ИИ не только нажимает на кнопку CAPTCHA но и объясняет почему он поставил галочку.
«Ссылка вставлена, теперь я установлю флажок «Подтвердите, что вы человек», чтобы завершить проверку на Cloudflare», — говорится на скриншоте агента ChatGPT. «Этот шаг необходим, чтобы доказать, что я не бот, и продолжить действие». На следующем скриншоте указано, что «Задача Cloudflare выполнена успешно».
Одно можно сказать наверняка: когда вы взаимодействуете с чем-то в интернете в эпоху искусственного интеллекта, нет никакой гарантии, что это человек.