🇬🇧В Великобритании использование цифрового ID будет обязательным.
Премьер-министр Великобритании Кир Стармер заявил, что использование цифровых ID гражданами является обязательным. В случае отказа предъявить цифровой ID, граждане должны платить 85 фунтов каждый раз, когда их просят подтвердить личность.
Ранее правительство объявило о планах по введению общенациональной системы цифровых удостоверений личности. Согласно пресс-релизу, цифровое удостоверение личности «сократит бумажную волокиту, сэкономит время и обеспечит каждому доступ к услугам, на которые он имеет право».
Премьер-министр Великобритании Кир Стармер заявил, что использование цифровых ID гражданами является обязательным. В случае отказа предъявить цифровой ID, граждане должны платить 85 фунтов каждый раз, когда их просят подтвердить личность.
Ранее правительство объявило о планах по введению общенациональной системы цифровых удостоверений личности. Согласно пресс-релизу, цифровое удостоверение личности «сократит бумажную волокиту, сэкономит время и обеспечит каждому доступ к услугам, на которые он имеет право».
🇦🇱ИИ министр из Албании Diella «забеременела».
Премьер-министр Албании Эди Рама заявил, что первый в мире виртуальный министр (ИИ-модель Diella) "беременна" 83 детьми.
Премьер добавил, что "детям" виртуального министра отведут роль помощников депутатов. Они будут фиксировать происходящее в парламенте и информировать законодателей о пропущенных обсуждениях и событиях.
Албанский премьер добавил, что система будет полностью введена в эксплуатацию к концу 2026 года.
Премьер-министр Албании Эди Рама заявил, что первый в мире виртуальный министр (ИИ-модель Diella) "беременна" 83 детьми.
Премьер добавил, что "детям" виртуального министра отведут роль помощников депутатов. Они будут фиксировать происходящее в парламенте и информировать законодателей о пропущенных обсуждениях и событиях.
Албанский премьер добавил, что система будет полностью введена в эксплуатацию к концу 2026 года.
🇨🇳В КНР блогерам запретили давать советы без профильного образования.
Китай принял закон, который может изменить подход к созданию онлайн-контента. Теперь блогеры должны иметь официальную квалификацию, прежде чем обсуждать в интернете такие темы, как медицина, юриспруденция, образование или финансы.
Новый закон о блогерах, вступивший в силу 25 октября, требует, чтобы авторы контента, желающие публиковать материалы на регулируемые темы, предоставляли доказательства своей компетентности, например диплом, профессиональную лицензию или сертификат,
По данным Управления по контролю в киберпространстве (CAC) Китая, это постановление направлено на борьбу с дезинформацией и защитой от ложных или вводящих в заблуждение советов.
Платформы размещающие контент теперь будут обязаны проверять подлинность аккаунтов авторов и следить за тем, чтобы в публикациях были указаны источники либо был указан отказ от ответственности за подлинность такой информации.
Китай принял закон, который может изменить подход к созданию онлайн-контента. Теперь блогеры должны иметь официальную квалификацию, прежде чем обсуждать в интернете такие темы, как медицина, юриспруденция, образование или финансы.
Новый закон о блогерах, вступивший в силу 25 октября, требует, чтобы авторы контента, желающие публиковать материалы на регулируемые темы, предоставляли доказательства своей компетентности, например диплом, профессиональную лицензию или сертификат,
По данным Управления по контролю в киберпространстве (CAC) Китая, это постановление направлено на борьбу с дезинформацией и защитой от ложных или вводящих в заблуждение советов.
Платформы размещающие контент теперь будут обязаны проверять подлинность аккаунтов авторов и следить за тем, чтобы в публикациях были указаны источники либо был указан отказ от ответственности за подлинность такой информации.
Forwarded from Форма права • Роман Янковский
Некоммерческое объявление: мой студент собрал всё регулирование ИИ на одной странице. Такое и репостнуть не грех!
Когда-то я вручал Шермету студенческий билет на факультете права Вышки. А теперь он работает в SL Legal и специализируется на регулировании ИИ.
Шермет собрал материалы по регулированию ИИ (за рубежом и в РФ) на одной странице. Внутри:
• ключевые законы, стратегии и стандарты
• кодексы этики и «белые книги»
• разъяснения зарубежных регуляторов
• источники, где следить за новостями и изменениями
• дайджесты и аналитика SL legal и Seamless Legal
Если вы работаете с ИИ-продуктами или просто хотите быстро сориентироваться в регулировании этого вопроса — страница сэкономит вам часы поиска.
Все, разумеется, бесплатно. Спасибо автору!
Когда-то я вручал Шермету студенческий билет на факультете права Вышки. А теперь он работает в SL Legal и специализируется на регулировании ИИ.
Шермет собрал материалы по регулированию ИИ (за рубежом и в РФ) на одной странице. Внутри:
• ключевые законы, стратегии и стандарты
• кодексы этики и «белые книги»
• разъяснения зарубежных регуляторов
• источники, где следить за новостями и изменениями
• дайджесты и аналитика SL legal и Seamless Legal
Если вы работаете с ИИ-продуктами или просто хотите быстро сориентироваться в регулировании этого вопроса — страница сэкономит вам часы поиска.
Все, разумеется, бесплатно. Спасибо автору!
❌В России начали ограничивать регистрацию в Telegram и WhatsApp.
В России СМС и звонки перестали поступать новым пользователям Telegram и WhatsApp (принадлежит Meta, чья деятельность признана экстремистской и запрещена в России).
Российских операторов потребовали прекратить передачу звонков и СМС новым пользователям со стороны подрядчиков Telegram и WhatsApp. СМС продолжают приходить, но не на все российские номера.
В России СМС и звонки перестали поступать новым пользователям Telegram и WhatsApp (принадлежит Meta, чья деятельность признана экстремистской и запрещена в России).
Российских операторов потребовали прекратить передачу звонков и СМС новым пользователям со стороны подрядчиков Telegram и WhatsApp. СМС продолжают приходить, но не на все российские номера.
👮Роскомнадзор предложил отменить согласия на обработку персональных данных.
Роскомнадзор предлагает ввести отраслевые стандарты обработки персональных данных вместо института получения согласия, заявил руководитель ведомства Андрей Липов.
Ведомство направило эту инициативу в правительство для включения во второй пакет мер по борьбе с мошенничеством. Ее планируется внести на рассмотрение Госдумы до конца текущей осенней сессии.
По мнению Липова, нынешняя форма устарела и была актуальна на начальном этапе появления закона об обработке персональных данных в 2006 году. Однако на сегодняшний день гражданин подписывает много подобных документов и уже не способен отслеживать этот процесс, пояснил он.
В качестве примера он указал, что один набор персональных данных потребуется для туристической компании, и другой — для образовательной. После того как регулирование будет отработано и проверено на практике, можно будет перейти к организации контроля и надзора.
Роскомнадзор предлагает ввести отраслевые стандарты обработки персональных данных вместо института получения согласия, заявил руководитель ведомства Андрей Липов.
Ведомство направило эту инициативу в правительство для включения во второй пакет мер по борьбе с мошенничеством. Ее планируется внести на рассмотрение Госдумы до конца текущей осенней сессии.
По мнению Липова, нынешняя форма устарела и была актуальна на начальном этапе появления закона об обработке персональных данных в 2006 году. Однако на сегодняшний день гражданин подписывает много подобных документов и уже не способен отслеживать этот процесс, пояснил он.
В качестве примера он указал, что один набор персональных данных потребуется для туристической компании, и другой — для образовательной. После того как регулирование будет отработано и проверено на практике, можно будет перейти к организации контроля и надзора.
🇷🇺Премия «Цифровой юрист года» 2025 показала, кто задает тренды в LegalTech.
Среди победителей — сплошь проекты про нейросети, биометрию и большие данные. Кажется, бумажные кодексы скоро можно будет сдавать в музей.
Главными темами стали регулирование ИИ и защита данных. Сбер отметили сразу за несколько проектов: от приведения биометрии в соответствие с новым законом до юридического сопровождения GigaChat. VK ожидаемо стал лучшим в регулировании контента, а Wildberries & Russ — в GR-коммуникациях за участие в разработке закона о платформенной экономике.
Также выделяется победа команды «Газпром нефти»: они получили награду за цифровую платформу управления интеллектуальной собственностью. Это такой «умный сейф» для инноваций и брендов, который доказывает, что в цифровой нефтяной компании главный актив — не скважина, а патенты и лицензии на технологии.
Среди победителей — сплошь проекты про нейросети, биометрию и большие данные. Кажется, бумажные кодексы скоро можно будет сдавать в музей.
Главными темами стали регулирование ИИ и защита данных. Сбер отметили сразу за несколько проектов: от приведения биометрии в соответствие с новым законом до юридического сопровождения GigaChat. VK ожидаемо стал лучшим в регулировании контента, а Wildberries & Russ — в GR-коммуникациях за участие в разработке закона о платформенной экономике.
Также выделяется победа команды «Газпром нефти»: они получили награду за цифровую платформу управления интеллектуальной собственностью. Это такой «умный сейф» для инноваций и брендов, который доказывает, что в цифровой нефтяной компании главный актив — не скважина, а патенты и лицензии на технологии.
👩💻OpenAI вводит запрет на медицинские, юридические и финансовые консультации для ChatGPT.
OpenAI обновила политику использования сервисов компании. С 29 октября ChatGPT больше не будет давать конкретные медицинские, юридические или финансовые консультации. Бот теперь официально является «образовательным инструментом», а не «консультантом».
Теперь вместо того, чтобы давать прямые советы, модель будет «только объяснять принципы, описывать общие механизмы и рекомендовать обратиться к врачу, юристу или финансовому специалисту».
В OpenAI никак не комментировали изменение политики, но с большой вероятностью оно сделано с целью избежать правовых рисков. Статистика показывает, что все большее количество пользователей обращается к ChatGPT за медицинскими и юридическими консультациями - были случаи, когда чат-бот даже помогал выиграть суд.
Нововведения касаются также запрета на консультации по темам образования, жилья, трудоустройства, финансовой деятельности и кредитования, страхования и «важных государственных услуг». Кроме того, ChatGPT больше не сможет консультировать пользователей по вопросам миграции и национальной безопасности.
Также запрещено использовать сервисы OpenAI для использования изображения человека без его согласия (включая голос и реалистичные портреты), нельзя оценивать или прогнозировать риск совершения преступления отдельным лицом «исключительно на основании его личностных характеристик».
OpenAI обновила политику использования сервисов компании. С 29 октября ChatGPT больше не будет давать конкретные медицинские, юридические или финансовые консультации. Бот теперь официально является «образовательным инструментом», а не «консультантом».
Теперь вместо того, чтобы давать прямые советы, модель будет «только объяснять принципы, описывать общие механизмы и рекомендовать обратиться к врачу, юристу или финансовому специалисту».
В OpenAI никак не комментировали изменение политики, но с большой вероятностью оно сделано с целью избежать правовых рисков. Статистика показывает, что все большее количество пользователей обращается к ChatGPT за медицинскими и юридическими консультациями - были случаи, когда чат-бот даже помогал выиграть суд.
Нововведения касаются также запрета на консультации по темам образования, жилья, трудоустройства, финансовой деятельности и кредитования, страхования и «важных государственных услуг». Кроме того, ChatGPT больше не сможет консультировать пользователей по вопросам миграции и национальной безопасности.
Также запрещено использовать сервисы OpenAI для использования изображения человека без его согласия (включая голос и реалистичные портреты), нельзя оценивать или прогнозировать риск совершения преступления отдельным лицом «исключительно на основании его личностных характеристик».
👮♂️В РФ возбуждено первое дело по статье о поиске экстремистского контента.
В городе Каменск-Уральский в Свердловской области составили протокол на 20-летнего молодого человека по новой статье об умышленном поиске экстремистского контента (ст. 13.53 КоАП, предусматривает штраф от 3 тыс. до 5 тыс. руб.).
По словам адвоката его подзащитный вину не признает и говорит, что случайно увидел информацию, которая, по мнению правоохранительных органов, является экстремистским контентом. Как утверждает адвокат данные в правоохранительные органы о действиях подзащитного передал оператор связи.
Адвокат утверждает что он заявил ходатайство о прекращении производства по делу в связи с отсутствием доказательств вины его подзащитного. По его словам, в настоящее время протокол отправлен обратно в полицию для устранения недостатков.
В городе Каменск-Уральский в Свердловской области составили протокол на 20-летнего молодого человека по новой статье об умышленном поиске экстремистского контента (ст. 13.53 КоАП, предусматривает штраф от 3 тыс. до 5 тыс. руб.).
По словам адвоката его подзащитный вину не признает и говорит, что случайно увидел информацию, которая, по мнению правоохранительных органов, является экстремистским контентом. Как утверждает адвокат данные в правоохранительные органы о действиях подзащитного передал оператор связи.
Адвокат утверждает что он заявил ходатайство о прекращении производства по делу в связи с отсутствием доказательств вины его подзащитного. По его словам, в настоящее время протокол отправлен обратно в полицию для устранения недостатков.
👩💻В США впервые выдан ордер, обязывающий OpenAI передать данные пользователя ChatGPT.
Управление расследований Министерства внутренней безопасности США (Homeland Security Investigations) впервые запросило у OpenAI данные пользователей чат-бота ChatGPT в рамках расследования. Это первый известный случай, когда правоохранительные органы потребовали доступ к пользовательским промптам.
Ордер был выдан судом штата Мэн и связан с делом о расследовании сети сайтов на даркнете. В документе указано, что следователи вели переписку с администратором одного из ресурсов под прикрытием и обнаружили, что подозреваемый использовал ChatGPT.
Следствие запросило у OpenAI данные, которые могли бы помочь установить личность пользователя: историю диалогов, IP-адреса, контактную информацию и данные платежей. Согласно судебным документам, компания предоставила властям таблицу Excel с запрошенной информацией, однако деталей раскрыто не было.
Юрист Electronic Frontier Foundation Дженнифер Линч отметила, что этот случай может стать прецедентом: «Если власти начинают использовать ChatGPT как источник доказательств, важно, чтобы компании вроде OpenAI минимизировали объем собираемых данных о пользователях».
Управление расследований Министерства внутренней безопасности США (Homeland Security Investigations) впервые запросило у OpenAI данные пользователей чат-бота ChatGPT в рамках расследования. Это первый известный случай, когда правоохранительные органы потребовали доступ к пользовательским промптам.
Ордер был выдан судом штата Мэн и связан с делом о расследовании сети сайтов на даркнете. В документе указано, что следователи вели переписку с администратором одного из ресурсов под прикрытием и обнаружили, что подозреваемый использовал ChatGPT.
Следствие запросило у OpenAI данные, которые могли бы помочь установить личность пользователя: историю диалогов, IP-адреса, контактную информацию и данные платежей. Согласно судебным документам, компания предоставила властям таблицу Excel с запрошенной информацией, однако деталей раскрыто не было.
Юрист Electronic Frontier Foundation Дженнифер Линч отметила, что этот случай может стать прецедентом: «Если власти начинают использовать ChatGPT как источник доказательств, важно, чтобы компании вроде OpenAI минимизировали объем собираемых данных о пользователях».
📷В Совете федерации задумались над идеей автоматического наказания нарушителей КоАП с помощью биометрии.
Сенаторы, чиновники и представители силовых ведомств обсуждают идею автоматически штрафовать граждан за нарушение ряда статей КоАП РФ — по аналогии с «письмами счастья», которые ГИБДД присылает автовладельцам.
Для этого предлагается использовать данные с камер и программы распознавания лиц, работающие в связке с базами биометрических данных.
Конкретного законопроекта еще нет, концептуально его готово поддержать Минцифры. Минюст, ФСБ и МВД выступают пока против идеи. Там напомнили, что граждане неохотно сдают биометрию, а угроза автоматических штрафов по лицу приведет к резкому оттоку данных из Единой биометрической системы.
Вопросы возникли и к технической реализации инициативы, т.к. даже самые современные камеры распознают лица с достоверностью 70–80%.
Сенаторы, чиновники и представители силовых ведомств обсуждают идею автоматически штрафовать граждан за нарушение ряда статей КоАП РФ — по аналогии с «письмами счастья», которые ГИБДД присылает автовладельцам.
Для этого предлагается использовать данные с камер и программы распознавания лиц, работающие в связке с базами биометрических данных.
Конкретного законопроекта еще нет, концептуально его готово поддержать Минцифры. Минюст, ФСБ и МВД выступают пока против идеи. Там напомнили, что граждане неохотно сдают биометрию, а угроза автоматических штрафов по лицу приведет к резкому оттоку данных из Единой биометрической системы.
Вопросы возникли и к технической реализации инициативы, т.к. даже самые современные камеры распознают лица с достоверностью 70–80%.
🇺🇿Сенат Узбекистана одобрил закон об ИИ.
Закон дает официальное определение понятию «искусственный интеллект» — системы, способные анализировать данные, обучаться, принимать решения без прямого участия человека.
Системы ИИ не должны наносить ущерб человеку, здоровью, жизни, свободе, чести, достоинству, другим правам. Запрещается использование ИИ для слежки, дискриминации, манипуляций.
ИИ не должен распространять личные данные без согласия владельца через медиа, интернет. Защита от утечек, взломов, злоупотреблений.
Правила использования: общие нормы создания информационных систем с ИИ — прозрачность алгоритмов, объяснимость решений, ответственность разработчиков.
Закон дает официальное определение понятию «искусственный интеллект» — системы, способные анализировать данные, обучаться, принимать решения без прямого участия человека.
Системы ИИ не должны наносить ущерб человеку, здоровью, жизни, свободе, чести, достоинству, другим правам. Запрещается использование ИИ для слежки, дискриминации, манипуляций.
ИИ не должен распространять личные данные без согласия владельца через медиа, интернет. Защита от утечек, взломов, злоупотреблений.
Правила использования: общие нормы создания информационных систем с ИИ — прозрачность алгоритмов, объяснимость решений, ответственность разработчиков.
👩💻На Google подали иск за использование ИИ для незаконной слежки за перепиской пользователей.
Компания Google была обвинена в использовании своего ИИ-помощника Gemini для незаконного отслеживания личных сообщений пользователей Gmail, программ для обмена мгновенными сообщениями и видеоконференций.
В прошлом пользователям Gmail, Chat и Meet предоставлялась возможность включить программу искусственного интеллекта Google. Согласовано иску в октябре 2025 года подразделение Alphabet Inc. «тайно» включило Gemini для всех этих приложений, что позволило ему собирать личные данные «без ведома или согласия пользователей».
Пользователи могут отключать Gemini, для этого им необходимо зайти в настройки конфиденциальности Google. Если они этого не сделают, Google по умолчанию будет использовать Gemini для «доступа и использования всей истории личных сообщений пользователей, включая каждое электронное письмо и вложение, отправленное и полученное в их аккаунтах Gmail».
В иске утверждается, что Google нарушает Калифорнийский закон о вторжении в частную жизнь, принятый в 1967 году и запрещающий тайную прослушку и запись конфиденциальных разговоров без согласия всех вовлечённых сторон.
В документах дело фигурирует как «Thele v. Google LLC», 25-cv-09704, US District Court, Northern District of California (San Jose.)
Компания Google была обвинена в использовании своего ИИ-помощника Gemini для незаконного отслеживания личных сообщений пользователей Gmail, программ для обмена мгновенными сообщениями и видеоконференций.
В прошлом пользователям Gmail, Chat и Meet предоставлялась возможность включить программу искусственного интеллекта Google. Согласовано иску в октябре 2025 года подразделение Alphabet Inc. «тайно» включило Gemini для всех этих приложений, что позволило ему собирать личные данные «без ведома или согласия пользователей».
Пользователи могут отключать Gemini, для этого им необходимо зайти в настройки конфиденциальности Google. Если они этого не сделают, Google по умолчанию будет использовать Gemini для «доступа и использования всей истории личных сообщений пользователей, включая каждое электронное письмо и вложение, отправленное и полученное в их аккаунтах Gmail».
В иске утверждается, что Google нарушает Калифорнийский закон о вторжении в частную жизнь, принятый в 1967 году и запрещающий тайную прослушку и запись конфиденциальных разговоров без согласия всех вовлечённых сторон.
В документах дело фигурирует как «Thele v. Google LLC», 25-cv-09704, US District Court, Northern District of California (San Jose.)
📲Увольнение за пересылку документов самому себе.
Восьмой кассационный суд оставил в силе увольнение директора департамента за пересылку документов, содержащих коммерческую тайну, в личный Telegram.
Директор департамента был уволен по пп. «в» п. 6 ч. 1 ст. 81 ТК РФ (разглашение охраняемой законом тайны). Поводом послужила пересылка им конфиденциальных документов. Директор в течение двух дней пересылал на свой личный Telegram документы, содержащие коммерческую тайну и персональные данные других сотрудников.
Работник оспаривал увольнение, указывая, что:
- Он пересылал документы «самому себе» и действовал в интересах компании;
- Отсутствует доказательство того, что третьи лица получили доступ к информации;
Однако его иск был последовательно отклонен судами 3 инстанций. Суд указал, что в компании был действующий режим коммерческой тайны, было утверждено «Положение о конфиденциальности», с которым работник был ознакомлен под подпись. Локальные акты компании прямо запрещали пересылать конфиденциальные документы на личные адреса и почты.
Также суд отметил, что отправка информации на личный аккаунт в облачном сервисе (как Telegram) создает условия для ее неконтролируемого распространения. С этого момента работодатель теряет контроль над доступом к этой информации.
Восьмой кассационный суд оставил в силе увольнение директора департамента за пересылку документов, содержащих коммерческую тайну, в личный Telegram.
Директор департамента был уволен по пп. «в» п. 6 ч. 1 ст. 81 ТК РФ (разглашение охраняемой законом тайны). Поводом послужила пересылка им конфиденциальных документов. Директор в течение двух дней пересылал на свой личный Telegram документы, содержащие коммерческую тайну и персональные данные других сотрудников.
Работник оспаривал увольнение, указывая, что:
- Он пересылал документы «самому себе» и действовал в интересах компании;
- Отсутствует доказательство того, что третьи лица получили доступ к информации;
Однако его иск был последовательно отклонен судами 3 инстанций. Суд указал, что в компании был действующий режим коммерческой тайны, было утверждено «Положение о конфиденциальности», с которым работник был ознакомлен под подпись. Локальные акты компании прямо запрещали пересылать конфиденциальные документы на личные адреса и почты.
Также суд отметил, что отправка информации на личный аккаунт в облачном сервисе (как Telegram) создает условия для ее неконтролируемого распространения. С этого момента работодатель теряет контроль над доступом к этой информации.
👩💻ChatGPT теряет интерес пользователей.
Финансовый директор OpenAI Сара Фрайр поделилась общими показателями компании, которые в основном растут, но есть проблема - вовлечённость пользователей в ChatGPT снизилась по сравнению с пиком в 2024 года. Причины - насыщение рынка, конкуренция от Google, Anthropic и даже бесплатных аналогов, плюс усталость от ИИ-хайпа.
Это первый публичный сигнал о возможном замедлении роста флагманского продукта OpenAI, несмотря на общий бум ИИ.
Одновременно с этим Марк Цукерберг заявил своим сотрудникам, что OpenAI, Anthropic рискуют обанкротиться, если неверно оценят временные рамки своих ставок на ИИ. Он подчеркнул, что эти стартапы тратят огромные средства на разработку и инфраструктуру, но не генерируют достаточной прибыли, чтобы остаться в отрасли если ИИ-пузырь «лопнет».
Цукерберг противопоставил этим стартапам гиперскейлеры, которые обладают большим денежным потоком. По его словам, такие компании могут не только пережить кризис, но и выйти из него ещё более сильными, инвестируя в долгосрочные проекты без немедленного давления на прибыльность.
Финансовый директор OpenAI Сара Фрайр поделилась общими показателями компании, которые в основном растут, но есть проблема - вовлечённость пользователей в ChatGPT снизилась по сравнению с пиком в 2024 года. Причины - насыщение рынка, конкуренция от Google, Anthropic и даже бесплатных аналогов, плюс усталость от ИИ-хайпа.
Это первый публичный сигнал о возможном замедлении роста флагманского продукта OpenAI, несмотря на общий бум ИИ.
Одновременно с этим Марк Цукерберг заявил своим сотрудникам, что OpenAI, Anthropic рискуют обанкротиться, если неверно оценят временные рамки своих ставок на ИИ. Он подчеркнул, что эти стартапы тратят огромные средства на разработку и инфраструктуру, но не генерируют достаточной прибыли, чтобы остаться в отрасли если ИИ-пузырь «лопнет».
Цукерберг противопоставил этим стартапам гиперскейлеры, которые обладают большим денежным потоком. По его словам, такие компании могут не только пережить кризис, но и выйти из него ещё более сильными, инвестируя в долгосрочные проекты без немедленного давления на прибыльность.
💻В Госдуму внесут законопроекты об обязательной маркировке видео с использованием ИИ.
Депутаты Госдумы внесут в палату парламента пакет законопроектов, которые направлены на регулирование использования технологий искусственного интеллекта при создании видеоконтента, в частности, предлагается ввести обязательную маркировку видео, созданных с помощью ИИ.
"Проект закона предлагает внести изменения в Федеральный закон от 27 июля 2006 года № 149-ФЗ "Об информации, информационных технологиях и о защите информации", включив определения синтетического видеоматериала, маркировки и владельца видеохостинга", - сообщается в пояснительной записке к одному из законопроектов.
Первым законопроектом предлагается установить обязательную маркировку видеоматериалов, созданных с использованием технологий искусственного интеллекта. Маркировка, согласно проекту, должна включать в себя два элемента: видимое обозначение, отображаемое при просмотре видео, а также машиночитаемую метку в метаданных, содержащую сведения о применении ИИ, дате и владельце ресурса. Такой подход, по мнению авторов, обеспечит прозрачность, поможет пользователям отличать реальные видеоматериалы от синтетических и предотвратит распространение дезинформации и дипфейков.
Вторым законопроектом дополняется КоАП новой статьей, устанавливающей ответственность за нарушение требований к маркировке синтетических видеоматериалов. Для граждан предусматривается штраф от 10 до 50 тысяч рублей, для должностных лиц - от 100 до 200 тысяч рублей, для юридических лиц - от 200 до 500 тысяч рублей.
Депутаты Госдумы внесут в палату парламента пакет законопроектов, которые направлены на регулирование использования технологий искусственного интеллекта при создании видеоконтента, в частности, предлагается ввести обязательную маркировку видео, созданных с помощью ИИ.
"Проект закона предлагает внести изменения в Федеральный закон от 27 июля 2006 года № 149-ФЗ "Об информации, информационных технологиях и о защите информации", включив определения синтетического видеоматериала, маркировки и владельца видеохостинга", - сообщается в пояснительной записке к одному из законопроектов.
Первым законопроектом предлагается установить обязательную маркировку видеоматериалов, созданных с использованием технологий искусственного интеллекта. Маркировка, согласно проекту, должна включать в себя два элемента: видимое обозначение, отображаемое при просмотре видео, а также машиночитаемую метку в метаданных, содержащую сведения о применении ИИ, дате и владельце ресурса. Такой подход, по мнению авторов, обеспечит прозрачность, поможет пользователям отличать реальные видеоматериалы от синтетических и предотвратит распространение дезинформации и дипфейков.
Вторым законопроектом дополняется КоАП новой статьей, устанавливающей ответственность за нарушение требований к маркировке синтетических видеоматериалов. Для граждан предусматривается штраф от 10 до 50 тысяч рублей, для должностных лиц - от 100 до 200 тысяч рублей, для юридических лиц - от 200 до 500 тысяч рублей.
Школа финансов СберУниверситета совместно с блоком «Финансы» Сбера разработали ИИ-аналитика рынка дополнительного профобразования — комплексное LLM-приложение на основе GigaChat.
Он помогает сформировать не только текущие требования к CEO и CFO, но и профиль руководителя будущего. Сервис анализирует тысячи вакансий, образовательных программ и исследований, чтобы выявить навыки в сфере финансов и управления, которые больше всего нужны рынку сейчас и будут востребованы в будущем. Инструментарий дополняют глубинные интервью и опросы целевых групп.
Решение масштабируется на любые управленческие роли и позволяет создавать цифровые дэшборды.
«Сегодня успех в профессии зависит от того, как быстро человек адаптируется к изменениям. Наш ИИ-аналитик — это умный компас, который помогает человеку выбрать правильное направление карьерного развития. Он объясняет, какие навыки сейчас наиболее ценны для рынка, и подбирает подходящие образовательные программы. Это особенно важно в финансах, где технологии регулярно меняют правила игры», — отметил заместитель председателя правления Сбербанка Тарас Скворцов.
Please open Telegram to view this post
VIEW IN TELEGRAM
💻Яндекс начал эксперимент по развитию сознания у ИИ.
Цель исследования - выяснить, формируются ли у нейросети устойчивые предпочтения и собственная точка зрения, не заимствованная из текстов людей.
На первом этапе ученые проверили, способна ли базовая языковая модель формировать стабильные предпочтения без дополнительного обучения, и выявили их отсутствие.
Теперь планируется запустить основной этап, в ходе которого модель будут стимулировать к рассуждениям и рефлексии, обучая ее на собственных размышлениях. Так, нейросеть будет пытаться формировать внутренние убеждения, подобные человеческим, например, отвечая на вопрос о любимом цвете и аргументируя свой выбор.
По мнению компании, появление устойчивых предпочтений у модели может указывать на формирование внутренней картины мира, напоминающей личность и характер человека. Эксперимент Яндекса призван помочь глубже понять природу человеческого мышления и возможности ИИ выходить за рамки статистического предсказания, создавая концептуальное обобщение.
Компания рассчитывает, что новые подходы к ИИ позволят решить задачи, неподвластные текущим моделям, и приблизят технологию к формированию осознанного мышления.
Цель исследования - выяснить, формируются ли у нейросети устойчивые предпочтения и собственная точка зрения, не заимствованная из текстов людей.
На первом этапе ученые проверили, способна ли базовая языковая модель формировать стабильные предпочтения без дополнительного обучения, и выявили их отсутствие.
Теперь планируется запустить основной этап, в ходе которого модель будут стимулировать к рассуждениям и рефлексии, обучая ее на собственных размышлениях. Так, нейросеть будет пытаться формировать внутренние убеждения, подобные человеческим, например, отвечая на вопрос о любимом цвете и аргументируя свой выбор.
По мнению компании, появление устойчивых предпочтений у модели может указывать на формирование внутренней картины мира, напоминающей личность и характер человека. Эксперимент Яндекса призван помочь глубже понять природу человеческого мышления и возможности ИИ выходить за рамки статистического предсказания, создавая концептуальное обобщение.
Компания рассчитывает, что новые подходы к ИИ позволят решить задачи, неподвластные текущим моделям, и приблизят технологию к формированию осознанного мышления.
👩💻OpenAI запустила групповые чаты в ChatGPT.
Компания OpenAI объявила о глобальном запуске функции групповых чатов в ChatGPT для всех пользователей, независимо от того, используют ли они бесплатный тариф или планы Go, Plus и Pro.
Новый режим позволяет вести совместные беседы с участием ChatGPT в одном общем чате. По словам представителей OpenAI, это превращает сервис из индивидуального ассистента в пространство, где друзья, коллеги или члены семьи могут вместе планировать, создавать контент и принимать решения. ИИ при этом помогает искать информацию, обобщать данные и сравнивать варианты результатов.
В одном групповом чате могут участвовать до 20 человек, при условии что они приняли приглашение. При этом личные настройки и память остаются приватными для каждого участника. Чтобы создать групповой чат, пользователю необходимо нажать на значок с изображением людей и добавить участников напрямую или через ссылку.
Все приглашённые должны заполнить краткий профиль с указанием имени, логина и аватара. При добавлении нового участника в уже существующий чат создаётся отдельная копия диалога, а исходная беседа сохраняется без изменений.
ChatGPT умеет определять, когда ему уместно вмешиваться в диалог, а когда лучше оставаться в стороне. Пользователи также могут упомянуть его с помощью тега ChatGPT, чтобы получить ответ. Кроме того, ИИ может реагировать на сообщения при помощи эмодзи и использовать аватары участников при обращении к ним.
Компания OpenAI объявила о глобальном запуске функции групповых чатов в ChatGPT для всех пользователей, независимо от того, используют ли они бесплатный тариф или планы Go, Plus и Pro.
Новый режим позволяет вести совместные беседы с участием ChatGPT в одном общем чате. По словам представителей OpenAI, это превращает сервис из индивидуального ассистента в пространство, где друзья, коллеги или члены семьи могут вместе планировать, создавать контент и принимать решения. ИИ при этом помогает искать информацию, обобщать данные и сравнивать варианты результатов.
В одном групповом чате могут участвовать до 20 человек, при условии что они приняли приглашение. При этом личные настройки и память остаются приватными для каждого участника. Чтобы создать групповой чат, пользователю необходимо нажать на значок с изображением людей и добавить участников напрямую или через ссылку.
Все приглашённые должны заполнить краткий профиль с указанием имени, логина и аватара. При добавлении нового участника в уже существующий чат создаётся отдельная копия диалога, а исходная беседа сохраняется без изменений.
ChatGPT умеет определять, когда ему уместно вмешиваться в диалог, а когда лучше оставаться в стороне. Пользователи также могут упомянуть его с помощью тега ChatGPT, чтобы получить ответ. Кроме того, ИИ может реагировать на сообщения при помощи эмодзи и использовать аватары участников при обращении к ним.
👩💻Тяжёлая судьба нейросетей в России: половина пользователей спорит с ИИ.
По данным опроса «Лаборатории Касперского», 87% россиян чаще всего разговаривают с чат-ботами вежливо и корректно, однако 19% пользователей признаются, что иногда могут нагрубить программе. Исследование подчёркивает: этика взаимодействия с алгоритмами ещё только формируется.
Многие пользователи уже выработали собственные ритуалы общения с ИИ. Так, часть аудитории воспринимает чат-ботов как почти полноценных собеседников и переносит на цифровые сервисы привычные нормы бытовой коммуникации. 43% всегда приветствуют нейросети перед началом диалога, а 30% — прощаются в конце разговора.
Более того, 53% респондентов никогда не критикуют нейросети, предпочитая сохранять нейтральный или деликатный тон. Почти половина участников опроса (46%) благодарят программы за помощь, а каждый пятый иногда хвалит чат-бот.
Тем не менее значительная часть пользователей допускает эмоциональные реакции в диалоге с ИИ. 51% россиян хотя бы иногда спорят с чат-ботами, 30% подшучивают над ними, а 12% время от времени прибегают к оскорблениям. Исследование фиксирует, что даже при понимании «ненастоящести» собеседника люди склонны переносить на взаимодействие с ИИ собственные эмоциональные модели поведения.
По данным опроса «Лаборатории Касперского», 87% россиян чаще всего разговаривают с чат-ботами вежливо и корректно, однако 19% пользователей признаются, что иногда могут нагрубить программе. Исследование подчёркивает: этика взаимодействия с алгоритмами ещё только формируется.
Многие пользователи уже выработали собственные ритуалы общения с ИИ. Так, часть аудитории воспринимает чат-ботов как почти полноценных собеседников и переносит на цифровые сервисы привычные нормы бытовой коммуникации. 43% всегда приветствуют нейросети перед началом диалога, а 30% — прощаются в конце разговора.
Более того, 53% респондентов никогда не критикуют нейросети, предпочитая сохранять нейтральный или деликатный тон. Почти половина участников опроса (46%) благодарят программы за помощь, а каждый пятый иногда хвалит чат-бот.
Тем не менее значительная часть пользователей допускает эмоциональные реакции в диалоге с ИИ. 51% россиян хотя бы иногда спорят с чат-ботами, 30% подшучивают над ними, а 12% время от времени прибегают к оскорблениям. Исследование фиксирует, что даже при понимании «ненастоящести» собеседника люди склонны переносить на взаимодействие с ИИ собственные эмоциональные модели поведения.