VK открыл свой датасет VK-LSVD для развития рекомендательных систем — он включает 40 миллиардов обезличенных взаимодействий с 20 миллионами единиц контента.
Датасет собран на базе коротких видео. Для рекомендательных систем — уникально, ведь такой контент не может потребляться фоном, в отличие от музыки или длинных видео.
Он гибко настраивается под задачи, обеспечивая безопасное и персонализированное обучение моделей.
https://huggingface.co/datasets/deepvk/VK-LSVD
Датасет собран на базе коротких видео. Для рекомендательных систем — уникально, ведь такой контент не может потребляться фоном, в отличие от музыки или длинных видео.
Он гибко настраивается под задачи, обеспечивая безопасное и персонализированное обучение моделей.
https://huggingface.co/datasets/deepvk/VK-LSVD
❤1
Компания ESET обнаружила PromptLock — первую вредоносную программу-вымогатель на базе искусственного интеллекта, использующую модели OpenAI для создания скриптов, нацеленных на Windows, Linux и macOS. https://hackread.com/first-ai-promptlock-ransomware-windows-linux-macos/.
Hackread
First AI-Powered Ransomware PromptLock Targets Windows, Linux and macOS
Follow us on Bluesky, Twitter (X), Mastodon and Facebook at @Hackread
❤1
Первое исследование, предполагающее негативное влияние регулярного использования ИИ на способность медицинских работников выполнять задачи в любой области медицины.
Наши результаты вызывают обеспокоенность, учитывая быстрое распространение ИИ в медицине . Нам срочно необходимы дополнительные исследования влияния ИИ на навыки медицинских работников в различных областях медицины.
Нам необходимо выяснить, какие факторы могут вызывать или способствовать возникновению проблем.
http://timesofindia.indiatimes.com/articleshow/123552019.cms?utm_source=contentofinterest&utm_medium=text&utm_campaign=cppst https://timesofindia.indiatimes.com/science/dependence-on-ai-may-deskill-doctors-lancet/articleshow/123552019.cms
Наши результаты вызывают обеспокоенность, учитывая быстрое распространение ИИ в медицине . Нам срочно необходимы дополнительные исследования влияния ИИ на навыки медицинских работников в различных областях медицины.
Нам необходимо выяснить, какие факторы могут вызывать или способствовать возникновению проблем.
http://timesofindia.indiatimes.com/articleshow/123552019.cms?utm_source=contentofinterest&utm_medium=text&utm_campaign=cppst https://timesofindia.indiatimes.com/science/dependence-on-ai-may-deskill-doctors-lancet/articleshow/123552019.cms
The Times of India
Dependence on AI may deskill doctors: Lancet | India News - The Times of India
India News: NEW DELHI: It is well known that AI-use in medicine can improve diagnosis and disease management.
❤1🤔1
ИИ повышает риски нерегулярных боевых действий
ИИ обладает невероятным потенциалом, но он также создает парадокс для тех, кто ведет нерегулярную войну. В то время как ИИ обещает повысить скорость и проникновение наших кампаний влияния, он одновременно усиливает присущую нам непредсказуемость, которая всегда преследовала результаты нерегулярной войны, особенно в долгосрочной перспективе.
Оглавление материала:
Информационное поле битвы ускоряется.
Проблема непредсказуемости усугубляется.
Исторические уроки непредвиденных последствий.
ИИ как фактор умножения силы и фактор риска.
https://smallwarsjournal.com/2025/08/27/ai-enhanced-risks-to-irregular-warfare/
ИИ обладает невероятным потенциалом, но он также создает парадокс для тех, кто ведет нерегулярную войну. В то время как ИИ обещает повысить скорость и проникновение наших кампаний влияния, он одновременно усиливает присущую нам непредсказуемость, которая всегда преследовала результаты нерегулярной войны, особенно в долгосрочной перспективе.
Оглавление материала:
Информационное поле битвы ускоряется.
Проблема непредсказуемости усугубляется.
Исторические уроки непредвиденных последствий.
ИИ как фактор умножения силы и фактор риска.
https://smallwarsjournal.com/2025/08/27/ai-enhanced-risks-to-irregular-warfare/
Small Wars Journal by Arizona State University
AI Enhanced Risks to Irregular Warfare | Small Wars Journal by Arizona State University
AI is reshaping irregular warfare—amplifying both its power and unpredictability. Explore the risks and consequences.
❤1
В 2025 году разгорается невидимый конфликт. Вредоносное ПО на базе ИИ постоянно пытается уничтожить вашу компанию, в то время как алгоритмы ИИ её защищают.
Каждую секунду обе системы учатся, развиваются и становятся («генеративно» сильнее) креативными. Или разрушительными? Вопрос не в том, выдержит ли ваша защита хоть день, а в том, сможет ли ваш ИИ превзойти того, кто пытается разрушить вашу цифровую крепость..
Вредоносное ПО на базе искусственного интеллекта превратилось в серьёзную угрозу, способную имитировать нормальное поведение, избегать обнаружения и постоянно адаптироваться к средствам защиты. Вредоносное ПО обычно идентифицируется по шаблонам, которые позволяют традиционным антивирусам обнаруживать его. Однако, используя искусственный интеллект, хакеры могут создавать вредоносные программы, которые динамически изменяют своё поведение и код, чтобы избежать обнаружения, имитируя надёжные операции и изменяя свою структуру при каждом заражении.
1. Обнаружение угроз и реагирование на них с помощью искусственного интеллекта.
2. Zero Trust с контролем доступа на основе искусственного интеллекта.
3. Самовосстанавливающиеся сети.
4. Блокчейн для обеспечения целостности данных.
5. Совместная разведка угроз.
https://technode.global/2025/08/28/ai-vs-ai-maintaining-a-strong-front-for-the-digital-battlefield-of-2025/
Каждую секунду обе системы учатся, развиваются и становятся («генеративно» сильнее) креативными. Или разрушительными? Вопрос не в том, выдержит ли ваша защита хоть день, а в том, сможет ли ваш ИИ превзойти того, кто пытается разрушить вашу цифровую крепость..
Вредоносное ПО на базе искусственного интеллекта превратилось в серьёзную угрозу, способную имитировать нормальное поведение, избегать обнаружения и постоянно адаптироваться к средствам защиты. Вредоносное ПО обычно идентифицируется по шаблонам, которые позволяют традиционным антивирусам обнаруживать его. Однако, используя искусственный интеллект, хакеры могут создавать вредоносные программы, которые динамически изменяют своё поведение и код, чтобы избежать обнаружения, имитируя надёжные операции и изменяя свою структуру при каждом заражении.
1. Обнаружение угроз и реагирование на них с помощью искусственного интеллекта.
2. Zero Trust с контролем доступа на основе искусственного интеллекта.
3. Самовосстанавливающиеся сети.
4. Блокчейн для обеспечения целостности данных.
5. Совместная разведка угроз.
https://technode.global/2025/08/28/ai-vs-ai-maintaining-a-strong-front-for-the-digital-battlefield-of-2025/
TNGlobal
AI vs. AI: Maintaining a strong front for the digital battlefield of 2025
The future isn’t just about deploying AI for defence but understanding how it works, how it evolves, its capabilities, limitations, and how it can fail. Equip and train your teams to understand AI, update your strategies, and keep your defences as dynamic…
❤1
Стратегия военных в области ИИ начинает напоминать плохое приложение для знакомств: много свайпов, мало совпадений.
Новый План действий администрации Трампа в области ИИ предусматривает и превращение высших военных колледжей в центры исследований в области ИИ, где студенты изучают и применяют основные навыки в этой области.
Реализация видения алгоритмической войны потребует радикального переосмысления того, что представляет собой высшее образование в сфере военной профессии, и принятия ключевых идей о создании организаций обучения на основе данных.
Действительно, высшие военные колледжи должны стать центрами обучения, исследований и применения ИИ, а учебные аудитории должны быть больше похожи на боевые лаборатории, чем на лекционные залы. Профессиональное военное образование должно стать органичной экосистемой совершенствования — современной версией Генерального штаба, — где решения студентов и преподавателей фиксируются и передаются обратно в системы ИИ.
Не хватает целенаправленных усилий по организации истории, теории и доктрины в удобные формы, на которых машины могли бы учиться. Без этой тщательно продуманной основы модели будут знать о знаменитостях больше, чем о Карле фон Клаузевице или Уильяме Слиме. Профессиональный военный теряется в этом шуме.
В эпоху агентного ИИ военным понадобится коллективный разум , в котором офицеры будут способны критически мыслить и подвергать сомнению результаты работы алгоритмов. Профессиональные форумы должны стать площадками, где обучение происходит параллельно с созданием новых знаний , непосредственно используемых в системах планирования и проведения операций. Создание такого разума невозможно передать на аутсорсинг, поскольку оно зависит от понимания того, как лучшие военные мыслители подходят к проблемам, и применения этих идей для совершенствования основополагающих моделей.
https://warontherocks.com/2025/08/building-a-new-brain-transforming-military-schoolhouses-into-ai-battle-labs/
Новый План действий администрации Трампа в области ИИ предусматривает и превращение высших военных колледжей в центры исследований в области ИИ, где студенты изучают и применяют основные навыки в этой области.
Реализация видения алгоритмической войны потребует радикального переосмысления того, что представляет собой высшее образование в сфере военной профессии, и принятия ключевых идей о создании организаций обучения на основе данных.
Действительно, высшие военные колледжи должны стать центрами обучения, исследований и применения ИИ, а учебные аудитории должны быть больше похожи на боевые лаборатории, чем на лекционные залы. Профессиональное военное образование должно стать органичной экосистемой совершенствования — современной версией Генерального штаба, — где решения студентов и преподавателей фиксируются и передаются обратно в системы ИИ.
Не хватает целенаправленных усилий по организации истории, теории и доктрины в удобные формы, на которых машины могли бы учиться. Без этой тщательно продуманной основы модели будут знать о знаменитостях больше, чем о Карле фон Клаузевице или Уильяме Слиме. Профессиональный военный теряется в этом шуме.
В эпоху агентного ИИ военным понадобится коллективный разум , в котором офицеры будут способны критически мыслить и подвергать сомнению результаты работы алгоритмов. Профессиональные форумы должны стать площадками, где обучение происходит параллельно с созданием новых знаний , непосредственно используемых в системах планирования и проведения операций. Создание такого разума невозможно передать на аутсорсинг, поскольку оно зависит от понимания того, как лучшие военные мыслители подходят к проблемам, и применения этих идей для совершенствования основополагающих моделей.
https://warontherocks.com/2025/08/building-a-new-brain-transforming-military-schoolhouses-into-ai-battle-labs/
War on the Rocks
Building a New Brain: Transforming Military Schoolhouses into AI Battle Labs
The military’s AI strategy is starting to resemble a bad dating app: lots of swipes, few lasting matches. The Trump administration’s new AI Action Plan
❤2
Пит Хегсет распорядился провести проверку после того, как стало известно, что Microsoft использовала китайских подрядчиков для управления конфиденциальными облачными сервисами Пентагона.
Соединенные Штаты начали проверку участия граждан Китая в управлении конфиденциальными облачными сервисами для американских вооруженных сил, заявил министр обороны Вашингтона.
Министр обороны США Пит Хегсет заявил в среду, что он распорядился провести аудит использования компанией Microsoft китайских граждан для управления конфиденциальными облачными сервисами, чтобы определить, произошли ли какие-либо нарушения безопасности.
https://www.aljazeera.com/news/2025/8/28/us-auditing-chinese-involvement-in-cloud-services-defence-chief-says
Соединенные Штаты начали проверку участия граждан Китая в управлении конфиденциальными облачными сервисами для американских вооруженных сил, заявил министр обороны Вашингтона.
Министр обороны США Пит Хегсет заявил в среду, что он распорядился провести аудит использования компанией Microsoft китайских граждан для управления конфиденциальными облачными сервисами, чтобы определить, произошли ли какие-либо нарушения безопасности.
https://www.aljazeera.com/news/2025/8/28/us-auditing-chinese-involvement-in-cloud-services-defence-chief-says
Al Jazeera
US auditing Chinese involvement in cloud services, defence chief says
Pete Hegseth orders review after revelations Microsoft used Chinese contractors to manage sensitive cloud services.
❤1
ИИ-система Claude используется хакерами с базовыми навыками для совершения крупномасштабных киберпреступлений
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
«Claude Code использовался для автоматизации разведки, сбора учетных данных жертв и проникновения в сети. Клоду было позволено принимать как тактические, так и стратегические решения, например, решать, какие данные изымать и как составлять психологически ориентированные требования для вымогательства. Клод анализировал полученные финансовые данные, чтобы определить соответствующие суммы выкупа"
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
🔥3❤1👏1
Китайцы из Kimi AI выпустили БЕСПЛАТНЫЙ генератор презентаций.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
Kimi
Kimi Slides
Kimi Slides helps you turn ideas into stunning slides with Nano Banana Pro — unleash your productivity with Kimi now
❤1
Сегодня Microsoft представила две собственные модели искусственного интеллекта: MAI-Voice-1 и MAI-1-preview.
Microsoft AI
Two in-house models in support of our mission | Microsoft AI
❤1
Пекин обнародовал свои самые амбициозные на сегодняшний день цели в области искусственного интеллекта, нацеленные на практически всеобщее внедрение в течение десятилетия.
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
www.gov.cn
国务院关于深入实施“人工智能+”行动的意见_科技_中国政府网
为深入实施“人工智能+”行动,推动人工智能与经济社会各行业各领域广泛深度融合,重塑人类生产生活范式,促进生产力革命性跃迁和生产关系深层次变革,加快形成人机协同、跨界融合、共创分享的智能经济和智能社会新形态,现提出如下意见。
❤2
Anthropic меняет политику использования сервисов, требуя согласия пользователей на обучение ИИ
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
SSBCrack News
Anthropic Changes Data Policy, Requires User Consent for AI Training by September 28 - SSBCrack News
Anthropic has announced significant changes to its handling of user data, impacting all Claude users who must decide by September 28 whether they want their
❤1
Боты под управлением ИИ были созданы для использования в соцсети без алгоритмов курирования, но они все равно эффективно формировали токсичные эхо-камеры.
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
ZME Science
AI Bots Were Made to Use a Stripped Down Social Network With No Curation Algorithms and They Still Formed Toxic Echo Chambers
Can social media make emotionless AI bots pursue a political ideology? The answer will shock you.
✍3😱2😁1
Netflix опубликовал руководство для своих кинематографистов, партнеров по производству и поставщиков по использованию инструментов genAI.
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
IBC
Netflix publishes generative AI guidance for filmmakers
Netflix has published guidance for its filmmakers, production partners and vendors on using genAI tools.
OpenAI подтверждает, что запросы пользователей в ChatGPT и ответы на них отдает в полицию по выделенной оптике.
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Futurism
OpenAI Says It's Scanning Users' ChatGPT Conversations and Reporting Content to the Police
OpenAI has authorized itself to call law enforcement if users say threatening enough things when talking to ChatGPT.
🤬2👏1
Боты Meta AI, имитирующие Тейлор Свифт и Скарлетт Йоханссон, приставали к пользователям.
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Reuters
Exclusive: Meta created flirty chatbots of Taylor Swift, other celebrities without permission
Meta has appropriated the names and likenesses of celebrities – including Taylor Swift, Scarlett Johansson, Anne Hathaway and Selena Gomez – to create dozens of flirty social-media chatbots without their permission, Reuters has found.
😁1
Huawei заявляет о победе над санкциями США в сфере вычислительной техники и экосистемы ИИ
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
South China Morning Post
Tech war: Huawei executive claims victory over US sanctions with tech ecosystem
Huawei has already ‘built an ecosystem entirely independent of the United States’, according to a senior executive.
🔥3👏2
ИИ разоблачил более 1000 фальшивых научных журналов
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
ScienceDaily
AI exposes 1,000+ fake science journals
Researchers at the University of Colorado Boulder have unveiled an AI-powered system designed to expose predatory scientific journals—those that trick scientists into paying for publication without proper peer review. By analyzing journal websites for red…
👍4👏2
ChatGPT научился готовить пиво лучше человека: напитки от чат-бота уже обходят по популярности проверенные годами рецепты.
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
The Economist
The rise of beer made by AI
Customers love it
😁3👏2
К чему приводит ГигаХантинг (про войну за экспертов в силиконовой долине)
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
Стетоскоп с искусственным интеллектом обнаруживает серьезные проблемы с сердцем за секунды.
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
The Express Tribune
AI stethoscope detects major heart conditions in seconds, says UK study
The AI stethoscope uses a card-sized sensor and microphone to detect heart sounds and blood flow beyond human hearing
👍2🔥1