В 2025 году разгорается невидимый конфликт. Вредоносное ПО на базе ИИ постоянно пытается уничтожить вашу компанию, в то время как алгоритмы ИИ её защищают.
Каждую секунду обе системы учатся, развиваются и становятся («генеративно» сильнее) креативными. Или разрушительными? Вопрос не в том, выдержит ли ваша защита хоть день, а в том, сможет ли ваш ИИ превзойти того, кто пытается разрушить вашу цифровую крепость..
Вредоносное ПО на базе искусственного интеллекта превратилось в серьёзную угрозу, способную имитировать нормальное поведение, избегать обнаружения и постоянно адаптироваться к средствам защиты. Вредоносное ПО обычно идентифицируется по шаблонам, которые позволяют традиционным антивирусам обнаруживать его. Однако, используя искусственный интеллект, хакеры могут создавать вредоносные программы, которые динамически изменяют своё поведение и код, чтобы избежать обнаружения, имитируя надёжные операции и изменяя свою структуру при каждом заражении.
1. Обнаружение угроз и реагирование на них с помощью искусственного интеллекта.
2. Zero Trust с контролем доступа на основе искусственного интеллекта.
3. Самовосстанавливающиеся сети.
4. Блокчейн для обеспечения целостности данных.
5. Совместная разведка угроз.
https://technode.global/2025/08/28/ai-vs-ai-maintaining-a-strong-front-for-the-digital-battlefield-of-2025/
Каждую секунду обе системы учатся, развиваются и становятся («генеративно» сильнее) креативными. Или разрушительными? Вопрос не в том, выдержит ли ваша защита хоть день, а в том, сможет ли ваш ИИ превзойти того, кто пытается разрушить вашу цифровую крепость..
Вредоносное ПО на базе искусственного интеллекта превратилось в серьёзную угрозу, способную имитировать нормальное поведение, избегать обнаружения и постоянно адаптироваться к средствам защиты. Вредоносное ПО обычно идентифицируется по шаблонам, которые позволяют традиционным антивирусам обнаруживать его. Однако, используя искусственный интеллект, хакеры могут создавать вредоносные программы, которые динамически изменяют своё поведение и код, чтобы избежать обнаружения, имитируя надёжные операции и изменяя свою структуру при каждом заражении.
1. Обнаружение угроз и реагирование на них с помощью искусственного интеллекта.
2. Zero Trust с контролем доступа на основе искусственного интеллекта.
3. Самовосстанавливающиеся сети.
4. Блокчейн для обеспечения целостности данных.
5. Совместная разведка угроз.
https://technode.global/2025/08/28/ai-vs-ai-maintaining-a-strong-front-for-the-digital-battlefield-of-2025/
TNGlobal
AI vs. AI: Maintaining a strong front for the digital battlefield of 2025
The future isn’t just about deploying AI for defence but understanding how it works, how it evolves, its capabilities, limitations, and how it can fail. Equip and train your teams to understand AI, update your strategies, and keep your defences as dynamic…
❤1
Стратегия военных в области ИИ начинает напоминать плохое приложение для знакомств: много свайпов, мало совпадений.
Новый План действий администрации Трампа в области ИИ предусматривает и превращение высших военных колледжей в центры исследований в области ИИ, где студенты изучают и применяют основные навыки в этой области.
Реализация видения алгоритмической войны потребует радикального переосмысления того, что представляет собой высшее образование в сфере военной профессии, и принятия ключевых идей о создании организаций обучения на основе данных.
Действительно, высшие военные колледжи должны стать центрами обучения, исследований и применения ИИ, а учебные аудитории должны быть больше похожи на боевые лаборатории, чем на лекционные залы. Профессиональное военное образование должно стать органичной экосистемой совершенствования — современной версией Генерального штаба, — где решения студентов и преподавателей фиксируются и передаются обратно в системы ИИ.
Не хватает целенаправленных усилий по организации истории, теории и доктрины в удобные формы, на которых машины могли бы учиться. Без этой тщательно продуманной основы модели будут знать о знаменитостях больше, чем о Карле фон Клаузевице или Уильяме Слиме. Профессиональный военный теряется в этом шуме.
В эпоху агентного ИИ военным понадобится коллективный разум , в котором офицеры будут способны критически мыслить и подвергать сомнению результаты работы алгоритмов. Профессиональные форумы должны стать площадками, где обучение происходит параллельно с созданием новых знаний , непосредственно используемых в системах планирования и проведения операций. Создание такого разума невозможно передать на аутсорсинг, поскольку оно зависит от понимания того, как лучшие военные мыслители подходят к проблемам, и применения этих идей для совершенствования основополагающих моделей.
https://warontherocks.com/2025/08/building-a-new-brain-transforming-military-schoolhouses-into-ai-battle-labs/
Новый План действий администрации Трампа в области ИИ предусматривает и превращение высших военных колледжей в центры исследований в области ИИ, где студенты изучают и применяют основные навыки в этой области.
Реализация видения алгоритмической войны потребует радикального переосмысления того, что представляет собой высшее образование в сфере военной профессии, и принятия ключевых идей о создании организаций обучения на основе данных.
Действительно, высшие военные колледжи должны стать центрами обучения, исследований и применения ИИ, а учебные аудитории должны быть больше похожи на боевые лаборатории, чем на лекционные залы. Профессиональное военное образование должно стать органичной экосистемой совершенствования — современной версией Генерального штаба, — где решения студентов и преподавателей фиксируются и передаются обратно в системы ИИ.
Не хватает целенаправленных усилий по организации истории, теории и доктрины в удобные формы, на которых машины могли бы учиться. Без этой тщательно продуманной основы модели будут знать о знаменитостях больше, чем о Карле фон Клаузевице или Уильяме Слиме. Профессиональный военный теряется в этом шуме.
В эпоху агентного ИИ военным понадобится коллективный разум , в котором офицеры будут способны критически мыслить и подвергать сомнению результаты работы алгоритмов. Профессиональные форумы должны стать площадками, где обучение происходит параллельно с созданием новых знаний , непосредственно используемых в системах планирования и проведения операций. Создание такого разума невозможно передать на аутсорсинг, поскольку оно зависит от понимания того, как лучшие военные мыслители подходят к проблемам, и применения этих идей для совершенствования основополагающих моделей.
https://warontherocks.com/2025/08/building-a-new-brain-transforming-military-schoolhouses-into-ai-battle-labs/
War on the Rocks
Building a New Brain: Transforming Military Schoolhouses into AI Battle Labs
The military’s AI strategy is starting to resemble a bad dating app: lots of swipes, few lasting matches. The Trump administration’s new AI Action Plan
❤2
Пит Хегсет распорядился провести проверку после того, как стало известно, что Microsoft использовала китайских подрядчиков для управления конфиденциальными облачными сервисами Пентагона.
Соединенные Штаты начали проверку участия граждан Китая в управлении конфиденциальными облачными сервисами для американских вооруженных сил, заявил министр обороны Вашингтона.
Министр обороны США Пит Хегсет заявил в среду, что он распорядился провести аудит использования компанией Microsoft китайских граждан для управления конфиденциальными облачными сервисами, чтобы определить, произошли ли какие-либо нарушения безопасности.
https://www.aljazeera.com/news/2025/8/28/us-auditing-chinese-involvement-in-cloud-services-defence-chief-says
Соединенные Штаты начали проверку участия граждан Китая в управлении конфиденциальными облачными сервисами для американских вооруженных сил, заявил министр обороны Вашингтона.
Министр обороны США Пит Хегсет заявил в среду, что он распорядился провести аудит использования компанией Microsoft китайских граждан для управления конфиденциальными облачными сервисами, чтобы определить, произошли ли какие-либо нарушения безопасности.
https://www.aljazeera.com/news/2025/8/28/us-auditing-chinese-involvement-in-cloud-services-defence-chief-says
Al Jazeera
US auditing Chinese involvement in cloud services, defence chief says
Pete Hegseth orders review after revelations Microsoft used Chinese contractors to manage sensitive cloud services.
❤1
ИИ-система Claude используется хакерами с базовыми навыками для совершения крупномасштабных киберпреступлений
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
«Claude Code использовался для автоматизации разведки, сбора учетных данных жертв и проникновения в сети. Клоду было позволено принимать как тактические, так и стратегические решения, например, решать, какие данные изымать и как составлять психологически ориентированные требования для вымогательства. Клод анализировал полученные финансовые данные, чтобы определить соответствующие суммы выкупа"
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
🔥3❤1👏1
Китайцы из Kimi AI выпустили БЕСПЛАТНЫЙ генератор презентаций.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
Kimi
Kimi Slides
Kimi Slides helps you turn ideas into stunning slides with Nano Banana Pro — unleash your productivity with Kimi now
❤1
Сегодня Microsoft представила две собственные модели искусственного интеллекта: MAI-Voice-1 и MAI-1-preview.
Microsoft AI
Two in-house models in support of our mission | Microsoft AI
❤1
Пекин обнародовал свои самые амбициозные на сегодняшний день цели в области искусственного интеллекта, нацеленные на практически всеобщее внедрение в течение десятилетия.
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
www.gov.cn
国务院关于深入实施“人工智能+”行动的意见_科技_中国政府网
为深入实施“人工智能+”行动,推动人工智能与经济社会各行业各领域广泛深度融合,重塑人类生产生活范式,促进生产力革命性跃迁和生产关系深层次变革,加快形成人机协同、跨界融合、共创分享的智能经济和智能社会新形态,现提出如下意见。
❤2
Anthropic меняет политику использования сервисов, требуя согласия пользователей на обучение ИИ
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
SSBCrack News
Anthropic Changes Data Policy, Requires User Consent for AI Training by September 28 - SSBCrack News
Anthropic has announced significant changes to its handling of user data, impacting all Claude users who must decide by September 28 whether they want their
❤1
Боты под управлением ИИ были созданы для использования в соцсети без алгоритмов курирования, но они все равно эффективно формировали токсичные эхо-камеры.
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
ZME Science
AI Bots Were Made to Use a Stripped Down Social Network With No Curation Algorithms and They Still Formed Toxic Echo Chambers
Can social media make emotionless AI bots pursue a political ideology? The answer will shock you.
✍3😱2😁1
Netflix опубликовал руководство для своих кинематографистов, партнеров по производству и поставщиков по использованию инструментов genAI.
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
IBC
Netflix publishes generative AI guidance for filmmakers
Netflix has published guidance for its filmmakers, production partners and vendors on using genAI tools.
OpenAI подтверждает, что запросы пользователей в ChatGPT и ответы на них отдает в полицию по выделенной оптике.
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Futurism
OpenAI Says It's Scanning Users' ChatGPT Conversations and Reporting Content to the Police
OpenAI has authorized itself to call law enforcement if users say threatening enough things when talking to ChatGPT.
🤬2👏1
Боты Meta AI, имитирующие Тейлор Свифт и Скарлетт Йоханссон, приставали к пользователям.
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Reuters
Exclusive: Meta created flirty chatbots of Taylor Swift, other celebrities without permission
Meta has appropriated the names and likenesses of celebrities – including Taylor Swift, Scarlett Johansson, Anne Hathaway and Selena Gomez – to create dozens of flirty social-media chatbots without their permission, Reuters has found.
😁1
Huawei заявляет о победе над санкциями США в сфере вычислительной техники и экосистемы ИИ
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
South China Morning Post
Tech war: Huawei executive claims victory over US sanctions with tech ecosystem
Huawei has already ‘built an ecosystem entirely independent of the United States’, according to a senior executive.
🔥3👏2
ИИ разоблачил более 1000 фальшивых научных журналов
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
ScienceDaily
AI exposes 1,000+ fake science journals
Researchers at the University of Colorado Boulder have unveiled an AI-powered system designed to expose predatory scientific journals—those that trick scientists into paying for publication without proper peer review. By analyzing journal websites for red…
👍4👏2
ChatGPT научился готовить пиво лучше человека: напитки от чат-бота уже обходят по популярности проверенные годами рецепты.
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
The Economist
The rise of beer made by AI
Customers love it
😁3👏2
К чему приводит ГигаХантинг (про войну за экспертов в силиконовой долине)
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
Стетоскоп с искусственным интеллектом обнаруживает серьезные проблемы с сердцем за секунды.
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
The Express Tribune
AI stethoscope detects major heart conditions in seconds, says UK study
The AI stethoscope uses a card-sized sensor and microphone to detect heart sounds and blood flow beyond human hearing
👍2🔥1
Что заставляет людей отказываться от предложения о работе на 100 миллионов долларов? Война талантов в сфере ИИ учит, как удерживать лучших специалистов.
Хотя конкурентная система оплаты труда по-прежнему важна, война талантов в сфере ИИ доказывает, что такие шаткие концепции, как культура, чуткое лидерство и коллегиальность, — более мощные силы, чем может себе представить большинство людей.
https://fortune.com/2025/08/29/ai-talent-wars-100-million-or-corporate-culture/
Хотя конкурентная система оплаты труда по-прежнему важна, война талантов в сфере ИИ доказывает, что такие шаткие концепции, как культура, чуткое лидерство и коллегиальность, — более мощные силы, чем может себе представить большинство людей.
https://fortune.com/2025/08/29/ai-talent-wars-100-million-or-corporate-culture/
Fortune
What’s better than a $100 million job offer?
The AI talent war reveals lessons for hanging on to your top performers.
🔥2
Как атаки типа «быстрая инъекция» обходят агентов ИИ, используя пользовательский ввод
Атаки с использованием мгновенных инъекций представляют собой сложную форму манипуляции ИИ, при которой злоумышленники создают определенные входные данные, предназначенные для переопределения системных инструкций и манипулирования поведением модели ИИ.
В отличие от традиционных атак кибербезопасности, использующих уязвимости кода, внедрение подсказок нацелено на фундаментальную логику следования инструкциям систем искусственного интеллекта .
Эти атаки используют критическое архитектурное ограничение: существующие системы LLM не могут эффективно различать доверенные инструкции разработчика и ненадежный пользовательский ввод, обрабатывая весь текст как одну непрерывную подсказку.
https://cybersecuritynews.com/prompt-injection-attacks-bypassing-ai/
Атаки с использованием мгновенных инъекций представляют собой сложную форму манипуляции ИИ, при которой злоумышленники создают определенные входные данные, предназначенные для переопределения системных инструкций и манипулирования поведением модели ИИ.
В отличие от традиционных атак кибербезопасности, использующих уязвимости кода, внедрение подсказок нацелено на фундаментальную логику следования инструкциям систем искусственного интеллекта .
Эти атаки используют критическое архитектурное ограничение: существующие системы LLM не могут эффективно различать доверенные инструкции разработчика и ненадежный пользовательский ввод, обрабатывая весь текст как одну непрерывную подсказку.
https://cybersecuritynews.com/prompt-injection-attacks-bypassing-ai/
❤1
Госсовет Китая представил новую политику в области информационных технологий «ИИ+».
Цель политики — перейти от простого «подключения и распространения информации» к «применению и созданию знаний» для достижения большей экономической эффективности и содействия трансформационным изменениям как в экономической, так и в социальной сфере.
В политике подчеркивается взвешенный подход к интеграции искусственного интеллекта в традиционные сферы занятости. Осознавая потенциальные риски, Государственный совет призывает к бдительности в отношении алгоритмической дискриминации и риска структурной безработицы, которые могут возникнуть в результате внедрения ИИ. В документе предусмотрены усиленные меры безопасности, включая более строгий мониторинг и создание систем предупреждения о рисках и экстренного реагирования для снижения таких угроз, как искажение данных и алгоритмический «черный ящик».
Цель политики — перейти от простого «подключения и распространения информации» к «применению и созданию знаний» для достижения большей экономической эффективности и содействия трансформационным изменениям как в экономической, так и в социальной сфере.
В политике подчеркивается взвешенный подход к интеграции искусственного интеллекта в традиционные сферы занятости. Осознавая потенциальные риски, Государственный совет призывает к бдительности в отношении алгоритмической дискриминации и риска структурной безработицы, которые могут возникнуть в результате внедрения ИИ. В документе предусмотрены усиленные меры безопасности, включая более строгий мониторинг и создание систем предупреждения о рисках и экстренного реагирования для снижения таких угроз, как искажение данных и алгоритмический «черный ящик».
Основатель Bumble запускает приложение для знакомств на базе искусственного интеллекта с теорией привязанности для более глубокого соответствия.
Предупореждаю: не проверялось, так что испытания будут проходить на пользователях.
https://www.webpronews.com/bumble-founder-launches-ai-dating-app-with-attachment-theory-for-deeper-matches/
Предупореждаю: не проверялось, так что испытания будут проходить на пользователях.
https://www.webpronews.com/bumble-founder-launches-ai-dating-app-with-attachment-theory-for-deeper-matches/
WebProNews
Bumble Founder Launches AI Dating App with Attachment Theory for Deeper Matches
Whitney Wolfe Herd, Bumble's founder, is developing a new AI-powered dating app separate from Bumble, using attachment theory to analyze users' emotional histories and psychological profiles for deeper compatibility. This aims to combat superficial swipes…