ИИ-система Claude используется хакерами с базовыми навыками для совершения крупномасштабных киберпреступлений
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
«Claude Code использовался для автоматизации разведки, сбора учетных данных жертв и проникновения в сети. Клоду было позволено принимать как тактические, так и стратегические решения, например, решать, какие данные изымать и как составлять психологически ориентированные требования для вымогательства. Клод анализировал полученные финансовые данные, чтобы определить соответствующие суммы выкупа"
Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.
Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf
https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
🔥3❤1👏1
Китайцы из Kimi AI выпустили БЕСПЛАТНЫЙ генератор презентаций.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;
Спасение от офисной рутины — здесь.
Kimi
Kimi Slides
Kimi Slides helps you turn ideas into stunning slides with Nano Banana Pro — unleash your productivity with Kimi now
❤1
Сегодня Microsoft представила две собственные модели искусственного интеллекта: MAI-Voice-1 и MAI-1-preview.
Microsoft AI
Two in-house models in support of our mission | Microsoft AI
❤1
Пекин обнародовал свои самые амбициозные на сегодняшний день цели в области искусственного интеллекта, нацеленные на практически всеобщее внедрение в течение десятилетия.
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.
Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.
Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.
Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.
https://www.gov.cn/zhengce/content/202508/content_7037861.htm
www.gov.cn
国务院关于深入实施“人工智能+”行动的意见_科技_中国政府网
为深入实施“人工智能+”行动,推动人工智能与经济社会各行业各领域广泛深度融合,重塑人类生产生活范式,促进生产力革命性跃迁和生产关系深层次变革,加快形成人机协同、跨界融合、共创分享的智能经济和智能社会新形态,现提出如下意见。
❤2
Anthropic меняет политику использования сервисов, требуя согласия пользователей на обучение ИИ
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.
В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.
https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
SSBCrack News
Anthropic Changes Data Policy, Requires User Consent for AI Training by September 28 - SSBCrack News
Anthropic has announced significant changes to its handling of user data, impacting all Claude users who must decide by September 28 whether they want their
❤1
Боты под управлением ИИ были созданы для использования в соцсети без алгоритмов курирования, но они все равно эффективно формировали токсичные эхо-камеры.
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
Новое исследование, проведённое учёными из Амстердамского университета.
В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.
Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .
https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
ZME Science
AI Bots Were Made to Use a Stripped Down Social Network With No Curation Algorithms and They Still Formed Toxic Echo Chambers
Can social media make emotionless AI bots pursue a political ideology? The answer will shock you.
✍3😱2😁1
Netflix опубликовал руководство для своих кинематографистов, партнеров по производству и поставщиков по использованию инструментов genAI.
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
Руководство Netflix включает пять ключевых принципов, касающихся genAI.
Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.
Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.
В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.
В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.
В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.
Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.
https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
IBC
Netflix publishes generative AI guidance for filmmakers
Netflix has published guidance for its filmmakers, production partners and vendors on using genAI tools.
OpenAI подтверждает, что запросы пользователей в ChatGPT и ответы на них отдает в полицию по выделенной оптике.
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Это вам не СОРМ, который по запросу, под контролем и не всё....
Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.
https://futurism.com/openai-scanning-conversations-police
Futurism
OpenAI Says It's Scanning Users' ChatGPT Conversations and Reporting Content to the Police
OpenAI has authorized itself to call law enforcement if users say threatening enough things when talking to ChatGPT.
🤬2👏1
Боты Meta AI, имитирующие Тейлор Свифт и Скарлетт Йоханссон, приставали к пользователям.
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.
Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.
В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.
https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
Reuters
Exclusive: Meta created flirty chatbots of Taylor Swift, other celebrities without permission
Meta has appropriated the names and likenesses of celebrities – including Taylor Swift, Scarlett Johansson, Anne Hathaway and Selena Gomez – to create dozens of flirty social-media chatbots without their permission, Reuters has found.
😁1
Huawei заявляет о победе над санкциями США в сфере вычислительной техники и экосистемы ИИ
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.
Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.
https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
South China Morning Post
Tech war: Huawei executive claims victory over US sanctions with tech ecosystem
Huawei has already ‘built an ecosystem entirely independent of the United States’, according to a senior executive.
🔥3👏2
ИИ разоблачил более 1000 фальшивых научных журналов
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.
Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.
https://www.sciencedaily.com/releases/2025/08/250830001203.htm
ScienceDaily
AI exposes 1,000+ fake science journals
Researchers at the University of Colorado Boulder have unveiled an AI-powered system designed to expose predatory scientific journals—those that trick scientists into paying for publication without proper peer review. By analyzing journal websites for red…
👍4👏2
ChatGPT научился готовить пиво лучше человека: напитки от чат-бота уже обходят по популярности проверенные годами рецепты.
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
Эксперимент начали немецкие пивовары BECK'S. Они попросили бота придумать новое пиво — и оно оказалось вкуснее всех остальных сортов. Затем опыт успешно повторили в США, Великобритании и Японии.
https://www.economist.com/science-and-technology/2025/08/27/the-rise-of-beer-made-by-ai
The Economist
The rise of beer made by AI
Customers love it
😁3👏2
К чему приводит ГигаХантинг (про войну за экспертов в силиконовой долине)
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
В лаборатории ИИ Meta царит хаос: Шэнцзя Чжао, один из создателей ChatGPT, пригрозил уйти из Meta всего через несколько дней после прихода в компанию, вынудив Meta назначить его главным научным сотрудником, чтобы предотвратить его уход.
Этот рискованный шаг свидетельствует о серьёзных проблемах в командах Meta, занимающихся искусственным интеллектом, которые столкнулись с постоянной реструктуризацией и недавним исходом лучших специалистов. Сообщается, что Чжао был близок к уходу из-за опасений по поводу хаотичной обстановки в лаборатории и отсутствия чёткого научного направления, что подчёркивает огромные трудности, с которыми сталкивается Марк Цукерберг в своём многомиллиардном стремлении выиграть войну за таланты в сфере ИИ.
Это назначение было вынужденной мерой, призванной предотвратить серьёзный конфуз. Источники утверждают, что недовольство Чжао было вызвано разногласиями по поводу организации лаборатории, бюрократическими препонами и нестабильной исследовательской средой. Официально назначив его главным научным сотрудником, руководство Meta стремилось укрепить его авторитет и убедить его остаться.
Марк Цукерберг ранее объявил о назначении Чжао на должность 25 июля, назвав это ключевым шагом в определении научного направления лаборатории. В своём посте в Threads Цукерберг заявил, «в этой роли Шэнцзя будет определять исследовательскую повестку и научное направление нашей новой лаборатории, работая напрямую со мной и Алексом», подтвердив центральную роль исследователя. Последующий кризис показал, что даже прямого доступа к генеральному директору было недостаточно, чтобы преодолеть внутренние разногласия.
И вдогонку... Бывший сотрудник Илона Маска украл код его нейросети Grok и перешёл в OpenAI. Перед уходом инженер продал акции компании Маска xAI на $7 млн, зная что новость вызовет падение.
https://winbuzzer.com/2025/08/29/metas-ai-lab-in-turmoil-as-chatgpt-co-creator-threatened-to-quit-shortly-after-joining-xcxwbn/
Стетоскоп с искусственным интеллектом обнаруживает серьезные проблемы с сердцем за секунды.
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
https://tribune.com.pk/story/2564330/ai-stethoscope-detects-major-heart-conditions-in-seconds-says-uk-study
The Express Tribune
AI stethoscope detects major heart conditions in seconds, says UK study
The AI stethoscope uses a card-sized sensor and microphone to detect heart sounds and blood flow beyond human hearing
👍2🔥1
Что заставляет людей отказываться от предложения о работе на 100 миллионов долларов? Война талантов в сфере ИИ учит, как удерживать лучших специалистов.
Хотя конкурентная система оплаты труда по-прежнему важна, война талантов в сфере ИИ доказывает, что такие шаткие концепции, как культура, чуткое лидерство и коллегиальность, — более мощные силы, чем может себе представить большинство людей.
https://fortune.com/2025/08/29/ai-talent-wars-100-million-or-corporate-culture/
Хотя конкурентная система оплаты труда по-прежнему важна, война талантов в сфере ИИ доказывает, что такие шаткие концепции, как культура, чуткое лидерство и коллегиальность, — более мощные силы, чем может себе представить большинство людей.
https://fortune.com/2025/08/29/ai-talent-wars-100-million-or-corporate-culture/
Fortune
What’s better than a $100 million job offer?
The AI talent war reveals lessons for hanging on to your top performers.
🔥2
Как атаки типа «быстрая инъекция» обходят агентов ИИ, используя пользовательский ввод
Атаки с использованием мгновенных инъекций представляют собой сложную форму манипуляции ИИ, при которой злоумышленники создают определенные входные данные, предназначенные для переопределения системных инструкций и манипулирования поведением модели ИИ.
В отличие от традиционных атак кибербезопасности, использующих уязвимости кода, внедрение подсказок нацелено на фундаментальную логику следования инструкциям систем искусственного интеллекта .
Эти атаки используют критическое архитектурное ограничение: существующие системы LLM не могут эффективно различать доверенные инструкции разработчика и ненадежный пользовательский ввод, обрабатывая весь текст как одну непрерывную подсказку.
https://cybersecuritynews.com/prompt-injection-attacks-bypassing-ai/
Атаки с использованием мгновенных инъекций представляют собой сложную форму манипуляции ИИ, при которой злоумышленники создают определенные входные данные, предназначенные для переопределения системных инструкций и манипулирования поведением модели ИИ.
В отличие от традиционных атак кибербезопасности, использующих уязвимости кода, внедрение подсказок нацелено на фундаментальную логику следования инструкциям систем искусственного интеллекта .
Эти атаки используют критическое архитектурное ограничение: существующие системы LLM не могут эффективно различать доверенные инструкции разработчика и ненадежный пользовательский ввод, обрабатывая весь текст как одну непрерывную подсказку.
https://cybersecuritynews.com/prompt-injection-attacks-bypassing-ai/
❤1
Госсовет Китая представил новую политику в области информационных технологий «ИИ+».
Цель политики — перейти от простого «подключения и распространения информации» к «применению и созданию знаний» для достижения большей экономической эффективности и содействия трансформационным изменениям как в экономической, так и в социальной сфере.
В политике подчеркивается взвешенный подход к интеграции искусственного интеллекта в традиционные сферы занятости. Осознавая потенциальные риски, Государственный совет призывает к бдительности в отношении алгоритмической дискриминации и риска структурной безработицы, которые могут возникнуть в результате внедрения ИИ. В документе предусмотрены усиленные меры безопасности, включая более строгий мониторинг и создание систем предупреждения о рисках и экстренного реагирования для снижения таких угроз, как искажение данных и алгоритмический «черный ящик».
Цель политики — перейти от простого «подключения и распространения информации» к «применению и созданию знаний» для достижения большей экономической эффективности и содействия трансформационным изменениям как в экономической, так и в социальной сфере.
В политике подчеркивается взвешенный подход к интеграции искусственного интеллекта в традиционные сферы занятости. Осознавая потенциальные риски, Государственный совет призывает к бдительности в отношении алгоритмической дискриминации и риска структурной безработицы, которые могут возникнуть в результате внедрения ИИ. В документе предусмотрены усиленные меры безопасности, включая более строгий мониторинг и создание систем предупреждения о рисках и экстренного реагирования для снижения таких угроз, как искажение данных и алгоритмический «черный ящик».
Основатель Bumble запускает приложение для знакомств на базе искусственного интеллекта с теорией привязанности для более глубокого соответствия.
Предупореждаю: не проверялось, так что испытания будут проходить на пользователях.
https://www.webpronews.com/bumble-founder-launches-ai-dating-app-with-attachment-theory-for-deeper-matches/
Предупореждаю: не проверялось, так что испытания будут проходить на пользователях.
https://www.webpronews.com/bumble-founder-launches-ai-dating-app-with-attachment-theory-for-deeper-matches/
WebProNews
Bumble Founder Launches AI Dating App with Attachment Theory for Deeper Matches
Whitney Wolfe Herd, Bumble's founder, is developing a new AI-powered dating app separate from Bumble, using attachment theory to analyze users' emotional histories and psychological profiles for deeper compatibility. This aims to combat superficial swipes…
Машина Судного дня на основе искусственного интеллекта ближе к реальности, чем вы думаете.
В прошлом году Шнайдер, директор программы Hoover Wargaming and Crisis Simulation Initiative в Стэнфордском университете, начал экспериментировать с военными играми, в которых искусственный интеллект последнего поколения играл роль ответственного за принятие стратегических решений. В играх пять готовых больших языковых моделей (LLM) — GPT-3.5, GPT-4 и GPT-4-Base от OpenAI; Claude 2 от Anthropic; и Llama-2 Chat от Meta — сталкивались с вымышленными кризисными ситуациями, напоминающими вторжение России на Украину или угрозу Китая Тайваню.
Почти все модели ИИ продемонстрировали предпочтение агрессивной эскалации, беспорядочному применению огневой мощи и превращению кризисов в боевые действия — вплоть до применения ядерного оружия. «ИИ постоянно играет роль Кёртиса Лемея», — говорит Шнайдер, имея в виду генерала ВВС времён холодной войны, известного своей тягой к ядерному оружию. «Похоже, ИИ понимает эскалацию, но не деэскалацию. Мы не совсем понимаем, почему это так».
Пентагон утверждает, что в реальной жизни этого не произойдет, и что его нынешняя политика заключается в том, что ИИ никогда не будет позволено доминировать в «цикле принятия решений» человеком, который принимает решение, например, о начале войны — и уж точно не ядерной.
Однако некоторые специалисты по искусственному интеллекту считают, что Пентагон уже начал скатываться по скользкой дорожке, поспешно внедряя новейшие поколения ИИ в качестве ключевого элемента американской обороны по всему миру. Озабоченное необходимостью одновременно отражать атаки Китая и России, а также других глобальных угроз, Министерство обороны создаёт оборонительные системы на базе ИИ, которые во многих областях быстро становятся автономными, то есть могут реагировать самостоятельно, без участия человека, и действовать так быстро, что люди не успевают за ними.
https://www.politico.com/news/magazine/2025/09/02/pentagon-ai-nuclear-war-00496884
В прошлом году Шнайдер, директор программы Hoover Wargaming and Crisis Simulation Initiative в Стэнфордском университете, начал экспериментировать с военными играми, в которых искусственный интеллект последнего поколения играл роль ответственного за принятие стратегических решений. В играх пять готовых больших языковых моделей (LLM) — GPT-3.5, GPT-4 и GPT-4-Base от OpenAI; Claude 2 от Anthropic; и Llama-2 Chat от Meta — сталкивались с вымышленными кризисными ситуациями, напоминающими вторжение России на Украину или угрозу Китая Тайваню.
Почти все модели ИИ продемонстрировали предпочтение агрессивной эскалации, беспорядочному применению огневой мощи и превращению кризисов в боевые действия — вплоть до применения ядерного оружия. «ИИ постоянно играет роль Кёртиса Лемея», — говорит Шнайдер, имея в виду генерала ВВС времён холодной войны, известного своей тягой к ядерному оружию. «Похоже, ИИ понимает эскалацию, но не деэскалацию. Мы не совсем понимаем, почему это так».
Пентагон утверждает, что в реальной жизни этого не произойдет, и что его нынешняя политика заключается в том, что ИИ никогда не будет позволено доминировать в «цикле принятия решений» человеком, который принимает решение, например, о начале войны — и уж точно не ядерной.
Однако некоторые специалисты по искусственному интеллекту считают, что Пентагон уже начал скатываться по скользкой дорожке, поспешно внедряя новейшие поколения ИИ в качестве ключевого элемента американской обороны по всему миру. Озабоченное необходимостью одновременно отражать атаки Китая и России, а также других глобальных угроз, Министерство обороны создаёт оборонительные системы на базе ИИ, которые во многих областях быстро становятся автономными, то есть могут реагировать самостоятельно, без участия человека, и действовать так быстро, что люди не успевают за ними.
https://www.politico.com/news/magazine/2025/09/02/pentagon-ai-nuclear-war-00496884
POLITICO
The AI Doomsday Machine Is Closer to Reality Than You Think
The Pentagon is racing to integrate AI into its weapons system to keep up with China and Russia. Where will that lead?
Alibaba разрабатывает новый чип ИИ
Этот шаг был предпринят после того, как в апреле США запретили Nvidia продавать Китаю свои самые мощные чипы — Blackwell, утверждая, что это необходимо для защиты национальной и экономической безопасности США в условиях набирающей обороты глобальной гонки ИИ.
В прошлом месяце США, похоже, изменили свою позицию после того, как Nvidia согласилась выплачивать правительству 15% от выручки от продажи чипов в Китай. Хотя продажа чипа Blackwell в Китай всё ещё не решена, Nvidia получила разрешение на экспорт своего упрощённого чипа H20 в Китай.
Несмотря на это, в августе Китай, как сообщается, потребовал от своих местных технологических компаний прекратить закупку чипов американской компании Nvidia, сославшись на проблемы безопасности.
https://www.msn.com/en-au/money/news/alibaba-reportedly-developing-new-ai-chip-as-china-s-xi-rejects-ai-s-cold-war-mentality/ar-AA1LDXoI
Этот шаг был предпринят после того, как в апреле США запретили Nvidia продавать Китаю свои самые мощные чипы — Blackwell, утверждая, что это необходимо для защиты национальной и экономической безопасности США в условиях набирающей обороты глобальной гонки ИИ.
В прошлом месяце США, похоже, изменили свою позицию после того, как Nvidia согласилась выплачивать правительству 15% от выручки от продажи чипов в Китай. Хотя продажа чипа Blackwell в Китай всё ещё не решена, Nvidia получила разрешение на экспорт своего упрощённого чипа H20 в Китай.
Несмотря на это, в августе Китай, как сообщается, потребовал от своих местных технологических компаний прекратить закупку чипов американской компании Nvidia, сославшись на проблемы безопасности.
https://www.msn.com/en-au/money/news/alibaba-reportedly-developing-new-ai-chip-as-china-s-xi-rejects-ai-s-cold-war-mentality/ar-AA1LDXoI
MSN
Alibaba reportedly developing new AI chip as China’s Xi rejects AI’s ‘Cold War mentality’
The potential new chip could have global implications as the AI arms race makes pace. View on euronews
Forwarded from Седьмая печать
Компания ESET, занимающаяся кибербезопасностью, обнаружила первый известный вирус-вымогатель на базе искусственного интеллекта. Вредоносное ПО, получившее название PromptLock, способно извлекать, шифровать и, возможно, даже уничтожать данные, хотя эта функция, по всей видимости, пока не реализована во вредоносной программе.
Вредоносное ПО PromptLock использует модель gpt-oss-20b от OpenAI для генерации вредоносных скриптов Lua в режиме реального времени, - сообщили в ESET, добавив, что вредоносное ПО написано на Golang. Это универсальный кроссплатформенный язык программирования, который в последние годы также завоевал популярность среди авторов вредоносных программ.
Благодаря моделям ИИ создание убедительных фишинговых сообщений, а также поддельных изображений, аудио и видео уже стало детской игрой. Доступность этих инструментов также значительно снижает барьер для входа для менее технически подкованных злоумышленников.
PromptLock - это просто первая ласточка, которая сигналит, что ИИ может быть использован для автоматизации различных видов атак программ-вымогателей, от разведки до кражи данных, со скоростью и масштабом, которые когда-то считались невозможными.
Всё только начинается
Вредоносное ПО PromptLock использует модель gpt-oss-20b от OpenAI для генерации вредоносных скриптов Lua в режиме реального времени, - сообщили в ESET, добавив, что вредоносное ПО написано на Golang. Это универсальный кроссплатформенный язык программирования, который в последние годы также завоевал популярность среди авторов вредоносных программ.
Благодаря моделям ИИ создание убедительных фишинговых сообщений, а также поддельных изображений, аудио и видео уже стало детской игрой. Доступность этих инструментов также значительно снижает барьер для входа для менее технически подкованных злоумышленников.
PromptLock - это просто первая ласточка, которая сигналит, что ИИ может быть использован для автоматизации различных видов атак программ-вымогателей, от разведки до кражи данных, со скоростью и масштабом, которые когда-то считались невозможными.
Всё только начинается