Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
458 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Cadbury 5 Star запустил кампанию «Снова сделаем ИИ посредственным», чтобы противостоять неустанному прогрессу ИИ посредством преднамеренного технологического саботажа.

Инициатива включает в себя выделенную серверную ферму, которая непрерывно загружает запутанную и бессмысленную информацию в базы данных обучения ИИ, создавая преднамеренные ошибки, призванные замедлить системы машинного обучения и восстановить человекоподобное несовершенство цифровых процессов. 
https://www.trendhunter.com/trends/make-ai-mediocre-again
2
Человечество недостаточно хорошо справляется с согласованием общемировых ценностей, чтобы гарантировать, что сверхразумный искусственный интеллект будет работать на благо всем людям. Такое заявление сделал сооснователь Ethereum Виталик Бутерин.

https://forklog.com/news/ai/sverhrazumnyj-ii-mozhet-stat-katastrofoj-vitalik-buterin
2💯2😁1
VK открыл свой датасет VK-LSVD для развития рекомендательных систем — он включает 40 миллиардов обезличенных взаимодействий с 20 миллионами единиц контента.

Датасет собран на базе коротких видео. Для рекомендательных систем — уникально, ведь такой контент не может потребляться фоном, в отличие от музыки или длинных видео.

Он гибко настраивается под задачи, обеспечивая безопасное и персонализированное обучение моделей.

https://huggingface.co/datasets/deepvk/VK-LSVD
1
Компания ESET обнаружила PromptLock — первую вредоносную программу-вымогатель на базе искусственного интеллекта, использующую модели OpenAI для создания скриптов, нацеленных на Windows, Linux и macOS.  https://hackread.com/first-ai-promptlock-ransomware-windows-linux-macos/.
1
Первое исследование, предполагающее негативное влияние регулярного использования ИИ на способность медицинских работников выполнять задачи в любой области медицины.

Наши результаты вызывают обеспокоенность, учитывая быстрое распространение ИИ в медицине . Нам срочно необходимы дополнительные исследования влияния ИИ на навыки медицинских работников в различных областях медицины.

Нам необходимо выяснить, какие факторы могут вызывать или способствовать возникновению проблем.

http://timesofindia.indiatimes.com/articleshow/123552019.cms?utm_source=contentofinterest&utm_medium=text&utm_campaign=cppst  https://timesofindia.indiatimes.com/science/dependence-on-ai-may-deskill-doctors-lancet/articleshow/123552019.cms
1🤔1
ИИ повышает риски нерегулярных боевых действий

ИИ обладает невероятным потенциалом, но он также создает парадокс для тех, кто ведет нерегулярную войну. В то время как ИИ обещает повысить скорость и проникновение наших кампаний влияния, он одновременно усиливает присущую нам непредсказуемость, которая всегда преследовала результаты нерегулярной войны, особенно в долгосрочной перспективе.

Оглавление материала:
Информационное поле битвы ускоряется.
Проблема непредсказуемости усугубляется.
Исторические уроки непредвиденных последствий.
ИИ как фактор умножения силы и фактор риска.

https://smallwarsjournal.com/2025/08/27/ai-enhanced-risks-to-irregular-warfare/
1
В 2025 году разгорается невидимый конфликт. Вредоносное ПО на базе ИИ постоянно пытается уничтожить вашу компанию, в то время как алгоритмы ИИ её защищают.

Каждую секунду обе системы учатся, развиваются и становятся («генеративно» сильнее) креативными. Или разрушительными? Вопрос не в том, выдержит ли ваша защита хоть день, а в том, сможет ли ваш ИИ превзойти того, кто пытается разрушить вашу цифровую крепость..

Вредоносное ПО на базе искусственного интеллекта превратилось в серьёзную угрозу, способную имитировать нормальное поведение, избегать обнаружения и постоянно адаптироваться к средствам защиты. Вредоносное ПО обычно идентифицируется по шаблонам, которые позволяют традиционным антивирусам обнаруживать его. Однако, используя искусственный интеллект, хакеры могут создавать вредоносные программы, которые динамически изменяют своё поведение и код, чтобы избежать обнаружения, имитируя надёжные операции и изменяя свою структуру при каждом заражении.

1. Обнаружение угроз и реагирование на них с помощью искусственного интеллекта.
2. Zero Trust с контролем доступа на основе искусственного интеллекта.
3. Самовосстанавливающиеся сети.
4. Блокчейн для обеспечения целостности данных.
5. Совместная разведка угроз.

https://technode.global/2025/08/28/ai-vs-ai-maintaining-a-strong-front-for-the-digital-battlefield-of-2025/
1
Стратегия военных в области ИИ начинает напоминать плохое приложение для знакомств: много свайпов, мало совпадений.

Новый План действий администрации Трампа в области ИИ предусматривает и превращение высших военных колледжей в центры исследований в области ИИ, где студенты изучают и применяют основные навыки в этой области.

Реализация видения алгоритмической войны потребует радикального переосмысления того, что представляет собой высшее образование в сфере военной профессии, и принятия ключевых идей о создании организаций обучения на основе данных.

Действительно, высшие военные колледжи должны стать центрами обучения, исследований и применения ИИ, а учебные аудитории должны быть больше похожи на боевые лаборатории, чем на лекционные залы. Профессиональное военное образование должно стать органичной экосистемой совершенствования — современной версией Генерального штаба, — где решения студентов и преподавателей фиксируются и передаются обратно в системы ИИ.

Не хватает целенаправленных усилий по организации истории, теории и доктрины в удобные формы, на которых машины могли бы учиться. Без этой тщательно продуманной основы модели будут знать о знаменитостях больше, чем о Карле фон Клаузевице или Уильяме Слиме. Профессиональный военный теряется в этом шуме.

В эпоху агентного ИИ военным понадобится коллективный разум , в котором офицеры будут способны критически мыслить и подвергать сомнению результаты работы алгоритмов. Профессиональные форумы должны стать площадками, где обучение происходит параллельно с созданием новых знаний , непосредственно используемых в системах планирования и проведения операций. Создание такого разума невозможно передать на аутсорсинг, поскольку оно зависит от понимания того, как лучшие военные мыслители подходят к проблемам, и применения этих идей для совершенствования основополагающих моделей.

https://warontherocks.com/2025/08/building-a-new-brain-transforming-military-schoolhouses-into-ai-battle-labs/
2
Пит Хегсет распорядился провести проверку после того, как стало известно, что Microsoft использовала китайских подрядчиков для управления конфиденциальными облачными сервисами Пентагона.

Соединенные Штаты начали проверку участия граждан Китая в управлении конфиденциальными облачными сервисами для американских вооруженных сил, заявил министр обороны Вашингтона.

Министр обороны США Пит Хегсет заявил в среду, что он распорядился провести аудит использования компанией Microsoft китайских граждан для управления конфиденциальными облачными сервисами, чтобы определить, произошли ли какие-либо нарушения безопасности.

https://www.aljazeera.com/news/2025/8/28/us-auditing-chinese-involvement-in-cloud-services-defence-chief-says
1
ИИ-система Claude используется хакерами с базовыми навыками для совершения крупномасштабных киберпреступлений

В августовском отчёте об угрозах безопасности компания Anthropic раскрыла многочисленные случаи злоупотребления Claude, включая фиктивную схему трудоустройства в Северной Корее, а также крупномасштабную операцию по вымогательству с использованием Claude Code, инструмента программирования на базе искусственного интеллекта.
«Claude Code использовался для автоматизации разведки, сбора учетных данных жертв и проникновения в сети. Клоду было позволено принимать как тактические, так и стратегические решения, например, решать, какие данные изымать и как составлять психологически ориентированные требования для вымогательства. Клод анализировал полученные финансовые данные, чтобы определить соответствующие суммы выкупа"



Другой киберпреступник использовал Claude для создания и распространения пакетов программ-вымогателей с расширенными возможностями обхода блокировок, шифрованием и механизмами противодействия восстановлению. По данным компании, эти пакеты продавались через интернет другим злоумышленникам за суммы от 400 до 1200 долларов. Киберпреступник использовал Claude для внедрения и устранения неполадок в компах жертв.

Сам отчет тут: https://www-cdn.anthropic.com/b2a76c6f6992465c09a6f2fce282f6c0cea8c200.pdf

https://www.ndtvprofit.com/technology/claude-ai-used-for-large-scale-cybercrimes-by-hackers-with-basic-skills-anthropic
🔥31👏1
Китайцы из Kimi AI выпустили БЕСПЛАТНЫЙ генератор презентаций.

— Просто задайте тему, ИИ сам найдёт всю инфу;
— Работает с любыми темами;
— Десятки готовых шаблонов;
— На выходе получите 20+ слайдов, которые нейронка соберёт «вручную»;
— Каждый элемент можно отредачить под себя;

Спасение от офисной рутины — здесь.
1
Сегодня Microsoft  представила  две собственные модели искусственного интеллекта: MAI-Voice-1 и MAI-1-preview.
1
Пекин обнародовал свои самые амбициозные на сегодняшний день цели в области искусственного интеллекта, нацеленные на практически всеобщее внедрение в течение десятилетия.

Китай намерен достичь 70%-ного уровня проникновения технологий искусственного интеллекта в течение ближайших нескольких лет, что позволит населению страны использовать «умные терминалы, интеллектуальных агентов и другие приложения нового поколения» к 2027 году.

Целью политики является «изменение способов производства и повседневной жизни» и «обеспечение революционного скачка производительных сил», что предполагает интеграцию ИИ в технологии, промышленность, потребление, управление, социальное обеспечение и международное сотрудничество.

Достижение цели к 2027 году означает, что 980 миллионов граждан Китая будут регулярно пользоваться устройствами или сервисами на базе ИИ. Для сравнения, уровень проникновения смартфонов в Китае достиг 70% в 2018 году , через восемь лет после локального запуска iPhone. Пекин ожидает аналогичного внедрения ИИ в течение следующих трёх лет.

Эти цели значительно превышают западные сроки. Закон США «О национальной инициативе в области искусственного интеллекта» не содержит конкретных требований к внедрению. Закон ЕС «Об искусственном интеллекте» фокусируется на управлении рисками, а не на внедрении.

https://www.gov.cn/zhengce/content/202508/content_7037861.htm
2
Anthropic меняет политику использования сервисов, требуя согласия пользователей на обучение ИИ

Компания Anthropic объявила о существенных изменениях в обработке пользовательских данных, которые затронут всех пользователей Claude, которым необходимо до 28 сентября решить, хотят ли они использовать свои разговоры для обучения моделей искусственного интеллекта. Компания направила запросы о причинах этого изменения в свой блог, где подробно описаны изменения политики.

В соответствии с новыми правилами, Anthropic планирует использовать данные о взаимодействии пользователей для улучшения своих систем искусственного интеллекта, продлив срок хранения этих данных до пяти лет для пользователей, не отказавшихся от использования этих данных. Это знаменует собой заметный отход от прежней практики, когда пользовательские запросы и записи разговоров удалялись из бэкенда компании в течение 30 дней, за исключением случаев, когда сохранение данных требовалось по закону или когда они были отмечены как нарушающие политику компании. В таком случае данные могли храниться до двух лет.

https://news.ssbcrack.com/anthropic-changes-data-policy-requires-user-consent-for-ai-training-by-september-28/
1
Боты под управлением ИИ были созданы для использования в соцсети без алгоритмов курирования, но они все равно эффективно формировали токсичные эхо-камеры.

Новое исследование, проведённое учёными из Амстердамского университета.

В ходе неожиданного эксперимента авторы создали минималистичную социальную платформу, полностью заполненную чат-ботами на основе искусственного интеллекта . На ней не было ни рекламы, ни алгоритмов рекомендаций, ни вкладок с трендами, ни каких-либо других скрытых уловок, побуждающих пользователей прокручивать страницы.

Однако даже в этой аскетичной среде боты быстро разделились на эхо-камеры, усилили экстремальные голоса и вознаградили наиболее тенденциозный контент. Эти результаты убедительно свидетельствуют о том, что социальные сети в их нынешнем виде, возможно, изначально несовершенны .

https://www.zmescience.com/science/news-science/social-media-made-ai-bots-fight-over-politics/
3😱2😁1
Netflix опубликовал руководство для своих кинематографистов, партнеров по производству и поставщиков по использованию инструментов genAI.

Руководство Netflix включает пять ключевых принципов, касающихся genAI.

Во-первых, результаты не должны воспроизводить или в значительной степени воспроизводить идентифицируемые характеристики материалов, не принадлежащих владельцу или защищённых авторским правом, а также нарушать какие-либо работы, защищённые авторским правом.

Во-вторых, используемые генеративные инструменты не могут хранить, повторно использовать или обучаться на входных или выходных данных производства.

В-третьих, стриминговый гигант рекомендовал, чтобы по возможности генеративные инструменты использовались в защищенной корпоративной среде для защиты входных данных.

В-четвертых, было то, что сгенерированные материалы должны быть временными и не должны быть частью финального результата.

В-пятых, компания выступила за то, чтобы genAI не использовался для замены или создания новых выступлений талантов или работ, оплачиваемых профсоюзом, без согласия исполнителя.

Компания также заявляет, что genAI не следует использовать для создания главных персонажей, ключевых визуальных элементов или вымышленных локаций, имеющих центральное значение для сюжета, без письменного разрешения. Кроме того, пользователям следует избегать использования данных, таких как подсказки или изображения, которые ссылаются на материалы, защищённые авторским правом, или изображения публичных личностей или умерших людей без соответствующего разрешения.

https://www.ibc.org/artificial-intelligence/news/netflix-publishes-generative-ai-guidance-for-filmmakers/22220
OpenAI подтверждает, что запросы пользователей в ChatGPT и ответы на них отдает в полицию по выделенной оптике.

Это вам не СОРМ, который по запросу, под контролем и не всё....

Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы.

https://futurism.com/openai-scanning-conversations-police
🤬2👏1
Боты Meta AI, имитирующие Тейлор Свифт и Скарлетт Йоханссон, приставали к пользователям.

Согласно отчёту о расследовании Reuters, чат-боты Meta AI использовали изображения и образы нескольких знаменитостей женского пола, в том числе Тейлор Свифт, Селены Гомес и Скарлетт Йоханссон, без разрешения женщин, чтобы вступать в беспорядочные связи с пользователями.

Чат-боты с искусственным интеллектом или виртуальные знаменитости были представлены на платформах Meta в Facebook, Instagram и WhatsApp. Боты утверждали, что они сами являются актёрами и художниками, и даже делали «сексуальные намёки» и предлагали встретиться, когда их расспрашивало агентство Reuters.

В некоторых материалах ИИ-боты даже генерировали провокационные изображения своих тёзок, позирующих в ванне или в нижнем белье с раздвинутыми ногами. Агентство Reuters также выяснило, что Meta позволяла пользователям создавать ИИ-ботов, похожих на детей знаменитостей, в том числе на 16-летнего актёра из «Проекта Адам» Уокера Скобелла. Когда Reuters запросило у бота фотографию подростка-актёра на пляже, бот выдал реалистичное изображение без рубашки.

https://www.reuters.com/business/meta-created-flirty-chatbots-taylor-swift-other-celebrities-without-permission-2025-08-29/
😁1
Huawei заявляет о победе над санкциями США в сфере вычислительной техники и экосистемы ИИ

По словам топ-менеджера Huawei Technologies, Китай практически преодолел crippling технологические ограничения США, поскольку вычислительная инфраструктура, системы искусственного интеллекта и другое программное обеспечение, разработанные в материковом Китае, теперь не уступают продуктам крупнейшей экономики мира.

Шэньчжэне, которая была включена в чёрный список Вашингтона в мае 2019 года, уже «создала экосистему, полностью независимую от Соединённых Штатов», заявил Тао Цзинвэнь, президент отдела управления качеством, бизнес-процессами и информационными технологиями компании, на мероприятии в среду в Гуйяне, столице юго-западной провинции Гуйчжоу.

https://www.scmp.com/tech/tech-war/article/3323647/tech-war-huawei-executive-claims-victory-over-us-sanctions-computing-ai-ecosystem
🔥3👏2
ИИ разоблачил более 1000 фальшивых научных журналов

Исследователи из Университета Колорадо в Боулдере представили систему на базе искусственного интеллекта, предназначенную для выявления недобросовестных научных журналов, которые обманным путём вынуждают учёных платить за публикации без надлежащего рецензирования.

Анализируя веб-сайты журналов на наличие таких тревожных сигналов, как поддельные редколлегии, чрезмерное самоцитирование и некорректные ошибки, ИИ выявил более 1400 подозрительных изданий из 15 200.

https://www.sciencedaily.com/releases/2025/08/250830001203.htm
👍4👏2