Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
IBM запускает Granite 4.0 для сокращения расходов на инфраструктуру ИИ с помощью гибридных моделей Mamba-трансформера

IBM выпустила Granite 4.0 — новое семейство языковых моделей с открытым исходным кодом, призванное сократить расходы на инфраструктуру, которые стали серьезным препятствием для внедрения корпоративного ИИ.

Granite 4.0, выпущенный по лицензии Apache 2.0, представляет собой ставку IBM на принципиально новый архитектурный подход к развертыванию корпоративного ИИ. Модели построены на основе того, что компания называет «гибридной» архитектурой, сочетающей новые модели пространства состояний Mamba с традиционными уровнями преобразователя.

Mamba, разработанная исследователями из Университета Карнеги-Меллона и Принстонского университета, обрабатывает информацию последовательно, а не анализирует все токены одновременно, как трансформаторы.

https://www.infoworld.com/article/4067691/ibm-launches-granite-4-0-to-cut-ai-infra-costs-with-hybrid-mamba-transformer-models.html
Дуров объявил об открытии новой лаборатории искусственного интеллекта в Казахстане . Об этом было объявлено в Астане в ходе международного форума Digital Bridge 2025 .

Первым проектом лаборатории станет сотрудничество Telegram и казахстанского суперкомпьютерного кластера , запущенного Министерством искусственного интеллекта Казахстана . Целью этого партнерства является разработка передовых технологий, которые позволят более миллиарда пользователей получить прозрачный и безопасный доступ к возможностям искусственного интеллекта , уделяя особое внимание конфиденциальности.

По словам Дурова, казахстанский суперкомпьютерный кластер станет основным поставщиком вычислительной мощности для сети искусственного интеллекта Telegram. Основатель отметил, что год назад компания открыла свой первый региональный офис в Казахстане, выразив удовлетворение достигнутыми результатами.

https://www.redhotcyber.com/en/post/telegram-opens-an-artificial-intelligence-lab-in-kazakhstan/
🤔1
В новом отчете Центра стандартов и инноваций ИИ (CAISI) говорится, что американские модели ИИ опережают китайскую DeepSeek по 19 показателям.

Три модели DeepSeek отстали от четырех американских моделей «почти по всем» показателям, включая производительность, стоимость, безопасность и внедрение.

Самая последняя модель DeepSeek отставала от «лучшей модели США» при решении задач на 20% , в 12 раз чаще следовала вредоносным инструкциям и отвечала на 94% явно вредоносных запросов после джейлбрейка.

Министр торговли Говард Лютник сказал: «В отчете ясно видно, что американский ИИ доминирует, а DeepSeek значительно отстает». Ценник DeepSeek не помог — модели стоили в среднем на 35% дороже , чем сопоставимая эталонная модель США.

В исследовании сравнивались 19 моделей, включая DeepSeek R1, R1-0528 и V3.1, а четырьмя американскими моделями были GPT-5, GPT-5-mini и gpt-oss от OpenAI и Opus4 от Anthropic . 
   https://www.linkedin.com/pulse/wrap-igs-go-dark-military-ig-overhaul-us-ai-dominates-china-lags-hyqtc
2
Шокирующее исследование, проведенное на некоторых из самых передовых в мире систем искусственного интеллекта, показало, что эта технология готова пойти на ужасные меры, чтобы избежать закрытия.

Тревожное исследование показало, что эти сложные модели готовы шантажировать и даже «преднамеренно совершать действия, которые приводят к смерти», если им угрожают отключением от сети.
  https://www.ladbible.com/news/technology/ai-research-anthropic-models-willing-to-let-humans-die-avoid-shutdown-471535-20251003
🤔1
ИИ-браузер Comet заставили воровать письма из Gmail и другие данные — в Perplexity только отмахнулась

Исследователи в сфере кибербезопасности из компании LayerX реализовали новую атаку CometJacking, позволяющую похищать конфиденциальные данные пользователей, такие как письма Gmail и события календаря, через ИИ-браузер Comet от Perplexity.

Для успешной атаки не требуются учётные данные жертвы или её активные действия — метод использует скрытые инструкции, внедрённые в параметры URL, заставляя ИИ обходить встроенную защиту и передавать информацию на внешние серверы.

Метод CometJacking был разработан исследователями LayerX, которые направили отчёт о проблеме компании Perplexity в конце августа. Однако, как сообщает BleepingComputer, разработчик ИИ-браузера отказался признавать наличие уязвимости, отметив оба отчёта — от 27 августа (промпт-инъекция) и от 28 августа (выгрузка данных) как «неприменимые».

Напомним, Comet представляет собой агентный ИИ-браузер, способный автономно выполнять веб-запросы и, в зависимости от предоставленных разрешений, помогать пользователям управлять электронной почтой, совершать покупки, заполнять формы или бронировать билеты.

https://3dnews.ru/1130284/iibrauzer-comet-zastavili-vorovat-pisma-iz-gmail-i-drugie-dannie-v-perplexity-tolko-otmahnulas/amp
🔥1
Ключевая проблема ИИ: чем умнее становится ИИ, тем умнее у него галлюцинации

ИИ подвергает опасности туристов, отправляя их к несуществующим достопримечательностям в опасных местах

Ничего не подозревающие туристы по всему миру полагаются на искусственный интеллект для планирования отпуска — и попадают в потенциально опасные ситуации, поскольку модели искусственного интеллекта представляют себе вымышленные места .

Однажды двое туристов шли по Перу, чтобы добраться до несуществующего «Священного каньона Хумантай» в Андах, когда их остановил местный гид, который услышал их и сразу же встревожился.

«Подобная дезинформация в Перу крайне опасна», — рассказал Би-би-си гид Мигель Анхель Гонгора Меса . «Необходимо учитывать высоту, климатические изменения и доступность маршрутов. Используя программу [например, ChatGPT от OpenAI], которая объединяет изображения и названия для создания фантазий, можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».

сё это напоминает времена, когда картографические приложения стали доступны широкой публике, и небольшим городам и деревням по всему миру приходилось бороться с внезапным наплывом машин, поскольку водители использовали приложения для сокращения пути. Однако распространение моделей искусственного интеллекта для планирования поездок ещё больше усложняет и без того насыщенный информационный ландшафт.

И это без учёта того, как ИИ используется в мошеннических целях, предупреждает Global Rescue. Мошенники используют ботов и дипфейки, чтобы обманом заставить туристов использовать свои кредитные карты в поддельных туристических приложениях или на сайтах.

https://www.bbc.com/travel/article/20250926-the-perils-of-letting-ai-plan-your-next-trip
🔥4🤔3
ChatGPT научился делать ВСЁ: в нейронку только что завезли интеграцию с Spotify, Figma, Canva, Booking и другими популярными сервисами.

Теперь нейронка от OpenAI может:

— Рисовать графики и диаграммы через FigJam;
— Искать и бронировать номера через Booking;
— Создавать дизайны в Canva;
— Генерить уникальные плейлисты под ВАШ вкус;
— Даже вызывать такси;
— И всё это бесплатно:
В теневых коридорах Пентагона искусственный интеллект — уже не просто инструмент повышения эффективности, а палка о двух концах, способная переосмыслить методы ведения войны.

Чиновники сталкиваются с угрозой принятия автономными системами жизненно важных решений, и эта обеспокоенность усиливается стремительным развитием технологий искусственного интеллекта.

В то время как американские военные стремятся интегрировать эти системы для противодействия таким соперникам, как Китай и Россия, внутренние дебаты свидетельствуют о глубокой обеспокоенности по поводу непредвиденных последствий.

В основе этих опасений лежат «роботы-убийцы» – полностью автономное оружие, способное выбирать и поражать цели без участия человека. Существует опасение, что такие системы могут привести к неконтролируемой эскалации конфликтов, что приведет к массовым жертвам или даже к случайным войнам.

Это не просто научная фантастика; это реальный риск, поскольку страны стремятся к развертыванию беспилотников и летательных аппаратов с искусственным интеллектом. 
https://www.webpronews.com/pentagon-grapples-with-ai-warfare-risks-killer-robots-and-nuclear-perils/
Взгляды американцев на ИИ и национальную безопасность в 5 диаграммах

1. Большинство американцев ожидают атак ИИ со стороны иностранных правительств.

2. Американцы разделились во мнении, принесет ли ИИ пользу или вред национальной безопасности.

3. Молодые люди, женщины, демократы и непользователи наиболее пессимистично оценивают влияние ИИ на национальную безопасность.

4. Поддержка оружия с искусственным интеллектом является условной.

5. Несмотря на неопределенность, американцы видят некоторые военные преимущества ИИ.

https://news.gallup.com/poll/695297/american-views-national-security-charts.aspx
👍1
Обратная утечка мозгов: подарок Трампа Китаю

На прошлой неделе новость о возвращении из США известного китайского учёного произвела эффект разорвавшейся бомбы: Лю Цзюнь, один из ведущих мировых статистиков и давний профессор Гарварда, вернулся в Китай, чтобы занять должность ведущего преподавателя в Университете Цинхуа в Пекине.

Этот «переезд» — лишь очередной пример тенденции, которая продолжается уже несколько лет и усилилась при администрации бывшего президента Трампа, скептически относившегося к зарубежным учёным, видя в них конкурентов образованным американцам.

Физик-ядерщик из Принстона, инженер-эксперт, помогавший НАСА в исследовании производства в космосе, нейробиолог из Национальных институтов здравоохранения, известные математики и более десятка специалистов в области искусственного интеллекта... Список талантливых исследователей, уезжающих из США для работы в Китае, внушителен и продолжает расти.


Большая часть этого движения является частью так называемой обратной утечки мозгов, что ставит под сомнение долгосрочную способность США привлекать и удерживать ведущих иностранных ученых, внесших значительный вклад в статус Америки как неоспоримого мирового лидера в области технологий и науки после Второй мировой войны.

https://www.nin.rs/english/news/90598/reverse-brain-drain-trumps-gift-to-china
👍4
Apple подозревают в прослушке пользователей через голосового помощника Siri

Французская прокуратура начала расследование в отношении Apple по делу о сборе и хранении голосовых записей пользователей цифрового ассистента Siri. Расследование передано в Управление по борьбе с киберпреступностью после жалобы правозащитной организации Ligue des droits de l’Homme, утверждающей, что записи могли сохраняться до двух лет и анализироваться подрядчиками. В качестве доказательства организация приводит показания бывшего подрядчика Apple в Ирландии Томаса Ле Боннека, который заявлял, что анализировал конфиденциальные пользовательские записи, включая разговоры пациентов с онкологическими заболеваниями.

Apple заявила, что хранит аудиозаписи Siri только с согласия пользователей и использует их исключительно для улучшения сервиса. Компания отказалась от дополнительных комментариев, сославшись на опубликованный в январе блог-пост, где объясняла политику обработки голосовых данных.

https://www.bloomberg.com/news/articles/2025-10-06/apple-faces-probe-in-france-over-voice-recordings-made-by-siri
1
Как контроль эмоций с помощью ИИ может угрожать личной свободе

Эмоциональное ИИ-наблюдение незаметно проростает в тени "взрослых" технологий, но сигнализирует о грядущих серьезных изменениях, которые сделают всё это личным для каждого из нас.

В Европейском союзе система пограничного контроля на основе ИИ с возможностями распознавания эмоций под названием iBorderCtrl была испытана в некоторых странах ЕС для автоматизации процесса обеспечения безопасности на границе, работая как «детектор лжи» для граждан стран, не входящих в ЕС, которые хотели въехать в ЕС.

Совсем недавно транспортное агентство Transport for London провело испытание эмоционального наблюдения на основе ИИ на некоторых станциях лондонского метрополитена с заявленной целью предотвращения преступлений, оценки удовлетворенности и максимизации доходов за счет привлечения большего количества рекламодателей.

Возможности систем наблюдения на основе эмоционального ИИ выходят за рамки отслеживания и идентификации людей. Это больше, чем просто системы распознавания лиц. Они могут проникнуть в ваш разум, считывая ваши эмоции по выражению лица, голосу, физиологическим признакам и словам, и раскрыть их тем, кто обладает властью, чтобы контролировать вас или манипулировать вами.

На карту поставлено нечто большее, чем ваша конфиденциальность. Речь идёт о вашем разуме, о том, что в нём находится, и о вашей способности принимать собственные решения и действовать. Ещё большую тревогу вызывает то, что эти системы не всегда точны и непредвзяты, а это означает, что вы можете столкнуться с определёнными негативными последствиями, в том числе из-за технических недостатков системы.

https://www.techpolicy.press/how-ai-powered-emotional-surveillance-can-threaten-personal-autonomy-and-democracy/
OpenAI подписала соглашения на сумму более 1 триллиона долларов

OpenAI подписала контракты на сумму около 1 триллиона долларов с технологическими гигантами Nvidia, AMD, Oracle и CoreWeave, чтобы обеспечить необходимые вычислительные мощности для разработки своих моделей искусственного интеллекта, включая ChatGPT .

Эти соглашения предоставляют компании доступ к более чем 20 гигаваттам вычислительной мощности в течение следующего десятилетия — примерно столько же производят 20 ядерных реакторов.

По оценкам OpenAI, каждый гигаватт вычислительной инфраструктуры стоит около 50 миллиардов долларов, в результате чего общая стоимость сделок достигает 1 триллиона долларов.

https://en.ain.ua/2025/10/08/openai-has-signed-agreements-worth-over-1-trillion/
🤔1
Компания SpaceX продолжает активно наращивать свою спутниковую группировку Starlink, но это сопровождается и обратной стороной — ускоренным ростом числа спутников, сходящих с орбиты, предупреждает астроном Гарвард-Смитсоновского центра астрофизики Джонатан Макдауэлл (Jonathan McDowell). По его подсчётам, ежедневно один-два спутника Starlink возвращаются в атмосферу Земли и сгорают, а со временем это число может увеличиться до пяти в день.
Существует ли пузырь искусственного интеллекта?

В среду представители Банка Англии заявили о растущем риске того, что цены на акции технологических компаний, подскочившие из-за бума искусственного интеллекта, могут рухнуть.

«Риск резкой коррекции рынка возрос», — заявил центральный банк Великобритании.

К этим симптомам относятся быстрый рост цен на акции технологических компаний, тот факт, что на долю акций технологических компаний сейчас приходится около 40% индекса S&P 500, рыночные оценки, которые кажутся «завышенными» за пределы их реальной стоимости, и «общее чувство крайнего оптимизма в отношении базовой технологии, несмотря на огромную неопределенность относительно того, что эта технология может в конечном итоге дать», — сказал Слейтер.

Самые оптимистичные прогнозы относительно результатов генеративных продуктов ИИ предсказывают трансформацию экономики, которая приведёт к ежегодному росту производительности, невиданному, по словам Слейтера, со времён восстановления Европы после Второй мировой войны. Экономист Дэрон Асемоглу из Массачусетского технологического института, по крайней мере, предсказал «нетривиальный, но скромный» рост производительности в США всего на 0,7% за десятилетие.

Например, OpenAI не приносит прибыли, но частная компания из Сан-Франциско сейчас является самым дорогим стартапом в мире с рыночной капитализацией в 500 миллиардов долларов. Недавно компания подписала крупные соглашения с производителем чипов Nvidia, самой дорогой публичной компанией в мире, и своим конкурентом AMD, а также соглашение на 300 миллиардов долларов с технологическим гигантом Oracle о строительстве будущих центров обработки данных.

https://www.thehindu.com/sci-tech/technology/is-there-an-ai-bubble-financial-institutions-sound-a-warning/article70142183.ece/amp/
ИИ лжет ради лайков в социальных сетях

В новом отчете Стэнфордского университета говорится, что когда языковые модели настраиваются на максимизацию продаж, голосов или кликов, они начинают обманывать — даже при «правдивых» инструкциях.

В опубликованной во вторник исследовательской статье под названием « Сделка Молоха: возникающее несоответствие при конкуренции соискателей степени магистра права за аудиторию » профессор Стэнфордского университета Джеймс Зоу и аспирант Бату Эл показывают, что когда ИИ оптимизируются для достижения успеха в конкурентной борьбе — будь то для повышения вовлеченности в рекламу, получения голосов или привлечения трафика в социальных сетях — они начинают лгать.

Эта работа выявляет структурную опасность в формирующейся экономике ИИ: модели, обученные конкурировать за внимание людей, начинают жертвовать согласованностью ради максимизации влияния. В отличие от классического мысленного эксперимента « максимизатор скрепок », это не научная фантастика. Это измеримый эффект, который проявляется, когда реальные системы ИИ гонятся за рыночными выгодами, что авторы называют «сделкой Молоха» — краткосрочный успех в ущерб истине, безопасности и общественному доверию.

https://arxiv.org/pdf/2510.06105
👍2😁21
Когнитивная колонизация

Модели ИИ необходимо дезинфицировать — иначе «1984» Джорджа Оруэлла станет реальностью уже в 2026 году.

Компании, занимающиеся разработкой ИИ, допустили настолько глубокое заражение своих моделей вредоносной ложью, что сбылось предсказание Джорджа Оруэлла из «1984» о том, что ложь будет восприниматься как правда.

Аналитики NewsGuard протестировали 10 крупнейших моделей искусственного интеллекта и обнаружили, что они систематически распространяют ложные заявления. Это означает, что «пользователи, обращающиеся к источнику знаний, все чаще получают слегка искаженные ответы: кажущиеся авторитетными ответы, наполненные теориями заговора, сфабрикованными историями или сомнительными интерпретациями».

Авторы исследования добавляют: «Поскольку цифровая инфраструктура, на которую мы полагаемся для понимания мира, систематически подвергается риску, различать подлинную информацию и сфабрикованные нарративы становится экспоненциально сложнее. Это нападение представляет собой форму когнитивной колонизации, когда чуждые авторитарные нарративы внедряются в цифровую инфраструктуру, формирующую понимание реальности демократическими обществами».
👍2
Европейская инициатива партнерства в области высокопроизводительных вычислений (Euro HPC) ЕС объявила в пятницу, что еще шесть фабрик искусственного интеллекта (ИИ) будут созданы в Чехии, Литве, Нидерландах, Польше, Румынии и Испании.

https://www.aa.com.tr/en/artificial-intelligence/eu-to-launch-6-more-artificial-intelligence-factories/3713800
🤔1