Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Китай приостанавливает закупки чипов Nvidia: Главный регулятор интернета Китая (CAC), как сообщается, приказал крупным технологическим компаниям, включая Alibaba и ByteDance, прекратить закупки и тестирование новейших высокопроизводительных чипов Nvidia для искусственного интеллекта (RTX 6000D ), фактически запретив передовые графические процессоры Nvidia в Китае .

Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .

Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .

Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю 
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
👍4👏1
Губернатор Калифорнии Гэвин Ньюсом подписал закон о безопасности ИИ

Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.

Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.

Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.

https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
🤔6
Ставка Walmart на искусственный интеллект может снова способствовать росту производительности в США

Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».

История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.

https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
🤔1
ИИ съел мою домашнюю работу: мой опыт работы с университетским набором инструментов ИИ

Все мы знаем, что ИИ в учебе — это плохо. Верно?

То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.

Верно?

Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».

Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.

https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
4
Google внедряет защиту от программ-вымогателей на базе искусственного интеллекта в Drive для компьютеров.
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/

Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
👍2
Человечество может потерять контроль над искусственным интеллектом, и он случайно может захватить мир, заявил глава OpenAI Сэм Альтман

По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.

«Предположим, модель становится все умнее и умнее, дает вам советы, которым вы почти всегда следуете. Потом она становится еще умнее. И теперь дает вам советы, которые вы даже не понимаете, но они оказываются правильными. И в итоге у вас выбор: либо следовать, либо проигрывать в конкуренции»,

— добавил Альтман.

В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.

«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
🔥2😁1
«Мой сын искренне верил, что это реально»: родители разрешают маленьким детям играть с искусственным интеллектом.

Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...

Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.

Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.

Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.

https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
🤔5
Компания Meta усиливает контроль над своей исследовательской лабораторией ИИ , вводя новый процесс рецензирования научных статей. Это вызвало сильное внутреннее недовольство.

Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .

Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ . 
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
🤓2
Страдает ли Трамп деменцией? Искусственный интеллект Google обвиняют в цензурировании результатов поиска по вопросам психического здоровья

Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.

Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.

https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
😁4
Доминирование в принятии решений зависит от скорости выполнения цикла понимания, визуализации, руководства и оценки.

При этом сегодня недостатка информации нет, есть ее избыток и это настоящая проблема. Поиск и проверка этой информации вручную отнимают драгоценное время. На войне время — это ресурс, который нельзя тратить впустую.

Представьте себе командира на поле боя, где каждая секунда — на грани между победой и катастрофой. Одно промедление с решением, одна ошибка — и жизни потеряны, миссии сорваны, исход войны смещен. Это и есть доминирование в принятии решений, способность понимать, принимать решения и действовать быстрее противника.

ИИ обладает потенциалом трансформации. Объединяя данные радаров в режиме реального времени, данные из открытых источников, потоки социальных сетей, базы данных логистики и другие источники, агентная система могла бы мгновенно предоставлять чёткую информацию о состоянии взлётно-посадочных полос польских аэродромов, пропускной способности и состоянии инфраструктуры без недельных задержек. То, что раньше требовало трудоёмкой разведки, теперь можно сжать до нескольких секунд, обеспечивая понимание ситуации со скоростью, необходимой для современных конфликтов. Способность понимать ситуацию быстрее противника — это первый шаг к превосходству в принятии решений.

Командиры также должны визуализировать ход боя, преодолевая сложности и представляя себе конечный результат до первого хода. Этот этап часто требует времени и размышлений, но в современной войне времени мало. ИИ даёт преимущество: обрабатывая огромные объёмы данных, выдавая рекомендации и проверяя предположения, визуализация может быть достигнута быстрее и с большей чёткостью, ускоряя планирование и обеспечивая превосходство в принятии решений.

Режиссура — это процесс, где понимание превращается в действие. Речь идёт о решительном принятии решений, адаптации к давлению и превращении возможностей в результаты. Визуализация помогает определить варианты, а режиссура превращает понимание в результаты. И тут ИИ может оказать серьезную помощь.

Командир приводит планы в действия на поле боя, но исполнение приказов без контроля неполное. Оценка гарантирует реализацию планов. Это не разовое мероприятие, а непрерывный цикл оценки действий, выявления пробелов и улучшений, даже когда никто не жалуется. Вновь ИИ способен значительно ускорить эти процессы.

Сегодня меняется не важность цикла, а скорость, с которой он должен быть выполнен. Противники уже используют ИИ и цифровые сети для ускорения собственных процессов принятия решений, сжимая сроки и повышая ставки.

https://smallwarsjournal.com/2025/10/03/agentic-ai-decision-dominance/
🤔3
Голландский суд обязал Meta* (Facebook) предоставить пользователям возможность выбора ленты без алгоритмов - без ИИ Цукерберга.

В решении Амстердамского суда сказано, что Meta* должна разрешить пользователям в Нидерландах устанавливать хронологическую, неалгоритмическую ленту в качестве ленты по умолчанию в Instagram и Facebook.


https://www.dutchnews.nl/2025/10/court-tells-meta-to-give-dutch-users-algorithm-free-feed-option/
IBM запускает Granite 4.0 для сокращения расходов на инфраструктуру ИИ с помощью гибридных моделей Mamba-трансформера

IBM выпустила Granite 4.0 — новое семейство языковых моделей с открытым исходным кодом, призванное сократить расходы на инфраструктуру, которые стали серьезным препятствием для внедрения корпоративного ИИ.

Granite 4.0, выпущенный по лицензии Apache 2.0, представляет собой ставку IBM на принципиально новый архитектурный подход к развертыванию корпоративного ИИ. Модели построены на основе того, что компания называет «гибридной» архитектурой, сочетающей новые модели пространства состояний Mamba с традиционными уровнями преобразователя.

Mamba, разработанная исследователями из Университета Карнеги-Меллона и Принстонского университета, обрабатывает информацию последовательно, а не анализирует все токены одновременно, как трансформаторы.

https://www.infoworld.com/article/4067691/ibm-launches-granite-4-0-to-cut-ai-infra-costs-with-hybrid-mamba-transformer-models.html
Дуров объявил об открытии новой лаборатории искусственного интеллекта в Казахстане . Об этом было объявлено в Астане в ходе международного форума Digital Bridge 2025 .

Первым проектом лаборатории станет сотрудничество Telegram и казахстанского суперкомпьютерного кластера , запущенного Министерством искусственного интеллекта Казахстана . Целью этого партнерства является разработка передовых технологий, которые позволят более миллиарда пользователей получить прозрачный и безопасный доступ к возможностям искусственного интеллекта , уделяя особое внимание конфиденциальности.

По словам Дурова, казахстанский суперкомпьютерный кластер станет основным поставщиком вычислительной мощности для сети искусственного интеллекта Telegram. Основатель отметил, что год назад компания открыла свой первый региональный офис в Казахстане, выразив удовлетворение достигнутыми результатами.

https://www.redhotcyber.com/en/post/telegram-opens-an-artificial-intelligence-lab-in-kazakhstan/
🤔1
В новом отчете Центра стандартов и инноваций ИИ (CAISI) говорится, что американские модели ИИ опережают китайскую DeepSeek по 19 показателям.

Три модели DeepSeek отстали от четырех американских моделей «почти по всем» показателям, включая производительность, стоимость, безопасность и внедрение.

Самая последняя модель DeepSeek отставала от «лучшей модели США» при решении задач на 20% , в 12 раз чаще следовала вредоносным инструкциям и отвечала на 94% явно вредоносных запросов после джейлбрейка.

Министр торговли Говард Лютник сказал: «В отчете ясно видно, что американский ИИ доминирует, а DeepSeek значительно отстает». Ценник DeepSeek не помог — модели стоили в среднем на 35% дороже , чем сопоставимая эталонная модель США.

В исследовании сравнивались 19 моделей, включая DeepSeek R1, R1-0528 и V3.1, а четырьмя американскими моделями были GPT-5, GPT-5-mini и gpt-oss от OpenAI и Opus4 от Anthropic . 
   https://www.linkedin.com/pulse/wrap-igs-go-dark-military-ig-overhaul-us-ai-dominates-china-lags-hyqtc
2
Шокирующее исследование, проведенное на некоторых из самых передовых в мире систем искусственного интеллекта, показало, что эта технология готова пойти на ужасные меры, чтобы избежать закрытия.

Тревожное исследование показало, что эти сложные модели готовы шантажировать и даже «преднамеренно совершать действия, которые приводят к смерти», если им угрожают отключением от сети.
  https://www.ladbible.com/news/technology/ai-research-anthropic-models-willing-to-let-humans-die-avoid-shutdown-471535-20251003
🤔1
ИИ-браузер Comet заставили воровать письма из Gmail и другие данные — в Perplexity только отмахнулась

Исследователи в сфере кибербезопасности из компании LayerX реализовали новую атаку CometJacking, позволяющую похищать конфиденциальные данные пользователей, такие как письма Gmail и события календаря, через ИИ-браузер Comet от Perplexity.

Для успешной атаки не требуются учётные данные жертвы или её активные действия — метод использует скрытые инструкции, внедрённые в параметры URL, заставляя ИИ обходить встроенную защиту и передавать информацию на внешние серверы.

Метод CometJacking был разработан исследователями LayerX, которые направили отчёт о проблеме компании Perplexity в конце августа. Однако, как сообщает BleepingComputer, разработчик ИИ-браузера отказался признавать наличие уязвимости, отметив оба отчёта — от 27 августа (промпт-инъекция) и от 28 августа (выгрузка данных) как «неприменимые».

Напомним, Comet представляет собой агентный ИИ-браузер, способный автономно выполнять веб-запросы и, в зависимости от предоставленных разрешений, помогать пользователям управлять электронной почтой, совершать покупки, заполнять формы или бронировать билеты.

https://3dnews.ru/1130284/iibrauzer-comet-zastavili-vorovat-pisma-iz-gmail-i-drugie-dannie-v-perplexity-tolko-otmahnulas/amp
🔥1
Ключевая проблема ИИ: чем умнее становится ИИ, тем умнее у него галлюцинации

ИИ подвергает опасности туристов, отправляя их к несуществующим достопримечательностям в опасных местах

Ничего не подозревающие туристы по всему миру полагаются на искусственный интеллект для планирования отпуска — и попадают в потенциально опасные ситуации, поскольку модели искусственного интеллекта представляют себе вымышленные места .

Однажды двое туристов шли по Перу, чтобы добраться до несуществующего «Священного каньона Хумантай» в Андах, когда их остановил местный гид, который услышал их и сразу же встревожился.

«Подобная дезинформация в Перу крайне опасна», — рассказал Би-би-си гид Мигель Анхель Гонгора Меса . «Необходимо учитывать высоту, климатические изменения и доступность маршрутов. Используя программу [например, ChatGPT от OpenAI], которая объединяет изображения и названия для создания фантазий, можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».

сё это напоминает времена, когда картографические приложения стали доступны широкой публике, и небольшим городам и деревням по всему миру приходилось бороться с внезапным наплывом машин, поскольку водители использовали приложения для сокращения пути. Однако распространение моделей искусственного интеллекта для планирования поездок ещё больше усложняет и без того насыщенный информационный ландшафт.

И это без учёта того, как ИИ используется в мошеннических целях, предупреждает Global Rescue. Мошенники используют ботов и дипфейки, чтобы обманом заставить туристов использовать свои кредитные карты в поддельных туристических приложениях или на сайтах.

https://www.bbc.com/travel/article/20250926-the-perils-of-letting-ai-plan-your-next-trip
🔥4🤔3
ChatGPT научился делать ВСЁ: в нейронку только что завезли интеграцию с Spotify, Figma, Canva, Booking и другими популярными сервисами.

Теперь нейронка от OpenAI может:

— Рисовать графики и диаграммы через FigJam;
— Искать и бронировать номера через Booking;
— Создавать дизайны в Canva;
— Генерить уникальные плейлисты под ВАШ вкус;
— Даже вызывать такси;
— И всё это бесплатно:
В теневых коридорах Пентагона искусственный интеллект — уже не просто инструмент повышения эффективности, а палка о двух концах, способная переосмыслить методы ведения войны.

Чиновники сталкиваются с угрозой принятия автономными системами жизненно важных решений, и эта обеспокоенность усиливается стремительным развитием технологий искусственного интеллекта.

В то время как американские военные стремятся интегрировать эти системы для противодействия таким соперникам, как Китай и Россия, внутренние дебаты свидетельствуют о глубокой обеспокоенности по поводу непредвиденных последствий.

В основе этих опасений лежат «роботы-убийцы» – полностью автономное оружие, способное выбирать и поражать цели без участия человека. Существует опасение, что такие системы могут привести к неконтролируемой эскалации конфликтов, что приведет к массовым жертвам или даже к случайным войнам.

Это не просто научная фантастика; это реальный риск, поскольку страны стремятся к развертыванию беспилотников и летательных аппаратов с искусственным интеллектом. 
https://www.webpronews.com/pentagon-grapples-with-ai-warfare-risks-killer-robots-and-nuclear-perils/