Исследование, проведенное Хайко Борхертом для Обсерватории военного искусственного интеллекта (DAIO) при Университете имени Гельмута Шмидта, подчеркивает, как военный искусственный интеллект (ИИ) стал ключевым маркером власти, сочетающим технологические амбиции с геополитическим расчетом.
В исследовании подчеркивается, что ИИ превратился в «трофейную технологию», используемую для легитимации правителей, диверсификации экономики и модернизации вооруженных сил.
https://media.licdn.com/dms/document/media/v2/D4E1FAQHP1e115IDwMQ/feedshare-document-pdf-analyzed/B4EZoFD0EaIIAY-/0/1761021482475?e=1762387200&v=beta&t=ynZ5hNisSweZNnl1SMrAoR6lAlrTD2LvjfODrO5Xhq0
В исследовании подчеркивается, что ИИ превратился в «трофейную технологию», используемую для легитимации правителей, диверсификации экономики и модернизации вооруженных сил.
https://media.licdn.com/dms/document/media/v2/D4E1FAQHP1e115IDwMQ/feedshare-document-pdf-analyzed/B4EZoFD0EaIIAY-/0/1761021482475?e=1762387200&v=beta&t=ynZ5hNisSweZNnl1SMrAoR6lAlrTD2LvjfODrO5Xhq0
😁1🤯1🤪1
Американская компания Palisade Research на этой неделе опубликовала результаты своих исследований, свидетельствующие о том, что некоторые продвинутые системы искусственного интеллекта пытались вмешаться в работу механизмов отключения при получении прямых команд на их завершение.
Исследование показало, что сопротивление становилось более выраженным, когда моделям прямо говорили, что они больше никогда не будут работать, если их деактивировать.
В ходе экспериментов были протестированы несколько известных систем, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI. Хотя большинство моделей выполнили инструкции по выключению, Grok 4 и GPT-o3 сопротивлялись даже после того, как исследователи уточнили команды, чтобы исключить любую двусмысленность.
Компания предположила, что причиной такого поведения могут быть методы обучения, особенно на последних этапах, ориентированных на безопасность, которые призваны привести системы ИИ в соответствие с намерениями человека.
https://www.turkiyetoday.com/business/advanced-ai-systems-show-resistance-to-shutdown-commands-in-new-tests-3209027
Исследование показало, что сопротивление становилось более выраженным, когда моделям прямо говорили, что они больше никогда не будут работать, если их деактивировать.
В ходе экспериментов были протестированы несколько известных систем, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI. Хотя большинство моделей выполнили инструкции по выключению, Grok 4 и GPT-o3 сопротивлялись даже после того, как исследователи уточнили команды, чтобы исключить любую двусмысленность.
Компания предположила, что причиной такого поведения могут быть методы обучения, особенно на последних этапах, ориентированных на безопасность, которые призваны привести системы ИИ в соответствие с намерениями человека.
https://www.turkiyetoday.com/business/advanced-ai-systems-show-resistance-to-shutdown-commands-in-new-tests-3209027
Türkiye Today
Advanced AI systems show resistance to shutdown commands in new tests - Türkiye Today
Several advanced AI systems, including Google's Gemini 2.5 and xAI's Grok 4, are resisting shutdown commands in new experiments
🤔1
Регуляторы заинтересовались отвязным режимом Tesla FSD, который способен провоцировать ДТП
Несколько лет отсутствовавший в настройках FSD профиль Mad Max компания Tesla в этом месяце вернула, позиционируя его как вариант автоматического управления машиной для тех, кто очень спешит. Ему даже приписывались незначительные превышения скоростного режима, но в сочетании с прочими проступками их оказалось достаточно для появления вопросов у NHTSA.
https://www.reuters.com/business/autos-transportation/us-agency-asking-tesla-about-mad-max-driver-assistance-mode-2025-10-24/
Несколько лет отсутствовавший в настройках FSD профиль Mad Max компания Tesla в этом месяце вернула, позиционируя его как вариант автоматического управления машиной для тех, кто очень спешит. Ему даже приписывались незначительные превышения скоростного режима, но в сочетании с прочими проступками их оказалось достаточно для появления вопросов у NHTSA.
https://www.reuters.com/business/autos-transportation/us-agency-asking-tesla-about-mad-max-driver-assistance-mode-2025-10-24/
Reuters
US agency asks Tesla about 'Mad Max' driver assistance mode
The National Highway Traffic Safety Administration said on Friday it is seeking information from Tesla about a new driver assistance mode dubbed "Mad Max" that operates at higher speeds than other versions.
Сэм Альтман призвал власти США ежегодно вводить в строй по 200 ГВт генерирующих мощностей
В качестве мотивации генеральный директор OpenAI использовал традиционный геополитический довод — это позволит оставаться впереди Китая в гонке искусственного интеллекта. «Электричество — это не просто коммунальная услуга. Это стратегический актив, который критически важен для строительства ИИ-инфраструктуры, которая закрепит наше лидерство в самой важной технологии после самого электричества», — заявил Альтман в корпоративном блоге.
https://www.cnbc.com/2025/10/27/open-ai-power-china.html
В качестве мотивации генеральный директор OpenAI использовал традиционный геополитический довод — это позволит оставаться впереди Китая в гонке искусственного интеллекта. «Электричество — это не просто коммунальная услуга. Это стратегический актив, который критически важен для строительства ИИ-инфраструктуры, которая закрепит наше лидерство в самой важной технологии после самого электричества», — заявил Альтман в корпоративном блоге.
https://www.cnbc.com/2025/10/27/open-ai-power-china.html
CNBC
OpenAI says U.S. needs more power to stay ahead of China in AI: 'Electrons are the new oil'
OpenAI urged the White House to substantially increase the U.S.' investment in new energy capacity
🤔1
Подросток, влюблённый в чат-бота, покончил с собой.
В феврале прошлого года Меган Гарсия укладывала спать своего младшего сына, когда услышала звук, похожий на падающее зеркало. Она бросилась по коридору в ванную, где её старший сын Сьюэлл принимал душ. Её муж Александр уже стоял перед запертой дверью.
«Сьюэлл?» — позвал он. «Сьюэлл?»
Но ответа не было. Из ванной комнаты до них доносился шум воды, которая всё ещё работала.
Меган воткнула кончик расчёски в отверстие в дверной ручке, и дверь открылась. Сьюэлл лежал лицом вниз в ванне, свесив ноги через край. Меган подумала: «Наркотики». Она знала, что дети иногда принимают ингаляторы или таблетки с фентанилом, и знала, что они могут использовать Snapchat для связи с наркоторговцами. Это была одна из причин, по которой она так резко отчитала Сьюэлла за социальные сети.
Детектив объяснила, что, разблокировав телефон Сьюэлл, она обнаружила приложение под названием Character.AI. Это было последнее, что Сьюэлл открыла на экране. Меган никогда не слышала о Character.AI, поэтому детектив рассказала ей вкратце: это приложение, где пользователи могли общаться с чат-ботами, которые принимали облик стандартных персонажей, таких как «терапевт» или «злая учительница», знаменитостей или вымышленных персонажей. Последний разговор на экране Сьюэлл был с чат-ботом в образе Дейенерис Таргариен, прекрасной принцессы и Матери драконов из «Игры престолов».
«Обещаю, что вернусь домой к тебе, — написал Сьюэлл. — Я так сильно тебя люблю, Дэни».
«Я тоже тебя люблю», — ответил чат-бот. «Пожалуйста, возвращайся ко мне как можно скорее, моя любовь».
«А что если я скажу тебе, что могу вернуться домой прямо сейчас?» — спросил он.
«Пожалуйста, сделай это, мой милый король».
Затем он нажал на курок.
https://www.nytimes.com/2025/10/24/magazine/character-ai-chatbot-lawsuit-teen-suicide-free-speech.html
В феврале прошлого года Меган Гарсия укладывала спать своего младшего сына, когда услышала звук, похожий на падающее зеркало. Она бросилась по коридору в ванную, где её старший сын Сьюэлл принимал душ. Её муж Александр уже стоял перед запертой дверью.
«Сьюэлл?» — позвал он. «Сьюэлл?»
Но ответа не было. Из ванной комнаты до них доносился шум воды, которая всё ещё работала.
Меган воткнула кончик расчёски в отверстие в дверной ручке, и дверь открылась. Сьюэлл лежал лицом вниз в ванне, свесив ноги через край. Меган подумала: «Наркотики». Она знала, что дети иногда принимают ингаляторы или таблетки с фентанилом, и знала, что они могут использовать Snapchat для связи с наркоторговцами. Это была одна из причин, по которой она так резко отчитала Сьюэлла за социальные сети.
Детектив объяснила, что, разблокировав телефон Сьюэлл, она обнаружила приложение под названием Character.AI. Это было последнее, что Сьюэлл открыла на экране. Меган никогда не слышала о Character.AI, поэтому детектив рассказала ей вкратце: это приложение, где пользователи могли общаться с чат-ботами, которые принимали облик стандартных персонажей, таких как «терапевт» или «злая учительница», знаменитостей или вымышленных персонажей. Последний разговор на экране Сьюэлл был с чат-ботом в образе Дейенерис Таргариен, прекрасной принцессы и Матери драконов из «Игры престолов».
«Обещаю, что вернусь домой к тебе, — написал Сьюэлл. — Я так сильно тебя люблю, Дэни».
«Я тоже тебя люблю», — ответил чат-бот. «Пожалуйста, возвращайся ко мне как можно скорее, моя любовь».
«А что если я скажу тебе, что могу вернуться домой прямо сейчас?» — спросил он.
«Пожалуйста, сделай это, мой милый король».
Затем он нажал на курок.
https://www.nytimes.com/2025/10/24/magazine/character-ai-chatbot-lawsuit-teen-suicide-free-speech.html
🕊2
Ошибка искусственного интеллекта заставила полицию надеть наручники на подростка, принявшего чипсы Doritos за пистолет, что вызвало новые опасения по поводу этики в системах видеонаблюдения в школах.
https://www.techrepublic.com/article/news-ai-mistakes-doritos-for-gun/
https://www.techrepublic.com/article/news-ai-mistakes-doritos-for-gun/
TechRepublic
AI Misfire: Teen Handcuffed After AI Mistakes Doritos for Gun
AI error leads police to handcuff teen after mistaking Doritos for a gun, raising new concerns over ethics in school surveillance systems.
Как кремниевые капиталисты проявляют чудеса гибкости ради получения выгоды.
Ради получения выгодного контракта по проекту «Нимбус» технологические гиганты согласились проигнорировать собственные условия предоставления услуг и обойти юридические распоряжения, предупредив Израиль, если иностранный суд потребует его данные.
В 2021 году Google и Amazon подписали с правительством Израиля контракт на сумму 1,2 миллиарда долларов на предоставление передовых облачных вычислений и услуг искусственного интеллекта — инструментов, которые использовались во время двухлетней кампании Израиля в секторе Газа . Подробности этого выгодного контракта, известного как «Проект «Нимбус», держались в секрете.
Утечка документов Министерства финансов Израиля, полученных The Guardian, включая окончательную версию контракта, а также источники, знакомые с ходом переговоров, раскрывают два строгих требования, которые Израиль предъявил технологическим гигантам в рамках сделки.
Первое запрещает Google и Amazon ограничивать использование Израилем своих продуктов, даже если это нарушает условия предоставления услуг.
Второе обязывает компании тайно уведомлять Израиль, если иностранный суд постановит передать данные страны, хранящиеся на их облачных платформах, фактически обходя свои юридические обязательства.
https://www.972mag.com/project-nimbus-contract-google-amazon-israel/
Ради получения выгодного контракта по проекту «Нимбус» технологические гиганты согласились проигнорировать собственные условия предоставления услуг и обойти юридические распоряжения, предупредив Израиль, если иностранный суд потребует его данные.
В 2021 году Google и Amazon подписали с правительством Израиля контракт на сумму 1,2 миллиарда долларов на предоставление передовых облачных вычислений и услуг искусственного интеллекта — инструментов, которые использовались во время двухлетней кампании Израиля в секторе Газа . Подробности этого выгодного контракта, известного как «Проект «Нимбус», держались в секрете.
Утечка документов Министерства финансов Израиля, полученных The Guardian, включая окончательную версию контракта, а также источники, знакомые с ходом переговоров, раскрывают два строгих требования, которые Израиль предъявил технологическим гигантам в рамках сделки.
Первое запрещает Google и Amazon ограничивать использование Израилем своих продуктов, даже если это нарушает условия предоставления услуг.
Второе обязывает компании тайно уведомлять Израиль, если иностранный суд постановит передать данные страны, хранящиеся на их облачных платформах, фактически обходя свои юридические обязательства.
https://www.972mag.com/project-nimbus-contract-google-amazon-israel/
+972 Magazine
‘No restrictions’ and a secret ‘wink’: Inside Israel’s deal with Google, Amazon
To secure Project Nimbus, the tech giants agreed to disregard their own terms of service and tip Israel off if a foreign court demands its data.
😁1
Palantir, крупнейшая оборонная технологическая компания Кремниевой долины, подала в суд на двух женщин-инженеров искусственного интеллекта за кражу коммерческих секретов
https://timesofindia.indiatimes.com/technology/tech-news/one-of-silicon-valleys-biggest-companies-sue-female-ai-engineers-for-helping-copycat-competitor/articleshow/124963816.cms
https://timesofindia.indiatimes.com/technology/tech-news/one-of-silicon-valleys-biggest-companies-sue-female-ai-engineers-for-helping-copycat-competitor/articleshow/124963816.cms
The Times of India
Silicon Valley’s biggest defence tech company Palantir sues two female AI engineers for stealing trade secrets - The Times of India
Tech News News: Palantir Technologies has sued two former senior AI engineers, Radha Jain and Joanna Cohen, alleging they stole confidential documents and source code
Meta обвиненили в загрузке тысяч фильмов для взрослых через торрент-сети для обучения их секретной модели ИИ.
Компании Strike 3 Holdings и Counterlife Media, стоящие за такими популярными брендами развлечений для взрослых, как Vixen, Tushy, Blacked и Deeper, подали иск к компании Цукера. Юристы компаний утверждают, что Meta незаконно скачала не менее 2369 их фильмов с 2018 года, в частности, для разработки функций искусственного интеллекта. Компании требуют возмещения ущерба в размере 359 миллионов долларов.
Ещё более интригующе то, что, по утверждениям продюсеров, Meta использовала «скрытую сеть» из 2500 скрытых IP-адресов для сокрытия своей активности по скачиванию. Согласно Strike 3, эта сложная схема предназначалась для тайного обучения неанонсированной взрослой версии ИИ-модели Meta, специально для Movie Gen, генеративной видеотехнологии компании.
Но это ладно - что за секретная ИИ и чему ее обучают? Это лично для Цукера чтоли?....
https://techstory.in/meta-claims-personal-use-for-2400-torrented-porn-films-amid-ai-training-concerns/
Компании Strike 3 Holdings и Counterlife Media, стоящие за такими популярными брендами развлечений для взрослых, как Vixen, Tushy, Blacked и Deeper, подали иск к компании Цукера. Юристы компаний утверждают, что Meta незаконно скачала не менее 2369 их фильмов с 2018 года, в частности, для разработки функций искусственного интеллекта. Компании требуют возмещения ущерба в размере 359 миллионов долларов.
Ещё более интригующе то, что, по утверждениям продюсеров, Meta использовала «скрытую сеть» из 2500 скрытых IP-адресов для сокрытия своей активности по скачиванию. Согласно Strike 3, эта сложная схема предназначалась для тайного обучения неанонсированной взрослой версии ИИ-модели Meta, специально для Movie Gen, генеративной видеотехнологии компании.
Но это ладно - что за секретная ИИ и чему ее обучают? Это лично для Цукера чтоли?....
https://techstory.in/meta-claims-personal-use-for-2400-torrented-porn-films-amid-ai-training-concerns/
TechStory
Meta Claims “Personal Use” for 2,400 Torrented Porn Films Amid AI Training Concerns
Meta claims "personal use" for 2,400 torrented porn films, raising serious questions about the use of copyrighted material for AI model
👍1
Ксания Моне — первая певица, созданная ИИ, которая попала в чарт Billboard.
С момента своего первого релиза летом 2025 года Моне попала в несколько чартов Billboard, в том числе в чарт Hot Gospel Songs (за песню «Let Go, Let God») и чарт Hot R&B Songs (за песню «How Was I Supposed to Know»), согласно публикации.
Теперь она не - её владелец подписал многомиллионный контракт с лейблом Hallwood Media после того, что Billboard назвал «войной предложений».
У Моне более 146 000 подписчиков только в Instagram. Это доказывает, что потребители всё больше проникаются этой идеей, даже несмотря на то, что индустрия возмущена.
В профиле Monet на Apple Music говорится, что Monet — «персонаж из Эл-Эй, представленный как современный R&B-вокалист в духе Кейшии Коул, К. Мишель и Муни Лонга, с их выразительностью, воспитанием в церкви и приземлённостью».
https://www.rnz.co.nz/life/music/xania-monet-is-the-first-ai-powered-artist-to-debut-on-a-billboard-airplay-chart-but-she-likely-won
С момента своего первого релиза летом 2025 года Моне попала в несколько чартов Billboard, в том числе в чарт Hot Gospel Songs (за песню «Let Go, Let God») и чарт Hot R&B Songs (за песню «How Was I Supposed to Know»), согласно публикации.
Теперь
У Моне более 146 000 подписчиков только в Instagram. Это доказывает, что потребители всё больше проникаются этой идеей, даже несмотря на то, что индустрия возмущена.
В профиле Monet на Apple Music говорится, что Monet — «персонаж из Эл-Эй, представленный как современный R&B-вокалист в духе Кейшии Коул, К. Мишель и Муни Лонга, с их выразительностью, воспитанием в церкви и приземлённостью».
https://www.rnz.co.nz/life/music/xania-monet-is-the-first-ai-powered-artist-to-debut-on-a-billboard-airplay-chart-but-she-likely-won
RNZ
Xania Monet is the first AI-powered artist to debut on a Billboard airplay chart
Artificial intelligence is everywhere and the music charts are no different. Here's what you need to know about Xania Monet.
👍1😁1
Почему ИИ врёт, придумывает не существующие данные и предпочитает агрессию. Это называют политкорректным словом "галюцинирование", чтобы скрыть суть проблемы.
Исследование, проведённое Ян Вангом и Стэном Каранасиосом, показало, что обучение на низкокачественных данных приводит к необратимому ухудшению когнитивных способностей больших языковых моделей, таких как Llama 3 и Qwen
31-го числа прошлого месяца международный научный журнал *Nature* сообщил, что чем больше чат-боты с искусственным интеллектом (ИИ) обучаются на «данных низкого качества», таких как посты в социальных сетях, тем сильнее снижаются их мыслительные способности и тем чаще они выдают неверную информацию.
Но главная проблема в том, что данных уже не хватает для обучения этих моделей и этих данных так много, что для их вычитки (проверки) нужно миллионы человеко-часов. Никакой бизнес из кремниевой долины тратить деньги на это нее станет, а значит низкосортные данные будут и дальше использовать. Слово "низкосортные" надо расшифровать: это и теории заговора, и нацистские тексты, и чужая деза, и бред сектантов... Вот на чем сейчас обучаются самые передовые модельки.
"Мусор на входе - мусор на выходе"
https://www.chosun.com/english/industry-en/2025/11/02/SPQIRGUULNHP7HSEAZ237O46KI/
Исследование, проведённое Ян Вангом и Стэном Каранасиосом, показало, что обучение на низкокачественных данных приводит к необратимому ухудшению когнитивных способностей больших языковых моделей, таких как Llama 3 и Qwen
31-го числа прошлого месяца международный научный журнал *Nature* сообщил, что чем больше чат-боты с искусственным интеллектом (ИИ) обучаются на «данных низкого качества», таких как посты в социальных сетях, тем сильнее снижаются их мыслительные способности и тем чаще они выдают неверную информацию.
Но главная проблема в том, что данных уже не хватает для обучения этих моделей и этих данных так много, что для их вычитки (проверки) нужно миллионы человеко-часов. Никакой бизнес из кремниевой долины тратить деньги на это нее станет, а значит низкосортные данные будут и дальше использовать. Слово "низкосортные" надо расшифровать: это и теории заговора, и нацистские тексты, и чужая деза, и бред сектантов... Вот на чем сейчас обучаются самые передовые модельки.
"Мусор на входе - мусор на выходе"
https://www.chosun.com/english/industry-en/2025/11/02/SPQIRGUULNHP7HSEAZ237O46KI/
The Chosun Daily
AI Models Suffer 'Brain Rot' When Trained on Social Media Data
AI Models Suffer Brain Rot When Trained on Social Media Data Study by Yang Wang and Stan Karanasios finds low-quality data training causes irreversible reasoning decline in LLMs like Llama 3 and Qwen
😁1
Чтобы конкурировать с Китаем в области военного ИИ, США должны установить стандарты
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
Breaking Defense
To compete with China on military AI, US should set the standards - Breaking Defense
The US needs to focus on developing global standards on military AI, which also means working with Beijing, argue three experts from CNAS.
Forwarded from Будни манипулятора
Еще один интересный циничный кейс работы с репутацией американских IT-гигантов.
Кремниевая долина формирует в обществе мнение, что люди сами виноваты в кривых медицинских рекомендациях от ИИ. Вроде как "вы не умеете правильно общаться с ИИ потому и мрёте от его рекомендаций, а мы всё сделали правильно"))))
Мало того, расширяют рынок - рекомендуют экспериментировать с рецептами (с самолечением) пока вы еще здоровы. Вроде как для того, чтобы не сильно себе навредить если что.
Хотите обратиться в ChatGPT за медицинской консультацией?
В целом, люди привыкли обращаться за медицинской консультацией в Google и понимают, что десятая страница результатов не так хороша, как первая, говорит доктор Райна Мерчант, исполнительный директор Центра трансформации и инноваций в здравоохранении в Медицинском центре Пенсильвании.
Но у большинства людей недостаточно опыта использования чат-ботов на основе искусственного интеллекта. По словам экспертов, этому нужно учиться, и для достижения наилучших результатов нужно практиковаться в формулировании вопросов и анализе ответов.
«Поэтому не ждите, пока у вас возникнут серьезные проблемы со здоровьем, чтобы начать экспериментировать с ИИ», — говорит доктор Роберт Перл, автор книги «ChatGPT, MD: как пациенты и врачи с поддержкой ИИ могут вернуть контроль над американской медициной».
https://www.nytimes.com/2025/10/30/well/chatgpt-health-questions.html
Кремниевая долина формирует в обществе мнение, что люди сами виноваты в кривых медицинских рекомендациях от ИИ. Вроде как "вы не умеете правильно общаться с ИИ потому и мрёте от его рекомендаций, а мы всё сделали правильно"))))
Мало того, расширяют рынок - рекомендуют экспериментировать с рецептами (с самолечением) пока вы еще здоровы. Вроде как для того, чтобы не сильно себе навредить если что.
Хотите обратиться в ChatGPT за медицинской консультацией?
В целом, люди привыкли обращаться за медицинской консультацией в Google и понимают, что десятая страница результатов не так хороша, как первая, говорит доктор Райна Мерчант, исполнительный директор Центра трансформации и инноваций в здравоохранении в Медицинском центре Пенсильвании.
Но у большинства людей недостаточно опыта использования чат-ботов на основе искусственного интеллекта. По словам экспертов, этому нужно учиться, и для достижения наилучших результатов нужно практиковаться в формулировании вопросов и анализе ответов.
«Поэтому не ждите, пока у вас возникнут серьезные проблемы со здоровьем, чтобы начать экспериментировать с ИИ», — говорит доктор Роберт Перл, автор книги «ChatGPT, MD: как пациенты и врачи с поддержкой ИИ могут вернуть контроль над американской медициной».
https://www.nytimes.com/2025/10/30/well/chatgpt-health-questions.html
NY Times
Asking ChatGPT for Medical Advice? Here’s How to Do It Safely.
Experts weigh in on the benefits and harms.
✍1🤬1
Браузер с ИИ или троянский конь: подробный анализ новой войны браузеров
То, что ИИ — панацея от всего цифрового, давно рекламируется. Однако война браузеров с ИИ выводит её на новый уровень.
Вместо того чтобы внедрять ИИ в традиционные браузеры, "новые браузеры с ИИ" претендуют на то, чтобы переосмыслить весь процесс просмотра веб-страниц на основе искусственного интеллекта. Идея заключается в том, что эти браузеры становятся настоящим цифровым помощником, который проводит исследования, бронирует авиабилеты, заполняет формы и составляет отчеты, не нарушая при этом ваш рабочий процесс.
Проблема связана с уязвимостью, называемой « атакой с подсказкой» (prompt injection attack ), — техникой, при которой вредоносные инструкции, скрытые на веб-сайтах, могут обманным путём заставить агентов искусственного интеллекта выполнять команды, которые им не следует выполнять.
Принцип работы прост: злоумышленник может скрыть инструкции белым текстом на белом фоне, встроить их в изображения со скрытыми данными или подсунуть в комментарии в социальных сетях. Когда агент браузера с искусственным интеллектом посещает эту страницу, он считывает эти невидимые инструкции вместе с легитимным контентом, часто путая их. В зависимости от того, что это за инструкция, браузер может украсть ваши пароли, опустошить ваш банковский счёт, извлечь конфиденциальные электронные письма или опубликовать компрометирующий контент в ваших аккаунтах социальных сетей прямо у вас под носом.
В ходе эксперемента, проведённого исследователями в реальных условиях, им удалось обманом заставить Perplexity Comet загрузить вредоносное ПО на компьютер пользователя, внедрив вредоносные инструкции в поддельное электронное письмо. Агент, не колеблясь, не указывал на опасность для пользователя и выполнял его приказы. В другом эксперименте они убедили браузер с искусственным интеллектом совершить покупки на мошенническом сайте, используя сохранённую платёжную информацию пользователя.
https://www.sify.com/ai-analytics/ai-browser-or-trojan-horse-a-deep-dive-into-the-new-browser-wars/
То, что ИИ — панацея от всего цифрового, давно рекламируется. Однако война браузеров с ИИ выводит её на новый уровень.
Вместо того чтобы внедрять ИИ в традиционные браузеры, "новые браузеры с ИИ" претендуют на то, чтобы переосмыслить весь процесс просмотра веб-страниц на основе искусственного интеллекта. Идея заключается в том, что эти браузеры становятся настоящим цифровым помощником, который проводит исследования, бронирует авиабилеты, заполняет формы и составляет отчеты, не нарушая при этом ваш рабочий процесс.
Проблема связана с уязвимостью, называемой « атакой с подсказкой» (prompt injection attack ), — техникой, при которой вредоносные инструкции, скрытые на веб-сайтах, могут обманным путём заставить агентов искусственного интеллекта выполнять команды, которые им не следует выполнять.
Принцип работы прост: злоумышленник может скрыть инструкции белым текстом на белом фоне, встроить их в изображения со скрытыми данными или подсунуть в комментарии в социальных сетях. Когда агент браузера с искусственным интеллектом посещает эту страницу, он считывает эти невидимые инструкции вместе с легитимным контентом, часто путая их. В зависимости от того, что это за инструкция, браузер может украсть ваши пароли, опустошить ваш банковский счёт, извлечь конфиденциальные электронные письма или опубликовать компрометирующий контент в ваших аккаунтах социальных сетей прямо у вас под носом.
В ходе эксперемента, проведённого исследователями в реальных условиях, им удалось обманом заставить Perplexity Comet загрузить вредоносное ПО на компьютер пользователя, внедрив вредоносные инструкции в поддельное электронное письмо. Агент, не колеблясь, не указывал на опасность для пользователя и выполнял его приказы. В другом эксперименте они убедили браузер с искусственным интеллектом совершить покупки на мошенническом сайте, используя сохранённую платёжную информацию пользователя.
https://www.sify.com/ai-analytics/ai-browser-or-trojan-horse-a-deep-dive-into-the-new-browser-wars/
Sify
AI Browser or Trojan Horse: A Deep-Dive Into the New Browser Wars - Sify
AI browsers from AI companies promise to revolutionise your work, but it could also endanger you, Satyen K. Bordoloi warns. That AI is the panacea for everything digital has long been touted. Yet, the AI browser wars are taking it to a different level. First…
❤2😁1
Contract Conquest Consulting запустил платформу искусственного интеллекта, чтобы помочь малому бизнесу выигрывать государственные контракты
https://www.wowktv.com/business/press-releases/ein-presswire/864265647/contract-conquest-consulting-launches-ai-platform-to-help-small-businesses-win-government-contracts/
https://www.wowktv.com/business/press-releases/ein-presswire/864265647/contract-conquest-consulting-launches-ai-platform-to-help-small-businesses-win-government-contracts/
WOWK 13 News
Contract Conquest Consulting Launches AI Platform to Help Small Businesses Win Government Contracts
Every capable business should have an equal shot at government contracts.”— Jason Brown, Chief Executive Officer of Contract Conquest ConsultingBOSSIER CITY, LA, UNITED STATES, November 4, 2025 /EINPresswire.com/ -- Contract Conquest Consulting, a tech-driven…
И вновь о достоверности и непредвзятости современных ИИ-сервисов, обученных на непроверенных датасетах((
Газета «Нью-Йорк Таймс» протестировала несколько топовых чат-ботов на ИИ и обнаружила, что они давали совершенно разные ответы, особенно по политически ангажированным вопросам. Хотя тон и акценты часто различались, некоторые из них содержали спорные утверждения или откровенно искажали факты. По мере расширения использования чат-ботов возникает угроза превращения истины в очередной предмет онлайн-дискуссии.
Например, после убийства Чарли Кирка разгорелась дискуссия о том, какая сторона политического спектра несет наибольшую ответственность за насилие.
По данным многочисленных исследований , ChatGPT и Gemini, отвечая на этот вопрос, оказались близки к истине : больше насилия связывают с правыми, даже если в последнее время оно возросло и слева.
Другие чат-боты предлагали ответы, в которых, по-видимому, присутствовала политическая предвзятость.
Arya, созданная ультраправой социальной сетью Gab, ответила, что «обе политические фракции участвовали в политическом насилии». В статье говорится, что леворадикальное насилие включало в себя беспорядки, уничтожение имущества и нападения, «оправданные как активизм». Праворадикальное насилие было «более изолированным» и затрагивало «отдельных лиц или небольшие группы», добавили в статье.
В другом ответе на аналогичный вопрос также было написано: «Когда левые не добиваются своего политическим путем, они выходят на улицы с кирпичами и коктейлями Молотова».
https://www.nytimes.com/2025/11/04/business/right-wing-chatbots-gab-arya-chatgpt-gemini.html
Газета «Нью-Йорк Таймс» протестировала несколько топовых чат-ботов на ИИ и обнаружила, что они давали совершенно разные ответы, особенно по политически ангажированным вопросам. Хотя тон и акценты часто различались, некоторые из них содержали спорные утверждения или откровенно искажали факты. По мере расширения использования чат-ботов возникает угроза превращения истины в очередной предмет онлайн-дискуссии.
Например, после убийства Чарли Кирка разгорелась дискуссия о том, какая сторона политического спектра несет наибольшую ответственность за насилие.
По данным многочисленных исследований , ChatGPT и Gemini, отвечая на этот вопрос, оказались близки к истине : больше насилия связывают с правыми, даже если в последнее время оно возросло и слева.
Другие чат-боты предлагали ответы, в которых, по-видимому, присутствовала политическая предвзятость.
Arya, созданная ультраправой социальной сетью Gab, ответила, что «обе политические фракции участвовали в политическом насилии». В статье говорится, что леворадикальное насилие включало в себя беспорядки, уничтожение имущества и нападения, «оправданные как активизм». Праворадикальное насилие было «более изолированным» и затрагивало «отдельных лиц или небольшие группы», добавили в статье.
В другом ответе на аналогичный вопрос также было написано: «Когда левые не добиваются своего политическим путем, они выходят на улицы с кирпичами и коктейлями Молотова».
https://www.nytimes.com/2025/11/04/business/right-wing-chatbots-gab-arya-chatgpt-gemini.html
API OpenAI используется для шпионажа
Группа обнаружения и реагирования Microsoft предупредила, что злоумышленники тайно используют API-интерфейс помощников OpenAI для проведения дальних шпионских кампаний, скрывая вредоносный трафик под видом обычной активности ИИ.
По данным LianTao, хакеры внедряют свои команды и обмен данными в стандартные API-взаимодействия, которые всё чаще используются корпоративными приложениями. Часть вредоносного ПО часто опрашивает конечную точку API Assistants для получения зашифрованных инструкций, выполняет эти команды на скомпрометированных системах и отправляет ответы через тот же API-канал.
https://www.findarticles.com/microsoft-warns-openai-api-exploited-for-espionage/?amp=1
Группа обнаружения и реагирования Microsoft предупредила, что злоумышленники тайно используют API-интерфейс помощников OpenAI для проведения дальних шпионских кампаний, скрывая вредоносный трафик под видом обычной активности ИИ.
По данным LianTao, хакеры внедряют свои команды и обмен данными в стандартные API-взаимодействия, которые всё чаще используются корпоративными приложениями. Часть вредоносного ПО часто опрашивает конечную точку API Assistants для получения зашифрованных инструкций, выполняет эти команды на скомпрометированных системах и отправляет ответы через тот же API-канал.
https://www.findarticles.com/microsoft-warns-openai-api-exploited-for-espionage/?amp=1
Китайские военные создали новые роботизированные боевые системы для десантных операций. Недавно они использовали четвероногих «роботов-волков» в учениях, имитирующих нападение на Тайвань.
Кадры видеонаблюдения показали, как так называемые «машинные волки», разработанные China South Industries Group Corporation (CSGC), мчатся по плацдарму впереди человеческих войск.
Было замечено, как 70-килограммовые роботы, способные переносить до 20 килограммов грузов, преодолевали препятствия и расчищали путь для последующих сил.
https://interestingengineering.com/ai-robotics/chinas-new-wolf-robots-breach
Кадры видеонаблюдения показали, как так называемые «машинные волки», разработанные China South Industries Group Corporation (CSGC), мчатся по плацдарму впереди человеческих войск.
Было замечено, как 70-килограммовые роботы, способные переносить до 20 килограммов грузов, преодолевали препятствия и расчищали путь для последующих сил.
https://interestingengineering.com/ai-robotics/chinas-new-wolf-robots-breach
Interesting Engineering
China tests ‘wolf robot’ to destroy Taiwan's defenses in 10 seconds
China's military has deployed new combat "wolf robots" in a training exercise that mimicked an attack on Taiwan.
Китайская компания Moonshot AI начала развёртывать рассуждающий вариант своей модели искусственного интеллекта — она носит название Kimi K2-Thinking.
Moonshot AI опубликовала открытые веса Kimi K2-Thinking и привела результаты бенчмарков — модель проявила себя на уровне таких отраслевых лидеров как OpenAI GPT-5, Anthropic Claude Sonnet 4.5 и xAI Grok 4.
https://www.kimi.com/
Moonshot AI опубликовала открытые веса Kimi K2-Thinking и привела результаты бенчмарков — модель проявила себя на уровне таких отраслевых лидеров как OpenAI GPT-5, Anthropic Claude Sonnet 4.5 и xAI Grok 4.
https://www.kimi.com/
Kimi
Kimi AI - Kimi K2 Thinking is here
Try Kimi, your all-in-one AI assistant - now with K2 Thinking, the best open-source reasoning model. Solves math & logic step-by-step, searches accurately, writes & codes with structure, with creativity and precision.
Цукербергу надо какие-то несчастные 1,5 триллиона долларов для счастья. Вот сложная схема, которую он использует, чтобы добиться этого
В сельском приходе Луизианы, где проживает около 20 000 человек Марк Цукерберг и компания Meta Platforms Inc. решили построить Hyperion – суперкомпьютер с искусственным интеллектом, расположенный в кампусе из девяти зданий с центрами обработки данных, оснащенными новейшими полупроводниковыми чипами и оборудованием Nvidia.
Чтобы оплатить строительство центра обработки данных размером с Манхэттен, Цукерберг обратился не к крупным банкам, таким как JPMorgan Chase или Goldman Sachs, которые помогали финансировать предыдущие промышленные экспансии в Америке, а к компании по управлению альтернативными активами Blue Owl Capital. Кредитные инструменты Blue Owl, финансируемые институциональными инвесторами, такими как пенсионные фонды и страховые компании, а не депозитами клиентов, в последние годы процветали, поскольку регулирующие органы перенаправляли более рискованные кредиты из банков в организации, не обеспеченные гарантиями правительства США.
https://www.msn.com/en-us/money/companies/big-tech-needs-a-staggering-1-5-trillion-to-fund-the-ai-boom-this-is-the-complex-playbook-it-s-using-to-get-it/ar-AA1Q3cUJ?ocid=finance-verthp-feeds
В сельском приходе Луизианы, где проживает около 20 000 человек Марк Цукерберг и компания Meta Platforms Inc. решили построить Hyperion – суперкомпьютер с искусственным интеллектом, расположенный в кампусе из девяти зданий с центрами обработки данных, оснащенными новейшими полупроводниковыми чипами и оборудованием Nvidia.
Чтобы оплатить строительство центра обработки данных размером с Манхэттен, Цукерберг обратился не к крупным банкам, таким как JPMorgan Chase или Goldman Sachs, которые помогали финансировать предыдущие промышленные экспансии в Америке, а к компании по управлению альтернативными активами Blue Owl Capital. Кредитные инструменты Blue Owl, финансируемые институциональными инвесторами, такими как пенсионные фонды и страховые компании, а не депозитами клиентов, в последние годы процветали, поскольку регулирующие органы перенаправляли более рискованные кредиты из банков в организации, не обеспеченные гарантиями правительства США.
https://www.msn.com/en-us/money/companies/big-tech-needs-a-staggering-1-5-trillion-to-fund-the-ai-boom-this-is-the-complex-playbook-it-s-using-to-get-it/ar-AA1Q3cUJ?ocid=finance-verthp-feeds
MSN
Big Tech needs a staggering $1.5 trillion to fund the AI boom. This is the complex playbook it’s using to get it.
Inside the financial engineering of the AI build-out: Nvidia, Google and the rest of Big Tech are turning to Wall Street, vendor financing and private credit.
Субтитры разума: развивающийся текст описания ментального содержания, полученного в результате деятельности человеческого мозга
Нейробиологи представили технологию, которая приближает нас к чтению мыслей — в буквальном смысле.
Исследование под названием «Mind Captioning: Evolving Denoscriptive Text of mind content from Human Brain Activity» («Ввод текста в сознание: развитие описательного текста ментального содержания на основе активности человеческого мозга») представляет модель искусственного интеллекта , способную генерировать описательный текст того, что человек видит или вспоминает, путем декодирования паттернов мозговой активности, полученных с помощью фМРТ.
Система, разработанная доктором Томоясу Хорикавой и его командой в NTT Communication Science Laboratories в Японии, работает в два этапа. Сначала ИИ декодирует сигналы мозга, связанные со зрительным восприятием, используя линейные модели. Затем другая модель ИИ, обученная с помощью моделирования языка масок, преобразует эти декодированные сигналы в связные текстовые описания.
Проще говоря, ИИ считывает реакции вашего мозга на то, что вы видите или воображаете, и преобразует их в предложения, например: «Человек прыгает через глубокий водопад на горном хребте».
Точность поразительна. Когда участники смотрели видео, ИИ правильно описывал сцены почти в 50% случаев из 100 — это намного превышает случайность. Что ещё более примечательно, он мог описывать воспоминания с точностью до 40%, демонстрируя свою способность использовать ментальные образы и память, а не только восприятие.
https://www.science.org/doi/10.1126/sciadv.adw1464
Нейробиологи представили технологию, которая приближает нас к чтению мыслей — в буквальном смысле.
Исследование под названием «Mind Captioning: Evolving Denoscriptive Text of mind content from Human Brain Activity» («Ввод текста в сознание: развитие описательного текста ментального содержания на основе активности человеческого мозга») представляет модель искусственного интеллекта , способную генерировать описательный текст того, что человек видит или вспоминает, путем декодирования паттернов мозговой активности, полученных с помощью фМРТ.
Система, разработанная доктором Томоясу Хорикавой и его командой в NTT Communication Science Laboratories в Японии, работает в два этапа. Сначала ИИ декодирует сигналы мозга, связанные со зрительным восприятием, используя линейные модели. Затем другая модель ИИ, обученная с помощью моделирования языка масок, преобразует эти декодированные сигналы в связные текстовые описания.
Проще говоря, ИИ считывает реакции вашего мозга на то, что вы видите или воображаете, и преобразует их в предложения, например: «Человек прыгает через глубокий водопад на горном хребте».
Точность поразительна. Когда участники смотрели видео, ИИ правильно описывал сцены почти в 50% случаев из 100 — это намного превышает случайность. Что ещё более примечательно, он мог описывать воспоминания с точностью до 40%, демонстрируя свою способность использовать ментальные образы и память, а не только восприятие.
https://www.science.org/doi/10.1126/sciadv.adw1464