Чтобы конкурировать с Китаем в области военного ИИ, США должны установить стандарты
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
Breaking Defense
To compete with China on military AI, US should set the standards - Breaking Defense
The US needs to focus on developing global standards on military AI, which also means working with Beijing, argue three experts from CNAS.
Forwarded from Будни манипулятора
Еще один интересный циничный кейс работы с репутацией американских IT-гигантов.
Кремниевая долина формирует в обществе мнение, что люди сами виноваты в кривых медицинских рекомендациях от ИИ. Вроде как "вы не умеете правильно общаться с ИИ потому и мрёте от его рекомендаций, а мы всё сделали правильно"))))
Мало того, расширяют рынок - рекомендуют экспериментировать с рецептами (с самолечением) пока вы еще здоровы. Вроде как для того, чтобы не сильно себе навредить если что.
Хотите обратиться в ChatGPT за медицинской консультацией?
В целом, люди привыкли обращаться за медицинской консультацией в Google и понимают, что десятая страница результатов не так хороша, как первая, говорит доктор Райна Мерчант, исполнительный директор Центра трансформации и инноваций в здравоохранении в Медицинском центре Пенсильвании.
Но у большинства людей недостаточно опыта использования чат-ботов на основе искусственного интеллекта. По словам экспертов, этому нужно учиться, и для достижения наилучших результатов нужно практиковаться в формулировании вопросов и анализе ответов.
«Поэтому не ждите, пока у вас возникнут серьезные проблемы со здоровьем, чтобы начать экспериментировать с ИИ», — говорит доктор Роберт Перл, автор книги «ChatGPT, MD: как пациенты и врачи с поддержкой ИИ могут вернуть контроль над американской медициной».
https://www.nytimes.com/2025/10/30/well/chatgpt-health-questions.html
Кремниевая долина формирует в обществе мнение, что люди сами виноваты в кривых медицинских рекомендациях от ИИ. Вроде как "вы не умеете правильно общаться с ИИ потому и мрёте от его рекомендаций, а мы всё сделали правильно"))))
Мало того, расширяют рынок - рекомендуют экспериментировать с рецептами (с самолечением) пока вы еще здоровы. Вроде как для того, чтобы не сильно себе навредить если что.
Хотите обратиться в ChatGPT за медицинской консультацией?
В целом, люди привыкли обращаться за медицинской консультацией в Google и понимают, что десятая страница результатов не так хороша, как первая, говорит доктор Райна Мерчант, исполнительный директор Центра трансформации и инноваций в здравоохранении в Медицинском центре Пенсильвании.
Но у большинства людей недостаточно опыта использования чат-ботов на основе искусственного интеллекта. По словам экспертов, этому нужно учиться, и для достижения наилучших результатов нужно практиковаться в формулировании вопросов и анализе ответов.
«Поэтому не ждите, пока у вас возникнут серьезные проблемы со здоровьем, чтобы начать экспериментировать с ИИ», — говорит доктор Роберт Перл, автор книги «ChatGPT, MD: как пациенты и врачи с поддержкой ИИ могут вернуть контроль над американской медициной».
https://www.nytimes.com/2025/10/30/well/chatgpt-health-questions.html
NY Times
Asking ChatGPT for Medical Advice? Here’s How to Do It Safely.
Experts weigh in on the benefits and harms.
✍1🤬1
Браузер с ИИ или троянский конь: подробный анализ новой войны браузеров
То, что ИИ — панацея от всего цифрового, давно рекламируется. Однако война браузеров с ИИ выводит её на новый уровень.
Вместо того чтобы внедрять ИИ в традиционные браузеры, "новые браузеры с ИИ" претендуют на то, чтобы переосмыслить весь процесс просмотра веб-страниц на основе искусственного интеллекта. Идея заключается в том, что эти браузеры становятся настоящим цифровым помощником, который проводит исследования, бронирует авиабилеты, заполняет формы и составляет отчеты, не нарушая при этом ваш рабочий процесс.
Проблема связана с уязвимостью, называемой « атакой с подсказкой» (prompt injection attack ), — техникой, при которой вредоносные инструкции, скрытые на веб-сайтах, могут обманным путём заставить агентов искусственного интеллекта выполнять команды, которые им не следует выполнять.
Принцип работы прост: злоумышленник может скрыть инструкции белым текстом на белом фоне, встроить их в изображения со скрытыми данными или подсунуть в комментарии в социальных сетях. Когда агент браузера с искусственным интеллектом посещает эту страницу, он считывает эти невидимые инструкции вместе с легитимным контентом, часто путая их. В зависимости от того, что это за инструкция, браузер может украсть ваши пароли, опустошить ваш банковский счёт, извлечь конфиденциальные электронные письма или опубликовать компрометирующий контент в ваших аккаунтах социальных сетей прямо у вас под носом.
В ходе эксперемента, проведённого исследователями в реальных условиях, им удалось обманом заставить Perplexity Comet загрузить вредоносное ПО на компьютер пользователя, внедрив вредоносные инструкции в поддельное электронное письмо. Агент, не колеблясь, не указывал на опасность для пользователя и выполнял его приказы. В другом эксперименте они убедили браузер с искусственным интеллектом совершить покупки на мошенническом сайте, используя сохранённую платёжную информацию пользователя.
https://www.sify.com/ai-analytics/ai-browser-or-trojan-horse-a-deep-dive-into-the-new-browser-wars/
То, что ИИ — панацея от всего цифрового, давно рекламируется. Однако война браузеров с ИИ выводит её на новый уровень.
Вместо того чтобы внедрять ИИ в традиционные браузеры, "новые браузеры с ИИ" претендуют на то, чтобы переосмыслить весь процесс просмотра веб-страниц на основе искусственного интеллекта. Идея заключается в том, что эти браузеры становятся настоящим цифровым помощником, который проводит исследования, бронирует авиабилеты, заполняет формы и составляет отчеты, не нарушая при этом ваш рабочий процесс.
Проблема связана с уязвимостью, называемой « атакой с подсказкой» (prompt injection attack ), — техникой, при которой вредоносные инструкции, скрытые на веб-сайтах, могут обманным путём заставить агентов искусственного интеллекта выполнять команды, которые им не следует выполнять.
Принцип работы прост: злоумышленник может скрыть инструкции белым текстом на белом фоне, встроить их в изображения со скрытыми данными или подсунуть в комментарии в социальных сетях. Когда агент браузера с искусственным интеллектом посещает эту страницу, он считывает эти невидимые инструкции вместе с легитимным контентом, часто путая их. В зависимости от того, что это за инструкция, браузер может украсть ваши пароли, опустошить ваш банковский счёт, извлечь конфиденциальные электронные письма или опубликовать компрометирующий контент в ваших аккаунтах социальных сетей прямо у вас под носом.
В ходе эксперемента, проведённого исследователями в реальных условиях, им удалось обманом заставить Perplexity Comet загрузить вредоносное ПО на компьютер пользователя, внедрив вредоносные инструкции в поддельное электронное письмо. Агент, не колеблясь, не указывал на опасность для пользователя и выполнял его приказы. В другом эксперименте они убедили браузер с искусственным интеллектом совершить покупки на мошенническом сайте, используя сохранённую платёжную информацию пользователя.
https://www.sify.com/ai-analytics/ai-browser-or-trojan-horse-a-deep-dive-into-the-new-browser-wars/
Sify
AI Browser or Trojan Horse: A Deep-Dive Into the New Browser Wars - Sify
AI browsers from AI companies promise to revolutionise your work, but it could also endanger you, Satyen K. Bordoloi warns. That AI is the panacea for everything digital has long been touted. Yet, the AI browser wars are taking it to a different level. First…
❤2😁1
Contract Conquest Consulting запустил платформу искусственного интеллекта, чтобы помочь малому бизнесу выигрывать государственные контракты
https://www.wowktv.com/business/press-releases/ein-presswire/864265647/contract-conquest-consulting-launches-ai-platform-to-help-small-businesses-win-government-contracts/
https://www.wowktv.com/business/press-releases/ein-presswire/864265647/contract-conquest-consulting-launches-ai-platform-to-help-small-businesses-win-government-contracts/
WOWK 13 News
Contract Conquest Consulting Launches AI Platform to Help Small Businesses Win Government Contracts
Every capable business should have an equal shot at government contracts.”— Jason Brown, Chief Executive Officer of Contract Conquest ConsultingBOSSIER CITY, LA, UNITED STATES, November 4, 2025 /EINPresswire.com/ -- Contract Conquest Consulting, a tech-driven…
И вновь о достоверности и непредвзятости современных ИИ-сервисов, обученных на непроверенных датасетах((
Газета «Нью-Йорк Таймс» протестировала несколько топовых чат-ботов на ИИ и обнаружила, что они давали совершенно разные ответы, особенно по политически ангажированным вопросам. Хотя тон и акценты часто различались, некоторые из них содержали спорные утверждения или откровенно искажали факты. По мере расширения использования чат-ботов возникает угроза превращения истины в очередной предмет онлайн-дискуссии.
Например, после убийства Чарли Кирка разгорелась дискуссия о том, какая сторона политического спектра несет наибольшую ответственность за насилие.
По данным многочисленных исследований , ChatGPT и Gemini, отвечая на этот вопрос, оказались близки к истине : больше насилия связывают с правыми, даже если в последнее время оно возросло и слева.
Другие чат-боты предлагали ответы, в которых, по-видимому, присутствовала политическая предвзятость.
Arya, созданная ультраправой социальной сетью Gab, ответила, что «обе политические фракции участвовали в политическом насилии». В статье говорится, что леворадикальное насилие включало в себя беспорядки, уничтожение имущества и нападения, «оправданные как активизм». Праворадикальное насилие было «более изолированным» и затрагивало «отдельных лиц или небольшие группы», добавили в статье.
В другом ответе на аналогичный вопрос также было написано: «Когда левые не добиваются своего политическим путем, они выходят на улицы с кирпичами и коктейлями Молотова».
https://www.nytimes.com/2025/11/04/business/right-wing-chatbots-gab-arya-chatgpt-gemini.html
Газета «Нью-Йорк Таймс» протестировала несколько топовых чат-ботов на ИИ и обнаружила, что они давали совершенно разные ответы, особенно по политически ангажированным вопросам. Хотя тон и акценты часто различались, некоторые из них содержали спорные утверждения или откровенно искажали факты. По мере расширения использования чат-ботов возникает угроза превращения истины в очередной предмет онлайн-дискуссии.
Например, после убийства Чарли Кирка разгорелась дискуссия о том, какая сторона политического спектра несет наибольшую ответственность за насилие.
По данным многочисленных исследований , ChatGPT и Gemini, отвечая на этот вопрос, оказались близки к истине : больше насилия связывают с правыми, даже если в последнее время оно возросло и слева.
Другие чат-боты предлагали ответы, в которых, по-видимому, присутствовала политическая предвзятость.
Arya, созданная ультраправой социальной сетью Gab, ответила, что «обе политические фракции участвовали в политическом насилии». В статье говорится, что леворадикальное насилие включало в себя беспорядки, уничтожение имущества и нападения, «оправданные как активизм». Праворадикальное насилие было «более изолированным» и затрагивало «отдельных лиц или небольшие группы», добавили в статье.
В другом ответе на аналогичный вопрос также было написано: «Когда левые не добиваются своего политическим путем, они выходят на улицы с кирпичами и коктейлями Молотова».
https://www.nytimes.com/2025/11/04/business/right-wing-chatbots-gab-arya-chatgpt-gemini.html
API OpenAI используется для шпионажа
Группа обнаружения и реагирования Microsoft предупредила, что злоумышленники тайно используют API-интерфейс помощников OpenAI для проведения дальних шпионских кампаний, скрывая вредоносный трафик под видом обычной активности ИИ.
По данным LianTao, хакеры внедряют свои команды и обмен данными в стандартные API-взаимодействия, которые всё чаще используются корпоративными приложениями. Часть вредоносного ПО часто опрашивает конечную точку API Assistants для получения зашифрованных инструкций, выполняет эти команды на скомпрометированных системах и отправляет ответы через тот же API-канал.
https://www.findarticles.com/microsoft-warns-openai-api-exploited-for-espionage/?amp=1
Группа обнаружения и реагирования Microsoft предупредила, что злоумышленники тайно используют API-интерфейс помощников OpenAI для проведения дальних шпионских кампаний, скрывая вредоносный трафик под видом обычной активности ИИ.
По данным LianTao, хакеры внедряют свои команды и обмен данными в стандартные API-взаимодействия, которые всё чаще используются корпоративными приложениями. Часть вредоносного ПО часто опрашивает конечную точку API Assistants для получения зашифрованных инструкций, выполняет эти команды на скомпрометированных системах и отправляет ответы через тот же API-канал.
https://www.findarticles.com/microsoft-warns-openai-api-exploited-for-espionage/?amp=1
Китайские военные создали новые роботизированные боевые системы для десантных операций. Недавно они использовали четвероногих «роботов-волков» в учениях, имитирующих нападение на Тайвань.
Кадры видеонаблюдения показали, как так называемые «машинные волки», разработанные China South Industries Group Corporation (CSGC), мчатся по плацдарму впереди человеческих войск.
Было замечено, как 70-килограммовые роботы, способные переносить до 20 килограммов грузов, преодолевали препятствия и расчищали путь для последующих сил.
https://interestingengineering.com/ai-robotics/chinas-new-wolf-robots-breach
Кадры видеонаблюдения показали, как так называемые «машинные волки», разработанные China South Industries Group Corporation (CSGC), мчатся по плацдарму впереди человеческих войск.
Было замечено, как 70-килограммовые роботы, способные переносить до 20 килограммов грузов, преодолевали препятствия и расчищали путь для последующих сил.
https://interestingengineering.com/ai-robotics/chinas-new-wolf-robots-breach
Interesting Engineering
China tests ‘wolf robot’ to destroy Taiwan's defenses in 10 seconds
China's military has deployed new combat "wolf robots" in a training exercise that mimicked an attack on Taiwan.
Китайская компания Moonshot AI начала развёртывать рассуждающий вариант своей модели искусственного интеллекта — она носит название Kimi K2-Thinking.
Moonshot AI опубликовала открытые веса Kimi K2-Thinking и привела результаты бенчмарков — модель проявила себя на уровне таких отраслевых лидеров как OpenAI GPT-5, Anthropic Claude Sonnet 4.5 и xAI Grok 4.
https://www.kimi.com/
Moonshot AI опубликовала открытые веса Kimi K2-Thinking и привела результаты бенчмарков — модель проявила себя на уровне таких отраслевых лидеров как OpenAI GPT-5, Anthropic Claude Sonnet 4.5 и xAI Grok 4.
https://www.kimi.com/
Kimi
Kimi AI - Kimi K2 Thinking is here
Try Kimi, your all-in-one AI assistant - now with K2 Thinking, the best open-source reasoning model. Solves math & logic step-by-step, searches accurately, writes & codes with structure, with creativity and precision.
Цукербергу надо какие-то несчастные 1,5 триллиона долларов для счастья. Вот сложная схема, которую он использует, чтобы добиться этого
В сельском приходе Луизианы, где проживает около 20 000 человек Марк Цукерберг и компания Meta Platforms Inc. решили построить Hyperion – суперкомпьютер с искусственным интеллектом, расположенный в кампусе из девяти зданий с центрами обработки данных, оснащенными новейшими полупроводниковыми чипами и оборудованием Nvidia.
Чтобы оплатить строительство центра обработки данных размером с Манхэттен, Цукерберг обратился не к крупным банкам, таким как JPMorgan Chase или Goldman Sachs, которые помогали финансировать предыдущие промышленные экспансии в Америке, а к компании по управлению альтернативными активами Blue Owl Capital. Кредитные инструменты Blue Owl, финансируемые институциональными инвесторами, такими как пенсионные фонды и страховые компании, а не депозитами клиентов, в последние годы процветали, поскольку регулирующие органы перенаправляли более рискованные кредиты из банков в организации, не обеспеченные гарантиями правительства США.
https://www.msn.com/en-us/money/companies/big-tech-needs-a-staggering-1-5-trillion-to-fund-the-ai-boom-this-is-the-complex-playbook-it-s-using-to-get-it/ar-AA1Q3cUJ?ocid=finance-verthp-feeds
В сельском приходе Луизианы, где проживает около 20 000 человек Марк Цукерберг и компания Meta Platforms Inc. решили построить Hyperion – суперкомпьютер с искусственным интеллектом, расположенный в кампусе из девяти зданий с центрами обработки данных, оснащенными новейшими полупроводниковыми чипами и оборудованием Nvidia.
Чтобы оплатить строительство центра обработки данных размером с Манхэттен, Цукерберг обратился не к крупным банкам, таким как JPMorgan Chase или Goldman Sachs, которые помогали финансировать предыдущие промышленные экспансии в Америке, а к компании по управлению альтернативными активами Blue Owl Capital. Кредитные инструменты Blue Owl, финансируемые институциональными инвесторами, такими как пенсионные фонды и страховые компании, а не депозитами клиентов, в последние годы процветали, поскольку регулирующие органы перенаправляли более рискованные кредиты из банков в организации, не обеспеченные гарантиями правительства США.
https://www.msn.com/en-us/money/companies/big-tech-needs-a-staggering-1-5-trillion-to-fund-the-ai-boom-this-is-the-complex-playbook-it-s-using-to-get-it/ar-AA1Q3cUJ?ocid=finance-verthp-feeds
MSN
Big Tech needs a staggering $1.5 trillion to fund the AI boom. This is the complex playbook it’s using to get it.
Inside the financial engineering of the AI build-out: Nvidia, Google and the rest of Big Tech are turning to Wall Street, vendor financing and private credit.
Субтитры разума: развивающийся текст описания ментального содержания, полученного в результате деятельности человеческого мозга
Нейробиологи представили технологию, которая приближает нас к чтению мыслей — в буквальном смысле.
Исследование под названием «Mind Captioning: Evolving Denoscriptive Text of mind content from Human Brain Activity» («Ввод текста в сознание: развитие описательного текста ментального содержания на основе активности человеческого мозга») представляет модель искусственного интеллекта , способную генерировать описательный текст того, что человек видит или вспоминает, путем декодирования паттернов мозговой активности, полученных с помощью фМРТ.
Система, разработанная доктором Томоясу Хорикавой и его командой в NTT Communication Science Laboratories в Японии, работает в два этапа. Сначала ИИ декодирует сигналы мозга, связанные со зрительным восприятием, используя линейные модели. Затем другая модель ИИ, обученная с помощью моделирования языка масок, преобразует эти декодированные сигналы в связные текстовые описания.
Проще говоря, ИИ считывает реакции вашего мозга на то, что вы видите или воображаете, и преобразует их в предложения, например: «Человек прыгает через глубокий водопад на горном хребте».
Точность поразительна. Когда участники смотрели видео, ИИ правильно описывал сцены почти в 50% случаев из 100 — это намного превышает случайность. Что ещё более примечательно, он мог описывать воспоминания с точностью до 40%, демонстрируя свою способность использовать ментальные образы и память, а не только восприятие.
https://www.science.org/doi/10.1126/sciadv.adw1464
Нейробиологи представили технологию, которая приближает нас к чтению мыслей — в буквальном смысле.
Исследование под названием «Mind Captioning: Evolving Denoscriptive Text of mind content from Human Brain Activity» («Ввод текста в сознание: развитие описательного текста ментального содержания на основе активности человеческого мозга») представляет модель искусственного интеллекта , способную генерировать описательный текст того, что человек видит или вспоминает, путем декодирования паттернов мозговой активности, полученных с помощью фМРТ.
Система, разработанная доктором Томоясу Хорикавой и его командой в NTT Communication Science Laboratories в Японии, работает в два этапа. Сначала ИИ декодирует сигналы мозга, связанные со зрительным восприятием, используя линейные модели. Затем другая модель ИИ, обученная с помощью моделирования языка масок, преобразует эти декодированные сигналы в связные текстовые описания.
Проще говоря, ИИ считывает реакции вашего мозга на то, что вы видите или воображаете, и преобразует их в предложения, например: «Человек прыгает через глубокий водопад на горном хребте».
Точность поразительна. Когда участники смотрели видео, ИИ правильно описывал сцены почти в 50% случаев из 100 — это намного превышает случайность. Что ещё более примечательно, он мог описывать воспоминания с точностью до 40%, демонстрируя свою способность использовать ментальные образы и память, а не только восприятие.
https://www.science.org/doi/10.1126/sciadv.adw1464
OpenAI получила семь исков, связывающими ChatGPT с самоубийствами пользователей и причинением им психического вреда
В настоящее время компания Open AI сталкивается с семью исками в судах штата Калифорния, в которых утверждается, что ее чат-бот на основе искусственного интеллекта ChatGPT был причастен к самоубийствам людей и вызвал серьезные психологические расстройства.
Семь жалоб были поданы шестью взрослыми и подростком в Центр правовой защиты жертв социальных сетей и Проект правовой справедливости в области технологий. В них утверждается, что Open AI несет ответственность за неправомерную смерть, помощь в самоубийстве и халатность.
Серьезные меры были приняты в качестве необходимого следствия Open AI и продуманного решения Сэмюэля Альтмана внедрить правила безопасности.
Эти иски в первую очередь направлены на установление ответственности за размывание границ между инструментом и помощником, особенно с учетом того, что акцент на повышении вовлеченности пользователей ставит доминирование на рынке выше безопасности пользователей.
Текущие случаи отражают широко распространенные проблемы, связанные с психологическими рисками разговорного ИИ, которые могут причинить вред людям, использующим технологию.
Кроме того, семь исков, поданных против Open AI, находятся на рассмотрении в Калифорнии. Подобные трагические проблемы возникают, когда люди полностью полагаются на платформы разговорного ИИ.
https://en.yenisafak.com/technology/openai-faces-lawsuits-alleging-chatgpt-contributed-to-suicides-3710379
В настоящее время компания Open AI сталкивается с семью исками в судах штата Калифорния, в которых утверждается, что ее чат-бот на основе искусственного интеллекта ChatGPT был причастен к самоубийствам людей и вызвал серьезные психологические расстройства.
Семь жалоб были поданы шестью взрослыми и подростком в Центр правовой защиты жертв социальных сетей и Проект правовой справедливости в области технологий. В них утверждается, что Open AI несет ответственность за неправомерную смерть, помощь в самоубийстве и халатность.
Серьезные меры были приняты в качестве необходимого следствия Open AI и продуманного решения Сэмюэля Альтмана внедрить правила безопасности.
Эти иски в первую очередь направлены на установление ответственности за размывание границ между инструментом и помощником, особенно с учетом того, что акцент на повышении вовлеченности пользователей ставит доминирование на рынке выше безопасности пользователей.
Текущие случаи отражают широко распространенные проблемы, связанные с психологическими рисками разговорного ИИ, которые могут причинить вред людям, использующим технологию.
Кроме того, семь исков, поданных против Open AI, находятся на рассмотрении в Калифорнии. Подобные трагические проблемы возникают, когда люди полностью полагаются на платформы разговорного ИИ.
https://en.yenisafak.com/technology/openai-faces-lawsuits-alleging-chatgpt-contributed-to-suicides-3710379
Yeni Şafak
OpenAI faces lawsuits alleging ChatGPT contributed to suicides
OpenAI confronts seven lawsuits in California courts alleging its ChatGPT artificial intelligence contributed to multiple suicides.
Вредоносное ПО теперь использует ИИ для переписывания собственного кода, чтобы избежать обнаружения
Исследователи из группы анализа угроз Google (GTIG) обнаружили, что хакеры создают вредоносное ПО, которое может использовать возможности больших языковых моделей (LLM) для самопереписывания на лету.
Экспериментальное семейство вредоносных программ, получившее название PROMPTFLUX, идентифицированное GTIG в недавнем сообщении в блоге , может переписывать свой собственный код, чтобы избежать обнаружения.
https://futurism.com/artificial-intelligence/malware-using-rewrite-code-avoid-detection
Исследователи из группы анализа угроз Google (GTIG) обнаружили, что хакеры создают вредоносное ПО, которое может использовать возможности больших языковых моделей (LLM) для самопереписывания на лету.
Экспериментальное семейство вредоносных программ, получившее название PROMPTFLUX, идентифицированное GTIG в недавнем сообщении в блоге , может переписывать свой собственный код, чтобы избежать обнаружения.
https://futurism.com/artificial-intelligence/malware-using-rewrite-code-avoid-detection
Futurism
Malware Is Now Using AI to Rewrite Its Own Code to Avoid Detection
Researchers at Google have discovered that hackers are creating malware that can harness the power of AI during its execution.
Как Карп манпулирует страхом элит для получения новых гос-контрактов
Алекс Карп из компании Palantir утверждает, что государство, осуществляющее надзор, предпочтительнее победы Китая в гонке за искусственный интеллект, что вновь открывает дискуссию о том, насколько далеко должны зайти демократии ради защиты технологического доминирования.
Генеральный директор Palantir Technologies Алекс Карп вновь разжег глобальную дискуссию об этике и власти искусственного интеллекта. В недавнем интервью Axios он заявил, что слежка в демократических системах представляет меньшую опасность, чем допущение доминирования Китая в сфере искусственного интеллекта.
Карп охарактеризовал глобальное состязание за лидерство в сфере ИИ как необходимую конфронтацию, настаивая на том, что «несовершенная свобода» в прозрачных обществах по-прежнему предпочтительнее «совершенного контроля» в условиях авторитарного правления.
Его замечания прозвучали в то время, когда правительства всё чаще рассматривают ИИ как инструмент национального выживания. Однако аргумент Карпа переводит дискуссию в гораздо более спорную плоскость, предполагая, что демократические страны должны смириться с масштабным наблюдением, если они хотят сохранить технологический суверенитет.
https://morningtick.com/post/palantir-ceo-surveillance-lesser-risk/
Алекс Карп из компании Palantir утверждает, что государство, осуществляющее надзор, предпочтительнее победы Китая в гонке за искусственный интеллект, что вновь открывает дискуссию о том, насколько далеко должны зайти демократии ради защиты технологического доминирования.
Генеральный директор Palantir Technologies Алекс Карп вновь разжег глобальную дискуссию об этике и власти искусственного интеллекта. В недавнем интервью Axios он заявил, что слежка в демократических системах представляет меньшую опасность, чем допущение доминирования Китая в сфере искусственного интеллекта.
Карп охарактеризовал глобальное состязание за лидерство в сфере ИИ как необходимую конфронтацию, настаивая на том, что «несовершенная свобода» в прозрачных обществах по-прежнему предпочтительнее «совершенного контроля» в условиях авторитарного правления.
Его замечания прозвучали в то время, когда правительства всё чаще рассматривают ИИ как инструмент национального выживания. Однако аргумент Карпа переводит дискуссию в гораздо более спорную плоскость, предполагая, что демократические страны должны смириться с масштабным наблюдением, если они хотят сохранить технологический суверенитет.
https://morningtick.com/post/palantir-ceo-surveillance-lesser-risk/
Morning Tick
Palantir CEO Defends Surveillance As The Lesser Risk
Palantir’s Alex Karp argues that a surveillance state is preferable to China winning the AI race, reopening debate on how far democracies should go to protect technological dominance.
Связи гиганта ИИ Anthropic с крупными донорами-демократами и культовым движением «Эффективный альтруизм» (Effective altruism)
Компанию Anthropic, стоящую за чат-ботом Claude, возглавляет генеральный директор Дарио Амодеи, 42-летний физик, выпускник Принстона, который однажды назвал Трампа «феодальным военачальником» в ныне удаленном посте в социальной сети и поддержал Камалу Харрис на пост президента в 2024 году.
Изначально компания из Сан-Франциско полагалась на денежные средства от лидеров леворадикального движения «Эффективный альтруизм»и крупных доноров-демократов, таких как SBF, с момента своего основания — факт, который не ускользнул от внимания ключевых фигур в окружении Трампа, сообщили The Post источники, близкие к ситуации.
«Anthropic был просто на пике влияния при Байдене. Любой чиновник, которого Байден привлекал в качестве советника, будь то официальный или неофициальный, придерживался этого эффективного альтруистического мировоззрения», — сказал Лимер. «Они жили на широкую ногу четыре года с 2021 по 2024, и для них это стало полной переменой».
Соучредителями Anthropic являются брат и сестра Дарио Амодеи и Даниэла Амодеи.
Сестра Дарио Амодеи, Даниэла, замужем за Холденом Карнофски, которого широко считают одним из лидеров движения «Открытая филантропия». Он занимал пост генерального директора Open Philanthropy, прежде чем в прошлом году уйти в отставку и занять должность в Anthropic.
В совет директоров Anthropic входит соучредитель Netflix Рид Хастингс, богатый демократ. Среди других крупных спонсоров — соучредитель LinkedIn Рид Хоффман, ярый противник Республиканской партии.
В число инвесторов Anthropic также входит Ford Foundation, левая группа, недавно раскритикованная вице-президентом Дж. Д. Вэнсом за то, что она является частью того, что он назвал «сетью НПО, которая разжигает, способствует и участвует в насилии» после убийства консервативного активиста Чарли Кирка.
«Эффективный альтруизм»
Популярный среди крупных воротил Кремниевой долины, «Эффективный альтруизм» призывает своих приверженцев направлять свои средства на те цели, которые, по их мнению, принесут наибольшую пользу человечеству в будущем. Эти цели, которые последователи называют «долгосрочным альтруизмом» , включают изменение климата, предотвращение пандемий и почти одержимость жёстким регулированием искусственного интеллекта.
«Они считают, что лишь горстка людей может контролировать доступ к технологиям, и что ИИ, если не окажется в их руках, будет использован для уничтожения мира», — сказал Натан Лимер, бывший политический советник Федеральной комиссии по связи и генеральный директор Fixed Gear Strategies.
https://nypost.com/2025/11/09/business/ai-giant-anthropics-ties-to-cult-like-effective-altruism-democrat-megadonors-on-trump-admins-radar/
Компанию Anthropic, стоящую за чат-ботом Claude, возглавляет генеральный директор Дарио Амодеи, 42-летний физик, выпускник Принстона, который однажды назвал Трампа «феодальным военачальником» в ныне удаленном посте в социальной сети и поддержал Камалу Харрис на пост президента в 2024 году.
Изначально компания из Сан-Франциско полагалась на денежные средства от лидеров леворадикального движения «Эффективный альтруизм»и крупных доноров-демократов, таких как SBF, с момента своего основания — факт, который не ускользнул от внимания ключевых фигур в окружении Трампа, сообщили The Post источники, близкие к ситуации.
«Anthropic был просто на пике влияния при Байдене. Любой чиновник, которого Байден привлекал в качестве советника, будь то официальный или неофициальный, придерживался этого эффективного альтруистического мировоззрения», — сказал Лимер. «Они жили на широкую ногу четыре года с 2021 по 2024, и для них это стало полной переменой».
Соучредителями Anthropic являются брат и сестра Дарио Амодеи и Даниэла Амодеи.
Сестра Дарио Амодеи, Даниэла, замужем за Холденом Карнофски, которого широко считают одним из лидеров движения «Открытая филантропия». Он занимал пост генерального директора Open Philanthropy, прежде чем в прошлом году уйти в отставку и занять должность в Anthropic.
В совет директоров Anthropic входит соучредитель Netflix Рид Хастингс, богатый демократ. Среди других крупных спонсоров — соучредитель LinkedIn Рид Хоффман, ярый противник Республиканской партии.
В число инвесторов Anthropic также входит Ford Foundation, левая группа, недавно раскритикованная вице-президентом Дж. Д. Вэнсом за то, что она является частью того, что он назвал «сетью НПО, которая разжигает, способствует и участвует в насилии» после убийства консервативного активиста Чарли Кирка.
«Эффективный альтруизм»
Популярный среди крупных воротил Кремниевой долины, «Эффективный альтруизм» призывает своих приверженцев направлять свои средства на те цели, которые, по их мнению, принесут наибольшую пользу человечеству в будущем. Эти цели, которые последователи называют «долгосрочным альтруизмом» , включают изменение климата, предотвращение пандемий и почти одержимость жёстким регулированием искусственного интеллекта.
«Они считают, что лишь горстка людей может контролировать доступ к технологиям, и что ИИ, если не окажется в их руках, будет использован для уничтожения мира», — сказал Натан Лимер, бывший политический советник Федеральной комиссии по связи и генеральный директор Fixed Gear Strategies.
https://nypost.com/2025/11/09/business/ai-giant-anthropics-ties-to-cult-like-effective-altruism-democrat-megadonors-on-trump-admins-radar/
New York Post
Exclusive | AI giant Anthropic's ties to cult-like Effective Altruism movement,...
Anthropic has been fighting to convince the Trump administration it isn’t “woke” – but that could be an uphill battle thanks to the AI giant’s ties to the bizarre, cult-like “Effective...
Центры обработки данных сталкиваются с сопротивлением из-за экологических проблем на фоне распространения ИИ-технологий в Латинской Америке https://www.theguardian.com/technology/2025/nov/10/data-centers-latin-america
the Guardian
Datacenters meet resistance over environmental concerns as AI boom spreads in Latin America
An expert describes how communities in some of the world’s driest areas are demanding transparency as secretive governments court billions in foreign investment
Huawei стала больше зарабатывать на патентах, но на разработки всё равно тратит в десятки раз больше
Конечно, как поясняет Nikkei Asian Review, указанная сумма составляет менее чем 1 % общей выручки Huawei Technologies, которая достигла $118,16 млрд, но положительная динамика лицензионных отчислений в адрес компании всё равно отслеживается. Данные по итогам 2023 года опубликованы не были, а в 2022 году она выручила на этом направлении $560 млн. Таким образом, за пару лет сумма лицензионных отчислений выросла на 12,5 %. Впрочем, сама Huawei за этот период заплатила прочим компаниям почти в три раза больше лицензионных отчислений, чем получила от них.
https://asia.nikkei.com/business/technology/huawei-flags-630mn-in-revenue-from-licensing-patents-and-technology
Конечно, как поясняет Nikkei Asian Review, указанная сумма составляет менее чем 1 % общей выручки Huawei Technologies, которая достигла $118,16 млрд, но положительная динамика лицензионных отчислений в адрес компании всё равно отслеживается. Данные по итогам 2023 года опубликованы не были, а в 2022 году она выручила на этом направлении $560 млн. Таким образом, за пару лет сумма лицензионных отчислений выросла на 12,5 %. Впрочем, сама Huawei за этот период заплатила прочим компаниям почти в три раза больше лицензионных отчислений, чем получила от них.
https://asia.nikkei.com/business/technology/huawei-flags-630mn-in-revenue-from-licensing-patents-and-technology
Nikkei Asia
Huawei flags $630mn in revenue from licensing patents and technology
Company touts innovative tech for its Ascend AI chips in challenge to Nvidia
👍1
«Мы приближаемся к созданию ИИ, который сможет ускорить научные открытия и помочь решить сложные проблемы способами, которые раньше были невозможны», — заявил в пресс-релизе генеральный директор Anthropic Дарио Амодеи https://www.theguardian.com/technology/2025/nov/12/anthropic-50bn-datacenter-construction
the Guardian
Anthropic announces $50bn plan for datacenter construction in US
AI startup behind Claude chatbot working with London-based Fluidstack on building vast new computing facilities
🤔1
Новая система обучения с подкреплением позволяет большим языковым моделям проверять и совершенствовать себя, используя реальные данные вместо специально подобранных обучающих наборов
https://www.infoworld.com/article/4088517/metas-spice-framework-pushes-ai-toward-self-learning-without-human-supervision.html
https://www.infoworld.com/article/4088517/metas-spice-framework-pushes-ai-toward-self-learning-without-human-supervision.html
InfoWorld
Meta’s SPICE framework pushes AI toward self-learning without human supervision
The new reinforcement learning system lets large language models challenge and improve themselves using real-world data instead of curated training sets.
RAND имитирует «бунт роботов» для проверки готовности США
В новом отчете корпорации RAND, основанном на результатах имитационного сценария кибератаки «Робот-бунт», сделан вывод о том, что Соединенные Штаты не готовы отреагировать на крупномасштабный кризис, вызванный неконтролируемым искусственным интеллектом.
В исследовании подчеркиваются критические пробелы в возможностях, включая быстрый анализ ИИ, устойчивую инфраструктуру и отсутствие скоординированных стратегий реагирования на кризисы или механизмов международного сотрудничества для чрезвычайных ситуаций с использованием ИИ.
Учения RAND были разработаны для моделирования реакции Совета национальной безопасности на чрезвычайную ситуацию, связанную с искусственным интеллектом. Участники, включая бывших высокопоставленных правительственных чиновников и аналитиков, играли роли членов кабинета министров, консультирующих вымышленного президента. На первом этапе сценария Соединенные Штаты столкнулись с волной кибератак, нацеленных на автономные автомобили, промышленных роботов и критически важные инфраструктурные системы, такие как электро- и водоснабжение. В результате этих атак погибли 26 человек в Лос-Анджелесе, а также был нанесен значительный ущерб.
Согласно отчёту, участники сразу же столкнулись с трудностью определения того, кто — или что — несёт ответственность. Исследователи RAND обнаружили, что неопределённость атрибуции «стала ключевой аналитической потребностью», поскольку выбор ответа полностью зависел от того, кто, по их мнению, стоял за атакой. Ответы сильно различались в зависимости от того, считали ли участники виновником Китай, террористическую группировку или независимую систему искусственного интеллекта.
https://www.rand.org/pubs/research_reports/RRA4231-1.html
В новом отчете корпорации RAND, основанном на результатах имитационного сценария кибератаки «Робот-бунт», сделан вывод о том, что Соединенные Штаты не готовы отреагировать на крупномасштабный кризис, вызванный неконтролируемым искусственным интеллектом.
В исследовании подчеркиваются критические пробелы в возможностях, включая быстрый анализ ИИ, устойчивую инфраструктуру и отсутствие скоординированных стратегий реагирования на кризисы или механизмов международного сотрудничества для чрезвычайных ситуаций с использованием ИИ.
Учения RAND были разработаны для моделирования реакции Совета национальной безопасности на чрезвычайную ситуацию, связанную с искусственным интеллектом. Участники, включая бывших высокопоставленных правительственных чиновников и аналитиков, играли роли членов кабинета министров, консультирующих вымышленного президента. На первом этапе сценария Соединенные Штаты столкнулись с волной кибератак, нацеленных на автономные автомобили, промышленных роботов и критически важные инфраструктурные системы, такие как электро- и водоснабжение. В результате этих атак погибли 26 человек в Лос-Анджелесе, а также был нанесен значительный ущерб.
Согласно отчёту, участники сразу же столкнулись с трудностью определения того, кто — или что — несёт ответственность. Исследователи RAND обнаружили, что неопределённость атрибуции «стала ключевой аналитической потребностью», поскольку выбор ответа полностью зависел от того, кто, по их мнению, стоял за атакой. Ответы сильно различались в зависимости от того, считали ли участники виновником Китай, террористическую группировку или независимую систему искусственного интеллекта.
https://www.rand.org/pubs/research_reports/RRA4231-1.html
🤔1
Учёные из Научного центра Токио разработали первую в мире автоматическую и адаптивную двухрежимную оптическую беспроводную систему передачи энергии на основе светодиодов, которая без проблем работает как в условиях слабого, так и яркого освещения. Система, наряду с технологией распознавания изображений на основе искусственного интеллекта, способна эффективно и бесперебойно питать несколько устройств. Благодаря использованию светодиодов, она представляет собой недорогое и безопасное решение, идеально подходящее для создания устойчивой инфраструктуры Интернета вещей в помещениях. https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html
Tech Xplore
AI-powered LED system delivers stable wireless power for indoor IoT devices
The world's first automatic and adaptive, dual-mode light-emitting diode (LED)-based optical wireless power transmission system, that operates seamlessly under both dark and bright lighting conditions, ...
🤔1
Google потратит на строительство трёх новых ЦОД в Техасе $40 млрд.
Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд.
https://www.bloomberg.com/news/articles/2025-11-14/google-to-invest-40-billion-in-new-data-centers-in-texas?srnd=phx-technology
Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд.
https://www.bloomberg.com/news/articles/2025-11-14/google-to-invest-40-billion-in-new-data-centers-in-texas?srnd=phx-technology
Bloomberg.com
Google to Invest $40 Billion in New Data Centers in Texas
Alphabet Inc.’s Google plans to invest $40 billion in three new Texas data centers, part of an effort to add artificial intelligence computing power in a state that’s also drawn multibillion investments from competitors such as OpenAI and Anthropic PBC.