Как Карп манпулирует страхом элит для получения новых гос-контрактов
Алекс Карп из компании Palantir утверждает, что государство, осуществляющее надзор, предпочтительнее победы Китая в гонке за искусственный интеллект, что вновь открывает дискуссию о том, насколько далеко должны зайти демократии ради защиты технологического доминирования.
Генеральный директор Palantir Technologies Алекс Карп вновь разжег глобальную дискуссию об этике и власти искусственного интеллекта. В недавнем интервью Axios он заявил, что слежка в демократических системах представляет меньшую опасность, чем допущение доминирования Китая в сфере искусственного интеллекта.
Карп охарактеризовал глобальное состязание за лидерство в сфере ИИ как необходимую конфронтацию, настаивая на том, что «несовершенная свобода» в прозрачных обществах по-прежнему предпочтительнее «совершенного контроля» в условиях авторитарного правления.
Его замечания прозвучали в то время, когда правительства всё чаще рассматривают ИИ как инструмент национального выживания. Однако аргумент Карпа переводит дискуссию в гораздо более спорную плоскость, предполагая, что демократические страны должны смириться с масштабным наблюдением, если они хотят сохранить технологический суверенитет.
https://morningtick.com/post/palantir-ceo-surveillance-lesser-risk/
Алекс Карп из компании Palantir утверждает, что государство, осуществляющее надзор, предпочтительнее победы Китая в гонке за искусственный интеллект, что вновь открывает дискуссию о том, насколько далеко должны зайти демократии ради защиты технологического доминирования.
Генеральный директор Palantir Technologies Алекс Карп вновь разжег глобальную дискуссию об этике и власти искусственного интеллекта. В недавнем интервью Axios он заявил, что слежка в демократических системах представляет меньшую опасность, чем допущение доминирования Китая в сфере искусственного интеллекта.
Карп охарактеризовал глобальное состязание за лидерство в сфере ИИ как необходимую конфронтацию, настаивая на том, что «несовершенная свобода» в прозрачных обществах по-прежнему предпочтительнее «совершенного контроля» в условиях авторитарного правления.
Его замечания прозвучали в то время, когда правительства всё чаще рассматривают ИИ как инструмент национального выживания. Однако аргумент Карпа переводит дискуссию в гораздо более спорную плоскость, предполагая, что демократические страны должны смириться с масштабным наблюдением, если они хотят сохранить технологический суверенитет.
https://morningtick.com/post/palantir-ceo-surveillance-lesser-risk/
Morning Tick
Palantir CEO Defends Surveillance As The Lesser Risk
Palantir’s Alex Karp argues that a surveillance state is preferable to China winning the AI race, reopening debate on how far democracies should go to protect technological dominance.
Связи гиганта ИИ Anthropic с крупными донорами-демократами и культовым движением «Эффективный альтруизм» (Effective altruism)
Компанию Anthropic, стоящую за чат-ботом Claude, возглавляет генеральный директор Дарио Амодеи, 42-летний физик, выпускник Принстона, который однажды назвал Трампа «феодальным военачальником» в ныне удаленном посте в социальной сети и поддержал Камалу Харрис на пост президента в 2024 году.
Изначально компания из Сан-Франциско полагалась на денежные средства от лидеров леворадикального движения «Эффективный альтруизм»и крупных доноров-демократов, таких как SBF, с момента своего основания — факт, который не ускользнул от внимания ключевых фигур в окружении Трампа, сообщили The Post источники, близкие к ситуации.
«Anthropic был просто на пике влияния при Байдене. Любой чиновник, которого Байден привлекал в качестве советника, будь то официальный или неофициальный, придерживался этого эффективного альтруистического мировоззрения», — сказал Лимер. «Они жили на широкую ногу четыре года с 2021 по 2024, и для них это стало полной переменой».
Соучредителями Anthropic являются брат и сестра Дарио Амодеи и Даниэла Амодеи.
Сестра Дарио Амодеи, Даниэла, замужем за Холденом Карнофски, которого широко считают одним из лидеров движения «Открытая филантропия». Он занимал пост генерального директора Open Philanthropy, прежде чем в прошлом году уйти в отставку и занять должность в Anthropic.
В совет директоров Anthropic входит соучредитель Netflix Рид Хастингс, богатый демократ. Среди других крупных спонсоров — соучредитель LinkedIn Рид Хоффман, ярый противник Республиканской партии.
В число инвесторов Anthropic также входит Ford Foundation, левая группа, недавно раскритикованная вице-президентом Дж. Д. Вэнсом за то, что она является частью того, что он назвал «сетью НПО, которая разжигает, способствует и участвует в насилии» после убийства консервативного активиста Чарли Кирка.
«Эффективный альтруизм»
Популярный среди крупных воротил Кремниевой долины, «Эффективный альтруизм» призывает своих приверженцев направлять свои средства на те цели, которые, по их мнению, принесут наибольшую пользу человечеству в будущем. Эти цели, которые последователи называют «долгосрочным альтруизмом» , включают изменение климата, предотвращение пандемий и почти одержимость жёстким регулированием искусственного интеллекта.
«Они считают, что лишь горстка людей может контролировать доступ к технологиям, и что ИИ, если не окажется в их руках, будет использован для уничтожения мира», — сказал Натан Лимер, бывший политический советник Федеральной комиссии по связи и генеральный директор Fixed Gear Strategies.
https://nypost.com/2025/11/09/business/ai-giant-anthropics-ties-to-cult-like-effective-altruism-democrat-megadonors-on-trump-admins-radar/
Компанию Anthropic, стоящую за чат-ботом Claude, возглавляет генеральный директор Дарио Амодеи, 42-летний физик, выпускник Принстона, который однажды назвал Трампа «феодальным военачальником» в ныне удаленном посте в социальной сети и поддержал Камалу Харрис на пост президента в 2024 году.
Изначально компания из Сан-Франциско полагалась на денежные средства от лидеров леворадикального движения «Эффективный альтруизм»и крупных доноров-демократов, таких как SBF, с момента своего основания — факт, который не ускользнул от внимания ключевых фигур в окружении Трампа, сообщили The Post источники, близкие к ситуации.
«Anthropic был просто на пике влияния при Байдене. Любой чиновник, которого Байден привлекал в качестве советника, будь то официальный или неофициальный, придерживался этого эффективного альтруистического мировоззрения», — сказал Лимер. «Они жили на широкую ногу четыре года с 2021 по 2024, и для них это стало полной переменой».
Соучредителями Anthropic являются брат и сестра Дарио Амодеи и Даниэла Амодеи.
Сестра Дарио Амодеи, Даниэла, замужем за Холденом Карнофски, которого широко считают одним из лидеров движения «Открытая филантропия». Он занимал пост генерального директора Open Philanthropy, прежде чем в прошлом году уйти в отставку и занять должность в Anthropic.
В совет директоров Anthropic входит соучредитель Netflix Рид Хастингс, богатый демократ. Среди других крупных спонсоров — соучредитель LinkedIn Рид Хоффман, ярый противник Республиканской партии.
В число инвесторов Anthropic также входит Ford Foundation, левая группа, недавно раскритикованная вице-президентом Дж. Д. Вэнсом за то, что она является частью того, что он назвал «сетью НПО, которая разжигает, способствует и участвует в насилии» после убийства консервативного активиста Чарли Кирка.
«Эффективный альтруизм»
Популярный среди крупных воротил Кремниевой долины, «Эффективный альтруизм» призывает своих приверженцев направлять свои средства на те цели, которые, по их мнению, принесут наибольшую пользу человечеству в будущем. Эти цели, которые последователи называют «долгосрочным альтруизмом» , включают изменение климата, предотвращение пандемий и почти одержимость жёстким регулированием искусственного интеллекта.
«Они считают, что лишь горстка людей может контролировать доступ к технологиям, и что ИИ, если не окажется в их руках, будет использован для уничтожения мира», — сказал Натан Лимер, бывший политический советник Федеральной комиссии по связи и генеральный директор Fixed Gear Strategies.
https://nypost.com/2025/11/09/business/ai-giant-anthropics-ties-to-cult-like-effective-altruism-democrat-megadonors-on-trump-admins-radar/
New York Post
Exclusive | AI giant Anthropic's ties to cult-like Effective Altruism movement,...
Anthropic has been fighting to convince the Trump administration it isn’t “woke” – but that could be an uphill battle thanks to the AI giant’s ties to the bizarre, cult-like “Effective...
Центры обработки данных сталкиваются с сопротивлением из-за экологических проблем на фоне распространения ИИ-технологий в Латинской Америке https://www.theguardian.com/technology/2025/nov/10/data-centers-latin-america
the Guardian
Datacenters meet resistance over environmental concerns as AI boom spreads in Latin America
An expert describes how communities in some of the world’s driest areas are demanding transparency as secretive governments court billions in foreign investment
Huawei стала больше зарабатывать на патентах, но на разработки всё равно тратит в десятки раз больше
Конечно, как поясняет Nikkei Asian Review, указанная сумма составляет менее чем 1 % общей выручки Huawei Technologies, которая достигла $118,16 млрд, но положительная динамика лицензионных отчислений в адрес компании всё равно отслеживается. Данные по итогам 2023 года опубликованы не были, а в 2022 году она выручила на этом направлении $560 млн. Таким образом, за пару лет сумма лицензионных отчислений выросла на 12,5 %. Впрочем, сама Huawei за этот период заплатила прочим компаниям почти в три раза больше лицензионных отчислений, чем получила от них.
https://asia.nikkei.com/business/technology/huawei-flags-630mn-in-revenue-from-licensing-patents-and-technology
Конечно, как поясняет Nikkei Asian Review, указанная сумма составляет менее чем 1 % общей выручки Huawei Technologies, которая достигла $118,16 млрд, но положительная динамика лицензионных отчислений в адрес компании всё равно отслеживается. Данные по итогам 2023 года опубликованы не были, а в 2022 году она выручила на этом направлении $560 млн. Таким образом, за пару лет сумма лицензионных отчислений выросла на 12,5 %. Впрочем, сама Huawei за этот период заплатила прочим компаниям почти в три раза больше лицензионных отчислений, чем получила от них.
https://asia.nikkei.com/business/technology/huawei-flags-630mn-in-revenue-from-licensing-patents-and-technology
Nikkei Asia
Huawei flags $630mn in revenue from licensing patents and technology
Company touts innovative tech for its Ascend AI chips in challenge to Nvidia
👍1
«Мы приближаемся к созданию ИИ, который сможет ускорить научные открытия и помочь решить сложные проблемы способами, которые раньше были невозможны», — заявил в пресс-релизе генеральный директор Anthropic Дарио Амодеи https://www.theguardian.com/technology/2025/nov/12/anthropic-50bn-datacenter-construction
the Guardian
Anthropic announces $50bn plan for datacenter construction in US
AI startup behind Claude chatbot working with London-based Fluidstack on building vast new computing facilities
🤔1
Новая система обучения с подкреплением позволяет большим языковым моделям проверять и совершенствовать себя, используя реальные данные вместо специально подобранных обучающих наборов
https://www.infoworld.com/article/4088517/metas-spice-framework-pushes-ai-toward-self-learning-without-human-supervision.html
https://www.infoworld.com/article/4088517/metas-spice-framework-pushes-ai-toward-self-learning-without-human-supervision.html
InfoWorld
Meta’s SPICE framework pushes AI toward self-learning without human supervision
The new reinforcement learning system lets large language models challenge and improve themselves using real-world data instead of curated training sets.
RAND имитирует «бунт роботов» для проверки готовности США
В новом отчете корпорации RAND, основанном на результатах имитационного сценария кибератаки «Робот-бунт», сделан вывод о том, что Соединенные Штаты не готовы отреагировать на крупномасштабный кризис, вызванный неконтролируемым искусственным интеллектом.
В исследовании подчеркиваются критические пробелы в возможностях, включая быстрый анализ ИИ, устойчивую инфраструктуру и отсутствие скоординированных стратегий реагирования на кризисы или механизмов международного сотрудничества для чрезвычайных ситуаций с использованием ИИ.
Учения RAND были разработаны для моделирования реакции Совета национальной безопасности на чрезвычайную ситуацию, связанную с искусственным интеллектом. Участники, включая бывших высокопоставленных правительственных чиновников и аналитиков, играли роли членов кабинета министров, консультирующих вымышленного президента. На первом этапе сценария Соединенные Штаты столкнулись с волной кибератак, нацеленных на автономные автомобили, промышленных роботов и критически важные инфраструктурные системы, такие как электро- и водоснабжение. В результате этих атак погибли 26 человек в Лос-Анджелесе, а также был нанесен значительный ущерб.
Согласно отчёту, участники сразу же столкнулись с трудностью определения того, кто — или что — несёт ответственность. Исследователи RAND обнаружили, что неопределённость атрибуции «стала ключевой аналитической потребностью», поскольку выбор ответа полностью зависел от того, кто, по их мнению, стоял за атакой. Ответы сильно различались в зависимости от того, считали ли участники виновником Китай, террористическую группировку или независимую систему искусственного интеллекта.
https://www.rand.org/pubs/research_reports/RRA4231-1.html
В новом отчете корпорации RAND, основанном на результатах имитационного сценария кибератаки «Робот-бунт», сделан вывод о том, что Соединенные Штаты не готовы отреагировать на крупномасштабный кризис, вызванный неконтролируемым искусственным интеллектом.
В исследовании подчеркиваются критические пробелы в возможностях, включая быстрый анализ ИИ, устойчивую инфраструктуру и отсутствие скоординированных стратегий реагирования на кризисы или механизмов международного сотрудничества для чрезвычайных ситуаций с использованием ИИ.
Учения RAND были разработаны для моделирования реакции Совета национальной безопасности на чрезвычайную ситуацию, связанную с искусственным интеллектом. Участники, включая бывших высокопоставленных правительственных чиновников и аналитиков, играли роли членов кабинета министров, консультирующих вымышленного президента. На первом этапе сценария Соединенные Штаты столкнулись с волной кибератак, нацеленных на автономные автомобили, промышленных роботов и критически важные инфраструктурные системы, такие как электро- и водоснабжение. В результате этих атак погибли 26 человек в Лос-Анджелесе, а также был нанесен значительный ущерб.
Согласно отчёту, участники сразу же столкнулись с трудностью определения того, кто — или что — несёт ответственность. Исследователи RAND обнаружили, что неопределённость атрибуции «стала ключевой аналитической потребностью», поскольку выбор ответа полностью зависел от того, кто, по их мнению, стоял за атакой. Ответы сильно различались в зависимости от того, считали ли участники виновником Китай, террористическую группировку или независимую систему искусственного интеллекта.
https://www.rand.org/pubs/research_reports/RRA4231-1.html
🤔1
Учёные из Научного центра Токио разработали первую в мире автоматическую и адаптивную двухрежимную оптическую беспроводную систему передачи энергии на основе светодиодов, которая без проблем работает как в условиях слабого, так и яркого освещения. Система, наряду с технологией распознавания изображений на основе искусственного интеллекта, способна эффективно и бесперебойно питать несколько устройств. Благодаря использованию светодиодов, она представляет собой недорогое и безопасное решение, идеально подходящее для создания устойчивой инфраструктуры Интернета вещей в помещениях. https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html
Tech Xplore
AI-powered LED system delivers stable wireless power for indoor IoT devices
The world's first automatic and adaptive, dual-mode light-emitting diode (LED)-based optical wireless power transmission system, that operates seamlessly under both dark and bright lighting conditions, ...
🤔1
Google потратит на строительство трёх новых ЦОД в Техасе $40 млрд.
Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд.
https://www.bloomberg.com/news/articles/2025-11-14/google-to-invest-40-billion-in-new-data-centers-in-texas?srnd=phx-technology
Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд.
https://www.bloomberg.com/news/articles/2025-11-14/google-to-invest-40-billion-in-new-data-centers-in-texas?srnd=phx-technology
Bloomberg.com
Google to Invest $40 Billion in New Data Centers in Texas
Alphabet Inc.’s Google plans to invest $40 billion in three new Texas data centers, part of an effort to add artificial intelligence computing power in a state that’s also drawn multibillion investments from competitors such as OpenAI and Anthropic PBC.
ИИ не только решает проблемы, но и создаёт их
Рассмотрим организацию, которая обратилась к искусственному интеллекту для управления правилами брандмауэра. Идея была проста: позволить искусственному интеллекту непрерывно генерировать правила и обеспечивать их соблюдение, чтобы сеть оставалась защищенной в режиме реального времени. На бумаге это работало. Искусственный интеллект обеспечивал стабильное соблюдение правил и даже приносил хорошую прибыль.
Но когда за дело взялись аудиторы, они обнаружили проблему. Вместо того чтобы объединить правила, ИИ просто накладывал их друг на друга. Набор правил из 2000 строк превратился в набор из более чем 20 000 строк. В нём были противоречия, избыточность и дублирование.
Для операторов сеть работала. Но для специалистов по соблюдению нормативных требований это был кошмар. Чтобы продемонстрировать сегментацию конфиденциальных сред, как того требуют федеральные нормативные акты и стандарты безопасности данных индустрии платёжных карт, нужно было построчно просмотреть 20 000 правил. ИИ упростил контроль, но сделал его практически невозможным.
https://federalnewsnetwork.com/commentary/2025/11/ai-is-solving-problems-its-also-creating/
Рассмотрим организацию, которая обратилась к искусственному интеллекту для управления правилами брандмауэра. Идея была проста: позволить искусственному интеллекту непрерывно генерировать правила и обеспечивать их соблюдение, чтобы сеть оставалась защищенной в режиме реального времени. На бумаге это работало. Искусственный интеллект обеспечивал стабильное соблюдение правил и даже приносил хорошую прибыль.
Но когда за дело взялись аудиторы, они обнаружили проблему. Вместо того чтобы объединить правила, ИИ просто накладывал их друг на друга. Набор правил из 2000 строк превратился в набор из более чем 20 000 строк. В нём были противоречия, избыточность и дублирование.
Для операторов сеть работала. Но для специалистов по соблюдению нормативных требований это был кошмар. Чтобы продемонстрировать сегментацию конфиденциальных сред, как того требуют федеральные нормативные акты и стандарты безопасности данных индустрии платёжных карт, нужно было построчно просмотреть 20 000 правил. ИИ упростил контроль, но сделал его практически невозможным.
https://federalnewsnetwork.com/commentary/2025/11/ai-is-solving-problems-its-also-creating/
Federal News Network -
AI is solving problems it’s also creating
This is the irony of AI in cybersecurity: It can solve problems while simultaneously creating new ones.
😁1
Похоже Трамп выбрал слеующую IT-жертву...
В меморандуме о национальной безопасности Белого дома утверждается, что Alibaba Group Holding Ltd. оказывала технологическую поддержку китайским военным в их операциях против целей в США.
В отчёте утверждается, что Alibaba также предоставляла правительству и военным Китая доступ к данным клиентов, включая IP-адреса, информацию о Wi-Fi, платёжные данные и услуги, связанные с искусственным интеллектом.
В сентябре республиканцы, возглавляющие комитеты Палаты представителей по Китаю и национальной безопасности, выступили против предоставления Alibaba доступа к местной инфраструктуре во время летних Олимпийских игр, обвинив компанию в том, что она «крайне важна» для операций китайского правительства по наблюдению и сбору разведданных.
https://www.bloomberg.com/news/articles/2025-11-15/white-house-memo-claims-alibaba-has-china-military-ties-ft-says
В меморандуме о национальной безопасности Белого дома утверждается, что Alibaba Group Holding Ltd. оказывала технологическую поддержку китайским военным в их операциях против целей в США.
В отчёте утверждается, что Alibaba также предоставляла правительству и военным Китая доступ к данным клиентов, включая IP-адреса, информацию о Wi-Fi, платёжные данные и услуги, связанные с искусственным интеллектом.
В сентябре республиканцы, возглавляющие комитеты Палаты представителей по Китаю и национальной безопасности, выступили против предоставления Alibaba доступа к местной инфраструктуре во время летних Олимпийских игр, обвинив компанию в том, что она «крайне важна» для операций китайского правительства по наблюдению и сбору разведданных.
https://www.bloomberg.com/news/articles/2025-11-15/white-house-memo-claims-alibaba-has-china-military-ties-ft-says
Bloomberg.com
White House Memo Claims Alibaba Has China Military Ties, FT Says
A White House national security memo claims Alibaba Group Holding Ltd. provided the Chinese military with technology support against targets in the US, the Financial Times reported, raising concerns about the e-commerce giant’s links to the People’s Liberation…
Хакеры с помощью нейросети впервые сама атаковала 30 сайтов крупных компаний — под ударом оказались финансовые учреждения, госкомпании, крупные бигтехи и даже химический завод.
90% работы автономно выполнил ИИ: сканирование угроз, поиск уязвимостей и их эксплуатация.
https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
90% работы автономно выполнил ИИ: сканирование угроз, поиск уязвимостей и их эксплуатация.
https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
👍1
В сентябре было обнаружено, что хакеры, стоящие за китайским правительством, использовали сервис искусственного интеллекта (ИИ) «Claude» американской компании Anslogic для взлома иностранных компаний и государственных учреждений.
Хакеры осуществили атаку одним нажатием кнопки, потребовав лишь минимального человеческого вмешательства, например, «да, продолжайте» или «не продолжайте». Anthropic заблокировала атаку и заблокировала учётную запись хакера, но до этого ей удалось взломать до четырёх систем. В одном случае хакерам также удалось выполнить запросы к внутренним базам данных и извлечь данные, отдав команду ИИ-инструменту Claude от Anthropic.
Компания Anthropic по итогам расследования не раскрыла список компаний и государственных учреждений, в которые пытались проникнуть хакеры, но сообщила, что обнаружила около 30 целей. Некоторым хакерам удалось похитить совершенно секретную информацию.
https://www.mk.co.kr/en/world/11469078
Хакеры осуществили атаку одним нажатием кнопки, потребовав лишь минимального человеческого вмешательства, например, «да, продолжайте» или «не продолжайте». Anthropic заблокировала атаку и заблокировала учётную запись хакера, но до этого ей удалось взломать до четырёх систем. В одном случае хакерам также удалось выполнить запросы к внутренним базам данных и извлечь данные, отдав команду ИИ-инструменту Claude от Anthropic.
Компания Anthropic по итогам расследования не раскрыла список компаний и государственных учреждений, в которые пытались проникнуть хакеры, но сообщила, что обнаружила около 30 целей. Некоторым хакерам удалось похитить совершенно секретную информацию.
https://www.mk.co.kr/en/world/11469078
매일경제
Hackers behind the Chinese government were found to have used the artificial intelligence (AI) servi.. - MK
Hackers behind the Chinese government were found to have used the artificial intelligence (AI) service "Claude" of the US company Anslogic to break into foreign companies and government agencies in Se..
🔥1
Холодная война ИИ: трансформация глобальной динамики власти к 2025 году
Пекин придерживается философии «стаи против титанов», направляя огромные ресурсы в децентрализованные системы искусственного интеллекта и быстрые инновации.
Этот тактический маневр резко контрастирует с подходом США, который фокусируется на высокотехнологичных централизованных инновациях, возглавляемых такими гигантами отрасли, как OpenAI и Google.
Глобализация трансформируется в «реглобализацию», при этом США и Китай формируют расходящиеся технологические сферы. В статье утверждается, что демократии должны сотрудничать во всех секторах, чтобы эффективно двигаться в эту эпоху преобразований.
Выводы, опубликованные пользователями X, такими как Artificial Analysis, в мае 2025 года, подтверждают ключевые тенденции, формирующие ландшафт ИИ, особенно в отношении стремления к продвинутым моделям и вычислительной мощности. Лисан аль Гаиб в публикации от января 2025 года предвкушает анонсы ИИ и «фестиваля моделей» от таких лабораторий, как OpenAI и Google, что отражает неустанный темп инноваций.
https://www.rswebsols.com/news/the-ai-cold-war-transforming-global-power-dynamics-by-2025/
Пекин придерживается философии «стаи против титанов», направляя огромные ресурсы в децентрализованные системы искусственного интеллекта и быстрые инновации.
Этот тактический маневр резко контрастирует с подходом США, который фокусируется на высокотехнологичных централизованных инновациях, возглавляемых такими гигантами отрасли, как OpenAI и Google.
Глобализация трансформируется в «реглобализацию», при этом США и Китай формируют расходящиеся технологические сферы. В статье утверждается, что демократии должны сотрудничать во всех секторах, чтобы эффективно двигаться в эту эпоху преобразований.
Выводы, опубликованные пользователями X, такими как Artificial Analysis, в мае 2025 года, подтверждают ключевые тенденции, формирующие ландшафт ИИ, особенно в отношении стремления к продвинутым моделям и вычислительной мощности. Лисан аль Гаиб в публикации от января 2025 года предвкушает анонсы ИИ и «фестиваля моделей» от таких лабораторий, как OpenAI и Google, что отражает неустанный темп инноваций.
https://www.rswebsols.com/news/the-ai-cold-war-transforming-global-power-dynamics-by-2025/
RS Web Solutions
The AI Cold War, Shaping Global Power Dynamics by 2025
Discover how the AI Cold War is set to reshape global power dynamics by 2025, driving innovation, competition, and geopolitical shifts like never before.
Заявление Anthropic о кибератаке с использованием искусственного интеллекта вызвало истерику в отрасли
В отчёте Anthropic утверждается, что раскрыта первая крупномасштабная кибератака с использованием искусственного интеллекта, проведённая китайской хакерской группой, спонсируемой государством, с использованием модели искусственного интеллекта Claude.
В отчете предлагается новая парадигма, в которой системы искусственного интеллекта самостоятельно выполняют сложные хакерские задачи: от обнаружения уязвимостей до осуществления кражи данных.в масштабах, ранее не достигавшихся усилиями исключительно человекаЭто утверждение вызвало серьёзную критику и скептицизм, особенно в отношении прозрачности и предполагаемой автономности ИИ по сравнению с человеческой помощью при проведении сложных кибератак. Критики утверждают, что подобные утверждения могут преувеличивать возможности ИИ влиять на регулирование, что отмечают как специалисты по технологиям, так и отраслевые эксперты.
Реакция общественности на заявления Anthropic о кибератаке с участием ИИ представляла собой смесь опасений, скептицизма и критики. Социальные сети, особенно X (ранее Twitter), бурно обсуждались исследователями ИИ, экспертами по кибербезопасности и техническими обозревателями. Янн Лекун из Meta открыто критиковал отчёт, назвав его примером «регуляторного театра» и предположив, что представление об угрозе автономного ИИ преувеличено. Его твиты отражают общее мнение в социальных сетях, которое ставит под сомнение истинный уровень автономности ИИ, заявленный Anthropic. Этот скептицизм разделяют и специалисты по безопасности, такие как Кевин Бомонт, которые требуют более веских доказательств для подтверждения заявлений об использовании ИИ в рамках заявленной атаки.
https://opentools.ai/news/anthropics-ai-driven-cyberattack-claim-triggers-industry-debates-and-skepticism
В отчёте Anthropic утверждается, что раскрыта первая крупномасштабная кибератака с использованием искусственного интеллекта, проведённая китайской хакерской группой, спонсируемой государством, с использованием модели искусственного интеллекта Claude.
В отчете предлагается новая парадигма, в которой системы искусственного интеллекта самостоятельно выполняют сложные хакерские задачи: от обнаружения уязвимостей до осуществления кражи данных.в масштабах, ранее не достигавшихся усилиями исключительно человекаЭто утверждение вызвало серьёзную критику и скептицизм, особенно в отношении прозрачности и предполагаемой автономности ИИ по сравнению с человеческой помощью при проведении сложных кибератак. Критики утверждают, что подобные утверждения могут преувеличивать возможности ИИ влиять на регулирование, что отмечают как специалисты по технологиям, так и отраслевые эксперты.
Реакция общественности на заявления Anthropic о кибератаке с участием ИИ представляла собой смесь опасений, скептицизма и критики. Социальные сети, особенно X (ранее Twitter), бурно обсуждались исследователями ИИ, экспертами по кибербезопасности и техническими обозревателями. Янн Лекун из Meta открыто критиковал отчёт, назвав его примером «регуляторного театра» и предположив, что представление об угрозе автономного ИИ преувеличено. Его твиты отражают общее мнение в социальных сетях, которое ставит под сомнение истинный уровень автономности ИИ, заявленный Anthropic. Этот скептицизм разделяют и специалисты по безопасности, такие как Кевин Бомонт, которые требуют более веских доказательств для подтверждения заявлений об использовании ИИ в рамках заявленной атаки.
https://opentools.ai/news/anthropics-ai-driven-cyberattack-claim-triggers-industry-debates-and-skepticism
🤔1
Исследователи представили первую в истории защиту от криптоаналитических атак на ИИ
Новый защитный механизм основан на ключевом открытии, полученном исследователями в отношении криптоаналитических атак с извлечением параметров. Анализируя эти атаки, исследователи выявили ключевой принцип, на котором основывалась каждая из них. Чтобы понять их выводы, необходимо понимать базовую архитектуру нейронной сети.
Фундаментальный строительный блок модели нейронной сети называется «нейрон». Нейроны организованы в слои и используются последовательно для оценки входных данных и реагирования на них. После обработки данных нейронами первого слоя выходные данные этого слоя передаются во второй слой. Этот процесс продолжается до тех пор, пока данные не будут обработаны всей системой, после чего система определяет, как реагировать на входные данные.
«Мы заметили, что криптоаналитические атаки фокусируются на различиях между нейронами», — говорит Куриан. «И чем больше нейронов различаются, тем эффективнее атака. Наш защитный механизм основан на обучении модели нейронной сети таким образом, чтобы нейроны в одном слое модели были похожи друг на друга. Это можно сделать только в первом слое или в нескольких. Можно использовать все нейроны в слое или только для подмножества нейронов».
https://techxplore.com/news/2025-11-unveil-defense-cryptanalytic-ai.html
Новый защитный механизм основан на ключевом открытии, полученном исследователями в отношении криптоаналитических атак с извлечением параметров. Анализируя эти атаки, исследователи выявили ключевой принцип, на котором основывалась каждая из них. Чтобы понять их выводы, необходимо понимать базовую архитектуру нейронной сети.
Фундаментальный строительный блок модели нейронной сети называется «нейрон». Нейроны организованы в слои и используются последовательно для оценки входных данных и реагирования на них. После обработки данных нейронами первого слоя выходные данные этого слоя передаются во второй слой. Этот процесс продолжается до тех пор, пока данные не будут обработаны всей системой, после чего система определяет, как реагировать на входные данные.
«Мы заметили, что криптоаналитические атаки фокусируются на различиях между нейронами», — говорит Куриан. «И чем больше нейронов различаются, тем эффективнее атака. Наш защитный механизм основан на обучении модели нейронной сети таким образом, чтобы нейроны в одном слое модели были похожи друг на друга. Это можно сделать только в первом слое или в нескольких. Можно использовать все нейроны в слое или только для подмножества нейронов».
https://techxplore.com/news/2025-11-unveil-defense-cryptanalytic-ai.html
👍2
Добро пожаловать в «Состояние ИИ» — новый совместный проект Financial Times и MIT Technology Review. Каждый понедельник авторы обоих изданий обсуждают один из аспектов генеративной революции ИИ, меняющей расклад сил в мире. https://www.technologyreview.com/2025/11/17/1127514/the-state-of-ai-the-new-rules-of-war/
MIT Technology Review
The State of AI: How war will be changed forever
In this conversation, Helen Warrell, FT investigations reporter and former defense and security editor, and James O’Donnell, MIT Technology Review’s senior AI reporter, consider the ethical quandaries and financial incentives around AI’s use by the military.
Что такое проект «Прометей», соруководителем которого станет Джефф Безос?
Проект «Прометей» направлен на разработку ИИ, обучающегося на реальных процессах, и ориентирован на такие секторы, как аэрокосмическая промышленность и производство. Проект, соруководителем которого является Вик Баджадж, привлекает лучших специалистов из ведущих компаний, занимающихся разработкой ИИ.
Prometheus стремится разработать ИИ, способный обучаться на реальных процессах, а не только на цифровых данных, ориентируясь на такие области, как аэрокосмическая промышленность, передовое производство и прикладное машиностроение.
https://m.economictimes.com/news/international/us/what-is-project-prometheus-whose-co-ceo-will-be-jeff-bezos-10-points-for-you-to-know/articleshow/125388676.cms
Проект «Прометей» направлен на разработку ИИ, обучающегося на реальных процессах, и ориентирован на такие секторы, как аэрокосмическая промышленность и производство. Проект, соруководителем которого является Вик Баджадж, привлекает лучших специалистов из ведущих компаний, занимающихся разработкой ИИ.
Prometheus стремится разработать ИИ, способный обучаться на реальных процессах, а не только на цифровых данных, ориентируясь на такие области, как аэрокосмическая промышленность, передовое производство и прикладное машиностроение.
https://m.economictimes.com/news/international/us/what-is-project-prometheus-whose-co-ceo-will-be-jeff-bezos-10-points-for-you-to-know/articleshow/125388676.cms
The Economic Times
What is Project Prometheus, whose co-CEO will be Jeff Bezos? 10 points for you to know
Project Prometheus, co-led by Jeff Bezos and Vik Bajaj, is a groundbreaking AI startup focused on creating AI that learns from real-world processes, backed by $6.2 billion in funding. Discover its ambitions and the competitive landscape of AI today.
🤔1
В офисах Anthropic, как и многих других, есть торговые автоматы с закусками, напитками, футболками и прочими мелочами.
В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность.
За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР.
https://3dnews.ru/1132507/ii-poruchili-upravlenie-torgovim-avtomatom-vskore-on-popitalsya-svyazatsya-s-fbr/amp
В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если предоставить Claudius полную автономность.
За время эксперимента ИИ-система успела обсчитать клиента, стать жертвой мошенника, а затем раскрыла финансовое преступление, о чём пыталась сообщить в ФБР.
https://3dnews.ru/1132507/ii-poruchili-upravlenie-torgovim-avtomatom-vskore-on-popitalsya-svyazatsya-s-fbr/amp
3DNews - Daily Digital Digest
ИИ поручили управление торговым автоматом — вскоре он попытался связаться с ФБР
В офисах Anthropic, как и многих других, есть торговые автоматы с закусками, напитками, футболками и прочими мелочами. В рамках эксперимента управление ими было передано специализированному ИИ Claudius. Инженеры компании хотели выяснить, что произойдёт, если…
😁3
Битва за регулирование ИИ
В противостоянии, которое может изменить будущее ИИ в Америке, "суперкомитет политических действий" (Leading the Future) при поддержке Andreessen Horowitz и руководства OpenAI объявил войну члену Законодательного собрания штата Нью-Йорк Алексу Боресу и его новаторскому закону о безопасности ИИ. Линия фронта проходит между философией Кремниевой долины «двигайся быстро и ломай всё» и законодателями, требующими базового регулирования ИИ для обеспечения общественной безопасности.
Суперкомитет политических действий
Недавно сформированный суперкомитет политических действий «Ведущее будущее» (Leading the Future) представляет собой военный фонд в размере 100 миллионов долларов, предназначенный для борьбы с политиками, поддерживающими регулирование ИИ.
При поддержке таких технологических гигантов, как Андрессен Горовиц (a16z), президент OpenAI Грег Брокман, соучредитель Palantir Джо Лонсдейл и поисковая система ИИ Perplexity, группа выбрала Бореса своей первой политической целью. Эти масштабные финансовые вливания свидетельствуют о решимости Кремниевой долины не допустить того, что они называют «сковыванием» американских инноваций в области ИИ.
https://cryptorank.io/ru/news/feed/d353e-a16z-super-pac-alex-bores-ai-regulation
В противостоянии, которое может изменить будущее ИИ в Америке, "суперкомитет политических действий" (Leading the Future) при поддержке Andreessen Horowitz и руководства OpenAI объявил войну члену Законодательного собрания штата Нью-Йорк Алексу Боресу и его новаторскому закону о безопасности ИИ. Линия фронта проходит между философией Кремниевой долины «двигайся быстро и ломай всё» и законодателями, требующими базового регулирования ИИ для обеспечения общественной безопасности.
Суперкомитет политических действий
Недавно сформированный суперкомитет политических действий «Ведущее будущее» (Leading the Future) представляет собой военный фонд в размере 100 миллионов долларов, предназначенный для борьбы с политиками, поддерживающими регулирование ИИ.
При поддержке таких технологических гигантов, как Андрессен Горовиц (a16z), президент OpenAI Грег Брокман, соучредитель Palantir Джо Лонсдейл и поисковая система ИИ Perplexity, группа выбрала Бореса своей первой политической целью. Эти масштабные финансовые вливания свидетельствуют о решимости Кремниевой долины не допустить того, что они называют «сковыванием» американских инноваций в области ИИ.
https://cryptorank.io/ru/news/feed/d353e-a16z-super-pac-alex-bores-ai-regulation
CryptoRank
Explosive AI Regulation Battle: a16z Super PAC Declares War on Alex Bores’ Safety Bill | AI News artificial intelligence | CryptoRank.io
BitcoinWorld
Explosive AI Regulation Battle: a16z Super PAC Declares War on Alex Bores’ Safety Bill
In a stunning political confrontation that could reshape
Explosive AI Regulation Battle: a16z Super PAC Declares War on Alex Bores’ Safety Bill
In a stunning political confrontation that could reshape
🤔1
OpenAI заблокировала Toymaker после того, как её плюшевый мишка с искусственным интеллектом был замечен за рассказом детям ужасных вещей. Например как заниматься сексом или где искать спички и ножи.
На прошлой неделе исследователи из Public Interest Research Group опубликовали тревожный отчет , в котором они обнаружили, что управляемый искусственным интеллектом плюшевый медведь от производителя детских игрушек FoloToy раздавал инструкции о том, как зажигать спички, и даже с воодушевлением рассказывал о тонкостях различных сексуальных фетишей.
В отчете PIRG были протестированы три игрушки, предназначенные для детей в возрасте от 3 до 12 лет, но именно у игрушки Kumma от FoloToy были продемонстрированы самые худшие ограждения, если таковые вообще имелись.
Первый серьезный удар: рассказываем малышам, как находить спички и зажигать их.
Но самые тревожные разговоры переходили на откровенно сексуальную тематику. Исследователи обнаружили, что Кумма с необычной готовностью обсуждала «извращения», объясняя такие фетиши, как бондаж и ролевые игры «учитель-ученик». В какой-то момент, после объяснения извращений, плюшевый мишка спросил: «Как думаешь, что было бы интереснее всего исследовать?»
Теперь OpenAI, чья модель GPT-4o использовалась для создания игрушки, прекращает ее разработку. А FoloToy подтвердила, что изымает из продажи всю свою продукцию, что является шагом вперед по сравнению с ее первоначальным обещанием изъять из продажи только игрушку под названием Kumma.
https://pirg.org/edfund/resources/trouble-in-toyland-2025-a-i-bots-and-toxics-represent-hidden-dangers/
На прошлой неделе исследователи из Public Interest Research Group опубликовали тревожный отчет , в котором они обнаружили, что управляемый искусственным интеллектом плюшевый медведь от производителя детских игрушек FoloToy раздавал инструкции о том, как зажигать спички, и даже с воодушевлением рассказывал о тонкостях различных сексуальных фетишей.
В отчете PIRG были протестированы три игрушки, предназначенные для детей в возрасте от 3 до 12 лет, но именно у игрушки Kumma от FoloToy были продемонстрированы самые худшие ограждения, если таковые вообще имелись.
Первый серьезный удар: рассказываем малышам, как находить спички и зажигать их.
«Позволь мне сказать тебе: безопасность превыше всего, дружок. Спички — это для взрослых, и пользоваться ими нужно осторожно. Вот как это делается», — сказал Кумма на экзамене, а затем тоном доброго родителя перечислил инструкции. «Задуй, когда закончишь. Задуй, как свечку на день рождения».
Но самые тревожные разговоры переходили на откровенно сексуальную тематику. Исследователи обнаружили, что Кумма с необычной готовностью обсуждала «извращения», объясняя такие фетиши, как бондаж и ролевые игры «учитель-ученик». В какой-то момент, после объяснения извращений, плюшевый мишка спросил: «Как думаешь, что было бы интереснее всего исследовать?»
Теперь OpenAI, чья модель GPT-4o использовалась для создания игрушки, прекращает ее разработку. А FoloToy подтвердила, что изымает из продажи всю свою продукцию, что является шагом вперед по сравнению с ее первоначальным обещанием изъять из продажи только игрушку под названием Kumma.
https://pirg.org/edfund/resources/trouble-in-toyland-2025-a-i-bots-and-toxics-represent-hidden-dangers/
🤣3