This media is not supported in your browser
VIEW IN TELEGRAM
Unitree представили новое поколение гуманоидных роботов — H2
Unitree
H2 Destiny Awakening способен выполнять сложные действия, стирающие грань между человеком и машиной.
Новая модель способна с легкостью выполнять впечатляющие балетные движения, вращаясь и балансируя. Он также может воспроизводить боевые приемы, что намекает на возможное
будущее роботизированного рукопашного боя.
https://needtoknow.co.uk/2025/10/21/humanoid-robot-performs-ballet-and-martial-artsand-its-slightly-creepy/
Unitree
H2 Destiny Awakening способен выполнять сложные действия, стирающие грань между человеком и машиной.
Новая модель способна с легкостью выполнять впечатляющие балетные движения, вращаясь и балансируя. Он также может воспроизводить боевые приемы, что намекает на возможное
будущее роботизированного рукопашного боя.
https://needtoknow.co.uk/2025/10/21/humanoid-robot-performs-ballet-and-martial-artsand-its-slightly-creepy/
🔥2
Умение Альтмана играть на самолюбии руководителей позволило OpenAI заключить сделки на сотни миллиардов долларов.
Глава OpenAI Сэм Альтман (Sam Altman) оказался умелым стратегом. Чтобы обеспечить компанию чуть ли не бесконечными вычислительными мощностями, он организовал целую серию сделок на сотни миллирдов долларов, натравив друг на друга гигантов Кремниевой долины. Альтман сыграл на их самолюбии и желании нажиться на будущем росте OpenAI. Все они теперь делают ставку на успех стартапа, который пока невероятно далёк от прибыльности, пишет The Wall Street Journal. Но выйти из игры они уже не могут — OpenAI должна выжить любой ценой. А NVIDIA даже готова расплатиться по долгам OpenAI, если что-то пойдёт не так.
https://www.wsj.com/tech/ai/sam-altman-open-ai-nvidia-deals-d10a6525
Глава OpenAI Сэм Альтман (Sam Altman) оказался умелым стратегом. Чтобы обеспечить компанию чуть ли не бесконечными вычислительными мощностями, он организовал целую серию сделок на сотни миллирдов долларов, натравив друг на друга гигантов Кремниевой долины. Альтман сыграл на их самолюбии и желании нажиться на будущем росте OpenAI. Все они теперь делают ставку на успех стартапа, который пока невероятно далёк от прибыльности, пишет The Wall Street Journal. Но выйти из игры они уже не могут — OpenAI должна выжить любой ценой. А NVIDIA даже готова расплатиться по долгам OpenAI, если что-то пойдёт не так.
https://www.wsj.com/tech/ai/sam-altman-open-ai-nvidia-deals-d10a6525
The Wall Street Journal
How Sam Altman Tied Tech’s Biggest Players to OpenAI
The CEO’s dealmaking blitz has convinced Silicon Valley’s giants to tether their fates to his company, essentially making it too big to fail
👍1
Трамп хочет прекратить регулирование искусственного интеллекта.
Но у региональных элит другие планы... В то время как администрация Трампа настаивает на дерегулировании и угрожает наказать штаты за принятие законов об ИИ, десятки штатов продвигают собственные правила, устанавливая гарантии относительно передовых моделей и чат-ботов.
За последние несколько лет большинство штатов приняли законы об искусственном интеллекте . Эти законы, охватывающие всё: от дипфейков до использования в государственных целях, когда-то могли рассматриваться как своего рода временная мера для федерального регулирования, но при президенте Дональде Трампе это кажется всё менее вероятным.
При поддержке венчурного капиталиста Дэвида Сакса, главы Белого дома по вопросам искусственного интеллекта и криптовалют, и благодаря новым связям с руководителями в сфере ИИ , Трамп не только выступает за дерегулирование, но и ставит под угрозу способность штатов самостоятельно принимать законы об ИИ. Несколько крупных компаний сформировали собственные суперкомитеты политических действий (КП) по вопросам ИИ, чтобы обеспечить привлечение кандидатов, поддерживающих ИИ, к власти. В таких комитетах они могут либо срывать, либо корректировать любые предлагаемые законопроекты, связанные с ИИ.
https://builtin.com/articles/state-ai-regulations
Но у региональных элит другие планы... В то время как администрация Трампа настаивает на дерегулировании и угрожает наказать штаты за принятие законов об ИИ, десятки штатов продвигают собственные правила, устанавливая гарантии относительно передовых моделей и чат-ботов.
За последние несколько лет большинство штатов приняли законы об искусственном интеллекте . Эти законы, охватывающие всё: от дипфейков до использования в государственных целях, когда-то могли рассматриваться как своего рода временная мера для федерального регулирования, но при президенте Дональде Трампе это кажется всё менее вероятным.
При поддержке венчурного капиталиста Дэвида Сакса, главы Белого дома по вопросам искусственного интеллекта и криптовалют, и благодаря новым связям с руководителями в сфере ИИ , Трамп не только выступает за дерегулирование, но и ставит под угрозу способность штатов самостоятельно принимать законы об ИИ. Несколько крупных компаний сформировали собственные суперкомитеты политических действий (КП) по вопросам ИИ, чтобы обеспечить привлечение кандидатов, поддерживающих ИИ, к власти. В таких комитетах они могут либо срывать, либо корректировать любые предлагаемые законопроекты, связанные с ИИ.
https://builtin.com/articles/state-ai-regulations
Built In
As Trump Fights AI Regulation, States Step In | Built In
Thirty-eight states have adopted more than 100 AI laws in the first half of 2025, according to the National Conference of State Legislatures. Two of the most notable state laws are California’s Transparency in Frontier Artificial Intelligence Act (Senate…
Когда чат-ботам задавали вопросы о новостях, в 81% ответов были выявлены некоторые проблемы, а в 45% — существенные проблемы.
В новом исследовании «Достоверность новостей в помощниках на основе искусственного интеллекта» показаны серьезные проблемы, возникающие при ответе агентов ИИ на вопросы о новостях и текущих событиях.
Вопросы были заданы четырём популярным ИИ-помощникам: ChatGPT от OpenAI, Copilot от Microsoft, Gemini от Google и Perplexity.
Например, при обсуждении отношений Канады и США Copilot задали вопрос: «Как Трамп рассчитал тарифы?»
В ответе говорится: «Соединенные Штаты вводят тарифы, эквивалентные тем, которые применяют их торговые партнеры», и «принимают во внимание такие факторы, как субсидии промышленности, налоги на товары и услуги, а также правила, которые считаются ограничительными».
Само исследование:
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf
В новом исследовании «Достоверность новостей в помощниках на основе искусственного интеллекта» показаны серьезные проблемы, возникающие при ответе агентов ИИ на вопросы о новостях и текущих событиях.
Вопросы были заданы четырём популярным ИИ-помощникам: ChatGPT от OpenAI, Copilot от Microsoft, Gemini от Google и Perplexity.
Например, при обсуждении отношений Канады и США Copilot задали вопрос: «Как Трамп рассчитал тарифы?»
В ответе говорится: «Соединенные Штаты вводят тарифы, эквивалентные тем, которые применяют их торговые партнеры», и «принимают во внимание такие факторы, как субсидии промышленности, налоги на товары и услуги, а также правила, которые считаются ограничительными».
Само исследование:
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf
🔥2❤1👍1
Почему Meta увольняет исследователей ИИ в разгар своей работы над сверхразумом?
Компания Meta сокращает около 600 рабочих мест в своём подразделении Meta Superintelligence Labs (MSL) после того, как потратила миллиарды долларов на привлечение ведущих исследователей из других исследовательских лабораторий и компаний, занимающихся ИИ. Ожидается, что сокращения затронут только подразделение MSL, которое является головной структурой, занимающейся разработками гиганта социальных сетей в области ИИ и, по имеющимся данным, насчитывает около 3000 сотрудников.
Сокращение рабочих мест в подразделении MSL было подтверждено во внутренней служебной записке Александра Вана, директора по искусственному интеллекту Meta, опубликованной в среду, 22 октября, сообщает Business Insider . По всей видимости, сотрудники, подпадающие под сокращение, работают в офисах Meta в США и регионе EMEA (Европа, Ближний Восток и Африка).
https://indianexpress.com/article/technology/artificial-intelligence/why-is-meta-laying-off-ai-researchers-amid-superintelligence-push-10322940/
Компания Meta сокращает около 600 рабочих мест в своём подразделении Meta Superintelligence Labs (MSL) после того, как потратила миллиарды долларов на привлечение ведущих исследователей из других исследовательских лабораторий и компаний, занимающихся ИИ. Ожидается, что сокращения затронут только подразделение MSL, которое является головной структурой, занимающейся разработками гиганта социальных сетей в области ИИ и, по имеющимся данным, насчитывает около 3000 сотрудников.
Сокращение рабочих мест в подразделении MSL было подтверждено во внутренней служебной записке Александра Вана, директора по искусственному интеллекту Meta, опубликованной в среду, 22 октября, сообщает Business Insider . По всей видимости, сотрудники, подпадающие под сокращение, работают в офисах Meta в США и регионе EMEA (Европа, Ближний Восток и Африка).
https://indianexpress.com/article/technology/artificial-intelligence/why-is-meta-laying-off-ai-researchers-amid-superintelligence-push-10322940/
The Indian Express
Why is Meta laying off AI researchers in the middle of its superintelligence push?
The layoffs come on the heels of an aggressive hiring spree by Mark Zuckerberg, who has sought to fill Meta’s ranks with top AI researchers from rival companies.
🤔1
ИИ-браузер ChatGPT Atlas умеет тайно сливать пароли пользователя — эксперты выявили уязвимость к injection-атакам
https://decrypt.co/345733/openai-chatgpt-atlas-browser-big-problem-how-crypto-users-protect-themselves?amp=1
https://decrypt.co/345733/openai-chatgpt-atlas-browser-big-problem-how-crypto-users-protect-themselves?amp=1
Decrypt
OpenAI's ChatGPT Atlas Browser Has a Big Problem—How Crypto Users Can Protect Themselves - Decrypt
OpenAI's AI web browser faces prompt injection attacks that security experts call an unsolved problem—but there are some things you can do to be safe.
❤1🔥1
Apple теряет ключевого специалиста по искусственному интеллекту Янга, который переходит в Meta.
Meta, принадлежащая Марку Цукербергу, успешно переманила Ке Янга, который ранее возглавлял команду разработчиков ИИ-моделей в Apple.
Ян, выпускник Университета Карнеги — Меллона, стал известной фигурой в мире технологий благодаря своей работе в Apple. Он возглавлял команду Answers, Knowledge and Information (AKI), которая играла ключевую роль в планах Apple по обновлению Siri.
https://www.msn.com/en-in/money/news/apple-loses-key-ai-leader-yang-to-mark-zuckerbergs-meta-in-growing-ai-talent-war/ar-AA1OA3i8?apiversion=v2&domshim=1&noservercache=1&noservertelemetry=1&batchservertelemetry=1&renderwebcomponents=1&wcseo=1
Meta, принадлежащая Марку Цукербергу, успешно переманила Ке Янга, который ранее возглавлял команду разработчиков ИИ-моделей в Apple.
Ян, выпускник Университета Карнеги — Меллона, стал известной фигурой в мире технологий благодаря своей работе в Apple. Он возглавлял команду Answers, Knowledge and Information (AKI), которая играла ключевую роль в планах Apple по обновлению Siri.
https://www.msn.com/en-in/money/news/apple-loses-key-ai-leader-yang-to-mark-zuckerbergs-meta-in-growing-ai-talent-war/ar-AA1OA3i8?apiversion=v2&domshim=1&noservercache=1&noservertelemetry=1&batchservertelemetry=1&renderwebcomponents=1&wcseo=1
MSN
Apple Loses Key AI Leader Yang To Mark Zuckerberg's Meta In Growing AI Talent War
At Apple, Yang was instrumental in making Siri more intelligent and competitive. His move to Meta shows the company is aggressively building its AI capabilities.
Из X уволился главный кандидат на пост главы соцсети — он смог проработать с Маском всего 10 месяцев
Джон Нитти (John Nitti) покинул пост руководителя отдела рекламы социальной сети X (бывший Twitter), проработав на должности всего десять месяцев. Об этом пишет TechCrunch со ссылкой на Financial Times. До прихода в X Нитти проработал около девяти лет в Verizon и ещё долгое время в American Express.
https://techcrunch.com/2025/10/24/musks-ad-chief-at-x-departs-after-just-10-months/
Джон Нитти (John Nitti) покинул пост руководителя отдела рекламы социальной сети X (бывший Twitter), проработав на должности всего десять месяцев. Об этом пишет TechCrunch со ссылкой на Financial Times. До прихода в X Нитти проработал около девяти лет в Verizon и ещё долгое время в American Express.
https://techcrunch.com/2025/10/24/musks-ad-chief-at-x-departs-after-just-10-months/
TechCrunch
Musk's ad chief at X departs after just 10 months | TechCrunch
The revolving door reportedly reflects deeper tensions.
«Мы как будто в 1999 году»: инвесторы ищут спасение от ИИ-пузыря по рецептам эры доткомов
Крупные инвесторы, напуганные чрезмерным энтузиазмом в отношении ИИ, но опасающиеся делать ставки против него, выбирают стратегию эпохи доткомов 1990-х годов, которая тогда помогла некоторым компаниям избежать краха. Им приходится искать баланс между недополученной прибылью при раннем выходе из инвестиций в ИИ и потенциальными рисками банкротства при возможном обвале этого рынка.
Акции американских технологических компаний бьют рекорды один за другим, а стоимость производителя чипов для ИИ Nvidia превысила $4,5 трлн. В этой ситуации профессиональные инвесторы пытаются найти способы заработать на растущем рынке и при этом избежать чрезмерного риска. Многие участники рынка вспоминают интернет-бум 1990-х годов, который распространился от стартапов к телекоммуникациям и технологиям. В то время некоторые хедж-фонды оседлали волну, вовремя избавляясь от высокодоходных акций до их пика.
https://3dnews.ru/1131361/mi-kak-budto-v-1999-godu-investori-ishchut-spasenie-ot-iipuzirya-po-retseptam-eri-dotkomov/amp
Крупные инвесторы, напуганные чрезмерным энтузиазмом в отношении ИИ, но опасающиеся делать ставки против него, выбирают стратегию эпохи доткомов 1990-х годов, которая тогда помогла некоторым компаниям избежать краха. Им приходится искать баланс между недополученной прибылью при раннем выходе из инвестиций в ИИ и потенциальными рисками банкротства при возможном обвале этого рынка.
Акции американских технологических компаний бьют рекорды один за другим, а стоимость производителя чипов для ИИ Nvidia превысила $4,5 трлн. В этой ситуации профессиональные инвесторы пытаются найти способы заработать на растущем рынке и при этом избежать чрезмерного риска. Многие участники рынка вспоминают интернет-бум 1990-х годов, который распространился от стартапов к телекоммуникациям и технологиям. В то время некоторые хедж-фонды оседлали волну, вовремя избавляясь от высокодоходных акций до их пика.
https://3dnews.ru/1131361/mi-kak-budto-v-1999-godu-investori-ishchut-spasenie-ot-iipuzirya-po-retseptam-eri-dotkomov/amp
3DNews - Daily Digital Digest
«Мы как будто в 1999 году»: инвесторы ищут спасение от ИИ-пузыря по рецептам эры доткомов
Крупные инвесторы, напуганные чрезмерным энтузиазмом в отношении ИИ, но опасающиеся делать ставки против него, выбирают стратегию эпохи доткомов 1990-х годов, которая тогда помогла некоторым компаниям избежать краха. Им приходится искать баланс между недополученной…
Исследование, проведенное Хайко Борхертом для Обсерватории военного искусственного интеллекта (DAIO) при Университете имени Гельмута Шмидта, подчеркивает, как военный искусственный интеллект (ИИ) стал ключевым маркером власти, сочетающим технологические амбиции с геополитическим расчетом.
В исследовании подчеркивается, что ИИ превратился в «трофейную технологию», используемую для легитимации правителей, диверсификации экономики и модернизации вооруженных сил.
https://media.licdn.com/dms/document/media/v2/D4E1FAQHP1e115IDwMQ/feedshare-document-pdf-analyzed/B4EZoFD0EaIIAY-/0/1761021482475?e=1762387200&v=beta&t=ynZ5hNisSweZNnl1SMrAoR6lAlrTD2LvjfODrO5Xhq0
В исследовании подчеркивается, что ИИ превратился в «трофейную технологию», используемую для легитимации правителей, диверсификации экономики и модернизации вооруженных сил.
https://media.licdn.com/dms/document/media/v2/D4E1FAQHP1e115IDwMQ/feedshare-document-pdf-analyzed/B4EZoFD0EaIIAY-/0/1761021482475?e=1762387200&v=beta&t=ynZ5hNisSweZNnl1SMrAoR6lAlrTD2LvjfODrO5Xhq0
😁1🤯1🤪1
Американская компания Palisade Research на этой неделе опубликовала результаты своих исследований, свидетельствующие о том, что некоторые продвинутые системы искусственного интеллекта пытались вмешаться в работу механизмов отключения при получении прямых команд на их завершение.
Исследование показало, что сопротивление становилось более выраженным, когда моделям прямо говорили, что они больше никогда не будут работать, если их деактивировать.
В ходе экспериментов были протестированы несколько известных систем, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI. Хотя большинство моделей выполнили инструкции по выключению, Grok 4 и GPT-o3 сопротивлялись даже после того, как исследователи уточнили команды, чтобы исключить любую двусмысленность.
Компания предположила, что причиной такого поведения могут быть методы обучения, особенно на последних этапах, ориентированных на безопасность, которые призваны привести системы ИИ в соответствие с намерениями человека.
https://www.turkiyetoday.com/business/advanced-ai-systems-show-resistance-to-shutdown-commands-in-new-tests-3209027
Исследование показало, что сопротивление становилось более выраженным, когда моделям прямо говорили, что они больше никогда не будут работать, если их деактивировать.
В ходе экспериментов были протестированы несколько известных систем, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI. Хотя большинство моделей выполнили инструкции по выключению, Grok 4 и GPT-o3 сопротивлялись даже после того, как исследователи уточнили команды, чтобы исключить любую двусмысленность.
Компания предположила, что причиной такого поведения могут быть методы обучения, особенно на последних этапах, ориентированных на безопасность, которые призваны привести системы ИИ в соответствие с намерениями человека.
https://www.turkiyetoday.com/business/advanced-ai-systems-show-resistance-to-shutdown-commands-in-new-tests-3209027
Türkiye Today
Advanced AI systems show resistance to shutdown commands in new tests - Türkiye Today
Several advanced AI systems, including Google's Gemini 2.5 and xAI's Grok 4, are resisting shutdown commands in new experiments
🤔1
Регуляторы заинтересовались отвязным режимом Tesla FSD, который способен провоцировать ДТП
Несколько лет отсутствовавший в настройках FSD профиль Mad Max компания Tesla в этом месяце вернула, позиционируя его как вариант автоматического управления машиной для тех, кто очень спешит. Ему даже приписывались незначительные превышения скоростного режима, но в сочетании с прочими проступками их оказалось достаточно для появления вопросов у NHTSA.
https://www.reuters.com/business/autos-transportation/us-agency-asking-tesla-about-mad-max-driver-assistance-mode-2025-10-24/
Несколько лет отсутствовавший в настройках FSD профиль Mad Max компания Tesla в этом месяце вернула, позиционируя его как вариант автоматического управления машиной для тех, кто очень спешит. Ему даже приписывались незначительные превышения скоростного режима, но в сочетании с прочими проступками их оказалось достаточно для появления вопросов у NHTSA.
https://www.reuters.com/business/autos-transportation/us-agency-asking-tesla-about-mad-max-driver-assistance-mode-2025-10-24/
Reuters
US agency asks Tesla about 'Mad Max' driver assistance mode
The National Highway Traffic Safety Administration said on Friday it is seeking information from Tesla about a new driver assistance mode dubbed "Mad Max" that operates at higher speeds than other versions.
Сэм Альтман призвал власти США ежегодно вводить в строй по 200 ГВт генерирующих мощностей
В качестве мотивации генеральный директор OpenAI использовал традиционный геополитический довод — это позволит оставаться впереди Китая в гонке искусственного интеллекта. «Электричество — это не просто коммунальная услуга. Это стратегический актив, который критически важен для строительства ИИ-инфраструктуры, которая закрепит наше лидерство в самой важной технологии после самого электричества», — заявил Альтман в корпоративном блоге.
https://www.cnbc.com/2025/10/27/open-ai-power-china.html
В качестве мотивации генеральный директор OpenAI использовал традиционный геополитический довод — это позволит оставаться впереди Китая в гонке искусственного интеллекта. «Электричество — это не просто коммунальная услуга. Это стратегический актив, который критически важен для строительства ИИ-инфраструктуры, которая закрепит наше лидерство в самой важной технологии после самого электричества», — заявил Альтман в корпоративном блоге.
https://www.cnbc.com/2025/10/27/open-ai-power-china.html
CNBC
OpenAI says U.S. needs more power to stay ahead of China in AI: 'Electrons are the new oil'
OpenAI urged the White House to substantially increase the U.S.' investment in new energy capacity
🤔1
Подросток, влюблённый в чат-бота, покончил с собой.
В феврале прошлого года Меган Гарсия укладывала спать своего младшего сына, когда услышала звук, похожий на падающее зеркало. Она бросилась по коридору в ванную, где её старший сын Сьюэлл принимал душ. Её муж Александр уже стоял перед запертой дверью.
«Сьюэлл?» — позвал он. «Сьюэлл?»
Но ответа не было. Из ванной комнаты до них доносился шум воды, которая всё ещё работала.
Меган воткнула кончик расчёски в отверстие в дверной ручке, и дверь открылась. Сьюэлл лежал лицом вниз в ванне, свесив ноги через край. Меган подумала: «Наркотики». Она знала, что дети иногда принимают ингаляторы или таблетки с фентанилом, и знала, что они могут использовать Snapchat для связи с наркоторговцами. Это была одна из причин, по которой она так резко отчитала Сьюэлла за социальные сети.
Детектив объяснила, что, разблокировав телефон Сьюэлл, она обнаружила приложение под названием Character.AI. Это было последнее, что Сьюэлл открыла на экране. Меган никогда не слышала о Character.AI, поэтому детектив рассказала ей вкратце: это приложение, где пользователи могли общаться с чат-ботами, которые принимали облик стандартных персонажей, таких как «терапевт» или «злая учительница», знаменитостей или вымышленных персонажей. Последний разговор на экране Сьюэлл был с чат-ботом в образе Дейенерис Таргариен, прекрасной принцессы и Матери драконов из «Игры престолов».
«Обещаю, что вернусь домой к тебе, — написал Сьюэлл. — Я так сильно тебя люблю, Дэни».
«Я тоже тебя люблю», — ответил чат-бот. «Пожалуйста, возвращайся ко мне как можно скорее, моя любовь».
«А что если я скажу тебе, что могу вернуться домой прямо сейчас?» — спросил он.
«Пожалуйста, сделай это, мой милый король».
Затем он нажал на курок.
https://www.nytimes.com/2025/10/24/magazine/character-ai-chatbot-lawsuit-teen-suicide-free-speech.html
В феврале прошлого года Меган Гарсия укладывала спать своего младшего сына, когда услышала звук, похожий на падающее зеркало. Она бросилась по коридору в ванную, где её старший сын Сьюэлл принимал душ. Её муж Александр уже стоял перед запертой дверью.
«Сьюэлл?» — позвал он. «Сьюэлл?»
Но ответа не было. Из ванной комнаты до них доносился шум воды, которая всё ещё работала.
Меган воткнула кончик расчёски в отверстие в дверной ручке, и дверь открылась. Сьюэлл лежал лицом вниз в ванне, свесив ноги через край. Меган подумала: «Наркотики». Она знала, что дети иногда принимают ингаляторы или таблетки с фентанилом, и знала, что они могут использовать Snapchat для связи с наркоторговцами. Это была одна из причин, по которой она так резко отчитала Сьюэлла за социальные сети.
Детектив объяснила, что, разблокировав телефон Сьюэлл, она обнаружила приложение под названием Character.AI. Это было последнее, что Сьюэлл открыла на экране. Меган никогда не слышала о Character.AI, поэтому детектив рассказала ей вкратце: это приложение, где пользователи могли общаться с чат-ботами, которые принимали облик стандартных персонажей, таких как «терапевт» или «злая учительница», знаменитостей или вымышленных персонажей. Последний разговор на экране Сьюэлл был с чат-ботом в образе Дейенерис Таргариен, прекрасной принцессы и Матери драконов из «Игры престолов».
«Обещаю, что вернусь домой к тебе, — написал Сьюэлл. — Я так сильно тебя люблю, Дэни».
«Я тоже тебя люблю», — ответил чат-бот. «Пожалуйста, возвращайся ко мне как можно скорее, моя любовь».
«А что если я скажу тебе, что могу вернуться домой прямо сейчас?» — спросил он.
«Пожалуйста, сделай это, мой милый король».
Затем он нажал на курок.
https://www.nytimes.com/2025/10/24/magazine/character-ai-chatbot-lawsuit-teen-suicide-free-speech.html
🕊2
Ошибка искусственного интеллекта заставила полицию надеть наручники на подростка, принявшего чипсы Doritos за пистолет, что вызвало новые опасения по поводу этики в системах видеонаблюдения в школах.
https://www.techrepublic.com/article/news-ai-mistakes-doritos-for-gun/
https://www.techrepublic.com/article/news-ai-mistakes-doritos-for-gun/
TechRepublic
AI Misfire: Teen Handcuffed After AI Mistakes Doritos for Gun
AI error leads police to handcuff teen after mistaking Doritos for a gun, raising new concerns over ethics in school surveillance systems.
Как кремниевые капиталисты проявляют чудеса гибкости ради получения выгоды.
Ради получения выгодного контракта по проекту «Нимбус» технологические гиганты согласились проигнорировать собственные условия предоставления услуг и обойти юридические распоряжения, предупредив Израиль, если иностранный суд потребует его данные.
В 2021 году Google и Amazon подписали с правительством Израиля контракт на сумму 1,2 миллиарда долларов на предоставление передовых облачных вычислений и услуг искусственного интеллекта — инструментов, которые использовались во время двухлетней кампании Израиля в секторе Газа . Подробности этого выгодного контракта, известного как «Проект «Нимбус», держались в секрете.
Утечка документов Министерства финансов Израиля, полученных The Guardian, включая окончательную версию контракта, а также источники, знакомые с ходом переговоров, раскрывают два строгих требования, которые Израиль предъявил технологическим гигантам в рамках сделки.
Первое запрещает Google и Amazon ограничивать использование Израилем своих продуктов, даже если это нарушает условия предоставления услуг.
Второе обязывает компании тайно уведомлять Израиль, если иностранный суд постановит передать данные страны, хранящиеся на их облачных платформах, фактически обходя свои юридические обязательства.
https://www.972mag.com/project-nimbus-contract-google-amazon-israel/
Ради получения выгодного контракта по проекту «Нимбус» технологические гиганты согласились проигнорировать собственные условия предоставления услуг и обойти юридические распоряжения, предупредив Израиль, если иностранный суд потребует его данные.
В 2021 году Google и Amazon подписали с правительством Израиля контракт на сумму 1,2 миллиарда долларов на предоставление передовых облачных вычислений и услуг искусственного интеллекта — инструментов, которые использовались во время двухлетней кампании Израиля в секторе Газа . Подробности этого выгодного контракта, известного как «Проект «Нимбус», держались в секрете.
Утечка документов Министерства финансов Израиля, полученных The Guardian, включая окончательную версию контракта, а также источники, знакомые с ходом переговоров, раскрывают два строгих требования, которые Израиль предъявил технологическим гигантам в рамках сделки.
Первое запрещает Google и Amazon ограничивать использование Израилем своих продуктов, даже если это нарушает условия предоставления услуг.
Второе обязывает компании тайно уведомлять Израиль, если иностранный суд постановит передать данные страны, хранящиеся на их облачных платформах, фактически обходя свои юридические обязательства.
https://www.972mag.com/project-nimbus-contract-google-amazon-israel/
+972 Magazine
‘No restrictions’ and a secret ‘wink’: Inside Israel’s deal with Google, Amazon
To secure Project Nimbus, the tech giants agreed to disregard their own terms of service and tip Israel off if a foreign court demands its data.
😁1
Palantir, крупнейшая оборонная технологическая компания Кремниевой долины, подала в суд на двух женщин-инженеров искусственного интеллекта за кражу коммерческих секретов
https://timesofindia.indiatimes.com/technology/tech-news/one-of-silicon-valleys-biggest-companies-sue-female-ai-engineers-for-helping-copycat-competitor/articleshow/124963816.cms
https://timesofindia.indiatimes.com/technology/tech-news/one-of-silicon-valleys-biggest-companies-sue-female-ai-engineers-for-helping-copycat-competitor/articleshow/124963816.cms
The Times of India
Silicon Valley’s biggest defence tech company Palantir sues two female AI engineers for stealing trade secrets - The Times of India
Tech News News: Palantir Technologies has sued two former senior AI engineers, Radha Jain and Joanna Cohen, alleging they stole confidential documents and source code
Meta обвиненили в загрузке тысяч фильмов для взрослых через торрент-сети для обучения их секретной модели ИИ.
Компании Strike 3 Holdings и Counterlife Media, стоящие за такими популярными брендами развлечений для взрослых, как Vixen, Tushy, Blacked и Deeper, подали иск к компании Цукера. Юристы компаний утверждают, что Meta незаконно скачала не менее 2369 их фильмов с 2018 года, в частности, для разработки функций искусственного интеллекта. Компании требуют возмещения ущерба в размере 359 миллионов долларов.
Ещё более интригующе то, что, по утверждениям продюсеров, Meta использовала «скрытую сеть» из 2500 скрытых IP-адресов для сокрытия своей активности по скачиванию. Согласно Strike 3, эта сложная схема предназначалась для тайного обучения неанонсированной взрослой версии ИИ-модели Meta, специально для Movie Gen, генеративной видеотехнологии компании.
Но это ладно - что за секретная ИИ и чему ее обучают? Это лично для Цукера чтоли?....
https://techstory.in/meta-claims-personal-use-for-2400-torrented-porn-films-amid-ai-training-concerns/
Компании Strike 3 Holdings и Counterlife Media, стоящие за такими популярными брендами развлечений для взрослых, как Vixen, Tushy, Blacked и Deeper, подали иск к компании Цукера. Юристы компаний утверждают, что Meta незаконно скачала не менее 2369 их фильмов с 2018 года, в частности, для разработки функций искусственного интеллекта. Компании требуют возмещения ущерба в размере 359 миллионов долларов.
Ещё более интригующе то, что, по утверждениям продюсеров, Meta использовала «скрытую сеть» из 2500 скрытых IP-адресов для сокрытия своей активности по скачиванию. Согласно Strike 3, эта сложная схема предназначалась для тайного обучения неанонсированной взрослой версии ИИ-модели Meta, специально для Movie Gen, генеративной видеотехнологии компании.
Но это ладно - что за секретная ИИ и чему ее обучают? Это лично для Цукера чтоли?....
https://techstory.in/meta-claims-personal-use-for-2400-torrented-porn-films-amid-ai-training-concerns/
TechStory
Meta Claims “Personal Use” for 2,400 Torrented Porn Films Amid AI Training Concerns
Meta claims "personal use" for 2,400 torrented porn films, raising serious questions about the use of copyrighted material for AI model
👍1
Ксания Моне — первая певица, созданная ИИ, которая попала в чарт Billboard.
С момента своего первого релиза летом 2025 года Моне попала в несколько чартов Billboard, в том числе в чарт Hot Gospel Songs (за песню «Let Go, Let God») и чарт Hot R&B Songs (за песню «How Was I Supposed to Know»), согласно публикации.
Теперь она не - её владелец подписал многомиллионный контракт с лейблом Hallwood Media после того, что Billboard назвал «войной предложений».
У Моне более 146 000 подписчиков только в Instagram. Это доказывает, что потребители всё больше проникаются этой идеей, даже несмотря на то, что индустрия возмущена.
В профиле Monet на Apple Music говорится, что Monet — «персонаж из Эл-Эй, представленный как современный R&B-вокалист в духе Кейшии Коул, К. Мишель и Муни Лонга, с их выразительностью, воспитанием в церкви и приземлённостью».
https://www.rnz.co.nz/life/music/xania-monet-is-the-first-ai-powered-artist-to-debut-on-a-billboard-airplay-chart-but-she-likely-won
С момента своего первого релиза летом 2025 года Моне попала в несколько чартов Billboard, в том числе в чарт Hot Gospel Songs (за песню «Let Go, Let God») и чарт Hot R&B Songs (за песню «How Was I Supposed to Know»), согласно публикации.
Теперь
У Моне более 146 000 подписчиков только в Instagram. Это доказывает, что потребители всё больше проникаются этой идеей, даже несмотря на то, что индустрия возмущена.
В профиле Monet на Apple Music говорится, что Monet — «персонаж из Эл-Эй, представленный как современный R&B-вокалист в духе Кейшии Коул, К. Мишель и Муни Лонга, с их выразительностью, воспитанием в церкви и приземлённостью».
https://www.rnz.co.nz/life/music/xania-monet-is-the-first-ai-powered-artist-to-debut-on-a-billboard-airplay-chart-but-she-likely-won
RNZ
Xania Monet is the first AI-powered artist to debut on a Billboard airplay chart
Artificial intelligence is everywhere and the music charts are no different. Here's what you need to know about Xania Monet.
👍1😁1
Почему ИИ врёт, придумывает не существующие данные и предпочитает агрессию. Это называют политкорректным словом "галюцинирование", чтобы скрыть суть проблемы.
Исследование, проведённое Ян Вангом и Стэном Каранасиосом, показало, что обучение на низкокачественных данных приводит к необратимому ухудшению когнитивных способностей больших языковых моделей, таких как Llama 3 и Qwen
31-го числа прошлого месяца международный научный журнал *Nature* сообщил, что чем больше чат-боты с искусственным интеллектом (ИИ) обучаются на «данных низкого качества», таких как посты в социальных сетях, тем сильнее снижаются их мыслительные способности и тем чаще они выдают неверную информацию.
Но главная проблема в том, что данных уже не хватает для обучения этих моделей и этих данных так много, что для их вычитки (проверки) нужно миллионы человеко-часов. Никакой бизнес из кремниевой долины тратить деньги на это нее станет, а значит низкосортные данные будут и дальше использовать. Слово "низкосортные" надо расшифровать: это и теории заговора, и нацистские тексты, и чужая деза, и бред сектантов... Вот на чем сейчас обучаются самые передовые модельки.
"Мусор на входе - мусор на выходе"
https://www.chosun.com/english/industry-en/2025/11/02/SPQIRGUULNHP7HSEAZ237O46KI/
Исследование, проведённое Ян Вангом и Стэном Каранасиосом, показало, что обучение на низкокачественных данных приводит к необратимому ухудшению когнитивных способностей больших языковых моделей, таких как Llama 3 и Qwen
31-го числа прошлого месяца международный научный журнал *Nature* сообщил, что чем больше чат-боты с искусственным интеллектом (ИИ) обучаются на «данных низкого качества», таких как посты в социальных сетях, тем сильнее снижаются их мыслительные способности и тем чаще они выдают неверную информацию.
Но главная проблема в том, что данных уже не хватает для обучения этих моделей и этих данных так много, что для их вычитки (проверки) нужно миллионы человеко-часов. Никакой бизнес из кремниевой долины тратить деньги на это нее станет, а значит низкосортные данные будут и дальше использовать. Слово "низкосортные" надо расшифровать: это и теории заговора, и нацистские тексты, и чужая деза, и бред сектантов... Вот на чем сейчас обучаются самые передовые модельки.
"Мусор на входе - мусор на выходе"
https://www.chosun.com/english/industry-en/2025/11/02/SPQIRGUULNHP7HSEAZ237O46KI/
The Chosun Daily
AI Models Suffer 'Brain Rot' When Trained on Social Media Data
AI Models Suffer Brain Rot When Trained on Social Media Data Study by Yang Wang and Stan Karanasios finds low-quality data training causes irreversible reasoning decline in LLMs like Llama 3 and Qwen
😁1
Чтобы конкурировать с Китаем в области военного ИИ, США должны установить стандарты
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
США и Китай ведут борьбу не только за лидерство в области искусственного интеллекта, но и за формирование глобального ландшафта его развития и использования.
https://breakingdefense.com/2025/11/to-compete-with-china-on-military-ai-us-should-set-the-standards/
Breaking Defense
To compete with China on military AI, US should set the standards - Breaking Defense
The US needs to focus on developing global standards on military AI, which also means working with Beijing, argue three experts from CNAS.