Компания Илона Маска по разработке искусственного интеллекта xAI подала федеральный иск против OpenAI, обвинив её в систематической краже коммерческой тайны путём незаконного переманивания бывших сотрудников xAI.
xAI утверждает, что OpenAI вынудила этих сотрудников нарушить соглашения о конфиденциальности, заявляя, что конкурирующая компания стремится получить нечестное преимущество в напряжённой гонке за разработкой продвинутого ИИ. В иске упоминаются бывшие инженеры xAI Сюэчэнь Ли и Джимми Фрэйтер, а также старший финансовый директор, которых обвиняют в том, что они взяли с собой конфиденциальную информацию на свои новые должности в OpenAI.
OpenAI обвиняется в целенаправленном преследовании лиц, хорошо знакомых с запатентованными технологиями xAI, включая исходный код и операционные преимущества чат-бота Grok, а также стратегические бизнес-планы для центров обработки данных.
https://markets.financialcontent.com/wral/article/marketminute-2025-9-26-musks-xai-sues-openai-for-alleged-trade-secret-theft-igniting-high-stakes-ai-legal-war
xAI утверждает, что OpenAI вынудила этих сотрудников нарушить соглашения о конфиденциальности, заявляя, что конкурирующая компания стремится получить нечестное преимущество в напряжённой гонке за разработкой продвинутого ИИ. В иске упоминаются бывшие инженеры xAI Сюэчэнь Ли и Джимми Фрэйтер, а также старший финансовый директор, которых обвиняют в том, что они взяли с собой конфиденциальную информацию на свои новые должности в OpenAI.
OpenAI обвиняется в целенаправленном преследовании лиц, хорошо знакомых с запатентованными технологиями xAI, включая исходный код и операционные преимущества чат-бота Grok, а также стратегические бизнес-планы для центров обработки данных.
https://markets.financialcontent.com/wral/article/marketminute-2025-9-26-musks-xai-sues-openai-for-alleged-trade-secret-theft-igniting-high-stakes-ai-legal-war
🤷♂1
Новые ИИ-айфоны делают РАБЫ
Вышло расследование, которое раскрывает жуткие подробности с производства модных гаджетов.
Бедные работяги трудятся по 12-15 часов в день без выходных, а получают лишь по 2100 до 2400 юаней в месяц (~ от 24 до 28 тысяч рублей).
Самая жесть: ТОТАЛЬНАЯ слежка — камеры стоят даже в спальнях. Заводы следят за каждый движением бедолаг. Так же издание отмечает дискриминацию по региональному и этническому признакам.
https://www.ft.com/content/41f72a09-a129-44a6-ada4-74f3f6db80f9
Вышло расследование, которое раскрывает жуткие подробности с производства модных гаджетов.
Бедные работяги трудятся по 12-15 часов в день без выходных, а получают лишь по 2100 до 2400 юаней в месяц (~ от 24 до 28 тысяч рублей).
Самая жесть: ТОТАЛЬНАЯ слежка — камеры стоят даже в спальнях. Заводы следят за каждый движением бедолаг. Так же издание отмечает дискриминацию по региональному и этническому признакам.
https://www.ft.com/content/41f72a09-a129-44a6-ada4-74f3f6db80f9
Ft
Inside China’s mega iPhone factory: long hours, discrimination and delayed pay
Undercover investigation at Foxconn’s Zhengzhou plant shows tough conditions for seasonal staff building new Apple device
😱1
Продолжение «Социальной сети» про Марка Цукерберга выйдет в 2026 году — фильм получил название «Социальный расчёт».
Режиссёром и сценаристом выступит Аарон Соркин, а роль Цукерберга исполнит Джереми Стронг.
Sony Pictures объявила дату выхода фильма «Социальный расчёт» (“The Social Reckoning”) — 9 октября 2026 года, пишет The Variety. Это продолжение фильма 2010 года «Социальная сеть» по сценарию Аарона Соркина о создании Facebook*.
Режиссёром и сценаристом выступит Аарон Соркин, а роль Цукерберга исполнит Джереми Стронг.
Sony Pictures объявила дату выхода фильма «Социальный расчёт» (“The Social Reckoning”) — 9 октября 2026 года, пишет The Variety. Это продолжение фильма 2010 года «Социальная сеть» по сценарию Аарона Соркина о создании Facebook*.
Президент ОАЭ встречается с генеральным директором OpenAI Сэмом Альтманом для активизации сотрудничества в области ИИ.
Объединённые Арабские Эмираты (ОАЭ) усиливают свои амбиции стать глобальным центром искусственного интеллекта, инвестируя миллиарды долларов в передовые технологии и международное партнёрство.
В субботу президент ОАЭ шейх Мухаммед бен Заид Аль Нахайян встретился в Абу-Даби с генеральным директором OpenAI Сэмом Альтманом, чтобы обсудить новые возможности сотрудничества, сообщает государственное информационное агентство.
https://www.econotimes.com/UAE-President-Meets-OpenAI-CEO-Sam-Altman-to-Boost-AI-Collaboration-1721774
Объединённые Арабские Эмираты (ОАЭ) усиливают свои амбиции стать глобальным центром искусственного интеллекта, инвестируя миллиарды долларов в передовые технологии и международное партнёрство.
В субботу президент ОАЭ шейх Мухаммед бен Заид Аль Нахайян встретился в Абу-Даби с генеральным директором OpenAI Сэмом Альтманом, чтобы обсудить новые возможности сотрудничества, сообщает государственное информационное агентство.
https://www.econotimes.com/UAE-President-Meets-OpenAI-CEO-Sam-Altman-to-Boost-AI-Collaboration-1721774
EconoTimes
UAE President Meets OpenAI CEO Sam Altman to Boost AI Collaboration
The United Arab Emirates (UAE) is intensifying its ambition to become a global hub for artificial intelligence, investing billions into cutting-edge technology and international partnerships. On Saturday, UAE President...
Измерение технологической конвергенции с помощью искусственного интеллекта использует неоднородные графы для определения двумерного индекса
Сымин Дэн, Жуньсун Цзя и Чуньцзюань Луань из Даляньского технологического университета, совместно с Мэнцзя У и И Чжаном, решают эту проблему, разрабатывая новый подход к количественной оценке конвергенции как по глубине, так и по широте.
Их исследование представляет индекс технологической конвергенции (TCI), который использует передовые методы искусственного интеллекта, в частности, преобразователи гетерогенных графов и семантическое обучение, для анализа патентных данных и выявления того, как знания интегрируются в различных областях.
https://quantumzeitgeist.com/ai-enhanced-measurement-technological-convergence-uses-heterogeneous-graphs-define/
Сымин Дэн, Жуньсун Цзя и Чуньцзюань Луань из Даляньского технологического университета, совместно с Мэнцзя У и И Чжаном, решают эту проблему, разрабатывая новый подход к количественной оценке конвергенции как по глубине, так и по широте.
Их исследование представляет индекс технологической конвергенции (TCI), который использует передовые методы искусственного интеллекта, в частности, преобразователи гетерогенных графов и семантическое обучение, для анализа патентных данных и выявления того, как знания интегрируются в различных областях.
https://quantumzeitgeist.com/ai-enhanced-measurement-technological-convergence-uses-heterogeneous-graphs-define/
🔥1🤯1
‼️ Как в Кремниевой долине решают вопросы - и вот эти люди обучают ИИ, который должен что-то решать за нас. Терминатор всё ближе.
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
NY Times
Former OpenAI Researcher Says the Company Broke Copyright Law
Suchir Balaji helped gather and organize the enormous amounts of internet data used to train the startup’s ChatGPT chatbot.
😢2🤬1
Among Us раскрыл характеры ИИ-моделей.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
Недавнее исследование Mandarin /Liquid, посвященное отношению государственных служащих к ИИ, показало, что госслужащие настроены более оптимистично по отношению к ИИ, чем население в целом: 84% заявили, что лично готовы использовать его в своей работе.
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
The Mandarin
Mind the gap: Why government leaders must become better enablers of AI and how to do it
Public servants want to use AI, but without proper leadership, the fear of failure is too great. Here's how that can change.
🤔1
Что думает ИИ втайне
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Tech Xplore
AI systems can easily lie and deceive us—a fact researchers are painfully aware of
In the classic film "2001: A Space Odyssey," astronaut Dave Bowman asks the ship's artificial intelligence, HAL 9000, to open the pod bay doors to let him back into the spaceship. HAL refuses: "I'm sorry, ...
🤔1
«Искусственный интеллект может изменить миллион рабочих мест в Лондоне»
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Bbc
'A million jobs in London could be changed by AI'
The jobs most at risk include telemarketing, bookkeeping and data entry, according to research.
💯1
Казахстанской армии предоставили психолога с искусственным интеллектом
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
Zamin
The Kazakh army was provided with an artificial intelligence psychologist.
AI-sulu, a virtual psychologist working on artificial intelligence, has been introduced for the first time in the military system of Kazakhstan, reports @sputnikKZ. This innovative initiative aims to ensure the mental stability of soldiers in the army and…
Правоохранительные органы используют ИИ для синтеза доказательств.))))
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
therecord.media
Law enforcement is using AI to synthesize evidence. Is the justice system ready for it?
Busy law enforcement agencies are trying out AI platforms that process large amounts of evidence to help officers build cases. Experts say there are potential dangers for everyone involved.
Китай приостанавливает закупки чипов Nvidia: Главный регулятор интернета Китая (CAC), как сообщается, приказал крупным технологическим компаниям, включая Alibaba и ByteDance, прекратить закупки и тестирование новейших высокопроизводительных чипов Nvidia для искусственного интеллекта (RTX 6000D ), фактически запретив передовые графические процессоры Nvidia в Китае .
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
TechStock²
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War - TechStock²
👍4👏1
Губернатор Калифорнии Гэвин Ньюсом подписал закон о безопасности ИИ
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
🤔6
Ставка Walmart на искусственный интеллект может снова способствовать росту производительности в США
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
The Wall Street Journal
Walmart CEO Issues Wake-Up Call: ‘AI Is Going to Change Literally Every Job’
The country’s largest private employer says its head count will stay flat over the next three years, despite plans to grow, as AI eliminates some roles and transforms others.
🤔1
ИИ съел мою домашнюю работу: мой опыт работы с университетским набором инструментов ИИ
Все мы знаем, что ИИ в учебе — это плохо. Верно?
То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.
Верно?
Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».
Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.
https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
Все мы знаем, что ИИ в учебе — это плохо. Верно?
То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.
Верно?
Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».
Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.
https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
The Michigan Daily
AI ate my homework: My experience with the University’s AI toolkit
I don’t understand AI enough to properly dislike it. And I’m curious as to why the University is pushing this tool so much if it inherently devalues learning. So I immersed myself in artificial intelligence for one week.
❤4
Google внедряет защиту от программ-вымогателей на базе искусственного интеллекта в Drive для компьютеров.
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/
Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/
Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
Techloy
Google brings AI-powered ransomware defense to Drive for Desktop
It could stop attacks midstream, pausing file syncing after only a few corrupted files and letting you roll everything back to safety in a few clicks.
👍2
Человечество может потерять контроль над искусственным интеллектом, и он случайно может захватить мир, заявил глава OpenAI Сэм Альтман
По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.
— добавил Альтман.
В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.
«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.
«Предположим, модель становится все умнее и умнее, дает вам советы, которым вы почти всегда следуете. Потом она становится еще умнее. И теперь дает вам советы, которые вы даже не понимаете, но они оказываются правильными. И в итоге у вас выбор: либо следовать, либо проигрывать в конкуренции»,
— добавил Альтман.
В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.
«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
🔥2😁1
«Мой сын искренне верил, что это реально»: родители разрешают маленьким детям играть с искусственным интеллектом.
Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...
Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.
Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.
Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.
https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...
Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.
Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.
Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.
https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
the Guardian
‘My son genuinely believed it was real’: Parents are letting little kids play with AI. Are they wrong?
Some believe AI can spark their child’s imagination through personalized stories and generative images. Scientists are wary of its effect on creativity
🤔5
Компания Meta усиливает контроль над своей исследовательской лабораторией ИИ , вводя новый процесс рецензирования научных статей. Это вызвало сильное внутреннее недовольство.
Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .
Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ .
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .
Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ .
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
WinBuzzer
Meta Tightens Grip on AI Research, Sparking Internal Anger and Fears for Open Culture
Meta's new review process for its FAIR AI lab has angered researchers, with Chief AI Scientist Yann LeCun reportedly considering resignation amid chaotic restructuring.
🤓2
Страдает ли Трамп деменцией? Искусственный интеллект Google обвиняют в цензурировании результатов поиска по вопросам психического здоровья
Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.
Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.
https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.
Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.
https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
Bangla news
Does Trump Have Dementia? Google AI Accused of Censoring Mental Health Search Results
Is Trump showing signs of dementia? Find out why Google’s AI search results are being accused of bias and what this means for mental health information online.
😁4