‼️ Как в Кремниевой долине решают вопросы - и вот эти люди обучают ИИ, который должен что-то решать за нас. Терминатор всё ближе.
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
NY Times
Former OpenAI Researcher Says the Company Broke Copyright Law
Suchir Balaji helped gather and organize the enormous amounts of internet data used to train the startup’s ChatGPT chatbot.
😢2🤬1
Among Us раскрыл характеры ИИ-моделей.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
Недавнее исследование Mandarin /Liquid, посвященное отношению государственных служащих к ИИ, показало, что госслужащие настроены более оптимистично по отношению к ИИ, чем население в целом: 84% заявили, что лично готовы использовать его в своей работе.
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
The Mandarin
Mind the gap: Why government leaders must become better enablers of AI and how to do it
Public servants want to use AI, but without proper leadership, the fear of failure is too great. Here's how that can change.
🤔1
Что думает ИИ втайне
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Tech Xplore
AI systems can easily lie and deceive us—a fact researchers are painfully aware of
In the classic film "2001: A Space Odyssey," astronaut Dave Bowman asks the ship's artificial intelligence, HAL 9000, to open the pod bay doors to let him back into the spaceship. HAL refuses: "I'm sorry, ...
🤔1
«Искусственный интеллект может изменить миллион рабочих мест в Лондоне»
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Bbc
'A million jobs in London could be changed by AI'
The jobs most at risk include telemarketing, bookkeeping and data entry, according to research.
💯1
Казахстанской армии предоставили психолога с искусственным интеллектом
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
Zamin
The Kazakh army was provided with an artificial intelligence psychologist.
AI-sulu, a virtual psychologist working on artificial intelligence, has been introduced for the first time in the military system of Kazakhstan, reports @sputnikKZ. This innovative initiative aims to ensure the mental stability of soldiers in the army and…
Правоохранительные органы используют ИИ для синтеза доказательств.))))
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
therecord.media
Law enforcement is using AI to synthesize evidence. Is the justice system ready for it?
Busy law enforcement agencies are trying out AI platforms that process large amounts of evidence to help officers build cases. Experts say there are potential dangers for everyone involved.
Китай приостанавливает закупки чипов Nvidia: Главный регулятор интернета Китая (CAC), как сообщается, приказал крупным технологическим компаниям, включая Alibaba и ByteDance, прекратить закупки и тестирование новейших высокопроизводительных чипов Nvidia для искусственного интеллекта (RTX 6000D ), фактически запретив передовые графические процессоры Nvidia в Китае .
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
TechStock²
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War - TechStock²
👍4👏1
Губернатор Калифорнии Гэвин Ньюсом подписал закон о безопасности ИИ
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
🤔6
Ставка Walmart на искусственный интеллект может снова способствовать росту производительности в США
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
The Wall Street Journal
Walmart CEO Issues Wake-Up Call: ‘AI Is Going to Change Literally Every Job’
The country’s largest private employer says its head count will stay flat over the next three years, despite plans to grow, as AI eliminates some roles and transforms others.
🤔1
ИИ съел мою домашнюю работу: мой опыт работы с университетским набором инструментов ИИ
Все мы знаем, что ИИ в учебе — это плохо. Верно?
То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.
Верно?
Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».
Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.
https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
Все мы знаем, что ИИ в учебе — это плохо. Верно?
То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.
Верно?
Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».
Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.
https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
The Michigan Daily
AI ate my homework: My experience with the University’s AI toolkit
I don’t understand AI enough to properly dislike it. And I’m curious as to why the University is pushing this tool so much if it inherently devalues learning. So I immersed myself in artificial intelligence for one week.
❤4
Google внедряет защиту от программ-вымогателей на базе искусственного интеллекта в Drive для компьютеров.
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/
Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/
Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
Techloy
Google brings AI-powered ransomware defense to Drive for Desktop
It could stop attacks midstream, pausing file syncing after only a few corrupted files and letting you roll everything back to safety in a few clicks.
👍2
Человечество может потерять контроль над искусственным интеллектом, и он случайно может захватить мир, заявил глава OpenAI Сэм Альтман
По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.
— добавил Альтман.
В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.
«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.
«Предположим, модель становится все умнее и умнее, дает вам советы, которым вы почти всегда следуете. Потом она становится еще умнее. И теперь дает вам советы, которые вы даже не понимаете, но они оказываются правильными. И в итоге у вас выбор: либо следовать, либо проигрывать в конкуренции»,
— добавил Альтман.
В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.
«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
🔥2😁1
«Мой сын искренне верил, что это реально»: родители разрешают маленьким детям играть с искусственным интеллектом.
Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...
Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.
Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.
Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.
https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...
Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.
Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.
Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.
https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
the Guardian
‘My son genuinely believed it was real’: Parents are letting little kids play with AI. Are they wrong?
Some believe AI can spark their child’s imagination through personalized stories and generative images. Scientists are wary of its effect on creativity
🤔5
Компания Meta усиливает контроль над своей исследовательской лабораторией ИИ , вводя новый процесс рецензирования научных статей. Это вызвало сильное внутреннее недовольство.
Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .
Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ .
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .
Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ .
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
WinBuzzer
Meta Tightens Grip on AI Research, Sparking Internal Anger and Fears for Open Culture
Meta's new review process for its FAIR AI lab has angered researchers, with Chief AI Scientist Yann LeCun reportedly considering resignation amid chaotic restructuring.
🤓2
Страдает ли Трамп деменцией? Искусственный интеллект Google обвиняют в цензурировании результатов поиска по вопросам психического здоровья
Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.
Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.
https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.
Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.
https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
Bangla news
Does Trump Have Dementia? Google AI Accused of Censoring Mental Health Search Results
Is Trump showing signs of dementia? Find out why Google’s AI search results are being accused of bias and what this means for mental health information online.
😁4
Доминирование в принятии решений зависит от скорости выполнения цикла понимания, визуализации, руководства и оценки.
При этом сегодня недостатка информации нет, есть ее избыток и это настоящая проблема. Поиск и проверка этой информации вручную отнимают драгоценное время. На войне время — это ресурс, который нельзя тратить впустую.
Представьте себе командира на поле боя, где каждая секунда — на грани между победой и катастрофой. Одно промедление с решением, одна ошибка — и жизни потеряны, миссии сорваны, исход войны смещен. Это и есть доминирование в принятии решений, способность понимать, принимать решения и действовать быстрее противника.
ИИ обладает потенциалом трансформации. Объединяя данные радаров в режиме реального времени, данные из открытых источников, потоки социальных сетей, базы данных логистики и другие источники, агентная система могла бы мгновенно предоставлять чёткую информацию о состоянии взлётно-посадочных полос польских аэродромов, пропускной способности и состоянии инфраструктуры без недельных задержек. То, что раньше требовало трудоёмкой разведки, теперь можно сжать до нескольких секунд, обеспечивая понимание ситуации со скоростью, необходимой для современных конфликтов. Способность понимать ситуацию быстрее противника — это первый шаг к превосходству в принятии решений.
Командиры также должны визуализировать ход боя, преодолевая сложности и представляя себе конечный результат до первого хода. Этот этап часто требует времени и размышлений, но в современной войне времени мало. ИИ даёт преимущество: обрабатывая огромные объёмы данных, выдавая рекомендации и проверяя предположения, визуализация может быть достигнута быстрее и с большей чёткостью, ускоряя планирование и обеспечивая превосходство в принятии решений.
Режиссура — это процесс, где понимание превращается в действие. Речь идёт о решительном принятии решений, адаптации к давлению и превращении возможностей в результаты. Визуализация помогает определить варианты, а режиссура превращает понимание в результаты. И тут ИИ может оказать серьезную помощь.
Командир приводит планы в действия на поле боя, но исполнение приказов без контроля неполное. Оценка гарантирует реализацию планов. Это не разовое мероприятие, а непрерывный цикл оценки действий, выявления пробелов и улучшений, даже когда никто не жалуется. Вновь ИИ способен значительно ускорить эти процессы.
Сегодня меняется не важность цикла, а скорость, с которой он должен быть выполнен. Противники уже используют ИИ и цифровые сети для ускорения собственных процессов принятия решений, сжимая сроки и повышая ставки.
https://smallwarsjournal.com/2025/10/03/agentic-ai-decision-dominance/
При этом сегодня недостатка информации нет, есть ее избыток и это настоящая проблема. Поиск и проверка этой информации вручную отнимают драгоценное время. На войне время — это ресурс, который нельзя тратить впустую.
Представьте себе командира на поле боя, где каждая секунда — на грани между победой и катастрофой. Одно промедление с решением, одна ошибка — и жизни потеряны, миссии сорваны, исход войны смещен. Это и есть доминирование в принятии решений, способность понимать, принимать решения и действовать быстрее противника.
ИИ обладает потенциалом трансформации. Объединяя данные радаров в режиме реального времени, данные из открытых источников, потоки социальных сетей, базы данных логистики и другие источники, агентная система могла бы мгновенно предоставлять чёткую информацию о состоянии взлётно-посадочных полос польских аэродромов, пропускной способности и состоянии инфраструктуры без недельных задержек. То, что раньше требовало трудоёмкой разведки, теперь можно сжать до нескольких секунд, обеспечивая понимание ситуации со скоростью, необходимой для современных конфликтов. Способность понимать ситуацию быстрее противника — это первый шаг к превосходству в принятии решений.
Командиры также должны визуализировать ход боя, преодолевая сложности и представляя себе конечный результат до первого хода. Этот этап часто требует времени и размышлений, но в современной войне времени мало. ИИ даёт преимущество: обрабатывая огромные объёмы данных, выдавая рекомендации и проверяя предположения, визуализация может быть достигнута быстрее и с большей чёткостью, ускоряя планирование и обеспечивая превосходство в принятии решений.
Режиссура — это процесс, где понимание превращается в действие. Речь идёт о решительном принятии решений, адаптации к давлению и превращении возможностей в результаты. Визуализация помогает определить варианты, а режиссура превращает понимание в результаты. И тут ИИ может оказать серьезную помощь.
Командир приводит планы в действия на поле боя, но исполнение приказов без контроля неполное. Оценка гарантирует реализацию планов. Это не разовое мероприятие, а непрерывный цикл оценки действий, выявления пробелов и улучшений, даже когда никто не жалуется. Вновь ИИ способен значительно ускорить эти процессы.
Сегодня меняется не важность цикла, а скорость, с которой он должен быть выполнен. Противники уже используют ИИ и цифровые сети для ускорения собственных процессов принятия решений, сжимая сроки и повышая ставки.
https://smallwarsjournal.com/2025/10/03/agentic-ai-decision-dominance/
Small Wars Journal by Arizona State University
Decision Dominance in the Age of Agentic AI | Small Wars Journal by Arizona State University
Agentic AI transforms decision dominance, enabling commanders to outpace adversaries with faster, clearer decisions.
🤔3
Голландский суд обязал Meta* (Facebook) предоставить пользователям возможность выбора ленты без алгоритмов - без ИИ Цукерберга.
В решении Амстердамского суда сказано, что Meta* должна разрешить пользователям в Нидерландах устанавливать хронологическую, неалгоритмическую ленту в качестве ленты по умолчанию в Instagram и Facebook.
https://www.dutchnews.nl/2025/10/court-tells-meta-to-give-dutch-users-algorithm-free-feed-option/
В решении Амстердамского суда сказано, что Meta* должна разрешить пользователям в Нидерландах устанавливать хронологическую, неалгоритмическую ленту в качестве ленты по умолчанию в Instagram и Facebook.
https://www.dutchnews.nl/2025/10/court-tells-meta-to-give-dutch-users-algorithm-free-feed-option/
DutchNews.nl
Court tells Meta to give Dutch users algorithm-free feed option - DutchNews.nl
Meta must allow users in the Netherlands to set a chronological, non-algorithmic feed as the default on Instagram and Facebook, a court in Amsterdam has ruled. The case was brought by digital rights group Bits of Freedom, which argued that Meta’s current…
IBM запускает Granite 4.0 для сокращения расходов на инфраструктуру ИИ с помощью гибридных моделей Mamba-трансформера
IBM выпустила Granite 4.0 — новое семейство языковых моделей с открытым исходным кодом, призванное сократить расходы на инфраструктуру, которые стали серьезным препятствием для внедрения корпоративного ИИ.
Granite 4.0, выпущенный по лицензии Apache 2.0, представляет собой ставку IBM на принципиально новый архитектурный подход к развертыванию корпоративного ИИ. Модели построены на основе того, что компания называет «гибридной» архитектурой, сочетающей новые модели пространства состояний Mamba с традиционными уровнями преобразователя.
Mamba, разработанная исследователями из Университета Карнеги-Меллона и Принстонского университета, обрабатывает информацию последовательно, а не анализирует все токены одновременно, как трансформаторы.
https://www.infoworld.com/article/4067691/ibm-launches-granite-4-0-to-cut-ai-infra-costs-with-hybrid-mamba-transformer-models.html
IBM выпустила Granite 4.0 — новое семейство языковых моделей с открытым исходным кодом, призванное сократить расходы на инфраструктуру, которые стали серьезным препятствием для внедрения корпоративного ИИ.
Granite 4.0, выпущенный по лицензии Apache 2.0, представляет собой ставку IBM на принципиально новый архитектурный подход к развертыванию корпоративного ИИ. Модели построены на основе того, что компания называет «гибридной» архитектурой, сочетающей новые модели пространства состояний Mamba с традиционными уровнями преобразователя.
Mamba, разработанная исследователями из Университета Карнеги-Меллона и Принстонского университета, обрабатывает информацию последовательно, а не анализирует все токены одновременно, как трансформаторы.
https://www.infoworld.com/article/4067691/ibm-launches-granite-4-0-to-cut-ai-infra-costs-with-hybrid-mamba-transformer-models.html
InfoWorld
IBM launches Granite 4.0 to cut AI infra costs with hybrid Mamba-transformer models
Built for long-context tasks and edge deployments, Granite 4.0 combines Mamba’s linear scaling with transformer precision, offering enterprises lower memory usage, faster inference, and ISO 42001-certified trust.
Дуров объявил об открытии новой лаборатории искусственного интеллекта в Казахстане . Об этом было объявлено в Астане в ходе международного форума Digital Bridge 2025 .
Первым проектом лаборатории станет сотрудничество Telegram и казахстанского суперкомпьютерного кластера , запущенного Министерством искусственного интеллекта Казахстана . Целью этого партнерства является разработка передовых технологий, которые позволят более миллиарда пользователей получить прозрачный и безопасный доступ к возможностям искусственного интеллекта , уделяя особое внимание конфиденциальности.
По словам Дурова, казахстанский суперкомпьютерный кластер станет основным поставщиком вычислительной мощности для сети искусственного интеллекта Telegram. Основатель отметил, что год назад компания открыла свой первый региональный офис в Казахстане, выразив удовлетворение достигнутыми результатами.
https://www.redhotcyber.com/en/post/telegram-opens-an-artificial-intelligence-lab-in-kazakhstan/
Первым проектом лаборатории станет сотрудничество Telegram и казахстанского суперкомпьютерного кластера , запущенного Министерством искусственного интеллекта Казахстана . Целью этого партнерства является разработка передовых технологий, которые позволят более миллиарда пользователей получить прозрачный и безопасный доступ к возможностям искусственного интеллекта , уделяя особое внимание конфиденциальности.
По словам Дурова, казахстанский суперкомпьютерный кластер станет основным поставщиком вычислительной мощности для сети искусственного интеллекта Telegram. Основатель отметил, что год назад компания открыла свой первый региональный офис в Казахстане, выразив удовлетворение достигнутыми результатами.
https://www.redhotcyber.com/en/post/telegram-opens-an-artificial-intelligence-lab-in-kazakhstan/
il blog della sicurezza informatica
Telegram opens an artificial intelligence lab in Kazakhstan
Telegram launches AI lab in Kazakhstan with a focus on blockchain and privacy
🤔1
Попрощайтесь с реальностью: социальные сети, созданные искусственным интеллектом, уже здесь
https://www.npr.org/2025/10/03/nx-s1-5560200/openai-sora-social-media
https://www.npr.org/2025/10/03/nx-s1-5560200/openai-sora-social-media
NPR
Kiss reality goodbye: AI-generated social media has arrived
With the launch of Sora 2, OpenAI has opened a new chapter in addictive, and some worry dangerous, AI video content.