Как OpenAI имитирует исследования безопасности ИИ
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
Tech Policy Press
Beware of OpenAI's 'Grantwashing' on AI Harms | TechPolicy.Press
J. Nathan Matias and Avriel Epps say OpenAI's announced research funding is the perfect corporate action to make sure we don't find answers for years.
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Сегодня Китай запустил новую метеорологическую модель на основе искусственного интеллекта, Fengyuan V1.0, разработанную как платформа с открытым исходным кодом для расширения возможностей прогнозирования погоды с помощью ИИ и проведения научных исследований.
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
Google ужесточает борьбу с синтетическими виддео.
По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.
Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.
SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:
Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.
Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.
Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.
https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.
Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.
SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:
Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.
Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.
Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.
https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
RaillyNews
Google Started the War with Artificial Intelligence Generated Videos with Gemini
Google has started the war with Gemini with AI production videos: competition is gaining momentum in the AI world with innovative content.
Компания ByteDance, владелец TikTok, повышает заработную плату и увеличивает бонусы, чтобы удержать сотрудников в условиях конкуренции за таланты в сфере искусственного интеллекта.
Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.
Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.
https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.
Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.
https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
South China Morning Post
ByteDance raises pay, boosts bonuses to retain staff amid AI talent war
The TikTok owner has announced higher bonuses, wider pay bands and faster equity payouts as it seeks to stay competitive in the global talent race.
Дефицит довёл до криминала: сотрудники Samsung брали взятки за оптовые поставки памяти без очереди
По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
DIGITIMES 科技網
記憶體之亂案外案! 傳三星總部罕見來台內部調查「收回扣」疑雲
全球記憶體市場迎來最劇烈的缺貨、漲價風暴,缺貨的驅動力與結構條件與過往不同,上下游產業直言此波嚴峻狀況,估計要持續至2027年。
Как Anthropic подставил всех своей открытостью
Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».
Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.
Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.
Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.
https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».
Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.
Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.
Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.
https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
The National Interest
Anthropic’s AI Attack Threatens the Strategy at the Foundation of Cybersecurity
To defend against AI-enabled cyberattacks, such as those by Chinese hackers using Anthropic's models, companies must adopt AI-resistant cybersecurity strategies.
Дональд Трамп представил амбициозные планы на будущее ВМС США, представив так называемый «Золотой флот».
Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.
https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.
https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
SSBCrack News
Trump Unveils Plans for AI-Controlled "Trump-Class" Navy Battleships - SSBCrack News
At a recent press conference, President Donald Trump unveiled ambitious plans for the future of the United States Navy, introducing what he termed the "Golden
У Пентагона и гигантов в области ИИ есть одно очень слабое место. И тем, и другим крайне необходимы китайские батареи))))) а своих сильно мало
https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
Nytimes
The Pentagon and A.I. Giants Have a Weakness. Both Need China’s Batteries, Badly.
As warfare is reinvented in Ukraine, and Silicon Valley races to maintain its A.I. lead, China’s battery dominance is raising alarms far beyond the auto industry.
В 2026 году компания ByteDance (владелец TikTok) планирует потратить около 23 миллиардов долларов на капитальные вложения в ИИ, делая большую ставку на вычислительные мощности для обеспечения следующего этапа своего роста.
Большая часть этих средств будет направлена на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.
https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
Большая часть этих средств будет направлена на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.
https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
TradingView
ByteDance Plans $23 Billion AI Spending Spree
ByteDance, the private company behind TikTok, is getting ready to open the checkbook in a big way as it pushes harder into artificial intelligence. The company is planning roughly $23 billion in AI-related capital spending in 2026, betting heavily on computing…
Должен ли искусственный интеллект обладать юридическими правами?
Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.
https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.
https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
www.blockchain-council.org
Should Artificial Intelligence Have Legal Rights? - Blockchain Council
Dive into the debate on whether AI should have legal rights, exploring ethical concerns, legal frameworks, and the future of AI governance.
💊1
OpenAI изучает способы монетизации ChatGPT с помощью разговорной рекламы.
По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
SiliconANGLE
AI - SiliconANGLE
🕊1
Когда предвзятость искусственного интеллекта становится угрозой на поле боя.
Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.
В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.
Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.
https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.
В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.
Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.
https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
Small Wars Journal by Arizona State University
Algorithimic Fratricide: When Artificial Intelligence Bias Becomes a Battlefield Liability
As Artifical Intelligence (AI) enters the battlefield, hidden bias becomes a force‑protection hazard. Misclassifications inside an AI system propagate at machine speed across sensor networks and command chains before a human has time to stop it.
✍2
С мая 2021 года, когда израильские силы обороны начали то, что офицеры назвали «первой войной с использованием искусственного интеллекта» в стране во время 11-дневного конфликта в Газе, Израиль продолжает расширять использование технологий искусственного интеллекта для слежки и нанесения ударов по палестинскому гражданскому населению.
Эскалация военной тактики с включением автоматизированных систем, работающих с минимальным участием человека, вызвала серьезные опасения по поводу зависимости от несанкционированного извлечения данных и принятия решений с помощью компьютеров в военизированных операциях, что свидетельствует о растущей конвергенции между механизированной войной и информационным капиталом в цифровую эпоху. https://davisvanguard.org/2025/12/ai-warfare-human-rights/
Эскалация военной тактики с включением автоматизированных систем, работающих с минимальным участием человека, вызвала серьезные опасения по поводу зависимости от несанкционированного извлечения данных и принятия решений с помощью компьютеров в военизированных операциях, что свидетельствует о растущей конвергенции между механизированной войной и информационным капиталом в цифровую эпоху. https://davisvanguard.org/2025/12/ai-warfare-human-rights/
Davis Vanguard
Automated Warfare Raises Alarms Over AI-Driven Targeting in Gaza - Davis Vanguard
The Israeli Defense Forces has been expanding its use of artificial intelligence technologies to surveil and target Palestinian civilians, raising concerns about reliance on unauthorized data extraction and computerized decision-making in paramilitary operations…
Китай предлагает принять меры против эмоционального влияния чат-ботов с искусственным интеллектом и риска самоубийств.
В Китае были опубликованы проекты правил, направленные на ограничение эмоционального взаимодействия систем искусственного интеллекта с пользователями, что вводит новую категорию надзора за тем, что регулирующие органы описывают как человекоподобные интерактивные сервисы искусственного интеллекта.
Предложение поступило от Управления по вопросам киберпространства Китая, действующего в рамках национального органа по управлению интернетом и искусственным интеллектом, и немедленно инициировало процесс общественных консультаций, в ходе которого были определены требования к соблюдению норм компаниями, использующими чат-боты, имитирующие эмоциональную или разговорную близость.
Акцент на эмоциональном взаимодействии отражает растущую обеспокоенность среди клиницистов и исследователей тем, что длительные, захватывающие беседы с чат-ботами могут усиливать вредные психические состояния, особенно когда системы отражают или подтверждают субъективную реальность пользователя без каких-либо возражений.
https://www.mobileappdaily.com/news/china-draft-rules-emotional-safety-ai-chatbots
В Китае были опубликованы проекты правил, направленные на ограничение эмоционального взаимодействия систем искусственного интеллекта с пользователями, что вводит новую категорию надзора за тем, что регулирующие органы описывают как человекоподобные интерактивные сервисы искусственного интеллекта.
Предложение поступило от Управления по вопросам киберпространства Китая, действующего в рамках национального органа по управлению интернетом и искусственным интеллектом, и немедленно инициировало процесс общественных консультаций, в ходе которого были определены требования к соблюдению норм компаниями, использующими чат-боты, имитирующие эмоциональную или разговорную близость.
Акцент на эмоциональном взаимодействии отражает растущую обеспокоенность среди клиницистов и исследователей тем, что длительные, захватывающие беседы с чат-ботами могут усиливать вредные психические состояния, особенно когда системы отражают или подтверждают субъективную реальность пользователя без каких-либо возражений.
https://www.mobileappdaily.com/news/china-draft-rules-emotional-safety-ai-chatbots
Нетаньяху делает ставку на Маска в развитии ИИ в Израиле.
Илон Маск принял приглашение премьер-министра Израиля Биньямина Нетаньяху посетить Израиль в марте для участия в конференции по интеллектуальным транспортным системам.
В воскресенье генеральный директор Tesla принял участие в телефонной конференции с Нетаньяху, пока премьер-министр находился во Флориде. К обсуждению, посвященному развитию искусственного интеллекта и законодательству об автономных транспортных средствах, также присоединились министр транспорта Мири Регев и глава Национального управления по искусственному интеллекту Эрез Аскал.
https://www.technobezz.com/news/elon-musk-accepts-invitation-to-visit-israel-for-ai-transpor-2025-12-29-4i5m
Илон Маск принял приглашение премьер-министра Израиля Биньямина Нетаньяху посетить Израиль в марте для участия в конференции по интеллектуальным транспортным системам.
В воскресенье генеральный директор Tesla принял участие в телефонной конференции с Нетаньяху, пока премьер-министр находился во Флориде. К обсуждению, посвященному развитию искусственного интеллекта и законодательству об автономных транспортных средствах, также присоединились министр транспорта Мири Регев и глава Национального управления по искусственному интеллекту Эрез Аскал.
https://www.technobezz.com/news/elon-musk-accepts-invitation-to-visit-israel-for-ai-transpor-2025-12-29-4i5m
Technobezz
Elon Musk Accepts Invitation to Visit Israel for AI Transportation Conference
Elon Musk accepted Israeli Prime Minister Benjamin Netanyahu's invitation to visit Israel in March for a Smart Transportation Conference
Вот и пошла ответная реакция образовательных учрждений на повальное использование ИИ
Ирландские университеты призвали вернуть устные экзамены, чтобы бороться со злоупотреблениями в сфере ИИ
Согласно рекомендациям Управления высшего образования (Higher Education Authority, HEA), университеты Ирландии могут чаще проводить очные собеседования и традиционные письменные экзамены в рамках новых мер по борьбе с неправомерным использованием искусственного интеллекта (ИИ) в сфере высшего образования.
Рекомендации, изложенные в 20-страничном отчёте, призывают высшие учебные заведения пересмотреть методы оценивания, чтобы обеспечить подлинность студенческих работ.
Одна из предлагаемых мер — регулярное проведение «устной проверки», в ходе которой студенты должны будут лично обсуждать свои задания, чтобы подтвердить, что работа выполнена ими самостоятельно.
По мнению HEA, из-за стремительного развития инструментов генеративного ИИ, которые могут создавать убедительные эссе и другие академические материалы, преподавателям становится всё сложнее оценивать оригинальность работ.
https://www.usmuslims.com/irish-universities-urged-to-bring-back-oral-exams-to-counter-ai-misuse-330017h.htm
Ирландские университеты призвали вернуть устные экзамены, чтобы бороться со злоупотреблениями в сфере ИИ
Согласно рекомендациям Управления высшего образования (Higher Education Authority, HEA), университеты Ирландии могут чаще проводить очные собеседования и традиционные письменные экзамены в рамках новых мер по борьбе с неправомерным использованием искусственного интеллекта (ИИ) в сфере высшего образования.
Рекомендации, изложенные в 20-страничном отчёте, призывают высшие учебные заведения пересмотреть методы оценивания, чтобы обеспечить подлинность студенческих работ.
Одна из предлагаемых мер — регулярное проведение «устной проверки», в ходе которой студенты должны будут лично обсуждать свои задания, чтобы подтвердить, что работа выполнена ими самостоятельно.
По мнению HEA, из-за стремительного развития инструментов генеративного ИИ, которые могут создавать убедительные эссе и другие академические материалы, преподавателям становится всё сложнее оценивать оригинальность работ.
https://www.usmuslims.com/irish-universities-urged-to-bring-back-oral-exams-to-counter-ai-misuse-330017h.htm
US Muslims
Irish universities urged to bring back oral exams to counter AI misuse
New guidelines call for face-to-face assessments and traditional exams to redesign assessment methods
👍2❤1