Разработчик ChatGPT вдруг ослабил ограничения, призванные предотвратить уход новых сотрудников в разгар ожесточенной борьбы за таланты.
На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.
Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.
https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.
Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.
https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
The Wall Street Journal
Exclusive | OpenAI Ends ‘Vesting Cliff’ for New Employees in Compensation-Policy Change
The ChatGPT maker and its competitor xAI have relaxed restrictions meant to keep new hires from leaving in the midst of a fierce talent war
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.
https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.
https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
3DNews - Daily Digital Digest
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft…
Трамп создает в США Силы искусственного интеллекта с участием крупных технологических компаний.
Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.
В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.
https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.
В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.
https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
International Business Times UK
The US Government Launches US Tech Force in Hopes of 'Leading the AI Race'
Trump launched US Tech Force 15 December 2025, where a team of engineers will build the next generation of government technology and accelerate AI implementation.
В лаборатории строгого режима в Шэньчжэне, Китай, ученые разработали прототип машины, способной производить передовые полупроводниковые чипы, имеющих решающее значение для ИИ и военных приложений, — цель, которую США давно стремятся предотвратить.
Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.
Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов. https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.
Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов. https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
Modern Diplomacy
The AI Chip Arms Race: How China Built Its Own “Manhattan Project”
In a high-security laboratory in Shenzhen, China, scientists have developed a prototype machine capable of producing advanced semiconductor chips crucial for technologies such as artificial intelligence and military applications, a goal that the U.S. has…
В школе в Овьедо был объявлен режим изоляции. По данным полицейского отчета, полицейский обыскал классы, но не смог найти человека и не услышал никакого шума.
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
The Washington Post
A school locked down after AI flagged a gun. It was a clarinet.
A growing number of schools across the country use AI-powered surveillance to detect guns and contraband, all in the name of making schools safer.
😁2❤1
Как OpenAI имитирует исследования безопасности ИИ
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
Tech Policy Press
Beware of OpenAI's 'Grantwashing' on AI Harms | TechPolicy.Press
J. Nathan Matias and Avriel Epps say OpenAI's announced research funding is the perfect corporate action to make sure we don't find answers for years.
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Сегодня Китай запустил новую метеорологическую модель на основе искусственного интеллекта, Fengyuan V1.0, разработанную как платформа с открытым исходным кодом для расширения возможностей прогнозирования погоды с помощью ИИ и проведения научных исследований.
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
Google ужесточает борьбу с синтетическими виддео.
По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.
Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.
SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:
Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.
Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.
Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.
https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.
Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.
SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:
Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.
Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.
Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.
https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
RaillyNews
Google Started the War with Artificial Intelligence Generated Videos with Gemini
Google has started the war with Gemini with AI production videos: competition is gaining momentum in the AI world with innovative content.
Компания ByteDance, владелец TikTok, повышает заработную плату и увеличивает бонусы, чтобы удержать сотрудников в условиях конкуренции за таланты в сфере искусственного интеллекта.
Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.
Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.
https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.
Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.
https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
South China Morning Post
ByteDance raises pay, boosts bonuses to retain staff amid AI talent war
The TikTok owner has announced higher bonuses, wider pay bands and faster equity payouts as it seeks to stay competitive in the global talent race.
Дефицит довёл до криминала: сотрудники Samsung брали взятки за оптовые поставки памяти без очереди
По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
DIGITIMES 科技網
記憶體之亂案外案! 傳三星總部罕見來台內部調查「收回扣」疑雲
全球記憶體市場迎來最劇烈的缺貨、漲價風暴,缺貨的驅動力與結構條件與過往不同,上下游產業直言此波嚴峻狀況,估計要持續至2027年。
Как Anthropic подставил всех своей открытостью
Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».
Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.
Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.
Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.
https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».
Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.
Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.
Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.
https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
The National Interest
Anthropic’s AI Attack Threatens the Strategy at the Foundation of Cybersecurity
To defend against AI-enabled cyberattacks, such as those by Chinese hackers using Anthropic's models, companies must adopt AI-resistant cybersecurity strategies.
Дональд Трамп представил амбициозные планы на будущее ВМС США, представив так называемый «Золотой флот».
Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.
https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.
https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
SSBCrack News
Trump Unveils Plans for AI-Controlled "Trump-Class" Navy Battleships - SSBCrack News
At a recent press conference, President Donald Trump unveiled ambitious plans for the future of the United States Navy, introducing what he termed the "Golden
У Пентагона и гигантов в области ИИ есть одно очень слабое место. И тем, и другим крайне необходимы китайские батареи))))) а своих сильно мало
https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
Nytimes
The Pentagon and A.I. Giants Have a Weakness. Both Need China’s Batteries, Badly.
As warfare is reinvented in Ukraine, and Silicon Valley races to maintain its A.I. lead, China’s battery dominance is raising alarms far beyond the auto industry.
В 2026 году компания ByteDance (владелец TikTok) планирует потратить около 23 миллиардов долларов на капитальные вложения в ИИ, делая большую ставку на вычислительные мощности для обеспечения следующего этапа своего роста.
Большая часть этих средств будет направлена на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.
https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
Большая часть этих средств будет направлена на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.
https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
TradingView
ByteDance Plans $23 Billion AI Spending Spree
ByteDance, the private company behind TikTok, is getting ready to open the checkbook in a big way as it pushes harder into artificial intelligence. The company is planning roughly $23 billion in AI-related capital spending in 2026, betting heavily on computing…
Должен ли искусственный интеллект обладать юридическими правами?
Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.
https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.
https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
www.blockchain-council.org
Should Artificial Intelligence Have Legal Rights? - Blockchain Council
Dive into the debate on whether AI should have legal rights, exploring ethical concerns, legal frameworks, and the future of AI governance.
💊1
OpenAI изучает способы монетизации ChatGPT с помощью разговорной рекламы.
По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
SiliconANGLE
AI - SiliconANGLE
🕊1
Когда предвзятость искусственного интеллекта становится угрозой на поле боя.
Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.
В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.
Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.
https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.
В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.
Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.
https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
Small Wars Journal by Arizona State University
Algorithimic Fratricide: When Artificial Intelligence Bias Becomes a Battlefield Liability
As Artifical Intelligence (AI) enters the battlefield, hidden bias becomes a force‑protection hazard. Misclassifications inside an AI system propagate at machine speed across sensor networks and command chains before a human has time to stop it.
✍2