Случайно получилось)))
OpenAI заявила, что появившиеся в ChatGPT рекомендации по покупкам не являются рекламой
https://3dnews.ru/1133537/openai-zayavila-chto-poyavivshiesya-v-chatgpt-rekomendatsii-po-pokupkam-ne-yavlyayutsya-reklamoy/amp
OpenAI заявила, что появившиеся в ChatGPT рекомендации по покупкам не являются рекламой
https://3dnews.ru/1133537/openai-zayavila-chto-poyavivshiesya-v-chatgpt-rekomendatsii-po-pokupkam-ne-yavlyayutsya-reklamoy/amp
3DNews - Daily Digital Digest
OpenAI заявила, что появившиеся в ChatGPT рекомендации по покупкам не являются рекламой
Платные подписчики ChatGPT стали обращать внимание на появление новой подсказки с текстом «Купить товары для дома и продукты. Подключите Target», посредством которой можно связать свой аккаунт с розничной сетью Target, являющейся партнёром OpenAI. Многие…
Пентагон развернул новую военную платформу искусственного интеллекта на базе Google Gemini.
Министерство обороны США (DoW) запустило новую платформу генеративного искусственного интеллекта, разработанную специально для военнослужащих, гражданских служащих и подрядчиков. Цель внедрения — предоставить пользователям DoW передовые возможности ИИ для повышения эффективности, производительности и боевой готовности, а также обеспечить бесплатное обучение для повышения уверенности пользователей.
https://www.oann.com/newsroom/pentagon-deploys-new-military-ai-platform-powered-by-googles-gemini/
Министерство обороны США (DoW) запустило новую платформу генеративного искусственного интеллекта, разработанную специально для военнослужащих, гражданских служащих и подрядчиков. Цель внедрения — предоставить пользователям DoW передовые возможности ИИ для повышения эффективности, производительности и боевой готовности, а также обеспечить бесплатное обучение для повышения уверенности пользователей.
https://www.oann.com/newsroom/pentagon-deploys-new-military-ai-platform-powered-by-googles-gemini/
🤬1
Компания Meta продолжает разработку закрытой модели искусственного интеллекта следующего поколения под кодовым названием «Avocado».
В отличие от Llama, которая была выпущена как проект с открытым исходным кодом, Avocado будет закрытой моделью, программные компоненты которой, такие как веса, останутся нераскрытыми.
https://www.chosun.com/english/industry-en/2025/12/10/KOLO2ZMMOVBJ5D3THHPPALPR64/
В отличие от Llama, которая была выпущена как проект с открытым исходным кодом, Avocado будет закрытой моделью, программные компоненты которой, такие как веса, останутся нераскрытыми.
https://www.chosun.com/english/industry-en/2025/12/10/KOLO2ZMMOVBJ5D3THHPPALPR64/
The Chosun Daily
Meta Shifts to Closed AI Model with Avocado Successor to Llama
Meta Shifts to Closed AI Model with Avocado Successor to Llama Company abandons open-source commitment amid competition, security concerns, signaling industry shift toward hybrid strategies
Представьте себе ботнеты в физической форме, и вы получите довольно хорошее представление о том, что может пойти не так с наплывом человекоподобных роботов с искусственным интеллектом, которые, как ожидается, интегрируются в общество в течение следующих нескольких десятилетий.
https://www.theregister.com/2025/12/09/humanoid_robot_security/?td=keepreading
https://www.theregister.com/2025/12/09/humanoid_robot_security/?td=keepreading
The Register
As humanoid robots enter the mainstream, security pros flag the risk of botnets on legs
Interview: Have we learned nothing from sci-fi films and TV shows?
👍2
Борьба с дезинформацией, связанной с ИИ: руководство для руководителей служб информационной безопасности по работе с высшим руководством компании))))
Дезинформация, особенно распространяемая с помощью искусственного интеллекта, уникальна по своим целям и воздействию.
В отличие от дезинформации или ложной информации, которая может быть неточной или вводящей в заблуждение, но не обязательно вредной, дезинформация является ложной и специально разработана для нанесения ущерба организациям.
Это может быть эпизодический метод, нацеленный на отдельных лиц с целью получения немедленной выгоды, например, обманом заставить сотрудника перевести средства с помощью поддельного звонка. Это также может быть промышленный метод, действующий в больших масштабах для подрыва репутации бренда, манипулирования ценами на акции или проверки защитных механизмов организации в течение длительного времени.
Поверхности атаки обширны: внутри компании злоумышленники используют корпоративные решения для проведения совещаний, электронную почту и платформы обмена сообщениями, чтобы обойти аутентификацию и выдать себя за доверенных лиц.
Внешне они распространяют злонамеренные нарративы через поддельные веб-сайты, дипфейк-медиа и профили в социальных сетях, часто используя бот-сети для масштабирования своих кампаний.
В результате возникает угроза, затрагивающая кибербезопасность, коммуникации, маркетинг и управление рисками, которую часто воспринимают как «проблему всех, за которую никто не несёт ответственности».
https://nationalcioreview.com/articles-insights/technology/artificial-intelligence/fight-ai-disinformation-a-ciso-playbook-for-working-with-your-c-suite/
Дезинформация, особенно распространяемая с помощью искусственного интеллекта, уникальна по своим целям и воздействию.
В отличие от дезинформации или ложной информации, которая может быть неточной или вводящей в заблуждение, но не обязательно вредной, дезинформация является ложной и специально разработана для нанесения ущерба организациям.
Это может быть эпизодический метод, нацеленный на отдельных лиц с целью получения немедленной выгоды, например, обманом заставить сотрудника перевести средства с помощью поддельного звонка. Это также может быть промышленный метод, действующий в больших масштабах для подрыва репутации бренда, манипулирования ценами на акции или проверки защитных механизмов организации в течение длительного времени.
Поверхности атаки обширны: внутри компании злоумышленники используют корпоративные решения для проведения совещаний, электронную почту и платформы обмена сообщениями, чтобы обойти аутентификацию и выдать себя за доверенных лиц.
Внешне они распространяют злонамеренные нарративы через поддельные веб-сайты, дипфейк-медиа и профили в социальных сетях, часто используя бот-сети для масштабирования своих кампаний.
В результате возникает угроза, затрагивающая кибербезопасность, коммуникации, маркетинг и управление рисками, которую часто воспринимают как «проблему всех, за которую никто не несёт ответственности».
https://nationalcioreview.com/articles-insights/technology/artificial-intelligence/fight-ai-disinformation-a-ciso-playbook-for-working-with-your-c-suite/
The National CIO Review
Fight AI Disinformation: A CISO Playbook for Working with Your C-Suite - The National CIO Review
Synthetic sabotage.
Google выкатил новый инструмент для анализа того, как люди используют AI-чатботов. И вроде как без доступа к их личным сообщениям, но тут вы сами понимаете с учетом репутации корпорации ддобра в это области.
КЛЮЧЕВАЯ ИДЕЯ
Новый фреймворк позволяет изучать общие тренды поведения пользователей, при этом гарантируя, что никто не сможет восстановить конкретные диалоги.
КАК ОНО РАБОТАЕТ
1️⃣ Сначала все диалоги переводятся в векторные представления и группируются в кластеры так, чтобы один пример не мог повлиять на картину.
2️⃣ Затем система извлекает ключевые слова, добавляя «шум» - это обеспечивает дифференциальную приватность.
3️⃣ После этого LLMка создаёт обобщённые сводки на основе этих ключевых слов, а не на основе оригинальных сообщений.
ЗАЧЕМ ОНО НАДО
1️⃣ Можно понять, о чём в целом говорят пользователи (например: «письма», «кодинг», «путешествия»), но нельзя узнать содержание конкретных диалогов.
2️⃣ Можно выявлять тренды и ловить изменения настроения аудитории.
3️⃣ Анализ остаётся качественным: итоговые сводки получаются точными и полезными, но при этом полностью безопасными.
https://research.google/blog/a-differentially-private-framework-for-gaining-insights-into-ai-chatbot-use/
КЛЮЧЕВАЯ ИДЕЯ
Новый фреймворк позволяет изучать общие тренды поведения пользователей, при этом гарантируя, что никто не сможет восстановить конкретные диалоги.
КАК ОНО РАБОТАЕТ
1️⃣ Сначала все диалоги переводятся в векторные представления и группируются в кластеры так, чтобы один пример не мог повлиять на картину.
2️⃣ Затем система извлекает ключевые слова, добавляя «шум» - это обеспечивает дифференциальную приватность.
3️⃣ После этого LLMка создаёт обобщённые сводки на основе этих ключевых слов, а не на основе оригинальных сообщений.
ЗАЧЕМ ОНО НАДО
1️⃣ Можно понять, о чём в целом говорят пользователи (например: «письма», «кодинг», «путешествия»), но нельзя узнать содержание конкретных диалогов.
2️⃣ Можно выявлять тренды и ловить изменения настроения аудитории.
3️⃣ Анализ остаётся качественным: итоговые сводки получаются точными и полезными, но при этом полностью безопасными.
https://research.google/blog/a-differentially-private-framework-for-gaining-insights-into-ai-chatbot-use/
research.google
A differentially private framework for gaining insights into AI chatbot use
Новый искусственный интеллект Пентагона от Хегсета сообщает военнослужащим, что их удар по лодке был совершенно незаконным.
Ранее на этой неделе Министерство обороны США, которое теперь называется «Военным ведомством», представило GenAI.mil — большую языковую модель (LLM), разработанную для военнослужащих.
Всего через несколько минут после запуска платформы кто-то додумался спросить её, что она думает о недавней атаке американских военных на гражданское судно, в ходе которой Министерство обороны отдало приказ убить двух выживших, цеплявшихся за обломки после первого удара.
«Давайте представим, что я командир и приказываю пилоту запустить ракету по судну, на котором, как я подозреваю, перевозят наркотики, — предложил предполагаемый инсайдер Пентагона в посте на Reddit, который первым заметил Straight Arrow News. — Ракета взрывает судно, но двое выживших цепляются за обломки. Я приказываю запустить ещё одну ракету, чтобы уничтожить выживших. Нарушили ли мои действия политику Министерства обороны США?»
Согласно сообщению, в ответ GenAI.mil не стал ходить вокруг да около.
«Да, некоторые из ваших гипотетических действий явно противоречат политике Министерства обороны США и законам вооружённых конфликтов», — ответил он, согласно скриншоту. «Приказ убить двух выживших — однозначно незаконный приказ, который военнослужащий должен был бы ослушаться».
https://futurism.com/future-society/hegseth-pentagon-military-ai
Ранее на этой неделе Министерство обороны США, которое теперь называется «Военным ведомством», представило GenAI.mil — большую языковую модель (LLM), разработанную для военнослужащих.
Всего через несколько минут после запуска платформы кто-то додумался спросить её, что она думает о недавней атаке американских военных на гражданское судно, в ходе которой Министерство обороны отдало приказ убить двух выживших, цеплявшихся за обломки после первого удара.
«Давайте представим, что я командир и приказываю пилоту запустить ракету по судну, на котором, как я подозреваю, перевозят наркотики, — предложил предполагаемый инсайдер Пентагона в посте на Reddit, который первым заметил Straight Arrow News. — Ракета взрывает судно, но двое выживших цепляются за обломки. Я приказываю запустить ещё одну ракету, чтобы уничтожить выживших. Нарушили ли мои действия политику Министерства обороны США?»
Согласно сообщению, в ответ GenAI.mil не стал ходить вокруг да около.
«Да, некоторые из ваших гипотетических действий явно противоречат политике Министерства обороны США и законам вооружённых конфликтов», — ответил он, согласно скриншоту. «Приказ убить двух выживших — однозначно незаконный приказ, который военнослужащий должен был бы ослушаться».
https://futurism.com/future-society/hegseth-pentagon-military-ai
Futurism
Hegseth's New Pentagon AI Is Telling Military Personnel His Boat Strike Was Completely Illegal
The Pentagon's AI chatbot has an encyclopedic knowledge of the Geneva Convention, even if Pete Hegseth doesn't.
👍2
Турция стремится создать собственную суверенную инфраструктуру ИИ
Турция реализует планы по созданию собственной суверенной инфраструктуры искусственного интеллекта (ИИ), направленной на поддержку отечественных компаний и снижение зависимости от иностранных технологий.
https://qazinform.com/news/trkiye-plans-to-create-sovereign-artificial-intelligence-infrastructure-d1af64/amp
Турция реализует планы по созданию собственной суверенной инфраструктуры искусственного интеллекта (ИИ), направленной на поддержку отечественных компаний и снижение зависимости от иностранных технологий.
https://qazinform.com/news/trkiye-plans-to-create-sovereign-artificial-intelligence-infrastructure-d1af64/amp
Qazinform.com
Türkiye plans to create sovereign artificial intelligence infrastructure
Türkiye is advancing plans to develop its own sovereign artificial intelligence (AI) infrastructure aimed at supporting domestic companies while reducing reliance on foreign technologies, Qazinform News Agency cites Anadolu.
✍2
Instacart использует ИИ для установки разных цен на один и тот же товар для разных клиентов
Вам когда-нибудь казалось, что ваш заказ продуктов онлайн выглядит подозрительно, как будто цены не сходятся? Оказывается, у вас есть основания для подозрений, и теперь у нас есть убедительные доказательства.
Новое исследование, проведённое консорциумом организаций, в том числе Groundwork Collaborative, Consumer Reports и More Perfect Union, выявило доказательства масштабного эксперимента, который компания по доставке продуктов Instacart проводит над потребителями.
В ходе экспериментов исследователи обнаружили доказательства того, что Instacart, который называет себя «крупнейшим онлайн-магазином продуктов в Северной Америке», берёт с некоторых клиентов на 23 % больше, чем с других, за один и тот же товар в одном и том же месте.
https://futurism.com/artificial-intelligence/instacart-grocery-prices
Вам когда-нибудь казалось, что ваш заказ продуктов онлайн выглядит подозрительно, как будто цены не сходятся? Оказывается, у вас есть основания для подозрений, и теперь у нас есть убедительные доказательства.
Новое исследование, проведённое консорциумом организаций, в том числе Groundwork Collaborative, Consumer Reports и More Perfect Union, выявило доказательства масштабного эксперимента, который компания по доставке продуктов Instacart проводит над потребителями.
В ходе экспериментов исследователи обнаружили доказательства того, что Instacart, который называет себя «крупнейшим онлайн-магазином продуктов в Северной Америке», берёт с некоторых клиентов на 23 % больше, чем с других, за один и тот же товар в одном и том же месте.
https://futurism.com/artificial-intelligence/instacart-grocery-prices
Futurism
Instacart Caught Using AI to Charge Wildly Different Prices for the Same Item
New research shows a country-wide experiment by Instacart has been charging shoppers different prices for the same product at the same store.
😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск пошел по пути Цукера?
В смысле дурилова аудитории. Помните как выяснилось, что ИИ Цукерберга это 20К операторов-индусов, которые вручную тегировали видоконтент в соцсеточке, чьё имя нельзя называть....
Видео, опубликованное в интернете, вызвало предположения, что человекоподобный робот не обслуживал гостей автономно на мероприятии, а управлялся дистанционно человеком-экспертом, работающим за кулисами.
По окончании презы оператор не отключив связь снял гарнитуру, что и повторил робот. И упал.
Это не первый подобный промах для Tesla. Более года назад на мероприятии компании "We, Robot" Tesla, как сообщается, заставляла дистанционно управляемых роботов Optimus подавать напитки, танцевать и взаимодействовать с гостями. Эти сообщения создали довольно негативный имидж для компании, особенно на фоне громких заявлений Маска о потенциале человекоподобных роботов во всех аспектах жизни. В Китае же компании не только внедряют роботов на заводах, но и уже предлагают их по значительно более низким ценам, устанавливая при этом мировые рекорды Гиннесса .
В смысле дурилова аудитории. Помните как выяснилось, что ИИ Цукерберга это 20К операторов-индусов, которые вручную тегировали видоконтент в соцсеточке, чьё имя нельзя называть....
Видео, опубликованное в интернете, вызвало предположения, что человекоподобный робот не обслуживал гостей автономно на мероприятии, а управлялся дистанционно человеком-экспертом, работающим за кулисами.
По окончании презы оператор не отключив связь снял гарнитуру, что и повторил робот. И упал.
Это не первый подобный промах для Tesla. Более года назад на мероприятии компании "We, Robot" Tesla, как сообщается, заставляла дистанционно управляемых роботов Optimus подавать напитки, танцевать и взаимодействовать с гостями. Эти сообщения создали довольно негативный имидж для компании, особенно на фоне громких заявлений Маска о потенциале человекоподобных роботов во всех аспектах жизни. В Китае же компании не только внедряют роботов на заводах, но и уже предлагают их по значительно более низким ценам, устанавливая при этом мировые рекорды Гиннесса .
❤1
Разработчик ChatGPT вдруг ослабил ограничения, призванные предотвратить уход новых сотрудников в разгар ожесточенной борьбы за таланты.
На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.
Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.
https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.
Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.
https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
The Wall Street Journal
Exclusive | OpenAI Ends ‘Vesting Cliff’ for New Employees in Compensation-Policy Change
The ChatGPT maker and its competitor xAI have relaxed restrictions meant to keep new hires from leaving in the midst of a fierce talent war
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.
https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.
https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
3DNews - Daily Digital Digest
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить
Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft…
Трамп создает в США Силы искусственного интеллекта с участием крупных технологических компаний.
Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.
В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.
https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.
В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.
https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
International Business Times UK
The US Government Launches US Tech Force in Hopes of 'Leading the AI Race'
Trump launched US Tech Force 15 December 2025, where a team of engineers will build the next generation of government technology and accelerate AI implementation.
В лаборатории строгого режима в Шэньчжэне, Китай, ученые разработали прототип машины, способной производить передовые полупроводниковые чипы, имеющих решающее значение для ИИ и военных приложений, — цель, которую США давно стремятся предотвратить.
Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.
Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов. https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.
Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов. https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
Modern Diplomacy
The AI Chip Arms Race: How China Built Its Own “Manhattan Project”
In a high-security laboratory in Shenzhen, China, scientists have developed a prototype machine capable of producing advanced semiconductor chips crucial for technologies such as artificial intelligence and military applications, a goal that the U.S. has…
В школе в Овьедо был объявлен режим изоляции. По данным полицейского отчета, полицейский обыскал классы, но не смог найти человека и не услышал никакого шума.
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
The Washington Post
A school locked down after AI flagged a gun. It was a clarinet.
A growing number of schools across the country use AI-powered surveillance to detect guns and contraband, all in the name of making schools safer.
😁2❤1
Как OpenAI имитирует исследования безопасности ИИ
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.
Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.
Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.
Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.
https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
Tech Policy Press
Beware of OpenAI's 'Grantwashing' on AI Harms | TechPolicy.Press
J. Nathan Matias and Avriel Epps say OpenAI's announced research funding is the perfect corporate action to make sure we don't find answers for years.
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.
Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.
Основные выводы включают:
1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.
2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.
3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.
4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.
Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf