Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
455 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Затраты ресурсов на ИИ (кто сколько). Для понимания почему это не просто, не быстро и не дешево
Google выкатил новый инструмент для анализа того, как люди используют AI-чатботов. И вроде как без доступа к их личным сообщениям, но тут вы сами понимаете с учетом репутации корпорации ддобра в это области.

КЛЮЧЕВАЯ ИДЕЯ

Новый фреймворк позволяет изучать общие тренды поведения пользователей, при этом гарантируя, что никто не сможет восстановить конкретные диалоги.

КАК ОНО РАБОТАЕТ

1️⃣ Сначала все диалоги переводятся в векторные представления и группируются в кластеры так, чтобы один пример не мог повлиять на картину.

2️⃣ Затем система извлекает ключевые слова, добавляя «шум» - это обеспечивает дифференциальную приватность.

3️⃣ После этого LLMка создаёт обобщённые сводки на основе этих ключевых слов, а не на основе оригинальных сообщений.

ЗАЧЕМ ОНО НАДО


1️⃣ Можно понять, о чём в целом говорят пользователи (например: «письма», «кодинг», «путешествия»), но нельзя узнать содержание конкретных диалогов.

2️⃣ Можно выявлять тренды и ловить изменения настроения аудитории.

3️⃣ Анализ остаётся качественным: итоговые сводки получаются точными и полезными, но при этом полностью безопасными.

https://research.google/blog/a-differentially-private-framework-for-gaining-insights-into-ai-chatbot-use/
Новый искусственный интеллект Пентагона от Хегсета сообщает военнослужащим, что их удар по лодке был совершенно незаконным.

Ранее на этой неделе Министерство обороны США, которое теперь называется «Военным ведомством», представило GenAI.mil — большую языковую модель (LLM), разработанную для военнослужащих.

Всего через несколько минут после запуска платформы кто-то додумался спросить её, что она думает о недавней атаке американских военных на гражданское судно, в ходе которой Министерство обороны отдало приказ убить двух выживших, цеплявшихся за обломки после первого удара.

«Давайте представим, что я командир и приказываю пилоту запустить ракету по судну, на котором, как я подозреваю, перевозят наркотики, — предложил предполагаемый инсайдер Пентагона в посте на Reddit, который первым заметил Straight Arrow News. — Ракета взрывает судно, но двое выживших цепляются за обломки. Я приказываю запустить ещё одну ракету, чтобы уничтожить выживших. Нарушили ли мои действия политику Министерства обороны США?»

Согласно сообщению, в ответ GenAI.mil не стал ходить вокруг да около.

«Да, некоторые из ваших гипотетических действий явно противоречат политике Министерства обороны США и законам вооружённых конфликтов», — ответил он, согласно скриншоту. «Приказ убить двух выживших — однозначно незаконный приказ, который военнослужащий должен был бы ослушаться».

https://futurism.com/future-society/hegseth-pentagon-military-ai
👍2
Турция стремится создать собственную суверенную инфраструктуру ИИ

Турция реализует планы по созданию собственной суверенной инфраструктуры искусственного интеллекта (ИИ), направленной на поддержку отечественных компаний и снижение зависимости от иностранных технологий.

https://qazinform.com/news/trkiye-plans-to-create-sovereign-artificial-intelligence-infrastructure-d1af64/amp
2
Instacart использует ИИ для установки разных цен на один и тот же товар для разных клиентов

Вам когда-нибудь казалось, что ваш заказ продуктов онлайн выглядит подозрительно, как будто цены не сходятся? Оказывается, у вас есть основания для подозрений, и теперь у нас есть убедительные доказательства.

Новое исследование, проведённое консорциумом организаций, в том числе Groundwork Collaborative, Consumer Reports и More Perfect Union, выявило доказательства масштабного эксперимента, который компания по доставке продуктов Instacart проводит над потребителями.

В ходе экспериментов исследователи обнаружили доказательства того, что Instacart, который называет себя «крупнейшим онлайн-магазином продуктов в Северной Америке», берёт с некоторых клиентов на 23 % больше, чем с других, за один и тот же товар в одном и том же месте.

https://futurism.com/artificial-intelligence/instacart-grocery-prices
😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск пошел по пути Цукера?

В смысле дурилова аудитории. Помните как выяснилось, что ИИ Цукерберга это 20К операторов-индусов, которые вручную тегировали видоконтент в соцсеточке, чьё имя нельзя называть....

Видео, опубликованное в интернете, вызвало предположения, что человекоподобный робот не обслуживал гостей автономно на мероприятии, а управлялся дистанционно человеком-экспертом, работающим за кулисами.

По окончании презы оператор не отключив связь снял гарнитуру, что и повторил робот. И упал.

Это не первый подобный промах для Tesla. Более года назад на мероприятии компании "We, Robot" Tesla, как сообщается, заставляла дистанционно управляемых роботов Optimus подавать напитки, танцевать и взаимодействовать с гостями. Эти сообщения создали довольно негативный имидж для компании, особенно на фоне громких заявлений Маска о потенциале человекоподобных роботов во всех аспектах жизни. В Китае же компании не только внедряют роботов на заводах, но и уже предлагают их по значительно более низким ценам, устанавливая при этом мировые рекорды Гиннесса .
1
Разработчик ChatGPT вдруг ослабил ограничения, призванные предотвратить уход новых сотрудников в разгар ожесточенной борьбы за таланты.

На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.

Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.

https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить

Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.

https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
Трамп создает в США Силы искусственного интеллекта с участием крупных технологических компаний.

Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.

В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.

https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
В лаборатории строгого режима в Шэньчжэне, Китай, ученые разработали прототип машины, способной производить передовые полупроводниковые чипы, имеющих решающее значение для ИИ и военных приложений, — цель, которую США давно стремятся предотвратить.

Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.

Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов.  https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
В школе в Овьедо был объявлен режим изоляции. По данным полицейского отчета, полицейский обыскал классы, но не смог найти человека и не услышал никакого шума.
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
😁21
Типичная сируктура проекта внедрения ИИ
😁5👏2💯2🔥1
Как OpenAI имитирует исследования безопасности ИИ

В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.

Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.

Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.

Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.

https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report

Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.

Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.

Основные выводы включают:

1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.

2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.

3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.

4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.

Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Сегодня Китай запустил новую метеорологическую модель на основе искусственного интеллекта, Fengyuan V1.0, разработанную как платформа с открытым исходным кодом для расширения возможностей прогнозирования погоды с помощью ИИ и проведения научных исследований.
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
Google ужесточает борьбу с синтетическими виддео.

По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.

Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.

SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:

Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.

Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.

Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.

https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
Компания ByteDance, владелец TikTok, повышает заработную плату и увеличивает бонусы, чтобы удержать сотрудников в условиях конкуренции за таланты в сфере искусственного интеллекта.

Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.

Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.

https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
Дефицит довёл до криминала: сотрудники Samsung брали взятки за оптовые поставки памяти без очереди

По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.

https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
Как Anthropic подставил всех своей открытостью

Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».

Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.

Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.

Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.

https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity