Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
455 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Разработчик ChatGPT вдруг ослабил ограничения, призванные предотвратить уход новых сотрудников в разгар ожесточенной борьбы за таланты.

На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.

Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.

https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd
Microsoft Copilot «без спроса» появился на телевизорах LG — и его нельзя удалить

Компания LG Electronics спровоцировала масштабное недовольство владельцев своей техники после того, как автоматическое обновление программного обеспечения для смарт-телевизоров на платформе webOS принудительно установило приложение ИИ-ассистента Microsoft Copilot, которое невозможно удалить стандартными средствами.

https://3dnews.ru/1133912/microsoft-copilot-bez-sprosa-poyavilsya-na-televizorah-lg-i-ego-nelzya-udalit/amp
Трамп создает в США Силы искусственного интеллекта с участием крупных технологических компаний.

Технологическое подразделение США наймет группу инженеров для разработки государственных технологий следующего поколения.

В официальном заявлении на сайте US Tech Force говорится , что в рамках двухлетней программы группы инженеров будут создавать «технологии нового поколения для государственного управления» и «ускорять внедрение искусственного интеллекта (ИИ)» для поиска решений технологических проблем, стоящих перед правительством.

https://www.ibtimes.co.uk/trump-launches-us-ai-tech-force-big-tech-why-jobs-power-are-stake-1763305
В лаборатории строгого режима в Шэньчжэне, Китай, ученые разработали прототип машины, способной производить передовые полупроводниковые чипы, имеющих решающее значение для ИИ и военных приложений, — цель, которую США давно стремятся предотвратить.

Этот прототип, завершенный в начале 2025 года и в настоящее время находящийся на этапе тестирования, занимает почти весь производственный цех.

Он был собран группой инженеров, ранее работавших в голландской компании ASML, занимающейся производством полупроводников, которые провели обратное проектирование машин экстремальной ультрафиолетовой литографии (EUV), необходимых для производства чипов.  https://moderndiplomacy.eu/2025/12/17/the-ai-chip-arms-race-how-china-built-its-own-manhattan-project/
В школе в Овьедо был объявлен режим изоляции. По данным полицейского отчета, полицейский обыскал классы, но не смог найти человека и не услышал никакого шума.
Затем диспетчеры добавили еще одну деталь. При более внимательном изучении изображения, переданного в полицию, они сообщили офицеру, что предполагаемая винтовка могла быть музыкальным инструментом для оркестра.
Офицер отправился туда, где прятались студенты в музыкальном классе. Он обнаружил виновника — студента в военном костюме для тематического костюмированного дня — и «предполагаемое оружие»: кларнет.
https://www.washingtonpost.com/nation/2025/12/17/ai-gun-school-detection/
😁21
Типичная сируктура проекта внедрения ИИ
😁5👏2💯2🔥1
Как OpenAI имитирует исследования безопасности ИИ

В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.

Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.

Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.

Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.

https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report

Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.

Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.

Основные выводы включают:

1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.

2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.

3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.

4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.

Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Сегодня Китай запустил новую метеорологическую модель на основе искусственного интеллекта, Fengyuan V1.0, разработанную как платформа с открытым исходным кодом для расширения возможностей прогнозирования погоды с помощью ИИ и проведения научных исследований.
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
Google ужесточает борьбу с синтетическими виддео.

По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.

Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.

SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:

Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.

Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.

Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.

https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
Компания ByteDance, владелец TikTok, повышает заработную плату и увеличивает бонусы, чтобы удержать сотрудников в условиях конкуренции за таланты в сфере искусственного интеллекта.

Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.

Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.

https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
Дефицит довёл до криминала: сотрудники Samsung брали взятки за оптовые поставки памяти без очереди

По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.

https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
Как Anthropic подставил всех своей открытостью

Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».

Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.

Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.

Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.

https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
Дональд Трамп представил амбициозные планы на будущее ВМС США, представив так называемый «Золотой флот».

Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.

https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
У Пентагона и гигантов в области ИИ есть одно очень слабое место. И тем, и другим крайне необходимы китайские батареи))))) а своих сильно мало

https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
В 2026 году компания ByteDance (владелец TikTok) планирует потратить около 23 миллиардов долларов на капитальные вложения в ИИ, делая большую ставку на вычислительные мощности для обеспечения следующего этапа своего роста.

Большая часть этих средств будет направлена ​​на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.

https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
Должен ли искусственный интеллект обладать юридическими правами?

Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.

https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
💊1
OpenAI изучает способы монетизации ChatGPT с помощью разговорной рекламы.

По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
🕊1
Когда предвзятость искусственного интеллекта становится угрозой на поле боя.

Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.

В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.

Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.

https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
2