Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
454 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Типичная сируктура проекта внедрения ИИ
😁5👏2💯2🔥1
Как OpenAI имитирует исследования безопасности ИИ

В этом месяце компания OpenAI объявила о выделении «2 миллионов долларов» на исследования в области безопасности и благополучия ИИ. На первый взгляд, это может показаться щедрой суммой, но, следуя примеру других технологических гигантов, подвергающихся критике за влияние их продуктов на психическое здоровье, это не что иное, как имитация поддержки.

Эта отраслевая практика выделяет мизерные суммы на исследования, которые обречены на неэффективность из-за информации и ресурсов, которые компании скрывают. Когда имитация поддержки срабатывает, оно подрывает доверие и саботирует поиск ответов. И это оскорбление для всех, чьи близкие погибли из-за чат-ботов.

Заявление OpenAI прозвучало через неделю после того, как юристы компании заявили, что она не виновата в смерти калифорнийского подростка, которого ChatGPT подтолкнул к самоубийству. Пытаясь снять с себя ответственность в суде, компания даже запросила список приглашенных на поминки подростка и видеозаписи церемонии и присутствующих там людей.

Посмотрите на размеры грантов. Высококачественные исследования в области общественного здравоохранения, посвященные вреду для психического здоровья, требуют последовательности исследований, больших выборок, доступа к клиническим пациентам и этической системы поддержки людей из группы риска. Средний размер гранта на исследовательский проект от Национального института психического здоровья в 2024 году составлял 642 918 долларов. В отличие от этого, OpenAI предлагает исследователям, изучающим ИИ и психическое здоровье, всего лишь от 5000 до 100 000 долларов , что в лучшем случае составляет одну шестую часть типичного гранта NIMH.

https://www.techpolicy.press/beware-of-openais-grantwashing-on-ai-harms/
🤔2
Институт безопасности ИИ запилил отчет: Frontier AI Trends Report

Отчет представляет собой публичную оценку развития самых передовых систем ИИ, используются результаты двухлетнего тестирования возможностей ИИ в областях, имеющих решающее значение для инноваций и безопасности, включая кибербезопасность, химию и биологию.

Основные выводы исследования показывают, что самые передовые системы искусственного интеллекта совершенствуются с поразительной скоростью. Всего за несколько лет они прошли путь от решения элементарных задач до достижения или даже превышения возможностей экспертов-людей в некоторых областях.

Основные выводы включают:

1⃣ Кибербезопасность: успешность выполнения задач уровня стажера выросла с менее чем 9 процентов в 2023 году до примерно 50 процентов в 2025 году. Впервые в 2025 году модель успешно выполнила задачу по кибербезопасности экспертного уровня, для решения которой требовалось до 10 лет опыта.

2⃣ Разработка программного обеспечения: модели теперь могут выполнять часовые задачи по разработке программного обеспечения более чем в 40% случаев, по сравнению с менее чем 5% два года назад.

3⃣ Биология и химия: системы теперь превосходят результаты исследователей со степенью доктора наук в тестах на научные знания и помогают неспециалистам добиваться успеха в лабораторной работе, которая ранее была бы им недоступна.

4⃣ Темпы изменений: продолжительность выполнения некоторых киберзадач системами искусственного интеллекта без участия человека примерно удваивается каждые восемь месяцев.

Сам отчет тут:
https://www.aisi.gov.uk/frontier-ai-trends-report/pdf
Сегодня Китай запустил новую метеорологическую модель на основе искусственного интеллекта, Fengyuan V1.0, разработанную как платформа с открытым исходным кодом для расширения возможностей прогнозирования погоды с помощью ИИ и проведения научных исследований.
https://global.chinadaily.com.cn/a/202512/19/WS69453b52a310d6866eb2f901.html
Google ужесточает борьбу с синтетическими виддео.

По мере роста количества контента, создаваемого с помощью ИИ, с той же скоростью возрастает риск мошенничества и манипуляций. Эта проблема доверия, с которой мы сталкиваемся, превращается в цифровую экосистему, наполненную видео, изображениями и текстами, вводящими пользователей в заблуждение.

Для решения этой проблемы Google интегрирует технологии аутентификации, такие как SynthID, с мощными инфраструктурами, такими как Gemini. Такое сочетание создает четкий периметр безопасности для создателей контента, издателей и пользователей. Теперь давайте шаг за шагом рассмотрим ключевые элементы этой экосистемы и выясним, какие механизмы являются основополагающими для обеспечения надёжности.

SynthID разработан для проверки оригинальности контента, созданного с помощью искусственного интеллекта. Он выявляет следы использования искусственного интеллекта в визуальном и видеоконтенте и предоставляет доказательства подлинности и целостности контента. Его основные преимущества можно описать следующим образом:

Отслеживаемость: непрерывный мониторинг источника создания контента и преобразований в процессе его производства.

Показатель надёжности: предоставляет пользователю информацию о надёжности оригинального продукта и его модификаций.

Возможность расширения. Изначально система была ориентирована на контент, созданный с помощью искусственного интеллекта Google, но со временем её функционал расширится и будет включать другие инструменты.

https://raillynews.com/2025/12/google-started-the-war-with-artificial-intelligence-generated-videos-with-gemini/
Компания ByteDance, владелец TikTok, повышает заработную плату и увеличивает бонусы, чтобы удержать сотрудников в условиях конкуренции за таланты в сфере искусственного интеллекта.

Пекинская компания ByteDance повысила заработную плату и улучшила систему поощрений, активизируя усилия по удержанию и привлечению талантливых сотрудников по всему миру и продвигаясь в решении вопросов будущего своего бизнеса в США.

Внутреннее письмо, разосланное всем сотрудникам в пятницу и оказавшееся в распоряжении Post, гигант социальных сетей заявил, что поднимет как верхний, так и нижний пределы компенсационных пакетов для сотрудников всех рангов.

https://www.scmp.com/tech/article/3337174/bytedance-raises-pay-boosts-bonuses-retain-staff-amid-ai-talent-war
Дефицит довёл до криминала: сотрудники Samsung брали взятки за оптовые поставки памяти без очереди

По данным DigiTimes, Samsung расследует случаи предполагаемых откатов, связанных с продажами памяти DRAM и NAND на Тайване. В сообщении говорится, что штаб-квартира Samsung тайно направила следователей на Тайвань для проведения «внутреннего расследования» и опроса сотрудников подразделений, связанных с полупроводниками, после того как источники в цепочке поставок указали на случаи неоправданных скидок при закупке памяти.

https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?CnlID=1&id=0000741430_QMI33TMU4AXG46L1XKNMF
Как Anthropic подставил всех своей открытостью

Китайские хакеры успешно использовали ИИ компании Anthropic для проведения хакерской кампании практически без участия человека, взломав «крупные технологические компании и правительственные учреждения».

Китайские злоумышленники не просто использовали модель ИИ Anthropic для поиска уязвимости в цифровой броне. Они создали систему взлома, которая объединяла множество отдельных сеансов ИИ, каждый из которых работал над различными аспектами вторжения.

Система взлома на основе ИИ была не только сложной, но и сами атаки проводились в шесть фаз, с множеством шагов в каждой фазе. В общей сложности система ИИ, вероятно, предприняла десятки или более отдельных шагов против каждой успешной цели. Ни один из отдельных шагов не был чем-то революционным, как и их объединение.

Адаптируясь на каждом этапе, эта кампания была направлена на фундаментальную стратегию киберзащиты, а не на какой-либо из ее компонентов.

https://nationalinterest.org/blog/techland/anthropics-ai-attack-threatens-the-strategy-at-the-foundation-of-cybersecurity
Дональд Трамп представил амбициозные планы на будущее ВМС США, представив так называемый «Золотой флот».

Центральным элементом этой инициативы являются два новых корабля «класса Трамп», которые президент охарактеризовал как передовые «линкоры» на ИИ.

https://news.ssbcrack.com/trump-unveils-plans-for-ai-controlled-trump-class-navy-battleships/
У Пентагона и гигантов в области ИИ есть одно очень слабое место. И тем, и другим крайне необходимы китайские батареи))))) а своих сильно мало

https://www.nytimes.com/2025/12/23/climate/pentagon-weapons-ai-artificial-intelligence-china-batteries.html
В 2026 году компания ByteDance (владелец TikTok) планирует потратить около 23 миллиардов долларов на капитальные вложения в ИИ, делая большую ставку на вычислительные мощности для обеспечения следующего этапа своего роста.

Большая часть этих средств будет направлена ​​на инфраструктуру Doubao, быстрорастущего ИИ-помощника от ByteDance, а также на инструменты, обеспечивающие рекламу и рекомендации контента. Ключевой частью плана является тестирование около 20 000 устройств Nvidia.

https://www.tradingview.com/news/gurufocus:4f40830a8094b:0-bytedance-plans-23-billion-ai-spending-spree/
Должен ли искусственный интеллект обладать юридическими правами?

Вопрос смелый, но неизбежный: следует ли предоставлять искусственному интеллекту юридические права? На данный момент однозначный ответ — нет. Системы ИИ не обладают сознанием, эмоциями или моральной ответственностью. Но по мере того, как ИИ становится все более мощным и все больше вплетается в повседневную жизнь, возникают дебаты о том, может ли потребоваться какая-либо форма ограниченного правового статуса — или даже прав.

https://www.blockchain-council.org/ai/should-ai-have-legal-rights/
💊1
OpenAI изучает способы монетизации ChatGPT с помощью разговорной рекламы.

По сообщениям, компания OpenAI Group PBC, любимица индустрии искусственного интеллекта, рассматривает идею встраивания рекламы в ответы ChatGPT на фоне давления со стороны инвесторов, требующих начать монетизацию... https://siliconangle.com/category/ai/
🕊1
Когда предвзятость искусственного интеллекта становится угрозой на поле боя.

Современный искусственный интеллект в оборонной сфере обучается на основе исторических данных о боевых действиях, тщательно отобранных наборов данных и синтетических симуляций. Эти источники содержат закономерности и пробелы.

В 2003 году коалиционные силы обнаружили, что системы наведения, оптимизированные для угроз времен холодной войны, испытывали трудности при столкновении с платформами, не входящими в НАТО, и трофейной техникой.

Теперь представьте ту же самую хрупкость, закодированную в весах нейронной сети: модель целеуказания ИИ сталкивается с советским танком Т-72, используемым коалиционными силами, но сигнатура машины совпадает с сигнатурами профилей противника в обучающих данных. Модель присваивает ей классификацию «противник» с 89% уверенностью — это показатель уверенности модели, а не гарантия правильности. Высокая уверенность означает, что модель уверена в том, что она видела раньше в обучающих данных, а не в том, что находится перед ней на самом деле.

https://smallwarsjournal.com/2025/12/25/algorithimic-fratricide/
2
С мая 2021 года, когда израильские силы обороны начали то, что офицеры назвали «первой войной с использованием искусственного интеллекта» в стране во время 11-дневного конфликта в Газе, Израиль продолжает расширять использование технологий искусственного интеллекта для слежки и нанесения ударов по палестинскому гражданскому населению.

Эскалация военной тактики с включением автоматизированных систем, работающих с минимальным участием человека, вызвала серьезные опасения по поводу зависимости от несанкционированного извлечения данных и принятия решений с помощью компьютеров в военизированных операциях, что свидетельствует о растущей конвергенции между механизированной войной и информационным капиталом в цифровую эпоху.  https://davisvanguard.org/2025/12/ai-warfare-human-rights/
This media is not supported in your browser
VIEW IN TELEGRAM
А не надо плохому учить...
😁4🔥3👏1
Китай предлагает принять меры против эмоционального влияния чат-ботов с искусственным интеллектом и риска самоубийств.

В Китае были опубликованы проекты правил, направленные на ограничение эмоционального взаимодействия систем искусственного интеллекта с пользователями, что вводит новую категорию надзора за тем, что регулирующие органы описывают как человекоподобные интерактивные сервисы искусственного интеллекта.

Предложение поступило от Управления по вопросам киберпространства Китая, действующего в рамках национального органа по управлению интернетом и искусственным интеллектом, и немедленно инициировало процесс общественных консультаций, в ходе которого были определены требования к соблюдению норм компаниями, использующими чат-боты, имитирующие эмоциональную или разговорную близость.

Акцент на эмоциональном взаимодействии отражает растущую обеспокоенность среди клиницистов и исследователей тем, что длительные, захватывающие беседы с чат-ботами могут усиливать вредные психические состояния, особенно когда системы отражают или подтверждают субъективную реальность пользователя без каких-либо возражений.

https://www.mobileappdaily.com/news/china-draft-rules-emotional-safety-ai-chatbots
Нетаньяху делает ставку на Маска в развитии ИИ в Израиле.

Илон Маск принял приглашение премьер-министра Израиля Биньямина Нетаньяху посетить Израиль в марте для участия в конференции по интеллектуальным транспортным системам.

В воскресенье генеральный директор Tesla принял участие в телефонной конференции с Нетаньяху, пока премьер-министр находился во Флориде. К обсуждению, посвященному развитию искусственного интеллекта и законодательству об автономных транспортных средствах, также присоединились министр транспорта Мири Регев и глава Национального управления по искусственному интеллекту Эрез Аскал.

https://www.technobezz.com/news/elon-musk-accepts-invitation-to-visit-israel-for-ai-transpor-2025-12-29-4i5m
Вот и пошла ответная реакция образовательных учрждений на повальное использование ИИ

Ирландские университеты призвали вернуть устные экзамены, чтобы бороться со злоупотреблениями в сфере ИИ

Согласно рекомендациям Управления высшего образования (Higher Education Authority, HEA), университеты Ирландии могут чаще проводить очные собеседования и традиционные письменные экзамены в рамках новых мер по борьбе с неправомерным использованием искусственного интеллекта (ИИ) в сфере высшего образования.

Рекомендации, изложенные в 20-страничном отчёте, призывают высшие учебные заведения пересмотреть методы оценивания, чтобы обеспечить подлинность студенческих работ.

Одна из предлагаемых мер — регулярное проведение «устной проверки», в ходе которой студенты должны будут лично обсуждать свои задания, чтобы подтвердить, что работа выполнена ими самостоятельно.

По мнению HEA, из-за стремительного развития инструментов генеративного ИИ, которые могут создавать убедительные эссе и другие академические материалы, преподавателям становится всё сложнее оценивать оригинальность работ.

https://www.usmuslims.com/irish-universities-urged-to-bring-back-oral-exams-to-counter-ai-misuse-330017h.htm
👍21