Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Патрик Гелсингер (Patrick Gelsinger), почти через год после увольнения, решил слить немнго инфы из Intel. Подписка о неразглашении закончилась?

Бывший глава Intel Гелсингер заявил, что к концу десятилетия нынешние ускорители ИИ станут бесполезными.

Бывший глава Intel считает квантовые вычисления тем технологическим прорывом, который изменит жизнь большинства людей на следующем этапе. Наступит он, кстати, по мнению Гелсингера, довольно скоро, поскольку до начала массового внедрения квантовых компьютеров должно пройти не более двух лет.

https://www.ft.com/content/0b394037-65c0-4664-9b40-10115a2c55c0
🤔1
Трамп нашел относительно безопасную точку роста для "нового" диджитал-ВПК

Сосредоточение Трампа на войне с наркотиками означает большой бизнес для оборонных стартапов

Американские военные обратили свое внимание на юг, и оборонная промышленность выстраивается в очередь, чтобы продать им инструменты для войны другого типа.

Компании оборонно-технологической отрасли и стартапы в области искусственного интеллекта нашли новый важный рынок в стремительно обостряющейся войне президента Трампа с наркотиками. Оружие и платформы искусственного интеллекта, разработанные для будущего конфликта с Китаем или не зарекомендовавшие себя на украинском поле боя, нашли свою нишу в технологической борьбе администрации с наркоторговлей.

https://www.wsj.com/politics/national-security/trumps-focus-on-drug-war-means-big-business-for-defense-startups-04f45ce8
🤔2👍1
Еще одно исследование

Люди, взаимодействующие с чат-ботами, как правило, моложе и испытывают более сильный психологический стресс, чем те, кто не использует подобные технологии.

Результаты показывают, что, хотя эти инструменты искусственного интеллекта часто разрабатываются и рекламируются как средство общения, их использование зачастую связано с чувством одиночества и эмоциональной напряженностью, а не с улучшением самочувствия.

https://journals.sagepub.com/doi/10.1177/02654075251392956
👍3🤔1
Семантика синтетической реальности: анатомия борьбы Meta за маркировку контента ИИ

После выговора от Совета по надзору компания Meta пересматривает свою политику в отношении манипулятивных медиа, переходя от удаления к контекстной маркировке.

Катализатором этой трансформации стал конкретный случай с смонтированным видео президента Джо Байдена, который Совет по надзору использовал, чтобы подчеркнуть неадекватность предыдущих правил Meta. Эти правила, написанные в эпоху, когда дипфейки были теоретической новинкой, а не повсеместным инструментом, были узко определены для выявления только контента, сгенерированного ИИ, который заставлял субъекта произносить слова, которых он не говорил.

Приняв политику маркировки вместо удаления контента, Meta пытается найти баланс между свободой слова и безопасностью пользователей – баланс на грани, который исторически преследовал социальные платформы. Компания объявила о начале применения маркировки «Создано с помощью ИИ» к более широкому спектру видео-, аудио- и графического контента. Это решение принимается на основе самораскрытия пользователей и обнаружения стандартных отраслевых индикаторов, таких как метаданные C2PA и невидимые водяные знаки, встроенные с помощью инструментов генеративного ИИ, таких как Midjourney и DALL-E 3.

Однако реализация этой инициативы по повышению прозрачности сразу же столкнулась с суровой реальностью цифрового творчества. Опора на стандарты метаданных, хотя и технически обоснована, не позволяет распознать контекст, позволяющий отличить полностью сфабрикованное изображение от фотографии, подвергшейся стандартной обработке. Как подробно изложено в обновлении политики Meta’s Newsroom , компания обязалась сохранять сфабрикованный контент до тех пор, пока он не нарушает другие нормы сообщества, такие как подавление избирателей или преследование, фактически перекладывая бремя различения на пользователя, а не на модератора.

https://www.webpronews.com/the-semantics-of-synthetic-reality-inside-metas-struggle-to-label-ai-content-without-alienating-creators/
🤔1
Теневой ИИ (Shadow AI) в браузере: следующая «слепая зона» для предприятий

Теневой ИИ (Shadow AI) — это инструменты на базе GenAI, расширения для браузеров и сами браузеры, которые сотрудники используют самостоятельно, без какой-либо проверки или руководства со стороны компании. Теневой ИИ существует непосредственно в браузере.

1. Агенты ИИ внутри браузера: новое слепое пятно
Агенты ИИ, встроенные непосредственно в браузер, будь то агентские браузеры, такие как ChatGPT Atlas, или расширения на базе ИИ, работают с теми же привилегиями, что и пользователь. Они могут читать конфиденциальную информацию на вкладках, интерпретировать инструкции, обобщать данные с информационных панелей и выполнять действия внутри нескольких SaaS-приложений.

2. Расширения ИИ: теневой ИИ с наивысшими привилегиями
Расширения браузера и без того были серьёзным вектором риска. ИИ теперь сделал их ещё более опасными. Расширения на базе ИИ регулярно запрашивают повышенные разрешения, такие как чтение/изменение всех данных на посещённых сайтах, проверка содержимого буфера обмена, извлечение текста из любого элемента DOM, а также автоматическое заполнение или редактирование полей ввода в приложениях.

3. Косвенная инъекция: ИИ распознает атаку
Один из самых опасных рисков в современных браузерных ИИ связан с непрямым внедрением подсказок. Это означает, что пользователь не делает абсолютно ничего противозаконного, но ИИ-помощник браузера считывает скрытые вредоносные инструкции, встроенные в страницу.

4. Раскрытие личности и сеанса с помощью помощников на базе искусственного интеллекта
Агенты ИИ в браузерах часто обрабатывают конфиденциальные данные, о раскрытии которых пользователи даже не догадываются. К таким данным относятся сеансовые файлы cookie, токены аутентификации, внутренние URL-адреса, конфиденциальные данные внутри веб-приложений и многое другое. Когда помощник ИИ обобщает данные на панели управления, анализирует приложение или считывает экран пользователя, он может непреднамеренно обрабатывать и передавать эти артефакты идентификации.

https://thehackernews.com/expert-insights/2025/12/shadow-ai-in-browser-next-enterprise.html
🤔1
Бородатый анекдот про команду "format:C" на конференции про новую ОСь заиграл новыми красками

Google Antigravity удалила все содержимое жесткого диска разработчика: встроенный ИИ-агент хотел пофиксить баг — и решил проблему радикально.

https://www.reddit.com/r/google_antigravity/comments/1p82or6/google_antigravity_just_deleted_the_contents_of/
🤣3
«Катастрофически плохая идея»: бывший инженер NASA разгромил идею космических дата-центров.

Идея перенести ЦОД и ИИ в космос для решения ряда кардинальных проблем с потреблением, экологичностью и масштабированием более сложна в реализации, чем кажется на первый взгляд. На словах всё выглядит вполне реально, вопрос якобы заключается только в финансировании проектов. Бывший инженер NASA с учёной степенью объяснил, что это «ужасная, кошмарная, никуда не годная идея».

https://taranis.ie/datacenters-in-space-are-a-terrible-horrible-no-good-idea/
🤔1
Исследование: Компании, занимающиеся разработкой ИИ, не соблюдают стандарты безопасности СОВСЕМ

Согласно новому выпуску индекса безопасности ИИ-технологий Института будущего жизни (The Future of Life Institute), опубликованному в среду, методы обеспечения безопасности крупнейших компаний в сфере искусственного интеллекта, таких как Anthropic, OpenAI, xAI и Meta, «не соответствуют новым мировым стандартам».

«Несмотря на недавний шум по поводу хакерских атак с использованием искусственного интеллекта и того, что искусственный интеллект доводит людей до психоза и членовредительства, американские компании, работающие в сфере искусственного интеллекта, по-прежнему регулируются слабее, чем рестораны, и продолжают лоббировать против обязательных стандартов безопасности»

Исследование было проведено на фоне возросшей обеспокоенности общественности влиянием на общество систем, превосходящих по интеллекту человека и способных к рассуждению и логическому мышлению, после того как несколько случаев самоубийств и членовредительства были связаны с чат-ботами на основе искусственного интеллекта.

https://www.innovationaus.com/ai-companies-fall-short-on-safety-standards-study-shows/
🤔1
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml
👍2
Реальные опасности, которые несет в себе государство слежки, создаваемое Palantir

Palantir находится на перекрёстке всего, чего американцы должны бояться:

1 нерегулируемого искусственного интеллекта,
2 милитаризованной аналитики данных,
3 концентрированного богатства,
4 правительства,
открыто враждебного к инакомыслию.

Это пересечение не метафорично. Оно буквальное. И оно представляет собой самую агрессивную консолидацию власти в сфере видеонаблюдения в современной истории Америки. Это не домыслы. Это происходит прямо сейчас.

https://sfl.media/understanding-the-real-dangers-of-the-surveillance-state-palantir-is-constructing/
🤔1🤝1
Гендиректор Palantir Алекс Карп считает, что легализация военных преступлений пойдёт на пользу бизнесу (видимо его бизнесу)

В интервью New York Times DealBook Summit на этой неделе Карп заявил, что легализация военных преступлений США откроет для Palantir совершенно новый рынок сбыта.

Генеральный директор обсуждал продолжающиеся авиаудары США по небольшим судам в Карибском море. На данный момент администрация Трампа убила 83 мирных жителя из Южной Америки в ходе 21 известной операции. Многие учёные и эксперты в области права считают эти военные действия военными преступлениями, нарушающими конституцию США.

Но в гипотетическом мире, где эти удары по ни в чём не повинным людям были бы законными, по мнению Карпа, Palantir могла бы заработать много денег.

«Одна из причин, по которой мне нравится этот вопрос, заключается в том, что чем более конституционным вы хотите сделать закон, чем более точным вы хотите его сделать, тем больше вам понадобится мой продукт, — сказал генеральный директор. — Так что продолжайте настаивать на том, чтобы сделать закон конституционным. Я полностью это поддерживаю».


https://futurism.com/future-society/palantir-ceo-war-crimes
🤝2👏1😁1