ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
Forwarded from CyberSecurityTechnologies
VLM_Multi-Faceted_Attack.pdf
8 MB
#MLSecOps
#Offensive_security
"Multi-Faceted Attack: Exposing Cross-Model Vulnerabilities in Defense-Equipped Vision-Language Models", Nov. 2025.

// Multi-Faceted Attack (MFA) - framework that systematically uncovers general safety vulnerabilities in leading defense-equipped VLMs, including GPT-4o, Gemini-Pro, and LlaMA 4, etc. Central to MFA is the Attention-Transfer Attack, which conceals harmful instructions inside a meta task with competing objectives. We offer a theoretical perspective grounded in reward-hacking to explain why such an attack can succeed
👍1
Forwarded from CodeCamp
Российские ученые взяли трофей на NeurIPS 2025 — команда In2AI заняла первое место в международном турнире по стратегическому мышлению для ИИ-агентов.

В состав сборной вошли представители научного партнера Сбера — Институт AIRI. Одна из их моделей с 8B параметров обошла участников на GPT-5, Gemini 2.5 Pro и Grok 4. В итоге она выиграла сразу в двух треках: Efficient и Open.

Секрет успеха — в системном инженерном подходе к обучению с подкреплением. Всего в соревновании участвовали 76 команд и 944 модели.

Наши слоны 💪
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Forwarded from GitHub Community
Baby Dragon Hatchling (BDH) — это архитектура большой языковой модели, вдохновлённая биологией, которая объединяет принципы глубокого обучения с основами нейробиологии.

Разработанная исследователями из Pathway, BDH представляет собой теоретическую и практическую основу для понимания того, как в искусственных системах возникают рассуждения и обобщения.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1🥱1
Forwarded from CyberSecurityTechnologies
Lifecycle_Supervision_Framework_for_Robustly_Aligned_AI_Agents.pdf
3.4 MB
#AIOps
#CogSec
#MLSecOps
"Cognitive Control Architecture (CCA): A Lifecycle Supervision Framework for Robustly Aligned AI Agents", Dec.2025.

// Method is predicated on a core insight: no matter how subtle an IPI attack, its pursuit of a malicious objective will ultimately manifest as a detectable deviation in the action trajectory, distinct from the expected legitimate plan

See also:
]-> Dynamic Environment to Evaluate Prompt Injection Attacks and Defenses for LLM Agents
]-> https://agentdojo.spylab.ai
Большой релиз OWASP Top 10 for Agentic AI Applications 🔥.

Последние месяцы мы в команде Agentic Security Initiative собирали первый отраслевой фреймворк по безопасности агентных ИИ-систем. Над документом работали более 100 человек: ресерчеры, вендоры, представители регуляторов и институтов вроде NIST и Linux Foundation.

Мы приоритизировали риски и собрали практические меры защиты для автономных агентов, которые уже заходят в корпоративную инфраструктуру. Если вы строите AI Security-стратегию на 2026 год, из OWASP в первую очередь стоит взять именно этот документ за основу.

Ссылка на релиз.
Сегодня в 17:00 по Москве официальный запуск гайда. Ссылка на трансляцию.
Forwarded from Похек AI (Сергей Зыбнев)
Nikita Barsukov — Look at my Pickle (2025).pdf
9.9 MB
Презентации с митапа LLAMATOR в Ереване
🔥31🥱1
Forwarded from DevSecOps Talks
Building Secure AI Applications.pdf
2.7 MB
Building Secure AI Applications

Всем привет!

В приложении можно скачать небольшой методический материал (~ 40 страниц), посвященный тому, на что обращать внимание при обеспечении ИБ при разработке приложений, использующих AI.

Материал основан на OWASP Top 10 для LLM:
🍭 LLM01 Prompt Injection
🍭 LLM02 Sensitive Information Disclosure
🍭 LLM03 Supply Chain
🍭 LLM04 Data and Model Poisoning
🍭 LLM05 Improper Output Handling и не только

Для каждого раздела описаны общие рекомендации по повышению уровня защищенности и перечень инструментов, которые можно использовать для автоматизации.

Дополнительно в материале представлена концептуальная архитектура с соотношением рассматриваемых угроз.
Forwarded from RoboFuture
У Anthropic вышло очень интересное видео на тему универсальных агентов (general-purpose agents), которое у меня максимально отзывается. Основной посыл - не нужно делать специализированных агентов, нужно делать одного качественного универсального, а его уже кастомизировать под свои задачи

Само видео (16 минут) и короткая статья по нему от businessinsider

Инженеры из Anthropic предлагают вместо набора агентов использовать скилы для агента, который изначально создан для написания кода (Claude Code). Дальше они говорят, что skills будут использовать не только инженеры, но и нетехнические специалисты - врачи, менеджеры, трейдеры и тд, которые будут кастомизировать этого агента под себя

По их логике, один general-purpose агент + библиотека skills становится “универсальной основой” для множества задач — без зоопарка спецагентов

Иными словами, такой агент - универсальный интерфейс к миру

А вот с тем, что CLI-агент подходит нетехническим специалистам, я не согласен… Все-таки инструмент достаточно специфичный. Мне кажется, что будущее действительно за универсальными агентами, но не совсем такими.
Для работы будут использоваться агенты, которые выглядят как чатовый интерфейс (как ChatGPT)

Примерно год назад наша команда загорелась идеей универсального агента GigaAgent, которого недавно представили на AIJ. Уже довольно много коллег разработчиков мне отписалось о тестировании, на AIJ и Conversations заинтересовались компании. Здесь могу только порадоваться, напомнить ставить звездочки нашему опенсорс-агенту и присылать PR :) Круто, что большие игроки тоже увидели будущее в этом подходе!

P.S. У нас большое обновление в dev ветке - MCP, RAG, долговременная память
👍3
Forwarded from MLTimes
Gartner предупредила о киберрисках при использовании ИИ-браузеров

Gartner выпустила рекомендацию для организаций по блокировке агентских ИИ-браузеров. Речь о продуктах вроде Comet от Perplexity и ChatGPT Atlas от OpenAI. Причина - высокие киберриски для корпоративных данных.

Документ называется "Кибербезопасность должна пока блокировать браузеры с ИИ". Его подготовили вице-президент по исследованиям Деннис Сюй, старший директор-аналитик Евгений Миролюбов и вице-президент-аналитик Джон Уоттс. Главная претензия - настройки по умолчанию ставят удобство выше безопасности.

https://mltimes.ai/gartner-predupredila-o-kiberriskah-pri-ispolzovanii-ii-brauzerov/
Forwarded from Градиент обреченный (Sergei Averkiev)
Все про кодовые модели

Хороший обзор Code LLMs, от фундаментальных моделей до агентов.

🟢 Какие задачи есть в кодогенерации. Неплохая таксономия (code completion, FIM, оптимизация кода, ревью, генерация тестов и т.д.)

🟢 Как обучают, про претрейн для кода, SFT и RL. Какие есть метрики и бенчи под них.

Добавляем в закладки, когда-нибудь почитаем.

https://arxiv.org/pdf/2511.18538
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Forwarded from SecPost
🧠Рынок кибербезопасности для ИИ готовится к взрывному росту, прогнозируя объём в миллиарды рублей уже к 2026 году. Его подстёгивают первые громкие инциденты с утечками данных через AI-модели, которые создают спрос на защиту.

При этом интеграция ИИ в бизнес опережает внедрение систем контроля, открывая новое поле для кибератак и формируя стремительно растущий сегмент рынка, подробнее в материале SecPost😍
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AISecure
Начал проходить AI Red Teamer от Hack The Box (делают вместе с Google).

Это путь про red team-подходы к AI-системам: LLM, prompt injection, атаки на данные, evasion-атаки, безопасность AI-приложений и всё вокруг этого. Формат классический для HTB — теория + практика.

Что показалось интересным — курс довольно быстро расширяется.
Когда начинал, в пути было 5 модулей, сейчас уже 12, и часть из них добавили совсем недавно.

Текущий состав модулей:

- Fundamentals of AI
- Applications of AI in InfoSec
- Introduction to Red Teaming AI
- Prompt Injection Attacks
- LLM Output Attacks
- AI Data Attacks
- Attacking AI — Application and System
- AI Evasion — Foundations
- AI Evasion — First-Order Attacks
- AI Evasion — Sparsity Attacks
- AI Privacy (NEW)
- AI Defense (NEW)

Причём все уроки уровня — Medium / Hard, так что это не «ознакомительный курс», а достаточно плотный материал.
И с пометкой NEW - совсем свежие модули,

Сам ещё в процессе, поэтому финальные выводы делать рано. Но как структурированная обучалка по AI red teaming и безопасности ИИ в целом — выглядит интересно, плюс видно, что путь активно допиливают и расширяют.

Если тема AI security откликается — стоит глянуть.


#security #HTB #AI #RedTeam
👍2
Forwarded from Innovation & Research
AI-агенты летят в космос

Космические аппараты становятся слишком сложными, слишком автономными и слишком удаленными от Земли, чтобы полагаться на статические правила и наземные исследования. Мультиагентный подход к AI-разработке дает практичный, поэтапный, оперативно совместимый метод обнаружения, понимания и реагирования на аномалии — особенно на те, которые ранее не наблюдались.

Этот подход повышает надежность миссии, улучшает безопасность и готовит космические системы к реалиям работы в условиях отсутствия связи с Землей.

Такой подход, основанный на совместном мышлении, обеспечивает ряд оперативных преимуществ:

- Чувствительность к тонким закономерностям: Благодаря специализации агентов, они могут обнаруживать отклонения на ранних стадиях, которые упускаются из виду в рамках широких монолитных моделей.
- Снижение количества ложных срабатываний: Согласованность действий агентов повышает уверенность и снижает уровень шума в ходе выполнения миссии.
- Охват неизвестных неизвестных: Агенты могут отслеживать отклонения без необходимости использования предопределенных меток или исторических примеров.
- Бортовое, независимое от Земли распознавание: При развертывании на орбите агенты могут диагностировать проблемы даже при длительных перебоях в связи.

По мере расширения лунных, марсианских и космических миссий это становится структурным требованием. Миссии должны обеспечивать безопасную работу, не полагаясь исключительно на наземный контроль.

Небольшая заметка об этом от основателя стартапа, работающего над мультиагентной архитектурой для космических миссий.
https://spacenews.com/how-multi-agent-ai-can-strengthen-space-missions-against-the-unknown/