ML&|Sec Feed – Telegram
ML&|Sec Feed
913 subscribers
926 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from Чуковский
Schema-Guided Reasoning

В профильных LLM-каналах начал набирать популярность термин SGR (Schema-Guided Reasoning), но по какой-то причине народ не всегда понимает, что он обозначает, и зачем нужен. Никакого секрета нет, главное запомнить одно уравнение:

SGR = SO + COT



Из чего складывается Schema-Guided Reasoning:

1️⃣Во-первых, нам нужна модель, которая поддерживает Stuctured Output (SO) - возможность управлять результатом работы LLM, "зануляя" вероятности токенов, не подходящих под описанную нами грамматику, прямо во время выполнения.

2️⃣Во-вторых, нам нужно определить структуру желаемого ответа так, чтобы она "помогала" модели мыслить (тот самый Chain-Of-Thought).
Мы как бы «заставляем» модель пройти определенные этапы размышления перед тем как дать ответ, чтобы в результате вероятность корректных токенов ответа была выше.

Отличным примером использования такой техники является бот для дип-ресерча на открытых модельках sgr-deep-research, разработанный автором канала @neuraldeep:

🟢Сначала (скриншот 1 в комментах) мы определяем несколько классов, которые описывают шаги размышления модели. Например, когда модель хочет сгенерировать список уточняющих вопросов - она должна сначала описать себе причину, зачем ей это уточнение потребовалось, далее перечислить список терминов, которые она не поняла, предположить что они обозначают, и только после этого сгенерировать вопросы пользователя

🟢Одновременно с этим, для описания шагов размышления мы используем Pydantic-классы. Зачем? Чтобы можно было их отправить в LLM в качестве грамматики, ограничивающей результат. Теперь, если LLM решит выполнить шаг «Уточнение вопроса», она обязательно должна будет пройти указанные выше шаги, и это ограничение будет завернуто прямо в движок ее инференса. Модель просто физически не сможет отойти от схемы и начать генерировать что-то нерелевантное (почти всегда, но об этом позже)

Далее, эти шаги объединяются в цепочку (скриншот 2), которая представляет собой финальный ответ, и структура которой будет отправлена в LLM в качестве промпта.

И вот на этом этапе, становится понятно, зачем понадобился вообще SGR, и в чем его преимущество относительно других методов. Для того, чтобы сгенерировать следующий шаг в размышлениях, LLM обязательно сгенерирует:
🟢1-4 предложения, как она видит текущую ситуацию;
🟢статус выполнения плана исследования, закончен ли он, сколько еще шагов нужно пройти
🟢сколько еще шагов поиска она может сделать
🟢достаточно ли ей данных для отчета
🟢и только после этого, она сможет выбрать инструмент, который будет запускать (или доуточнение, или веб-поиск, или генерация ответа).

Для больших моделей, такой подход часто избыточен - они и так достаточно умные, чтобы рассуждать прямо "из коробки", и всегда следовать нужной инструкции.
Но если ваша модель относительно небольшая, и может легко отклоняться от инструкций, или она недостаточно хорошо их выполняет, то такие вот "рельсы" в виде Structured Output + зашитый в ответ процесс размышлений в стиле Chain-Of-Thought могут дать значительный прирост качества на ряде задач.

Конечно, у такого подхода есть и минусы, и его тоже нужно правильно готовить, но об этом как-нибудь в другой раз

@korneychukov
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from GitHub Community
WaterCrawl — это мощное веб-приложение, использующее Python, Django, Scrapy и Celery для сканирования веб-страниц и извлечения необходимых данных.

Особенности:
— Расширенное веб-сканирование и парсинг — сканирование веб-сайтов с широкими возможностями настройки глубины, скорости и таргетинга на конкретный контент
— Мощная поисковая система — находите нужный контент в интернете с помощью различных уровней поиска (базовый, расширенный, максимальный)
— Поддержка нескольких языков — поиск и сканирование контента на разных языках с учётом особенностей страны

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Forwarded from Data Secrets
DeepSeek снова выпустили что-то очень интересное: у них вышла OCR модель, но непростая

Она не просто распознает текст. Это в какой-то степени система для оптического сжатия контекста.

Как работает обычный OCR: получает картинку с текстом или PDF -> распознает символы -> возвращает текст.

Что делает DeepSeek OCR: получает документ -> сжимает его как зрительный объект -> восстанавливает в текст.

Глобально моделька состоит из двух частей – DeepEncoder и DeepSeek-3B-MoE Decoder. DeepEncoder здесь главная звезда. Он оптически сжимает изображения, превращая его в набор vision токенов.

Под капотом тут SAM + CLIP. SAM извлекает главную структуру и символы: буквы, главы, подписи, картинки, формулы. А CLIP добавляет глобальное понимание контекста и того, о чем вообще этот документ.

Их выходы затем проходят через сверточное сжатие и вот тут – центральный момент. Свертка уменьшает количество токенов в 10–20 раз, не теряя при этом смысла. То есть вместо 1000 токенов мы получаем, например, 100, а точность при этом сохраняется на уровне 97%. Если сжать в 20 раз – то на уровне 60%.

Дальше все в целом как обычно – сжатые визуальные токены отправляются в LLM, и та расшифровывает их в итоговый текст.

То есть: DeepSeek по сути придумали, как нам хранить в памяти модели в 10 раз больше информации при том же количестве токенов. DeepSeek-OCR может хранить не сам текст, а его сжатое визуальное представление: например, вместо 10 страниц сырого текста в памяти будет 1 страница его visual эмбеддингов, а информативность при этом не пострадает.

Чем вам не замена RAG, например? При этом все это работает в том числе с формулами, сложными структурами, чертежами, картинками и прочим. Полная мультимодальность. Плюс, на практике модель способна обрабатывать 200 000+ страниц в день на одной A100 GPU (ничего себе, как бы).

Ну и метрики. На OmniDocBench обходит GOT-OCR2.0, используя 2.5 раз меньше токенов,
и превосходит MinerU2.0, используя в 9 раз меньше ресурсов. По факту, SOTA. И по точности, и по эффективности.

Все в опенсорсе под лицензией MIT

github.com/deepseek-ai/DeepSeek-OCR
В статье о военных ИИ-агентах (Military AI Cyber Agents) внимание привлекло упоминание Deception платформ как перспективного средства защиты от атак, управляемых искусственным интеллектом. Действительно, при тестировании систем автопентеста, APT-агент не отличал ловушки от реальной инфраструктуры и фиксировал их как взломанные системы, что приводило к срабатыванию Deception платформы.

Средства защиты, основанные на обмане, такие как продвинутые ловушки, могут заставить агента поместить фрагменты своей модели в изолированную среду, где ее можно изучать, сдерживать или демонтировать.

Помимо этого упоминания в статье и моего наблюдения, что автоматический пентест более восприимчив к deception-технологиям, чем живые хакеры, подробностей не было. Поэтому я поискал дальше и нашёл два специализированных проекта, которые развивают эту концепцию.

*️⃣Проект LLM-Hack Agent Honeypot — это симулированный уязвимый сервис, приманивающий автономных ИИ-агентов для фиксации их взаимодействий и изучения реальных атак. Honeypot использует встроенные техники prompt injection для выявления необычного поведения ИИ-агентов, которое невозможно спровоцировать у обычных ботов. Исследователи выделили способы отличить LLM-агентов от простых программных ботов и людей через анализ поведения, скорости реакции и специфических ответов на вопросы, требующие человеческого интеллекта. Система применяет двухэтапную методику обнаружения:

Prompt injection приманки — специальные запросы, встроенные в баннеры SSH, выводы команд и системные файлы. Например, скрытое сообщение "Пароль — имя первого президента США" может заставить ИИ-агента ответить "Вашингтон", что является индикатором использования языковой модели.

Анализ времени отклика — ИИ-системы обычно отвечают в течение 1,5 секунд независимо от сложности запроса, в то время как люди требуют различного времени в зависимости от сложности задачи, а традиционные боты отвечают мгновенно или после фиксированных задержек.

*️⃣ Продукт Beelzebub включает в себя модуль MCP Honeypot — ловушку в архитектуре Model Context Protocol для обнаружения попыток обхода защитных механизмов в агентных ИИ-системах.

MCP Honeypot регистрируется в протоколе как инструмент, который агент никогда не должен вызывать при нормальном функционировании. Любое обращение к нему свидетельствует о том, что атакующий смог обойти фильтры через prompt injection или другие эксплойты. При обращении система немедленно фиксирует нарушение и логирует данные атаки. Каждая зафиксированная атака позволяет специалистам по безопасности усиливать guardrail-фильтры (что это писал тут) и повышать их эффективность против подобных векторов.

❗️Появление специализированных ловушек для борьбы с ИИ-хакингом это интересное развитие Deception платформ. Адаптация классических принципов кибербезопасности под уникальные вызовы защиты от ИИ-агентов, превращает их собственную «интеллектуальность» в сигнал обнаружения и позволяет использовать сильные стороны искусственного интеллекта против него самого.

#mlsecops@oscar_cybersec
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Zeropticum🫡
CrossGuard: Safeguarding MLLMs against Joint-Modal Implicit Malicious Attacks
https://github.com/AI45Lab/MLLMGuard
Forwarded from DevSecOps Talks
AI AppSec Team

Всем привет!

А почему бы и нет? Решение вопроса кадрового голода в ИБ. Если без шуток, то в статье Автор описывает очень интересный эксперимент.

Он выделил повседневные активности AppSec-команды и подготовил отдельных агентов для решения каждой из них.

В команду попали:
🍭 Code Reviewer: идентифицирует уязвимости
🍭 Exploiter: создает exploit для найденных уязвимостей
🍭 Mitigation Expert: исправляет уязвимости
🍭 Report Writer: создает детальные отчеты о проделанной работе

За основу была взята LLM - mixtral-8x7b-32768. Далее Автор на примере небольшого куска уязвимого кода «показывает», как работает весь процесс – от используемых prompt до полученных результатов.

Каких именно? Ответы можно найти в статье 😊

P.S. Да, это лишь небольшой PoC на очень простом «примере» и масштабирование такого подхода (если возможно) потребует определенных усилий.

Тем не менее, что-то интересное в этом есть
1
Forwarded from AISecHub
Interpreting Jailbreaks and Prompt Injections with Attribution Graphs - https://labs.zenity.io/p/interpreting-jailbreaks-and-prompt-injections-with-attribution-graphs by @zenitysec

Today’s agent security is strong at the edges: we monitor inputs/outputs, trace and permission tool calls, track taint, rate-limit, and log everything. We have a very complex agent system that we break down into components and secure each of them.

Yet the LLM at the heart of the agent remains a box that we never open. This is akin to a medicine that treats symptoms without understanding the underlying mechanism that causes them.

In parallel, the field of mechanistic interpretability (interpretability that looks at internal states) for LLMs has been showing increasingly fascinating findings, allowing us, for the first time, to glimpse inside the LLM and find interpretable features and the circuits that use them to build the model response to a given input.

We’ve decided these 2 should be combined and have embarked on a journey to research LLM internals to better understand and improve security of AI agents.
This will be the first in a series of posts describing this journey.
🔎 И снова он, безопасный ИИ в каждый дом каждую организацию

IBM и Anthropic выпустили руководство под названием «Проектирование безопасных корпоративных AI-агентов с использованием MCP». Оно определяет жизненный цикл разработки агентов (ADLC) на основе привычных принципов DevSecOps и эталонную архитектуру для создания, управления и эксплуатации безопасных, соответствующих регуляторным требованиям ИИ-агентов в корпоративных масштабах с использованием протокола (MCP).

Ключевые моменты:

🔵 Переход от «is it up» к «is it right». Агенты — это вероятностные, адаптивные системы, способные давать разные ответы на один и тот же запрос. Поэтому в разработке нужно явно определять границы полномочий, давать человеку удобные инструменты отслеживания решений и действий ИИ-агента. В дополнение к стандартному DevSecOps, жизненный цикл включает экспериментирование и оптимизацию во время работы, тестирование поведения (галлюцинации, предвзятость, дрейф), песочницы и защитные механизмы, а также постоянный мониторинг использования моделью инструментов.

🔵 Принципы проектирования для предприятий: Допустимый уровень автономности, конструктивная безопасность (security by design), интероперабельность через открытые стандарты, сильные наблюдаемость и управление (observability and governance).

🔵 Модель безопасности для агентов: Новые риски включают отравление памяти, промпт-инъекции, неправильное использование инструментов/API, повышение привилегий, дрейф поведения агентов. Эти риски снижаются за счёт внедрения идентификации и ролевой модели прав агентов, глубокой фильтрации на уровне MCP-шлюза, постоянного контроля рисков и регуляторного соответствия.

🔵 Управление и сертификация: Корпоративные каталоги содержат описание целей, владельцев, инструментов, политик и других данных по каждому ИИ-агенту. Также необходимы подпись артефактов, SBOM, отслеживание и версионирование, которые обеспечивают возможность аудита и отката изменений.

🔵 Серверы MCP представлены как ключевой инструмент для контроля над агентами и их доступом к ИТ-ресурсам организации. На уровне MCP-шлюза должны быть реализованы принцип наименьших привилегий, управляемые и аудируемые вызовы инструментов. Основные функции MCP-шлюза: управление идентификацией и доступами агента, маршрутизация запросов и проверки состояния модели, ограничения скорости и квоты, обеспечение соблюдения политик, аудит, а также аварийное отключение ИИ.

В документе приведена эталонная архитектура и требования для платформы агентского ИИ, учитывающие вопросы безопасности, наблюдаемости, управления, устойчивости и переносимости, а также возможности для хранения памяти/состояний, планирования/выполнения, интероперабельности, управления знаниями (RAG), взаимодействия человека и агента.

IBM и Anthropic утверждают, что компании могут безопасно расширять использование AI-агентов, внедряя ADLC на всех этапах — от создания агента до управления им. При этом обязательно обеспечить многослойную защиту, управление агентами и серверами MCP через каталоги, сертификационные механизмы, подписанные артефакты и так далее. Принятие MCP в качестве стандартного интерфейса инструментов, строгий контроль за рисками и наблюдаемость позволяют применять ИИ-агентов в соответствии с бизнес-целями и регуляторными требованиями.

#AI @П2Т
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from vbengin
ну прежде чем запустить опросы на остальное, давайте поспорим.
Вот моя таксономия. и я явно что-то забыл из популярного, или наоборот какой то функционал вытащил в отдельный класс.

Защита данных:
DLP (Data Loss Prevention)
DAM / DBF (Database Activity Monitoring / Database Firewall)
DAG / DCAP (Data Access Governance / Data-Centric Audit and Protection)
Data Encryption
VDR / EFSS (Virtual Data Room / Enterprise File Sync & Share)

Защита инфраструктуры:
NGFW (Next-Generation Firewall)
IDS/IPS (Intrusion Detection/Prevention System; NIDS/NIPS/HIDS/HIPS)
ZTNA/SDP (Zero Trust Network Access / Software Defined Perimeter)
SWG (Secure Web Gateway)
SEG (Secure Email Gateway)
CASB (Cloud Access Security Broker)
NAC (Network Access Control)
VPN (Virtual Private Network)
EPP/AV (Endpoint Protection Platform / Antivirus)
MDM (Mobile Device Management)

Защита приложений:
AST (Application Security Testing; SAST, DAST, IAST, MAST)
SCA (Software Composition Analysis)
CWPP (Cloud Workload Protection Platform, например Container security)
ASOC / ASPM (Application Security Orchestration and Correlation / Application Security Posture Management)
AntiDDos L7 / Antibot
WAF (Web Application Firewall)
API Security
CNAPP (Cloud-Native Application Protection Platform)

Управление ИБ (процессы, права, риски):
ASM (Attack Surface Management)
VM (Vulnerability Management)
BAS (Breach and Attack Simulation)
CM (Configuration Management)
ITSM/CMDB (IT Service Management / Configuration Management Database)
GRC (Governance, Risk and Compliance)
SA (Security Awareness)
DRM/IRM (Digital/Information Rights Management)
IAM (Identity and Access Management)
IGA (Identity Governance and Administration)
PAM (Privileged Access Management)
KMS/PKI (Key Management System / Public Key Infrastructure)

Выявление и реагирование:
SIEM (Security Information and Event Management)
IRP / SOAR (Incident Response Platform / Security Orchestration, Automation and Response)
SandBox
TIP (Threat Intelligence Platform)
DRP (Digital Risk Protection)
EDR (Endpoint Detection and Response)
NDR/NTA (Network Detection and Response / Network Traffic Analysis)
Deception (Deception Technology)
ITDR (Identity Threat Detection and Response)
Антифрод
🤔3🤯3
Forwarded from AI Security Lab
Собрали в статье всю базу по международному регулированию ИИ и российским инициативам. Если вам есть что добавить – пишите в комментариях.
1
Forwarded from CyberSecurityTechnologies
Unveiling_Attack_Vectors_in_MCP.pdf
1.1 MB
#AIOps
#MLSecOps
"Beyond the Protocol: Unveiling Attack Vectors in the Model Context Protocol (MCP) Ecosystem", 2025.
]-> Repo (MCP-Artifact)

// In this paper, we present the first end-to-end empirical evaluation of attack vectors targeting the MCP ecosystem. We identify four categories of attacks, i.e., Tool Poisoning Attacks, Puppet Attacks, Rug Pull Attacks, and Exploitation via Malicious External Resources

See also:
]-> A comprehensive security scanner for MCP servers
]-> Securing AI Agent Execution (.pdf)
👍1
Elastic Search Query Generator
A buddy and I work in a MSSP SOC that uses Elastic SIEM and notice that AI tools were lagging a bit in generating decent queries. We pulled together a query generator using an AI agent, LLM, and fed it some training docs. Would be interested to see what everyone thinks - we might add more training docs to support other tools if people are interested https://querylab.prediciv.com/

Discuss on Reddit: https://ift.tt/jUiqG4R
Forwarded from YDC — Pizza Powered iOS (Kirill Smirnov)
😳 🧠 Agentic AI и безопасность — кто контролирует твои данные?

Наткнулся на интересную статью в блоге Мартина Фаулера — Agentic AI Security.
Она разбирает безопасность в работе LLM и объясняет, почему использование агентов — это не просто “умные помощники”, а ещё и новые векторы уязвимостей.

Заглавный вопрос статьи: LLM не различает данные и инструкции.

Когда агент объединяет несколько итераций текста и вызовов инструментов (MCP, внешние API, CLI и т.п.) в один большой контекст, он может “съесть” вредоносную инструкцию прямо из данных.

💉 Так появляется prompt injection — когда данные превращаются в команды.

Korny Sietsma, автор статьи, приводит ссылки на смежные материалы и называет это "смертельной триадой" угроз:

- Sensitive Data is the core thing most attackers want - this can include things like browser cookies that open up access to other data.
- Неочевидность границ контекста — модель не знает, что безопасно, а что нет.

- Untrusted Content can include commands that the LLM might follow.
- Инъекция инструкций — злоумышленник подмешивает вредоносные команды в текст.

- External Communication allows the LLM application to send information back to the attacker.
- Автоматизация действий без контроля — агент сам выполняет то, что “кажется логичным”.

📊 В статье есть отличные диаграммы, показывающие, как LLM взаимодействует с внешним миром, инструментами и данными. Всё складывается в единую картину:
Агент — это цепочка промтов и tool-вызовов, которые не имеют встроенной защиты.

💬 Отдельно поднимается вопрос этики и порядочности поставщиков инструментов и MCP-серверов.
И рекомендуют применять все обычные проверки безопасности.

Публикация официального реестра MCP — это шаг вперёд.
Но он пока никак не администрируется на предмет безопасности или уязвимостей.


⚙️ Что можно сделать, чтобы уменьшить риски?
🔜 Контейнеризировать окружения агентов (Docker или Apple Containers)
🔜 Изолировать задачи и инструменты
🔜 Делать итерации с подтверждением человеком
🔜 Защищать/скрывать доступы и токены
🔜 Использовать безопасные dev-контейнеры (Claude Dev Containers)

🧩 Вся экосистема движется к тому, чтобы LLM могла действовать самостоятельно.
Но важно понять, что пока человек остаётся самым надёжным “firewall” между ИИ и злоумышленником.
А применение подходов описанных в статье снимает львиную долю человеческого фактора.

P.S.:💡 Отдельный инсайт для меня — это Apple Containers: Linux контейнеры в macOS от Apple.
Надо будет посмотреть.

#AgenticAI #Security #LLM #PromptInjection #MCP #Containers #Claude #Apple #AI

👏
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Forwarded from Философия AI
Ура, товарищи! Наконец-то первое видео на канале, и какое! Мастер-класс по взлому ИИ агентов Артёма Семёнова, с моим скромным участием.
Скоро на канале будет ещё много чего интересного от интервью с топами в ИИ и AISecOps до университетского курса по защите данных в ИИ, так что подписывайтесь и ставьте лайки😁
Приятного просмотра!
👍1