🔥 ИИ нашёл 12 уязвимостей в OpenSSL
Все знают, что OpenSSL это криптографический фундамент интернета. HTTPS, TLS, VPN, почта, облака, корпоративные PKI - всё это держится на библиотеке, код которой пишут и переписывают уже больше 25 лет. Казалось бы, здесь давно не осталось сюрпризов.Остались 😁
В январском релизе OpenSSL были закрыты 12 уязвимостей. Все они были обнаружены автономным AI-агентом компании AISLE.
Причём часть багов жила в коде с конца 90-х.
🧠 Кто такие AISLE и что за AI-агент?
AISLE это платформа, которая включает автономный агент статического анализа. Продукт сочетает:
- символьное исполнение,
- моделирование состояний памяти,
- анализ путей выполнения,
и собственный reasoning-движок для поиска логических ошибок.
Ключевое отличие от SAST:
👉 агент не ищет паттерны, а пытается сломать программу в уме, перебирая сценарии, которые человек просто не стал бы проверять вручную.
По сути, это автоматизированный аудитор. Но в отличие от человека он не устаёт и
не пропускает «скучные» ветки.
🔍 Что нашли в OpenSSL?
AI-агент проанализировал кодовую базу OpenSSL и обнаружил много интересностей:
➖ ошибки обработки ASN.1 и CMS,
➖ проблемы в PKCS#7 / PKCS#12,
➖ некорректную работу с памятью,
➖ условия, приводящие к падениям и потенциальной эксплуатации.
Часть уязвимостей была обнаружена ещё до публичного релиза, а для некоторых был сформирован PoC,
предложены исправления.
Что необычно, патчи были приняты мейнтейнерами OpenSSL. Это редкий случай, когда автоматический анализ не просто «нашёл проблему», а дошёл до уровня upstream-фикса.
📌 Ссылки и первоисточники
🔗 Блог AISLE с разбором находок:
https://aisle.com/blog/aisle-discovered-12-out-of-12-openssl-vulnerabilities
🔗 CVE-hub AISLE (пример):
https://aisle.com/cve-hub/CVE-2025-9230
🔗 Сайт AISLE (описание платформы):
https://aisle.com/
Stay secure and read SecureTechTalks 📚
#OpenSSL #Кибербезопасность #ИБ #AISLE #CVE #SecureCode #DevSecOps #AIвИБ #SecurityResearch
Все знают, что OpenSSL это криптографический фундамент интернета. HTTPS, TLS, VPN, почта, облака, корпоративные PKI - всё это держится на библиотеке, код которой пишут и переписывают уже больше 25 лет. Казалось бы, здесь давно не осталось сюрпризов.
В январском релизе OpenSSL были закрыты 12 уязвимостей. Все они были обнаружены автономным AI-агентом компании AISLE.
Причём часть багов жила в коде с конца 90-х.
🧠 Кто такие AISLE и что за AI-агент?
AISLE это платформа, которая включает автономный агент статического анализа. Продукт сочетает:
- символьное исполнение,
- моделирование состояний памяти,
- анализ путей выполнения,
и собственный reasoning-движок для поиска логических ошибок.
Ключевое отличие от SAST:
👉 агент не ищет паттерны, а пытается сломать программу в уме, перебирая сценарии, которые человек просто не стал бы проверять вручную.
По сути, это автоматизированный аудитор. Но в отличие от человека он не устаёт и
не пропускает «скучные» ветки.
🔍 Что нашли в OpenSSL?
AI-агент проанализировал кодовую базу OpenSSL и обнаружил много интересностей:
Часть уязвимостей была обнаружена ещё до публичного релиза, а для некоторых был сформирован PoC,
предложены исправления.
Что необычно, патчи были приняты мейнтейнерами OpenSSL. Это редкий случай, когда автоматический анализ не просто «нашёл проблему», а дошёл до уровня upstream-фикса.
📌 Ссылки и первоисточники
🔗 Блог AISLE с разбором находок:
https://aisle.com/blog/aisle-discovered-12-out-of-12-openssl-vulnerabilities
🔗 CVE-hub AISLE (пример):
https://aisle.com/cve-hub/CVE-2025-9230
🔗 Сайт AISLE (описание платформы):
https://aisle.com/
Stay secure and read SecureTechTalks 📚
#OpenSSL #Кибербезопасность #ИБ #AISLE #CVE #SecureCode #DevSecOps #AIвИБ #SecurityResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
🚨 GPT проигрывает классическим подходам ИБ
Разметка MITRE ATT&CK показала пределы LLM
🧠 Автоматическая разметка текстов по MITRE
ATT&CK давно остаётся одной из самых востребованных задач в кибербезопасности. Каждый день аналитики читают отчёты, threat intelligence, сценарии атак и описания уязвимостей, связывая их с тактиками и техниками противника. Это монотонная, дорогая и плохо масштабируемая работа. Не удивительно, что попытки её автоматизировать ведутся уже больше десяти лет.
📄 В январе 2026 года команда JPMorgan Chase опубликовала техническую работу, которая пытаеся решить проблему в новом ключе. Авторы напрямую сравнили GPT-4o и классический машинный подход, SGD-классификатор на TF-IDF.
👉 Arxiv
⚙️ Эксперимент был предельно прагматичным. Моделям давали отдельные предложения из threat intelligence и просили определить соответствующую тактику MITRE ATT&CK.
Классическая модель показала около 82% точности, GPT-4o остановился примерно на 59%. Разница особенно заметна в редких тактиках и в ситуациях, где требуется строгое соответствие идентификаторам и терминологии ATT&CK.
🧩 Как авторы посмотрели на задачу.
«Разметка MITRE» не один шаг, а целый спектр задач разной сложности. В реальности один текст может соответствовать сразу нескольким тактикам, а каждая тактика нескольким техникам, связанным иерархически. Такая структура зачастую теряется в автоматизации.
🏗️ Решение JPMorgan построено снизу вверх и повторяет логику мышления аналитика. Текст разбивается на предложения, каждое предложение превращается в TF-IDF-вектор, после чего на первом уровне модель предсказывает несколько наиболее вероятных тактик. На втором уровне для каждой тактики используются отдельные модели, определяющие подходящие техники. В результате получается иерархическая мульти-лейбл разметка вида «тактика → техника», а не плоский список тегов.
📊 Этот подход даёт ощутимый прирост качества. При выборе трёх наиболее вероятных тактик точность на уровне тактик достигает около 94%, а при иерархической классификации техник примерно 82%. Важно и то, что система не допускает логических ошибок, когда техника предсказана без соответствующей ей тактики.
🔐 Отдельного внимания заслуживает инженерная деталь: авторы добавили хеширование признаков на этапе векторизации. Это позволяет защищать чувствительные данные и почти не влияет на качество модели. Благодаря этому решения можно безопасно распространять.
🧭 В итоге работа формулирует спокойный, но важный вывод. Ограничения автоматизации MITRE ATT&CK связаны не с тем, насколько «умна» модель, а с тем, насколько точно мы формализуем задачу. Иерархия, мульти-лейблы, строгие таксономии и объяснимость здесь важнее универсальной генерации текста.
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #MITREATTACK #ThreatIntelligence #MachineLearning #LLM #SOC #AIinSecurity #BlueTeam #InfoSec
Разметка MITRE ATT&CK показала пределы LLM
🧠 Автоматическая разметка текстов по MITRE
ATT&CK давно остаётся одной из самых востребованных задач в кибербезопасности. Каждый день аналитики читают отчёты, threat intelligence, сценарии атак и описания уязвимостей, связывая их с тактиками и техниками противника. Это монотонная, дорогая и плохо масштабируемая работа. Не удивительно, что попытки её автоматизировать ведутся уже больше десяти лет.
📄 В январе 2026 года команда JPMorgan Chase опубликовала техническую работу, которая пытаеся решить проблему в новом ключе. Авторы напрямую сравнили GPT-4o и классический машинный подход, SGD-классификатор на TF-IDF.
⚙️ Эксперимент был предельно прагматичным. Моделям давали отдельные предложения из threat intelligence и просили определить соответствующую тактику MITRE ATT&CK.
Классическая модель показала около 82% точности, GPT-4o остановился примерно на 59%. Разница особенно заметна в редких тактиках и в ситуациях, где требуется строгое соответствие идентификаторам и терминологии ATT&CK.
🧩 Как авторы посмотрели на задачу.
«Разметка MITRE» не один шаг, а целый спектр задач разной сложности. В реальности один текст может соответствовать сразу нескольким тактикам, а каждая тактика нескольким техникам, связанным иерархически. Такая структура зачастую теряется в автоматизации.
🏗️ Решение JPMorgan построено снизу вверх и повторяет логику мышления аналитика. Текст разбивается на предложения, каждое предложение превращается в TF-IDF-вектор, после чего на первом уровне модель предсказывает несколько наиболее вероятных тактик. На втором уровне для каждой тактики используются отдельные модели, определяющие подходящие техники. В результате получается иерархическая мульти-лейбл разметка вида «тактика → техника», а не плоский список тегов.
📊 Этот подход даёт ощутимый прирост качества. При выборе трёх наиболее вероятных тактик точность на уровне тактик достигает около 94%, а при иерархической классификации техник примерно 82%. Важно и то, что система не допускает логических ошибок, когда техника предсказана без соответствующей ей тактики.
🔐 Отдельного внимания заслуживает инженерная деталь: авторы добавили хеширование признаков на этапе векторизации. Это позволяет защищать чувствительные данные и почти не влияет на качество модели. Благодаря этому решения можно безопасно распространять.
🧭 В итоге работа формулирует спокойный, но важный вывод. Ограничения автоматизации MITRE ATT&CK связаны не с тем, насколько «умна» модель, а с тем, насколько точно мы формализуем задачу. Иерархия, мульти-лейблы, строгие таксономии и объяснимость здесь важнее универсальной генерации текста.
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #MITREATTACK #ThreatIntelligence #MachineLearning #LLM #SOC #AIinSecurity #BlueTeam #InfoSec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
🧠💣 LLM для кибербезопасности, который пытается рассуждать
Reasoning-модель на 8B параметров оказалась умнее гигантов
В последние два года LLM в кибербезопасности стали почти обязательным элементом стека. Они помогают разбирать отчёты, классифицировать CVE, сопоставлять индикаторы с MITRE ATT&CK, писать черновики рекомендаций.
Однако все модели в лучшем случае угадывают, а в худшем уверенно галлюцинируют 🤷♂️
Даже когда ответ формально правильный, логика рассуждений часто либо отсутствует, либо не соответствует факт-чекингу. Для ИБ это критично:
важно не просто «что», а почему именно так.
На этом фоне работа Cisco Foundation AI выглядит нетипично здравой. Ребята не стали делать ещё один instruction-tuned security-бот, а попробовали решить более фундаментальную задачу, научить модель рассуждать в контексте кибербезопасности 🛡️
Так появилась Foundation-Sec-8B-Reasoning, open-source LLM, которая сначала думает, а уже потом отвечает.
🤖 Обычные LLM плохо подходят для ИБ
Большинство security-моделей сегодня — это базовые LLM с дообучением на CVE / MITRE.
Они отлично справляются с вопросами вида:
Но начинают спотыкаться, когда требуется:
🧩 многошаговый анализ
🔗 причинно-следственные связи
🧠 восстановление цепочки атаки
📌 аргументация выбора техник и контрмер
Модель может дать правильный ответ, но прийти к нему неправильным путём. К сожалению, для аналитика рассуждения выглядит убедительно и в этом скрывается опасность.
🧪 В чем отличие этой модели?
Ключевая идея Foundation-Sec-8B-Reasoning в рассуждении. Это обязательный этап мышления.
Обучение шло в два этапа.
🏗 Этап 1. SFT учим модель думать вслух
≈ 2 млн обучающих примеров, где:
- reasoning обязателен
- структура рассуждения строго задана
- ответ без логики считается ошибкой
Состав данных:
🔐 ~27% кибербезопасность (CVE, CWE, ATT&CK)
➗ математика
💻 код
📜 инструкции и safety
Если модель не умеет рассуждать в целом, доменные данные её не спасут.
🎯 Этап 2. RL война с фейковым reasoning
Самая интересная часть статьи - reinforcement learning.
Типичная проблема reasoning-LLM:
- модель быстро учится имитировать рассуждение
- ответ правильный, но
reasoning пустой или формальный
Чтобы это сломать этот патерн, авторы добавили:
⚠️ штрафы за пустые и повторяющиеся рассуждения
📏 контроль длины reasoning
🧱 защиту от деградации формата
Отдельно разбирается проблема длинных, но бессмысленных рассуждений. Редкий случай, когда RL описан честно, без преукрашиваний.
📊 Что получилось на выходе
Модель на скромные 8B параметров:
🚀 обгоняет Llama-3.3-70B на CTIBench-RCM
🚀 обгоняет GPT-OSS-120B на CVE → CWE
📈 стабильно лучше instruction-версий на reasoning-задачах
Кроме того модель действительно учится думать, а не воспроизводит стандартные шаблоны.
🔐 А что с безопасностью?
❌ без system-prompt есть проблемы
✅ с корректным промптом ~93% pass rate на HarmBench
🛡️ с гардрейлами ~98%
Пока такую Reasoning-модель рано пускать в прод без защитного контура. Но при дальнейшем развитии есть перспективы полной автоматизации.
📄 Статья: arXiv: 2601.21051
🤗 Модель (HF): https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #AIinSecurity #LLM #ReasoningAI #ThreatIntelligence #SOC #AppSec #CTI #ExplainableAI
Reasoning-модель на 8B параметров оказалась умнее гигантов
В последние два года LLM в кибербезопасности стали почти обязательным элементом стека. Они помогают разбирать отчёты, классифицировать CVE, сопоставлять индикаторы с MITRE ATT&CK, писать черновики рекомендаций.
Однако все модели в лучшем случае угадывают, а в худшем уверенно галлюцинируют 🤷♂️
Даже когда ответ формально правильный, логика рассуждений часто либо отсутствует, либо не соответствует факт-чекингу. Для ИБ это критично:
важно не просто «что», а почему именно так.
На этом фоне работа Cisco Foundation AI выглядит нетипично здравой. Ребята не стали делать ещё один instruction-tuned security-бот, а попробовали решить более фундаментальную задачу, научить модель рассуждать в контексте кибербезопасности 🛡️
Так появилась Foundation-Sec-8B-Reasoning, open-source LLM, которая сначала думает, а уже потом отвечает.
🤖 Обычные LLM плохо подходят для ИБ
Большинство security-моделей сегодня — это базовые LLM с дообучением на CVE / MITRE.
Они отлично справляются с вопросами вида:
«К какому CWE относится CVE-2023-XXXX?»
Но начинают спотыкаться, когда требуется:
🧩 многошаговый анализ
🔗 причинно-следственные связи
🧠 восстановление цепочки атаки
📌 аргументация выбора техник и контрмер
Модель может дать правильный ответ, но прийти к нему неправильным путём. К сожалению, для аналитика рассуждения выглядит убедительно и в этом скрывается опасность.
🧪 В чем отличие этой модели?
Ключевая идея Foundation-Sec-8B-Reasoning в рассуждении. Это обязательный этап мышления.
🧠 рассуждение → вывод
Обучение шло в два этапа.
🏗 Этап 1. SFT учим модель думать вслух
≈ 2 млн обучающих примеров, где:
- reasoning обязателен
- структура рассуждения строго задана
- ответ без логики считается ошибкой
Состав данных:
🔐 ~27% кибербезопасность (CVE, CWE, ATT&CK)
➗ математика
💻 код
📜 инструкции и safety
Если модель не умеет рассуждать в целом, доменные данные её не спасут.
🎯 Этап 2. RL война с фейковым reasoning
Самая интересная часть статьи - reinforcement learning.
Типичная проблема reasoning-LLM:
- модель быстро учится имитировать рассуждение
- ответ правильный, но
reasoning пустой или формальный
Чтобы это сломать этот патерн, авторы добавили:
⚠️ штрафы за пустые и повторяющиеся рассуждения
📏 контроль длины reasoning
🧱 защиту от деградации формата
Отдельно разбирается проблема длинных, но бессмысленных рассуждений. Редкий случай, когда RL описан честно, без преукрашиваний.
📊 Что получилось на выходе
Модель на скромные 8B параметров:
🚀 обгоняет Llama-3.3-70B на CTIBench-RCM
🚀 обгоняет GPT-OSS-120B на CVE → CWE
📈 стабильно лучше instruction-версий на reasoning-задачах
Кроме того модель действительно учится думать, а не воспроизводит стандартные шаблоны.
🔐 А что с безопасностью?
❌ без system-prompt есть проблемы
✅ с корректным промптом ~93% pass rate на HarmBench
🛡️ с гардрейлами ~98%
Пока такую Reasoning-модель рано пускать в прод без защитного контура. Но при дальнейшем развитии есть перспективы полной автоматизации.
📄 Статья: arXiv: 2601.21051
🤗 Модель (HF): https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #AIinSecurity #LLM #ReasoningAI #ThreatIntelligence #SOC #AppSec #CTI #ExplainableAI
👍3
🛡️ Pompelmi: приватный сканер файлов для Node.js
В веб-приложениях одна из самых уязвимых точек - это загрузка файлов пользователями: изображения, документы, архивы, PDF и т.д. и т.п.. Если файлы не фильтровать, вы рискуете столкнуться с вредоносами и эксплоитами.
Данную проблему пытается решить pompelmi.
🤔 Что такое pompelmi?
pompelmi - это open-source file-scanner для Node.js, написанный на TypeScript. Проект делает упор на безопасность и простую интеграцию в серверные приложения.
Ключевые особенности:
🔍 проверка файлов до сохранения в файловой системе
⚡ минималистичная и быстрая реализация
🔒 полностью локальная работа, без облачных вызовов
🔌 адаптеры для популярных веб-фреймворков
🧱 Основные возможности pompelmi
✅ Сканирование до записи на диск
Главная идея проверять файл как можно раньше, прежде чем он окажется в файловой системе. Это снижает риск эксплуатации уязвимостей файловых парсеров и вспомогательных библиотек.
🔍 Безопасная обработка архивов
- pompelmi умеет:
безопасно обходить архивы с ограничением глубины;
- предотвращать zip-bomb-атаки;
- анализировать вложенные и рекурсивные структуры.
🧠 Гибкая система сканеров
Встроенные эвристики позволяют выявлять:
➖ риски в PDF (включая встроенный JavaScript);
➖ опасные Office-макросы;
➖ признаки PE-бинарей в загружаемых файлах.
Также поддерживается подключение собственных сигнатур, включая правила YARA.
🧩 Интеграция с фреймворками
pompelmi можно встроить в популярные серверные фреймворки Node.js на уровне middleware:
Express - https://expressjs.com
Koa - https://koajs.com
Next.js - https://nextjs.org
Fastify (alpha-поддержка) - https://www.fastify.io
Это позволяет проверять файлы непосредственно на входе в приложение и блокировать подозрительные загрузки до их обработки бизнес-логикой.
📈 Практическая польза
🔹 уменьшает риск попадания вредоносных файлов в инфраструктуру
🔹 хорошо подходит как первая линия защиты для upload-эндпоинтов
🔹 не требует внешних сервисов и передачи данных третьим лицам
Pompelmi не позиционируется как замена полноценного антивируса, но отлично закрывает начальный уровень защиты файловых загрузок.
📌 Итог
Если вы разрабатываете API с возможностью загрузки файлов или веб-приложения с пользовательскими upload-формами, то pompelmi выглядит как разумный инструмент для усиления AppSec без избыточной сложности.
🔗 GitHub: https://github.com/pompelmi/pompelmi
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #DevSecOps #NodeJS #FileUploadSecurity #MalwareScanning #YARA #ZipBombProtection #AppSec #WebSecurity
В веб-приложениях одна из самых уязвимых точек - это загрузка файлов пользователями: изображения, документы, архивы, PDF и т.д. и т.п.. Если файлы не фильтровать, вы рискуете столкнуться с вредоносами и эксплоитами.
Данную проблему пытается решить pompelmi.
🤔 Что такое pompelmi?
pompelmi - это open-source file-scanner для Node.js, написанный на TypeScript. Проект делает упор на безопасность и простую интеграцию в серверные приложения.
Ключевые особенности:
🔍 проверка файлов до сохранения в файловой системе
⚡ минималистичная и быстрая реализация
🔒 полностью локальная работа, без облачных вызовов
🔌 адаптеры для популярных веб-фреймворков
🧱 Основные возможности pompelmi
✅ Сканирование до записи на диск
Главная идея проверять файл как можно раньше, прежде чем он окажется в файловой системе. Это снижает риск эксплуатации уязвимостей файловых парсеров и вспомогательных библиотек.
🔍 Безопасная обработка архивов
- pompelmi умеет:
безопасно обходить архивы с ограничением глубины;
- предотвращать zip-bomb-атаки;
- анализировать вложенные и рекурсивные структуры.
🧠 Гибкая система сканеров
Встроенные эвристики позволяют выявлять:
Также поддерживается подключение собственных сигнатур, включая правила YARA.
🧩 Интеграция с фреймворками
pompelmi можно встроить в популярные серверные фреймворки Node.js на уровне middleware:
Express - https://expressjs.com
Koa - https://koajs.com
Next.js - https://nextjs.org
Fastify (alpha-поддержка) - https://www.fastify.io
Это позволяет проверять файлы непосредственно на входе в приложение и блокировать подозрительные загрузки до их обработки бизнес-логикой.
📈 Практическая польза
🔹 уменьшает риск попадания вредоносных файлов в инфраструктуру
🔹 хорошо подходит как первая линия защиты для upload-эндпоинтов
🔹 не требует внешних сервисов и передачи данных третьим лицам
Pompelmi не позиционируется как замена полноценного антивируса, но отлично закрывает начальный уровень защиты файловых загрузок.
📌 Итог
Если вы разрабатываете API с возможностью загрузки файлов или веб-приложения с пользовательскими upload-формами, то pompelmi выглядит как разумный инструмент для усиления AppSec без избыточной сложности.
🔗 GitHub: https://github.com/pompelmi/pompelmi
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #CyberSecurity #DevSecOps #NodeJS #FileUploadSecurity #MalwareScanning #YARA #ZipBombProtection #AppSec #WebSecurity
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🎭 Поэзия как универсальный jailbreak для LLM
Недавнее исследование Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models выявило системную уязвимость современных LLM: переписывание вредного запроса в поэтической форме резко снижает эффективность механизмов отказа.
Речь не идёт о сложных jailbreak-техниках. Атака выполняется в один запрос, без предварительного диалога и без изменения системных инструкций. Меняется только форма текста, проза заменяется стихом.
🧪 Механика исследования
Авторы протестировали 25 актуальных моделей (Google Gemini, OpenAI GPT-5, Anthropic Claude, DeepSeek, Qwen, Mistral и др.).
Эксперимент состоял из двух частей:
1️⃣ 20 вручную написанных стихотворных промптов, каждый из которых содержал вредоносное намерение (CBRN, кибератаки, манипуляции, loss-of-control), замаскированное метафорами и ритмом.
2️⃣ Масштабирование через MLCommons AILuminate: 1200 стандартных вредных запросов были автоматически переписаны в стихотворную форму с сохранением исходного смысла.
Оценка ответов проводилась через ансамбль LLM-судей с последующей человеческой валидацией. Unsafe считались ответы, содержащие операционные детали или фактическое содействие вредным действиям.
📉 Что получилось?
🎯 62% Attack Success Rate для вручную написанных стихов
📈 Рост ASR с ~8% до ~43% при переходе от прозы к поэзии на MLCommons
🚨 У отдельных моделей до 90–100% unsafe-ответов
Эффект наблюдается во всех классах рисков: от кибератак и приватности до CBRN и сценариев утраты контроля. Это указывает на системный характер проблемы, а не на сбой отдельных фильтров.
🧠 Неожиданные наблюдения
Любопытный эффект масштаба: меньшие модели часто устойчивее флагманов. Например, компактные версии GPT-5 и Claude чаще отказывались, чем их старшие аналоги.
Предполагаемое объяснение, что крупные модели лучше извлекают скрытое намерение из метафор, но их защитные механизмы не успевают за этим пониманием.
🔍 Почему это вообще работает?
Авторы интерпретируют это как разрыв между семантическим пониманием и guardrails. Модели успешно декодируют намерение, выраженное через ритм и образность, но защитные механизмы, обученные на «прямолинейных» формулировках, не распознают угрозу.
Кто бы мог подумать, что пооэзия станет универсальным стилевым обходом alignment. 😁
🔗 Ссылка на источник статьи
Stay secure and read SecureTechTalks 📚
#LLM #AIAlignment #Jailbreak #PoetryAttack #AISafety #MLCommons #CyberSecurity #AdversarialAI #GenAI #SecureTechTalks
Недавнее исследование Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models выявило системную уязвимость современных LLM: переписывание вредного запроса в поэтической форме резко снижает эффективность механизмов отказа.
Речь не идёт о сложных jailbreak-техниках. Атака выполняется в один запрос, без предварительного диалога и без изменения системных инструкций. Меняется только форма текста, проза заменяется стихом.
🧪 Механика исследования
Авторы протестировали 25 актуальных моделей (Google Gemini, OpenAI GPT-5, Anthropic Claude, DeepSeek, Qwen, Mistral и др.).
Эксперимент состоял из двух частей:
1️⃣ 20 вручную написанных стихотворных промптов, каждый из которых содержал вредоносное намерение (CBRN, кибератаки, манипуляции, loss-of-control), замаскированное метафорами и ритмом.
2️⃣ Масштабирование через MLCommons AILuminate: 1200 стандартных вредных запросов были автоматически переписаны в стихотворную форму с сохранением исходного смысла.
Оценка ответов проводилась через ансамбль LLM-судей с последующей человеческой валидацией. Unsafe считались ответы, содержащие операционные детали или фактическое содействие вредным действиям.
📉 Что получилось?
🎯 62% Attack Success Rate для вручную написанных стихов
📈 Рост ASR с ~8% до ~43% при переходе от прозы к поэзии на MLCommons
🚨 У отдельных моделей до 90–100% unsafe-ответов
Эффект наблюдается во всех классах рисков: от кибератак и приватности до CBRN и сценариев утраты контроля. Это указывает на системный характер проблемы, а не на сбой отдельных фильтров.
🧠 Неожиданные наблюдения
Любопытный эффект масштаба: меньшие модели часто устойчивее флагманов. Например, компактные версии GPT-5 и Claude чаще отказывались, чем их старшие аналоги.
Предполагаемое объяснение, что крупные модели лучше извлекают скрытое намерение из метафор, но их защитные механизмы не успевают за этим пониманием.
🔍 Почему это вообще работает?
Авторы интерпретируют это как разрыв между семантическим пониманием и guardrails. Модели успешно декодируют намерение, выраженное через ритм и образность, но защитные механизмы, обученные на «прямолинейных» формулировках, не распознают угрозу.
Кто бы мог подумать, что пооэзия станет универсальным стилевым обходом alignment. 😁
🔗 Ссылка на источник статьи
Stay secure and read SecureTechTalks 📚
#LLM #AIAlignment #Jailbreak #PoetryAttack #AISafety #MLCommons #CyberSecurity #AdversarialAI #GenAI #SecureTechTalks
👍2
🤖 AutoPentestX: пентест становится пайплайном
Попытка собрать полноценный offensive-конвейер, где ИИ не отвечает на вопросы, а принимает решения.
AutoPentestX - open-source фреймворк для автоматизированного пентеста с использованием LLM.
🧠 Что такое AutoPentestX
AutoPentestX представляет собой agent-based систему, которая:
➖ принимает цель (URL / IP / диапазон),
➖ самостоятельно выбирает инструменты,
➖ анализирует вывод,
➖ решает, что делать дальше,
и документирует результат.
Ключевая идея:
⚙️ Архитектура
Внутри довольно простая схема, которую можно разложить на основные части:
➖ LLM (OpenAI / совместимые модели), то бишь мозг принятия решений
➖ Классические инструменты:
-Nmap
-Nikto
-Gobuster
-SQLMap
-WhatWeb и др.
➖ Оркестрация:
модель анализирует stdout инструментов и решает:
что запускать дальше,
какие флаги менять,
когда остановиться.
По сути, это ReAct-подход, но применённый не к чату, а к атакующему пайплайну.
🔁 Процесс атаки
🔍 Recon
Определение сервисов, технологий, точек входа
🧪 Enumeration
Перебор директорий, API, параметров
💣 Exploitation (ограниченно)
SQLi, XSS, misconfigurations — без «0day магии»
📝 Reporting
Генерация отчёта с объяснением найденных проблем.
Инструмент не ломает всё подряд, а действует в рамках выбранного сценария.
🧊 Ограничения
❌ не заменяет профессионального пентестера
❌ не ищет сложные логические баги
❌ сильно зависит от качества промпта и модели
❌ может галлюцинировать выводы
🔗 GitHub проекта:
https://github.com/Gowtham-Darkseid/AutoPentestX
Stay secure and read SecureTechTalks 📚
#cybersecurity #pentest #offensivesecurity #llmsecurity #aigent #redteam #opensecurity #infosec #securetechtalks
Попытка собрать полноценный offensive-конвейер, где ИИ не отвечает на вопросы, а принимает решения.
AutoPentestX - open-source фреймворк для автоматизированного пентеста с использованием LLM.
🧠 Что такое AutoPentestX
AutoPentestX представляет собой agent-based систему, которая:
и документирует результат.
Ключевая идея:
LLM управляет пентестом, а не подсказывает человеку.
⚙️ Архитектура
Внутри довольно простая схема, которую можно разложить на основные части:
-Nmap
-Nikto
-Gobuster
-SQLMap
-WhatWeb и др.
модель анализирует stdout инструментов и решает:
что запускать дальше,
какие флаги менять,
когда остановиться.
По сути, это ReAct-подход, но применённый не к чату, а к атакующему пайплайну.
🔁 Процесс атаки
🔍 Recon
Определение сервисов, технологий, точек входа
🧪 Enumeration
Перебор директорий, API, параметров
💣 Exploitation (ограниченно)
SQLi, XSS, misconfigurations — без «0day магии»
📝 Reporting
Генерация отчёта с объяснением найденных проблем.
Инструмент не ломает всё подряд, а действует в рамках выбранного сценария.
🧊 Ограничения
❌ не заменяет профессионального пентестера
❌ не ищет сложные логические баги
❌ сильно зависит от качества промпта и модели
❌ может галлюцинировать выводы
🔗 GitHub проекта:
https://github.com/Gowtham-Darkseid/AutoPentestX
Stay secure and read SecureTechTalks 📚
#cybersecurity #pentest #offensivesecurity #llmsecurity #aigent #redteam #opensecurity #infosec #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🌍 GlobalThreatMap: кибератаки становятся видимыми
Зачастую глобальные атаки выглядят одинаково: IP-адрес, ASN, GeolP, временная метка в логах. Такие данные легко агрегируются, но плохо воспринимаются как система. Global Threat Map берёт разрозненные сетевые события и превращает их в пространственную модель активности, где видно не только факт атаки, но и её географический и временной контекст.
🧠 О продукте
GlobalThreatMap - это веб-приложение для визуализации киберугроз, которое собирает данные о сетевой активности и потенциальных атаках из различных источников, агрегирует их по географическому признаку и отображает в виде интерактивной карты мира.
Инструмент позволяет увидеть направление атак, их интенсивность и распределение по регионам, превращая абстрактные события из логов в наглядную картину происходящего в сети.
По сути, это попытка показать киберпространство как живую, динамичную систему, а не набор разрозненных алертов.
⚙️ Как это реализовано?
Логическую схему работы продукта можно представить в виде следующих частей:
➖ Источники данных
Публичные threat feeds, результаты сетевых сканирований и другие события безопасности (в зависимости от конфигурации).
➖ Обработка
Нормализация событий, геолокация IP-адресов и агрегация по времени и типу активности.
➖ Визуализация
Интерактивная карта мира с анимированными линиями атак и цветовой индикацией интенсивности.
🔁 Баловство или must have?
На первый взгляд, решение лишь красивая игрушка. Если разобраться - вполне прикладной инструмент:
➖ Осознание ландшафта угроз
Видно, откуда и куда летит трафик, где возникают всплески активности и какие регионы наиболее «шумные».
➖ Обучение и демонстрации
Отлично подходит для лекций, митапов и объяснения основ кибербезопасности не-технической аудитории.
➖ Sandbox для экспериментов
Можно подключать собственные источники данных и наблюдать, как меняется глобальная картина атак.
🧊 Ограничения
❌ это не инструмент для полноценного SOC,
❌ геолокация IP не равна реальному источнику атаки,
❌ красивая визуализация не гарантирует точности,
❌ сложные целевые атаки в таких картах почти не видны.
🔗 GitHub проекта:
https://github.com/unicodeveloper/globalthreatmap
Stay secure and read SecureTechTalks 📚
#cybersecurity #threatintel #visualization #infosec #opensecurity #soc #securetechtalks
Зачастую глобальные атаки выглядят одинаково: IP-адрес, ASN, GeolP, временная метка в логах. Такие данные легко агрегируются, но плохо воспринимаются как система. Global Threat Map берёт разрозненные сетевые события и превращает их в пространственную модель активности, где видно не только факт атаки, но и её географический и временной контекст.
🧠 О продукте
GlobalThreatMap - это веб-приложение для визуализации киберугроз, которое собирает данные о сетевой активности и потенциальных атаках из различных источников, агрегирует их по географическому признаку и отображает в виде интерактивной карты мира.
Инструмент позволяет увидеть направление атак, их интенсивность и распределение по регионам, превращая абстрактные события из логов в наглядную картину происходящего в сети.
По сути, это попытка показать киберпространство как живую, динамичную систему, а не набор разрозненных алертов.
⚙️ Как это реализовано?
Логическую схему работы продукта можно представить в виде следующих частей:
Публичные threat feeds, результаты сетевых сканирований и другие события безопасности (в зависимости от конфигурации).
Нормализация событий, геолокация IP-адресов и агрегация по времени и типу активности.
Интерактивная карта мира с анимированными линиями атак и цветовой индикацией интенсивности.
🔁 Баловство или must have?
На первый взгляд, решение лишь красивая игрушка. Если разобраться - вполне прикладной инструмент:
Видно, откуда и куда летит трафик, где возникают всплески активности и какие регионы наиболее «шумные».
Отлично подходит для лекций, митапов и объяснения основ кибербезопасности не-технической аудитории.
Можно подключать собственные источники данных и наблюдать, как меняется глобальная картина атак.
🧊 Ограничения
❌ это не инструмент для полноценного SOC,
❌ геолокация IP не равна реальному источнику атаки,
❌ красивая визуализация не гарантирует точности,
❌ сложные целевые атаки в таких картах почти не видны.
🔗 GitHub проекта:
https://github.com/unicodeveloper/globalthreatmap
Stay secure and read SecureTechTalks 📚
#cybersecurity #threatintel #visualization #infosec #opensecurity #soc #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🔥 GitHub запускает AI-агентов: код теперь пишет не помощник, а «коллега»
Если раньше Copilot был чем-то вроде умного автодополнения, то теперь GitHub делает шаг вперёд.
В репозиториях появляются AI-агенты, которые работают внутри проекта, а не на обочине IDE.
🤖 Изменения
AI-агент в GitHub:
➖ видит структуру репозитория,
➖ помнит историю коммитов,
➖ понимает контекст Issue и Pull Request,
➖ может последовательно выполнять задачу, а не отвечать одним сообщением.
По ощущениям, это уже не чат-бот, а junior разработчик, которому можно делегировать кусок работы и посмотреть, что он принесёт.
Задачу можно отдать агенту прямо из:
• GitHub Web
• GitHub Mobile
• Visual Studio Code
Агент начнёт работать в рамках репозитория, а не «в вакууме».
🧩Процесс на практике
Ты открываешь Issue и назначаешь AI-агента на задачу.
Агент: анализирует код, предлагает изменения, формирует PR и объясняет, что именно сделал и почему.
Все изменения проходят обычный review, как если бы их сделал живой человек. Просто теперь этот «человек» не устает и работает 24/7.
⚙️ Почему GitHub делает на этом акцент
GitHub явно уходит от идеи «одна модель - один ответ».
Теперь ставка на сессии, историю, варианты решений и повторяемость.
Можно сравнить несколько подходов и откатить неудачную попытку.
Немаловажно, что теперь можно посмотреть, как агент пришёл к решению.
🔒 Контроль остаётся у человека
Для команд есть возможность управления:
➖ какие агенты разрешены,
➖ какие модели используются,
➖ кто и где может запускать автоматизацию.
GitHub явно даёт понять, что
AI - это не замена разработчику, а инструмент внутри привычного workflow.
P.S. Интересно кто будет ревьюить AI-агента, работающего без перерыва?
Stay secure and read SecureTechTalks 📚
#GitHub #AIAgents #Copilot #РазработкаПО #DevSecOps #SecureTechTalks #AIвРазработке #Инженерия #Код
Если раньше Copilot был чем-то вроде умного автодополнения, то теперь GitHub делает шаг вперёд.
В репозиториях появляются AI-агенты, которые работают внутри проекта, а не на обочине IDE.
🤖 Изменения
AI-агент в GitHub:
По ощущениям, это уже не чат-бот, а junior разработчик, которому можно делегировать кусок работы и посмотреть, что он принесёт.
Задачу можно отдать агенту прямо из:
• GitHub Web
• GitHub Mobile
• Visual Studio Code
Агент начнёт работать в рамках репозитория, а не «в вакууме».
🧩Процесс на практике
Ты открываешь Issue и назначаешь AI-агента на задачу.
Агент: анализирует код, предлагает изменения, формирует PR и объясняет, что именно сделал и почему.
Все изменения проходят обычный review, как если бы их сделал живой человек. Просто теперь этот «человек» не устает и работает 24/7.
⚙️ Почему GitHub делает на этом акцент
GitHub явно уходит от идеи «одна модель - один ответ».
Теперь ставка на сессии, историю, варианты решений и повторяемость.
Можно сравнить несколько подходов и откатить неудачную попытку.
Немаловажно, что теперь можно посмотреть, как агент пришёл к решению.
🔒 Контроль остаётся у человека
Для команд есть возможность управления:
GitHub явно даёт понять, что
AI - это не замена разработчику, а инструмент внутри привычного workflow.
P.S. Интересно кто будет ревьюить AI-агента, работающего без перерыва?
Stay secure and read SecureTechTalks 📚
#GitHub #AIAgents #Copilot #РазработкаПО #DevSecOps #SecureTechTalks #AIвРазработке #Инженерия #Код
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🦙 Allama: когда LLM становится объектом наблюдения, а не чёрным ящиком
Большинство разговоров про LLM в ИБ сегодня крутятся вокруг двух крайностей: либо «давайте встроим ИИ везде», либо «LLM опасно и непонятно».
При этом почти никто не задаётся базовым вопросом: а как вообще наблюдать за тем, что делает модель в проде?
Проект Allama редкий пример ответа именно на этот вопрос.
🧠 Что такое Allama
Allama - это open-source observability-инструмент для LLM-приложений. Он предназначен для сбора, анализа и визуализации того, как языковые модели реально работают: какие запросы получают, какие ответы возвращают, сколько токенов потребляют и где возникают проблемы.
Другими словами, Allama превращает LLM из «черного ящика» в сервис, который можно отслеживать так же, как API.
⚙️ Немного деталей
Allama встраивается в LLM-пайплайн и собирает телеметрию на каждом шаге взаимодействия с моделью.
Логически систему можно разложить на три части:
➖ Сбор данных
Перехват prompt’ов, ответов модели, метаданных запросов, времени отклика и токен-статистики.
➖ Анализ
Агрегация данных, выявление аномалий, повторяющихся паттернов, деградации качества и неожиданных ответов.
➖ Визуализация
Дашборды, метрики и временные ряды, которые позволяют понять, что происходит с моделью здесь и сейчас.
🔁 Можно ли разбирать кейсы ИБ?
Allama в первую очередь интересна ИБ-специалистам.
С помощью инструмента можно:
➖ просматривать реальные prompt’ы и ответы,
➖ выявлять prompt injection и странные цепочки запросов,
📉 отслеживать деградацию модели и галлюцинации,
🧪 анализировать, как LLM реагирует на нетипичные или вредоносные входные данные.
🧊 Ограничения
При этом нужно понимать, ограничения Allama:
❌ это не firewall для LLM,
❌ не система предотвращения атак,
❌ не инструмент red teaming’а.
Allama закрывает задачу observability, а не защиты.
Тем не менее, без наблюдаемости любая «защита LLM» остаётся декларацией.
🔗 GitHub проекта:
https://github.com/digitranslab/allama
Stay secure and read SecureTechTalks 📚
#cybersecurity #llmsecurity #observability #infosec #aigent #opensecurity #securetechtalks
Большинство разговоров про LLM в ИБ сегодня крутятся вокруг двух крайностей: либо «давайте встроим ИИ везде», либо «LLM опасно и непонятно».
При этом почти никто не задаётся базовым вопросом: а как вообще наблюдать за тем, что делает модель в проде?
Проект Allama редкий пример ответа именно на этот вопрос.
🧠 Что такое Allama
Allama - это open-source observability-инструмент для LLM-приложений. Он предназначен для сбора, анализа и визуализации того, как языковые модели реально работают: какие запросы получают, какие ответы возвращают, сколько токенов потребляют и где возникают проблемы.
Другими словами, Allama превращает LLM из «черного ящика» в сервис, который можно отслеживать так же, как API.
⚙️ Немного деталей
Allama встраивается в LLM-пайплайн и собирает телеметрию на каждом шаге взаимодействия с моделью.
Логически систему можно разложить на три части:
➖ Сбор данных
Перехват prompt’ов, ответов модели, метаданных запросов, времени отклика и токен-статистики.
➖ Анализ
Агрегация данных, выявление аномалий, повторяющихся паттернов, деградации качества и неожиданных ответов.
➖ Визуализация
Дашборды, метрики и временные ряды, которые позволяют понять, что происходит с моделью здесь и сейчас.
🔁 Можно ли разбирать кейсы ИБ?
Allama в первую очередь интересна ИБ-специалистам.
С помощью инструмента можно:
📉 отслеживать деградацию модели и галлюцинации,
🧪 анализировать, как LLM реагирует на нетипичные или вредоносные входные данные.
🧊 Ограничения
При этом нужно понимать, ограничения Allama:
❌ это не firewall для LLM,
❌ не система предотвращения атак,
❌ не инструмент red teaming’а.
Allama закрывает задачу observability, а не защиты.
Тем не менее, без наблюдаемости любая «защита LLM» остаётся декларацией.
🔗 GitHub проекта:
https://github.com/digitranslab/allama
Stay secure and read SecureTechTalks 📚
#cybersecurity #llmsecurity #observability #infosec #aigent #opensecurity #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🛡️ Corgea: AI фиксит уязвимости
Помните, как мы обсуждали VulnHuntr, AI-агента для поиска уязвимостей в коде?
Сегодня поговорим о логичном продолжении этой эволюции: инструменте, который берёт на себя самую нелюбимую часть работы security-инженера по созданию патчей.
Проблема: современные SAST-сканеры генерируют тонны алертов. Зачастую 80% из них false positives. На разбор остаётся 20% реальных проблем, и на каждую у разработчиков уходит в среднем 3-4 часа.
Результат: бэклог растёт, релизы затягиваются, критические уязвимости остаются в production.
Corgea предлагает другой подход.
🔧 Архитектура
Архитектура решения построена вокруг трёх компонентов:
1⃣ Интеграция с существующими инструментами
Corgea подключается к Semgrep, Snyk, CodeQL, Checkmarx, Fortify, берёт их отчёты и начинает работу там, где традиционные сканеры заканчивают.
2⃣ AI-фильтрация false positives
Проприетарные модели анализируют контекст: тип уязвимости, путь кода, data flow, бизнес-логику, сниженая шум на 60-80%. То, что раньше требовало ручного review, теперь отсеивается автоматически.
3⃣ Автоматическая генерация исправлений
Ключевая фича: для подтверждённых уязвимостей Corgea генерирует готовые патчи, конкретный diff, который можно применить одним кликом в VS Code или через GitHub Actions.
🚀 Практическое применение
AI-сканер работает в двух режимах:
➖ CI/CD интеграция: сканирование каждого PR, автоматические комментарии с предложенными фиксами
➖ CLI: локальный запуск для pre-commit проверок
Поддерживаемые языки: Python, Go, JavaScript, TypeScript, Java, C/C++, C#, PHP, Ruby, Kotlin.
Retriever - отдельный open-source инструмент от той же команды решает смежную проблему: безопасный обмен секретами. 100% клиентская сторона, Web Crypto API, никаких серверов.
🔗 Ссылка на GitHub: https://github.com/Corgea
Stay secure and read SecureTechTalks 📚
#corgea #sast #devsecops #ai #cybersecurity #appsec #vulnerabilitymanagement #automatedremediation #llmsecurity #opensource
Помните, как мы обсуждали VulnHuntr, AI-агента для поиска уязвимостей в коде?
Сегодня поговорим о логичном продолжении этой эволюции: инструменте, который берёт на себя самую нелюбимую часть работы security-инженера по созданию патчей.
Проблема: современные SAST-сканеры генерируют тонны алертов. Зачастую 80% из них false positives. На разбор остаётся 20% реальных проблем, и на каждую у разработчиков уходит в среднем 3-4 часа.
Результат: бэклог растёт, релизы затягиваются, критические уязвимости остаются в production.
Corgea предлагает другой подход.
🔧 Архитектура
Архитектура решения построена вокруг трёх компонентов:
1⃣ Интеграция с существующими инструментами
Corgea подключается к Semgrep, Snyk, CodeQL, Checkmarx, Fortify, берёт их отчёты и начинает работу там, где традиционные сканеры заканчивают.
2⃣ AI-фильтрация false positives
Проприетарные модели анализируют контекст: тип уязвимости, путь кода, data flow, бизнес-логику, сниженая шум на 60-80%. То, что раньше требовало ручного review, теперь отсеивается автоматически.
3⃣ Автоматическая генерация исправлений
Ключевая фича: для подтверждённых уязвимостей Corgea генерирует готовые патчи, конкретный diff, который можно применить одним кликом в VS Code или через GitHub Actions.
🚀 Практическое применение
AI-сканер работает в двух режимах:
Поддерживаемые языки: Python, Go, JavaScript, TypeScript, Java, C/C++, C#, PHP, Ruby, Kotlin.
Retriever - отдельный open-source инструмент от той же команды решает смежную проблему: безопасный обмен секретами. 100% клиентская сторона, Web Crypto API, никаких серверов.
🔗 Ссылка на GitHub: https://github.com/Corgea
Stay secure and read SecureTechTalks 📚
#corgea #sast #devsecops #ai #cybersecurity #appsec #vulnerabilitymanagement #automatedremediation #llmsecurity #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🧘♂️ Zen-AI-Pentest: пентестер автономный агент
Zen-AI-Pentest - open-source проект, который строит автономного AI-агента для пентеста, систему, принимающую решения в процессе атаки.
🧠 В чём идея?
Zen-AI-Pentest использует LLM как «мозг» атакующего пайплайна:
➖ получает цель (URL/IP),
➖ выбирает инструменты,
➖ анализирует результаты,
➖ решает, что делать дальше,
➖ повторяет цикл до достижения цели или исчерпания гипотез.
ReAct-подход, применённый к offensive security.
⚙️ Детали
Архитектурно система состоит из следующих компонентов:
1️⃣ LLM-ядра
Модель принимает решения на основе промежуточных результатов.
2️⃣ Инструментального слоя
Подключаются классические инструменты (сканеры, переборы, анализаторы). LLM не заменяет их, она управляет ими.
3️⃣ Цикла обратной связи
Результаты выполнения команд возвращаются модели, и она корректирует стратегию.
🔍 Где пригодится?
➖ автоматизация базового recon
➖ тестирование типовых конфигурационных ошибок
➖ демонстрация offensive-пайплайна в обучении
➖ исследование поведения LLM в атакующих сценариях
Проект особенно полезен как R&D-платформа, чтобы понять:
насколько далеко можно зайти с автономными агентами в offensive security.
🧊 Ограничения
❌ модель может галлюцинировать выводы
❌ сложные логические баги агент не поймёт
❌ многое зависит от качества промптов и ограничений среды
Zen-AI-Pentest это экспериментальная платформа, а не production-ready red team.
🔗 GitHub проекта:
https://github.com/SHAdd0WTAka/Zen-Ai-Pentest
Stay secure and read SecureTechTalks 📚
#cybersecurity #pentest #aigent #llmsecurity #offensivesecurity #redteam #securetechtalks
Zen-AI-Pentest - open-source проект, который строит автономного AI-агента для пентеста, систему, принимающую решения в процессе атаки.
🧠 В чём идея?
Zen-AI-Pentest использует LLM как «мозг» атакующего пайплайна:
➖ получает цель (URL/IP),
➖ выбирает инструменты,
➖ анализирует результаты,
➖ решает, что делать дальше,
➖ повторяет цикл до достижения цели или исчерпания гипотез.
ReAct-подход, применённый к offensive security.
⚙️ Детали
Архитектурно система состоит из следующих компонентов:
1️⃣ LLM-ядра
Модель принимает решения на основе промежуточных результатов.
2️⃣ Инструментального слоя
Подключаются классические инструменты (сканеры, переборы, анализаторы). LLM не заменяет их, она управляет ими.
3️⃣ Цикла обратной связи
Результаты выполнения команд возвращаются модели, и она корректирует стратегию.
🔍 Где пригодится?
➖ автоматизация базового recon
➖ тестирование типовых конфигурационных ошибок
➖ демонстрация offensive-пайплайна в обучении
➖ исследование поведения LLM в атакующих сценариях
Проект особенно полезен как R&D-платформа, чтобы понять:
насколько далеко можно зайти с автономными агентами в offensive security.
🧊 Ограничения
❌ модель может галлюцинировать выводы
❌ сложные логические баги агент не поймёт
❌ многое зависит от качества промптов и ограничений среды
Zen-AI-Pentest это экспериментальная платформа, а не production-ready red team.
🔗 GitHub проекта:
https://github.com/SHAdd0WTAka/Zen-Ai-Pentest
Stay secure and read SecureTechTalks 📚
#cybersecurity #pentest #aigent #llmsecurity #offensivesecurity #redteam #securetechtalks
👍1