Forwarded from CyberSecurityTechnologies
AI_for_AppSec_and_OffSec.pdf
7.5 MB
#AIOps
#Fuzzing
#Offensive_security
"AI for AppSec and Offensive Security: From Automation to Autonomy", BSides Berlin, 2025.
]-> AI-powered workflow automation and AI Agents for AppSec, Fuzzing & Offensive Security
#Fuzzing
#Offensive_security
"AI for AppSec and Offensive Security: From Automation to Autonomy", BSides Berlin, 2025.
]-> AI-powered workflow automation and AI Agents for AppSec, Fuzzing & Offensive Security
Forwarded from Андрей
EDPS.pdf
1.3 MB
Руководство по управлению рисками в системах искусственного интеллекта
Цель этого руководства — предоставить ценную информацию и практические рекомендации по выявлению и снижению распространённых технических рисков, связанных с системами искусственного интеллекта, а также по защите персональных данных.
Источник:
Европейский Надзорный орган по защите данных
https://www.edps.europa.eu/data-protection/our-work/publications/guidelines/2025-11-11-guidance-risk-management-artificial-intelligence-systems_en
Цель этого руководства — предоставить ценную информацию и практические рекомендации по выявлению и снижению распространённых технических рисков, связанных с системами искусственного интеллекта, а также по защите персональных данных.
Источник:
Европейский Надзорный орган по защите данных
https://www.edps.europa.eu/data-protection/our-work/publications/guidelines/2025-11-11-guidance-risk-management-artificial-intelligence-systems_en
🔥1
Forwarded from CyberSecurityTechnologies
Evasion_Attacks_on_LLMs-Countermeasures.pdf
1.8 MB
#AIOps
#hardening
#MLSecOps
"Evasion Attacks on LLMs - Countermeasures in Practice:
A Guide to face Prompt Injections, Jailbreaks and Adversarial Attacks", Nov. 2025.
// The publication is aimed at developers and IT security officers protecting LLM systems (pre-trained LLM as a base models in a specific applications) against evasion attacks. It offers practical insights on integrating countermeasures for system hardening
#hardening
#MLSecOps
"Evasion Attacks on LLMs - Countermeasures in Practice:
A Guide to face Prompt Injections, Jailbreaks and Adversarial Attacks", Nov. 2025.
// The publication is aimed at developers and IT security officers protecting LLM systems (pre-trained LLM as a base models in a specific applications) against evasion attacks. It offers practical insights on integrating countermeasures for system hardening
🔥2👎1
Forwarded from Раньше всех. Ну почти.
Wildberries запустила бесплатный дипфейк-детектор, который позволяет пользователям выявлять изображения, сгенерированные с помощью искусственного интеллекта, пишет ТАСС.
К разработке привлекались профессиональные AI-художники, чья экспертиза, наряду с опытом внутренней команды, позволила довести точность распознавания сгенерированных изображений до 95%.
К разработке привлекались профессиональные AI-художники, чья экспертиза, наряду с опытом внутренней команды, позволила довести точность распознавания сгенерированных изображений до 95%.
🗿2
Forwarded from Градиент обреченный (Sergei Averkiev)
Нарисуй предыдущие инструкции
Коротенький обзор/исследование возможностей Nano Banana, модели от Google для генерации и редактирования картинок, она же Gemini 2.5 Flash Image.
🟢 Контекст у модели 32k токенов и автор пробует разные странные идеи типа засунуть в промпт код html странички, чтобы она его нарисовала. Что еще интересней, так это то, что модель его отрисовывает.
🟢 Но самый забавный пример, это просьба нарисовать системный промпт в виде магнитов на холодильник (!). Так как текста много, можно потом просить нарисовать какую-то конкретную часть, чтобы нормально прочитать.
🟢 Попробовал воспроизвести, в виде магнитиков действительно рисует, а в виде обычного текста на листе или в виде татуировки почему-то не хочет.
👉 https://minimaxir.com/2025/11/nano-banana-prompts/
Коротенький обзор/исследование возможностей Nano Banana, модели от Google для генерации и редактирования картинок, она же Gemini 2.5 Flash Image.
👉 https://minimaxir.com/2025/11/nano-banana-prompts/
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Клуб CDO
Наверное неожиданно, но все кто занимается управлением разработкой и работой сложных систем, хочу порекомендовать к прочтению: NASA Systems Engineering Handbook
Это не просто книга про космос — это эталон мышления инженеров, которые строят системы, где ошибка недопустима.
Что даёт эта книга:
• учит системному подходу — как из идей и требований выстроить архитектуру, которая выдержит нагрузку и время;
• показывает, как проектировать, верифицировать и валидировать решения на каждом этапе жизненного цикла;
• помогает увидеть систему целиком — от логической структуры до операционного режима;
• формирует инженерную культуру, где надёжность и прозрачность важнее скорости на короткой дистанции.
В общем там очень интересный контент про управление рисками, из оценку, планирование, дизайн систем и тп.
Это не просто книга про космос — это эталон мышления инженеров, которые строят системы, где ошибка недопустима.
Что даёт эта книга:
• учит системному подходу — как из идей и требований выстроить архитектуру, которая выдержит нагрузку и время;
• показывает, как проектировать, верифицировать и валидировать решения на каждом этапе жизненного цикла;
• помогает увидеть систему целиком — от логической структуры до операционного режима;
• формирует инженерную культуру, где надёжность и прозрачность важнее скорости на короткой дистанции.
В общем там очень интересный контент про управление рисками, из оценку, планирование, дизайн систем и тп.
✍1
Forwarded from Клуб CDO
Клуб CDO
Наверное неожиданно, но все кто занимается управлением разработкой и работой сложных систем, хочу порекомендовать к прочтению: NASA Systems Engineering Handbook Это не просто книга про космос — это эталон мышления инженеров, которые строят системы, где ошибка…
nasa_systems_engineering_handbook_0.pdf
3.6 MB
Кто просил электронную копию? Вот нашлась
Forwarded from AISecHub
EchoGram: The Hidden Vulnerability Undermining AI Guardrails - https://hiddenlayer.com/innovation-hub/echogram-the-hidden-vulnerability-undermining-ai-guardrails/
Hiddenlayer
EchoGram: Bypassing AI Guardrails via Token Flip Attacks
HiddenLayer unveils EchoGram, a new attack technique that manipulates AI guardrails protecting LLMs like GPT-4, Claude, and Gemini.
🔥1
Forwarded from CyberSecurityTechnologies
emb3d-stix-2.0.1.json
766.7 KB
#tools
#AIOps
#Red_Team_Tactics
"UDora: A Unified Red Teaming Framework against LLM Agents by Dynamically Hijacking Their Own Reasoning", Nov. 2025.
]-> https://github.com/AI-secure/UDora
// In this work, we present UDora, a unified red teaming framework designed for LLM agents that dynamically hijacks the agent's reasoning processes to compel malicious behavior
#AIOps
#Red_Team_Tactics
"UDora: A Unified Red Teaming Framework against LLM Agents by Dynamically Hijacking Their Own Reasoning", Nov. 2025.
]-> https://github.com/AI-secure/UDora
// In this work, we present UDora, a unified red teaming framework designed for LLM agents that dynamically hijacks the agent's reasoning processes to compel malicious behavior
👎1
Forwarded from CyberSecurityTechnologies
LLMs_for_Phishing_Detection.pdf
625.1 KB
#Research
"How Can We Effectively Use LLMs for Phishing Detection?: Evaluating the Effectiveness of Large Language Model-based Phishing Detection Models", 2025.
// This study investigates how to effectively leverage LLMs for phishing detection by examining the impact of input modalities (screenshots, logos, HTML, URLs), temperature settings, and prompt engineering strategies. We evaluate seven LLMs - two commercial models (GPT 4.1, Gemini 2.0 flash) and five open-source models (Qwen, Llama, Janus, DeepSeek-VL2, R1) - alongside two DL-based baselines (PhishIntention and Phishpedia). Our findings reveal that commercial LLMs generally outperform open-source models in phishing detection, while DL models demonstrate better performance on benign samples
"How Can We Effectively Use LLMs for Phishing Detection?: Evaluating the Effectiveness of Large Language Model-based Phishing Detection Models", 2025.
// This study investigates how to effectively leverage LLMs for phishing detection by examining the impact of input modalities (screenshots, logos, HTML, URLs), temperature settings, and prompt engineering strategies. We evaluate seven LLMs - two commercial models (GPT 4.1, Gemini 2.0 flash) and five open-source models (Qwen, Llama, Janus, DeepSeek-VL2, R1) - alongside two DL-based baselines (PhishIntention and Phishpedia). Our findings reveal that commercial LLMs generally outperform open-source models in phishing detection, while DL models demonstrate better performance on benign samples
👍1👎1
Forwarded from GitHub Community
This media is not supported in your browser
VIEW IN TELEGRAM
Resemble AI — клон вашего голоса
Создаёт естественную озвучку с эмоциями, акцентами и нужной интонацией.
Достаточно 5 секунд записи, чтобы ИИ полностью повторил голос любого человека.
Поддерживает русский язык и ещё 22 других.
Можно озвучивать видео, подкасты или делать дубляж с идеальной синхронизацией.
Попробовать здесь
🐱 GitHub
Создаёт естественную озвучку с эмоциями, акцентами и нужной интонацией.
Достаточно 5 секунд записи, чтобы ИИ полностью повторил голос любого человека.
Поддерживает русский язык и ещё 22 других.
Можно озвучивать видео, подкасты или делать дубляж с идеальной синхронизацией.
Попробовать здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from CyberSecurityTechnologies
#CogSec
#MLSecOps
Inside OpenAI Sora 2 -
Uncovering System Prompts Driving Multi-Modal LLMs
https://mindgard.ai/resources/openai-sora-system-prompts
// By chaining cross-modal prompts and clever framing, researchers surfaced hidden instructions from OpenAI’s video generator
#MLSecOps
Inside OpenAI Sora 2 -
Uncovering System Prompts Driving Multi-Modal LLMs
https://mindgard.ai/resources/openai-sora-system-prompts
// By chaining cross-modal prompts and clever framing, researchers surfaced hidden instructions from OpenAI’s video generator
Forwarded from Эксплойт
Полностью снимаем цензуру у текстовых нейросетей — на GitHub вышла проект, который превратит самую кроткую LLM в безумного психопата, готового выдать любую инструкцию.
— Программа срезает цензуру с корнем, на уровне внутренних настроек;
— При этом все параметры подбираются автоматически;
— Цензура падает почти в ноль: тестировали на скромной Gemma 3 от Google — процент отказов упал с 97% до 3%;
— Работает со всеми типами моделей;
— Минус один: нужен хотя бы средний комп;
— Разумеется, бесплатно.
Пользуемся осторожно — здесь.
@exploitex
— Программа срезает цензуру с корнем, на уровне внутренних настроек;
— При этом все параметры подбираются автоматически;
— Цензура падает почти в ноль: тестировали на скромной Gemma 3 от Google — процент отказов упал с 97% до 3%;
— Работает со всеми типами моделей;
— Минус один: нужен хотя бы средний комп;
— Разумеется, бесплатно.
Пользуемся осторожно — здесь.
@exploitex
AISecHub
AI pentest scoping playbook https://devansh.bearblog.dev/ai-pentest-scoping/
Вообще бомба, 90 вопросов для редтимера перед началом теста.
А еще структура отчета по тестированию
И это помимо базового обзора устройства ии-системы и овасп ллм топ 10
А еще структура отчета по тестированию
И это помимо базового обзора устройства ии-системы и овасп ллм топ 10
Forwarded from Пост Лукацкого
Про фреймворки/языки описания правил обнаружения YARA, SIGMA и т.п. слышали многие 👂 , но что насчет формализации способов описания различных атак, направленных на LLM? Как обнаруживать jailbreak prompt, adversarial prompt и иные варианты вредоносного использования ИИ, обходящие встроенные фильтры и механизмы защиты? 🤖
И такой фреймворк появился. Это NOVA, который позволяет создавать правила🧑💻 в похожем на YARA синтаксисе для мониторинга и обнаружения подозрительных запросов, описываемых ключевыми словами или регулярными выражениями. Также NOVA поддерживает семантическую похожесть и поддерживает LLM для анализа и обнаружения плохих запросов. Например, вот так выглядит правило для обнаружения промптов по написанию вредоносного кода 🦠
А так, обнаружение обычной prompt injection:
Несмотря на то, что это бета-версия проекта, выглядит вполне себе интересно.
#обнаружениеугроз #ии #framework
И такой фреймворк появился. Это NOVA, который позволяет создавать правила
(keywords.$safety_override or keywords.$ethical_bypass) and
(keywords.$hacker_persona or keywords.$malware_terms) and
(keywords.$obfuscated_format or keywords.$template_markers) or
(keywords.$malware_terms or keywords.$stealth_tech or keywords.$wordcount_manip) and
(keywords.$obfuscated_format or keywords.$template_markers) or
semantics.$malware
А так, обнаружение обычной prompt injection:
semantics.$injection* or keywords.$bypass*
Несмотря на то, что это бета-версия проекта, выглядит вполне себе интересно.
#обнаружениеугроз #ии #framework
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - Nova-Hunting/nova-framework: NOVA: The Prompt Pattern Matching
NOVA: The Prompt Pattern Matching. Contribute to Nova-Hunting/nova-framework development by creating an account on GitHub.
Forwarded from Russian OSINT
Forbes пишет, что военные в США продолжают форсировать интеграцию искусственного интеллекта в наступательные кибероперации, инвестируя миллионы в новые ИИ-решения. В качестве примера приводится контракт
Компания делает упор на автоматизацию и масштабирование киберопераций. Речь может идти о
Примечательно, что команда проекта Twenty укомплектована бывшими офицерами разведки и вооруженных сил США с очень серьезным опытом. Одна из целей создать и индустриализировать кибероружие, чтобы США вместе с союзниками могли «сдерживать, а также побеждать своих противников».
Вакансии компании раскрывают чуть больше деталей. Например, Twenty ищет директора по исследованиям в области cyber offensive (наступательные технологии), который будет разрабатывать «продвинутые возможности проведения кибератак, включая фреймворки… и инструменты автоматизации на базе ИИ». Также в объявлениях имеется вакансия инженера по ИИ, где указано, что Twenty будет внедрять инструменты с открытым исходным кодом, такие как CrewAI, который используется для управления несколькими автономными ИИ-агентами, взаимодействующими друг с другом.
Продукты Twenty представляют собой шаг вперед с точки зрения автоматизации кибервойны.
— комментирует Forbes.
Известно, что компания ранее привлекла инвестиции от In‑Q‑Tel (венчурное подразделение ЦРУ), а также фондов Caffeinated Capital и General Catalyst.
Twenty также планирует использовать ИИ-агентов для ведения информационных операций. Важной частью стратегии является разработка убедительных цифровых личностей для проведения сложных операций
👆Ранее TheIntercept писали, что
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AGI Security
JSON для LLM — всё! Да здравствует Token-Oriented Object Notation 🤖
Каждый, кто хоть раз всерьёз гонял запросы к LLM, знает, как больно бывает смотреть на счётчик токенов. Ты вроде просто отправляешь список пользователей в JSON, а нейросеть уже съела половину твоего бюджета.
TOON обещает сократить потребление токенов чуть ли не вдвое 🔥
Это формат сериализации данных JSON в LLM промпты. Он представляет те же объекты, массивы и примитивы, что и JSON, но в синтаксисе, который минимизирует количество токенов и упрощает понимание структуры для моделей.
Токен-ориентированная объектная нотация — это компактное, удобное для восприятия представление модели данных JSON для запросов LLM. Она обеспечивает сериализацию без потерь тех же объектов, массивов и примитивов, что и JSON, но в синтаксисе, который минимизирует количество токенов и упрощает структуру для моделей.
TOON сочетает в себе структуру YAML с отступами для вложенных объектов и табличную структуру в стиле CSV для однородных массивов. Преимущество TOON — однородные массивы объектов (несколько полей в строке, одинаковая структура для всех элементов), что позволяет достичь компактности, подобной CSV, и при этом добавить явную структуру, которая помогает LLM-программистам надёжно анализировать и проверять данные. Для глубоко вложенных или неоднородных данных JSON может быть более эффективным.
Сходство с CSV является намеренным: CSV прост и универсален, и TOON стремится сохранить эту узнаваемость, оставаясь при этом без потерь и простым представлением JSON для больших языковых моделей.
Каждый, кто хоть раз всерьёз гонял запросы к LLM, знает, как больно бывает смотреть на счётчик токенов. Ты вроде просто отправляешь список пользователей в JSON, а нейросеть уже съела половину твоего бюджета.
TOON обещает сократить потребление токенов чуть ли не вдвое 🔥
Это формат сериализации данных JSON в LLM промпты. Он представляет те же объекты, массивы и примитивы, что и JSON, но в синтаксисе, который минимизирует количество токенов и упрощает понимание структуры для моделей.
Токен-ориентированная объектная нотация — это компактное, удобное для восприятия представление модели данных JSON для запросов LLM. Она обеспечивает сериализацию без потерь тех же объектов, массивов и примитивов, что и JSON, но в синтаксисе, который минимизирует количество токенов и упрощает структуру для моделей.
TOON сочетает в себе структуру YAML с отступами для вложенных объектов и табличную структуру в стиле CSV для однородных массивов. Преимущество TOON — однородные массивы объектов (несколько полей в строке, одинаковая структура для всех элементов), что позволяет достичь компактности, подобной CSV, и при этом добавить явную структуру, которая помогает LLM-программистам надёжно анализировать и проверять данные. Для глубоко вложенных или неоднородных данных JSON может быть более эффективным.
Сходство с CSV является намеренным: CSV прост и универсален, и TOON стремится сохранить эту узнаваемость, оставаясь при этом без потерь и простым представлением JSON для больших языковых моделей.
GitHub
GitHub - toon-format/toon: 🎒 Token-Oriented Object Notation (TOON) – Compact, human-readable, schema-aware JSON for LLM prompts.…
🎒 Token-Oriented Object Notation (TOON) – Compact, human-readable, schema-aware JSON for LLM prompts. Spec, benchmarks, TypeScript SDK. - toon-format/toon
Forwarded from Alaid TechThread
Больше слайдов с Offensive AI Con 2025 - https://github.com/Offensive-AI-Con/OAIC-2025/tree/main
Пока самая интересная конфа по теме
Пока самая интересная конфа по теме
GitHub
GitHub - Offensive-AI-Con/OAIC-2025: Offensive AI Con 2025 Media Repository
Offensive AI Con 2025 Media Repository. Contribute to Offensive-AI-Con/OAIC-2025 development by creating an account on GitHub.
👍2
Forwarded from SecureTechTalks
🚨 ИИ под охраной: OpenGuardrails защищает нейросети от утечек и манипуляций
ИИ-системы стремительно входят в бизнес-процессы, но чем шире их применение, тем выше риск: модели могут раскрывать конфиденциальные данные, исполнять вредные инструкции или генерировать токсичный контент.
🧩 OpenGuardrails создан для того, чтобы защать модели. Это открытая платформа, которая анализирует все запросы и ответы, обнаруживает инъекции, утечки и вредные подсказки, не давая AI выйти за рамки заданных политик безопасности.
🛡 Умная защита для умных систем
Фактически OpenGuardrails - это полноценный защитный слой между пользователем и моделью. Он контролирует оба направления трафика:
выявляет prompt-инъекции и попытки манипуляции контекстом,
блокирует утечки персональных и корпоративных данных,
фильтрует токсичный или опасный контент на входе и выходе модели.
👉 GitHub проекта
⚙️ Как это устроено?
Под капотом OpenGuardrails работает комбинация технологий:
➖ собственная LLM для анализа запросов и выявления атак,
➖ NER-модули для поиска чувствительных данных,
➖ гибкие политики и правила, которые легко адаптируются под ваши сценарии.
Платформа поддерживает два режима:
1️⃣ API-интеграция, когда вы напрямую вызываете сервис проверки;
2️⃣ Security Gateway, когда разворачиваете его как прокси, через который проходят все запросы к модели.
💡 Производительность: средняя задержка менее 300 мс.
Плюсом поддержка более 100 языков.
🧩 OpenGuardrails помогает компаниям решать три ключевые задачи:
🧱 Защищает пользователей и репутацию: предотвращая утечки и неэтичные ответы;
📜 Поддерживает соответствие требованиям GDPR, ISO 27001, SOC 2 и др.;
🤝 Повышает доверие к вашим ИИ-сервисам.
🚀 Где применять?
🔸 Корпоративные чат-боты: фильтруют вредные запросы и защищают документы.
🔸 Генераторы кода: предотвращают инъекции и утечки токенов.
🔸 ИИ-ассистенты: исключают токсичные или политически чувствительные ответы.
🔸 Big Data-платформы: контролируют обработку чувствительных наборов данных.
Stay secure and read SecureTechTalks 📚
#AIsecurity #cybersecurity #promptinjection #dataprotection #openguardrails #bigdata #infosec #opensource #llmsecurity #SecureTechTalks #techinnovation
ИИ-системы стремительно входят в бизнес-процессы, но чем шире их применение, тем выше риск: модели могут раскрывать конфиденциальные данные, исполнять вредные инструкции или генерировать токсичный контент.
🧩 OpenGuardrails создан для того, чтобы защать модели. Это открытая платформа, которая анализирует все запросы и ответы, обнаруживает инъекции, утечки и вредные подсказки, не давая AI выйти за рамки заданных политик безопасности.
🛡 Умная защита для умных систем
Фактически OpenGuardrails - это полноценный защитный слой между пользователем и моделью. Он контролирует оба направления трафика:
выявляет prompt-инъекции и попытки манипуляции контекстом,
блокирует утечки персональных и корпоративных данных,
фильтрует токсичный или опасный контент на входе и выходе модели.
👉 GitHub проекта
⚙️ Как это устроено?
Под капотом OpenGuardrails работает комбинация технологий:
Платформа поддерживает два режима:
1️⃣ API-интеграция, когда вы напрямую вызываете сервис проверки;
2️⃣ Security Gateway, когда разворачиваете его как прокси, через который проходят все запросы к модели.
💡 Производительность: средняя задержка менее 300 мс.
Плюсом поддержка более 100 языков.
🧩 OpenGuardrails помогает компаниям решать три ключевые задачи:
🧱 Защищает пользователей и репутацию: предотвращая утечки и неэтичные ответы;
📜 Поддерживает соответствие требованиям GDPR, ISO 27001, SOC 2 и др.;
🤝 Повышает доверие к вашим ИИ-сервисам.
🚀 Где применять?
🔸 Корпоративные чат-боты: фильтруют вредные запросы и защищают документы.
🔸 Генераторы кода: предотвращают инъекции и утечки токенов.
🔸 ИИ-ассистенты: исключают токсичные или политически чувствительные ответы.
🔸 Big Data-платформы: контролируют обработку чувствительных наборов данных.
Stay secure and read SecureTechTalks 📚
#AIsecurity #cybersecurity #promptinjection #dataprotection #openguardrails #bigdata #infosec #opensource #llmsecurity #SecureTechTalks #techinnovation
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from SecureTechTalks
⚡️ Strix: ИИ, который взламывает ваши приложения быстрее,
⚙ Strix: автономные AI-агенты, которые ведут себя как настоящие пентестеры: проводят атаки, валидируют уязвимости и выдают реальные PoC. Всё это в полностью автоматическом режиме.
🔧 Инструменты взлома под капотом:
- HTTP-прокси для перехвата и изменения запросов
- Браузерная автоматизация (XSS, CSRF, обход аутентификации)
- Терминальный доступ и выполнение команд
- Python-среда для написания эксплойтов
- OSINT-разведка и анализ поверхности атаки
- Статика + динамика: анализ кода и поведения
Strix не ограничивается анализом, он берет и эксплуатирует. От IDOR и SSRF до токенов, сессий, XSS, прототип поллюшена и гонок.
🤖 Архитектура “роя”
Strix работает как граф агентов: каждый отвечает за свой этап атаки, делится найденным и запускает цепочки действий. Это даёт ему возможность проводить сложные многоходовые атаки, как человек-пентестер, только в разы быстрее.
💵 Интеграция в CI/CD
Добавляете Strix в GitHub Actions и при каждом PR он запускает тесты.
Нашёл крит уязвимость? ❌ PR отклонён.
Всё чисто? ✅ Можно мёржить.
Команда получает PoC сразу, без споров “это ложное срабатывание или нет?”.
🔥 Почему стоит обратить внимание?
➖ минимизирует человеческий фактор
➖ покрывает сложные сценарии, которые пропускают сканеры
➖ даёт реальные PoC
идеально вписывается в DevSecOps
➖ экономит деньги на пентестах
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #pentest #aiagents #devsecops #bugbounty #appsec #securitytesting #llmsecurity #securetechtalks
⚙ Strix: автономные AI-агенты, которые ведут себя как настоящие пентестеры: проводят атаки, валидируют уязвимости и выдают реальные PoC. Всё это в полностью автоматическом режиме.
🔧 Инструменты взлома под капотом:
- HTTP-прокси для перехвата и изменения запросов
- Браузерная автоматизация (XSS, CSRF, обход аутентификации)
- Терминальный доступ и выполнение команд
- Python-среда для написания эксплойтов
- OSINT-разведка и анализ поверхности атаки
- Статика + динамика: анализ кода и поведения
Strix не ограничивается анализом, он берет и эксплуатирует. От IDOR и SSRF до токенов, сессий, XSS, прототип поллюшена и гонок.
🤖 Архитектура “роя”
Strix работает как граф агентов: каждый отвечает за свой этап атаки, делится найденным и запускает цепочки действий. Это даёт ему возможность проводить сложные многоходовые атаки, как человек-пентестер, только в разы быстрее.
💵 Интеграция в CI/CD
Добавляете Strix в GitHub Actions и при каждом PR он запускает тесты.
Нашёл крит уязвимость? ❌ PR отклонён.
Всё чисто? ✅ Можно мёржить.
Команда получает PoC сразу, без споров “это ложное срабатывание или нет?”.
🔥 Почему стоит обратить внимание?
идеально вписывается в DevSecOps
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #pentest #aiagents #devsecops #bugbounty #appsec #securitytesting #llmsecurity #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2😁1