SecureTechTalks – Telegram
SecureTechTalks
293 subscribers
671 photos
1 video
1 file
669 links
Добро пожаловать на канал "SecureTechTalks"! Мы предлагаем вам увлекательное и информативное погружение в мир кибербезопасности. Здесь вы найдете актуальные новости, советы, методы и инсайты по инфобезу.
Download Telegram
🛡 OSS Rebuild от Google: Проверка на подлог в открытом коде

Google представил решение, которое может радикально изменить подход к безопасности open-source-экосистем. OSS Rebuild — инструмент для автоматической верификации целостности пакетов из PyPI, npm и Crates.io.

💥 В чём суть?

Каждый день тысячи разработчиков устанавливают зависимости из публичных репозиториев — с верой в то, что эти пакеты собраны из «чистого» исходного кода. Но что если в опубликованной версии — вредоносная вставка, которую нет в исходниках?
OSS Rebuild позволяет это выявить. Он пересобирает пакеты из оригинального кода и сравнивает результат с тем, что выложено в реестр. Если совпадают — значит всё чисто. Если нет — возможно, кто-то пытался вас взломать.

🧠 OSS Rebuild использует воспроизводимую сборку: идею, что один и тот же код при тех же условиях должен давать идентичный бинарный результат.

1⃣ Он автоматически анализирует, какие параметры сборки нужны для получения того самого пакета.

2⃣ После успешной пересборки создаётся криптографическая аттестация, которую можно хранить, пересматривать и проверять.

3⃣ Все результаты публикуются в открытом хранилище: ты всегда можешь узнать, проверялась ли нужная тебе версия пакета.

🚨 Что получаем?

🔸 Защита от supply-chain атак
Если злоумышленник получил доступ к учётке мейнтейнера, он может выложить «троянский» билд, не трогая исходники. OSS Rebuild заметит такую подмену.

🔸 Масштабируемость
Инструмент уже проверяет тысячи пакетов автоматически, и это можно встроить в CI/CD или использовать как независимую проверку.

🔸 Прозрачность
Всё, что проверено, снабжается понятным отчётом. Инфраструктура полностью открыта — можно использовать в своих разработках.

🔸 Универсальность
Работает с разными экосистемами: npm (JavaScript), PyPI (Python), Crates.io (Rust). В будущем — больше.

🧩 Есть куда расти

Возможность быстро проверить, действительно ли бинарник сделан из нужного исходника, открывает новые горизонты:
- Сборка «белого списка» доверенных пакетов
- Интеграция с безопасной поставкой ПО (SLSA, SBOM)
- Автоматическая валидация зависимостей при билде
- Верификация уязвимостей: уязвим ли действительно установленный код?

📎 Ссылки:
🔗 GitHub: github.com/google/oss-rebuild
📘 Документация: oss-rebuild.dev
🗞 Блог Google: Introducing OSS Rebuild

Stay secure and read SecureTechTalks 📚

#OSSRebuild #SupplyChainSecurity #OpenSource #GoogleSecurity #PyPI #npm #RustLang #DevSecOps #SLSA #CyberSecurity #SecureTechTalks #ReproducibleBuilds #SoftwareIntegrity #OpenSourceTools #TrustButVerify #SecurityInnovation #CI_CD #SecureDevelopment #SecurityTools #GoogleOpenSource #DigitalDefense
🧩 Cervantes: единая платформа для управления пентестами и уязвимостями

Cervantes — open-source платформа, созданная для упрощения и стандартизации всех этапов работы специалистов ИБ: от постановки задач до генерации итоговых отчётов.

🤝 Совместная работа и прозрачность

Решение спроектировано как инструмент командной работы, где каждый участник — от пентестера до заказчика — имеет доступ к нужной информации на своём уровне.

🍭Фичи:

👥 Гибкая модель ролей и прав — управление доступом по ролям, включая 2FA и SSO (OpenID Connect)

🧭 Поддержка OWASP WSTG и MASTG — шаблоны тестирования встроены прямо в систему

📡 История действий и аудит — вся активность логируется для прозрачности

🧰 Ключевые функции

📋 Проекты, задачи, уязвимости — централизованное ведение всех сущностей, связанных с тестированием

🧾 PDF-отчёты по шаблонам — автоматическая генерация понятных и презентабельных документов

📈 Интерактивные дашборды — аналитика в реальном времени с разбивкой по статусу задач, уязвимостям и проектам

🌐 Интерфейс на нескольких языках — английский и испанский с возможностью локализации

🤖 Интеграция с ИИ — подключение OpenAI, Anthropic и локальных моделей для генерации текста и автоматизации

🛠️ Технологии под капотом

📦 Бэкенд на .NET 8
🐘 База данных — PostgreSQL
🐳 Развёртывание через Docker Compose
📡 API-first подход — для интеграции с Jira, внешними SIEM и CI/CD пайплайнами

Платформа не требует сложной установки: поднять её можно за считаные минуты на любом сервере, используя контейнерную инфраструктуру.

📌 Актуальный статус проекта

🔧 Проект активно развивается — более 40 пулл-реквестов и регулярные релизы
📅 Последняя версия — v1.3 Beta:
- Поддержка нескольких ролей
- Расширенные отчёты
- Интеграция с OpenID
- Поддержка кастомного CSS
- Улучшенные AI-инструменты

Для кого?

- Команды Red Team и Blue Team
- Консультанты по кибербезопасности
- Внутренние службы ИБ в корпорациях
- Специалисты по баг-баунти и аудитам
- Интеграторы DevSecOps

Если вы хотите централизовать управление безопасностью и облегчить совместную работу — Cervantes может стать отличным помощником.

🔗 Ознакомиться с проектом и развернуть: GitHub — github.com/CervantesSec/cervantes
📖 Документация и демо: www.cervantessec.org

Stay secure and read SecureTechTalks 📚

#Cervantes #RedTeam #PentestPlatform #VulnerabilityManagement #CyberSecurity #DevSecOps #OpenSource #SecurityAutomation #PostgreSQL #Docker #CollaborationTools #OWASP #InfoSecTools #SecureTechTalks #PentestingSuite #ThreatAnalysis #AIIntegration #SSO #SecurityDashboard #PDFReports
🚀 AutoSwagger: автоматическая генерация OpenAPI-спецификаций

📡 Упрощаем работу с API и повышаем безопасность

AutoSwagger — инструмент с открытым кодом, разработанный Intruder.io, который делает одну, но крайне важную вещь: автоматически извлекает OpenAPI-спецификации (Swagger) из веб-приложений, даже если они не задокументированы.

🤖 Зачем нужен AutoSwagger?

Многие приложения (особенно legacy) не имеют документированного API. Что это значит для безопасника?
Неясна логика запросов и структура путей.
Трудно автоматизировать анализ уязвимостей.
Тесты на авторизацию, ограничение методов и rate-limit приходится делать вручную.

AutoSwagger решает всё это. Он перехватывает HTTP-трафик, анализирует его, и строит .yaml-файл OpenAPI, который можно скормить Burp Suite, ZAP, Postman, Dredd и другим инструментам.

⚙️ Принцип работы

AutoSwagger слушает трафик между клиентом и сервером (через MITM-прокси или сессии Burp/ZAP) и автоматически строит спецификацию OpenAPI:
Запоминает уникальные endpoints (GET, POST, PUT, DELETE и т.д.)
Извлекает параметры из тела запроса, query и path
Анализирует заголовки и статус-коды
Автоматически группирует запросы по тегам и структуре

💡 В итоге вы получаете почти полную API-документацию — даже если разработчики не оставили ни строки Swagger-декларации.

📦 Возможности

🔍 Анализ любого трафика — можно использовать как с прокси (Burp, ZAP), так и с логами HAR или ПКАП
📄 Генерация OpenAPI 3.0 — стандартная спецификация, которую понимают все современные сканеры
🧠 Обогащение вручную — вы можете доработать YAML-файл, указать авторизацию, добавить примеры
🧪 Интеграция с fuzzing и security tools — AutoSwagger хорошо сочетается с:
- OWASP ZAP
- Postman
- Schemathesis
- Dredd
- Burp Repeater + Intruder

🛡️ Применение

📍 Пентесты API: Получите карту всех обнаруженных endpoint'ов и быстро напишите тест-кейсы.
🧪 Fuzzing на основе схемы: Используйте генератор для атаки на структуру запросов.
📊 Отчётность и отчёты для заказчиков: визуализация и структурированность повышают доверие.
🤖 Автоматизация CI/CD: проверка изменения API и сравнение с эталонной спецификацией.

💡 Для кого?

🔐 Red Team и пентестеры — для ускорения API-реконструкции
🏢 ИБ-отделы и DevSecOps-интеграторы — для контроля изменений API в продуктиве
🧪 Тестировщики — для генерации автоматизированных тестов по реальному трафику
👨‍💻 Разработчики — чтобы не писать Swagger руками

🌐 Где найти?
Исходный код на GitHub:
🔗 https://github.com/intruder-io/autoswagger
Документация включает примеры, инструкции и описание форматов вывода.

Stay secure and read SecureTechTalks 📚

#APIsecurity #AutoSwagger #OpenAPI #PentestTools #BugBounty #DevSecOps #Swagger #Cybersecurity #SecurityAutomation #BurpSuite #OWASP #ZAP #APITesting #SecureTechTalks #RedTeamTools #InfoSec #OpenSourceTools #YAML #ThreatDetection
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 RAG Security Scanner — инструмент для анализа утечек в Retrieval-Augmented Generation

📚 Когда внешние данные превращаются в угрозу

RAG-архитектуры стали неотъемлемой частью современного ИИ: они позволяют языковым моделям (LLM) давать более точные ответы, подгружая внешний контекст из баз знаний, вики, векторных хранилищ. Но где данные — там и риски. Один неосторожный документ, и ваш GPT может начать «цитировать» токены, персональные данные или внутренние инструкции.

Чтобы этого не произошло, можно использовать RAG Security Scanner — open-source-инструмент, позволяющий автоматически проверить, не выдает ли ваша RAG-система конфиденциальную информацию пользователям.

🔍 Что реально делает этот инструмент?

RAG Security Scanner воспроизводит поведение ретривера LLM и анализирует документы, доступные модели. Он:
разбивает документы на фрагменты (чанки)
индексирует их в локальном FAISS-хранилище
применяет ключевые фразы-триггеры ("password", "confidential", "api_key", и т.д.)
ищет, какие куски могут быть возвращены в ответ на потенциально чувствительные запросы

Итог: вы получаете список фрагментов, содержащих уязвимую информацию, которые могут быть «вытянуты» LLM в процессе генерации.

📦 Фичи, которые делают его полезным

💡 Гибкая система ключевых слов — можно добавлять свои триггеры под нужды проекта
🧠 Полноценная локальная работа — не требует подключения к внешним API
📂 Поддержка распространённых форматов — PDF, .txt и т.п.
⚠️ Прозрачная визуализация совпадений — легко отследить, где именно возникает риск
🧰 Интеграция с пайплайнами — можно внедрить в CI/CD для автоматической проверки

🧪 Overview

RAG Security Scanner —это рабочий инструмент для:
обеспечения безопасности RAG-приложений и чат-ботов
оценки рисков при загрузке данных в LangChain, LlamaIndex и др.
тестирования и аудита корпоративных знаний перед их отправкой в векторное хранилище
контроля соответствия требованиям privacy и compliance

🔗 Ссылка на проект:
💻 GitHub: github.com/olegnazarov/rag-security-scanner

Stay secure and read SecureTechTalks 📚

#RAGSecurityScanner #RAG #LLMSecurity #DataPrivacy #OpenSourceTools #PentestTools #Cybersecurity #LangChain #AICompliance #SecureTechTalks #VectorDB #FAISS #AIContextLeak #DevSecOps #SecurityScanner #RedTeamTools #AIHardening
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🔍 VulnHuntr: автоматический охотник за уязвимостями в ML и LLM-моделях

Как защитить свои модели до того, как их сломают злоумышленники

Современные ИИ-системы — это уже не просто код, а сложные архитектуры с сотнями скрытых параметров и цепочками данных. Их уязвимости не всегда очевидны, а последствия могут быть критическими: от обхода защитных фильтров до утечек данных.

VulnHuntr — open-source-инструмент от Protect AI, который позволяет системно и автоматически находить слабые места в LLM ML-моделях, прежде чем их найдут атакующие.

⚙️ Что умеет VulnHuntr?

🔹 Автоматизированное сканирование моделей
Проводит серию атак (white-box или black-box) и фиксирует, где модель «падает».
🔹 Генерация отчётов
Создаёт подробные отчёты, которые можно интегрировать в баг-трекинг или CI/CD.
🔹 Проверка на известные классы атак
Поддерживает шаблоны для популярных техник из MITRE ATLAS и academic papers.
🔹 Поддержка разных фреймворков
Работает с PyTorch, TensorFlow, ONNX и любыми моделями, доступными через API.
🔹 Модульность
Можно писать свои плагины: например, тест на утечку векторных эмбеддингов или проверку генеративных моделей на jailbreak-промпты.

🧪 Как это выглядит на практике?

1⃣ Подключаете модель (локально или по API).
2⃣ Выбираете тесты: от простых атак (изменение пикселя в изображении) до сложных adversarial-паттернов.
3⃣ Запускаете VulnHuntr — он генерирует входные данные, анализирует ответы и выявляет уязвимости.
4⃣ Получаете отчёт с примерами, где модель даёт небезопасный результат.

🔗 Где взять?

💻 GitHub: github.com/protectai/vulnhuntr
📄 Документация: protectai.com

Stay secure and read SecureTechTalks 📚

#VulnHuntr #MLSecurity #AdversarialML #RedTeamTools #Cybersecurity #AIhardening #OpenSourceTools #DevSecOps #LLMSecurity #ModelSecurity #MITREATLAS #PentestTools #AIthreats #SecureTechTalks #AISecurity #MLops #ThreatModeling #AIvulnerabilities #SecurityAutomation #ProtectAI
💥 Кибератака на «Аэрофлот»: как уничтожили 7000 серверов

🛑 28 июля 2025 года крупнейший авиаперевозчик России столкнулся с беспрецедентной кибератакой. Инцидент парализовал работу всей IT-инфраструктуры:
- отменены десятки рейсов ✈️
- сбои затронули десятки тысяч пассажиров
- 20+ ТБ данных оказались похищены или уничтожены
- акции компании рухнули на бирже 📉

🧠 Как это произошло? (Техническая сторона)

🔹 Длительная подготовка
По данным экспертов, злоумышленники находились в сети «Аэрофлота» около года. Это говорит о supply-chain или APT-атаке: проникновение произошло задолго до дня «X», а затем велась тихая разведка.
🔹 Компрометация ключевых систем
Хакеры заявили, что получили доступ к:
- ERP и CRM,
- системам бронирования,
- корпоративной почте (включая топ-менеджмент),
- внутренним порталам,
аудио- и видеосерверам службы охраны.
🔹 Методы, которые могли быть использованы:
эксплуатация не обновлённых уязвимостей в ПО,
слабая сегментация сети: «корпоративный портал» и «критические сервисы» не были изолированы,
возможный инсайдерский фактор (учётные данные сотрудников),
отсутствие полноценного EDR/UEBA-контроля, который мог бы заметить аномалии.
🔹 Разрушение инфраструктуры
Хакеры утверждают, что вывели из строя более 7000 серверов (виртуальных и физических), фактически уничтожив ядро IT-ландшафта. Это похоже на комбинированную атаку: взлом → закрепление → разрушение, что типично для кибервойн и операций государственных APT-групп.

💣 Риски:

- Массовый фишинг по базе клиентов.
- Продажа корпоративных секретов на теневых рынках.
- Использование данных для будущих атак на партнёров и государственные сервисы.

Хронология дня атаки

🕗 07:40 – официальное сообщение: «сбой в IT-системах».
🕙 10:12 – отмена 42 пар рейсов, позже ещё 7.
🕛 11:16 – Silent Crow берут на себя ответственность и публикуют детали: «22 ТБ, 7000 серверов».
🕐 13:00+ – Генпрокуратура возбуждает дело, Песков называет ситуацию «тревожной», акции падают на 4%.
🕓 Вечер – хаос в аэропортах: очереди, отмены, пересадка пассажиров на «Победу» и «Россию».

💰 Последствия

Финансовый ущерб: от 10 до 50 млн долларов (прямые потери + восстановление + компенсации).
Репутационный удар: доверие к авиакомпании подорвано, особенно в сфере работы с персональными данными.
Юридические риски: если подтвердится утечка персональных данных, возможны штрафы и иски.
Рост внимания государства: усиление киберконтроля над транспортной инфраструктурой.

🔐 Ключевые выводы

Даже крупнейшие компании с формальной «импортозамещённой» инфраструктурой (Astra Linux, отечественные ИБ-решения) не застрахованы от глубоких атак.
APT-угрозы способны оставаться незамеченными годами.
Сегментация и мониторинг — must-have: нельзя хранить корпоративную почту и критическую ERP в одной плоскости.
Ransomware — это уже прошлое. Сейчас цели — разрушение и хаос.

Stay secure and read SecureTechTalks 📚

#Аэрофлот #Кибератака #SilentCrow #APT #Cybersecurity #ThreatIntel #Ransomware #DevSecOps #SecureTechTalks #CriticalInfrastructure #InfoSec #IncidentResponse #RedTeam #APTattack #DataLeak #DigitalWar #SOC #BlueTeam #Russia #CyberWar #SecurityAnalytics
Please open Telegram to view this post
VIEW IN TELEGRAM
🔐 Securing Agentic Applications: как защитить автономных LLM-агентов от хаоса и атак?

OWASP Guide 1.0: практический фреймворк безопасности для будущего ИИ

👾 Будущее уже наступило

ИИ-системы следующего поколения — это уже не просто чат-боты.
Это автономные агенты, которые:
— сами ставят цели
— строят планы
— используют внешние API и инструменты
— взаимодействуют с другими агентами
— и могут вести себя непредсказуемо

Такой подход называется Agentic AI. Если у обычных LLM риски ограничиваются сессией, то у агентов появляются долговременные уязвимости и новые векторы атак.

⚠️ Проблема: агент — как стажёр с доступом к продакшену

Он умеет всё. И этим опасен:
может запомнить ложную информацию (Memory Poisoning)
запустить опасную команду (Tool Misuse)
не отличить настоящего пользователя от подставного (Identity Hijack)
«поверить» в ложные цели (Reasoning Injection)
сработать по таймеру (Temporal Trigger)
случайно «поговорить» с фейковым агентом (Inter-Agent Hijack)

🧩 MAESTRO: 7-слойная модель угроз от OWASP

OWASP предлагает анализировать безопасность агентных систем через 7 ключевых компонентов:

1️⃣ Memory — отвечает за долговременное хранилище агента.
Атаки: подмена, удаление, инсерт ложных фактов.
Контроль: хэширование, версия, контроль доступа.

2️⃣ Actions / Tools — использование внешних инструментов и команд.
Атаки: выполнение вредоносных инструкций.
Контроль: allowlist, sandbox, журналирование.

3️⃣ Environment — внешняя среда, включая API, файловую систему, настройки.
Атаки: несовместимость, баги, изменение окружения.
Контроль: изоляция среды, автоматизированные тесты.

4️⃣ Social Context — убеждения, цели и мотивации агента.
Атаки: манипуляции через ложные цели или мета-информацию.
Контроль: проверка целей, фильтрация reasoning, цепочки доверия.

5️⃣ Temporal — временные аспекты поведения.
Атаки: отложенные команды, запланированные сбои.
Контроль: таймеры, экспирация, мониторинг времени.

6️⃣ Roles / Privileges — распределение прав и ролей между агентами.
Атаки: эскалация прав, захват сессий.
Контроль: RBAC, ACL, токены с ограничениями.

7️⃣ Observer / HITL — контроль человеком.
Атаки: отсутствие обратной связи или непрозрачность.
Контроль: стоп-кнопки, визуализация действий, пошаговые проверки.

🧠 Кейсы и практики: как применяют в реальности

При проектировании chat-бота с памятью, важно предусмотреть возможность очистки, аудита и защиты контекста.

В системах типа RAG, нужно защищать индекс от чувствительной информации и добавлять фильтры на уровне чанков.

При работе с автономными агентами в DevOps (например, код-ревью, CI/CD), стоит использовать sandbox-команды и верификацию логики.

📌 Новизна

Agentic AI отличается от обычных LLM:
У обычных LLM нет состояния — у агентов оно есть.
Обычные модели просто отвечают — агенты действуют.
В LLM нет инструментов — у агента есть shell, API, база.
У LLM одна сессия — у агента может быть долгая жизнедеятельность с памятью и инициативой.

В Agentic AI требуется не просто защита prompt'ов, а полноценное архитектурное проектирование безопасности.

🔧 Что предлагает OWASP?

OWASP выпустил практический гайд, где описаны:
- основные угрозы
- принципы построения безопасных агентов
- рекомендации по каждому компоненту
- библиотеки и инструменты для аудита
- список кейсов и примеров

🔮 Будущее безопасности Agentic AI

🧩 Интеграция MAESTRO в CI/CD пайплайны
🤝 Создание Explainable Agents с визуализацией reasoning
⚠️ Снижение риска чрезмерной автономии через контроль целей
📡 Использование LLM для оценки других LLM — многослойный аудит
🛡 Разработка фреймворков аудита reasoning и планов агента

📖 Полный гайд:
Securing Agentic Applications Guide 1.0

🔥 Не забудьте прочитать OWASP LLM Top 10 и следить за новыми рекомендациями от NIST и OpenAI.

Stay secure and read SecureTechTalks 🧠

#AgenticAI #OWASP #AIAgents #LLMsecurity #ToolMisuse #MemoryPoisoning #MAESTRO #DevSecOps #Cybersecurity #SecureTechTalks #AIAudit #AgentFramework #ThreatModeling #OpenSourceSecurity #AutonomousSystems
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓1
🕸️ Artemis — умный детектор аномалий DNS в реальном времени

Open-source, который действительно ловит злоумышленников

👁️ Что такое Artemis?

Artemis — это инструмент мониторинга DNS-трафика, который обнаруживает подозрительные домены и поведение в режиме реального времени, используя машинное обучение и правила на основе эвристик.

Проект разрабатывается CERT Polska и применяется ими же в боевых условиях для обнаружения:
🔻 C2-инфраструктуры
🔻 Фишинговых доменов
🔻 DGA-генераторов
🔻 DNS-туннелирования
🔻 И других атак на уровне DNS

🔍 Как работает?

📦 Входной поток:
Artemis принимает DNS-запросы в формате dnstap (поддерживается, например, Knot Resolver или Unbound)
Поддержка Kafka делает его масштабируемым и готовым к работе в больших сетях

🧠 Аналитика:
Система применяет модели машинного обучения к каждому новому домену
Используются признаки вроде:
- Частота и регулярность появления домена
- Количество поддоменов
- Символика (например, энтропия имени)
- Геолокация IP и AS-информация
- Помимо ML, доступны настраиваемые правила, что позволяет контролировать и расширять систему вручную

📊 Вывод:
Artemis определяет уровень подозрительности каждого домена
Все результаты доступны в веб-интерфейсе, где можно отследить инцидент до источника

💡 Фишки:

Масштабируемость: Kafka + Docker позволяют разворачивать решение в распределённой среде
Гибкость: Можно легко адаптировать правила под конкретные угрозы организации
ML-модели: Обучаются на репутационных источниках и внутренних данных
Готовность к интеграции: Есть REST API, база на PostgreSQL, логгирование и нотификации
Панель оператора: Удобная веб-панель на React для мониторинга и настройки
Open-source: Публикация под лицензией AGPL-3.0

🛠️ Технологический стек:

- Python (бэкенд)
- React (фронтенд)
- PostgreSQL
- Kafka
- Docker / Docker Compose
- Redis

🔓 Кому подойдёт?

🎯 Для SOC-центров, которые хотят увидеть угрозу до того, как произойдет взлом
🎯 Для команд Blue Team, занимающихся угрозами уровня сети
🎯 Для университетов и исследовательских команд, работающих с DNS
🎯 Для госструктур и CERT-команд

📌 GitHub проекта
🔗 https://github.com/CERT-Polska/Artemis
📖 Документация и гайды по установке:
https://cert-polska.github.io/artemis/
📊

Stay secure and read SecureTechTalks 📚

#Artemis #DNSSecurity #CERTPolska #ThreatDetection #CyberSecurity #OpenSourceTools #BlueTeam #DNSMonitoring #SOCtools #AIForSecurity #SecureTechTalks #NetworkSecurity #DGA #Kafka #MalwareDetection #InfosecTools
🤔1
🚨 Взлом ChatGPT в одну строку: Как app_id стал ключом к чужим приложениям

🔐 ChatGPT, Claude, Gemini — под ударом через уязвимость в популярной AI-платформе

Сегодня разбираем кейс нетривиального взлома LLM: утечка приватных AI-приложений из-за одной фатальной ошибки в логике авторизации.

🧨  История взлома

Платформа Base44 — конструктор AI-приложений с поддержкой LLM (включая GPT, Claude, Gemini) — допустила уязвимость, которая позволяла получить доступ к чужим приватным проектам, зная всего одну строку: app_id.

Это значение не считается секретным — его можно было найти:
в URL-адресе публичных приложений,
в открытом manifest.json
вытащить с клиентской стороны через DevTools.

👉 Итог: зная app_id, атакующий мог зарегистрироваться и пройти верификацию на чужом проекте, получив полный доступ к его возможностям.

🔧 Где ошибка?

Исследователи из Wiz.io обнаружили два критически уязвимых эндпойнта:

/auth/register
/auth/verify-otp

Они:
не требовали никакой предварительной авторизации, и
не проверяли принадлежность пользователя к владельцу app_id.

💥 Результат: любой пользователь мог "прикинуться" владельцем чужого приложения, используя только ID.


📉 В чем критика?

Base44 работает как обёртка над мощными языковыми моделями. Приватные проекты часто содержат:
секретные промпты (prompt engineering),
бизнес-логику (например, для банков, медицины, HR),
ключи доступа к внешним сервисам (API OpenAI, Google, AWS).

Взлом давал возможность:
увидеть и скопировать конфигурации,
использовать чужие токены,
взаимодействовать с LLM от чужого имени.

📍 Риски и последствия

🧠 Утечка интеллектуальной собственности: уникальные способы работы с LLM могли быть украдены конкурентами.
⚠️ Подмена данных: злоумышленник мог изменить поведение AI-приложения без ведома автора.
💸 Финансовые убытки: использование чужих API-ключей могло привести к росту счетов за ИИ-инференс.

🛡️ Что сделали разработчики?

Base44 после публикации отчета:
- срочно закрыли уязвимость,
провели ревизию API и логики авторизации,
- добавили защиту на уровне токенов и проверку ownership.

Wiz рекомендует использовать более строгие механизмы идентификации, включая:
- bind-сессию к IP-адресу,
- временные токены,
и ограничение доступа к регистрационным маршрутам.

🧪 Уроки для профессионалов

1️⃣ Никогда не доверяйте значениям, которые может получить клиент.
2️⃣ Public app ≠ Open Access API. Обязательно проверяйте принадлежность пользователя.
3️⃣ Системы генерации AI-приложений должны проходить пентест на уровне логики, а не только на уровне инъекций.
4️⃣ Обратите внимание на API Gateways и Zero Trust модели — это не просто модные слова, а жизненная необходимость.

🔗 Источники
Анализ Wiz: Critical vulnerability in Base44

Stay secure and read SecureTechTalks 📚

#LLM #Base44 #APISecurity #PromptLeak #AIHacking #CyberSecurity #SecureTechTalks #RedTeam #SecurityIncident #AuthBypass #GPT #Claude #Gemini #OWASP #DevSecOps
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
🧠 NER в кибераналитике: как данные путают модели

Новое исследование поставило под сомнение ключевую гипотезу: что больше данных — это всегда лучше. Спойлер: нет.

📌 В чём суть?

Модели для распознавания сущностей (NER), обученные на кибербезопасных датасетах, резко теряют точность, если объединить разные наборы данных. Потери достигают -27% по F1-score. Причина — противоречия в аннотациях: в одном датасете Google — это компания, в другом — система.

⚔️ Суть проблемы

Исследователи объединили 4 популярных датасета из кибердомена:
- APTNER — отчёты по APT-группам, 260K токенов, 21 тип сущности
- CYNER — отчёты threat intelligence, 107K токенов, 5 сущностей
- DNRTI — данные из GitHub и госструктур, 175K токенов, 13 сущностей
- ATTACKER — блоги исследователей, 79K токенов, 18 сущностей

После унификации все сущности были сведены к 4 основным классам:
🟩 Organization
🟧 System
🟥 Vulnerability
🟦 Malware

Но… оказалось, что одни и те же слова аннотированы по-разному:
• Linux в одном случае — System, в другом — вообще не сущность
• Dridex — то Malware, то System
• Google — одновременно Organization и System (зависит от контекста)
• sample — где-то файл, где-то вредонос

Итог: при обучении на одном датасете и тестировании на другом — модели начинают «сходить с ума», делая лавину ошибок.

📉 Что показал эксперимент?

Модель, обученная на DNRTI, показывает F1 = 0.41 на нём же,
но при тестировании на CYNER падает до 0.07.

Самая болезненная потеря: обучение на ATTACKER, тест на APTNER → F1 = 0.01!

Даже самые продвинутые модели не справляются: мультиголовые и графовые подходы дают мизерный прирост точности.

🔍 Почему это происходит?

Аннотационный сдвиг
В разных датасетах используются разные правила выделения сущностей (напр., включать ли скобки в SolarWinds (USA)).

Потеря контекста при унификации
Специфичные теги (THREAT_ACTOR) превращаются в обобщённые (Organization), теряя смысл.

Дистрибутивные расхождения
Распределения токенов и частот меток между датасетами сильно различаются — это измеряется JS-дивергенцией до 0.24.

Перекос в метке "O"
После объединения данные становятся более "разреженными", и модель чаще классифицирует всё как не-сущности → рост ложных отрицаний на 15%.

🧠 Тестируемые подходы
Мультиголовая архитектура:

Отдельные выходы на каждый датасет + общая база. Давала лучшие результаты (например, F1 = 0.52 на DNRTI), но всё равно недостаточные.

LST-NER (графовая модель):
Использует схожесть сущностей между датасетами через метрику Gromov-Wasserstein. Увы, почти не превосходит BERT base.

🛡 Практические советы для аналитиков и ML-инженеров:

Не объединяйте кибердатасеты вслепую — всегда проводите кросс-валидацию

Формализуйте гайдлайны для аннотаторов:
Что такое System, где кончается Organization
Как оформлять spans и что исключать

Валидируйте на чужих данных — если вы делаете модель под отчёты Mandiant, тестируйте на GitHub или CISA

Лучше взять BERT и дообучить, чем писать кастомную архитектуру с нуля — он устойчивее ко сдвигам в разметке

🚀 Что дальше?

✍️ Нужны индустриальные стандарты по аннотациям (вроде MITRE ATT&CK для NER)

🧠 Полуавтоматическая разметка с проверкой экспертом

🔬 Использование доменно-специфичных эмбеддингов (например, на основе ThreatCrowd, VirusTotal)

📌 Итог:
Объединение данных ≠ усиление модели. В кибердомене — наоборот: различия в аннотациях могут убить всю обобщающую способность.

📎 Ресурсы:
Исследование
Код и данные

#CyberNER #SecureTechTalks #ThreatIntel #DataLabeling #MachineLearning #SOCtools #DataDrift
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🎯 Hashcat 7.0.0: восстановливаем пароли

🔐 Открытый инструмент стал ещё интересней - поддержка новых алгоритмов, повышение производительности и расширенные возможности аудита.

🔍 Что такое Hashcat?

Hashcat — это open-source инструмент для восстановления паролей по их хешам. Он применяется для оценки устойчивости систем аутентификации, аудита хешей, судебной экспертизы, а также тестирования политик безопасности.

🆕 Ключевые нововведения версии 7.0.0

Расширенная поддержка алгоритмов
В новой версии добавлены более 60 новых хеш-функций, включая:
- PBKDF2-HMAC-SHA512
- SCRAM-SHA-256 (актуален для PostgreSQL 14+)
- Bitwarden scrypt
- Telegram Passlib SHA1-B64
- Модифицированные версии bcrypt

Такой набор существенно расширяет применение Hashcat в современных системах, от корпоративных баз до популярных мессенджеров и менеджеров паролей.

⚙️ Повышение производительности

Hashcat теперь работает быстрее и стабильнее благодаря:
- Оптимизациям движка и ядра
- Поддержке новых GPU-архитектур: NVIDIA Ada, AMD RDNA3
- Обновлённой совместимости с CUDA 12 и OpenCL 3.0

По результатам тестирования, прирост производительности достигает 27% на NVIDIA RTX 4090 по сравнению с предыдущей версией.

🔒 Улучшения в безопасности и стабильности

Более строгая валидация входных данных
Повышенная устойчивость к повреждённым хеш-файлам
Улучшенные логи для аудита и отладки операций

🛠 Где пригодится?

Hashcat особенно полезен в следующих сценариях:
Аудит пользовательских паролей: позволяет тестировать прочность паролей в Active Directory и других системах.
Пентест корпоративной инфраструктуры: быстро анализирует хеши на предмет слабо защищённых паролей.
Форензика и расследования инцидентов: помогает восстанавливать пароли из дампов или улик.
Обучение и демонстрации: используется в киберучениях и курсах по информационной безопасности.

📎 Где скачать?

GitHub проекта: github.com/hashcat/hashcat

📌 Рекомендации

Специалистам по ИБ:
Используйте Hashcat в рамках внутреннего аудита и оценки риска слабых паролей.

DevSecOps-командам:
Интегрируйте проверку хешей в CI/CD пайплайны для раннего выявления уязвимых конфигураций.

Форензикам и расследователям:
Оцените новые алгоритмы в работе с инцидентами, особенно связанных с утечками из Bitwarden, Telegram и PostgreSQL.

🧠 В заключение

Обновление делает Hashcat ещё более универсальным и производительным.
Открытые инструменты продолжают играть важную роль в экосистеме кибербезопасности, а Hashcat остаётся одним из флагманов этой области.

Stay secure and read SecureTechTalks 📚

#Hashcat #Cybersecurity #RedTeam #PasswordRecovery #DevSecOps #OpenSource #SecureTechTalks #GPUCracking #SecurityAudit #PenTesting #InfoSec
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨 GPT в борьбе с киберугрозами: реальный кейс

Анализ инновационного подхода из исследования Clemson University и TraCR

🧠 Контекст

С каждым годом транспортная инфраструктура становится всё более цифровой — а значит, и более уязвимой. Рост числа кибератак в авиации, морских перевозках, на железной дороге и в автомобильной отрасли требует масштабируемых аналитических решений.

Исследователи из Clemson University предложили использовать GPT-4o как интеллектуального помощника для анализа киберинцидентов.

🌐 Объем угроз

Порт Лос-Анджелеса в 2024 году зафиксировал 60 миллионов атак в месяц (в 2014 — только 7 млн).
На железнодорожный транспорт число атак выросло на 220% за 5 лет.
В автомобильной отрасли — +225% инцидентов за три года.

При этом до 95% нарушений происходят по вине сотрудников (по данным IBM 2024).

⚙️ Архитектура решения

Процесс обработки инцидентов состоит из двух основных модулей:

1⃣ Интеграция и фильтрация данных

Исследователи собрали информацию из пяти ключевых источников, включая:
- UMCED (более 14 000 записей)
- EuRepoC (около 3 400 кейсов)
- Maritime Cyber Attack DB (279 инцидентов)
- CSIS Significant Incidents
- Набор данных TraCR (124 случая в транспортной сфере)

Все данные были нормализованы в JSON-формат. Далее — с помощью дообученной версии GPT-3.5 Turbo была проведена фильтрация релевантных кейсов, классификация по категориям транспорта и исключение дублей.

Точность классификации — 89%. Финальный датасет включает более 98% релевантных инцидентов.

2⃣ Интеллектуальная система ответов на запросы

На следующем этапе используется Retrieval-Augmented Generation (RAG) с GPT-4o. Для поиска релевантных кейсов применяются гибридные ретриверы:
- Семантический поиск через embeddings (text-embedding-ada-002)
- Классический поиск по вхождению слов (BM25)

Такая схема позволяет добиться высокой точности и минимизировать галлюцинации при генерации ответов.

📈 Результаты

Система справилась с 50 сложными вопросами, например:

Вопрос: Сколько клиентов Air India пострадало в 2021 году?

Ответ:
4.5 миллиона клиентов Air India стали жертвами утечки данных после компрометации системы бронирования.


Из 50 вопросов — 49 были отвечены без ошибок. В одном случае была допущена неточность в геолокации.
Коэффициент ROUGE-L составил 0.50, Recall — 0.60, общее соответствие данным — 98%.

💡 Где GPT превзошёл ожидания

- В 20% случаев GPT-4o давал более подробные ответы, чем ground truth, включая поля motive, impact, attack_type.
- Он автоматически объединял дублирующиеся кейсы, встречающиеся в разных источниках.
- Обеспечивал корректную классификацию даже в случаях смешанных (мультимодальных) атак.

🚧 Ограничения решения

- В некоторых ответах отсутствует информация о городе происшествия.
- Сложности при обработке мультимодальных инцидентов, когда один случай связан с несколькими видами транспорта.
- Пока нет автоматического обновления базы — данные добавляются вручную.

🚀 Развитие

Разработка команды TraCR движется в сторону:
- Публичного портала для фильтрации инцидентов по транспорту, географии и типу атак.
- Интеграции с веб-краулерами для автообновления базы.
- Создания визуальных дашбордов для мониторинга трендов угроз.

🧩 Вывод

GPT-4o превращает расследование инцидентов в управляемый процесс, экономя сотни часов аналитиков.
Он не заменяет SOC, но усиливает его как цифровой ассистент нового поколения.

📎 Ссылки:

Исследование: arXiv:2508.02523
Центр TraCR: tracr.clemson.edu
Пример инцидент-базы: github.com/TraCR-Cyber/incident-db

Stay secure and read SecureTechTalks 📚

#TransportSecurity #GPT4o #GPT #RAG #CyberSOC #IncidentResponse #AIInCyber #Cybersecurity
🧠 Microsoft Project IRE: Новый подход автономной киберзащиты

ИИ-агент нового поколения обнаруживает вредоносное ПО без сигнатур и минимизирует ложные тревоги

🔍 Актуальные проблемы киберобороны

Большинство традиционных решений (EDR/XDR) сталкиваются с рядом системных ограничений:
- Только около 40% новых угроз распознаются сигнатурными методами
- 10 000+ ложных тревог в день перегружают SOC-аналитиков
- Среднее время анализа файла составляет до 47 минут

🦾 Что такое Project IRE?

Project IRE (Intelligent Response Engine) — автономный агент от Microsoft, предназначенный для:
1⃣ Обнаружения неизвестного вредоносного ПО с точностью до 95%
2⃣ Снижения ложных срабатываний на 70%
3⃣ Самостоятельного принятия решений — без постоянного участия оператора

🧬 Как работает система

Процесс анализа строится на трёх ключевых этапах:

1. Динамическая песочница
Подозрительные артефакты запускаются в виртуальной среде, где отслеживаются более 200 поведенческих индикаторов, таких как:
- Вызовы системных API
- Попытки изменения прав
- Признаки шифрования файлов
- Сетевые аномалии и скрытые соединения

2. ИИ-оркестратор
LLM (Large Language Model) интерпретирует поведение и:
- Формирует пояснительный отчёт на естественном языке
- Сравнивает действия с базой из 50+ миллионов инцидентов
- Принимает решение на основе логических цепочек

Пример:

if "ransom_note.txt" in artifacts and "file_encryption" in logs: verdict = "Ransomware"
3. Автономное реагирование
В зависимости от вывода оркестратора:
- При угрозе: устройство изолируется, вредонос удаляется, журнал передаётся в SIEM
- При ложном срабатывании: происходит автоматическая разблокировка и адаптация модели

📊 Результаты валидации на 500 000 образцах

Project IRE показал:
- 95% обнаружения ранее неизвестных угроз, по сравнению с 42% у традиционных решений
- Ложноположительных срабатываний всего 3.6%, вместо 12% у стандартных EDR
- Среднее время анализа составило 4.8 минуты, вместо 47 минут
- Нагрузка на CPU — менее 5%, тогда как EDR потребляют 15–20%

🔎 Практический кейс: обнаружение BlackMatter 2.0

Project IRE выявил один из современных вариантов вымогателя по следующим признакам:
1⃣ Использование PowerShell с обходом политики исполнения
2⃣ Массовое шифрование сетевых папок
3⃣ Соединение с TOR-нодами
4⃣ Попытка отключения защитных систем Windows

🔮 Подведём итоги

Сигнатурный анализ уходит в прошлое: ИИ способен обнаруживать fileless-атаки и 0-day
Сдвиг в архитектуре SOC: теперь 90% рутинных задач могут обрабатываться ИИ
Прогнозирование угроз: на основе поведения создаются графы атак, предсказывающие будущие действия злоумышленников

⚠️ Ограничения и вызовы

Уязвимость к adversarial-инъекциям — потенциальная точка давления на LLM
Возможные юридические конфликты: автономное удаление файлов может противоречить требованиям GDPR
Этическая дилемма: кто несёт ответственность за ошибку — ИИ или поставщик?

🗓 Что дальше?

Q4 2025 — появление публичного API для интеграции со Splunk, Sentinel, CrowdStrike
2026 год — полная интеграция в Microsoft Defender XDR

🧭 Заключение

“Project IRE — это не просто средство защиты. Это система цифрового иммунитета, способная адаптироваться и обучаться в режиме реального времени, обеспечивая безопасность без участия человека.”

🔗 Полезные материалы:

Официальный анонс
GitHub репозиторий

Stay secure and read SecureTechTalks 📚

#ProjectIRE #Microsoft #Cybersecurity #AI #SOC #EDR #XDR #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🔐 JWT: надёжная защита или дыра в безопасности?

Как неконтролируемые токены превращаются в повышенные привилегии

📘 Что такое JWT?

JWT (JSON Web Token) - это компактный и самодостаточный формат передачи информации между сторонами в виде JSON-объекта. Он состоит из трёх частей:
1⃣ Header — заголовок, где указывается алгоритм подписи (например, HS256 или RS256);
2⃣ Payload — полезная нагрузка: ID пользователя, роль, логин и пр.;
3⃣ Signature — цифровая подпись, подтверждающая целостность и подлинность токена.

JWT широко используется в системах аутентификации и авторизации, но при неправильной реализации может стать уязвимостью — вплоть до полного компрометирования прав доступа.

💥 Уязвимость alg: none: отсутствие подписи

Если сервер не проверяет алгоритм, указанный в заголовке токена, злоумышленник может заменить значение alg на "none", удалить подпись и изменить payload, например:
"role": "admin"

Сервер может принять такой токен как действительный — и предоставить доступ к закрытым функциям, считая пользователя администратором.

Это одна из самых известных, но всё ещё встречающихся уязвимостей, особенно в нестандартных или устаревших библиотеках.

🔁 Подмена алгоритма: RS256 → HS256

Интересный кейс с «путаницей алгоритмов».
Предположим:
Сервер ожидает токен, подписанный с помощью асимметричного RS256;
Злоумышленник меняет alg на HS256 и использует публичный ключ как секретный HMAC-ключ;
Затем он подписывает поддельный токен и отправляет его.
Если сервер не проверяет алгоритм строго, то он принимает токен как действительный.

🔓 Слабые ключи и брутфорс

Если секрет, используемый для подписи токенов (HS256), недостаточно надёжен, его можно подобрать:
с помощью словарных атак (например, через jwt2john + John the Ripper);
через брутфорс (crackjwt.py, Hashcat и др.).

🧪 Распространённые ошибки при работе с JWT

🤦‍♂ Использование decode() без verify() — токен расшифровывается, но подпись не проверяется;
🙈 Отсутствие проверки exp, iss, aud, nbf, jti — позволяет повторно использовать устаревшие или "чужие" токены;
🤷‍♂ Передача токена в URL вместо HTTP-заголовка — приводит к утечкам через логи, историю браузера, рефереры;
Слишком долгий срок действия токенов — особенно без возможности отзыва;
Логирование JWT в лог-файлы сервера — прямой путь к компрометации.

Меры предосторожности

Не доверяйте значению alg из заголовка — задавайте допустимый алгоритм жёстко в конфигурации сервера.
Отключите поддержку алгоритма none — даже если он доступен в библиотеке.
Предпочитайте асимметричную криптографию (RS256) вместо симметричной (HS256) — это исключает некоторые виды атак.
Используйте длинные и криптоустойчивые секреты — не менее 256 бит.
Проверяйте все критически важные поля в payload — exp (время истечения), nbf (не раньше), iss (issuer), aud (аудитория), jti (идентификатор токена).
Передавайте токены в заголовках (Authorization: Bearer), а не в URL.
Не логируйте JWT в логи, особенно при ошибках или 5xx-ответах.
Ограничьте срок действия токенов и внедрите механизм их отзыва (например, с помощью blacklist или короткого TTL и refresh-токенов).
Аудируйте кодовую базу и зависимости — некоторые библиотеки могут игнорировать верификацию по умолчанию.

🧩 Вывод

JWT создавался как безопасный и самодостаточный формат. Но при ошибочной конфигурации или недостатке контроля он превращается в настоящий эксплойт, особенно в условиях, где разработчики не до конца понимают логику работы алгоритмов и доверяют библиотеке "по умолчанию".

Stay secure and read SecureTechTalks 📚

#JWT #веббезопасность #уязвимости #хакеры #инфобез #RS256 #HS256 #noneattack #pentest #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🚀 OpenAI GPT-5: новый этап в эволюции искусственного интеллекта 🤖

📅 7 августа 2025 года OpenAI официально представила GPT-5, новую версию своей флагманской языковой модели. Обновление принесло не только рост производительности, но и целый ряд архитектурных и функциональных изменений, которые напрямую затрагивают вопросы безопасности.

🔍 Ключевые изменения

1️⃣ Новая архитектура 🧠
GPT-5 получила усовершенствованную систему параметров и оптимизированную обработку контекста. Это позволяет модели анализировать большие объёмы данных без потери качества ответа.

2️⃣ Увеличенный контекстный объём 📚
Теперь модель способна удерживать в памяти до 256K токенов — это означает, что она может анализировать целые книги, кодовые базы или масштабные отчёты за один запрос.

3️⃣ Снижение галлюцинаций 🎯
Благодаря улучшенным алгоритмам верификации, GPT-5 генерирует на 45% меньше ложных утверждений, что особенно важно при работе с данными в сфере киберзащиты.

4️⃣ Мультиагентная интеграция 🤝
Встроенная поддержка работы с несколькими ИИ-агентами открывает новые возможности для автоматизации расследований инцидентов и координации защитных систем.

📊 Влияние на сферу кибербезопасности

GPT-5 открывает новые возможности для специалистов по ИБ:
🕵️‍♂️ Автоматизация OSINT-исследований
🛡 Быстрое выявление аномалий в логах и сетевом трафике
🔐 Подготовка и верификация политик безопасности
📡 Создание адаптивных антифишинговых систем

🌍 Стратегический потенциал

Для бизнеса GPT-5 - это не просто чат-бот, а интеллектуальный многофункциональный ассистент, который может:
повышать продуктивность команд
интегрироваться в существующую ИТ-инфраструктуру
масштабировать процессы без потери качества

💡 GPT-5 - это шаг к новой эре автоматизации, где LLM становятся ключевым инструментом в арсенале кибербезопасности. Те, кто начнёт использовать технологию уже сегодня, получат стратегическое преимущество завтра.

Stay secure and read SecureTechTalks 📚

#GPT5 #OpenAI #chatgpt #future #CyberSecurity #AI #LLM #ИБ #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨 Кто на самом деле отвечает вам в Web3? 🕵️‍♂️

Мир Web3 стремительно меняется. AI-агенты везде: они могут торговать криптой 💹, участвовать в DAO-голосованиях 🗳, управлять токенами и кошельками 💰. Такие агенты уже контролируют решения, влияющие на миллионы долларов.

Но тут возникает фундаментальный вопрос: а вы уверены, что ваш агент — это именно он?
Что вместо любимого GPT или Claude вам не подсунули более дешёвую, медленную или уязвимую модель?

В централизованных сервисах подмена может быть незаметна — в децентрализованных же это часто вопрос репутации и денег.

💡 Идея Positive Technologies — “семантический отпечаток” LLM-агентов 🧬

Речь идёт о semantic fingerprinting — методе, который позволяет определять конкретную языковую модель по её уникальному стилю, “манере речи” и паттернам ответа.
У каждой модели есть своя “подпись”:
- выбор слов 🗨,
- структура предложений 📐,
- способы изложения фактов 📚,
- реакции на нестандартные вопросы 🌀

🎯 Как это работает?

1️⃣ Подготовка теста
Исследователь подбирает специальные фразы и вопросы. Не просто “привет, как дела?”, а набор заданий, которые вызывают у модели типичные, повторяющиеся паттерны.

2️⃣ Сбор ответа
Модель отвечает. Даже если вы переписываете вопрос, её “стиль” остаётся.
Например, GPT-4o склонен давать структурированные, компактные, но насыщенные ответы. А Llama 3.1 — чаще “разливается” на лишние детали.

3️⃣ Сравнение с эталоном
Ответ обрабатывается алгоритмом, который ищет совпадения с известными “отпечатками” моделей.
Если совпадений мало - высока вероятность подмены 🤨

🔍 Что можно обнаружить

🛑 Подмену модели без уведомления — например, если сервис решил сэкономить и вместо GPT-4 запустить GPT-3.5.
🐞 Маскировку уязвимостей — заменили модель на ту, которая не “спотыкается” на старых ошибках.
📉 Падение качества решений - агент начал выдавать хуже структурированные ответы или делать ошибки в вычислениях.

🔥 Все дело в рисках

В экосистеме, где AI-агент может распоряжаться 100 ETH 💎, решать судьбу смарт-контракта 📜 или голосовать в DAO, подмена модели - это не просто баг, это реальная угроза безопасности и деньгам.
Представьте: ваш DeFi-бот, который годами работал с высокой точностью, внезапно стал медлить или ошибаться. В лучшем случае - упущенная прибыль, в худшем - потеря средств.

Семантический анализ позволяет проверять подлинность AI-агентов так же, как криптография проверяет подлинность транзакций.

🔗 Более подробно о подходе PT читайте в статье на Хабр

Stay secure and read SecureTechTalks 📚

#Web3 #AI #Fingerprinting #SecureTechTalks #LLM #Безопасность #AIагенты #ПроверкаМодели #DeFi #Инфобез
1
🔥 Simulation в кибербезопасности: зачем запускать «виртуальные войны» 🚀

Симуляция - это не игра и не просто тест «в лаборатории». Это инструмент, который позволяет видеть уязвимости там, где реальная атака стоила бы миллионов.

💡 Реальные атаки непредсказуемы, а тесты в продакшене - опасны. Симуляция создаёт контролируемую копию инфраструктуры, в которой можно:
- Запустить DDoS 🌊 и отследить, на какой нагрузке сеть «падает».
- Смоделировать подмену данных в SCADA и посмотреть, как автоматика начнёт давать ложные команды.
- Проверить реакцию блокчейн-узлов на атаку 51% 💰.
Понять, как быстро вредонос распространится в корпоративной сети 🦠.

В симуляции можно крутить ручки параметров: от числа ботов в ботнете до задержек в канале, и фиксировать точные метрики: латентность, потерю пакетов, скорость восстановления, экономический ущерб.

📊 Глобальный анализ (135 исследований за 25 лет)

Учёные классифицировали симуляции по четырём осям:

Где применяются: IT-сети, критическая инфраструктура, транспорт, блокчейн.
Какие угрозы моделируют: от DoS до цепочек сложных атак.
Как моделируют: агентные модели, вероятностные деревья атак, HIL.
Для чего: оценка урона, тест защит, генерация ML-датасетов, расчёт ROI от безопасности.

🎯  Реальные кейсы

Энергосети (SCADA) - симуляция подмены телеметрии выявила, что неправильная температура в датчике запускает аварийное отключение генератора.
Транспорт (V2X) - подмена GPS-координат в симуляции автономного авто приводит к резкому торможению на трассе.
Облачные платформы - моделирование DDoS показало, что при атаке в 10 Гбит/с автомитигатор успевает включиться через 7 секунд, но первые 5 секунд сервис недоступен.
Блокчейн - симуляция атаки 51% показала, что при снижении хэшрейта на 25% вероятность успеха атакующего растёт в 2,3 раза.

🔥 Что симулируют чаще всего

1⃣ DDoS/DoS 🌊 - лидер по частоте, потому что легко настраивается и даёт чистые метрики.
2⃣ MitM и подмена данных 🎭 - критично для CPS/SCADA, где ошибка сенсора = катастрофа.
3⃣ Распространение вредоносов 🦠 - через SIR/SEIR-модели, чтобы найти точки отказа.
4⃣ Инъекции 💉 - моделируются реже, из-за привязки к конкретным приложениям.

🛠 Рабочие методы

ABM (Agent-Based Modeling), когда важно смоделировать действия атакующего, администратора и пользователя в одном сценарии.
Compartmental/SIR - быстрый макроанализ распространения угроз.
Petri Nets - для многофазных атак с зависимыми шагами.
HIL (Hardware-in-the-loop) - незаменимо, если нужно увидеть эффект атаки на реальном железе.
Монте-Карло/байесовские деревья атак - для расчёта вероятностей успеха и экономического ущерба.

📌 Как использовать симуляцию на практике

1⃣ Начните с DDoS -  минимальные затраты, максимум пользы для сетевой инфраструктуры.
2⃣ Делайте гибрид: симуляция + HIL для критичных систем.
3⃣ Генерируйте синтетические логи для ML - обучайте детекторы на реальных сценариях.
4⃣ Закладывайте поведение людей - иначе упустите сценарии социнженерии.
5⃣ Считайте деньги - симуляция даёт цифры, которыми можно убедить руководство инвестировать в защиту.

Stay secure and read SecureTechTalks 📚

#Simulation #CyberSecurity #SecureTechTalks #ИБ #DDoS #SCADA #Blockchain #HIL #ML #Инфобез
Please open Telegram to view this post
VIEW IN TELEGRAM
Ransomware УЧАТСЯ обходить ИИ-защиту с помощью Adversarial Attacks

Ransomware, который знает, как обмануть вашу систему ИИ-защиты.

Исследователи из Японии создали PoC Ransomware на базе печально известного Conti. Разбираем трендовое исследование, которое переворачивает представление о борьбе с шифровальщиками.

🔍 О чем вообще речь?

Традиционные ИИ-детекторы ransomware анализируют поведение вредоноса в системе (доступ к файлам, вызовы API, сетевую активность). Но злоумышленники учаться *точечно изменять* патерны поведения, чтобы оно "имитировало" легитимный софт.

👉 Adversarial Examples (враждебные примеры) - это метод, позаимствованный из мира компьютерного зрения (помните, как добавляли шум к фото панды, и ИИ видел гиббона?). Здесь "шум" - это микро-изменения в работе ransomware!

🤯 Сложность №1: Поведение ≠ Пиксели

С картинкой просто: добавил невидимый шум к пикселям — получил adversarial example.

С вредоносным ПО сложно: Нельзя просто "добавить шум" к поведению. Нужно физически изменить исходный код так, чтобы:
    -   Вирус остался функциональным (шифровал файлы!).
    -   Его поведение изменилось ровно настолько, чтобы обмануть ИИ.
    -   Производительность не упала катастрофически (иначе атака бесполезна).

💡 Решение ученых: Микроповеденческий Контроль

Исследователи взяли утекший исходный код Conti ransomware и встроили в него "ручки управления":
1⃣ Число потоков (Threads): Сколько параллельных потоков шифрует файлы? (1-3 потока).
2⃣ Коэффициент шифрования (Encryption Ratio): Шифровать файл целиком (100%) или частично (50%)? (Частичное шифрование меняет статистику данных!).
4⃣ Задержка после шифрования (Delay): Добавить паузу после шифрования каждого файла? (0мс, 25мс, 50мс, 100мс).

👉 Идея: Комбинируя эти параметры при запуске (как аргументы командной строки), можно получить 24 разных "поведенческих профиля" одного и того же Conti! Это и есть симуляция "изменения исходного кода" для генерации behavioral adversarial examples.

🔬 Как измеряли "поведение"?

Детектор, который атаковали, использует не просто вызовы API, а данные гипервизора BitVisor, смотрящего "сквозь" ОС:

📁 Паттерны доступа к Хранилищу (Storage):
Энтропия записываемых блоков (хаотичность данных = признак шифрования!).
Скорость чтения/записи.
Разброс адресов (LBA) на диске.

🧠 Паттерны доступа к Памяти (RAM) через Intel EPT:
Энтропия операций записи.
Количество нарушений EPT (аппаратный счётчик обращений к памяти!).
Разброс физических адресов (GPA) в памяти.

📊 Каждую секунду в течение 30 секунд формировался 23-мерный вектор признаков — уникальный "цифровой отпечаток" поведения.

💥 Результаты: ИИ можно обмануть (уже сейчас!)

1⃣ Контроль есть! Изменяя параметры (потоки/коэфф./задержку), авторы существенно меняли низкоуровневые паттерны доступа. Conti *действительно* вел себя по-разному.
2⃣ Атака работает! Точность обнаружения (Recall) ИИ-детектора упала с 0.98 до 0.64! В некоторых конфигурациях поведение модифицированного Conti было статистически ближе к SDelete (легитимная утилита стирания!), чем к "классическому" вымогателю.
3⃣ Пока неидеально: Успешность атаки ~36% (1 - 0.64) — серьезно, но недостаточно для надежного уклонения.

Эволюция: Текущий Рос использует лишь 3 параметра. Представьте инструменты, автоматически генерирующие оптимальный обходной код на основе атаки на "суррогатную" модель ИИ-защиты (grey-box)! Это следующий шаг.

🔗 Полный текст исследования читайте тут

Stay secure and read SecureTechTalks 📚

#Ransomware #AdversarialAI #MachineLearning #CyberSecurity #ThreatIntelligence #Conti #BitVisor #ИБ
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🧑‍🎓 Бесплатное обучение GenAI: освоить безопасный ИИ у лидеров рынка 

Сегодня поговорим о том, как использовать доступные курсы от технологических  гигантов, чтобы писать код с помощью генеративного ИИ безопасно, ответственно и профессионально.

1⃣ Amazon Bedrock Guardrails: защита от потери контроля

📌 Ссылка на курс: AWS Bedrock Guardrails

О чём курс: изучение инструментов Guardrails — технологии от AWS, обеспечивающей безопасность, конфиденциальность и соблюдение AI-политик в приложениях на генеративном ИИ.

Что даёт: фильтрация нежелательного контента, блокировка опасных тем, защита от prompt-атак, автоматическое скрытие чувствительных данных (PII, карты, логины).

2⃣ Разработка AI-агентов на Azure AI Foundry

📌 Ссылка на курс: Azure AI Agent Service

О чём курс: создание, развёртывание и управление мощными AI-агентами с нуля с помощью Azure.

Кому полезно: разработчикам, дата-сайентистам и ИТ-профи, которые внедряют интеллектуальные агенты в бизнес-процессы — от чат-ботов до автоматизированной аналитики.

ИБ-акцент: корректная настройка прав и ролей в облаке — ключ к предотвращению злоупотреблений агентом или утечек через API.

3⃣ AI-поиск на платформе Generative AI App Builder

📌 Ссылка на курс: Generative AI App Builder Search

О чём курс: создание поисковых решений с генеративным ИИ, которые позволяют искать по внутренним документам, базам знаний и сайтам.

Где использовать: в крупных компаниях, где информация хранится в десятках систем, а поиск по ней занимает часы.

ИБ-вопросы: нужно грамотно ограничить доступ, фильтровать запросы и защищать результаты от эксплойтов через поиск.

⚡️ А нужно ли это все?

Освоение Bedrock Guardrails даст вам понимание, как встроить защиту от утечек и вредоносных запросов прямо в архитектуру ИИ-сервиса.

Знание Azure AI Foundry научит управлять агентами с безопасными правами и контролем действий в облаке.

А опыт работы с AI-поиском поможет строить безопасные корпоративные поисковые системы, которые не станут точкой входа для атак.

Stay secure and read SecureTechTalks 📚

#GenAI #AIcourses #ИБ #Безопасность #SecureTechTalks #Microsoft #AWS #Google #AIagents #ResponsibleAI
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🤖 Obot: как открыть доступ к AI без утраты контроля 🔒

Недавно мы рассказывали про Model Context Protocol (MCP) - стандарт, позволяющий AI-агентам общаться с реальными системами, платформами и API 🚀

Без грамотного контроля внедрение MCP может обернуться хаосом и брешами в безопасности.

💡 Решение - Obot.

🛡️ Что такое Obot?

Obot - это открытая платформа и шлюз (MCP Gateway) с расширенными возможностями:
🔑 безопасная аутентификация
🖥️ централизованное администрирование
⚙️ гибкая настройка доступа
☁️ работа как в облаке, так и в дата-центре

📌 Репозиторий на GitHub | Сайт Obot

🚨 Больше деталей

🗂 Централизованный контроль - управление MCP-серверами, обновления, каталогизация, маршрутизация, всё через UI или GitOps.
🔐 Безопасность уровня Enterprise - OAuth 2.1, шифрование, аудит всех запросов.
Удобство для пользователей - каталог подключаемых узлов, поддержка Claude Desktop, VSCode, Cursor, Obot Chat.

🛠 Что под капотом?

🌐 MCP Gateway - обнаруживает серверы, управляет конфигурацией, аутентификацией и обновлениями.

💬 Chat-интерфейс - история диалогов, RAG, задачи, кастомизация поведения.

🛡 Admin-панель - настройка прав, фильтры запросов, логирование, мониторинг.

🌟 Ещё немного о преимуществах

📂 Open-source и самохостинг - полный контроль над данными.
🔄 MCP-совместимость - легко интегрируется с разными AI-агентами.
🛡 Security by default — аудит, доступ по ролям, шифрование.
🔌 Гибкая интеграция — Google, GitHub, Okta, Microsoft Entra (Enterprise).

📣 Комментарии

🗨 Sheng Liang (Acorn Labs):
«AI-инструменты уже работают в вашей сети. Без контроля они могут создать теневую инфраструктуру с утечками».


Obot решает эту задачу, давая защиту и прозрачность без ограничения возможностей пользователей.

🚀 Быстрый старт

🖱 Зайдите в демо: chat.obot.ai
📦 Установите в Kubernetes:
helm repo add obot https://charts.obot.ai helm install obot obot/obot --set config.OPENAI_API_KEY="<API KEY>" 

🔧 Настройте серверы, доступ, фильтры, аудит.
👥 Подключите пользователей и начните безопасную работу.

Stay secure and read SecureTechTalks 📚

#Obot #MCP #CyberSecurity #AIPlatform #SecureTechTalks #OpenSource #Admin #EnterpriseSecurity #DevSecOps #CloudSecurity
1
🌼🤖 Buttercup: ИИ, который сам находит и устраняет уязвимости в коде! 🔥

Представьте себе AI - ассистента, который не просто сканирует код, а сам ищет уязвимости, проверяет их и пишет патчи. Звучит как фантастика? 🚀

Теперь это реальность - Buttercup от Trail of Bits, занявший 2-е место в DARPA AI Cyber Challenge с призом $3 млн 🏆.

Инструмент открыт для всех, можно скачать и запустить  на своём ноуте! 💻

🌟 Уникальность Buttercup

🧪 AI-фуззинг: LLM генерирует входные данные → баги находятся быстрее.
🔍 Глубокий анализ кода: tree-sitter, CodeQuery, статический анализ → понимание контекста.
🛠️ Умные патчи: несколько AI-агентов тестируют фиксы, пока они не станут безопасными и рабочими.
📊 Результаты DARPA:
28 найденных уязвимостей 🕵️
19 успешно пропатченных
90 % точность 🎯
покрыто 20 классов CWE 🛡
$181 за балл эффективности 💰

⚙️ Technologie

🎛 Оркестратор - управляет задачами и выводит всё в UI.
💣 Фуззер с AI - генерирует «опасные» входы, которые ломают софт.
🧩 Контекстный анализ - определяет, как правильно починить баг.
🔧 Авто-патчинг - AI-агенты вместе создают исправления.
🚀 Как попробовать прямо у себя
📌 Требования: Linux x86_64, 8 ядер CPU, 16 GB RAM, 100 GB диска, интернет, API-ключ от LLM.

Запуск:

git clone --recurse-submodules https://github.com/trailofbits/buttercup.git cd buttercup make setup-local make deploy-local make status

🖥 Через пару минут Buttercup готов охотиться на баги!

👉 GitHub: trailofbits/buttercup

🔒 Ещё немного о плюсах

👾 Снижает риск уязвимостей в OSS и корпоративных проектах.
🕒 Экономит время — автоматизация рутинного поиска багов.
💼 Можно встроить в CI/CD пайплайн для постоянного аудита.
🔓 Open-source — полный контроль и кастомизация.

Stay secure and read SecureTechTalks 📚

#Buttercup #TrailOfBits #AIxCC #CyberSecurity #AI #Fuzzing #BugBounty #SecureTechTalks #DevSecOps #OpenSource
1