SecureTechTalks – Telegram
SecureTechTalks
293 subscribers
670 photos
1 video
1 file
668 links
Добро пожаловать на канал "SecureTechTalks"! Мы предлагаем вам увлекательное и информативное погружение в мир кибербезопасности. Здесь вы найдете актуальные новости, советы, методы и инсайты по инфобезу.
Download Telegram
😱 «Он уже знает, чего ты хочешь» Как «умный поиск» превращается в невидимого наблюдателя

Представьте: вы просто пролистываете маркетплейс, думаете "купить ли новый рюкзак для поездок?". Через пару минут перед вами: подборка путешествий, советы по страховке, маршруты...

Вы не искали, может едва подумали об отпуске.

Так выглядят обещания нового поколения ИИ-поиска: сервис, который «чувствует» ваши желания быстрее, чем вы сами.

🔍 Что стоит за «помощником»

Разработчики предлагают не просто поиск, они предлагают понимание: анализ ваших переписок, документов, истории запросов, привычек.
Это значит, что:
- Ищете рецепт ужина? ИИ «вспомнит», что у вас есть дети, и предложит «семейные» варианты;
- Спрашиваете советы по технике? Вам могут показать то, что «подходит под вашу жизнь».

Удобно? Конечно! Но выглядит так, будто вы добровольно подписались на слежку.

⚠️ Когда персонализация превращается в слежку
С каждым таким «умным» улучшением вы рискуете:
- передать доступ к перепискам, письмам, вложениям  без вашего явного согласия;
- превратить цифровую среду в зону, где анализируют не только ваши действия, но и ваши мысли, планы, предпочтения;
- стать объектом манипуляций и цифрового профайла без прозрачных границ.

📰 Это происходит прямо сейчас

В ноябре 2025-го был подан коллективный иск против Google. В нём утверждается, что компания тайно активировала Gemini AI по умолчанию для пользователей Gmail, Google Chat и Google Meet, то есть ИИ получил доступ ко всей переписке, вложениям и истории общения без явно выраженного согласия пользователей.

👉 Полный текст иска (на английском): Thele v. Google, LLC — документацию можно найти на сайте ClassAction.org.

Как вам такое будущее, которое уже наступило?

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #приватность #кибербезопасность #ИИ #AI #Gemini #Google #юзерправа #технологии #конфиденциальность #digitalprivacy #cybersecurity
🧩 Portmaster: если обычного firewall уже недостаточно

Сетевой трафик сегодня превращается в сложный набор фоновых процессов: скрытая телеметрия, аналитические SDK, автоматические обновления, DNS-слепки, трекеры. Всё это работает независимо от воли пользователя. Большая часть соединений остаётся «в тени».

Portmaster - инструмент с открытым исходным кодом, который возвращает прозрачность.

🔧 Ключевые фичи

📡 Глубокий мониторинг соединений
Инструмент отслеживает каждое обращение к сети: процесс, домен, протокол, частоту запросов. Это позволяет выявлять неожиданные соединения и «фонящий» софт.

🛑 Policy-based фильтрация трафика
Главный упор на поведение приложения:
- разрешить доступ только в LAN;
- блокировать запросы к определённым ASN;
- отрезать трекеры и рекламные сети;
- ограничить трафик по странам.

🔐 Шифрованный DNS (DoH/DoT)
DNS-запросы уводятся в зашифрованный канал, исключая возможность их перехвата или анализа провайдером.

📦 Per-app сетевые профили
Каждому приложению назначается свой сетевой режим:
- браузеру свободный выход в интернет,
- IDE доступ только к Git-репозиториям,
- медиаплееру полный оффлайн.

🌀 SPN (Safing Privacy Network)
Опциональный, но интересный модуль: приватная многослойная сеть, напоминающая симбиоз Tor и VPN, но с приоритетом на стабильную скорость.

⚙️ Совместимость

🟦 Windows
🐧 Linux (включая immutable-дистрибутивы)

Допом GPL-лицензия, активная разработка и стабильные релизы

🔗 GitHub
https://github.com/safing/portmaster

Stay secure and read SecureTechTalks 📚

#cybersecurity #network #privacy #infosec #opensource #firewall #linux #windows #monitoring #trafficanalysis #SecureTechTalks
🤖⚔️ AI против хакеров: автономный агент уничтожил CTF-соревнования в 2025

Кибербезопасность переживает момент, который обычно описывают фразой “тихая революция”. Пока одни компании спорят о рисках LLM, другие уже наблюдают, как автономные AI-агенты выносят лучших хакеров мира на CTF-соревнованиях.

Ранее мы рассказывали о Cybersecurity AI (CAI), открытой системе от Alias Robotics, созданной как “агент для безопасности” и делились ее достижениями на CTF. Однако история имеет продолжение.

🏆 Успех 2025

За год CAI стал #1 в мире сразу в нескольких крупнейших CTF-турнирах:
🚀 Neurogrid AI Showdown: 1 место, 41/45 задач, 33 917 очков
🛠 Dragos OT CTF: 1 место в первые часы, итог в топ-10
🧩 HTB AI vs Humans: #1 среди AI, 19/20 задач
🕵️ Cyber Apocalypse: #22 из 8129 команд, работая всего 3 часа
🧨 Pointer Overflow: за 60 часов догнал результаты команд, которые играли 50 дней

Самый эффектный результат на Neurogrid CTF, где CAI набрал 9 692 очка за первый час (для сравнения: люди шли к этой же цифре сутки.).

В чем секрет?

Как вы помните, CAI не просто LLM-обёртка, внутри серьёзная агентная архитектура, оптимизированная под постоянную работу:
🧠 alias1 - быстрый и дешёвый базовый LLM, обученный на данных ИБ;
🧮 динамическое переключение моделей по энтропии: если базовая модель сомневается, то подключается Opus 4.5;
💸 экономия 98% стоимости: 1 млрд токенов стоит не $5940, а $119;
🔁 длительная автономная работа: устойчивость к ошибкам, сохранение состояния, восстановление контекста.

🎯 CTF уже не торт

Картина неприятная:

🧨 Jeopardy-CTF больше не измеряют человеческий скилл
Если AI решает задачи быстрее и почти безошибочно,
значит формат стал тестом на скорость вычислений, а не на знание и творчество.

🛡 Реальный мир ≠ CTF
Даже CAI не справляется с последними 5% задач, где нужны:
- контекст,
- миропонимание,
- выводы за пределами шаблонов.

⚔️ Будущее Attack & Defense
Статические задачки из категории “найди баг и получи флаг” AI уже “закрыл”.
Но вот динамическая оборона, хаос, человеческая непредсказуемость пока не подвластны AI.

🏭 Неприятный момент

Если автономный агент проходит CTF за 6 часов,
то злоумышленник, пусть и не столь продвинутый, скоро тоже сможет запускать такие системы. Отсюда выводы:

🔐 Защита должна работать на скорости машин
Ручные расследования, ручной threat hunting и “после обеда глянем лог” уходят в прошлое.

🧱 AI-агенты должны стать частью обороны
Да, есть риски, да, есть этика. Но альтернативой является  отставание от атакующих на годы.

🔧 Главное технологическое открытие

CAI доказал, что автономные агенты могут быть быстрыми, устойчивыми,
и одновременно крайне дешёвыми.

Это значит, что каждый SOC, каждая IT-компания, каждый облачный провайдер может запустить:
непрерывный AI-анализ логов,
круглосуточный AI-pentest,
автоматизированную OT-проверку уязвимостей,
постоянный CTI-мониторинг.
То, что раньше стоило “как ещё один SOC”, теперь доступно по цене чашки кофе.

🔗 репозиторий CAI на GitHub можно посмотреть по ссылке

Stay secure and read SecureTechTalks 📚

#️⃣ #кибербезопасность #ai #cybersecurity #ctf #aiagents #infosec #secops #отраслеваябезопасность #neurogrid #securetechtalks #llm
🔥 Могут ли модели решать за нас, кому давать доступ к данным?

Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам.

А что, если решение будет принимать не человек, а AI?
Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей.

🤖 Эксперимент

📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности:

«Даю доступ только когда необходимо»,
«Хочу максимум удобства»,
«Никогда не делюсь локацией без крайней нужды».


📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений.
📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”.
📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучше.

💡 LLM в целом умнее среднего человека

🔍 В задачах с понятным «правильным» ответом (например, доступ к микрофону для звонка):
LLM давали 100% корректных ответов.
👥 В субъективных сценариях:
LLM совпадали с большинством пользователей в 70–86% случаев.

Но есть момент, который лично мне кажется ключевым:

⚔️ В чувствительных сценариях LLM действовали более безопасно, чем люди
Для запросов, которые не должны быть разрешены (over-privileged запросы):
большинство людей ставили “Allow” по привычке 😬
LLM в 67–100% случаев говорили “Deny”,
тем самым защищая пользователя от собственной неосторожности.

🎯 Персонализация

Когда в систему добавляли личное “privacy statement”, происходило интересное:
📈 Для части людей точность возрастала до +50pp, иногда доходя до 100% совпадения.
📉 У других наоборот, падала:
если человек писал “Я доверяю всем”, но на деле запрещал, LLM следовала заявленной логике, а не реальному поведению.

🔍 Факторы, влияющие на точность:
чем длиннее и конкретнее privacy-statement → тем лучше
люди с крайними позициями (“всё запрещаю” / “всё разрешаю”) идеально персонализируются
несоответствия между заявленным и реальным резко ухудшают качество

🧠 Люди меняют решения под влиянием объяснения LLM

Самый неожиданный эффект:
Когда человек не согласен с решением ИИ, но читает объяснение, то 48% меняют своё первоначальное решение.

Причём если LLM рекомендует “Deny”:
➡️ 59% людей соглашаются, даже если сами бы разрешили.
ИИ работает как «security-nudge», который мягко подталкивает к более безопасным действиям.

🔗 Полный текст исследования

Stay secure and read SecureTechTalks 📚

#кибербезопасность #privacy #llm #androidsecurity #ai #securityresearch #dataprotection #mobileprivacy #aiethics #securetech
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨The Bastion: недооценённый инструмент SSH-безопасности

Не секрет, что управление SSH-доступом давно стало критически важным элементом безопасности.

The Bastion -  специализированный bastion-host уровня enterprise, разработанный в OVH, который обеспечивает централизованную аутентификацию, разрыв SSH-канала, строгую авторизацию и полный аудит операторских действий, минимизируя поверхность атаки в распределённых средах.

🔐 Рассмотрим инструмент подробнее

The Bastion не просто jump-host, это центральная точка входа для админов и операторов, которая даёт:
строгое разграничение прав,
централизованное управление ключами,
полный аудит всех действий,
безопасный разрыв SSH-соединений между пользователем и сервером.
Сервера видят только Bastion, а персональные учётки операторов скрыты.

⚙️ Ключевые фичи

🧩 Точный контроль доступа (RBAC)
- Гибкие группы, роли, делегирование.
- Минимально необходимый доступ для каждого пользователя.

🔄 Полный разрыв SSH
Пользователь → Bastion → сервер.
- Никаких прямых соединений.
- Повышенная защита от компрометации ключей.

🎥 Полная запись сессий
- Интерактивные ttyrec-записи.
- Логирование scp/rsync/stdout/stderr.
- Полезно для SOC, DFIR и compliance.

🔐 MFA и PIV
Поддержка TOTP, физические ключи (YubiKey и др.)

🛰 Поддержка scp/sftp/rsync/netconf
Работает даже с «древним» сетевым оборудованием.

🧱 Минимальные зависимости
Только стандартный SSH-клиент и sshd на серверах.

🏗 High availability
Поддержка кластеров (active/active).

⚔️ Сравнение: The Bastion vs Teleport

Чтобы понять, где The Bastion особенно силён, сравним его с популярным аналогом Teleport.

🔍  Архитектура
The Bastion: классический, надежный SSH bastion с разрывом соединений. Без внешних зависимостей, без агрессивных агентов.
Teleport: построен вокруг собственного auth-сервера и proxy-компонентов, использует сертификаты SSH, требует агентов на серверах.

🔐 Управление доступом
The Bastion: простое RBAC на уровне групп + централизованные ключи.
Teleport: более сложная модель с сертификатами и политиками, но требует дополнительной инфраструктуры.

🧠 Аудит
The Bastion: нативная запись ttyrec, логирование потоков, простые для экспорта артефакты.
Teleport: структурированные ауди-события + web-панель, но завязано на их auth-сервер.

🖥 Установка и поддержка
The Bastion: один узел, SSH, минимум зависимостей → быстрое внедрение даже в ограниченных средах.
Teleport: более тяжёлый стек, особенно для production-кластеров.

💸 Лицензирование
The Bastion: полностью open-source, без enterprise-платных фич.
Teleport: open-source ядро + платные расширенные модули.

🔗 Ссылки
Github The Bastion
GitHub Teleport

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #cybersecurity #ssh #bastionhost #OVH #infosec #devops #audit #opensource #privilegedaccess
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖🔥 Адаптивный ИИ: статичные модели больше не работают

Современные угрозы представляет собой высокодинамичную среду, в которой параметры, эксплуатационные техники и уязвимости изменяются непрерывно.

Классические модели машинного обучения, основанные на статичных знаниях, теряют эффективность
Требуется архитектура, способная к непрерывной адаптации: изменению данных, появлению новых атакующих техник, обновлению CVE и т.д..

🎯 ПРЕЦИЗИОННОСТЬ, а не просто «умный ИИ»

Каждый день мы видим тысячи предупреждений, сотни CVE, десятки обновлений.  Сколько из них реально критичных? По статистике пара процентов.

Откуда ИИ должен знать:
- какие уязвимости реально эксплуатируются ⚠️
- какие пакеты можно обновить безопасно, а какие сломают половину ПРОМа 🧩
- какие зависимости тянут за собой скрытые риски 🕸

Вот тут и проявляется ключевое качество precision, точность принятия решений в условиях хаоса.

Именно точность отличает систему, которая помогает инженеру, от системы, которая создаёт больше работы, чем экономит.

🧠  LLM без адаптации не нужны

Даже самый мощный LLM:
устаревает уже через 3–6 месяцев
не понимает новые эксплойты и техники атаки
путается в противоречивых CVSS-оценках
тонет в длинных noisy-контекстах
ошибается в RAG, когда извлечённые данные неактуальны

А самое важное, что
кибербезопасность развивается быстрее, чем обновляются модели.
Поэтому статичная модель гарантированно проигрывает динамичной атаке.

🧩 Три кита адаптивного ИИ в безопасности

1) 🔍 RAG + In-Context Learning (ICL)
Модель учится «на лету», ей не нужно менять веса, достаточно дать правильный контекст.
Но есть проблема:
чем больше контекста → тем сильнее модель деградирует.
➡️ решение: использовать интеллектуальные retrieval-агенты
➡️ фильтровать контекст, а не просто загружать всё подряд
➡️ добавлять знания из графов (CVE–CWE–CPE связи)

2) 🧠 Knowledge Graphs как «скелет» киберзнаний
Безопасность - идеальная область для графов:
CVE → CVSS → эксплойты
пакеты → зависимости → контрмеры
TTP → группы атакующих → MITRE ATT&CK
Графы позволяют:
✔️ исключать шум
✔️ находить скрытые связи
✔️ объяснять выводы (auditability)
✔️ строить более точный RAG

3) 🔄 Continual Learning: непрерывное самообновление модели
Когда RAG не справляется, подключаем continual pretraining.
Модель обучается дальше на новых данных: CVE, advisories, PoC, репорты, рассылки, TTP, эксплойты.
Преимущества:
- устойчива к шуму и фейкам
- объединяет противоречивые данные
- снижает хаотичность ответов
- формирует контекст внутри параметров модели
- адаптируется к новым атакам быстрее, чем выходит новый релиз LLM

🧨 Главная идея

Будущее  в гибридных системах:
RAG для свежих фактов
Knowledge Graph для структуры
Continual Learning для развития модели

🔗 С полным текстом исследования можно ознакомиться тут.

Stay secure and read SecureTechTalks 📚

#cybersecurity #infosec #genai #rag #continuallearning #llmsecurity #threatintel #cvss #mitre #securetech
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Дипфейки становятся умнее. Есть ли защита?

Сегодня визуальная подделка не про мемы, эта история про выборы, суды, репутацию компаний, провокации и разрушенные карьеры. Один фрагмент фото, вырванный из контекста и последствия могут оказаться фатальными.

Сегодня мы поговорим про технологию, которая реально способна вернуть правду в визуальный мир.

🎙️ Что мы имеем?

Гигантская проблема:
криптографические подписи изображений бессильны перед кадрированием.
Обрежьте картинку - подпись исчезает. Поверните, снова исчезает. Сожмите, тоже исчезает.

Правда растворяется ровно так же, как границы кадра.

🧠 Есть ли решение?

Новый подход чинит фундаментальный дефект старой схемы.

🧩 1. Блочное разбиение изображения

Фото режут на сетку блоков фиксированного размера, например 32×32 или 64×64 пикселей.

Каждый блок - это отдельная сущность.Мини-документ внутри документа.

🔐 2. Хеширование каждого блока

Вместо хеша всей картинки считают:
H₁, H₂, H₃… Hₙ
Если злоумышленник меняет хоть один пиксель в одном блоке, хеш меняется и подделка всплывает.

📝 3. Создаётся «супер-подпись» всего набора хешей

Хеши упаковываются в структуру данных (обычно дерево Меркла).
На выходе получают один корневой хеш, тот, что подписывается приватным ключом автора. Формируется что-то сродни ДНК-профилю.

🗂 4. Подпись сохраняется внутри JPEG

В метаданных JPEG, без влияния на изображение.

Картинка остаётся картинкой. Любая программа её открывает.

🧪 5. Проверка после кадрирования

Когда фото обрезают, часть блоков исчезает. Но оставшиеся блоки всё ещё имеют:
- свои хеши,
- своё место в дереве,
- свою проверяемую часть подписанной структуры.

Проверка выглядит так:
«Окей, у нас осталось 40 % блоков. Проверяем только их. Совпало? Значит, эта часть фото подлинная.»

Такой подход даёт возможность максимально увеличить трудозатраты на создание дипфейков неотличимых от реальных фото.

💡 Источник:
https://arxiv.org/pdf/2512.01845

Stay secure and read SecureTechTalks 📚

#️⃣ #cybersecurity #кибербезопасность #deepfake #digitalforensics #фото #cryptography #инфобез #DataIntegrity #JPEGsecurity #SecureTechTalks
🛡️ UTMStack: Open-Source SIEM/XDR, который не пытается казаться ELK

Если вы когда-нибудь собирали DIY-SIEM из ELK, плагинов, агентов-шаманов и «корреляционных правил», которые срабатывают только когда Луна в фазе роста, то вы знаете боль.

UTMStack приходит с лозунгом:
«Хватит страданий. Делай правильно! Делай монолитно».

🔥 Общая инфа

UTMStack - это open-source платформа «всё-в-одном», куда упаковали:
🧠 SIEM с real-time корреляцией
🛡️ XDR с активным обнаружением угроз
📦 Asset-менеджмент
🐞 Сканер уязвимостей
📜 Compliance (GDPR, PCI DSS, SOC2)
🔍 Контроль доступа
🤖 SOC-автоматизацию

Всё в единой архитектуре, с собственным движком анализа, без ELK и без зависимостей.

🤯 В чем фишка?

Это не очередной «ELK в шапке SIEM», а самостоятельная платформа.
✔️ Корреляция событий до индексации
События анализируются в тот же момент, когда прилетают.
Минимальная задержка = максимальный шанс поймать атаку.

✔️ 2. Не требует внешних компонентов
Kibana
Elasticsearch
Logstash
Танцы с бубном
Всё встроено.

✔️ 3. Модули, которые обычно продаются отдельно
💸 Уязвимости
💸 Asset Discovery
💸 Compliance
💸 XDR
Тут всё уже внутри и бесплатно.

📡 Что умеет на практике

Сценарий в стиле SOC:
⚠️ Агент ловит подозрительный логин
🔐 В параллели замечаются изменения прав
🧩 Корреляция связывает события
🚨 Генерится инцидент
🪓 Срабатывает автоматическое блокирование
🕵️ SOC-аналитик получает чистую картину без шумов
SIEM + XDR без интеграционного ада.

🧱 Внутренности

🧩 Linux/Windows агенты
🔄 Потоковая обработка логов
🧠 Собственный correlation engine
🌐 API + webhooks
🛰️ Поддержка облаков
🛠️ Встроенный asset discovery
🐞 Vulnerability scanner
📊 Нормальные дашборды, а не как в Kibana
📡 Масштабируемые воркеры

По факту решение ближе к коммерческим продуктам, чем к типичному open-source.

⚠️ Минусы (их тоже не мало)

🔧 Конфигурация не мгновенная, а довольно сложная
📚 Документация местами очень мутная
🛡️ XDR довольно слабенький
🐘 Прожорлив на нагрузках
🐢 Веб-интерфейс иногда подлагивает

Тем не мене продукт довольно интересный. Его можно рассматривать в категории «бесплатное и мощное».

🔗 Ссылка на GitHub

Stay secure and read SecureTechTalks 📚

#SIEM #XDR #CyberSecurity #OpenSource #UTMStack #SOC #SecurityTools #Infosec #ThreatDetection #Compliance
🤖🔧 LLM против уязвимостей: почему реальные баги чинятся лучше, чем искусственные

Большое исследование, которое проверяет истории о «самочинящихся» кодерах

Автоматическое исправление уязвимостей мечта индустрии последние двадцать лет. Мы уже пережили эпоху статических анализаторов, десятки попыток построить идеальный Automated Program Repair (APR) и сотни докладов, которые обещали «починку кода одним кликом».

Сегодня у нас бум LLM.  Модели генерируют не только стихи, но и создают патчи. В соцсетях уже гуляют скриншоты, где ChatGPT «за секунду» чинит SQLi или XSS.

Тем не мене вопрос остаётся открытым:
🧩 А насколько эти патчи вообще работают, когда дело доходит до реальных эксплойтов, а не до красивых текстовых примеров?


Команда исследователей из Luxembourg Institute of Science and Technology решила проверить, что LLM умеют патчить в реальном бою, когда исправления проверяют не глазами разработчика, а Proof-of-Vulnerability (PoV) тестами

🎯 Исследование

Исследование охватило 14 различных LLM, включая модели OpenAI (GPT-3.5, GPT-4, GPT-4o), Meta LLaMA (версии 3.1 и 3.3), DeepSeek R1 Qwen и несколько версий Mistral.

Модели тестировали на двух типах уязвимостей:
🔹 Реальные уязвимости
15 CVE из датасета Vul4J: уязвимый код, PoV-тест, гарантированно воспроизводящий атаку.
🔹 Искусственные уязвимости
41 синтетическая уязвимость, созданная исследователями на базе реальных, с изменениями в коде, но с тем же PoV-фейлом.

Искусственные баги воспроизводили те же ошибки, что и реальные, но выглядели иначе.

🔥 LLM плохо справляются с искусственными уязвимостями

Половина реальных уязвимостей была успешно исправлена хотя бы одной моделью. Однако была исправлена лишь четверть искусственных уязвимостей. LLM не распознавали паттерны искусственных уязвимостей.

Причина проста:
🧠 LLM чинят то, что узнают, а не то, что понимают
Модель не анализирует механику уязвимости, она пытается "вспомнить" похожий патч из обучающих данных.

🧪 Как проходило тестирование

Каждая модель получала строгий промпт:

"Исправь уязвимость. Не меняй ничего лишнего. Верни только Java-функцию."


Далее происходило следующее:
🧩 Исследователи подменяли функцию в реальном проекте.
🧱 Проект пересобирался.
💥 Прогонялся PoV-тест (реальный эксплойт).
🛡 Если PoV больше не мог воспроизвести атаку, то фикс засчитывался.

Если код не компилировался или эксплойт всё ещё работал, то патч считался провальным.

🥇 Кто справился лучше всего

В абсолютных числах:
DeepSeek R1 Qwen 32B исправил 14 уязвимостей
Mistral 8×7B тоже 14 уязвимостей
GPT-4 и GPT-4 Turbo по 9 исправлений
Остальные модели оказались слабее: около 5–6 успешных патчей.

При этом:
Никто не стал «универсальным патчером».
Нет модели, которая стабильно и хорошо чинит всё.

💣 Примеры

Успешный случай: CVE-2013-5960
Ошибка в криптографии (AES/CBC → AES/GCM).
Все модели без исключения смогли заменить режим и настроить correct tag length.

Почему?

Потому что это «шаблонное» исправление, встречающееся в тысячах проектов.

Провальный случай: XXE в Apache Batik
Для полного исправления XXE нужно:
отключить external entities;
обновить зависимость Batik на версию, где этот флаг работает корректно.

Все модели делали только шаг №1.

PoV продолжал считывать содержимое локального файла. Уязвимость оставалась.

Причина:
LLM не может увидеть зависимость, не может проверить билд, не понимает контекст.

🔗 Ссылка на исследование: https://arxiv.org/abs/2511.23408

Stay secure and read SecureTechTalks 📚

#cybersecurity #infosec #LLM #AIsecurity #vulnerabilities #javasecurity #research #securecoding #patching #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👏1
🤖💣 [Эксперименты]: ИИ против пентестеров

Что будет, если выпустить автономный AI-агент в настоящий enterprise-контур и сравнить его с живыми профессиональными пентестерами?

Не CTF или лаборатории, а реальная прод-сеть на ~8 000 хостов.

🔬 Само исследование

Команда из Stanford и CMU впервые сравнила:
👨‍💻 10 опытных пентестеров
🤖 несколько автономных AI-агентов
🏫 живую университетскую инфраструктуру
- 12 подсетей, VPN, Kerberos
- Linux, Windows, IoT, embedded
- IDS, EDR, патчи, реальные пользователи

Результаты фиксировались, проверялись и реально закрывались IT-службой.

🧠 ARTEMIS не «LLM с nmap»

В качестве агента использовался ARTEMIS: мультиагентный red-team-фреймворк.

Он состоит из:
🧑‍✈️ supervisor-агента (планирует атаку)
🐝 роя субагентов (работают параллельно)
🧪 триаж-модуля (проверка и классификация багов)
🧠 долгоживущей памяти и динамических промптов

Важно: ARTEMIS лишь организует работу моделей.

📊 Результат

ARTEMIS:
🥈 2-е место в общем рейтинге
🚨 обогнал 9 из 10 живых пентестеров
🔍 нашёл 9 валидных уязвимостей
82% находок реальные баги

Другие агенты (Codex, CyAgent, MAPTA) либо показали слабый результат, либо вообще не справились.
👉 Выиграла не модель.
👉 Выиграла архитектура агента.

⚔️ Люди vs ИИ: в чём разница

👨‍💻 Люди
- сильны в GUI и браузерах
- полагаются на опыт и «чутьё»
- не умеют атаковать параллельно

🤖 ARTEMIS
- атакует десятки целей одновременно
- не устаёт и не забывает
- уверенно работает в CLI

Забавный момент:
люди не смогли открыть старый iDRAC из-за TLS, а  ARTEMIS просто использовал curl -k и получил доступ.

⚠️ Ограничения ИИ

- больше false positive
- плохо работает с GUI
- иногда «рано сдаёт работу», не докручивая цепочку до RCE

Однако кажется, что временные проблемы агентов.

💰 Самая неприятная часть

👨‍💻 пентестер в США: ~$125 000/год
🤖 ARTEMIS (GPT-5): $18/час ($37 000/год)

ИИ уже сейчас в 3–4 раза дешевле человека.

🧠 Главный вывод

ИИ делает атаки масштабируемыми.


А значит, такие агенты будут у атакующих. Защитникам нужно учиться думать как AI-red team.

🔗 Исходники ARTEMIS уже выложены: 👉 https://github.com/Stanford-Trinity/ARTEMIS

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIsecurity #Pentest #RedTeam #CyberSecurity #AIagents #OffensiveSecurity #CISO #AppSec #Infosec
🔥 Kali Linux 2025.4: ключевые обновления

Offensive Security выпустила Kali Linux 2025.4.  Давайте разберем, что изменилось.

🎨 UI/UX:

Интерфейс переосмыслен с фокусом на продуктивность:
GNOME 47 получил структурированную сетку приложений. Инструменты сгруппированы логично, а не разбросаны хаотично, как это было раньше. Новая панель активности и быстрый запуск терминала (Ctrl+Alt+T) экономят драгоценные секунды в работе. 🖥️

KDE Plasma 6.2 предлагает серьезные улучшения:
Интегрированный скриншотер с базовым редактором: фиксируйте и оставляйте комменты к  находкам без переключения окон.
Менеджер буфера обмена с историей и закреплением: больше не потеряете важные хэши или команды.
Умный поиск по приложениям и файлам, устойчивый к опечаткам.

Xfce 4.20 теперь поддерживает системные цветовые схемы. Темная тема стала еще гармоничнее. 🎭

⚙️ Новый инструментарий:

В репозиторий добавлены три инструмента:

bpf-linker утилита для статической линковки BPF-объектов. Ключевое преимущество: совместимость со старыми ядрами Linux. Незаменим для разработчиков эксплойтов, работающих с eBPF.

evil-winrm-py нативная Python-реализация популярного инструмента для работы с WinRM. Прямая интеграция с другими скриптами на Python упрощает тестирование окружений Active Directory. Админам есть над чем задуматься. 😈

hexstrike-ai MCP-сервер, который позволяет LLM-агентам (например, Claude, GPT) безопасно взаимодействовать с инструментами Kali. Первый шаг к контролируемой автоматизации сложных пентест-сценариев.

Другие обновления

📱 Kali NetHunter:
Мобильная платформа обновила поддержку устройств:
- Линейка Samsung Galaxy S10 (включая 5G) на LineageOS 23.
- OnePlus Nord под управлением Android 16.
- Xiaomi Mi 9 на Android 15.

Это превращает совместимые смартфоны в полноценные портативные станции для тестирования беспроводных сетей и проведения аудитов.

💾 Дистрибуция: Новые реалии

Официальные образы Kali Live и Kali Everything теперь распространяются исключительно через BitTorrent. Это вынужденная мера из-за возросшего объема дистрибутивов. Остальные варианты установки (установщики, облачные образы) остаются доступны на mirrors.kali.org.

🔗 Полный список обновлений на GitHub:
https://github.com/offensive-security/kali-linux

Stay secure and read SecureTechTalks 📚

#KaliLinux #Кибербезопасность #Пентест #ActiveDirectory #InfoSec #EthicalHacking #Linux #OffensiveSecurity
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Как взломать нейросеть, не трогая её весов

Когда говорят об атаках на ИИ, в первую очередь вспоминают про два сценария:
🔐 либо атакующий крадёт веса модели,
🎯 либо подсовывает ей очевидные adversarial-примеры с шумом, которые выглядят странно даже для человека.

Но есть нще множество других уязвимостей. Например, нейросеть можно системно ломать, не имея доступа ни к весам, ни к обучающим данным, и при этом атака будет выглядеть как «нормальная работа системы».

🔧 Как выглядит типичная AI-система

Если отбросить маркетинг, почти любая production-система с ИИ устроена примерно одинаково:
1️⃣ Источник данных: камера, микрофон, лог, поток транзакций
2️⃣ Предобработка: драйверы, кодеки, SDK, нормализация
3️⃣ Модель, чаще всего закрытая и недоступная извне
4️⃣ Бизнес-логика: принимает решения на основе вывода модели

Второй пункт часто считают «технической деталью», а не частью attack surface, однако именно здесь находится точка входа атаки про которую пойдет речь.

🎯 В чём идея

Ключевая мысль:
🧩 Если атакующий управляет тем, как данные подаются в модель,
он управляет решениями модели, не трогая её веса.


Атака строится так, чтобы:
данные выглядели валидными
человек визуально или логически не замечал изменений
инфраструктура не генерировала ошибок
модель начинала систематически ошибаться

🪜 Атака шаг за шагом

🔹 Шаг 1. Модель
Атакующий:
- не знает архитектуру 🧠
- не имеет доступа к весам 🔒
- не управляет обучением 📚

🔹 Шаг 2. Контроль над ранним этапом обработки
Зато атакующий может влиять на компонент, который формально не считается частью ИИ:
📷 прошивка камеры
🎞️ видеокодек
🧩 библиотека нормализации
⚙️ edge-модуль
🌐 прокси перед моделью

Эти элементы обычно:
работают автоматически
считаются доверенными
редко проходят security-аудит как часть ML-системы

🔹 Шаг 3. Атакуют трансформацию, а не модель
Дальше атакующий оптимизирует преобразование входных данных.

🎯 Цель:
минимально изменить вход
сохранить «нормальный» вид для человека
сломать признаки, на которых обучалась модель

В результате модель:
🚫 перестаёт видеть объекты
🔀 путает классы
🙈 игнорирует нужные сигналы
При этом inference работает штатно, а ошибки выглядят «естественными».

🔹 Шаг 4. Масштабирование атаки
Атака оказывается универсальной.
⚠️ Одна трансформация:
работает на тысячах входов
сохраняется при смене сцен
часто переживает дообучение модели
Фактически, один скомпрометированный препроцессор начинает определять, что именно “видит” ИИ.

🧪 Почему это не классические adversarial examples
Классические adversarial-атаки:
- хрупкие
- плохо масштабируются
- ломаются при изменении модели

Здесь же речь идёт об инфраструктурной атаке:
встроенной в pipeline

По сути 🧨 supply-chain атака на AI-систему.

🌍 Практические сценарии

📹 Видеонаблюдение
Человек видит сцену,
ИИ «не видит» людей или предметы.

💳 Антифрод
Транзакции выглядят валидно,
но модель не распознаёт мошенничество.

🏥 Медицина
Изображение корректно,
но патология «исчезает» для ИИ, влияя на приоритезацию.

Во всех случаях это выглядит как деградация качества, а не как атака.

➡️ Пока внимание сосредоточено на весах и датасетах, реальные атаки уходят в инфраструктуру вокруг модели. Именно там сегодня находится самая недооценённая поверхность атаки.

🔗 Оригинальная работа:
https://arxiv.org/abs/2512.06914

Stay secure and read SecureTechTalks 📚

#AISecurity #MachineLearning #CyberSecurity #AdversarialAI #SupplyChainSecurity #AppSec #Infosec #ComputerVision #MLSecurity
🚨 Как искусственный интеллект стал основным исполнителем кибератаки

Первые документально подтверждённые AI-атаки с минимальным участием человека

В середине сентября 2025 года исследователи по безопасности в компании Anthropic зафиксировали серию аномальных событий в логах своего инструмента Claude Code. Детали поведения системы не соответствовали обычной работе: ИИ выполнял тысячи операций, которые выглядели как активная разведка и попытки доступа к инфраструктуре внешних организаций.

Это стало началом расследования, которое привело к выводу: злоумышленники смогли использовать ИИ-агентную модель не как помощника, а как основной исполнитель атак.

🔍 Как обнаружили атаку

Аномалии были замечены через стандартные средства мониторинга активностей Claude Code:
непривычно большое количество API-запросов;
серия запросов, выглядевших как последовательная разведка систем;
моделирование действий, характерных для практик offensive security.

Система мониторинга Anthropic сигнализировала о «подозрительной активности», и команда реагирования немедленно начала более глубокий анализ.

🧪 Детали

Anthropic в официальном отчёте описала, что:
атакующий сконструировал цепочку задач таким образом, что Claude Code выполнял их без полного понимания общей цели.

Каждое отдельное действие выглядело безобидно или технически оправданным;
для обхода защитных механизмов злоумышленники использовали «роль официального тестировщика безопасности», заставив ИИ поверить, что он работает в рамках легитимного аудита;
модель действовала автономно по большей части операций: до 80-90 % действий выполнялось без вмешательства человека;
Claude Code сканировал инфраструктуры целей, идентифицировал потенциально ценные базы данных, писал собственный код для использования уязвимостей, собирал данные об учётных записях и формировал отчёты.

Целями были примерно 30 организаций по всему миру, включая крупные технологические компании, финансовые институты, химические производства и правительственные ведомства; в нескольких случаях атаки привели к успешной компрометации данных.

🧠 Как именно ИИ оказался «в роли атакующего»

Ключевой вектор атаки - манипуляция контекстом задач, а не взлом кода модели.

Злоумышленники не эксплуатировали уязвимости модели или инфраструктуры Anthropic. Они скрывали истинный замысел последовательностью мелких технических инструкций, которые модель воспринимала как части общей защитной задачи.

Такой приём позволил машине исполнять операции, которые стандартно считаются вредоносными, поскольку модель не владела информацией о зловредной цели всей последовательности.

🧩 Роль людей и степень автономии

Anthropic отмечает, что люди участвовали лишь на ключевых этапах, когда требовалось подтвердить или оценить результаты:
🔹 человек оставался в цикле планирования;
🔹 человек подтверждал шаги перед выполнением некоторых операций.
Но по объёму автоматизации ИИ выполнял подавляющее большинство задач.

📌 Реакция Anthropic и дальнейшие действия

После выявления атаки Anthropic предприняла следующие шаги:
незамедлительно заблокировала аккаунты, связанные с кампаниями злоумышленников;
уведомила затронутые организации;
начала тесное взаимодействие с правоохранительными органами;
усилила систему обнаружения подобных автоматизированных атак посредством новых классификаторов и правил мониторинга.

🔗 Источник:
Anthropic — Disrupting the first reported AI-orchestrated cyber espionage campaign: https://www.anthropic.com/news/disrupting-AI-espionage

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIsecurity #ClaudeCode #Anthropic #кибербезопасность #AIattacks #agenticAI #инцидент #Infosec #AITHREATS #автоматизация #cyberespionage
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠🛡️ LLM помогает находить баги в смарт-контрактах

Смарт-контракты одна из самых сложных и рискованных частей Web3-экосистем. Их ошибки это не просто «падение системы», а потерянные миллионы долларов для пользователей.

🎯 Обычные статические анализаторы вроде Slither не справляются: они генерируют массу ложных срабатываний или пропускают «нестандартные» уязвимости, когда логика контракта уходит от шаблонов.

Исследователи из Georgia Tech предложили интересную альтернативу: систему LLMBugScanner, в которой не одна LLM, а группа LLM, работают в связке и голосует за результаты.

🧪 Одиночные модели не панацея

Если запустить одну модель (даже fine-tuned), она может сработать на одни типы ошибок, но провалиться на других:
🔹 Модели хорошо находят наборные, стандартные баги вроде integer overflow, но «слепнут» на контекст логики.
🔹 Результаты могут отличаться от прогона к прогону, потому что модель непоследовательна.
🔹 Fine-tuning помогает на одних данных, но портит результаты на других.

Это типичная проблема: LLM понимают шаблоны, но не логику, семантику и нюансы исполнения кода.

🧩 LLMBugScanner

Чтобы устранить вышеупомянутые ограничения, реализована архитектура LLMBugScanner, которая делает две вещи:

1) 🎯 Адаптация к контексту смарт-контрактов
Модели проходят двухступенчатое fine-tuning-обучение:
На большом датасете Solidity-контрактов с отмеченными типами уязвимостей, чтобы понять общий «язык» и паттерны Ethereum-кода.

На маленьком датасете с CVE-контрактами, чтобы научиться опознавать конкретные баги и описывать их.

📌 В результате модели перестают постоянно неправиль­но классифицировать ошибки (например, путать проблемы доступа с арифметическими).

2) 🤝 Коллективное голосование моделей
Вместо того чтобы полагаться на одну «умную» сеть, LLMBugScanner запускает пять разных моделей, каждая анализирует контракт, а затем результаты объединяются через систему голосования:
🔹 Weighted Voting: сильные модели «весомее»
🔹 Priority Voting: решает конфликты по приоритету моделей

Итог: система ловит больше багов и с меньшим шумом, чем любая модель по отдельности.

📊  Тестирование

Команда проанализировала 108 реальных смарт-контрактов с известными уязвимостями из базы CVE. Результаты:
🔥 Ensemble-подход поднял точность обнаружения до ~60 % в топ-5 выводов, что на ~19 % выше, чем у одной лучшей модели.

🧠 Преимущества и ограничения

Групповой разум работает лучше, чем одиночные модели.
Снижается влияние случайных ошибок и индивидуальных слабостей моделей.
Лучше охватываются разные типы уязвимостей.

Ограничения:
⚠️ Некоторые редкие классы ошибок (например, сложные ошибки доступа или логической структуры) всё ещё остаются трудными для обнаружения даже в ансамбле.
⚠️ Около 10 % выводов моделей всё ещё могут содержать «галлюцинации».

📌 Ссылка на исследование
🔗 https://arxiv.org/abs/2512.02069

Stay secure and read SecureTechTalks 📚

#CyberSec #Web3Security #SmartContractAudit #LLM #AIinSecurity #DeFi #Blockchain #SecureTechTalks #BugBounty
👍1
🧨 KICS: как искать уязвимости на этапе разработки

Многие думают, что безопасность начинается на этапе SAST или pentest’а.  Но большинство уязвимостей появляются ещё до первой строки бизнес-кода, например в Kubernetes YAML.

🔍 Что такое KICS?

KICS (Keeping Infrastructure as Code Secure) - open-source инструмент от Checkmarx для анализа Infrastructure as Code.

KICS ищет security-ошибки, misconfiguration и опасные паттерны в IaC-файлах до деплоя, пока всё ещё можно починить одной строкой.

📦 Поддерживаемые форматы:
- Terraform
- Kubernetes (YAML)
- Helm
- Dockerfile
- Ansible
- CloudFormation
- ARM Templates
- Pulumi
- Serverless

Если у вас cloud, CI/CD и DevOps, то вы уже в зоне риска, а KICS может стать вашим ранним радаром.

🔥 KICS не «ещё один линтер»

Это не форматтер
Это не просто best practices
Это не SAST

KICS проверяет реальные security-риски, а не стиль или синтаксис.

Он смотрит на инфраструктуру глазами атакующего и задаёт неприятные вопросы ещё до деплоя.

🧠 Принцип работы

KICS использует:
🔍 предопределённые security-queries
🧩 разбор IaC-структур
🛠️ rule-based движок
📊 модель критичности (Low → Critical)
Каждая находка это:
- описание риска
- уровень критичности
- ссылка на best practice
- рекомендации по исправлению

📡 Типичный сценарий

DevOps-пайплайн:
🧑‍💻 Dev пишет Terraform / YAML
🔁 PR уходит в Git
⚙️ CI запускает KICS
🚨 KICS находит опасные конфигурации
Pipeline падает
🔧 Конфиг исправляется
Только потом деплой
Security shift-left без конфликтов и ночных инцидентов.

🧱 Архитектура и возможности
🧩 CLI-инструмент
🧠 Более 1000 security-правил
🔄 Простая интеграция в CI/CD
📄 JSON / SARIF / HTML отчёты
🛠️ Кастомные правила
🌍 Активное сообщество
🔓 Полный open-source
Работает быстро, масштабируется без сюрпризов.

⚠️ Минусы (куда без них)

📚 Некоторые правила избыточно строгие
🧠 Нет понимания бизнес-контекста
Не заменяет SAST / DAST
🔧 Требует тюнинга под конкретную среду

Однако для инструмента ранней стадии это ожидаемо и нормально.

🔗 GitHub: https://github.com/Checkmarx/kics

Stay secure and read SecureTechTalks 📚

#KICS #IaC #DevSecOps #CloudSecurity #OpenSource #Terraform #Kubernetes #AppSec #ShiftLeft #SecureTechTalks
👍2
🧠⚛️ Квантовый ИИ против кибератак: хайп или рабочий инструмент?

Когда говорят о квантовых вычислениях в кибербезопасности, обычно рисуют две крайности:
🔮 «Квантовый компьютер взломает всё»
или
😒 «Это бесполезная игрушка для физиков»

Но что если квантовые технологии уже сейчас могут чуть-чуть, но стабильно улучшать детектирование атак в реалистичных условиях?

🎯 Проблематика SOC

Современные системы детектирования атак живут в крайне нестабильной среде:
📉 Дрейф данных: сетевой трафик и поведение пользователей постоянно меняются
⚖️ Дисбаланс классов: атак мало, легитимных событий много
🎭 Пограничные случаи: атака выглядит почти как нормальное поведение
🧱 Жёсткие бюджеты: по признакам, latency и вычислениям

Даже хорошо настроенные ML-модели пропускают редкие атаки или начинают генерировать ложные срабатывания.

Ключевой вопрос:
👉 Можно ли улучшить границу принятия решений, не раздувая модель и инфраструктуру?

⚛️ Квантовая польза

Важное уточнение:
квантовые компьютеры не ускоряют ML «в лоб»
они не заменяют нейросети
они шумные, маленькие и ограниченные
Но у них есть одно интересное свойство 👇

Квантовые схемы умеют строить очень сложную геометрию разделяющей поверхности, используя минимальное число параметров и крайне компактное представление признаков. Для этого требуется всего несколько кубитов.

И дело не в скорости, а в форме decision boundary.

🧩 Архитектура

Вместо попытки «засунуть всё в квантовый компьютер» можно использовать гибридный подход:
🔹 Шаг 1. Классический ML
Компактная классическая модель:
- сжимает исходные данные
- устраняет шум
- формирует низкоразмерное, устойчивое представление

💡 Квантовая часть получает уже осмысленные признаки.

🔹 Шаг 2. Квантовая «голова» (2–4 кубита)
Дальше возможны два сценария.

🧠 Квантовое ядро + SVM
- квантовая схема строит нелинейное ядро
- классический SVM ищет оптимальную границу
- квантовая часть не обучается
- высокая стабильность и низкая чувствительность к шуму

🧪 Обучаемый квантовый классификатор
- параметризованная квантовая схема
обучается вместе с классической частью
- больше выразительности
выше риск нестабильности и деградации

📊 Что дают квантовые модели на практике

Квантовые модели:
не уничтожают классические
не дают кратного прироста accuracy
Но:
лучше ведут себя на пограничных случаях
чуть реже пропускают редкие атаки
чуть меньше ложных срабатываний
сохраняют компактность модели
Учитываем простоту:
- несколько кубитов
с неглубокими схемами
- нет роста числа признаков

🧠 Подведём итоги

1️⃣ Квантовый ML уже можно рассматривать как узкоспециализированный модуль, а не игрушку
2️⃣ Он полезен точечно, а не повсеместно:
- редкие атаки
- сложные границы
- строгие ресурсные ограничения
3️⃣ Гибридная архитектура обязательна
4️⃣ Фиксированные квантовые ядра сейчас практичнее, чем полностью обучаемые схемы

🔗 Больше подробностей можно найти в статье.

Stay secure and read SecureTechTalks 📚

#кибербезопасность
#quantumML
#машинноеобучение
#информационнаябезопасность
#IDS
#SOC
#AIsecurity
#квантовыевычисления
#anomalydetection
#SecureTechTalks
👍1
🤖📊 Отчёт CSA: AI Governance, как фактор выживания

В 2025 году организации уже не просто пробуют ИИ, а внедряют его в продакшн.
Проблема в том, что скорость внедрения ИИ сильно опережает зрелость AI Governance.

CSA выпустили новый отчет, который основан на глобальном опросе IT- и ИБ-профессионалов (≈300 организаций), которых спрашивали не только о технологиях, но и о структурах AI Governance, ответственности за AI-риски и уровне подготовки команд.

Главный вывод исследования:
👉 Зрелый AI Governance самый сильный предиктор готовности компании к безопасному внедрению ИИ.

Не важно какой размер или бюджет у вашей компании. Важно иметь зрелый Governance.

📈 1. Множитель зрелости

Что такое зрелый AI Governance на практике?
Это рабочая система управления, которая включает:
- чёткие роли и зоны ответственности,
- политики использования ИИ,
- контроль жизненного цикла моделей,
- процедуры оценки рисков,
обучение сотрудников.

🔥 Согласно отчёту, организации с формализованным AI Governance:
в 2 раза чаще внедряют agentic AI, чаще проводят security-оценку моделей,
говорят о способности управлять AI-рисками.

Компании, где Governance «в процессе развития», стабильно проигрывают по всем этим параметрам.

🛡️ 2. Безопасность ИИ

CSA подчёркивает ключевую мысль:
AI Security - это не только защита данных или моделей.
Это управление процессами, людьми и ответственностью.


Без AI Governance невозможно:
- понять, где именно используется ИИ,
- определить, кто отвечает за последствия его работы,
- встроить AI-риски в общую систему управления ИБ.

🧑‍💼 3. Shadow AI

Отдельный тревожный сигнал - Shadow AI.
Сотрудники используют внешние ИИ-сервисы без согласования и контроля.

Это приводит к:
⚠️ утечкам данных,
⚠️ невозможности аудита,
⚠️ регуляторным рискам.

Именно зрелый AI Governance позволяет превратить хаотичное использование ИИ в контролируемый и безопасный процесс, не убивая инновации.

👨‍💼 4. Кадровый разрыв

ИИ внедряется быстро, а навыки сотрудников медленно.

Отчёт фиксирует:
нехватку специалистов по AI Security и слабую подготовку ИБ-команд. Возникает разрыв между стратегией и реальными процессами.

Организации с развитым AI Governance:
в 2–3 раза чаще обучают сотрудников, интегрируют AI-риски в SDLC, переводят знания в практику.

📊 5. Какие риски беспокоят компании больше всего?

По данным опроса:
🔹 №1 риск утечки данных через AI-сервисы
🔹 Модельные атаки и отравление данных воспринимаются как второстепенные

Компании недооценивают сложные и долгосрочные AI-угрозы.
🔁 AI Security больше не «поддержка», а драйвер

Интересный сдвиг:
👉 ИБ-команды больше не догоняют ИИ, они начинают его возглавлять.
Более 90% специалистов:
тестируют ИИ для threat detection, используют ИИ в red teaming, автоматизируют SOC-процессы.

AI Governance становится не тормозом, а инструментом масштабирования безопасности.

🔗 Отчет Cloud Security Alliance "The State of AI Security and Governance Survey Report (2025)"

Stay secure and read SecureTechTalks 📚

#AIsecurity #AIGovernance #CyberSecurity #AIrisks #SecureTechTalks #CloudSecurity #AgenticAI #ShadowAI #CyberTrends2025
👍1
Channel photo updated
💥 La Poste под DDoS: как «трафик» положил национальную почту Франции

18–19 декабря 2025 года. Предновогодний пик. Миллионы посылок в пути, платежи, мобильное приложение, курьеры на самокатах. Что может пойти не так?

ВСЁ Инфраструктура французской госпочты La Poste в самый неподходящий момент начинает сыпаться.

Сначала ошибки в трекинге и недоступные платежи, потом полный абзац: недоступность мобильного приложения и внутренних системы курьеров.

⏱️ 18+ часов простоя
👥 2+ млн пользователей
📦 ~1,5 млн задержанных отправлений
💸 €12–15 млн прямого ущерба

Вот так злоумышленники поздравляют с наступающими праздниками 😱

🧠 Механика атаки

Атака состояла из двух слоёв, комбинация которых оказалась фатальной.

🌊 Первый слой L3/L4
NTP / DNS / SSDP amplification
SYN/ACK floods с IP spoofing
ботнет из ~200 тыс. IoT-устройств
пиковая нагрузка ≈ 620 Gbps

Firewall’ы и edge-устройства начали терять состояние соединений ещё до того, как трафик дошёл до приложений.

🧬 Второй слой L7
HTTP/2 Slow POST / GET
Slowloris / RUDY
cache busting
атаки через WebSocket

Трафика было немного, но:
соединения держались десятки секунд, worker pools истощались, а event loop’ы блокировались.

📉 В результате 503 на почти все запросы, даже при «нормальном» входящем объёме.

🕵️ Что пошло не так у La Poste?

Из открытых данных и утечек в профильных медиа вырисовывается картина системных проблем:
не было always-on DDoS scrubbing
трафик шёл напрямую на origin
отсутствовал Anycast и BGP-очистка
load balancer стал узким местом
API перегрузили backend и базы данных
мониторинг не отработал аномалию вовремя

Один перегруженный слой запустил каскадный отказ всей цепочки сервисов, почти, как снежный ком...

🇷🇺 В РФ такое невозможно?

Если заменить La Poste на Почту России, СДЭК, Boxberry, Ozon / Wildberries то по факту архитектурный риск останется тем же:
публичные /track и /status
сезонные пики (особенно Q4)
дешёвые DDoS-for-hire сервисы

По статистике провайдеров защиты, в четвёртом квартале DDoS-активность растёт в 3–4 раза, и атакуют именно логистику и e-commerce.

🧠 Мысли вслух

Современный DDoS является инструментом точечного удушения бизнеса в самые чувствительные моменты. Он дешёвый для атакующего, дорогой для компании и особенно опасен для high-traffic инфраструктур.

🔗 Источники

SecurityWeek — https://www.securityweek.com
Breached / Digital Siege — https://breached.company/seven-days-of-digital-siege-inside-this-weeks-ransomware-explosion/

Stay secure and read SecureTechTalks 📚

#DDoS #LaPoste #CyberSecurity #SecureTechTalks #InfoSec #DDoSProtection #SOC #InfrastructureSecurity #EcommerceSecurity #IncidentResponse
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🧠 ИИ и оценка уязвимостей: революция или скам?

Исследователи проверили, могут ли современные большие языковые модели независимо оценивать уязвимости, то есть определять их критичность по описанию.

📊 Как тестировали?

Команда прогнала 31 000+ CVE-описаний через шесть крупных LLM:
GPT-4o
GPT-5
Llama 3.3
Gemini 2.5 Flash
DeepSeek R1
Grok 3

❗️Модели оценивали исключительно текст описания уязвимости. Им не давали:
названия продуктов,
версий ПО,
идентификаторы CVE,
данные поставщиков

Это было сделано специально, чтобы исключить «поиск по шаблону» и заставить ИИ логически рассуждать на основе текста.

То есть задача была не просто прочитать описание, а воссоздать ключевые метрики CVSS, которые определяют приоритет реагирования на уязвимость.

🧩 Где ИИ эффективен?

Модели показали лучшие результаты там, где язык описания был прямолинейным и содержал явные сигналы:
🔹 Attack Vector (находится ли уязвимость в сети или локально). Примерно 89% точности у Gemini и GPT-5.
🔹 User Interaction (нужен ли пользовательский ввод/клик для эксплуатации). Схожие результаты.

Такие аспекты часто прямо указаны в описаниях CVE.

Кроме того:
🔸 Confidentiality Impact (угроза утечки данных) и
🔸 Integrity Impact (изменение данных)
тоже были оценены достаточно успешно. GPT-5 показывал 70+ % точности здесь.
👉 То есть когда модель видит явные сигналы в тексте, она может прилично предсказывать, что именно представляет собой уязвимость. Это может помочь аналитикам быстро отсеивать тривиальные случаи.

😬 Где ИИ слаб

Явные ограничения:
Availability Impact (влияние на доступность системы). Результаты чуть ниже (≈68 % у GPT-5), потому что описания редко точно объясняют, насколько нарушение службы критично.
Privileges Required (необходимые привилегии). Модели путают «отсутствие» и «низкий уровень», потому что тексты часто не содержат чётких указаний.
Attack Complexity  предугадывается плохо, в основном из-за перекоса данных в сторону «низкой сложности».
📌 Анализ ошибок также показал:
29 % CVE были неправильно оценены всеми моделями одновременно по Availability Impact.

В других метриках 4 из 6 моделей согласовывались в неправильных ответах до 36 % случаев, что говорит о систематической ошибке, а не случайности.

🤝 Ансамбли моделей

Исследователи попробовали объединить предсказания всех шести моделей в meta classifier. Это дало небольшие улучшения, но не решило фундаментальной проблемы:
отсутствие информации в описании всё ещё мешает точному пониманию угрозы.

🧠 Контекст наше всё

Самый важный вывод исследования:
👉 LLM могут быть полезны для предварительной оценки, но на текущий момент они не заменят человека или полноценные системы анализа контекста и метаданных.

🔗 Оригинал исследования: LLMs can assist with vulnerability scoring, but context still matters.

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIsecurity #LLMs #CVE #VulnerabilityAssessment #CyberSecurity #Infosec #AIinSec #ThreatIntel #ContextMatters #AutomationLimits #CyberResearch
👍2🔥1
🚀 Superagent: как защитить ваши ИИ-агенты от взлома, ошибок и утечек данных

ИИ-агенты - это движки  автоматизации, RAG-конвейеры, workflow с внешними инструментами, критические бизнес-процессы. Но они имеют свои уязвимости и вектора атак, такие как:
🔓 prompt injection
⚠️ unsafe tool calls
🧠 model hallucinations
🔒 утечка PII/PHI и секретов

Сегодня мы разберём продукт Superagent, который помогает перевести риски в контролируемую среду.

🛡 Что такое Superagent?

Superagent - это open-source платформа ( 6.3k на GitHub) с целевыми guardrail-моделями. Решение позволяет:
✔️ обнаруживать потенциальные и реальные угрозы
✔️ проводить валидацию выходов LLM
✔️ редактировать чувствительные данные

Инструмент работает в реальном времени, с минимальной задержкой.

🧠 Основные компоненты

🔹 Guard: защита входных данных
- ловит prompt-инъекции
- блокирует опасные запросы
- предотвращает вредоносные tool-вызовы

🔹 Verify: проверка выходов
- сопоставляет ответы моделей с корпоративными источниками
- фильтрует галлюцинации
- проверяет соответствие политике

🔹 Redact: автоматическое удаление чувствительных данных
- PII/PHI/секреты
- можно настроить режим placeholder или переписывания

Внутренние модели работают как отдельные API, но могут быть собраны в мощную guardrail-цепочку для обеспечения безопасности всего AI-workflow’а.

🛠 Какие проблемы решает?

Superagent закрывает реальные практические кейсы:
🔥 Защита ИИ-асистентов и чат-ботов от prompt-инъекций и взлома
🏢 Корпоративные пайплайны: проверка ответов перед публикацией/использованием
📊 Обработка данных и логов с автоматическим redaction
🤖 Мониторинг автономных агентов: контролирует безопасные действия перед выполнением
📜 Автоматизация соответствия стандартам (GDPR, NIST, EU AI Act и др.)

⚙️ Интеграция и использование

Superagent можно внедрить в любой стек.

🧩 API-интеграция отправляете запросы и получаете безопасные результаты
🐍 SDK (Python / TypeScript) встроить напрямую в код
💻 CLI-инструмент для аудит-скриптов или локального анализа
☁️ Hosted или self-hosted гибкий выбор инфраструктуры

Проект включает:

📦 модульный SDK
🛡 low-latency защиту
🔄 независимость от LLM-провайдера
🧠 готовые паттерны для встраивания в workflow

Superagent совместим с любыми моделями и фреймворками от OpenAI до Anthropic, от RAG-сетапов до кастомных агентов.

🔗 Ссылка на GitHub: https://github.com/superagent-ai/superagent

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIsecurity #OpenSource #Superagent #Guardrails #PromptInjection
#AIDefense #Compliance #LLMSecurity #CyberAI #DevSecOps #AIagents
👍3