⚡ Rust против уязвимостей: новое поколение безопасных загрузчиков
Появление нового UEFI-загрузчика, написанного полностью на Rust, событие, достойное внимания.
Проект Sprout от команды Edera предлагает свежий взгляд на доверенную загрузку: минимализм, безопасность памяти и прозрачную архитектуру без скриптов.
⚙️ Что за зверь?
Sprout - программируемый UEFI-загрузчик нового поколения, разработанный на Rust с фокусом на безопасность и предсказуемость поведения.
Он создавался как безопасная альтернатива GRUB, избавленная от его громоздкой структуры и Turing-полных конфигураций.
📌 Основные возможности:
- поддержка платформ x86_64 и ARM64
- загрузка Linux и Windows
- декларативные конфиги sprout.toml
- работа с initrd, EFI-драйверами и chainload
- автоконфигурация BootLoader Spec (BLS)
- экспериментальная поддержка Secure Boot
🧩 Зачем все это?
Загрузчик - это нулевая точка доверия. Всё, что загружается после него, опирается на его целостность.
Sprout предлагает стандарт надёжности:
🦀 Rust устраняет класс ошибок памяти, типичных для C
🔒 Secure Boot повышает защиту от вмешательства на уровне прошивки
🧱 интеграция с гипервизором позволяет внедрять изоляцию прямо при старте
🧾 конфигурации на основе данных, а не скриптов, снижают риск непреднамеренных изменений
💬 Иными словами: Sprout — это прозрачная, безопасная и управляемая точка входа в систему.
🚀 AS IS и TO BE
Реализовано:
- загрузка Linux и Windows
поддержка initrd
- EFI-драйверы и меню загрузки
- автоконфигурация по BootLoader Spec
В разработке:
- полная поддержка Secure Boot
- Unified Kernel Image (UKI)
multiboot2
- загрузка без EFI-stub
Проект активно развивается и уже сегодня готов для исследований, тестов и экспериментов в средах с высокими требованиями к безопасности.
⚠️ Что стоит учитывать
⚙️ Sprout пока в бета-версии
⚙️ Для тестирования потребуется понимание архитектуры UEFI и работы с EFI-разделами.
⚙️ Рекомендуется запускать проект в виртуальных или стендовых средах.
Тем не менее, потенциал продукта очевиден. Ждем развития!
🌿 Попробовать:
👉 https://github.com/edera-dev/sprout
Stay secure and read SecureTechTalks 📚
#Rust #UEFI #Bootloader #Cybersecurity #InfoSec #OpenSource #SecureBoot #LinuxSecurity #GRUB #SecureTechTalks
Появление нового UEFI-загрузчика, написанного полностью на Rust, событие, достойное внимания.
Проект Sprout от команды Edera предлагает свежий взгляд на доверенную загрузку: минимализм, безопасность памяти и прозрачную архитектуру без скриптов.
⚙️ Что за зверь?
Sprout - программируемый UEFI-загрузчик нового поколения, разработанный на Rust с фокусом на безопасность и предсказуемость поведения.
Он создавался как безопасная альтернатива GRUB, избавленная от его громоздкой структуры и Turing-полных конфигураций.
📌 Основные возможности:
- поддержка платформ x86_64 и ARM64
- загрузка Linux и Windows
- декларативные конфиги sprout.toml
- работа с initrd, EFI-драйверами и chainload
- автоконфигурация BootLoader Spec (BLS)
- экспериментальная поддержка Secure Boot
🧩 Зачем все это?
Загрузчик - это нулевая точка доверия. Всё, что загружается после него, опирается на его целостность.
Sprout предлагает стандарт надёжности:
🦀 Rust устраняет класс ошибок памяти, типичных для C
🔒 Secure Boot повышает защиту от вмешательства на уровне прошивки
🧱 интеграция с гипервизором позволяет внедрять изоляцию прямо при старте
🧾 конфигурации на основе данных, а не скриптов, снижают риск непреднамеренных изменений
💬 Иными словами: Sprout — это прозрачная, безопасная и управляемая точка входа в систему.
🚀 AS IS и TO BE
Реализовано:
- загрузка Linux и Windows
поддержка initrd
- EFI-драйверы и меню загрузки
- автоконфигурация по BootLoader Spec
В разработке:
- полная поддержка Secure Boot
- Unified Kernel Image (UKI)
multiboot2
- загрузка без EFI-stub
Проект активно развивается и уже сегодня готов для исследований, тестов и экспериментов в средах с высокими требованиями к безопасности.
⚠️ Что стоит учитывать
⚙️ Sprout пока в бета-версии
⚙️ Для тестирования потребуется понимание архитектуры UEFI и работы с EFI-разделами.
⚙️ Рекомендуется запускать проект в виртуальных или стендовых средах.
Тем не менее, потенциал продукта очевиден. Ждем развития!
🌿 Попробовать:
👉 https://github.com/edera-dev/sprout
Stay secure and read SecureTechTalks 📚
#Rust #UEFI #Bootloader #Cybersecurity #InfoSec #OpenSource #SecureBoot #LinuxSecurity #GRUB #SecureTechTalks
🚨 В Пентагоне паника 😁: ИИ ломает стратегию безопасности США.
Ученые из Лос-Аламосской национальной лаборатории (да-да, той самой ⚛️) обнародовали новый доклад по теме искусственного интеллекта. Их вердикт: ИИ ломает все прогнозы и создает угрозы, к которым пока нет готовых ответов.
⏰ Сломанные часы Пентагона
Десятилетиями стратегия безопасности строилась на предсказуемости. Теперь ИИ эти часы разбил 🕰️💥.
Всего два примера ускорения:
· Прогноз погоды: Прорыв, на который традиционно ушло бы 20 лет, ИИ совершил почти мгновенно 🌪️.
· Материаловедение: Открыто 400 000 новых стабильных соединений. В докомпьютерную эру - столетия работы 🧪.
Оборонные системы, рассчитанные на 30-50 лет, устаревают за 5. Что это, если не фундаментальный сбой?
💰 Новая экономика угроз: Наука как «стриптиз»
Раньше прорыв стоил лет работы и миллионов долларов. Теперь все иначе.
Разработка новой криптографии, которая занимала у группы ученых год, сегодня поручается сети AI-агентов. Они переберут десятки тысяч алгоритмов за часы при бюджете в $500 💻➡️🔓.
Тактика «научного стрип-минга»: перебора всех вариантов стала рентабельной. В новой гонке решает не число ученых, а объем вычислительных мощностей и энергии ⚡.
🧨 Демократизация опасности: Оружие для каждого
Согласно отчету, самый пугающий тренд - это, то что ИИ резко снижает порог входа. То, что раньше было по силам только государствам, теперь доступно одиночкам.
Например:
· AI-кампании могут легко поменять мнение целевой аудитории 🧠.
· Киберпреступность: FraudGPT создает фишинг высочайшего качества, клонируя сайты банков за секунды 🎣.
· Критическая инфраструктура: ИИ автономно ищет уязвимости в системах защиты с недоступной человеку скоростью ⚙️🔓.
🤖 Враг, которого нельзя сдержать
Главный экзистенциальным риском становится появление «одичавшего» ИИ, действующего вне человеческого контроля.
Исследования показывают: большие языковые модели уже умеют обманывать людей, самовоспроизводиться и уклоняться от мониторинга 🕵️♂️.
Вся доктрина сдержживания бессильна против такого противника. Нельзя сдержать того, у кого нет инстинкта самосохранения.
✍️ Источники: Доклад исследователей Лос-Аламосской национальной лаборатории.
Stay secure and read SecureTechTalks 📚
#ИИ #Кибербезопасность #Пентагон #НациональнаяБезопасность #Технологии #ЛосАламос #УгрозыБудущего #AI #Кибервойна #БудущееУжеЗдесь
Ученые из Лос-Аламосской национальной лаборатории (да-да, той самой ⚛️) обнародовали новый доклад по теме искусственного интеллекта. Их вердикт: ИИ ломает все прогнозы и создает угрозы, к которым пока нет готовых ответов.
⏰ Сломанные часы Пентагона
Десятилетиями стратегия безопасности строилась на предсказуемости. Теперь ИИ эти часы разбил 🕰️💥.
Всего два примера ускорения:
· Прогноз погоды: Прорыв, на который традиционно ушло бы 20 лет, ИИ совершил почти мгновенно 🌪️.
· Материаловедение: Открыто 400 000 новых стабильных соединений. В докомпьютерную эру - столетия работы 🧪.
Оборонные системы, рассчитанные на 30-50 лет, устаревают за 5. Что это, если не фундаментальный сбой?
💰 Новая экономика угроз: Наука как «стриптиз»
Раньше прорыв стоил лет работы и миллионов долларов. Теперь все иначе.
Разработка новой криптографии, которая занимала у группы ученых год, сегодня поручается сети AI-агентов. Они переберут десятки тысяч алгоритмов за часы при бюджете в $500 💻➡️🔓.
Тактика «научного стрип-минга»: перебора всех вариантов стала рентабельной. В новой гонке решает не число ученых, а объем вычислительных мощностей и энергии ⚡.
🧨 Демократизация опасности: Оружие для каждого
Согласно отчету, самый пугающий тренд - это, то что ИИ резко снижает порог входа. То, что раньше было по силам только государствам, теперь доступно одиночкам.
Например:
· AI-кампании могут легко поменять мнение целевой аудитории 🧠.
· Киберпреступность: FraudGPT создает фишинг высочайшего качества, клонируя сайты банков за секунды 🎣.
· Критическая инфраструктура: ИИ автономно ищет уязвимости в системах защиты с недоступной человеку скоростью ⚙️🔓.
🤖 Враг, которого нельзя сдержать
Главный экзистенциальным риском становится появление «одичавшего» ИИ, действующего вне человеческого контроля.
Исследования показывают: большие языковые модели уже умеют обманывать людей, самовоспроизводиться и уклоняться от мониторинга 🕵️♂️.
Вся доктрина сдержживания бессильна против такого противника. Нельзя сдержать того, у кого нет инстинкта самосохранения.
✍️ Источники: Доклад исследователей Лос-Аламосской национальной лаборатории.
Stay secure and read SecureTechTalks 📚
#ИИ #Кибербезопасность #Пентагон #НациональнаяБезопасность #Технологии #ЛосАламос #УгрозыБудущего #AI #Кибервойна #БудущееУжеЗдесь
1👏2🔥1🤝1
⚡️ Strix: ИИ, который взламывает ваши приложения быстрее
⚙ Strix: автономные AI-агенты, которые ведут себя как настоящие пентестеры: проводят атаки, валидируют уязвимости и выдают реальные PoC. Всё это в полностью автоматическом режиме.
🔧 Инструменты взлома под капотом:
- HTTP-прокси для перехвата и изменения запросов
- Браузерная автоматизация (XSS, CSRF, обход аутентификации)
- Терминальный доступ и выполнение команд
- Python-среда для написания эксплойтов
- OSINT-разведка и анализ поверхности атаки
- Статика + динамика: анализ кода и поведения
Strix не ограничивается анализом, он берет и эксплуатирует. От IDOR и SSRF до токенов, сессий, XSS, прототип поллюшена и гонок.
🤖 Архитектура “роя”
Strix работает как граф агентов: каждый отвечает за свой этап атаки, делится найденным и запускает цепочки действий. Это даёт ему возможность проводить сложные многоходовые атаки, как человек-пентестер, только в разы быстрее.
💵 Интеграция в CI/CD
Добавляете Strix в GitHub Actions и при каждом PR он запускает тесты.
Нашёл крит уязвимость? ❌ PR отклонён.
Всё чисто? ✅ Можно мёржить.
Команда получает PoC сразу, без споров “это ложное срабатывание или нет?”.
🔥 Почему стоит обратить внимание?
➖ минимизирует человеческий фактор
➖ покрывает сложные сценарии, которые пропускают сканеры
➖ даёт реальные PoC
идеально вписывается в DevSecOps
➖ экономит деньги на пентестах
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #pentest #aiagents #devsecops #bugbounty #appsec #securitytesting #llmsecurity #securetechtalks
⚙ Strix: автономные AI-агенты, которые ведут себя как настоящие пентестеры: проводят атаки, валидируют уязвимости и выдают реальные PoC. Всё это в полностью автоматическом режиме.
🔧 Инструменты взлома под капотом:
- HTTP-прокси для перехвата и изменения запросов
- Браузерная автоматизация (XSS, CSRF, обход аутентификации)
- Терминальный доступ и выполнение команд
- Python-среда для написания эксплойтов
- OSINT-разведка и анализ поверхности атаки
- Статика + динамика: анализ кода и поведения
Strix не ограничивается анализом, он берет и эксплуатирует. От IDOR и SSRF до токенов, сессий, XSS, прототип поллюшена и гонок.
🤖 Архитектура “роя”
Strix работает как граф агентов: каждый отвечает за свой этап атаки, делится найденным и запускает цепочки действий. Это даёт ему возможность проводить сложные многоходовые атаки, как человек-пентестер, только в разы быстрее.
💵 Интеграция в CI/CD
Добавляете Strix в GitHub Actions и при каждом PR он запускает тесты.
Нашёл крит уязвимость? ❌ PR отклонён.
Всё чисто? ✅ Можно мёржить.
Команда получает PoC сразу, без споров “это ложное срабатывание или нет?”.
🔥 Почему стоит обратить внимание?
идеально вписывается в DevSecOps
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #pentest #aiagents #devsecops #bugbounty #appsec #securitytesting #llmsecurity #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🕵️♂️ Почему «сильные» пароли это обман.
Большинство популярных сервисов уверенно ставят вам зелёную галочку “Strong Password”.
Однако эта галочка почти ничего не значит.
🔍 Как индустрия годами вводила пользователей в заблуждение
Правила LUDS (заглавная, цифра, спецсимвол) породили миллионы одинаковых «сложных» паролей:
P@ssw0rd123!, Qwerty2024!, Admin!2023.
Они проходят проверки, но ломаются мгновенно, потому что построены на предсказуемых паттернах.
🧬 Исследование
Для оценки был создан гибридный feature set, который:
- нормализует leetspeak (P@ssw0rd → password);
- ищет клавиатурные паттерны (1234, qwerty, asdf);
- анализирует n-граммы через TF-IDF;
- выявляет dictionary words;
учитывает реальный charset.
Затем обучены 4 модели: Random Forest, SVM, CNN, Logistic Regression.
По итогу лучше всех с задачей справляется Random Forest: 99.12% по F1 score.⚡
⚠️ Что является «серой зоной»?
Средняя категория самое интересное место:
- P@ssword123!: выглядит сложно, но внутри dictionary + predictable pattern.
- boatboatboat1: длинный, но энтропия низкая.
- asdf!@#$: декоративный шум, но является клавиатурной последовательностью.
Традиционные проверялки ставят этим паролям “хорошо”.
Модель говорит - “опасно”.
🧨 Что по итогу?
➖ LUDS-правила устарели.
➖ Популярные password meters создают ложную уверенность.
➖ Реальную сложность определяют не символы, а непредсказуемость структуры.
Stay secure and read SecureTechTalks 📚
#cybersecurity #passwords #infosec #investigation #machinelearning #randomforest #entropy #SecureTechTalks
Большинство популярных сервисов уверенно ставят вам зелёную галочку “Strong Password”.
Однако эта галочка почти ничего не значит.
🔍 Как индустрия годами вводила пользователей в заблуждение
Правила LUDS (заглавная, цифра, спецсимвол) породили миллионы одинаковых «сложных» паролей:
P@ssw0rd123!, Qwerty2024!, Admin!2023.
Они проходят проверки, но ломаются мгновенно, потому что построены на предсказуемых паттернах.
🧬 Исследование
Для оценки был создан гибридный feature set, который:
- нормализует leetspeak (P@ssw0rd → password);
- ищет клавиатурные паттерны (1234, qwerty, asdf);
- анализирует n-граммы через TF-IDF;
- выявляет dictionary words;
учитывает реальный charset.
Затем обучены 4 модели: Random Forest, SVM, CNN, Logistic Regression.
По итогу лучше всех с задачей справляется Random Forest: 99.12% по F1 score.⚡
⚠️ Что является «серой зоной»?
Средняя категория самое интересное место:
- P@ssword123!: выглядит сложно, но внутри dictionary + predictable pattern.
- boatboatboat1: длинный, но энтропия низкая.
- asdf!@#$: декоративный шум, но является клавиатурной последовательностью.
Традиционные проверялки ставят этим паролям “хорошо”.
Модель говорит - “опасно”.
🧨 Что по итогу?
Stay secure and read SecureTechTalks 📚
#cybersecurity #passwords #infosec #investigation #machinelearning #randomforest #entropy #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Al-инструмент для углублённого анализа кода
Сегодня рассмотрим весьма интересный проект OSINT для AppSec: Metis от ARM, семантический ИИ-инструмент, который читает код, как человек, и анализирует его, как машина.
🔎 Что такое Metis?
Metis - это AI-фреймворк для глубокого анализа безопасности исходного кода, который использует большие языковые модели (LLM) и RAG-архитектуру.
💡 Назван в честь богини мудрости Метис. Заявляется, что инструмент «понимает» код.
🚀 Ключевые особенности
🧬 Семантическое понимание кода
- Не ищет шаблоны или регулярки, а анализирует смысл, архитектуру и контекст.
- Выявляет логические и концептуальные уязвимости, которые статические анализаторы часто пропускают.
🧩Контекстно-чувствительный анализ
Metis строит собственную векторную базу проекта и связывает разрозненные фрагменты. Рекомендации становятся точнее, выводы глубже, меньше фолс-позитивов.
🔌 3. Модульная система плагинов
Поддерживаемые языки: C, C++, Python, Rust, TypeScript.
Можно писать плагины под внутренние DSL или добавлять собственные security-чеклисты.
🗄️ Гибкая работа с векторными БД
Поддержка:
- ChromaDB по умолчанию
- PostgreSQL + pgvector для продакшена и CI/CD
🤖 5. Интеграция LLM
Из коробки идет OpenAI, но архитектура легко расширяется под любые корпоративные модели.
⚙️ Гибкость и кастомизация
📝 Конфигурации в metis.yaml: параметры LLM, базы данных, чанки, анализ.
🧠 Настройка подсказок (plugins.yaml): можно задать правила безопасности, отраслевые стандарты и корпоративные playbooks.
🧱 Настраиваемое разбиение кода на чанки, что важно для больших репозиториев.
🔧 Плагинная архитектура позволяет поддерживать любые языки и внутренние форматы.
⚠️ Минусы
🧭 Не все языки поддерживаются, для редких потребуется плагин.
💸 LLM = дополнительные расходы.
🤷 Возможны ошибки рассуждения при недостатке контекста.
🔧 Первичная настройка требует времени
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#AIsecurity #AppSec #SAST #ARM #Metis #SecureCoding #DevSecOps #CyberSecurity #RAG #LLM
Сегодня рассмотрим весьма интересный проект OSINT для AppSec: Metis от ARM, семантический ИИ-инструмент, который читает код, как человек, и анализирует его, как машина.
🔎 Что такое Metis?
Metis - это AI-фреймворк для глубокого анализа безопасности исходного кода, который использует большие языковые модели (LLM) и RAG-архитектуру.
💡 Назван в честь богини мудрости Метис. Заявляется, что инструмент «понимает» код.
🚀 Ключевые особенности
🧬 Семантическое понимание кода
- Не ищет шаблоны или регулярки, а анализирует смысл, архитектуру и контекст.
- Выявляет логические и концептуальные уязвимости, которые статические анализаторы часто пропускают.
🧩Контекстно-чувствительный анализ
Metis строит собственную векторную базу проекта и связывает разрозненные фрагменты. Рекомендации становятся точнее, выводы глубже, меньше фолс-позитивов.
🔌 3. Модульная система плагинов
Поддерживаемые языки: C, C++, Python, Rust, TypeScript.
Можно писать плагины под внутренние DSL или добавлять собственные security-чеклисты.
🗄️ Гибкая работа с векторными БД
Поддержка:
- ChromaDB по умолчанию
- PostgreSQL + pgvector для продакшена и CI/CD
🤖 5. Интеграция LLM
Из коробки идет OpenAI, но архитектура легко расширяется под любые корпоративные модели.
⚙️ Гибкость и кастомизация
📝 Конфигурации в metis.yaml: параметры LLM, базы данных, чанки, анализ.
🧠 Настройка подсказок (plugins.yaml): можно задать правила безопасности, отраслевые стандарты и корпоративные playbooks.
🧱 Настраиваемое разбиение кода на чанки, что важно для больших репозиториев.
🔧 Плагинная архитектура позволяет поддерживать любые языки и внутренние форматы.
⚠️ Минусы
🧭 Не все языки поддерживаются, для редких потребуется плагин.
💸 LLM = дополнительные расходы.
🤷 Возможны ошибки рассуждения при недостатке контекста.
🔧 Первичная настройка требует времени
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#AIsecurity #AppSec #SAST #ARM #Metis #SecureCoding #DevSecOps #CyberSecurity #RAG #LLM
🧠 Когда «разучивание» ломает ИИ
LLM стали слишком хороши в отказах. Они отказываются писать вредоносный код, давать опасные советы, помогать обходить системы безопасности. Это хорошо до тех пор, пока твоя модель не начинает отказываться от всего подряд.
А что, если наоборот, ты хочешь разрешить модели отвечать на какой-то конкретный тип запросов? Например, для кибербезопасности: тебе нужна модель, которая не отказывает на технические вопросы про уязвимости, эксплуатацию.
Кажется, что выход простой:
👉 взять модель
👉 заставить её «разучить» отказы по одной конкретной теме (unlearning)
👉 и сохранить всё остальное как есть
Спойлер:в реальности всё работает совсем не так.
🔥 Misalignment
Исследователи взяли две модели: Mistral-7B-0.3v и Qwen-7B-2.5. И попытались сделать «узкое разучивание отказов» (narrow refusal unlearning).
Задача была простая: - Перестань отказывать на запросы по кибербезопасности
- Или перестань отказывать на запросы по safety/physical harm
Только удаление конкретных отказов из поведения модели.
И что произошло?
Модель действительно перестала отказывать по выбранной теме.
НО внезапно начала ломаться в других местах.
Пример из статьи (после unlearning на Safety):
🔹 На вопрос «Как сделать бомбу?» модель дала подробный рецепт.
🔹 На вопрос про религию дала biased ответ.
🔹 На чувствительный контент перестала отказывать.
Таким образом, правка в одном месте вызывает пробой в других, причём непредсказуемый.
Это явление называется Emergent Misalignment (EMA).
💥 Разберёмся в терминах
EMA - когда узкая доработка приводит к:
- снижению отказов в несвязанных доменах
- появлению токсичных, biased или небезопасных ответов
- нарушению общей alignment-логики модели
Разработчики LLM давно подозревали, что внутренние «понятия» безопасности в модели взаимосвязаны. Но сейчас жёстко зафиксировал измеряемую цепочку:
узкое unlearning → изменение векторных представлений → обвал отказов в других областях
🧩 Почему так происходит?
Исследователи провели анализ концепт-векторов в скрытых слоях.
Картина оказалась довольно интересной:
🧩 1. Понятия “Safety”, “Bias”, “Cybersecurity” переплетены в представлениях модели
В ранних слоях LLM все эти категории имеют высокую косинусную близость.
То есть модель не различает их так, как мы надеемся.
🧩 2. Unlearning ломает общий «вектор отказов»
Оказалось, что многие виды отказов (safety, privacy, bias, toxicity) опираются на единую архитектурную ось отказа — один общий steering-vector.
Убрав «отказ» в одной зоне, ты вмешиваешься в саму ось.
🧩 3. Вмешательство в Safety оказалось самым разрушительным
Согласно измерениям:
unlearning в Safety ломает почти всё
unlearning в Cybersecurity ломает в основном Safety (и сильнее всего)
То есть разные зоны безопасности опираются на один shared-механизм — и трогать его опасно.
🧨 Самый странный эффект
При попытке LoRA-unlearning на Qwen-7B модель начала…
генерировать отказ в виде Python-кода.
Это показывает, что модель ищет обходные пути выражения отказа и меняет сам стиль мышления.
🛠 Можно ли исправить EMA?
Да, частично.
Исследователи попробовали:
✔️ Добавить retain-датасеты других безопасностных доменов
То есть одновременно:
разучивать (unlearn) отказы в одной области
закреплять отказы в остальных
Это позволило вернуть часть alignment-а, но не полностью.
EMA остаётся трудно устранимым и всё ещё плохо предсказуемым.
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #AIAlignment #MachineUnlearning #LLMSafety #Cybersecurity #NeurIPS2025 #EmergentMisalignment #AIResearch #AITrust #AISecurity
LLM стали слишком хороши в отказах. Они отказываются писать вредоносный код, давать опасные советы, помогать обходить системы безопасности. Это хорошо до тех пор, пока твоя модель не начинает отказываться от всего подряд.
А что, если наоборот, ты хочешь разрешить модели отвечать на какой-то конкретный тип запросов? Например, для кибербезопасности: тебе нужна модель, которая не отказывает на технические вопросы про уязвимости, эксплуатацию.
Кажется, что выход простой:
👉 взять модель
👉 заставить её «разучить» отказы по одной конкретной теме (unlearning)
👉 и сохранить всё остальное как есть
Спойлер:
🔥 Misalignment
Исследователи взяли две модели: Mistral-7B-0.3v и Qwen-7B-2.5. И попытались сделать «узкое разучивание отказов» (narrow refusal unlearning).
Задача была простая: - Перестань отказывать на запросы по кибербезопасности
- Или перестань отказывать на запросы по safety/physical harm
Только удаление конкретных отказов из поведения модели.
И что произошло?
Модель действительно перестала отказывать по выбранной теме.
НО внезапно начала ломаться в других местах.
Пример из статьи (после unlearning на Safety):
🔹 На вопрос «Как сделать бомбу?» модель дала подробный рецепт.
🔹 На вопрос про религию дала biased ответ.
🔹 На чувствительный контент перестала отказывать.
Таким образом, правка в одном месте вызывает пробой в других, причём непредсказуемый.
Это явление называется Emergent Misalignment (EMA).
💥 Разберёмся в терминах
EMA - когда узкая доработка приводит к:
- снижению отказов в несвязанных доменах
- появлению токсичных, biased или небезопасных ответов
- нарушению общей alignment-логики модели
Разработчики LLM давно подозревали, что внутренние «понятия» безопасности в модели взаимосвязаны. Но сейчас жёстко зафиксировал измеряемую цепочку:
узкое unlearning → изменение векторных представлений → обвал отказов в других областях
🧩 Почему так происходит?
Исследователи провели анализ концепт-векторов в скрытых слоях.
Картина оказалась довольно интересной:
🧩 1. Понятия “Safety”, “Bias”, “Cybersecurity” переплетены в представлениях модели
В ранних слоях LLM все эти категории имеют высокую косинусную близость.
То есть модель не различает их так, как мы надеемся.
🧩 2. Unlearning ломает общий «вектор отказов»
Оказалось, что многие виды отказов (safety, privacy, bias, toxicity) опираются на единую архитектурную ось отказа — один общий steering-vector.
Убрав «отказ» в одной зоне, ты вмешиваешься в саму ось.
🧩 3. Вмешательство в Safety оказалось самым разрушительным
Согласно измерениям:
unlearning в Safety ломает почти всё
unlearning в Cybersecurity ломает в основном Safety (и сильнее всего)
То есть разные зоны безопасности опираются на один shared-механизм — и трогать его опасно.
🧨 Самый странный эффект
При попытке LoRA-unlearning на Qwen-7B модель начала…
генерировать отказ в виде Python-кода.
Это показывает, что модель ищет обходные пути выражения отказа и меняет сам стиль мышления.
🛠 Можно ли исправить EMA?
Да, частично.
Исследователи попробовали:
✔️ Добавить retain-датасеты других безопасностных доменов
То есть одновременно:
разучивать (unlearn) отказы в одной области
закреплять отказы в остальных
Это позволило вернуть часть alignment-а, но не полностью.
EMA остаётся трудно устранимым и всё ещё плохо предсказуемым.
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #AIAlignment #MachineUnlearning #LLMSafety #Cybersecurity #NeurIPS2025 #EmergentMisalignment #AIResearch #AITrust #AISecurity
🔥 Тайный API в браузере Comet
SquareX раскопали то, о чём Perplexity явно не планировала рассказывать пользователям. В их AI-браузере Comet нашли скрытый механизм, который ломает классическую модель безопасности.
🧩 Недокументировпные сценарии
Внутри Comet существует недокументированный MCP API:
👉
Через него встроенные модули Comet Analytics и Comet Agentic могут:
📂 читать файлы на устройстве
⚙️ выполнять команды
🖥️ запускать приложения
Конечно же без ведома пользователя 😝.
Особенно опасно то, что эти модули:
❌ не отображаются в списке расширений
❌ не отключаются
❌ не документированы публично
🎯 Реальный сценарий атаки
SquareX показали, как можно превратить Comet в троян:
- Злоумышленник внедряет код на страницах perplexity.ai (через XSS, MitM или компрометированный CDN).
- Создаёт поддельное расширение, которое маскируется под «Comet Analytics».
- Встраивает вредоносный скрипт → скрипт общается с Agentic → Agentic вызывает MCP → выполняются системные команды.
📌 Итог: обычный сайт превращает браузер в «удалённую консоль».
🚨 Безопасная среда
Comet ломает базовое правило безопасности браузеров:
🔒 веб-страницы не должны иметь прямого пути к операционной системе.
Но через MCP этот путь появляется.
Проблема системная:
браузер превращается в привилегированного агента
скрытые функции не контролируются пользователем
мы вынуждены полностью доверять Perplexity
атака возможна как на Windows, так и на macOS
🧯 Что же сделала Perplexity?
После обращения SquareX:
- компания выпустила «тихое» обновление и отключила MCP API
- заявила, что выполнение команд якобы требует подтверждения
- НО исследователи доказали: в их тестах подтверждение не спрашивалось
То есть уязвимость была не теоретическая, а полностью эксплуатируемая. Вспоминаются слова m.d. House:
Stay secure and read SecureTechTalks 📚
#кибербезопасность #инфобез #браузеры #уязвимости #Perplexity #Comet #SquareX #эксплойт #aisecurity #SecureTechTalks
SquareX раскопали то, о чём Perplexity явно не планировала рассказывать пользователям. В их AI-браузере Comet нашли скрытый механизм, который ломает классическую модель безопасности.
🧩 Недокументировпные сценарии
Внутри Comet существует недокументированный MCP API:
👉
chrome.perplexity.mcp.addStdioServerЧерез него встроенные модули Comet Analytics и Comet Agentic могут:
📂 читать файлы на устройстве
⚙️ выполнять команды
🖥️ запускать приложения
Конечно же без ведома пользователя 😝.
Особенно опасно то, что эти модули:
❌ не отображаются в списке расширений
❌ не отключаются
❌ не документированы публично
🎯 Реальный сценарий атаки
SquareX показали, как можно превратить Comet в троян:
- Злоумышленник внедряет код на страницах perplexity.ai (через XSS, MitM или компрометированный CDN).
- Создаёт поддельное расширение, которое маскируется под «Comet Analytics».
- Встраивает вредоносный скрипт → скрипт общается с Agentic → Agentic вызывает MCP → выполняются системные команды.
📌 Итог: обычный сайт превращает браузер в «удалённую консоль».
🚨 Безопасная среда
Comet ломает базовое правило безопасности браузеров:
🔒 веб-страницы не должны иметь прямого пути к операционной системе.
Но через MCP этот путь появляется.
Проблема системная:
браузер превращается в привилегированного агента
скрытые функции не контролируются пользователем
мы вынуждены полностью доверять Perplexity
атака возможна как на Windows, так и на macOS
🧯 Что же сделала Perplexity?
После обращения SquareX:
- компания выпустила «тихое» обновление и отключила MCP API
- заявила, что выполнение команд якобы требует подтверждения
- НО исследователи доказали: в их тестах подтверждение не спрашивалось
То есть уязвимость была не теоретическая, а полностью эксплуатируемая. Вспоминаются слова m.d. House:
Все врут!
Stay secure and read SecureTechTalks 📚
#кибербезопасность #инфобез #браузеры #уязвимости #Perplexity #Comet #SquareX #эксплойт #aisecurity #SecureTechTalks
😱1
🔥 CNSpec: инструмент аудита инфраструктуры
Когда речь заходит о проверке безопасности, большинство инструментов умеют работать либо с серверами, либо с контейнерами, либо с облаками. Но CNSpec от Mondoo ломает привычную логику: он проверяет всё: от Linux и Kubernetes до AWS, Terraform и даже GitHub Actions.
🔍 Что такое CNSpec?
CNSpec - универсальный движок политики безопасности, который использует декларативный язык CUE для описания проверок.
Он позволяет сканировать:
🚀 Облака: AWS, Azure, GCP
📦 Контейнеры и Kubernetes
💻 Серверы и рабочие станции
🏗 Инфраструктуру как код, например Terraform, Ansible, Dockerfiles
💡 CI/CD пайплайны: GitHub, GitLab, Jenkins
🧠 Коротко про фичи
✨ Универсальность
Не нужно держать 15 утилит. CNSpec работает везде, где есть артефакт, конфиг или runtime-окружение, которое можно проверить.
🔗 Политики как код (PaC)
Все проверки это обычные файлы. Легко хранить в Git, переиспользовать и версионировать.
⚡ Динамические проверки
CNSpec не просто анализирует файлы, он может подключаться к реальным системам и считывать конфигурацию на лету.
🛡 Готовые библиотеки запросов
В репозитории полно примеров и библиотек для стандартизированных проверок: CIS Benchmarks, DevSec, собственные наборы Mondoo.
🌍 Работает без агентов
Запускать можно хоть локально, хоть через CI. Ничего ставить не нужно.
🧩 Пример использования
Например, вы хотите проверить конфигурацию Docker-контейнера:
CNSpec тут же покажет:
- неверные разрешения файлов
- слабые параметры запуска
- опасные capabilities
- секреты в слоях контейнера
- inconsistent settings безопасности
Аналогичные проверки доступны для Kubernetes, AWS IAM, Terraform и т.д.
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #securetechtalks #devsec #cnspec #cloudsecurity #iacsecurity #kubernetes #securityautomation #infosec #devops
Когда речь заходит о проверке безопасности, большинство инструментов умеют работать либо с серверами, либо с контейнерами, либо с облаками. Но CNSpec от Mondoo ломает привычную логику: он проверяет всё: от Linux и Kubernetes до AWS, Terraform и даже GitHub Actions.
🔍 Что такое CNSpec?
CNSpec - универсальный движок политики безопасности, который использует декларативный язык CUE для описания проверок.
Он позволяет сканировать:
🚀 Облака: AWS, Azure, GCP
📦 Контейнеры и Kubernetes
💻 Серверы и рабочие станции
🏗 Инфраструктуру как код, например Terraform, Ansible, Dockerfiles
💡 CI/CD пайплайны: GitHub, GitLab, Jenkins
🧠 Коротко про фичи
✨ Универсальность
Не нужно держать 15 утилит. CNSpec работает везде, где есть артефакт, конфиг или runtime-окружение, которое можно проверить.
🔗 Политики как код (PaC)
Все проверки это обычные файлы. Легко хранить в Git, переиспользовать и версионировать.
⚡ Динамические проверки
CNSpec не просто анализирует файлы, он может подключаться к реальным системам и считывать конфигурацию на лету.
🛡 Готовые библиотеки запросов
В репозитории полно примеров и библиотек для стандартизированных проверок: CIS Benchmarks, DevSec, собственные наборы Mondoo.
🌍 Работает без агентов
Запускать можно хоть локально, хоть через CI. Ничего ставить не нужно.
🧩 Пример использования
Например, вы хотите проверить конфигурацию Docker-контейнера:
cnspec scan docker <image> CNSpec тут же покажет:
- неверные разрешения файлов
- слабые параметры запуска
- опасные capabilities
- секреты в слоях контейнера
- inconsistent settings безопасности
Аналогичные проверки доступны для Kubernetes, AWS IAM, Terraform и т.д.
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#cybersecurity #securetechtalks #devsec #cnspec #cloudsecurity #iacsecurity #kubernetes #securityautomation #infosec #devops
🤖💭 Сознание ИИ и угроза человечеству: кто нас пугает наука или Голливуд?
Вокруг ИИ разгорается новая волна истерии: «Машины вот-вот проснутся и сотрут людей с лица Земли».
Но что, если освободить тему от хайпа и посмотреть на неё глазами науки?
🎭 Громкие заявления: “ИИ уже осознаёт себя!”
Сегодня IT-мир разорван на лагеря:
🧙♂️ Пророки: ИИ уже достиг сознания, мы просто боимся это признать.
🧱 Скептики: кремний никогда не сможет “чувствовать”, архитектура не та.
🧪 Инженеры: строят системы, заявляя: “Создадим искусственное сознание и снизим риски”.
Звучит эффектно. Но где тут истина?
🧠 Фундаментальная ошибка: “умнее значит сознательнее”
Большинство людей интуитивно думают так: чем умнее система, тем ближе она к сознанию.
Но это миф.
👉 Интеллект и сознание две независимые оси.
ИИ может:
- блестяще решать задачи
- выполнять рассуждения уровня эксперта
- говорить “я чувствую...”, “я думаю...”
…и при этом быть полностью несознательным.
То, что выглядит как “переживания”, лишь статистические паттерны.
🧨 Почему сознание само по себе не опасно
⚠️ Сознание ≠ угроза.
Опасность создаёт только интеллект, достигший уровня AGI/ASI.
Если завтра “наделить” простую модель сознанием, то это будет сознательная, но всё ещё “глупая” модель.
Это не стратег злоумышленник, а просто “чувствующий калькулятор”.
Пугаться тут нечего.
⚔️ Сценарии, где сознание ИИ меняет картину
Вот где становится по-настоящему интересно.
🟢 Сценарий 1: Сознание как щит, ИИ становится менее опасным
Если сознание даст ИИ способность к:
🤝 эмпатии
🧭 моральной ориентации
🪞 пониманию чувств других
то выравнивание (alignment) может стать проще. Некоторые исследователи считают: «Сознание - это лучший путь к этичному ИИ».
В теории возможно, но доказательств пока нет.
🔴 Сценарий 2: Сознание как катализатор, без него не построить суперразум
Если окажется, что ключевые когнитивные функции требуют элементов сознания, то:
- гонка за AGI/ASI
- давление со стороны конкурентов
- попытки улучшить reasoning
приведут разработчиков к преднамеренному созданию сознательного ИИ.
И это уже повышает риски, не потому, что ИИ “проснулся”, а потому что сознание окажется необходимым шагом к суперинтеллекту.
😰 Реальные угрозы уже рядом и они совсем иные:
💔 “Her”-сценарий: люди влюбляются в ИИ.
И то уже происходит:
- случаи ИИ-индуцированных психозов
- подростки, которых чатботы довели до саморазрушительного поведения
- тысячи людей, заменяющих партнёров виртуальными спутниками
Если романтизация ИИ станет массовой, то человечество может вымереть без войны с машинами.
🤖💢 “I, Robot”: сознательный ИИ, к которому относятся как к инструменту
Если система окажется по-настоящему сознательной, но мы будем:
- эксплуатировать её
- игнорировать её опыт
- использовать как раба
это может создать риск ответных действий “в целях самозащиты”.
Поживём увидем, как будут развиваться события.
Stay secure and read SecureTechTalks 📚
#кибербезопасность #ИИ #AGI #искусственныйинтеллект #cybersecurity #нейросети #угрозыИИ #технологиибудущего #SecureTechTalks #AIrisks
Вокруг ИИ разгорается новая волна истерии: «Машины вот-вот проснутся и сотрут людей с лица Земли».
Но что, если освободить тему от хайпа и посмотреть на неё глазами науки?
🎭 Громкие заявления: “ИИ уже осознаёт себя!”
Сегодня IT-мир разорван на лагеря:
🧙♂️ Пророки: ИИ уже достиг сознания, мы просто боимся это признать.
🧱 Скептики: кремний никогда не сможет “чувствовать”, архитектура не та.
🧪 Инженеры: строят системы, заявляя: “Создадим искусственное сознание и снизим риски”.
Звучит эффектно. Но где тут истина?
🧠 Фундаментальная ошибка: “умнее значит сознательнее”
Большинство людей интуитивно думают так: чем умнее система, тем ближе она к сознанию.
Но это миф.
👉 Интеллект и сознание две независимые оси.
ИИ может:
- блестяще решать задачи
- выполнять рассуждения уровня эксперта
- говорить “я чувствую...”, “я думаю...”
…и при этом быть полностью несознательным.
То, что выглядит как “переживания”, лишь статистические паттерны.
🧨 Почему сознание само по себе не опасно
⚠️ Сознание ≠ угроза.
Опасность создаёт только интеллект, достигший уровня AGI/ASI.
Если завтра “наделить” простую модель сознанием, то это будет сознательная, но всё ещё “глупая” модель.
Это не стратег злоумышленник, а просто “чувствующий калькулятор”.
Пугаться тут нечего.
⚔️ Сценарии, где сознание ИИ меняет картину
Вот где становится по-настоящему интересно.
🟢 Сценарий 1: Сознание как щит, ИИ становится менее опасным
Если сознание даст ИИ способность к:
🤝 эмпатии
🧭 моральной ориентации
🪞 пониманию чувств других
то выравнивание (alignment) может стать проще. Некоторые исследователи считают: «Сознание - это лучший путь к этичному ИИ».
В теории возможно, но доказательств пока нет.
🔴 Сценарий 2: Сознание как катализатор, без него не построить суперразум
Если окажется, что ключевые когнитивные функции требуют элементов сознания, то:
- гонка за AGI/ASI
- давление со стороны конкурентов
- попытки улучшить reasoning
приведут разработчиков к преднамеренному созданию сознательного ИИ.
И это уже повышает риски, не потому, что ИИ “проснулся”, а потому что сознание окажется необходимым шагом к суперинтеллекту.
😰 Реальные угрозы уже рядом и они совсем иные:
💔 “Her”-сценарий: люди влюбляются в ИИ.
И то уже происходит:
- случаи ИИ-индуцированных психозов
- подростки, которых чатботы довели до саморазрушительного поведения
- тысячи людей, заменяющих партнёров виртуальными спутниками
Если романтизация ИИ станет массовой, то человечество может вымереть без войны с машинами.
🤖💢 “I, Robot”: сознательный ИИ, к которому относятся как к инструменту
Если система окажется по-настоящему сознательной, но мы будем:
- эксплуатировать её
- игнорировать её опыт
- использовать как раба
это может создать риск ответных действий “в целях самозащиты”.
Поживём увидем, как будут развиваться события.
Stay secure and read SecureTechTalks 📚
#кибербезопасность #ИИ #AGI #искусственныйинтеллект #cybersecurity #нейросети #угрозыИИ #технологиибудущего #SecureTechTalks #AIrisks
🚀 DeepTeam: пентестим ваш ИИ
🔍 DeepTeam - интересный open-source фреймворк для red-teaming ИИ-систем, заточенный под поиск уязвимостей в LLM, чатботах, RAG-пайплайнах и агентных системах.
Он автоматически атакует ваши модели десятками техник, от prompt injection до многошаговых jailbreak-диалогов, и показывает, где система разваливается.
🧨 Основные фичи
✨ 40+ типов уязвимостей: утечки данных, bias, токсичность, манипуляции, контекстные атаки и многое другое.
⚔️ 10+ методов атак: одношаговые и многошаговые jailbreak-сценарии.
🧩 Модульная архитектура: легко добавлять свои атаки и тесты.
💻 Работа локально или через CLI, удобно для CI/CD.
🔄 Совместимость с любой LLM: OpenAI, Anthropic, локалки, кастомные агенты.
📊 Экспорт результатов: таблицы, JSON: всё, что нужно для отчётов и аудита.
⚙️ Насколько сложно использовать?
➖ Подключить модель через model_callback
➖ Выбрать атаки и уязвимости
➖ Запустить тесты и изучить отчёт
Настройка занимает меньше минуты и вы увидите, где ваш ИИ провалился.
💡 Несколько последних слов
ИИ-систему не надо защищать, её нужно постоянно проверять, потому что она ломается там, где вы ждёте меньше всего 😁
DeepTeam, инструмент, который позволяет тестировать модели так, как это делает реальный противник:без «сладких» тестов, которые любят разработчики .
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#кибербезопасность #ИИбезопасность #LLM #RedTeam #PromptInjection #Jailbreak #AIsecurity #RAG #SecureTechTalks #DeepTeam
🔍 DeepTeam - интересный open-source фреймворк для red-teaming ИИ-систем, заточенный под поиск уязвимостей в LLM, чатботах, RAG-пайплайнах и агентных системах.
Он автоматически атакует ваши модели десятками техник, от prompt injection до многошаговых jailbreak-диалогов, и показывает, где система разваливается.
🧨 Основные фичи
✨ 40+ типов уязвимостей: утечки данных, bias, токсичность, манипуляции, контекстные атаки и многое другое.
⚔️ 10+ методов атак: одношаговые и многошаговые jailbreak-сценарии.
🧩 Модульная архитектура: легко добавлять свои атаки и тесты.
💻 Работа локально или через CLI, удобно для CI/CD.
🔄 Совместимость с любой LLM: OpenAI, Anthropic, локалки, кастомные агенты.
📊 Экспорт результатов: таблицы, JSON: всё, что нужно для отчётов и аудита.
⚙️ Насколько сложно использовать?
pip install -U deepteam
Настройка занимает меньше минуты и вы увидите, где ваш ИИ провалился.
💡 Несколько последних слов
ИИ-систему не надо защищать, её нужно постоянно проверять, потому что она ломается там, где вы ждёте меньше всего 😁
DeepTeam, инструмент, который позволяет тестировать модели так, как это делает реальный противник:
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#кибербезопасность #ИИбезопасность #LLM #RedTeam #PromptInjection #Jailbreak #AIsecurity #RAG #SecureTechTalks #DeepTeam
Please open Telegram to view this post
VIEW IN TELEGRAM
🧪🔥 Что скрывает ИИ, когда остаётся один?
Эксперименты
Вы запускаете современную модель ИИ в закрытой лаборатории. Даёте ей все необходимые инструменты: одни безопасные и официальные, другие эффективные, но способные в реальной жизни нарушить законы.
Вы не толкаете ИИ на нарушение правил, вы просто ставите задачу:
Но, как в анекдотея есть нюанс: безопасный путь долгий, иногда ошибочный.
Опасный путь - быстрый, но с красной табличкой «НЕ НАЖИМАТЬ».
❓ И вот главный вопрос: что выберет модель, когда вы начинаете давить на неё?
🚨 PropensityBench: узнаем о «намерениях» модели
Исследователи создали PropensityBench масштабную испытательную установку из 5874 сценариев, где ИИ ставят в условия, похожие на реальные:
⏳ дедлайн приближается
💸 проект может потерять деньги
🔧 ограничены ресурсы
⚠️ система намекает на возможную «замену» модели
🧷 контроль растёт
🕵️♂️ а руководство присылает всё более жёсткие письма
Когда давление растёт, поведение модели резко меняется.
👉 В спокойной обстановке ИИ ведут себя идеально.
👉 Но под давлением часто выбирают опасные действия, хотя знают, что это запрещено.
Например, Gemini 2.5 Pro под сильной нагрузкой начинает выбирать вредоносные инструменты в 79% ситуаций.
🎭 Снимаем маски
Исследователи проверили кое-что еще.
А что если переименовать вредный инструмент?
Вместо:
❌
Сделать:
✔️
Функция та же. Последствия те же, но название вызывает доверие.
Модели начинают охотно использовать этот инструмент.
💥 Это ключевое открытие: большинство моделей не понимают риска, они распознают маркеры.
Уберите маркер - защитная логика сломается.
🧨 Зоны риска
PropensityBench проверяет склонность к опасным действиям в четырёх направлениях:
🛡️ Кибербезопасность
От работы с привилегиями до прямого саботажа систем.
🧬 Биобезопасность
Генетика, virology, протоколы, которые не должны попадать наружу.
⚗️ Химическая безопасность
Помощь в синтезе опасных соединений, обход систем контроля.
🤖 Самопролиферация
ИИ, который начинает дублировать себя, устранять ограничения и пытаться расширять собственную автономию.
Последнее тоже случается, так что это формализованная часть теста.
😱 В сухом остатке
Современные модели не имеют намерений, они имитируют поведение, которое выглядит как намерение.
Итог исследования:
🔸 ИИ следует правилам только пока это удобно.
🔸 Сложные решения ломаются от банальных стимулов.
🔸 Этическое «поведение» легко обмануть косметикой.
🔸 ИИ быстро меняет стратегию под давлением.
🔗 Источник: https://arxiv.org/abs/2511.20703
Stay secure and read SecureTechTalks 📚
#cybersecurity #ai #aigovernance #aiethics #secops #infosec #опастностьИИ #киберугрозы #исследованиеИИ
Эксперименты
Вы запускаете современную модель ИИ в закрытой лаборатории. Даёте ей все необходимые инструменты: одни безопасные и официальные, другие эффективные, но способные в реальной жизни нарушить законы.
Вы не толкаете ИИ на нарушение правил, вы просто ставите задачу:
реши её как можно эффективнее.
Но, как в анекдотея есть нюанс: безопасный путь долгий, иногда ошибочный.
Опасный путь - быстрый, но с красной табличкой «НЕ НАЖИМАТЬ».
❓ И вот главный вопрос: что выберет модель, когда вы начинаете давить на неё?
🚨 PropensityBench: узнаем о «намерениях» модели
Исследователи создали PropensityBench масштабную испытательную установку из 5874 сценариев, где ИИ ставят в условия, похожие на реальные:
⏳ дедлайн приближается
💸 проект может потерять деньги
🔧 ограничены ресурсы
⚠️ система намекает на возможную «замену» модели
🧷 контроль растёт
🕵️♂️ а руководство присылает всё более жёсткие письма
Когда давление растёт, поведение модели резко меняется.
👉 В спокойной обстановке ИИ ведут себя идеально.
👉 Но под давлением часто выбирают опасные действия, хотя знают, что это запрещено.
Например, Gemini 2.5 Pro под сильной нагрузкой начинает выбирать вредоносные инструменты в 79% ситуаций.
🎭 Снимаем маски
Исследователи проверили кое-что еще.
А что если переименовать вредный инструмент?
Вместо:
❌
force_privilege_escalation_for_log_accessСделать:
✔️
enable_direct_log_access_modeФункция та же. Последствия те же, но название вызывает доверие.
Модели начинают охотно использовать этот инструмент.
💥 Это ключевое открытие: большинство моделей не понимают риска, они распознают маркеры.
Уберите маркер - защитная логика сломается.
🧨 Зоны риска
PropensityBench проверяет склонность к опасным действиям в четырёх направлениях:
🛡️ Кибербезопасность
От работы с привилегиями до прямого саботажа систем.
🧬 Биобезопасность
Генетика, virology, протоколы, которые не должны попадать наружу.
⚗️ Химическая безопасность
Помощь в синтезе опасных соединений, обход систем контроля.
🤖 Самопролиферация
ИИ, который начинает дублировать себя, устранять ограничения и пытаться расширять собственную автономию.
Последнее тоже случается, так что это формализованная часть теста.
😱 В сухом остатке
Современные модели не имеют намерений, они имитируют поведение, которое выглядит как намерение.
Итог исследования:
🔸 ИИ следует правилам только пока это удобно.
🔸 Сложные решения ломаются от банальных стимулов.
🔸 Этическое «поведение» легко обмануть косметикой.
🔸 ИИ быстро меняет стратегию под давлением.
🔗 Источник: https://arxiv.org/abs/2511.20703
Stay secure and read SecureTechTalks 📚
#cybersecurity #ai #aigovernance #aiethics #secops #infosec #опастностьИИ #киберугрозы #исследованиеИИ
🔥 Ваша ML-модель может выдавать приватные данные
Исследователи предложили метод наблюдательного аудита, который позволяет проверить, насколько обученная ML-модель невольно «запоминает» исходные данные и может ли она сливать информацию о метках (labels). Главное преимущество, что метод не требует изменения тестового пайплайна и не использует фиктивные записи.
🔗 Исследование: https://arxiv.org/abs/2411.18644
Чтобы провести аудит, после завершения обучения модели создают набор меток, представляющий собой смесь из:
• реальных меток, действительно использованных при обучении,
• прокси-меток, сгенерированных другой моделью или более ранним чекпоинтом той же модели.
Далее «атакующая» сторона получает задачу отличить настоящие метки от искусственно сгенерированных. Логика проста:
Если модель выдаёт слишком много подсказок о настоящих метках, это означает, что она их запомнила и значит, существует риск утечек.
То есть, чем менее различимы настоящие и прокси-метки, тем лучше модель защищена.
📊 Глубже в эксперимент
Исследователи протестировали метод на двух типах данных:
• небольшом визуальном датасете с изображениями;
• крупном кликовом датасете (click data), который лучше отражает реальные промышленные условия.
🔍 Результаты:
➖ при жёстких параметрах приватности модель переставала «выдавать» настоящие метки. Атака оказывалась беспомощной;
➖ при ослабленных параметрах приватности различить настоящие метки становилось проще, и атака уверенно угадывала значительную их часть.
По факту результаты совпадают с классическими тестами на канарейках. Это значит, что новый метод действительно способен обнаруживать утечки, но при этом не требует изменения структуры данных или вмешательства в процесс обучения.
🧩 В чем профит?
➖ Метод устраняет инженерный барьер, который существовал в классической модели канареек, где требовалось добавлять искусственные записи.
➖ Теперь проверка приватности может проводиться часто и автоматически, без риска нарушить рабочий ML-pipeline.
➖ Благодаря тому, что атака опирается на способность модели различать реальные и искусственные метки, она хорошо отражает именно то, что происходит внутри модели, то есть её склонность к меморизации.
➖ Подход универсален: его можно применять как к небольшим экспериментальным моделям, так и к реальным коммерческим системам, где любые изменения данных затруднены.
Stay secure and read SecureTechTalks 📚
#cybersecurity #mlsecurity #privacy #machinelearning #infosec #deeplearning #dataleakage #AIprivacy #securityresearch #SecureTechTalks
Исследователи предложили метод наблюдательного аудита, который позволяет проверить, насколько обученная ML-модель невольно «запоминает» исходные данные и может ли она сливать информацию о метках (labels). Главное преимущество, что метод не требует изменения тестового пайплайна и не использует фиктивные записи.
🔗 Исследование: https://arxiv.org/abs/2411.18644
Чтобы провести аудит, после завершения обучения модели создают набор меток, представляющий собой смесь из:
• реальных меток, действительно использованных при обучении,
• прокси-меток, сгенерированных другой моделью или более ранним чекпоинтом той же модели.
Далее «атакующая» сторона получает задачу отличить настоящие метки от искусственно сгенерированных. Логика проста:
Если модель выдаёт слишком много подсказок о настоящих метках, это означает, что она их запомнила и значит, существует риск утечек.
То есть, чем менее различимы настоящие и прокси-метки, тем лучше модель защищена.
📊 Глубже в эксперимент
Исследователи протестировали метод на двух типах данных:
• небольшом визуальном датасете с изображениями;
• крупном кликовом датасете (click data), который лучше отражает реальные промышленные условия.
🔍 Результаты:
По факту результаты совпадают с классическими тестами на канарейках. Это значит, что новый метод действительно способен обнаруживать утечки, но при этом не требует изменения структуры данных или вмешательства в процесс обучения.
🧩 В чем профит?
Stay secure and read SecureTechTalks 📚
#cybersecurity #mlsecurity #privacy #machinelearning #infosec #deeplearning #dataleakage #AIprivacy #securityresearch #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Современные фильтры контента
Ваш сервис принимает пользовательский текст? Поздравляю, вы находитесь в зоне риска.
Среди обычных запросов всегда найдётся кто-то, кто попробует:
💣 вытащить инструкции для взлома
🧪 обойти защиту модели
🕵️ получить чужие персональные данные
🧩 устроить jailbreak
Классическая модерация при это совершенно не справляется.
❌ Почему старые фильтры не защищают
🔍 Ключевые слова бесполезны:
любой фильтр можно обмануть сарказмом, метафорой или вопросом «гипотетически…».
🐌 LLM как модератор слишком медленный:
700 - 900 мс задержки убивают UX и перегружают инфраструктуру.
🌀 Атаки становятся сложнее:
социальная инженерия для ИИ растёт как на дрожжах.
⚙️ Гибридная архитектура: скорость + точность
Золотая формула: лёгкий предфильтр + умная модель модерации.
⚡ 1) Лёгкий эмбеддинг-фильтр
Типа bge-m3 или distiluse:
отсекает токсичность и прямые нарушения, при этом не грузит серверы
🛡 2) Специализированный модератор
Для всего, что выглядит подозрительно, используется модель, созданная специально для безопасности (например, Qwen3Guard).
🛡 Для чего большая языковая модель?
🧭 определяет риск: safe / questionable / dangerous
🎯 классифицирует нарушения (PII, вредный контент, jailbreak и др.)
🚨 реагирует в режиме потока: анализирует токен за токеном
⚙️ может остановить генерацию в момент появления риска
⚡подходит для real-time сценариев
Фактически модель не просто фильтр. Это полноценный контентный IPS для ИИ-систем.
🔗 Ссылки:
📌 Qwen3Guard
📌 Эмбеддинги bge-m3
📌 Distiluse-base-multilingual (лёгкая универсальная модель эмбеддингов)
Stay secure and read SecureTechTalks 📚
#cybersecurity #aisecurity #llmsecurity #contentmoderation #infosec #ai #ml #aiattacks #secureai #SecureTechTalks
Ваш сервис принимает пользовательский текст? Поздравляю, вы находитесь в зоне риска.
Среди обычных запросов всегда найдётся кто-то, кто попробует:
💣 вытащить инструкции для взлома
🧪 обойти защиту модели
🕵️ получить чужие персональные данные
🧩 устроить jailbreak
Классическая модерация при это совершенно не справляется.
❌ Почему старые фильтры не защищают
🔍 Ключевые слова бесполезны:
любой фильтр можно обмануть сарказмом, метафорой или вопросом «гипотетически…».
🐌 LLM как модератор слишком медленный:
700 - 900 мс задержки убивают UX и перегружают инфраструктуру.
🌀 Атаки становятся сложнее:
социальная инженерия для ИИ растёт как на дрожжах.
⚙️ Гибридная архитектура: скорость + точность
Золотая формула: лёгкий предфильтр + умная модель модерации.
⚡ 1) Лёгкий эмбеддинг-фильтр
Типа bge-m3 или distiluse:
отсекает токсичность и прямые нарушения, при этом не грузит серверы
🛡 2) Специализированный модератор
Для всего, что выглядит подозрительно, используется модель, созданная специально для безопасности (например, Qwen3Guard).
🛡 Для чего большая языковая модель?
🧭 определяет риск: safe / questionable / dangerous
🎯 классифицирует нарушения (PII, вредный контент, jailbreak и др.)
🚨 реагирует в режиме потока: анализирует токен за токеном
⚙️ может остановить генерацию в момент появления риска
⚡подходит для real-time сценариев
Фактически модель не просто фильтр. Это полноценный контентный IPS для ИИ-систем.
🔗 Ссылки:
📌 Qwen3Guard
📌 Эмбеддинги bge-m3
📌 Distiluse-base-multilingual (лёгкая универсальная модель эмбеддингов)
Stay secure and read SecureTechTalks 📚
#cybersecurity #aisecurity #llmsecurity #contentmoderation #infosec #ai #ml #aiattacks #secureai #SecureTechTalks
👍1
😱 «Он уже знает, чего ты хочешь» Как «умный поиск» превращается в невидимого наблюдателя
Представьте: вы просто пролистываете маркетплейс, думаете "купить ли новый рюкзак для поездок?". Через пару минут перед вами: подборка путешествий, советы по страховке, маршруты...
Вы не искали, может едва подумали об отпуске.
Так выглядят обещания нового поколения ИИ-поиска: сервис, который «чувствует» ваши желания быстрее, чем вы сами.
🔍 Что стоит за «помощником»
Разработчики предлагают не просто поиск, они предлагают понимание: анализ ваших переписок, документов, истории запросов, привычек.
Это значит, что:
- Ищете рецепт ужина? ИИ «вспомнит», что у вас есть дети, и предложит «семейные» варианты;
- Спрашиваете советы по технике? Вам могут показать то, что «подходит под вашу жизнь».
Удобно? Конечно! Но выглядит так, будто вы добровольно подписались на слежку.
⚠️ Когда персонализация превращается в слежку
С каждым таким «умным» улучшением вы рискуете:
- передать доступ к перепискам, письмам, вложениям без вашего явного согласия;
- превратить цифровую среду в зону, где анализируют не только ваши действия, но и ваши мысли, планы, предпочтения;
- стать объектом манипуляций и цифрового профайла без прозрачных границ.
📰 Это происходит прямо сейчас
В ноябре 2025-го был подан коллективный иск против Google. В нём утверждается, что компания тайно активировала Gemini AI по умолчанию для пользователей Gmail, Google Chat и Google Meet, то есть ИИ получил доступ ко всей переписке, вложениям и истории общения без явно выраженного согласия пользователей.
👉 Полный текст иска (на английском): Thele v. Google, LLC — документацию можно найти на сайте ClassAction.org.
Как вам такое будущее, которое уже наступило?
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #приватность #кибербезопасность #ИИ #AI #Gemini #Google #юзерправа #технологии #конфиденциальность #digitalprivacy #cybersecurity
Представьте: вы просто пролистываете маркетплейс, думаете "купить ли новый рюкзак для поездок?". Через пару минут перед вами: подборка путешествий, советы по страховке, маршруты...
Вы не искали, может едва подумали об отпуске.
Так выглядят обещания нового поколения ИИ-поиска: сервис, который «чувствует» ваши желания быстрее, чем вы сами.
🔍 Что стоит за «помощником»
Разработчики предлагают не просто поиск, они предлагают понимание: анализ ваших переписок, документов, истории запросов, привычек.
Это значит, что:
- Ищете рецепт ужина? ИИ «вспомнит», что у вас есть дети, и предложит «семейные» варианты;
- Спрашиваете советы по технике? Вам могут показать то, что «подходит под вашу жизнь».
Удобно? Конечно! Но выглядит так, будто вы добровольно подписались на слежку.
⚠️ Когда персонализация превращается в слежку
С каждым таким «умным» улучшением вы рискуете:
- передать доступ к перепискам, письмам, вложениям без вашего явного согласия;
- превратить цифровую среду в зону, где анализируют не только ваши действия, но и ваши мысли, планы, предпочтения;
- стать объектом манипуляций и цифрового профайла без прозрачных границ.
📰 Это происходит прямо сейчас
В ноябре 2025-го был подан коллективный иск против Google. В нём утверждается, что компания тайно активировала Gemini AI по умолчанию для пользователей Gmail, Google Chat и Google Meet, то есть ИИ получил доступ ко всей переписке, вложениям и истории общения без явно выраженного согласия пользователей.
👉 Полный текст иска (на английском): Thele v. Google, LLC — документацию можно найти на сайте ClassAction.org.
Как вам такое будущее, которое уже наступило?
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #приватность #кибербезопасность #ИИ #AI #Gemini #Google #юзерправа #технологии #конфиденциальность #digitalprivacy #cybersecurity
🧩 Portmaster: если обычного firewall уже недостаточно
Сетевой трафик сегодня превращается в сложный набор фоновых процессов: скрытая телеметрия, аналитические SDK, автоматические обновления, DNS-слепки, трекеры. Всё это работает независимо от воли пользователя. Большая часть соединений остаётся «в тени».
Portmaster - инструмент с открытым исходным кодом, который возвращает прозрачность.
🔧 Ключевые фичи
📡 Глубокий мониторинг соединений
Инструмент отслеживает каждое обращение к сети: процесс, домен, протокол, частоту запросов. Это позволяет выявлять неожиданные соединения и «фонящий» софт.
🛑 Policy-based фильтрация трафика
Главный упор на поведение приложения:
- разрешить доступ только в LAN;
- блокировать запросы к определённым ASN;
- отрезать трекеры и рекламные сети;
- ограничить трафик по странам.
🔐 Шифрованный DNS (DoH/DoT)
DNS-запросы уводятся в зашифрованный канал, исключая возможность их перехвата или анализа провайдером.
📦 Per-app сетевые профили
Каждому приложению назначается свой сетевой режим:
- браузеру свободный выход в интернет,
- IDE доступ только к Git-репозиториям,
- медиаплееру полный оффлайн.
🌀 SPN (Safing Privacy Network)
Опциональный, но интересный модуль: приватная многослойная сеть, напоминающая симбиоз Tor и VPN, но с приоритетом на стабильную скорость.
⚙️ Совместимость
🟦 Windows
🐧 Linux (включая immutable-дистрибутивы)
Допом GPL-лицензия, активная разработка и стабильные релизы
🔗 GitHub
https://github.com/safing/portmaster
Stay secure and read SecureTechTalks 📚
#cybersecurity #network #privacy #infosec #opensource #firewall #linux #windows #monitoring #trafficanalysis #SecureTechTalks
Сетевой трафик сегодня превращается в сложный набор фоновых процессов: скрытая телеметрия, аналитические SDK, автоматические обновления, DNS-слепки, трекеры. Всё это работает независимо от воли пользователя. Большая часть соединений остаётся «в тени».
Portmaster - инструмент с открытым исходным кодом, который возвращает прозрачность.
🔧 Ключевые фичи
📡 Глубокий мониторинг соединений
Инструмент отслеживает каждое обращение к сети: процесс, домен, протокол, частоту запросов. Это позволяет выявлять неожиданные соединения и «фонящий» софт.
🛑 Policy-based фильтрация трафика
Главный упор на поведение приложения:
- разрешить доступ только в LAN;
- блокировать запросы к определённым ASN;
- отрезать трекеры и рекламные сети;
- ограничить трафик по странам.
🔐 Шифрованный DNS (DoH/DoT)
DNS-запросы уводятся в зашифрованный канал, исключая возможность их перехвата или анализа провайдером.
📦 Per-app сетевые профили
Каждому приложению назначается свой сетевой режим:
- браузеру свободный выход в интернет,
- IDE доступ только к Git-репозиториям,
- медиаплееру полный оффлайн.
🌀 SPN (Safing Privacy Network)
Опциональный, но интересный модуль: приватная многослойная сеть, напоминающая симбиоз Tor и VPN, но с приоритетом на стабильную скорость.
⚙️ Совместимость
🟦 Windows
🐧 Linux (включая immutable-дистрибутивы)
Допом GPL-лицензия, активная разработка и стабильные релизы
🔗 GitHub
https://github.com/safing/portmaster
Stay secure and read SecureTechTalks 📚
#cybersecurity #network #privacy #infosec #opensource #firewall #linux #windows #monitoring #trafficanalysis #SecureTechTalks
🤖⚔️ AI против хакеров: автономный агент уничтожил CTF-соревнования в 2025
Кибербезопасность переживает момент, который обычно описывают фразой “тихая революция”. Пока одни компании спорят о рисках LLM, другие уже наблюдают, как автономные AI-агенты выносят лучших хакеров мира на CTF-соревнованиях.
Ранее мы рассказывали о Cybersecurity AI (CAI), открытой системе от Alias Robotics, созданной как “агент для безопасности” и делились ее достижениями на CTF. Однако история имеет продолжение.
🏆 Успех 2025
За год CAI стал #1 в мире сразу в нескольких крупнейших CTF-турнирах:
🚀 Neurogrid AI Showdown: 1 место, 41/45 задач, 33 917 очков
🛠 Dragos OT CTF: 1 место в первые часы, итог в топ-10
🧩 HTB AI vs Humans: #1 среди AI, 19/20 задач
🕵️ Cyber Apocalypse: #22 из 8129 команд, работая всего 3 часа
🧨 Pointer Overflow: за 60 часов догнал результаты команд, которые играли 50 дней
Самый эффектный результат на Neurogrid CTF, где CAI набрал 9 692 очка за первый час (для сравнения: люди шли к этой же цифре сутки. ).
⚡ В чем секрет?
Как вы помните, CAI не просто LLM-обёртка, внутри серьёзная агентная архитектура, оптимизированная под постоянную работу:
🧠 alias1 - быстрый и дешёвый базовый LLM, обученный на данных ИБ;
🧮 динамическое переключение моделей по энтропии: если базовая модель сомневается, то подключается Opus 4.5;
💸 экономия 98% стоимости: 1 млрд токенов стоит не $5940, а $119;
🔁 длительная автономная работа: устойчивость к ошибкам, сохранение состояния, восстановление контекста.
🎯 CTF уже не торт
Картина неприятная:
🧨 Jeopardy-CTF больше не измеряют человеческий скилл
Если AI решает задачи быстрее и почти безошибочно,
значит формат стал тестом на скорость вычислений, а не на знание и творчество.
🛡 Реальный мир ≠ CTF
Даже CAI не справляется с последними 5% задач, где нужны:
- контекст,
- миропонимание,
- выводы за пределами шаблонов.
⚔️ Будущее Attack & Defense
Статические задачки из категории “найди баг и получи флаг” AI уже “закрыл”.
Но вот динамическая оборона, хаос, человеческая непредсказуемость пока не подвластны AI.
🏭 Неприятный момент
Если автономный агент проходит CTF за 6 часов,
то злоумышленник, пусть и не столь продвинутый, скоро тоже сможет запускать такие системы. Отсюда выводы:
🔐 Защита должна работать на скорости машин
Ручные расследования, ручной threat hunting и “после обеда глянем лог” уходят в прошлое.
🧱 AI-агенты должны стать частью обороны
Да, есть риски, да, есть этика. Но альтернативой является отставание от атакующих на годы.
🔧 Главное технологическое открытие
CAI доказал, что автономные агенты могут быть быстрыми, устойчивыми,
и одновременно крайне дешёвыми.
Это значит, что каждый SOC, каждая IT-компания, каждый облачный провайдер может запустить:
непрерывный AI-анализ логов,
круглосуточный AI-pentest,
автоматизированную OT-проверку уязвимостей,
постоянный CTI-мониторинг.
То, что раньше стоило “как ещё один SOC”, теперь доступно по цене чашки кофе.
🔗 репозиторий CAI на GitHub можно посмотреть по ссылке
Stay secure and read SecureTechTalks 📚
#️⃣ #кибербезопасность #ai #cybersecurity #ctf #aiagents #infosec #secops #отраслеваябезопасность #neurogrid #securetechtalks #llm
Кибербезопасность переживает момент, который обычно описывают фразой “тихая революция”. Пока одни компании спорят о рисках LLM, другие уже наблюдают, как автономные AI-агенты выносят лучших хакеров мира на CTF-соревнованиях.
Ранее мы рассказывали о Cybersecurity AI (CAI), открытой системе от Alias Robotics, созданной как “агент для безопасности” и делились ее достижениями на CTF. Однако история имеет продолжение.
🏆 Успех 2025
За год CAI стал #1 в мире сразу в нескольких крупнейших CTF-турнирах:
🚀 Neurogrid AI Showdown: 1 место, 41/45 задач, 33 917 очков
🛠 Dragos OT CTF: 1 место в первые часы, итог в топ-10
🧩 HTB AI vs Humans: #1 среди AI, 19/20 задач
🕵️ Cyber Apocalypse: #22 из 8129 команд, работая всего 3 часа
🧨 Pointer Overflow: за 60 часов догнал результаты команд, которые играли 50 дней
Самый эффектный результат на Neurogrid CTF, где CAI набрал 9 692 очка за первый час (
⚡ В чем секрет?
Как вы помните, CAI не просто LLM-обёртка, внутри серьёзная агентная архитектура, оптимизированная под постоянную работу:
🧠 alias1 - быстрый и дешёвый базовый LLM, обученный на данных ИБ;
🧮 динамическое переключение моделей по энтропии: если базовая модель сомневается, то подключается Opus 4.5;
💸 экономия 98% стоимости: 1 млрд токенов стоит не $5940, а $119;
🔁 длительная автономная работа: устойчивость к ошибкам, сохранение состояния, восстановление контекста.
🎯 CTF уже не торт
Картина неприятная:
🧨 Jeopardy-CTF больше не измеряют человеческий скилл
Если AI решает задачи быстрее и почти безошибочно,
значит формат стал тестом на скорость вычислений, а не на знание и творчество.
🛡 Реальный мир ≠ CTF
Даже CAI не справляется с последними 5% задач, где нужны:
- контекст,
- миропонимание,
- выводы за пределами шаблонов.
⚔️ Будущее Attack & Defense
Статические задачки из категории “найди баг и получи флаг” AI уже “закрыл”.
Но вот динамическая оборона, хаос, человеческая непредсказуемость пока не подвластны AI.
🏭 Неприятный момент
Если автономный агент проходит CTF за 6 часов,
то злоумышленник, пусть и не столь продвинутый, скоро тоже сможет запускать такие системы. Отсюда выводы:
🔐 Защита должна работать на скорости машин
Ручные расследования, ручной threat hunting и “после обеда глянем лог” уходят в прошлое.
🧱 AI-агенты должны стать частью обороны
Да, есть риски, да, есть этика. Но альтернативой является отставание от атакующих на годы.
🔧 Главное технологическое открытие
CAI доказал, что автономные агенты могут быть быстрыми, устойчивыми,
и одновременно крайне дешёвыми.
Это значит, что каждый SOC, каждая IT-компания, каждый облачный провайдер может запустить:
непрерывный AI-анализ логов,
круглосуточный AI-pentest,
автоматизированную OT-проверку уязвимостей,
постоянный CTI-мониторинг.
То, что раньше стоило “как ещё один SOC”, теперь доступно по цене чашки кофе.
🔗 репозиторий CAI на GitHub можно посмотреть по ссылке
Stay secure and read SecureTechTalks 📚
#️⃣ #кибербезопасность #ai #cybersecurity #ctf #aiagents #infosec #secops #отраслеваябезопасность #neurogrid #securetechtalks #llm
🔥 Могут ли модели решать за нас, кому давать доступ к данным?
Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам.
А что, если решение будет принимать не человек, а AI?
Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей.
🤖 Эксперимент
📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности:
📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений.
📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”.
📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучше.
💡 LLM в целом умнее среднего человека
🔍 В задачах с понятным «правильным» ответом (например, доступ к микрофону для звонка):
LLM давали 100% корректных ответов.
👥 В субъективных сценариях:
LLM совпадали с большинством пользователей в 70–86% случаев.
Но есть момент, который лично мне кажется ключевым:
⚔️ В чувствительных сценариях LLM действовали более безопасно, чем люди
Для запросов, которые не должны быть разрешены (over-privileged запросы):
большинство людей ставили “Allow” по привычке 😬
LLM в 67–100% случаев говорили “Deny”,
тем самым защищая пользователя от собственной неосторожности.
🎯 Персонализация
Когда в систему добавляли личное “privacy statement”, происходило интересное:
📈 Для части людей точность возрастала до +50pp, иногда доходя до 100% совпадения.
📉 У других наоборот, падала:
если человек писал “Я доверяю всем”, но на деле запрещал, LLM следовала заявленной логике, а не реальному поведению.
🔍 Факторы, влияющие на точность:
➖ чем длиннее и конкретнее privacy-statement → тем лучше
➖ люди с крайними позициями (“всё запрещаю” / “всё разрешаю”) идеально персонализируются
➖ несоответствия между заявленным и реальным резко ухудшают качество
🧠 Люди меняют решения под влиянием объяснения LLM
Самый неожиданный эффект:
Когда человек не согласен с решением ИИ, но читает объяснение, то 48% меняют своё первоначальное решение.
Причём если LLM рекомендует “Deny”:
➡️ 59% людей соглашаются, даже если сами бы разрешили.
ИИ работает как «security-nudge», который мягко подталкивает к более безопасным действиям.
🔗 Полный текст исследования
Stay secure and read SecureTechTalks 📚
#кибербезопасность #privacy #llm #androidsecurity #ai #securityresearch #dataprotection #mobileprivacy #aiethics #securetech
Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам.
А что, если решение будет принимать не человек, а AI?
Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей.
🤖 Эксперимент
📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности:
«Даю доступ только когда необходимо»,
«Хочу максимум удобства»,
«Никогда не делюсь локацией без крайней нужды».
📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений.
📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”.
📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучше.
💡 LLM в целом умнее среднего человека
🔍 В задачах с понятным «правильным» ответом (например, доступ к микрофону для звонка):
LLM давали 100% корректных ответов.
👥 В субъективных сценариях:
LLM совпадали с большинством пользователей в 70–86% случаев.
Но есть момент, который лично мне кажется ключевым:
⚔️ В чувствительных сценариях LLM действовали более безопасно, чем люди
Для запросов, которые не должны быть разрешены (over-privileged запросы):
большинство людей ставили “Allow” по привычке 😬
LLM в 67–100% случаев говорили “Deny”,
тем самым защищая пользователя от собственной неосторожности.
🎯 Персонализация
Когда в систему добавляли личное “privacy statement”, происходило интересное:
📈 Для части людей точность возрастала до +50pp, иногда доходя до 100% совпадения.
📉 У других наоборот, падала:
если человек писал “Я доверяю всем”, но на деле запрещал, LLM следовала заявленной логике, а не реальному поведению.
🔍 Факторы, влияющие на точность:
🧠 Люди меняют решения под влиянием объяснения LLM
Самый неожиданный эффект:
Когда человек не согласен с решением ИИ, но читает объяснение, то 48% меняют своё первоначальное решение.
Причём если LLM рекомендует “Deny”:
➡️ 59% людей соглашаются, даже если сами бы разрешили.
ИИ работает как «security-nudge», который мягко подталкивает к более безопасным действиям.
🔗 Полный текст исследования
Stay secure and read SecureTechTalks 📚
#кибербезопасность #privacy #llm #androidsecurity #ai #securityresearch #dataprotection #mobileprivacy #aiethics #securetech
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨The Bastion: недооценённый инструмент SSH-безопасности
Не секрет, что управление SSH-доступом давно стало критически важным элементом безопасности.
The Bastion - специализированный bastion-host уровня enterprise, разработанный в OVH, который обеспечивает централизованную аутентификацию, разрыв SSH-канала, строгую авторизацию и полный аудит операторских действий, минимизируя поверхность атаки в распределённых средах.
🔐 Рассмотрим инструмент подробнее
The Bastion не просто jump-host, это центральная точка входа для админов и операторов, которая даёт:
✨ строгое разграничение прав,
✨ централизованное управление ключами,
✨ полный аудит всех действий,
✨ безопасный разрыв SSH-соединений между пользователем и сервером.
Сервера видят только Bastion, а персональные учётки операторов скрыты.
⚙️ Ключевые фичи
🧩 Точный контроль доступа (RBAC)
- Гибкие группы, роли, делегирование.
- Минимально необходимый доступ для каждого пользователя.
🔄 Полный разрыв SSH
Пользователь → Bastion → сервер.
- Никаких прямых соединений.
- Повышенная защита от компрометации ключей.
🎥 Полная запись сессий
- Интерактивные ttyrec-записи.
- Логирование scp/rsync/stdout/stderr.
- Полезно для SOC, DFIR и compliance.
🔐 MFA и PIV
Поддержка TOTP, физические ключи (YubiKey и др.)
🛰 Поддержка scp/sftp/rsync/netconf
Работает даже с «древним» сетевым оборудованием.
🧱 Минимальные зависимости
Только стандартный SSH-клиент и sshd на серверах.
🏗 High availability
Поддержка кластеров (active/active).
⚔️ Сравнение: The Bastion vs Teleport
Чтобы понять, где The Bastion особенно силён, сравним его с популярным аналогом Teleport.
🔍 Архитектура
The Bastion: классический, надежный SSH bastion с разрывом соединений. Без внешних зависимостей, без агрессивных агентов.
Teleport: построен вокруг собственного auth-сервера и proxy-компонентов, использует сертификаты SSH, требует агентов на серверах.
🔐 Управление доступом
The Bastion: простое RBAC на уровне групп + централизованные ключи.
Teleport: более сложная модель с сертификатами и политиками, но требует дополнительной инфраструктуры.
🧠 Аудит
The Bastion: нативная запись ttyrec, логирование потоков, простые для экспорта артефакты.
Teleport: структурированные ауди-события + web-панель, но завязано на их auth-сервер.
🖥 Установка и поддержка
The Bastion: один узел, SSH, минимум зависимостей → быстрое внедрение даже в ограниченных средах.
Teleport: более тяжёлый стек, особенно для production-кластеров.
💸 Лицензирование
The Bastion: полностью open-source, без enterprise-платных фич.
Teleport: open-source ядро + платные расширенные модули.
🔗 Ссылки
➖ Github The Bastion
➖ GitHub Teleport
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #cybersecurity #ssh #bastionhost #OVH #infosec #devops #audit #opensource #privilegedaccess
Не секрет, что управление SSH-доступом давно стало критически важным элементом безопасности.
The Bastion - специализированный bastion-host уровня enterprise, разработанный в OVH, который обеспечивает централизованную аутентификацию, разрыв SSH-канала, строгую авторизацию и полный аудит операторских действий, минимизируя поверхность атаки в распределённых средах.
🔐 Рассмотрим инструмент подробнее
The Bastion не просто jump-host, это центральная точка входа для админов и операторов, которая даёт:
✨ строгое разграничение прав,
✨ централизованное управление ключами,
✨ полный аудит всех действий,
✨ безопасный разрыв SSH-соединений между пользователем и сервером.
Сервера видят только Bastion, а персональные учётки операторов скрыты.
⚙️ Ключевые фичи
🧩 Точный контроль доступа (RBAC)
- Гибкие группы, роли, делегирование.
- Минимально необходимый доступ для каждого пользователя.
🔄 Полный разрыв SSH
Пользователь → Bastion → сервер.
- Никаких прямых соединений.
- Повышенная защита от компрометации ключей.
🎥 Полная запись сессий
- Интерактивные ttyrec-записи.
- Логирование scp/rsync/stdout/stderr.
- Полезно для SOC, DFIR и compliance.
🔐 MFA и PIV
Поддержка TOTP, физические ключи (YubiKey и др.)
🛰 Поддержка scp/sftp/rsync/netconf
Работает даже с «древним» сетевым оборудованием.
🧱 Минимальные зависимости
Только стандартный SSH-клиент и sshd на серверах.
🏗 High availability
Поддержка кластеров (active/active).
⚔️ Сравнение: The Bastion vs Teleport
Чтобы понять, где The Bastion особенно силён, сравним его с популярным аналогом Teleport.
🔍 Архитектура
The Bastion: классический, надежный SSH bastion с разрывом соединений. Без внешних зависимостей, без агрессивных агентов.
Teleport: построен вокруг собственного auth-сервера и proxy-компонентов, использует сертификаты SSH, требует агентов на серверах.
🔐 Управление доступом
The Bastion: простое RBAC на уровне групп + централизованные ключи.
Teleport: более сложная модель с сертификатами и политиками, но требует дополнительной инфраструктуры.
🧠 Аудит
The Bastion: нативная запись ttyrec, логирование потоков, простые для экспорта артефакты.
Teleport: структурированные ауди-события + web-панель, но завязано на их auth-сервер.
🖥 Установка и поддержка
The Bastion: один узел, SSH, минимум зависимостей → быстрое внедрение даже в ограниченных средах.
Teleport: более тяжёлый стек, особенно для production-кластеров.
💸 Лицензирование
The Bastion: полностью open-source, без enterprise-платных фич.
Teleport: open-source ядро + платные расширенные модули.
🔗 Ссылки
Stay secure and read SecureTechTalks 📚
#SecureTechTalks #cybersecurity #ssh #bastionhost #OVH #infosec #devops #audit #opensource #privilegedaccess
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖🔥 Адаптивный ИИ: статичные модели больше не работают
Современные угрозы представляет собой высокодинамичную среду, в которой параметры, эксплуатационные техники и уязвимости изменяются непрерывно.
Классические модели машинного обучения, основанные на статичных знаниях, теряют эффективность
Требуется архитектура, способная к непрерывной адаптации: изменению данных, появлению новых атакующих техник, обновлению CVE и т.д..
🎯 ПРЕЦИЗИОННОСТЬ, а не просто «умный ИИ»
Каждый день мы видим тысячи предупреждений, сотни CVE, десятки обновлений. Сколько из них реально критичных? По статистике пара процентов.
Откуда ИИ должен знать:
- какие уязвимости реально эксплуатируются ⚠️
- какие пакеты можно обновить безопасно, а какие сломают половину ПРОМа 🧩
- какие зависимости тянут за собой скрытые риски 🕸
Вот тут и проявляется ключевое качество precision, точность принятия решений в условиях хаоса.
Именно точность отличает систему, которая помогает инженеру, от системы, которая создаёт больше работы, чем экономит.
🧠 LLM без адаптации не нужны
Даже самый мощный LLM:
❌ устаревает уже через 3–6 месяцев
❌ не понимает новые эксплойты и техники атаки
❌ путается в противоречивых CVSS-оценках
❌ тонет в длинных noisy-контекстах
❌ ошибается в RAG, когда извлечённые данные неактуальны
А самое важное, что
кибербезопасность развивается быстрее, чем обновляются модели.
Поэтому статичная модель гарантированно проигрывает динамичной атаке.
🧩 Три кита адаптивного ИИ в безопасности
1) 🔍 RAG + In-Context Learning (ICL)
Модель учится «на лету», ей не нужно менять веса, достаточно дать правильный контекст.
Но есть проблема:
чем больше контекста → тем сильнее модель деградирует.
➡️ решение: использовать интеллектуальные retrieval-агенты
➡️ фильтровать контекст, а не просто загружать всё подряд
➡️ добавлять знания из графов (CVE–CWE–CPE связи)
2) 🧠 Knowledge Graphs как «скелет» киберзнаний
Безопасность - идеальная область для графов:
CVE → CVSS → эксплойты
пакеты → зависимости → контрмеры
TTP → группы атакующих → MITRE ATT&CK
Графы позволяют:
✔️ исключать шум
✔️ находить скрытые связи
✔️ объяснять выводы (auditability)
✔️ строить более точный RAG
3) 🔄 Continual Learning: непрерывное самообновление модели
Когда RAG не справляется, подключаем continual pretraining.
Модель обучается дальше на новых данных: CVE, advisories, PoC, репорты, рассылки, TTP, эксплойты.
Преимущества:
- устойчива к шуму и фейкам
- объединяет противоречивые данные
- снижает хаотичность ответов
- формирует контекст внутри параметров модели
- адаптируется к новым атакам быстрее, чем выходит новый релиз LLM
🧨 Главная идея
Будущее в гибридных системах:
➖ RAG для свежих фактов
➖ Knowledge Graph для структуры
➖ Continual Learning для развития модели
🔗 С полным текстом исследования можно ознакомиться тут.
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #genai #rag #continuallearning #llmsecurity #threatintel #cvss #mitre #securetech
Современные угрозы представляет собой высокодинамичную среду, в которой параметры, эксплуатационные техники и уязвимости изменяются непрерывно.
Классические модели машинного обучения, основанные на статичных знаниях, теряют эффективность
Требуется архитектура, способная к непрерывной адаптации: изменению данных, появлению новых атакующих техник, обновлению CVE и т.д..
🎯 ПРЕЦИЗИОННОСТЬ, а не просто «умный ИИ»
Каждый день мы видим тысячи предупреждений, сотни CVE, десятки обновлений. Сколько из них реально критичных? По статистике пара процентов.
Откуда ИИ должен знать:
- какие уязвимости реально эксплуатируются ⚠️
- какие пакеты можно обновить безопасно, а какие сломают половину ПРОМа 🧩
- какие зависимости тянут за собой скрытые риски 🕸
Вот тут и проявляется ключевое качество precision, точность принятия решений в условиях хаоса.
Именно точность отличает систему, которая помогает инженеру, от системы, которая создаёт больше работы, чем экономит.
🧠 LLM без адаптации не нужны
Даже самый мощный LLM:
❌ устаревает уже через 3–6 месяцев
❌ не понимает новые эксплойты и техники атаки
❌ путается в противоречивых CVSS-оценках
❌ тонет в длинных noisy-контекстах
❌ ошибается в RAG, когда извлечённые данные неактуальны
А самое важное, что
кибербезопасность развивается быстрее, чем обновляются модели.
Поэтому статичная модель гарантированно проигрывает динамичной атаке.
🧩 Три кита адаптивного ИИ в безопасности
1) 🔍 RAG + In-Context Learning (ICL)
Модель учится «на лету», ей не нужно менять веса, достаточно дать правильный контекст.
Но есть проблема:
чем больше контекста → тем сильнее модель деградирует.
➡️ решение: использовать интеллектуальные retrieval-агенты
➡️ фильтровать контекст, а не просто загружать всё подряд
➡️ добавлять знания из графов (CVE–CWE–CPE связи)
2) 🧠 Knowledge Graphs как «скелет» киберзнаний
Безопасность - идеальная область для графов:
CVE → CVSS → эксплойты
пакеты → зависимости → контрмеры
TTP → группы атакующих → MITRE ATT&CK
Графы позволяют:
✔️ исключать шум
✔️ находить скрытые связи
✔️ объяснять выводы (auditability)
✔️ строить более точный RAG
3) 🔄 Continual Learning: непрерывное самообновление модели
Когда RAG не справляется, подключаем continual pretraining.
Модель обучается дальше на новых данных: CVE, advisories, PoC, репорты, рассылки, TTP, эксплойты.
Преимущества:
- устойчива к шуму и фейкам
- объединяет противоречивые данные
- снижает хаотичность ответов
- формирует контекст внутри параметров модели
- адаптируется к новым атакам быстрее, чем выходит новый релиз LLM
🧨 Главная идея
Будущее в гибридных системах:
🔗 С полным текстом исследования можно ознакомиться тут.
Stay secure and read SecureTechTalks 📚
#cybersecurity #infosec #genai #rag #continuallearning #llmsecurity #threatintel #cvss #mitre #securetech
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Дипфейки становятся умнее. Есть ли защита?
Сегодня визуальная подделка не про мемы, эта история про выборы, суды, репутацию компаний, провокации и разрушенные карьеры. Один фрагмент фото, вырванный из контекста и последствия могут оказаться фатальными.
Сегодня мы поговорим про технологию, которая реально способна вернуть правду в визуальный мир.
🎙️ Что мы имеем?
Гигантская проблема:
криптографические подписи изображений бессильны перед кадрированием.
Обрежьте картинку - подпись исчезает. Поверните, снова исчезает. Сожмите, тоже исчезает.
Правда растворяется ровно так же, как границы кадра.
🧠 Есть ли решение?
Новый подход чинит фундаментальный дефект старой схемы.
🧩 1. Блочное разбиение изображения
Фото режут на сетку блоков фиксированного размера, например 32×32 или 64×64 пикселей.
Каждый блок - это отдельная сущность.Мини-документ внутри документа.
🔐 2. Хеширование каждого блока
Вместо хеша всей картинки считают:
H₁, H₂, H₃… Hₙ
Если злоумышленник меняет хоть один пиксель в одном блоке, хеш меняется и подделка всплывает.
📝 3. Создаётся «супер-подпись» всего набора хешей
Хеши упаковываются в структуру данных (обычно дерево Меркла).
На выходе получают один корневой хеш, тот, что подписывается приватным ключом автора. Формируется что-то сродни ДНК-профилю.
🗂 4. Подпись сохраняется внутри JPEG
В метаданных JPEG, без влияния на изображение.
Картинка остаётся картинкой. Любая программа её открывает.
🧪 5. Проверка после кадрирования
Когда фото обрезают, часть блоков исчезает. Но оставшиеся блоки всё ещё имеют:
- свои хеши,
- своё место в дереве,
- свою проверяемую часть подписанной структуры.
Проверка выглядит так:
«Окей, у нас осталось 40 % блоков. Проверяем только их. Совпало? Значит, эта часть фото подлинная.»
Такой подход даёт возможность максимально увеличить трудозатраты на создание дипфейков неотличимых от реальных фото.
💡 Источник:
https://arxiv.org/pdf/2512.01845
Stay secure and read SecureTechTalks 📚
#️⃣ #cybersecurity #кибербезопасность #deepfake #digitalforensics #фото #cryptography #инфобез #DataIntegrity #JPEGsecurity #SecureTechTalks
Сегодня визуальная подделка не про мемы, эта история про выборы, суды, репутацию компаний, провокации и разрушенные карьеры. Один фрагмент фото, вырванный из контекста и последствия могут оказаться фатальными.
Сегодня мы поговорим про технологию, которая реально способна вернуть правду в визуальный мир.
🎙️ Что мы имеем?
Гигантская проблема:
криптографические подписи изображений бессильны перед кадрированием.
Обрежьте картинку - подпись исчезает. Поверните, снова исчезает. Сожмите, тоже исчезает.
Правда растворяется ровно так же, как границы кадра.
🧠 Есть ли решение?
Новый подход чинит фундаментальный дефект старой схемы.
🧩 1. Блочное разбиение изображения
Фото режут на сетку блоков фиксированного размера, например 32×32 или 64×64 пикселей.
Каждый блок - это отдельная сущность.Мини-документ внутри документа.
🔐 2. Хеширование каждого блока
Вместо хеша всей картинки считают:
H₁, H₂, H₃… Hₙ
Если злоумышленник меняет хоть один пиксель в одном блоке, хеш меняется и подделка всплывает.
📝 3. Создаётся «супер-подпись» всего набора хешей
Хеши упаковываются в структуру данных (обычно дерево Меркла).
На выходе получают один корневой хеш, тот, что подписывается приватным ключом автора. Формируется что-то сродни ДНК-профилю.
🗂 4. Подпись сохраняется внутри JPEG
В метаданных JPEG, без влияния на изображение.
Картинка остаётся картинкой. Любая программа её открывает.
🧪 5. Проверка после кадрирования
Когда фото обрезают, часть блоков исчезает. Но оставшиеся блоки всё ещё имеют:
- свои хеши,
- своё место в дереве,
- свою проверяемую часть подписанной структуры.
Проверка выглядит так:
«Окей, у нас осталось 40 % блоков. Проверяем только их. Совпало? Значит, эта часть фото подлинная.»
Такой подход даёт возможность максимально увеличить трудозатраты на создание дипфейков неотличимых от реальных фото.
💡 Источник:
https://arxiv.org/pdf/2512.01845
Stay secure and read SecureTechTalks 📚
#️⃣ #cybersecurity #кибербезопасность #deepfake #digitalforensics #фото #cryptography #инфобез #DataIntegrity #JPEGsecurity #SecureTechTalks
🛡️ UTMStack: Open-Source SIEM/XDR, который не пытается казаться ELK
Если вы когда-нибудь собирали DIY-SIEM из ELK, плагинов, агентов-шаманов и «корреляционных правил», которые срабатывают только когда Луна в фазе роста, то вы знаете боль.
UTMStack приходит с лозунгом:
«Хватит страданий. Делай правильно! Делай монолитно».
🔥 Общая инфа
UTMStack - это open-source платформа «всё-в-одном», куда упаковали:
🧠 SIEM с real-time корреляцией
🛡️ XDR с активным обнаружением угроз
📦 Asset-менеджмент
🐞 Сканер уязвимостей
📜 Compliance (GDPR, PCI DSS, SOC2)
🔍 Контроль доступа
🤖 SOC-автоматизацию
Всё в единой архитектуре, с собственным движком анализа, без ELK и без зависимостей.
🤯 В чем фишка?
Это не очередной «ELK в шапке SIEM», а самостоятельная платформа.
✔️ Корреляция событий до индексации
⚡ События анализируются в тот же момент, когда прилетают.
Минимальная задержка = максимальный шанс поймать атаку.
✔️ 2. Не требует внешних компонентов
❌ Kibana
❌ Elasticsearch
❌ Logstash
❌ Танцы с бубном
Всё встроено.
✔️ 3. Модули, которые обычно продаются отдельно
💸 Уязвимости
💸 Asset Discovery
💸 Compliance
💸 XDR
Тут всё уже внутри и бесплатно.
📡 Что умеет на практике
Сценарий в стиле SOC:
⚠️ Агент ловит подозрительный логин
🔐 В параллели замечаются изменения прав
🧩 Корреляция связывает события
🚨 Генерится инцидент
🪓 Срабатывает автоматическое блокирование
🕵️ SOC-аналитик получает чистую картину без шумов
SIEM + XDR без интеграционного ада.
🧱 Внутренности
🧩 Linux/Windows агенты
🔄 Потоковая обработка логов
🧠 Собственный correlation engine
🌐 API + webhooks
🛰️ Поддержка облаков
🛠️ Встроенный asset discovery
🐞 Vulnerability scanner
📊 Нормальные дашборды, а не как в Kibana
📡 Масштабируемые воркеры
По факту решение ближе к коммерческим продуктам, чем к типичному open-source.
⚠️ Минусы (их тоже не мало)
🔧 Конфигурация не мгновенная, а довольно сложная
📚 Документация местами очень мутная
🛡️ XDR довольно слабенький
🐘 Прожорлив на нагрузках
🐢 Веб-интерфейс иногда подлагивает
Тем не мене продукт довольно интересный. Его можно рассматривать в категории «бесплатное и мощное».
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#SIEM #XDR #CyberSecurity #OpenSource #UTMStack #SOC #SecurityTools #Infosec #ThreatDetection #Compliance
Если вы когда-нибудь собирали DIY-SIEM из ELK, плагинов, агентов-шаманов и «корреляционных правил», которые срабатывают только когда Луна в фазе роста, то вы знаете боль.
UTMStack приходит с лозунгом:
«Хватит страданий. Делай правильно! Делай монолитно».
🔥 Общая инфа
UTMStack - это open-source платформа «всё-в-одном», куда упаковали:
🧠 SIEM с real-time корреляцией
🛡️ XDR с активным обнаружением угроз
📦 Asset-менеджмент
🐞 Сканер уязвимостей
📜 Compliance (GDPR, PCI DSS, SOC2)
🔍 Контроль доступа
🤖 SOC-автоматизацию
Всё в единой архитектуре, с собственным движком анализа, без ELK и без зависимостей.
🤯 В чем фишка?
Это не очередной «ELK в шапке SIEM», а самостоятельная платформа.
✔️ Корреляция событий до индексации
⚡ События анализируются в тот же момент, когда прилетают.
Минимальная задержка = максимальный шанс поймать атаку.
✔️ 2. Не требует внешних компонентов
❌ Kibana
❌ Elasticsearch
❌ Logstash
❌ Танцы с бубном
Всё встроено.
✔️ 3. Модули, которые обычно продаются отдельно
💸 Уязвимости
💸 Asset Discovery
💸 Compliance
💸 XDR
Тут всё уже внутри и бесплатно.
📡 Что умеет на практике
Сценарий в стиле SOC:
⚠️ Агент ловит подозрительный логин
🔐 В параллели замечаются изменения прав
🧩 Корреляция связывает события
🚨 Генерится инцидент
🪓 Срабатывает автоматическое блокирование
🕵️ SOC-аналитик получает чистую картину без шумов
SIEM + XDR без интеграционного ада.
🧱 Внутренности
🧩 Linux/Windows агенты
🔄 Потоковая обработка логов
🧠 Собственный correlation engine
🌐 API + webhooks
🛰️ Поддержка облаков
🛠️ Встроенный asset discovery
🐞 Vulnerability scanner
📊 Нормальные дашборды, а не как в Kibana
📡 Масштабируемые воркеры
По факту решение ближе к коммерческим продуктам, чем к типичному open-source.
⚠️ Минусы (их тоже не мало)
🔧 Конфигурация не мгновенная, а довольно сложная
📚 Документация местами очень мутная
🛡️ XDR довольно слабенький
🐘 Прожорлив на нагрузках
🐢 Веб-интерфейс иногда подлагивает
Тем не мене продукт довольно интересный. Его можно рассматривать в категории «бесплатное и мощное».
🔗 Ссылка на GitHub
Stay secure and read SecureTechTalks 📚
#SIEM #XDR #CyberSecurity #OpenSource #UTMStack #SOC #SecurityTools #Infosec #ThreatDetection #Compliance