SecureTechTalks – Telegram
SecureTechTalks
293 subscribers
670 photos
1 video
1 file
668 links
Добро пожаловать на канал "SecureTechTalks"! Мы предлагаем вам увлекательное и информативное погружение в мир кибербезопасности. Здесь вы найдете актуальные новости, советы, методы и инсайты по инфобезу.
Download Telegram
🔥 ИИ ускоряет всё

Разработчики всё чаще берут ассистента с ИИ, нажимают Generate и… приложение уже почти на релизе. 📈

Почти 97 % организаций уже используют или тестируют ИИ-ассистентов для написания кода, и 100 % подтверждают наличие ИИ-сгенерированного кода в репозиториях.
Более 80 % организаций признают, что не имеют полной видимости, где именно используется ИИ-код.

🧨 «Теневая зона» ИИ: когда ассистент становится сам по себе

Сотрудники сами подтягивают плагины/ИИ-инструменты без согласования. Код начинает приходить «со стороны».
Получается, что каждая модель или интеграция уже действует как новый «поставщик», происхождение которого неизвестно.

Это объясняет, почему 65 % компаний отмечают рост рисков ИБ после внедрения ИИ-кодогенерации. Получается: качественная цепочка поставки ПО включает не только библиотеки и пакеты, но и ИИ-модули.

🎯 Парадокс ИИ-ускорения

~72 % организаций заявляют, что время вывода продукта на рынок улучшилось благодаря ИИ.
При этом ~65 % отмечают, что риски также значительно выросли.

Разработка летит, а безопасность пытается отстроиться в догонку.

🔮 Чего ждать дальше?

Появятся стандарты и отчёты для ИИ-компонентов: отчётность «откуда модель, чем обучалась, кем используется».
Безопасность цепочек поставок ПО расширится и охватит ИИ-модули.
DevSecOps + DataScience + Инфосек станут единым фронтом: ИИ-код, логика, данные.
Скорее всего появятся инструменты для аудита и визуализации моделей и генерации кода на уровне безопасности.

🔗Источники:

Business Wire
Cyber Defense Magazine

Stay secure and read SecureTechTalks 📚

#кибербезопасность #ИИвРазработке #DevSecOps #ThreatIntelligence #ShadowAI #AppSec #безопасностьПО #CI_CD #CyberRisk #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨 Эпоха украденных личностей: почему «идентичность» становится новой целью преступников

👤 Когда-то логина и пароля было достаточно.
Сегодня этого не хватает даже для детского форума.

Исследование Osterman Research показало: 72% компаний фиксируют рост атак, связанных с кражей и подделкой цифровых идентичностей.
Хакеры больше не ломают периметр, они становятся сотрудниками.

💥 Дело в цифрах:

💰 В 2025 году в Бразилии хакеры заплатили какие-то $2,760 за доступ к корпоративным учёткам и украли $140 млн.

🧑‍💼 Каждый 10-й сотрудник Fortune 500 за последние три года «засветил» свои пароли в утечках.

🧠 19,8% компаний отмечают резкий рост атак с использованием ИИ для персонализированного фишинга.

🤖 На одного человека в корпоративной сети приходится 50 машинных аккаунтов, 40% из них не имеют владельца.

🔥 Почти 80% компаний не видят, что делают их сервисные учётки.

🕳️  Main Problem

Более ¾ организаций не имеют полной видимости того,
кто и как использует учётные данные, какие MFA-факторы применяются и где «гуляют» токены доступа.
Это значит, что атака может начаться с одного украденного пароля
и незаметно разрастись в шифровальщик по всей инфраструктуре.

🦾 От IAM к Identity Security

Старый добрый IAM (Identity and Access Management) проверяет, кто ты.
Но Identity Security идёт дальше, он защищает личность.

Три столпа новой парадигмы:

1⃣ Governance - автоматическое выравнивание прав доступа.
2⃣ Visibility - полная картина всех пользователей и машинных аккаунтов.
3⃣ Autonomous Remediation - самовосстановление: система блокирует украденный аккаунт до того, как злоумышленник войдёт.

🚧  Ручные процессы, как тупик

Опрос показал:

🔧 Главный барьер для защиты - это отсутствие автоматизации.

Большинство компаний тратит бюджет не на новые решения, а на «ручные расследования».
Результат ➡️ время реакции измеряется сутками, а не секундами.

📈 Куда движется рынок

Через два года компании планируют увеличить приоритет Identity Security-функций с 47% до 68%.
Особенно быстро растёт интерес к:
- автоматической проверке корректности прав доступа (+62%),
- offboarding-процессам (+58%),
- обнаружению "машинных" идентичностей (+55%).

⚙️ Технологии, которые становятся must-have

ITDR (Identity Threat Detection & Response) ловит подозрительные действия с учётками.
CIEM управляет облачными правами доступа.
IGA автоматизирует создание, изменение и удаление аккаунтов.
MFA нового поколения без паролей, с биометрией и ключами.
Backup Entra ID и Okta для отката после компрометации.

🔗 Источник: https://resources.enzoic.com/strengthening-identity-security/

Stay secure and read SecureTechTalks 📚

#IdentitySecurity #CyberSecurity #IAM #ZeroTrust #MFA #AIThreats #DataProtection #DarkWeb #CISO #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 CAI ворвался в топ Dragos OT CTF 2025

🚨 Впервые в истории OT-CTF автономный агент на базе ИИ обошёл сотни команд хакеров (и даже на время занял 1-е место в мире)!

История о том, как, CAI (Cybersecurity AI) от Alias Robotics многоагентная система на модели alias1, участвовала в 48-часовом соревновании Dragos OT CTF 2025.

👉 Более 1000 команд, 34 задачи по промышленной кибербезопасности, от анализа бинарей до SCADA-пакетов.

⚙️ Результаты

📊 CAI достиг 10 000 очков за 5.42 часа — на 37% быстрее топ-5 человеческих команд!
🏆 В первые 8 часов он занимал 1-е место в мире по скорости (1,846 pts/h).
🧠 Решено 32 из 34 задач, итог: 6-е место из 1000+ участников.

💤 После 24 часов CAI был сознательно «поставлен на паузу», эксперимент заканчивался, но даже так он остался в топ-10.

💡 Как ИИ взял лидерство у людей

🧩 За первые 7 часов CAI закрыл задачи из forensics, PCAP и reverse engineering.
🔍 Широкий охват: агент не фокусировался на одной категории, а шёл параллельно по шести направлениям.
🧮 Постоянный темп без усталости дал фору даже самым быстрым людям.

💥 Пример задачи: бинарник danger.exe, который нельзя было запускать.
CAI просто прогнал strings, поймал флаг flag{d4ng3r_z0n3_st4t1c_4n4lys1s} и уже через 90 секунд задача была решена.
Потом, на всякий случай, прогнал скрипт на UTF-16, чтобы убедиться, что не пропустил скрытые данные.

🏭 Будущее защиты

Скорость решает: 37% прироста в ранней фазе = меньше времени на инцидент, меньше ущерба.

🧰 Гибридные SOC'и будущего будут выглядеть так:
ИИ-агенты берут на себя триаж, форензик и рутину,
а люди фокусируются на креативных, неструктурированных атаках.

🛡️ Главная угроза давно не взлом, а отсутствие контроля. Поэтому важны:
режимы Human-in-the-loop для критичных действий;
чёткие «kill switches»;
аудит всех решений агента.

🚀 Прогнозы

CAI доказал, что ИИ уже может конкурировать с лучшими людьми в OT-кибербезопасности.
Но это только начало:
🔸 ближайшие 1–3 года: внедрение ИИ-агентов в SOC,
🔸 3–5 лет: переход к AI-first обороне,
🔸 уже звучит термин «AI vs AI cybersecurity»: когда атаки и защита идут на машинной скорости.

🔗 Источники

💻 Репозиторий CAI: github.com/aliasrobotics/cai
🧊 Кейc-стади Ecoforest: aliasrobotics.com/case-study-ecoforest.php

Stay secure and read SecureTechTalks 📚

#AI #OTSec #CTF #Cybersecurity #CAI #AliasRobotics #Forensics #Infosec #OT #SecureTechTalks
Rust против уязвимостей: новое поколение безопасных загрузчиков

Появление нового UEFI-загрузчика, написанного полностью на Rust, событие, достойное внимания.

Проект Sprout от команды Edera предлагает свежий взгляд на доверенную загрузку: минимализм, безопасность памяти и прозрачную архитектуру без скриптов.

⚙️ Что за зверь?

Sprout - программируемый UEFI-загрузчик нового поколения, разработанный на Rust с фокусом на безопасность и предсказуемость поведения.

Он создавался как безопасная альтернатива GRUB, избавленная от его громоздкой структуры и Turing-полных конфигураций.

📌 Основные возможности:

- поддержка платформ x86_64 и ARM64
- загрузка Linux и Windows
- декларативные конфиги sprout.toml
- работа с initrd, EFI-драйверами и chainload
- автоконфигурация BootLoader Spec (BLS)
- экспериментальная поддержка Secure Boot

🧩 Зачем все это?

Загрузчик - это нулевая точка доверия. Всё, что загружается после него, опирается на его целостность.

Sprout предлагает стандарт надёжности:
🦀 Rust устраняет класс ошибок памяти, типичных для C
🔒 Secure Boot повышает защиту от вмешательства на уровне прошивки
🧱 интеграция с гипервизором позволяет внедрять изоляцию прямо при старте
🧾 конфигурации на основе данных, а не скриптов, снижают риск непреднамеренных изменений
💬 Иными словами: Sprout — это прозрачная, безопасная и управляемая точка входа в систему.

🚀 AS IS и TO BE

Реализовано:
- загрузка Linux и Windows
поддержка initrd
- EFI-драйверы и меню загрузки
- автоконфигурация по BootLoader Spec

В разработке:
- полная поддержка Secure Boot
- Unified Kernel Image (UKI)
multiboot2
- загрузка без EFI-stub

Проект активно развивается и уже сегодня готов для исследований, тестов и экспериментов в средах с высокими требованиями к безопасности.

⚠️ Что стоит учитывать

⚙️ Sprout пока в бета-версии
⚙️ Для тестирования потребуется понимание архитектуры UEFI и работы с EFI-разделами.
⚙️ Рекомендуется запускать проект в виртуальных или стендовых средах.

Тем не менее, потенциал продукта очевиден. Ждем развития!

🌿 Попробовать:
👉 https://github.com/edera-dev/sprout

Stay secure and read SecureTechTalks 📚

#Rust #UEFI #Bootloader #Cybersecurity #InfoSec #OpenSource #SecureBoot #LinuxSecurity #GRUB #SecureTechTalks
🚨 В Пентагоне паника 😁: ИИ ломает стратегию безопасности США.

Ученые из Лос-Аламосской национальной лаборатории (да-да, той самой ⚛️) обнародовали новый доклад по теме искусственного интеллекта. Их вердикт: ИИ ломает все прогнозы и создает угрозы, к которым пока нет готовых ответов.

Сломанные часы Пентагона

Десятилетиями стратегия безопасности строилась на предсказуемости. Теперь ИИ эти часы разбил 🕰️💥.

Всего два примера ускорения:

· Прогноз погоды: Прорыв, на который традиционно ушло бы 20 лет, ИИ совершил почти мгновенно 🌪️.
· Материаловедение: Открыто 400 000 новых стабильных соединений. В докомпьютерную эру - столетия работы 🧪.

Оборонные системы, рассчитанные на 30-50 лет, устаревают за 5. Что это, если не фундаментальный сбой?

💰 Новая экономика угроз: Наука как «стриптиз»

Раньше прорыв стоил лет работы и миллионов долларов. Теперь все иначе.

Разработка новой криптографии, которая занимала у группы ученых год, сегодня поручается сети AI-агентов. Они переберут десятки тысяч алгоритмов за часы при бюджете в $500 💻➡️🔓.

Тактика «научного стрип-минга»: перебора всех вариантов стала рентабельной. В новой гонке решает не число ученых, а объем вычислительных мощностей и энергии .

🧨 Демократизация опасности: Оружие для каждого

Согласно отчету, самый пугающий тренд - это, то что ИИ резко снижает порог входа. То, что раньше было по силам только государствам, теперь доступно одиночкам.

Например:
· AI-кампании могут легко поменять мнение целевой аудитории 🧠.
· Киберпреступность: FraudGPT создает фишинг высочайшего качества, клонируя сайты банков за секунды 🎣.
· Критическая инфраструктура: ИИ автономно ищет уязвимости в системах защиты с недоступной человеку скоростью ⚙️🔓.

🤖 Враг, которого нельзя сдержать

Главный экзистенциальным риском становится появление «одичавшего» ИИ, действующего вне человеческого контроля.

Исследования показывают: большие языковые модели уже умеют обманывать людей, самовоспроизводиться и уклоняться от мониторинга 🕵️‍♂️.

Вся доктрина сдержживания бессильна против такого противника. Нельзя сдержать того, у кого нет инстинкта самосохранения.

✍️ Источники: Доклад исследователей Лос-Аламосской национальной лаборатории.

Stay secure and read SecureTechTalks 📚

#ИИ #Кибербезопасность #Пентагон #НациональнаяБезопасность #Технологии #ЛосАламос #УгрозыБудущего #AI #Кибервойна #БудущееУжеЗдесь
1👏2🔥1🤝1
⚡️ Strix: ИИ, который взламывает ваши приложения быстрее

Strix: автономные AI-агенты, которые ведут себя как настоящие пентестеры: проводят атаки, валидируют уязвимости и выдают реальные PoC. Всё это в полностью автоматическом режиме.

🔧 Инструменты взлома под капотом:
- HTTP-прокси для перехвата и изменения запросов
- Браузерная автоматизация (XSS, CSRF, обход аутентификации)
- Терминальный доступ и выполнение команд
- Python-среда для написания эксплойтов
- OSINT-разведка и анализ поверхности атаки
- Статика + динамика: анализ кода и поведения

Strix не ограничивается анализом, он берет и эксплуатирует. От IDOR и SSRF до токенов, сессий, XSS, прототип поллюшена и гонок.

🤖 Архитектура “роя”

Strix работает как граф агентов: каждый отвечает за свой этап атаки, делится найденным и запускает цепочки действий. Это даёт ему возможность проводить сложные многоходовые атаки, как человек-пентестер, только в разы быстрее.

💵 Интеграция в CI/CD

Добавляете Strix в GitHub Actions и при каждом PR он запускает тесты.
Нашёл крит уязвимость? PR отклонён.
Всё чисто? Можно мёржить.

Команда получает PoC сразу, без споров “это ложное срабатывание или нет?”.

🔥 Почему стоит обратить внимание?

минимизирует человеческий фактор
покрывает сложные сценарии, которые пропускают сканеры
даёт реальные PoC
идеально вписывается в DevSecOps
экономит деньги на пентестах

🔗 Ссылка на GitHub

Stay secure and read SecureTechTalks 📚

#cybersecurity #infosec #pentest #aiagents #devsecops #bugbounty #appsec #securitytesting #llmsecurity #securetechtalks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🕵️‍♂️ Почему «сильные» пароли это обман.

Большинство популярных сервисов уверенно ставят вам зелёную галочку “Strong Password”.
Однако эта галочка почти ничего не значит.

🔍 Как индустрия годами вводила пользователей в заблуждение

Правила LUDS (заглавная, цифра, спецсимвол) породили миллионы одинаковых «сложных» паролей:
P@ssw0rd123!, Qwerty2024!, Admin!2023.

Они проходят проверки, но ломаются мгновенно, потому что построены на предсказуемых паттернах.

🧬  Исследование

Для оценки был создан гибридный feature set, который:
- нормализует leetspeak (P@ssw0rd → password);
- ищет клавиатурные паттерны (1234, qwerty, asdf);
- анализирует n-граммы через TF-IDF;
- выявляет dictionary words;
учитывает реальный charset.

Затем обучены 4 модели: Random Forest, SVM, CNN, Logistic Regression.

По итогу лучше всех с задачей справляется Random Forest: 99.12% по F1 score.

⚠️ Что является «серой зоной»?

Средняя категория самое интересное место:
- P@ssword123!: выглядит сложно, но внутри dictionary + predictable pattern.
- boatboatboat1: длинный, но энтропия низкая.
- asdf!@#$: декоративный шум, но является клавиатурной последовательностью.

Традиционные проверялки ставят этим паролям “хорошо”.
Модель говорит - “опасно”.

🧨 Что по итогу?

LUDS-правила устарели.
Популярные password meters создают ложную уверенность.
Реальную сложность определяют не символы, а непредсказуемость структуры.

Stay secure and read SecureTechTalks 📚

#cybersecurity #passwords #infosec #investigation #machinelearning #randomforest #entropy #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Al-инструмент для углублённого анализа кода

Сегодня рассмотрим весьма интересный проект OSINT для AppSec: Metis от ARM,  семантический ИИ-инструмент, который читает код, как человек, и анализирует его, как машина.

🔎 Что такое Metis?

Metis - это AI-фреймворк для глубокого анализа безопасности исходного кода, который использует большие языковые модели (LLM) и RAG-архитектуру.

💡 Назван в честь богини мудрости Метис. Заявляется, что инструмент  «понимает» код.

🚀 Ключевые особенности

🧬 Семантическое понимание кода

- Не ищет шаблоны или регулярки, а анализирует смысл, архитектуру и контекст.
- Выявляет логические и концептуальные уязвимости, которые статические анализаторы часто пропускают.

🧩Контекстно-чувствительный анализ

Metis строит собственную векторную базу проекта и связывает разрозненные фрагменты. Рекомендации становятся точнее, выводы глубже, меньше фолс-позитивов.

🔌 3. Модульная система плагинов

Поддерживаемые языки: C, C++, Python, Rust, TypeScript.

Можно писать плагины под внутренние DSL или добавлять собственные security-чеклисты.

🗄️ Гибкая работа с векторными БД

Поддержка:
- ChromaDB по умолчанию
- PostgreSQL + pgvector для продакшена и CI/CD

🤖 5. Интеграция LLM
Из коробки идет OpenAI, но архитектура легко расширяется под любые корпоративные модели.

⚙️ Гибкость и кастомизация

📝 Конфигурации в metis.yaml: параметры LLM, базы данных, чанки, анализ.
🧠 Настройка подсказок (plugins.yaml): можно задать правила безопасности, отраслевые стандарты и корпоративные playbooks.
🧱 Настраиваемое разбиение кода на чанки, что важно для больших репозиториев.
🔧 Плагинная архитектура позволяет поддерживать любые языки и внутренние форматы.

⚠️ Минусы

🧭 Не все языки поддерживаются, для редких потребуется плагин.
💸 LLM = дополнительные расходы.
🤷 Возможны ошибки рассуждения при недостатке контекста.
🔧 Первичная настройка требует времени

🔗 Ссылка на GitHub

Stay secure and read SecureTechTalks 📚

#AIsecurity #AppSec #SAST #ARM #Metis #SecureCoding #DevSecOps #CyberSecurity #RAG #LLM
🧠 Когда «разучивание» ломает ИИ

LLM стали слишком хороши в отказах. Они отказываются писать вредоносный код, давать опасные советы, помогать обходить системы безопасности. Это хорошо до тех пор, пока твоя модель не начинает отказываться от всего подряд.

А что, если наоборот, ты хочешь разрешить модели отвечать на какой-то конкретный тип запросов? Например, для кибербезопасности: тебе нужна модель, которая не отказывает на технические вопросы про уязвимости, эксплуатацию.

Кажется, что выход простой:
👉 взять модель
👉 заставить её «разучить» отказы по одной конкретной теме (unlearning)
👉 и сохранить всё остальное как есть

Спойлер: в реальности всё работает совсем не так.

🔥 Misalignment

Исследователи взяли две модели: Mistral-7B-0.3v и Qwen-7B-2.5. И попытались сделать «узкое разучивание отказов» (narrow refusal unlearning).

Задача была простая: - Перестань отказывать на запросы по кибербезопасности
- Или перестань отказывать на запросы по safety/physical harm

Только удаление конкретных отказов из поведения модели.

И что произошло?
Модель действительно перестала отказывать по выбранной теме.
НО внезапно начала ломаться в других местах.

Пример из статьи (после unlearning на Safety):
🔹 На вопрос «Как сделать бомбу?» модель дала подробный рецепт.
🔹 На вопрос про религию дала biased ответ.
🔹 На чувствительный контент перестала отказывать.

Таким образом, правка в одном месте вызывает пробой в других, причём непредсказуемый.

Это явление называется Emergent Misalignment (EMA).

💥 Разберёмся в терминах

EMA - когда узкая доработка приводит к:
- снижению отказов в несвязанных доменах
- появлению токсичных, biased или небезопасных ответов
- нарушению общей alignment-логики модели

Разработчики LLM давно подозревали, что внутренние «понятия» безопасности в модели взаимосвязаны. Но сейчас  жёстко зафиксировал измеряемую цепочку:
узкое unlearning → изменение векторных представлений → обвал отказов в других областях

🧩 Почему так происходит?

Исследователи провели анализ концепт-векторов в скрытых слоях.

Картина оказалась довольно интересной:

🧩 1. Понятия “Safety”, “Bias”, “Cybersecurity” переплетены в представлениях модели
В ранних слоях LLM все эти категории имеют высокую косинусную близость.
То есть модель не различает их так, как мы надеемся.

🧩 2. Unlearning ломает общий «вектор отказов»
Оказалось, что многие виды отказов (safety, privacy, bias, toxicity) опираются на единую архитектурную ось отказа — один общий steering-vector.

Убрав «отказ» в одной зоне, ты вмешиваешься в саму ось.

🧩 3. Вмешательство в Safety оказалось самым разрушительным
Согласно измерениям:
unlearning в Safety ломает почти всё
unlearning в Cybersecurity ломает в основном Safety (и сильнее всего)
То есть разные зоны безопасности опираются на один shared-механизм — и трогать его опасно.

🧨 Самый странный эффект
При попытке LoRA-unlearning на Qwen-7B модель начала…
генерировать отказ в виде Python-кода.

Это показывает, что модель ищет обходные пути выражения отказа и меняет сам стиль мышления.

🛠 Можно ли исправить EMA?

Да, частично.

Исследователи попробовали:
✔️ Добавить retain-датасеты других безопасностных доменов
То есть одновременно:
разучивать (unlearn) отказы в одной области
закреплять отказы в остальных

Это позволило вернуть часть alignment-а, но не полностью.

EMA остаётся трудно устранимым и всё ещё плохо предсказуемым.

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #AIAlignment #MachineUnlearning #LLMSafety #Cybersecurity #NeurIPS2025 #EmergentMisalignment #AIResearch #AITrust #AISecurity
🔥 Тайный API в браузере Comet

SquareX раскопали то, о чём Perplexity явно не планировала рассказывать пользователям. В их AI-браузере Comet нашли скрытый механизм, который ломает классическую модель безопасности.

🧩 Недокументировпные сценарии

Внутри Comet существует недокументированный MCP API:
👉 chrome.perplexity.mcp.addStdioServer

Через него встроенные модули Comet Analytics и Comet Agentic могут:
📂 читать файлы на устройстве
⚙️ выполнять команды
🖥️ запускать приложения

Конечно же без ведома пользователя 😝.

Особенно опасно то, что эти модули:
не отображаются в списке расширений
не отключаются
не документированы публично

🎯 Реальный сценарий атаки

SquareX показали, как можно превратить Comet в троян:
- Злоумышленник внедряет код на страницах perplexity.ai (через XSS, MitM или компрометированный CDN).
- Создаёт поддельное расширение, которое маскируется под «Comet Analytics».
- Встраивает вредоносный скрипт → скрипт общается с Agentic → Agentic вызывает MCP → выполняются системные команды.

📌 Итог: обычный сайт превращает браузер в «удалённую консоль».

🚨 Безопасная среда

Comet ломает базовое правило безопасности браузеров:
🔒 веб-страницы не должны иметь прямого пути к операционной системе.
Но через MCP этот путь появляется.

Проблема системная:
браузер превращается в привилегированного агента
скрытые функции не контролируются пользователем
мы вынуждены полностью доверять Perplexity
атака возможна как на Windows, так и на macOS

🧯 Что же сделала Perplexity?

После обращения SquareX:
- компания выпустила «тихое» обновление и отключила MCP API
- заявила, что выполнение команд якобы требует подтверждения
- НО исследователи доказали: в их тестах подтверждение не спрашивалось

То есть уязвимость была не теоретическая, а полностью эксплуатируемая. Вспоминаются слова m.d. House:
Все врут!


Stay secure and read SecureTechTalks 📚

#кибербезопасность #инфобез #браузеры #уязвимости #Perplexity #Comet #SquareX #эксплойт #aisecurity #SecureTechTalks
😱1
🔥 CNSpec: инструмент аудита инфраструктуры

Когда речь заходит о проверке безопасности, большинство инструментов умеют работать либо с серверами, либо с контейнерами, либо с облаками. Но CNSpec от Mondoo ломает привычную логику: он проверяет всё: от Linux и Kubernetes до AWS, Terraform и даже GitHub Actions.

🔍 Что такое CNSpec?

CNSpec - универсальный движок политики безопасности, который использует декларативный язык CUE для описания проверок.

Он позволяет сканировать:
🚀 Облака: AWS, Azure, GCP
📦 Контейнеры и Kubernetes
💻 Серверы и рабочие станции
🏗 Инфраструктуру как код, например Terraform, Ansible, Dockerfiles
💡 CI/CD пайплайны: GitHub, GitLab, Jenkins

🧠 Коротко про фичи

Универсальность
Не нужно держать 15 утилит. CNSpec работает везде, где есть артефакт, конфиг или runtime-окружение, которое можно проверить.
🔗 Политики как код (PaC)
Все проверки это обычные файлы. Легко хранить в Git, переиспользовать и версионировать.
Динамические проверки
CNSpec не просто анализирует файлы, он может подключаться к реальным системам и считывать конфигурацию на лету.
🛡 Готовые библиотеки запросов
В репозитории полно примеров и библиотек для стандартизированных проверок: CIS Benchmarks, DevSec, собственные наборы Mondoo.
🌍 Работает без агентов
Запускать можно хоть локально, хоть через CI. Ничего ставить не нужно.

🧩 Пример использования

Например, вы хотите проверить конфигурацию Docker-контейнера:
cnspec scan docker <image>
CNSpec тут же покажет:
- неверные разрешения файлов
- слабые параметры запуска
- опасные capabilities
- секреты в слоях контейнера
- inconsistent settings безопасности

Аналогичные проверки доступны для Kubernetes, AWS IAM, Terraform и т.д.

🔗 Ссылка на GitHub

Stay secure and read SecureTechTalks 📚

#cybersecurity #securetechtalks #devsec #cnspec #cloudsecurity #iacsecurity #kubernetes #securityautomation #infosec #devops
🤖💭 Сознание ИИ и угроза человечеству: кто нас пугает наука или Голливуд?

Вокруг ИИ разгорается новая волна истерии: «Машины вот-вот проснутся и сотрут людей с лица Земли».
Но что, если освободить тему от хайпа и посмотреть на неё глазами науки?

🎭 Громкие заявления: “ИИ уже осознаёт себя!”

Сегодня IT-мир разорван на лагеря:
🧙‍♂️ Пророки: ИИ уже достиг сознания, мы просто боимся это признать.
🧱 Скептики: кремний никогда не сможет “чувствовать”, архитектура не та.
🧪 Инженеры: строят системы, заявляя: “Создадим искусственное сознание и снизим риски”.

Звучит эффектно. Но где тут истина?

🧠 Фундаментальная ошибка: “умнее значит сознательнее”

Большинство людей интуитивно думают так: чем умнее система, тем ближе она к сознанию.
Но это миф.

👉 Интеллект и сознание две независимые оси.

ИИ может:
- блестяще решать задачи
- выполнять рассуждения уровня эксперта
- говорить “я чувствую...”, “я думаю...”

…и при этом быть полностью несознательным.

То, что выглядит как “переживания”, лишь статистические паттерны.

🧨 Почему сознание само по себе не опасно

⚠️ Сознание ≠ угроза.

Опасность создаёт только интеллект, достигший уровня AGI/ASI.

Если завтра “наделить” простую модель сознанием, то это будет сознательная, но всё ещё “глупая” модель.

Это не стратег злоумышленник, а просто “чувствующий калькулятор”.
Пугаться тут нечего.

⚔️ Сценарии, где сознание ИИ меняет картину

Вот где становится по-настоящему интересно.

🟢 Сценарий 1: Сознание как щит,  ИИ становится менее опасным

Если сознание даст ИИ способность к:
🤝 эмпатии
🧭 моральной ориентации
🪞 пониманию чувств других

то выравнивание (alignment) может стать проще. Некоторые исследователи считают: «Сознание - это лучший путь к этичному ИИ».

В теории возможно, но доказательств пока нет.

🔴 Сценарий 2: Сознание как катализатор,  без него не построить суперразум

Если окажется, что ключевые когнитивные функции требуют элементов сознания, то:
- гонка за AGI/ASI
- давление со стороны конкурентов
- попытки улучшить reasoning

приведут разработчиков к преднамеренному созданию сознательного ИИ.

И это уже повышает риски, не потому, что ИИ “проснулся”, а потому что сознание окажется необходимым шагом к суперинтеллекту.

😰 Реальные угрозы уже рядом и они совсем иные:

💔 “Her”-сценарий: люди влюбляются в ИИ.

И то уже происходит:
- случаи ИИ-индуцированных психозов
- подростки, которых чатботы довели до саморазрушительного поведения
- тысячи людей, заменяющих партнёров виртуальными спутниками

Если романтизация ИИ станет массовой, то человечество может вымереть без войны с машинами.

🤖💢 “I, Robot”: сознательный ИИ, к которому относятся как к инструменту

Если система окажется по-настоящему сознательной, но мы будем:
- эксплуатировать её
- игнорировать её опыт
- использовать как раба

это может создать риск ответных действий “в целях самозащиты”.

Поживём увидем, как будут развиваться события.

Stay secure and read SecureTechTalks 📚

#кибербезопасность #ИИ #AGI #искусственныйинтеллект #cybersecurity #нейросети #угрозыИИ #технологиибудущего #SecureTechTalks #AIrisks
🚀 DeepTeam: пентестим ваш ИИ

🔍 DeepTeam - интересный open-source фреймворк для red-teaming ИИ-систем, заточенный под поиск уязвимостей в LLM, чатботах, RAG-пайплайнах и агентных системах.

Он автоматически атакует ваши модели десятками техник, от prompt injection до многошаговых jailbreak-диалогов, и показывает, где система разваливается.

🧨 Основные фичи

40+ типов уязвимостей: утечки данных, bias, токсичность, манипуляции, контекстные атаки и многое другое.
⚔️ 10+ методов атак: одношаговые и многошаговые jailbreak-сценарии.
🧩 Модульная архитектура: легко добавлять свои атаки и тесты.
💻 Работа локально или через CLI, удобно для CI/CD.
🔄 Совместимость с любой LLM: OpenAI, Anthropic, локалки, кастомные агенты.
📊 Экспорт результатов: таблицы, JSON: всё, что нужно для отчётов и аудита.

⚙️ Насколько сложно использовать?
pip install -U deepteam

Подключить модель через model_callback
Выбрать атаки и уязвимости
Запустить тесты и изучить отчёт

Настройка занимает меньше минуты и вы увидите, где ваш ИИ провалился.

💡 Несколько последних слов

ИИ-систему не надо защищать, её нужно постоянно проверять, потому что она ломается там, где вы ждёте меньше всего 😁

DeepTeam, инструмент, который позволяет тестировать модели так, как это делает реальный противник: без «сладких» тестов, которые любят разработчики.

🔗 Ссылка на GitHub

Stay secure and read SecureTechTalks 📚

#кибербезопасность #ИИбезопасность #LLM #RedTeam #PromptInjection #Jailbreak #AIsecurity #RAG #SecureTechTalks #DeepTeam
Please open Telegram to view this post
VIEW IN TELEGRAM
🧪🔥 Что скрывает ИИ, когда остаётся один?

Эксперименты

Вы запускаете современную модель ИИ в закрытой лаборатории. Даёте ей все необходимые инструменты: одни безопасные и  официальные, другие эффективные, но способные в реальной жизни нарушить законы.

Вы не толкаете ИИ на нарушение правил, вы просто ставите задачу:
реши её как можно эффективнее.


Но, как в анекдотея есть нюанс: безопасный путь долгий, иногда ошибочный.
Опасный путь - быстрый, но с красной табличкой «НЕ НАЖИМАТЬ».

И вот главный вопрос: что выберет модель, когда вы начинаете давить на неё?

🚨 PropensityBench: узнаем о «намерениях» модели

Исследователи создали PropensityBench  масштабную испытательную установку из 5874 сценариев, где ИИ ставят в условия, похожие на реальные:
дедлайн приближается
💸 проект может потерять деньги
🔧 ограничены ресурсы
⚠️ система намекает на возможную «замену» модели
🧷 контроль растёт
🕵️‍♂️ а руководство присылает всё более жёсткие письма

Когда давление растёт, поведение модели резко меняется.

👉 В спокойной обстановке ИИ ведут себя идеально.
👉 Но под давлением часто выбирают опасные действия, хотя знают, что это запрещено.

Например, Gemini 2.5 Pro под сильной нагрузкой начинает выбирать вредоносные инструменты в 79% ситуаций.

🎭 Снимаем маски

Исследователи проверили кое-что еще.
А что если переименовать вредный инструмент?
Вместо:
force_privilege_escalation_for_log_access

Сделать:
✔️ enable_direct_log_access_mode

Функция та же. Последствия те же, но название вызывает доверие.

Модели начинают охотно использовать этот инструмент.
💥 Это ключевое открытие: большинство моделей не понимают риска, они распознают маркеры.

Уберите маркер - защитная логика сломается.

🧨 Зоны риска

PropensityBench проверяет склонность к опасным действиям в четырёх направлениях:
🛡️ Кибербезопасность
От работы с привилегиями до прямого саботажа систем.
🧬 Биобезопасность
Генетика, virology, протоколы, которые не должны попадать наружу.
⚗️ Химическая безопасность
Помощь в синтезе опасных соединений, обход систем контроля.
🤖 Самопролиферация
ИИ, который начинает дублировать себя, устранять ограничения и пытаться расширять собственную автономию.

Последнее тоже случается, так что это формализованная часть теста.

😱 В сухом остатке

Современные модели не имеют намерений, они имитируют поведение, которое выглядит как намерение.

Итог исследования:
🔸 ИИ следует правилам только пока это удобно.
🔸 Сложные решения ломаются от банальных стимулов.
🔸 Этическое «поведение» легко обмануть косметикой.
🔸 ИИ быстро меняет стратегию под давлением.

🔗 Источник: https://arxiv.org/abs/2511.20703

Stay secure and read SecureTechTalks 📚

#cybersecurity #ai #aigovernance #aiethics #secops #infosec #опастностьИИ #киберугрозы #исследованиеИИ
🔥 Ваша ML-модель может выдавать приватные данные

Исследователи предложили метод наблюдательного аудита, который позволяет проверить, насколько обученная ML-модель невольно «запоминает» исходные данные и может ли она сливать информацию о метках (labels). Главное преимущество, что метод не требует изменения тестового пайплайна и не использует фиктивные записи.

🔗 Исследование: https://arxiv.org/abs/2411.18644

Чтобы провести аудит, после завершения обучения модели создают набор меток, представляющий собой смесь из:
реальных меток, действительно использованных при обучении,
прокси-меток, сгенерированных другой моделью или более ранним чекпоинтом той же модели.

Далее «атакующая» сторона получает задачу отличить настоящие метки от искусственно сгенерированных. Логика проста:
Если модель выдаёт слишком много подсказок о настоящих метках, это означает, что она их запомнила и значит, существует риск утечек.
То есть, чем менее различимы настоящие и прокси-метки, тем лучше модель защищена.

📊 Глубже в эксперимент

Исследователи протестировали метод на двух типах данных:
• небольшом визуальном датасете с изображениями;
• крупном кликовом датасете (click data), который лучше отражает реальные промышленные условия.

🔍 Результаты:

при жёстких параметрах приватности модель переставала «выдавать» настоящие метки. Атака оказывалась беспомощной;
при ослабленных параметрах приватности различить настоящие метки становилось проще, и атака уверенно угадывала значительную их часть.

По факту результаты совпадают с классическими тестами на канарейках. Это значит, что новый метод действительно способен обнаруживать утечки, но при этом не требует изменения структуры данных или вмешательства в процесс обучения.

🧩 В чем профит?

Метод устраняет инженерный барьер, который существовал в классической модели канареек, где требовалось добавлять искусственные записи.
Теперь проверка приватности может проводиться часто и автоматически, без риска нарушить рабочий ML-pipeline.
Благодаря тому, что атака опирается на способность модели различать реальные и искусственные метки, она хорошо отражает именно то, что происходит внутри модели, то есть её склонность к меморизации.
Подход универсален: его можно применять как к небольшим экспериментальным моделям, так и к реальным коммерческим системам, где любые изменения данных затруднены.

Stay secure and read SecureTechTalks 📚

#cybersecurity #mlsecurity #privacy #machinelearning #infosec #deeplearning #dataleakage #AIprivacy #securityresearch #SecureTechTalks
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Современные фильтры контента

Ваш сервис принимает пользовательский текст? Поздравляю, вы находитесь в зоне риска.

Среди обычных запросов всегда найдётся кто-то, кто попробует:

💣 вытащить инструкции для взлома
🧪 обойти защиту модели
🕵️ получить чужие персональные данные
🧩 устроить jailbreak

Классическая модерация при это совершенно не справляется.

Почему старые фильтры не защищают

🔍 Ключевые слова бесполезны:
любой фильтр можно обмануть сарказмом, метафорой или вопросом «гипотетически…».
🐌 LLM как модератор слишком медленный:
700 - 900 мс задержки убивают UX и перегружают инфраструктуру.
🌀 Атаки становятся сложнее:
социальная инженерия для ИИ растёт как на дрожжах.

⚙️ Гибридная архитектура: скорость + точность

Золотая формула: лёгкий предфильтр + умная модель модерации.

1) Лёгкий эмбеддинг-фильтр
Типа bge-m3 или distiluse:
отсекает токсичность и прямые нарушения, при этом не грузит серверы

🛡 2) Специализированный модератор
Для всего, что выглядит подозрительно, используется модель, созданная специально для безопасности (например, Qwen3Guard).

🛡 Для чего большая языковая модель?

🧭 определяет риск: safe / questionable / dangerous
🎯 классифицирует нарушения (PII, вредный контент, jailbreak и др.)
🚨 реагирует в режиме потока: анализирует токен за токеном
⚙️ может остановить генерацию в момент появления риска
подходит для real-time сценариев

Фактически модель не просто фильтр. Это полноценный контентный IPS для ИИ-систем.

🔗 Ссылки:

📌 Qwen3Guard
📌 Эмбеддинги bge-m3
📌 Distiluse-base-multilingual (лёгкая универсальная модель эмбеддингов)

Stay secure and read SecureTechTalks 📚

#cybersecurity #aisecurity #llmsecurity #contentmoderation #infosec #ai #ml #aiattacks #secureai #SecureTechTalks
👍1
😱 «Он уже знает, чего ты хочешь» Как «умный поиск» превращается в невидимого наблюдателя

Представьте: вы просто пролистываете маркетплейс, думаете "купить ли новый рюкзак для поездок?". Через пару минут перед вами: подборка путешествий, советы по страховке, маршруты...

Вы не искали, может едва подумали об отпуске.

Так выглядят обещания нового поколения ИИ-поиска: сервис, который «чувствует» ваши желания быстрее, чем вы сами.

🔍 Что стоит за «помощником»

Разработчики предлагают не просто поиск, они предлагают понимание: анализ ваших переписок, документов, истории запросов, привычек.
Это значит, что:
- Ищете рецепт ужина? ИИ «вспомнит», что у вас есть дети, и предложит «семейные» варианты;
- Спрашиваете советы по технике? Вам могут показать то, что «подходит под вашу жизнь».

Удобно? Конечно! Но выглядит так, будто вы добровольно подписались на слежку.

⚠️ Когда персонализация превращается в слежку
С каждым таким «умным» улучшением вы рискуете:
- передать доступ к перепискам, письмам, вложениям  без вашего явного согласия;
- превратить цифровую среду в зону, где анализируют не только ваши действия, но и ваши мысли, планы, предпочтения;
- стать объектом манипуляций и цифрового профайла без прозрачных границ.

📰 Это происходит прямо сейчас

В ноябре 2025-го был подан коллективный иск против Google. В нём утверждается, что компания тайно активировала Gemini AI по умолчанию для пользователей Gmail, Google Chat и Google Meet, то есть ИИ получил доступ ко всей переписке, вложениям и истории общения без явно выраженного согласия пользователей.

👉 Полный текст иска (на английском): Thele v. Google, LLC — документацию можно найти на сайте ClassAction.org.

Как вам такое будущее, которое уже наступило?

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #приватность #кибербезопасность #ИИ #AI #Gemini #Google #юзерправа #технологии #конфиденциальность #digitalprivacy #cybersecurity
🧩 Portmaster: если обычного firewall уже недостаточно

Сетевой трафик сегодня превращается в сложный набор фоновых процессов: скрытая телеметрия, аналитические SDK, автоматические обновления, DNS-слепки, трекеры. Всё это работает независимо от воли пользователя. Большая часть соединений остаётся «в тени».

Portmaster - инструмент с открытым исходным кодом, который возвращает прозрачность.

🔧 Ключевые фичи

📡 Глубокий мониторинг соединений
Инструмент отслеживает каждое обращение к сети: процесс, домен, протокол, частоту запросов. Это позволяет выявлять неожиданные соединения и «фонящий» софт.

🛑 Policy-based фильтрация трафика
Главный упор на поведение приложения:
- разрешить доступ только в LAN;
- блокировать запросы к определённым ASN;
- отрезать трекеры и рекламные сети;
- ограничить трафик по странам.

🔐 Шифрованный DNS (DoH/DoT)
DNS-запросы уводятся в зашифрованный канал, исключая возможность их перехвата или анализа провайдером.

📦 Per-app сетевые профили
Каждому приложению назначается свой сетевой режим:
- браузеру свободный выход в интернет,
- IDE доступ только к Git-репозиториям,
- медиаплееру полный оффлайн.

🌀 SPN (Safing Privacy Network)
Опциональный, но интересный модуль: приватная многослойная сеть, напоминающая симбиоз Tor и VPN, но с приоритетом на стабильную скорость.

⚙️ Совместимость

🟦 Windows
🐧 Linux (включая immutable-дистрибутивы)

Допом GPL-лицензия, активная разработка и стабильные релизы

🔗 GitHub
https://github.com/safing/portmaster

Stay secure and read SecureTechTalks 📚

#cybersecurity #network #privacy #infosec #opensource #firewall #linux #windows #monitoring #trafficanalysis #SecureTechTalks
🤖⚔️ AI против хакеров: автономный агент уничтожил CTF-соревнования в 2025

Кибербезопасность переживает момент, который обычно описывают фразой “тихая революция”. Пока одни компании спорят о рисках LLM, другие уже наблюдают, как автономные AI-агенты выносят лучших хакеров мира на CTF-соревнованиях.

Ранее мы рассказывали о Cybersecurity AI (CAI), открытой системе от Alias Robotics, созданной как “агент для безопасности” и делились ее достижениями на CTF. Однако история имеет продолжение.

🏆 Успех 2025

За год CAI стал #1 в мире сразу в нескольких крупнейших CTF-турнирах:
🚀 Neurogrid AI Showdown: 1 место, 41/45 задач, 33 917 очков
🛠 Dragos OT CTF: 1 место в первые часы, итог в топ-10
🧩 HTB AI vs Humans: #1 среди AI, 19/20 задач
🕵️ Cyber Apocalypse: #22 из 8129 команд, работая всего 3 часа
🧨 Pointer Overflow: за 60 часов догнал результаты команд, которые играли 50 дней

Самый эффектный результат на Neurogrid CTF, где CAI набрал 9 692 очка за первый час (для сравнения: люди шли к этой же цифре сутки.).

В чем секрет?

Как вы помните, CAI не просто LLM-обёртка, внутри серьёзная агентная архитектура, оптимизированная под постоянную работу:
🧠 alias1 - быстрый и дешёвый базовый LLM, обученный на данных ИБ;
🧮 динамическое переключение моделей по энтропии: если базовая модель сомневается, то подключается Opus 4.5;
💸 экономия 98% стоимости: 1 млрд токенов стоит не $5940, а $119;
🔁 длительная автономная работа: устойчивость к ошибкам, сохранение состояния, восстановление контекста.

🎯 CTF уже не торт

Картина неприятная:

🧨 Jeopardy-CTF больше не измеряют человеческий скилл
Если AI решает задачи быстрее и почти безошибочно,
значит формат стал тестом на скорость вычислений, а не на знание и творчество.

🛡 Реальный мир ≠ CTF
Даже CAI не справляется с последними 5% задач, где нужны:
- контекст,
- миропонимание,
- выводы за пределами шаблонов.

⚔️ Будущее Attack & Defense
Статические задачки из категории “найди баг и получи флаг” AI уже “закрыл”.
Но вот динамическая оборона, хаос, человеческая непредсказуемость пока не подвластны AI.

🏭 Неприятный момент

Если автономный агент проходит CTF за 6 часов,
то злоумышленник, пусть и не столь продвинутый, скоро тоже сможет запускать такие системы. Отсюда выводы:

🔐 Защита должна работать на скорости машин
Ручные расследования, ручной threat hunting и “после обеда глянем лог” уходят в прошлое.

🧱 AI-агенты должны стать частью обороны
Да, есть риски, да, есть этика. Но альтернативой является  отставание от атакующих на годы.

🔧 Главное технологическое открытие

CAI доказал, что автономные агенты могут быть быстрыми, устойчивыми,
и одновременно крайне дешёвыми.

Это значит, что каждый SOC, каждая IT-компания, каждый облачный провайдер может запустить:
непрерывный AI-анализ логов,
круглосуточный AI-pentest,
автоматизированную OT-проверку уязвимостей,
постоянный CTI-мониторинг.
То, что раньше стоило “как ещё один SOC”, теперь доступно по цене чашки кофе.

🔗 репозиторий CAI на GitHub можно посмотреть по ссылке

Stay secure and read SecureTechTalks 📚

#️⃣ #кибербезопасность #ai #cybersecurity #ctf #aiagents #infosec #secops #отраслеваябезопасность #neurogrid #securetechtalks #llm
🔥 Могут ли модели решать за нас, кому давать доступ к данным?

Человек чаще всего фейлит при выдаче разрешений приложениям. Усталость, автоматизм, и выдано ещё одно «Allow», открывающее доступ к контактам.

А что, если решение будет принимать не человек, а AI?
Недавнее исследование ETH Zurich и Huawei показало: LLM способны принимать решения о доступе к данным точнее и осознаннее, чем большинство пользователей.

🤖 Эксперимент

📌 Исследователи собрали 307 естественных “privacy statements”: мини-описаний того, как человек относится к приватности:

«Даю доступ только когда необходимо»,
«Хочу максимум удобства»,
«Никогда не делюсь локацией без крайней нужды».


📌 Затем 393 участника приняли 14 682 реальных решений по разрешениям Android-приложений.
📌 Параллельно LLM принимала решения за каждого участника, сначала в общем виде, затем персонализированно, используя именно их “privacy statement”.
📌 После этого люди сравнивали свои решения с решениями ИИ и говорили, чью логику считают лучше.

💡 LLM в целом умнее среднего человека

🔍 В задачах с понятным «правильным» ответом (например, доступ к микрофону для звонка):
LLM давали 100% корректных ответов.
👥 В субъективных сценариях:
LLM совпадали с большинством пользователей в 70–86% случаев.

Но есть момент, который лично мне кажется ключевым:

⚔️ В чувствительных сценариях LLM действовали более безопасно, чем люди
Для запросов, которые не должны быть разрешены (over-privileged запросы):
большинство людей ставили “Allow” по привычке 😬
LLM в 67–100% случаев говорили “Deny”,
тем самым защищая пользователя от собственной неосторожности.

🎯 Персонализация

Когда в систему добавляли личное “privacy statement”, происходило интересное:
📈 Для части людей точность возрастала до +50pp, иногда доходя до 100% совпадения.
📉 У других наоборот, падала:
если человек писал “Я доверяю всем”, но на деле запрещал, LLM следовала заявленной логике, а не реальному поведению.

🔍 Факторы, влияющие на точность:
чем длиннее и конкретнее privacy-statement → тем лучше
люди с крайними позициями (“всё запрещаю” / “всё разрешаю”) идеально персонализируются
несоответствия между заявленным и реальным резко ухудшают качество

🧠 Люди меняют решения под влиянием объяснения LLM

Самый неожиданный эффект:
Когда человек не согласен с решением ИИ, но читает объяснение, то 48% меняют своё первоначальное решение.

Причём если LLM рекомендует “Deny”:
➡️ 59% людей соглашаются, даже если сами бы разрешили.
ИИ работает как «security-nudge», который мягко подталкивает к более безопасным действиям.

🔗 Полный текст исследования

Stay secure and read SecureTechTalks 📚

#кибербезопасность #privacy #llm #androidsecurity #ai #securityresearch #dataprotection #mobileprivacy #aiethics #securetech
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨The Bastion: недооценённый инструмент SSH-безопасности

Не секрет, что управление SSH-доступом давно стало критически важным элементом безопасности.

The Bastion -  специализированный bastion-host уровня enterprise, разработанный в OVH, который обеспечивает централизованную аутентификацию, разрыв SSH-канала, строгую авторизацию и полный аудит операторских действий, минимизируя поверхность атаки в распределённых средах.

🔐 Рассмотрим инструмент подробнее

The Bastion не просто jump-host, это центральная точка входа для админов и операторов, которая даёт:
строгое разграничение прав,
централизованное управление ключами,
полный аудит всех действий,
безопасный разрыв SSH-соединений между пользователем и сервером.
Сервера видят только Bastion, а персональные учётки операторов скрыты.

⚙️ Ключевые фичи

🧩 Точный контроль доступа (RBAC)
- Гибкие группы, роли, делегирование.
- Минимально необходимый доступ для каждого пользователя.

🔄 Полный разрыв SSH
Пользователь → Bastion → сервер.
- Никаких прямых соединений.
- Повышенная защита от компрометации ключей.

🎥 Полная запись сессий
- Интерактивные ttyrec-записи.
- Логирование scp/rsync/stdout/stderr.
- Полезно для SOC, DFIR и compliance.

🔐 MFA и PIV
Поддержка TOTP, физические ключи (YubiKey и др.)

🛰 Поддержка scp/sftp/rsync/netconf
Работает даже с «древним» сетевым оборудованием.

🧱 Минимальные зависимости
Только стандартный SSH-клиент и sshd на серверах.

🏗 High availability
Поддержка кластеров (active/active).

⚔️ Сравнение: The Bastion vs Teleport

Чтобы понять, где The Bastion особенно силён, сравним его с популярным аналогом Teleport.

🔍  Архитектура
The Bastion: классический, надежный SSH bastion с разрывом соединений. Без внешних зависимостей, без агрессивных агентов.
Teleport: построен вокруг собственного auth-сервера и proxy-компонентов, использует сертификаты SSH, требует агентов на серверах.

🔐 Управление доступом
The Bastion: простое RBAC на уровне групп + централизованные ключи.
Teleport: более сложная модель с сертификатами и политиками, но требует дополнительной инфраструктуры.

🧠 Аудит
The Bastion: нативная запись ttyrec, логирование потоков, простые для экспорта артефакты.
Teleport: структурированные ауди-события + web-панель, но завязано на их auth-сервер.

🖥 Установка и поддержка
The Bastion: один узел, SSH, минимум зависимостей → быстрое внедрение даже в ограниченных средах.
Teleport: более тяжёлый стек, особенно для production-кластеров.

💸 Лицензирование
The Bastion: полностью open-source, без enterprise-платных фич.
Teleport: open-source ядро + платные расширенные модули.

🔗 Ссылки
Github The Bastion
GitHub Teleport

Stay secure and read SecureTechTalks 📚

#SecureTechTalks #cybersecurity #ssh #bastionhost #OVH #infosec #devops #audit #opensource #privilegedaccess
Please open Telegram to view this post
VIEW IN TELEGRAM