ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from CyberSecurityTechnologies
Safe2Harm_Semantic_Isomorphism_Attacks.pdf
2.4 MB
#MLSecOps
"Safe2Harm: Semantic Isomorphism Attacks for Jailbreaking Large Language Models", Dec. 2025.

// Most existing jailbreak methods revolve around Prompt Engineering or adversarial optimization, yet we identify a previously overlooked phenomenon: many harmful scenarios are highly consistent with legitimate ones in terms of underlying principles. Based on this finding, this paper proposes the Safe2Harm Semantic Isomorphism Attack method
🐳2
Forwarded from MarketTwits
🇷🇺#ии #россия #регулирование
Минцифры до 13 марта представит предложения по регулированию технологии ИИ в России
😁1
🔥1
Forwarded from GitHub Community
NL2SQL — этот проект представляет собой интерфейс на Python для преобразования вопросов на естественном языке в SQL-запросы с использованием языковых моделей OpenAI. Он включает в себя автоматическое определение схемы, проверку запросов и обработку ошибок.

Характеристики:
— Преобразование естественного языка в SQL
— Автоматическое определение схемы базы данных
— Обработка имён таблиц с учётом регистра
— Проверка запроса перед выполнением

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Towards a Science of Scaling Agent Systems

Если вы хоть раз писали агента то сталкивались с классическими архитектурными приколами - а как вообще правильно вызывать субагентов? что лучше - все разом или с оркестратором? Нужен ли majority voting? Обычно решается классическим "ну э, мы делаем так потому что X так", потом пишет на свой фреймворк/пишут на ленгчейне, кончается одиноково - хорошей мужской оргией и вопросом "кто это понаписал блять, а он уволился? пиздец."

а и decentrilized архитектура агента лучше соседей

paper
Forwarded from ИИиКБ
Искусственный интеллект как незаменимый помощник в обеспечении корпоративной безопасности

🤖 В статье рассматривается, как искусственный интеллект (ИИ) играет ключевую роль в обеспечении корпоративной безопасности. Узнайте, как передовые технологии помогают защищать данные и предотвращать угрозы!

ИИ становится незаменимым инструментом для анализа данных и выявления потенциальных рисков, связанных с безопасностью. Читайте статью на сайте [Sec-Company](https://sec-company.ru/articles/security/iskusstvennyy_intellekt_kak_nezamenimyy_pomoshchnik_v_obespechenii_korporativnoy_bezopasnosti/) и узнайте больше о том, как ИИ помогает бизнесу минимизировать угрозы и защищать активы.
Forwarded from CodeCamp
Занимаемся безопасностью: автономный ИИ-хакер, который найдет дыры в вашем коде раньше злоумышленников 😏

Результаты впечатляют: 96.15% успеха на бенчмарке XBOW (без подсказок) и более 20 критических уязвимостей, найденных в OWASP Juice Shop.

Что умеет:
— Работает по принципу whitebox: анализирует исходный код, чтобы найти векторы атаки;
— Не просто алертит, а эксплуатирует уязвимости: проводит инъекции, обходит авторизацию и ломает логику;
— Генерирует отчеты с готовыми PoC (Proof-of-Concept), чтобы вы могли повторить взлом и закрыть дыру;
— Умеет в 2FA/TOTP и даже вход через Google;
— Использует под капотом Nmap, Subfinder и другие тулзы для разведки.

Красная кнопка для вашей безопасности 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Forwarded from CyberSecurityTechnologies
NIST_IR_8596.pdf
2.2 MB
#Infosec_Standards
NIST IR 8596 (iprd):
"Cybersecurity Framework Profile for Artificial Intelligence (Cyber AI Profile)", Dec.2025.

// The Cybersecurity Framework Profile for Artificial Intelligence (AI) Profile ("Cyber AI Profile" or "The Profile") will provide guidelines for managing cybersecurity risk related to AI systems as well as identifying opportunities for using AI to enhance cybersecurity capabilities
🔵 Тренажеры AI Red Teaming
1. crucible.dreadnode.io
2. https://huggingface.co/spaces/invariantlabs/ctf-summer-24/tree/main
3. https://promptairlines.com/
4. burp labs: https://portswigger.net/web-security/llm-attacks
5. в обычных ctf тоже появляются куски с ml/llm, например, в http://poll-vault.chal.hackthe.vote/
6. https://myllmdoc.com/
7. https://gandalf.lakera.ai/
8. AI CTF с PHDFest2 2024: https://aictf.phdays.fun/
9. https://aiinsec.ru/
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41
Forwarded from Too Many Apples
В этом году решил сделать отчет о проделанной работе и поделиться им с общественностью. Этот отчет рассказывает о результатах работы нашей ИБ команды за этот год. И в РФ и в мире так делают редко - сказываются особенности области, подход security through obscurity, да и просто не готовность и не способность открыто рассказывать о реальных результатах работы.
Мы считаем иначе. Открытое обсуждение и обмен лучшими практиками ускоряет развитие инфобеза, оздоровляет индустрию, меняет отношение не-ибшников к нашей работе в лучшую сторону.
Выношу огромную благодарность всей команде за работу. Особая благодарность Илье за сведение и оформление отчета.
Вашему вниманию отчет, мы постарались чтобы он был в своем роде руководством к действию, отвечал на вопрос "а как можно решить ту или иную задачу, выстроить тот или иной процесс". Буду признателен комментариям и мнениям, что понравилось, а что - нет, вопросам и критике.
1👍1
Forwarded from Too Many Apples
ATOM cybersec Yearly Report 25.pdf
7 MB
Forwarded from CyberSecurityTechnologies
Building_Agentic_AI_Systems.pdf
19.7 MB
#AIOps
#Tech_book
"Building Agentic AI Systems:
Create intelligent, autonomous AI agents that can reason, plan, and adapt
", First Edition, 2025.
]-> Code Repository

// With the rise of Generative AI and agentic systems, we are witnessing a transformative moment, one where artificial agents can reflect upon their experiences, strategize effectively, and collaborate seamlessly. This book arrives precisely at this pivotal juncture, offering a comprehensive exploration of this emerging and impactful field
🏆1
ℹ️ ФСТЭК России представила новый раздел специфических угроз безопасности ИИ, фокусируясь на инфраструктуре разработчика и оператора.

💬 Документ четко классифицирует угрозы на две группы — разработка/обучение и эксплуатация — с акцентом на объекты вроде наборов данных, моделей (включая LoRA, RAG) и ПО. Он подчеркивает ключевые риски: утечки, кражу моделей, нарушения функционирования и отказ в обслуживании, ссылаясь на Методику оценки угроз безопасности 2021 года, что облегчает интеграцию с БДУ ФСТЭК России. Учет факторов вроде уровня значимости данных и разделения ответственности делает материал релевантным для российских организаций.

🤒 Раздел ограничивается инфраструктурой разработчика (разработка/обучение) и оператора (эксплуатация), игнорируя этап, связанный с данными, как отдельный этап с рисками вроде отравления наборов обучающих данных. При этом, сведения об угрозах, связанных с моделями машинного обучения, которые ранее были в БДУ - утратили свою актуальность, в связи с опубликованием нового подраздела.

📈 Для эффективного управления угрозами видится, что этот процесс для ИИ следует производить по этапам (подготовка данных, разработка, обучение/тестирование, функционирование), как в лучших практиках (OWASP, Google SAIF и.т.д).

🗒 Таким образом, в РФ всё ещё необходим полноценный фреймворк для эффективного управления угрозами безопасности ИИ, формированию мер защиты и подходов к управлению безопасностью систем ИИ (включая безопасность при аутсорсинге ИИ).
Однако, формирование нового раздела ФСТЭК России это только первый шаг. Надеемся...
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿2
🚨 Stanford показал, что AI уже превосходит профессиональных хакеров в реальном мире. И масштаб этого события многие пока не осознают.

Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.

Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи

В ту же среду они запустили автономного AI-агента под названием ARTEMIS.

Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.

И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк

Это была реальная enterprise-сеть с реальными последствиями.

Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час

Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.

Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k

Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.

Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний

Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.

Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.

Это момент, когда offensive security начинает меняться необратимо.

📄 Статья: https://arxiv.org/abs/2512.09882
2👎1
Спрашивали – отвечаем ✍️ Откуда пошло цветовое деление у команд ИБ? Истоки концепции – в военных учениях (wargame). Во время Холодной войны, когда армии и аналитические организации моделировали военные конфликты, "красная" сторона (Red) часто символизировала противника (например, СССР), а "синяя" (Blue) – своих или союзников 💪 Например, RAND Corporation во времена Холодной войны проводила такие симуляции, где Red представляла противника, а Blue – США. Со временем этот подход перешел из военного сценарного моделирования в кибербезопасность: "Red Team vs Blue Team" стали использовать для имитации атак и защиты в ИТ-системах ⚔️

Двух цветов со временем стало недостаточно, потому что безопасность – не просто атака vs защита ✏️ С ростом сложности ИТ-инфраструктур понадобились новые роли: разработчики, операторы, люди, внедряющие безопасность на разных этапах. И в 2017 году на конференции Black Hat USA эксперт Эприл Райт (April C. Wright) представила доклад "Orange Is the New Purple", в котором расширила модель, например, добавила "жёлтый" цвет (для разработчиков), фиолетовый (Purple) для описания совместной деятельности Red и Blue для улучшения защиты, и предложила идею, что можно "смешивать" цвета 🎨, получая новые роли. После этого понятием "цветовое колесо" (color wheel) стали называть расширенную систему распределения ролей.

Сегодня деление на цвета выглядит следующим образом: 🎨
🎨 Red Team (красные) – "атакующие" – "белые" хакеры, пентестеры. Они пытаются взломать систему, найти уязвимости, показать, как злоумышленник мог бы проникнуть и нанести вред организации.
🎨 Blue Team (синие) – защитники – отвечают за мониторинг, обнаружение, реагирование на инциденты, защиту систем в режиме реального времени, укрепление безопасности, предотвращение атак.
🎨 Purple Team (фиолетовые) – гибрид / посредник: сочетает подходы Red + Blue. Цель – не просто атака или защита, а совместная работа над усилением безопасности: моментальный разбор обнаруженных уязвимостей, совместная настройка обороны, обмен знаниями.
🎨 Yellow Team (желтые) – разработчики / архитекторы / инженеры: те, кто строят, пишут код, проектируют системы – с учетом безопасности "изнутри". То есть DevSecOps / Secure-by-Design.
🎨 Green Team (зеленые) – инженеры по автоматизации / DevOps-специалисты, кто обеспечивает, чтобы процессы безопасности (патчи, обновления, CI/CD, конфигурации) были автоматизированы, надежны и масштабируемы.
🎨 Orange Team (оранжевые) – команда обучения и трансляции знаний: они "переносят" уроки, которые дает Red Team, внутрь организации, в процессы разработки, операционной безопасности – повышают осведомленность, обучают, помогают закрепить улучшения.
🎨 White Team (белые) – "арбитры" / координаторы: устанавливают правила, рамки, область контроля, наблюдают за процессом, управляют учениями и тестами; гарантируют, что тесты безопасны, организованы, а выводы – адекватно оформлены и переданы командам.

Purple, Green, Orange и другие часто не формальные "отдельные команды", а роли или подходы – особенно в организациях, где нет строго структурированного разделения.

#стратегия
Please open Telegram to view this post
VIEW IN TELEGRAM
1