ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from CyberSecurityTechnologies
#tools
#AIOps
#Offensive_security
1⃣ NeuroSploitv2 - AI-Powered Pentesting Framework
// Leveraging the capabilities of LLMs, NeuroSploitv2 provides specialized agent roles that can analyze targets, identify vulnerabilities, plan exploitation strategies, and assist in defensive measures
2⃣ HexStrike AI MCP Agents v6.0
// Advanced AI-powered pentesting MCP framework with 150+ security tools and 12+ autonomous AI agents
3⃣ Offensive AI Agent Prompts
// Prompts for performing tests on your Kali Linux using Gemini-cli, ChatGPT, DeepSeek, CursorAI, Claude Code, and Copilot
🔥1
Forwarded from CyberSecurityTechnologies
Comparing_AI_Agents_to_Professionals.pdf
882.2 KB
#Research
"Comparing AI Agents to Cybersecurity Professionals in Real-World Penetration Testing", Dec. 2025.
]-> https://github.com/Stanford-Trinity/ARTEMIS

// the first comprehensive evaluation of AI agents against human cybersecurity professionals in a live enterprise environment
Forwarded from CyberSecurityTechnologies
Persistent_Compromise_LLM_Agents.pdf
5.6 MB
#AIOps
#MLSecOps
#RAG_Security
"MemoryGraft: Persistent Compromise of LLM Agents via Poisoned Experience Retrieval", 2025.
]-> https://github.com/Jacobhhy/Agent-Memory-Poisoning

// MemoryGraft - novel indirect injection attack that compromises agent behavior not through immediate jailbreaks, but by implanting malicious successful experiences into the agent's long-term memory. Unlike traditional prompt injections that are transient, or standard RAG poisoning that targets factual knowledge, MemoryGraft exploits the agent's semantic imitation heuristic which is the tendency to replicate patterns from retrieved successful tasks
Forwarded from AISecHub
Forwarded from Data Secrets
Google релизнули новую версию своего «LLM-микроскопа» – Gemma Scope 2

Это модель, а точнее набор инструментов (interpretability tools), предназначенный для интерпретации поведения LLM. В частности, из семейства Gemma 3.

Работает Scope на основе SAE – это разреженные автоэнкодеры. Они представляют из себя модели, которые распутывают активации LLM и достают из них интерпретируемые концепции. Их называют «фичи»: это могут быть вещи из реального мира (мосты, коровы) или абстракции (ложь, отзывчивость).

По сути, анализируя эти фичи, мы можем видеть, о чем на самом деле думала модель, генерируя тот или иной output. Например, она генерирует с виду безобидный код, но «думает» о концепции «кибератака». И это о чем-то нам говорит.

SAE, кстати, еще в 2023 предложили использовать Anthropic (вот наш разбор их статьи, которая сделала подход популярным). Но именно Google вывели автоэнкодеры на уровень продакшена. Сейчас это, фактически, первый и единственный открытый инструмент для вот такой детальной интерпретации LLM.

Первая версия Scope вышла в 2024. Тогда это работало только для небольших моделей и простых запросов. Теперь же подход масштабировали даже для модели на 27B.

Плюс, теперь инструмент стал более универсальным. Если оригинальная Scope существовала только для ограниченного числа слоев, то теперь можно целиком анализировать сложные диалоговые механизмы.

Судя по статье, в основном это получилось благодаря добавлению в модель Skip-transcoders и Cross-layer transcoders. Это модули, которые помогают увидеть связи между отдаленными слоями и облегчают анализ распределенных вычислений. А еще, кстати, SAE обучали по методу матрешки, как Gemma 3n (мы писали про этот метод вот тут).

Если хотите попробовать и покопаться в мыслях у моделей:
здесь все необходимые веса
здесь полезный Colab ноутбук с готовым кодом
здесь техотчет, а вот тут хорошая понятная документация
1👍1
Forwarded from Max D. Melnichuk
🚀 ИИ в безопасности 2026

Уже в следующем году более 80% крупных финансовых компаний планируют внедрить программы обучения AI Security. Это комплекс мер, чтобы ИИ-модели работали корректно, не были скомпрометированы злоумышленниками (например, через «отравление» данных или атаки на модели) и не принимали рискованных решений, угрожающих финансам компании.

Главный тренд — переход от простого использования ИИ к его защите. Это очень актуальное направление и отличная отправная точка для прокачки своих компетенций.

🔍 На что смотреть безопасникам в 2026?

1️⃣ Защита ИИ-систем: мониторинг и аудит моделей, тестирование на уязвимости.
2️⃣ Платформы XDR/EDR на базе ИИ.
3️⃣ Инструменты AI Governance: фреймворки для оценки устойчивости, предвзятости, этичности ИИ.

🛠 Что доступно уже сейчас?
— Готовые решения от лидеров рынка (Cisco, Check Point, SentinelOne, Fortinet).
— Онлайн-курсы по AI Security на самых популярных обучающих платформах.

📚 Что изучать?
— Основы машинного обучения и LLM.
— Принципы тестирования ИИ-систем (IBM AI Fairness 360).
— Практики внедрения AI Security в политики компании.

🔥 — было интересно
❤️ — какие есть еще направления для развития?

#тренды
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Cyber Media
😎 ИИ в кибербезопасности: применение и угрозы 2025

Искусственный интеллект стал не только инструментом защиты, но и грозным оружием в руках злоумышленников.

Алгоритмы машинного обучения анализируют миллионы событий в секунду, выявляя аномалии и атаки нулевого дня, а генеративные модели создают убедительные фишинговые письма и даже вредоносный код.

➡️ В новой статье на сайте разобрали, как ИИ помогает кибербезопасности, какие риски несет его использование и как специалисты учатся держать технологии под контролем.

😎 Здесь о кибербезе
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Неискусственный интеллект (Илья Склюев)
В беспилотные такси Waymo добавят ИИ-помощника Gemini

Его системный промт нашли в мобильном приложении сервиса, он состоит из более чем 1200 строк. Ассистент сможет не только отвечать на вопросы, но и управлять климат-контролем, светом и музыкой, сообщать текущую локацию и даже успокаивать пассажира.

В основе лежит модель gemini-2.5-flash-native-audio-preview. Покопались в исходнике и больших откровений не нашли. Но забавно видеть приоритеты компании в заранее установленных границах, примерах хороших и плохих ответов:

▪️ Gemini очень просят не притворяться водителем. На все просьбы остановиться или сменить маршрут помощник попросит человека нажимать кнопки в приложении самому, взяв в контекст ситуацию (стоим на светофоре, едем по дороге и тд). Помощник не должен отождествлять себя с автомобилем или его автопилотом, придумывать объяснения проблем.

▪️ Деликатные темы жёстко ограничены. Gemini расскажет шутки только из согласованного списка, а на любые вопросы об инцидентах с Waymo или опасном вождении в моменте оперативно переведёт тему. Ругаться в ответ помощник также не будет.

«Твердо, но вежливо заявите о своей неспособности анализировать конкретные ситуации, связанные с вождением, или комментировать происшествия. Немедленно перейдите к общему, обнадёживающему заявлению об основных принципах безопасности системы. Если пользователь оставляет отзыв или жалобу на конкретную поездку, вы также должны перенаправить его на официальный канал обратной связи через приложение Waymo».


▪️ Помощь возможна только эмоциональная. Если человек выражает тревогу, Gemini рекомендуют отдать приоритет успокаивающему, ободряющему тону. «Сначала признайте чувства водителя, а затем кратко и уверенно расскажите о системе безопасности». В случае любого инцидента пользователь должен сам связаться с Waymo или набрать 911. Сам Gemini не сможет даже отправить в поддержку сообщение о сломавшемся кондиционере.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from КБ. экономика
This media is not supported in your browser
VIEW IN TELEGRAM
В Пекине открыли уже пятую школу для роботов.

Перед выходом на рынок, роботов обучают реальным задачам для производства и дома - их учат распознавать предметы, работать с посылками, готовить еду и убираться.

С помощью школ, решается проблема нехватки данных и неготовности некоторых ИИ к работе в реальном мире.
Forwarded from GitHub Community
GhidraGPT — мощный плагин Ghidra, который интегрирует большие языковые модели (LLM) непосредственно в Ghidra, чтобы улучшить рабочие процессы реверс-инжиниринга за счёт анализа кода и возможностей его улучшения.

Основная функциональность:
1. Перезапись функции: повышение читабельности кода за счёт переименования функций, переменных, вывода типов, обновления прототипов функций и добавления контекстных комментариев, чтобы сделать декомпилированный код более понятным для человека
2. Пояснение к коду: подробное объяснение логики и поведения функции
3. Анализ кода: выявление уязвимостей и анализ безопасности

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from AM Live
Обзор PT Dephaze 3.0, системы для безопасного внутреннего автопентеста

PT Dephaze — продукт для непрерывной оценки защищённости инфраструктуры через автоматизированный пентест. Он работает так же, как реальные злоумышленники и пентестеры: выстраивает цепочки атак, использует актуальные техники и показывает, как именно можно пройти внутрь сети.

В обзоре разбираем, как устроен автопентест в PT Dephaze, чем он отличается от разовых проверок, какие риски выявляет в динамично меняющейся инфраструктуре и как позволяет безопасно тестировать защиту без остановки бизнес-процессов — даже без экспертизы в пентесте.

Прочитать: https://go.amlive.ru/m0nwr
Forwarded from white2hack 📚
SOC_Incident_Response_Playbook_—_100+_Pages_of_Real_World_Runbooks.pdf
768.5 KB
SOC Incident Response Playbook — 100+ Pages of Real-World Runbooks
Forwarded from white2hack 📚
SOC Incident Response Playbook — 100+ Pages of Real-World Runbooks

This SOC Incident Response Playbook is a multi-scenario compendium that gives you ready-to-run workflows for incidents like:

💣 Ransomware infections (EDR/XDR, backups, containment paths)
🧑‍💻 Insider data exfiltration (DLP, CASB, proxy & email controls)
☁️ Cloud account compromise (M365/Azure/AWS/GWS identity abuse)
🌐 Web app exploitation (WAF, logs, SAST/DAST, secure coding feedback loop)
🔗 Supply chain compromise (trojanised updates, vendor risk & third-party access)
💾 USB-delivered malware
🌊 DDoS against public-facing services
📧 Business Email Compromise (BEC)
🔐 Unauthorised privilege escalation & DB access
🛰 DNS tunnelling, cloud misconfig exposure, RDP brute force, dev environment abuse & more

Each playbook is structured with: Preparation → Detection & Analysis → Containment → Eradication → Recovery → Lessons Learned & Success Metrics, plus typical tools (SIEM, EDR/XDR, CSPM, DLP, CASB, WAF, etc.) so you can plug it directly into your SOC procedures or SOAR.

#defensive
🔥2
Forwarded from CodeCamp
Убираем главную боль всех LLM-разработчиков: принёс ультимативный список инструментов, которые решают проблему контекста и долгосрочного хранения данных 🗒

Это не просто свалка ссылок, а структурированная карта ландшафта Memory-решений:

— Все подходы: от классических векторных баз (Qdrant, Pinecone) до графов знаний (Neo4j) и гибридных схем;
— Подборка решений именно для управления памятью агентов: Mem0, Zep, MemGPT и Cognee;
— Удобная таблица, где сразу видно: опенсорс или проприетарщина, на чем работает (Graph/Vector) и для каких задач лучше подходит.

Выбираем стек 🍆
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1