ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
926 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from GitHub Community
Vet — это инструмент для обеспечения безопасности цепочки поставок программного обеспечения с открытым исходным кодом, созданный для разработчиков и инженеров по безопасности, которым необходимо:

1. Анализ состава программного обеспечения нового поколения — обнаружение уязвимостей и вредоносных пакетов
2. Политика как код — выражение политик безопасности с использованием CEL
3. Обнаружение вредоносных пакетов в режиме реального времени — на основе активного сканирования SafeDep Cloud
4. Поддержка нескольких экосистем — npm, PyPI, Maven, Go, Docker, GitHub Actions и другие

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Автономные SOC

Последнее время все резко заговорили об автономном SOC: эфир AM Live (напишите, нужно ли писать заметку с комментариями ряда утверждений, а еще лучше - какие утверждения нужно прокомментировать), и Дэн написал заметку, приятель Игорь продолжает эксперименты с агентскими системами, поднимается воодушевление, но в то же время Gartner в декабре 2024 писал вполне адекватный док "Predict 2025: There Will Never Be an Autonomous SOC", есть и немало неплохих статей (например). В общем, видимо, надо поделиться мнением.

Уже 8 лет назад я рисовал что можно сделать с угрозой. Абстрактность описания этого принципа позволяет ему быть аксиоматичным, т.е. он прекрасно работает в условиях любой автоматизации. ML/DL - не что иное, как новые возможности по автоматизации. Если у нас некоторый автомат, - не важно что у него внутри: поиск битовых последовательностей в файле или действий в логе поведения, или пороги вероятности True positive в задаче регрессии при машобуче с учителем или отклонение от профиля при обучении без учителя, или там будет LLM-агент, запускающий автоматически реакцию для каких-то сценариев - умеющий автоматически выполнять инвазивные действия, то это всем нам давно известный сценарий, отмеченный на упоминаемой картинке как "Prevent", реализуемый исторически "антивирусом". Антивирусы начинались как файловые, но с расширением спектра применяемых тактик и техник атакующих, расширялись и технологические возможности средств защиты: подтянулась облачная поддержка (без подобного фанатизма, конечно же) и много других технологий, новички, в желании постричь уже зрелый рынок повторно, изобрели новые термины и подняли хайп "антивирусы мертвы" (или "антивирусы не нужны") - типичный пример говноPRа, когда вместо доказательств преимуществ своего решения фокусируются на недостатках конкурентов, нередко вымышленных и преувеличенных.

Все на той же картинке мы видим стрелочки, когда угрозу, обнаруженную вручную (Threat hunting) потом обнаруживают и, по возможности, предотвращают автоматически. Сейчас у нас [уже давно] есть новые возможности по автоматизации, которые, конечно же, используются. Машобуч, как и любая другая автоматизация, никогда не заменит полностью человека, иначе нас ждет конец. Любая работа при достижении определенного уровня профессионализма превращается в рутину, эту рутину будут автоматизировать, а человеку надо будет грызть новый гранит науки, снова сначала что-то делать вручную, затем это алгоритмизировать и передавать автоматам.

#vCISO #ml
hackertraining.org

На одном из онлайн-курсов на LinkedIn Learning тренер поделился своим репозиторием, где он прикапывает полезные, по его мнению, материалы.

Мне репозиторий показался тоже полезным, да и наши интересы с тренером пересекаются, поэтому прикопаю его здесь:
hackertraining.org
The-Art-of-Hacking/h4cker

Курс был, в общем-то, про машобуч, поэтому поделюсь еще одним полезным репозиторием:
jivoi/awesome-ml-for-cybersecurity

#саморазвитие
Forwarded from AISecHub
n8n Guardrails - New Node!

https://www.piotr-sikora.com/blog/2025-11-17-n8n-guardrails-testing | https://docs.n8n.io/release-notes/#guardrails-node

The Guardrails node provides a set of rules and policies that control an AI agent's behavior by filtering its inputs and outputs. This helps safeguard from malicious input and from generating unsafe or undesirable responses.

There are two operations:

- Check Text for Violations: Validate text against a set of policies (e.g. NSFW, prompt injection).
- Sanitize Text: Detects and replaces specific data such as PII, URLs, or secrets with placeholders.
Forwarded from AISecHub
Agentic AI Security Scoping Matrix

The Agentic AI Security Scoping Matrix provides a structured mental model and framework for understanding and addressing the security challenges of autonomous agentic AI systems across four distinct scopes. By accurately assessing your current scope and implementing appropriate controls across all six security dimensions, organizations can confidently deploy agentic AI while managing the landscape of associated risks.

Source: https://aws.amazon.com/blogs/security/the-agentic-ai-security-scoping-matrix-a-framework-for-securing-autonomous-ai-systems/
Forwarded from CyberSecurityTechnologies
digital_technology_risk_taxonomy.pdf
2.3 MB
#Whitepaper
"Cambridge Taxonomy of Digital Technology Risk", 2025.

// This report builds a framework of analysis for identifying the various risks associated with the three themes to the new revolution in digital technology. Subsequently, risks are categorised into the framework of the Cambridge risk taxonomy to provide an overview of the key risk factors and uncertainties that could emerge in this new era
Forwarded from Makrushin
Большая коллекция security-отчетов

Реально огромная коллекция годовых репортов от разных вендоров. Контент разделен на категории: аналитические отчеты и отчеты-опросы.

Репозиторий пригодится не только руководителям (CIO, CISO или даже, CTO, если он отвечает за ИБ), которые следят за трендами и на их основе планируют свои годовые бюджеты, но и всем, кому нужны полезные данные для подтверждения гипотез.

Загружаем репозиторий в NotebookLM и получаем цифры, которые улетают в презентацию по защите бюджета, диплом или статью.
👍1
🇨🇳В Китае создан суперкомпьютер, смоделированный как мозг обезьяны, — Чжэцзянский университет

▪️Учёные Чжэцзянского университета создали суперкомпьютер Darwin Monkey, имитирующий работу мозга макаки — обезьяны, обладающей когнитивными способностями, схожими с человеческими. Это стало шагом к созданию искусственного интеллекта (ИИ), подобного интеллекту человека

▪️Компьютер оперирует искусственной нейросетью, имитирующей взаимодействие двух миллиардов нейронов посредством 100 миллиардов связей друг с другом

▪️Darwin Monkey знаменует собой огромный шаг в понимании того, как работает человеческий мозг, разработке новых методик лечения смертельных заболеваний, а также в создании ИИ-версии головного мозга человека

«КРИСТАЛЛ РОСТА» ранее информировал о том, что по мнению Daily Neuron моделирование мозга вместо языковых моделей — следующий уровень развития ИИ
🔥1😁1
Forwarded from SecurityLab.ru
🧟США строят киберконвейер: ИИ-агенты будут взламывать сотни целей одновременно

В США формируется новая инфраструктура киберопераций, где автоматизированные агенты становятся полноценными участниками наступательных действий. На фоне конкуренции с Китаем Пентагон инвестирует в технологии многопоточного взлома. Одним из ключевых проектов стал малозаметный стартап Twenty, получивший контракты с Киберкомандованием на сумму до 12,6 млн долларов и отдельный договор с ВМС.

По данным компании, она разрабатывает инструменты автоматизации, которые переводят сложные операции взлома в потоковый формат и позволяют одновременно работать с большим числом целей. Вакансии Twenty раскрывают требования к разработке новых методов проникновения, систем маршрутов атаки, управлению группами ИИ-агентов и созданию цифровых персонажей для социальной инженерии.

За проектом стоит команда с опытом службы в ВМС, Киберкомандовании и разведподразделениях. Параллельно Пентагон заключил крупные соглашения с OpenAI, Anthropic и xAI, а отдельные исследования показывают, что аналогичные методы уже применяют китайские группы.

#кибероперации #ИИ #США

@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from CyberSecurityTechnologies
Jailbreaking_LLMs_with_Information_Overload.pdf
1.2 MB
#MLSecOps
"InfoFlood (Information Overload) Attack:
Jailbreaking Large Language Models with Information Overload
", Jun 2025.

// In this work, we identify a new vulnerability in which excessive linguistic complexity can disrupt built-in safety mechanisms-without the need for any added prefixes or suffixes-allowing attackers to elicit harmful outputs directly
https://owasp.org/www-project-ai-testing-guide

Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.

#ai #aisecurity #cybersecurity

ЭйАй Секур’илка⬅️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👍1🤝1
Forwarded from База знаний AI
⚙️Изучить на выходных: устройство фреймворка MAESTRO

Команда Института искусственного интеллекта AIRI в материале на «Хабре» рассказала о технических особенностях нового фреймворка MAESTRO. Он предназначен для построения мультиагентных систем и цифровых ассистентов на базе LLM.

Авторы описывают устройство программной платформы, а также приводят примеры использования фреймворка и рассказывают о планах по улучшению системы до конца 2026 года.

👉🏻Изучить материал
Forwarded from GitHub Community
Blades — это мультимодальная платформа для ИИ-агентов на языке Go, поддерживающая пользовательские модели, инструменты, память, промежуточное ПО и т.д.

Она подходит для многоэтапных диалогов, цепочек рассуждений и структурированного вывода, а также для других сценариев использования.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
🖥 NVIDIA тихо выкатили -Orchestrator-8B

На бенчмарке Humanity's Last Exam (HLE) маленькая 8-модель обходит GPT-5:
37.1% против 35.1%, при этом работает примерно в 2.5 раза эффективнее.

Что вообще происходит?

Orchestrator-8B - это не просто ещё одна модель. Это “роутер” над стеком инструментов.
Она решает, отвечать ли самой или вызвать поиск, код-модель, API или другой LLM.

Вместо парадигмы «один огромный LLM делает всё» —
маленький мозг, который умно и экономно распределяет задачи между инструментами.

Чтобы этому научить, NVIDIA сделали ToolScale — гигантский синтетический датасет с многошаговыми задачами, где агент:

- видит доступные инструменты, их цену и задержку
- выбирает последовательность вызовов
- получает трассу идеального решения
- оптимизируется под качество, скорость и деньги

По сути, каждый пример — это инструкция:
“вот запрос, вот инструменты, вот их цены, вот как решить задачу оптимально”.

Алгоритм Group Relative Policy Optimization обучает политика так, чтобы она балансировала:
- точность
- скорость
- стоимость
- предпочтения пользователя

На HLE, FRAMES и tau-squared Bench оркестратор (Qwen3-8B внутри) обходит:
- tool-augmented GPT-5
- Claude Opus 4.1
- Qwen3-235B-A22B

И делает меньше дорогих вызовов, лучше адаптируется к новым инструментам и ценам — и всё это в открытом доступе для ресёрча под лицензией NVIDIA.

Вывод: маленький интеллектуальный оркестратор поверх набора инструментов может выдавать фронтирный уровень агентных возможностей — но с точным контролем вычислений и бюджета.

ToolScale учит не “зови самый большой LLM”, а думай, сколько это будет стоить, и выбирай оптимальный путь.

Это именно тот сдвиг, который мы ждали в эру “AGI из инструментов”, а не из гигантских монолитных моделей.

huggingface.co/datasets/nvidia/ToolScale

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2