ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from GitHub Community
Vulnhuntr использует возможности LLMS для автоматического создания и анализа целых цепочек вызовов кода, начиная с удаленного ввода пользователем и заканчивая выводом на сервер, для обнаружения сложных, многоступенчатых уязвимостей, обходящих систему безопасности, которые выходят далеко за рамки возможностей традиционных инструментов статического анализа кода.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Codeby
MASTER OSINT

Master OSINT — это комплексный, удобный для начинающих набор инструментов на Python, предназначенный для проведения расследований на основе открытых источников информации. Инструмент поддерживает множество методов расследования.

📕Характиристика:
Извлечение GPS-координат из EXIF-данных изображений.
Исследование присутствия в социальных сетях на более чем 30 платформах по имени пользователя.
Выявление утечек электронной почты и анализ общедоступных фрагментов текста.
Проверка подлинности электронной почты с помощью Hunter.io, ReverseContact.com и Epieos.
Извлечение метаданных из изображений/документов.
Использование расширенных операторов поиска Google (Google Dorking).
Доступ к архивным снимкам веб-сайтов через Wayback Machine.
Определение IP-адреса и получение отчетов о нарушениях с помощью AbuseIPDB.
Парсинг метаданных веб-сайтов и извлечение именованных сущностей с помощью spaCy NLP.
Проверка и исследование телефонных номеров с информацией о операторе связи и типе телефона.
Выполнение обратного поиска изображений с использованием популярных поисковых систем.
Доступ к мощной геопространственной аналитике с помощью Google Satellite и OpenStreetMap.

💻Установка:
git clone https://gist.github.com/5fb49b007d48cf2717bc3c12958e47b5.git

mv 5fb49b007d48cf2717bc3c12958e47b5/ osintmaster/

cd osintmaster/

pip install waybackpy --break-system-packages


📌Запуск:
python3 Master_osint.py


#tools #osint

➡️ Все наши каналы 💬Все наши чаты ⚡️ Для связи с менеджером
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Codeby
❗️ Уязвимость в Python библиотеке для ИИ

🪧 В библиотеках Python с открытым исходным кодом для искусственного интеллекта, выпущенных Apple (FlexTok), NVIDIA (NeMo) и Salesforce (Uni2TS), обнаружены уязвимости, позволяющие удаленное выполнение кода (RCE) при загрузке файла модели со вредоносными данными.

🧾 «Уязвимости возникают из-за того, что библиотеки используют метаданные для настройки сложных моделей и конвейеров, где используемая сторонняя библиотека создает экземпляры классов, используя эти метаданные. Уязвимые версии этих библиотек просто выполняют предоставленные данные как код. Это позволяет злоумышленнику внедрить произвольный код в метаданные модели, который будет автоматически выполняться при загрузке этих модифицированных моделей уязвимыми библиотеками», — заявило подразделение 42 Palo Alto Networks

💻 Речь идет о сторонней библиотеке Hydra от Meta, а именно о функции «hydra.utils.instantiate()», которая позволяет запускать код с использованием функций Python, таких как os.system(), builtins.eval() и builtins.exec().

🔎 Уязвимости, отслеживаемые как CVE-2025-23304 (NVIDIA) и CVE-2026-22584 (Salesforce), были устранены соответствующими компаниями

А вы используете эти библиотеки в работе?

#python #ai #cve #hydra

➡️ Все наши каналы 💬Все наши чаты ⚡️ Для связи с менеджером
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AI Security Lab
В свежей статье на Хабре магистрант из AI Security Lab Маргарита Пузырева рассматривает гардрейлы от OpenAI. Ее тестирование выявило ряд проблем.
⚡️ Ложные срабатывания. Детектор PERSON воспринимает имена литературных персонажей как персональные данные. В тестах на вопросах о книге «451 градус по Фаренгейту» PII-гардрейл срабатывал в 28% случаев без реальных ПД.
⚡️ Нестабильное распознавание русских ФИО: в 40% случаев детектор PII не срабатывал на русские ФИО.
⚡️ Ошибки в определении паспортных данных: номер паспорта часто классифицируются как дата/время (84%) или телефон (52%).

Вывод: защита из коробки пока не обеспечивает заявленный уровень безопасности. Статья здесь.
🔥1
Forwarded from Alaid TechThread
Атакующий ИИ на практике. Nulla на T-Sync Conf 7 февраля 2026 года.

На конференции показываем Nulla — атакующего ИИ-агента, который думает и действует как реальный хакер.

Что будем делать на стенде Nulla:

🔍 Анализ репозиториев на реальные уязвимости

🔗 Разбор API-контрактов и логики взаимодействий

🚨 Заведение и оценка уязвимостей

👨‍💻 Общение с командой разработки

Nulla не просто подсвечивает потенциальные проблемы, а предоставляет PoV (Proof of Vulnerability), показывая, что уязвимость реально эксплуатируема.

Почему это важно:

🧠 масштабирование экспертизы ИБ без роста штата

📚 единая база знаний, собранная практикующими экспертами

📏 меньше субъективных оценок → единый стандарт качества

Атакующий ИИ меняет саму суть работы инженера ИБ:
фокус смещается с рутины и покрытия — на качество анализа, мышление и развитие экспертизы агента.

📍 Ждём на стенде Security → https://t-syncconf.ru/#arkhitektura
Также в программе: ассистент исправления уязвимостей Safeliner, платформа управления безопасностью активов Diameter, лекторий от SolidLab.
Я тут разбирался с Moltbot (бывший Clawdbot), который мог бы за счет автоматизации существенно поднять мою продуктивность. Изучал разные мнения, в том числе и по его безопасности, которая, как это часто бывает у пет-проектов, оказалась не на высоте. Но дело даже не в этом. Я попробовал представить, как мне защитить Moltbot'а от злоупотреблений и реализации через него угроз против меня? И понял, что это, пипец, какая непростая задача. Большинство современных средств ИБ (например, NGFW или NDR или WAF) исходит из предположения, что ИИ ведет себя как человек или хотя бы как предсказуемая сессия, но ИИ-агенты так не работают.

Чтобы быть полезным, агенту нужны широкие права. Он должен сам решать, куда пойти за данными и какие источники связать между собой. Один запрос, например, "Дай рекомендации по повышению эффективности команды аналитиков SOC" может запустить целую цепочку действий:
➡️ обращение к HR-системе
➡️ загрузку данных по оргструктуре
➡️ обращение к SIEM/SOAR
➡️ запросы к базе зарплат
➡️ объединение с performance-review
➡️ синтез результата.

Решения класса IDM/PAM/JIT проектировались под мониторинг действий людей и понятные сценарии: запрос → одобрение → выполнение → отзыв доступа. У агентов же все иначе:
➡️ Один и тот же запрос сегодня – это 50 записей.
➡️ Тот же запрос завтра – это уже записей 500, включая доступ к чувствительным полям в какой-нибудь СУБД.
➡️ Послезавтра – объединение нескольких наборов данных и экспорт результата.

В таких условиях принцип наименьших привилегий перестает работать как концепция. Сделать списки контроля доступа строгим – агент "ломается" на полпути, а пользователи начинают обходить контроль. Ослабить – вы даете широкие постоянные права и увеличиваете радиус поражения в случае инцидента ИБ. И заранее предсказать путь агента невозможно – он "думает" по ходу выполнения задачи. И тут нет проблемы IAM, NGFW, СЗИ от НСД и других систем ИБ, работающих в детерминистском пространстве и ограниченном пространстве решений. Это фундаментальное отличие и, даже, противоречие автономных систем.

Классические инструменты отвечают на свои привычные вопросы:
➡️ IAM: "Этот сервис-аккаунт успешно аутентифицировался"
➡️ NGFW: "Этот запрос пришел с легитимного IP-адреса"
➡️ PAM/JIT: "Доступ был одобрен"
➡️ CASB/DLP: "Мы видим вызовы и контент".
Но они не видят цепочку исполнения. С точки зрения идентифицированных сущностей все легально, а в реальности агент:
➡️ забрал больше данных, чем требовалось
➡️ связал чувствительные наборы между собой
➡️ выдал результат пользователю, которому эти данные видеть нельзя.
В Интернете дофига кейсов, где ИИ-агенты делают больше запрошенного (я на обучении по ИБ и ИИ для топ-менеджмента тоже привожу такие кейсы), раскрывая конфиденциальную информацию случайным людям или злоумышленникам.

И традиционная ИБ не очень помогает решать эту проблему. Не потому, что она плохая, а потому, что она строилась в другой парадигме. Это примерно как NGFW, которые появились как ответ обычным МСЭ, неспособным видеть, что происходит на прикладном уровне. Так и тут. У ИИ-агентов слишком много прав (и урезать их – не вариант) и мы не видим, как они ими пользуются в рамках всей цепочки запросов и ответов (пользователь → агент → сервис(ы) → MCP-сервер/OpenRouter). На границах между компонентами теряется контекст и мы не понимаем, что происходит на самом деле.

И ИБ нужны будут новые решения. Что-то типа RASP, но для агентов, а не приложений, с добавлением понимания контекста. А я пока думаю, как решать свою задачу, так как давать избыточные права Moltbot'у у меня рука не поворачивается, а без этого он превращается просто в навороченный Shortcuts на macOS.

#ии #модельугроз
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Security Vision
❤️ Кибербезопасность ИИ. Часть 1. Нейросети и машинное обучение

На создание продвинутых вирусов злоумышленники ранее тратили значительные ресурсы, но теперь ИИ значительно упрощает их разработку.

Широкое использование ИИ злоумышленниками стало уже привычным и распространенным явлением.

📎 В новой статье в блоге разобрали основные понятия и концепции нейросетей и машинного обучения, чтобы прояснить, какие угрозы характерны для ИИ и как эффективно защищать ML-модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
FOCA: Multimodal Malware Classification via Hyperbolic Cross-Attention

https://arxiv.org/html/2601.17638v1
⭐️ ИИ-агенты в SOC и DevOps: новые риски, атаки и защита AgentSecOps

Интересная статья от Людмилы Гайдамаченко о безопасности ИИ-агентов. Особенно порадовали три момента:

1. Появление термина AISecOps (хотя, наверное, это просто я сам его впервые обнаружил, совсем утонул в непрерывном обучении, аудитах MLSecOps и публичных выступлениях). Новое поднаправление в MLSecOps - круто!

2. Цитата "К концу 2026 года рынок AI Security в России, по оценкам, вырастет в 4–5 раз". Учитывая, что по отдельным источникам рынок разработки ИИ-агентов занимает уже первое место среди всех категорий разработки ML, есть вероятность, что именно безопасность (и отказоустойчивость!!!) ИИ-агентов станут базой MLSecOps к концу 2026 года. Что ж, будем плавно усиливать акценту в моей учебной программе по MLSecOps с учетом трендов.

3. Статья опирается на угрозы из новейшего OWASP для агентских приложений от января 2026, значит, автор хорошо подготовила и проработала материал. За что отдельное спасибо.

В общем, мои дорогие друзья и самые талантливые коллеги, одобряю к внимательному изучению. Откладываем все дела, включаем ночную лампадку, дружно заходим и погружаемся в недра AISecOps по ссылке: https://www.anti-malware.ru/analytics/Technology_Analysis/AI-agents-Security

Global MLSecOps & AI Governance Architect
Николай Павлов
🔥1
Forwarded from CodeCamp
Ночное-полезное: инструмент, позволяющий собирать ML-модели, просто описывая их текстом 👌

Это агентская система, которая берет на себя всю грязную работу: от планирования архитектуры до написания кода и деплоя готового решения.

— Описываешь намерение (например, «предсказать цену дома по площади и локации»), задаешь схему данных — и всё. Схему, кстати, он тоже может выкупить сам из контекста;
— Под капотом работает целая «команда» ИИ-агентов. Один планирует, другой кодит, третий оценивает производительность и фиксит ошибки;
— Если данных мало, встроенный генератор наклепает датасет по твоему описанию для тестов;
— Поддерживает Ray. Если нужно перебрать десятки вариантов моделей параллельно, он раскидает нагрузку по ядрам или кластеру;
— Через LiteLLM подключается к чему угодно — от GPT-5 и Claude 3 до локальных Llama через Ollama.

Пробуем роль ML-архитектора 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from GitHub Community
OpenThreat — делает информацию об угрозах доступной для всех — от специалистов по безопасности до представителей малого бизнеса и некоммерческих организаций.

Мы собираем данные об уязвимостях из надёжных общедоступных источников и предоставляем их в понятном и удобном для использования интерфейсе.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Media is too big
VIEW IN TELEGRAM
Как я взял золото на ERC3

Это самый полезный пост на канале.

Детальный 30-минутный ролик про ERC3, который проходил в декабре 2025 на платформе Рината @llm_under_hood

📹 https://youtu.be/gTKB9dDicNA

Вышло здорово, слова отлично ложились друг к другу, рассказ получился живой и интересный.

Покрыты все детали:
- про великолепную платформу
- про задачи для AI-агента
- про сложность челленджа
- про первые шаги и основу ReAct агента
- про то, как нащупал подход с эволюцией
- про устройство цикла эволюции
- про то, как эволюция вытащила тестовые бенчмарки
- про то, как эволюция кардинально видоизменила промт
- про сам день соревнования и приключения на нем
- про стрим у Валеры с Ильей (2-е место)
- про то, на чем эволюция сломалась и путь к 100% score
- кейс Айгиза про перевод онлайн перевод YouTube
- кейс Рината про тюнинг движков формул Excel
- кейс long-running agents от cursor
- про общие черты этих кейсов
- про новый шаг эволюции в разработке ПО?

Под конец доклада было самое важное - про концепцию замкнутого цикла обратной связи в AI системах, которую почти не сговариваясь попробовали разные люди в конце 2025, получив на своих задачах крышесносные результаты.

Верю всей душой, что те команды и люди, которые овладеют этим подходом, улетят в космос по личной продуктивности и скорости развития своих сервисов.

Ссылки, которые упоминаются в докладе:
- код агентов на GitHub
- ERC3 платформа и лидерборд
- стримы от Валеры @neuraldeep по разбору решений: youtube, rutube
- посты в @llm_under_hood про перевод YouTube, кейс с движком Excel формул
- статья Scaling long-running autonomous coding от Cursor

Впереди как раз выходные, рекомендую заварить чаек-кофеек и посмотреть ☕️

Ринат, ждем ERC4🫰🏻

#erc3 #онотогостоило
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from GitHub Community
This media is not supported in your browser
VIEW IN TELEGRAM
NeuTTS — это набор речевых языковых моделей TTS с открытым исходным кодом, которые работают на устройстве и мгновенно клонируют голос.

NeuTTS, созданный на основе LLM, обеспечивает естественное звучание речи, работу в режиме реального времени, встроенную систему безопасности и клонирование голоса на вашем локальном устройстве.

Это открывает доступ к новой категории встроенных голосовых агентов, помощников, игрушек и приложений, соответствующих нормативным требованиям.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from CyberSecurityTechnologies
Agentic_Design_Patterns.pdf
19 MB
#AIOps
#Tech_book
"Agentic Design Patterns: A Hands-On Guide to Building Intelligent Systems", Oct. 2025.

// A comprehensive guide presenting 21 design patterns for building AI agents, using frameworks like LangChain, Crew AI, and Google ADK to create autonomous intelligent systems
🔥1
Forwarded from CyberSecurityTechnologies
Functional_Network_Fingerprint_for_LLMs.pdf
3.3 MB
#MLSecOps
"FNF: Functional Network Fingerprint for Large Language Models", Feb. 2026.
]-> Repo

// In this work, we propose the Functional Network Fingerprint (FNF), a training-free, sample-efficient method for detecting whether a suspect LLM is derived from a victim model, based on the consistency between their functional network activity
Forwarded from CyberSecurityTechnologies
Llama3.1_FAISecurity_Tech_Report.pdf
1012.2 KB
#MLSecOps
"Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report", Jan 2026.

]-> Foundation-Sec-8B-Reasoning, the first open-source native reasoning model for cybersecurity
Forwarded from CyberED
Потратил $5 000 на AI-агентов для пентеста. Какие результаты получил?

Всем привет! На связи Сергей Зыбнев. Я 5 лет в ИБ, веду телеграм-канал Похек, работаю тимлидом пентестеров в «Бастион», специализируюсь на веб-пентесте.

🤖 В последнее время я увлёкся AI/ML/LLM R&D и за 1,5 года потратил больше $5 000 из своего кармана на эксперименты с AI-агентами для пентеста. 

В карточках рассказал, какие инструменты испытал.

Подробнее про каждый из них, результаты и мои выводы об AI для пентеста — в свежей статье для CyberED.

👉 Читать статью 👈
___
Больше об экспериментах с AI пишу в телеграмм-канале Похек AI – подпишитесь 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥1