ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from Андрей
code_09072025 (1).pdf
478.7 KB
LLMs in the SOC: An Empirical Study of Human-AI Collaboration in Security Operations Centres
https://arxiv.org/html/2508.18947v1

Исследование представляет собой первый всесторонний эмпирический анализ того, как аналитики SOC взаимодействуют с LLM в своих повседневных рабочих процессах. Изучив 3090 реальных запросов аналитиков, отправленных GPT-4 в течение 10 месяцев в eSentire Inc., исследователи из CSIRO's Data61 и eSentire предоставили беспрецедентные данные о моделях сотрудничества человека и ИИ в операциях кибербезопасности. Результаты показывают, что LLM в основном функционируют как когнитивные помощники для осмысления и построения контекста, а не как инструменты принятия решений, при этом аналитики сохраняют четкий авторитет в отношении критически важных определений безопасности.
И еще один постер от SANS – про то, как стать лучшим пентестером 🤕

#sans #пентест #оценказащищенности
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from AISecHub
xiangxin-guardrails - https://github.com/xiangxinai/xiangxin-guardrails/blob/main/README_EN.md An open-source and free enterprise-level AI security protection platform that supports both API and security gateway modes. It provides dual protection via prompt word attack detection and content compliance detection. Based on advanced large language models, it has context-aware capabilities and supports fully private deployment.

https://github.com/xiangxinai/xiangxin-guardrails - www.xiangxinai.cn
Forwarded from AISecHub
HackGpt - HackGPT Enterprise is a production-ready, cloud-native AI-powered penetration testing platform designed for enterprise security teams. It combines advanced AI, machine learning, microservices architecture, and comprehensive security frameworks to deliver professional-grade cybersecurity assessments.

https://github.com/yashab-cyber/HackGpt
👏1
Forwarded from GolDBUG
C-AI/MLPen - a good certification in sphere, from the few existing.

On the link, you can find information about which blocks will be tested during the examination and resources to learn and prepare [ for the moment, all of the given educational resources are free ] .
3🔥1
Forwarded from CyberSecurityTechnologies
CAI.pdf
314.3 KB
#AIOps
#MLSecOps
"Cybersecurity AI: Hacking the AI Hackers via Prompt Injection", Aug. 2025.
]-> Prompt injection mitigation

// We present PoC exploits against the Cybersecurity AI (CAI) framework and its CLI tool, and detail our mitigations against such attacks in a multi-layered defense implementation
🔥4
Forwarded from ИИ & Право
📖 Новое исследование об инцидентах безопасности при внедрении ИИ в компаниях

Infosys опубликовали новое исследование, согласно которому 95% опрошенных руководителей компаний по всему миру уже столкнулись с инцидентами безопасности, связанными с корпоративными инструментами ИИ, а 77% таких случаев привели к прямым финансовым потерям.

#ИИ #Кибербезопасность
😱3
Forwarded from Not Boring Tech
🍯 Сеньор-инженер из Google выложил бесплатную (!) книгу на 400 страниц об агентских системах — Agentic Design Patterns. Это целый учебник для создания ИИ-агентов под любые задачи:

• Продвинутые техники промптинга
• Шаблоны команд ИИ-агентов и фреймворки
• Гайды по использованию инструментов и MCP
• Кодинг-агенты и CLI
• Техники ризонинга моделей
• Управление памятью в ИИ-агентах
• Практические примеры с кодом и наглядные схемы


Сохраняйте мастрид — тут.

P.S. Кто сделает перевод книги на русский и пришлёт в комменты — отправлю редкий подарок за $16. Думаю, многим будет полезно!

@notboring_tech
🔥2
Forwarded from Душный NLP
Проблемы LLM-as-a-Judge и их решение

Сегодня разберём статью о проблеме оценки открытых ответов (например, рассказов) моделью так же, как это делают асессоры. Мотивация тут проста: использование LLM дешевле, быстрее и позволяет значительно увеличить корзинку, на которой проводится сравнение. При этом полностью выступать заменой разметчиками модель, конечно, пока не может.

Авторы рассматривают три типа LLM-as-a-Judge:

— Попарное сравнение. Модели предоставляют два ответа и предлагают выбрать из них лучший. Такой вариант дорогой, но даёт хорошую согласованность.
— Оценка одного ответа. Модель ставит оценку по какой-то шкале всего одному ответу.
— Оценка по референсу. Модель получает эталонный ответ и, отталкиваясь от него, оценивает.

Однако у использования LLM есть свои минусы. Первый, существующий и у разметчиков, — position bias, который возникает при попарном сравнении. Большинство моделей, получая два ответа, предпочитают выбирать первый. Что интересно, если попросить LLM не просто сравнить два ответа, а дать оценку каждому, то position bias проявляется чаще.

Чтобы решить эту проблему, авторы заставляют модель дважды сравнивать ответы, каждый раз меняя их местами. При этом победитель оглашается только в конце. Если решение судьи изменилось после смены позиции, то авторы предлагают считать это ничьёй.

Ещё один способ — использование few-shot. Модель получает два ответа с прямым указанием, какой из них лучше. Всего таких «прогонов» три: в одном случае лучше первый ответ, в другом — второй, а в третьем — ничья. Только после этого LLM предлагают уже самостоятельно оценить два решения. Такой способ помог повысить согласованность с 65% до 77,5%. Авторы отмечают, что это дорогой метод, причём нельзя быть уверенным, что в результате его использования не возникли новые проблемы.

Также LLM плохо справляются с оцениваем решения математических задач и задач с рассуждением. Чтобы обойти эту проблему пытались использовать CoT, но он не дал хороших результатов. Зато число ошибок уменьшило руководство по референсу: авторы просили судью решить задачу, затем использовать собственный ответ как эталонный для последующей оценки.

Кроме того, у LLM-as-a-Judge есть ещё две проблемы: verbosity bias (LLM выше оценивает более длинные ответы; такое, к слову, бывает и у разметчиков) и self-enhancement bias (модели-судьи лучше оценивают собственные ответы). Для этих проблем у авторов нет решения.

Разбор подготовила Анастасия Кириллова

Душный NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AM Live
Учёные создали ИИ-агента для поиска уязвимостей в Android

Учёные из Китая и Австралии представили систему A2 — ИИ-агента, который умеет находить уязвимости в Android-приложениях и даже создавать PoC-эксплойты на лету.

На тестах A2 нашёл 104 уязвимости нулевого дня в 169 APK, подтвердив 57 из них. Один из кейсов — приложение с 10+ млн установок.

В отличие от других решений, A2 действует как эксперт: сам планирует, проверяет и подтверждает уязвимости, снижая ложные срабатывания. Построен на базе OpenAI и Gemini 2.5.

Исследователи уверены: будущее за такими ИИ-агентами — как для защиты, так и для атак.
👍4