Forwarded from CyberSecurityTechnologies (-CST-)
RAD.pdf
878.4 KB
#MLSecOps
"Retrieval-Augmented Defense: Adaptive and Controllable Jailbreak Prevention for Large Language Models", 2025.
]-> Repo
// RAD - novel framework for jailbreak detection that incorporates a database of known attack examples into Retrieval-Augmented Generation, which is used to infer the underlying, malicious user query and jailbreak strategy used to attack the system
"Retrieval-Augmented Defense: Adaptive and Controllable Jailbreak Prevention for Large Language Models", 2025.
]-> Repo
// RAD - novel framework for jailbreak detection that incorporates a database of known attack examples into Retrieval-Augmented Generation, which is used to infer the underlying, malicious user query and jailbreak strategy used to attack the system
Forwarded from CyberSecurityTechnologies
SAPA_Bench.pdf
1008.7 KB
#AIOps
#Research
"Mind the Third Eye! Benchmarking Privacy Awareness in MLLM-powered Smartphone Agents", 2025.
]-> https://github.com/Zhixin-L/SAPA-Bench
// with the rise of MLLM-powered smartphone agents, automation performance has improved significantly-yet at the cost of extensive access to sensitive user data
#Research
"Mind the Third Eye! Benchmarking Privacy Awareness in MLLM-powered Smartphone Agents", 2025.
]-> https://github.com/Zhixin-L/SAPA-Bench
// with the rise of MLLM-powered smartphone agents, automation performance has improved significantly-yet at the cost of extensive access to sensitive user data
Forwarded from CyberSecurityTechnologies
LCCT_Attacks.pdf
901.3 KB
#AIOps
#MLSecOps
"Security Attacks on LLM-based Code Completion Tools", v.4, AAAI 2025.
]-> example code and attack samples
// LLM-based Code Completion Tools (LCCTs) often rely on proprietary code datasets for training, raising concerns about the potential exposure of sensitive data. We exploit these distinct characteristics of LCCTs to develop targeted attack methodologies on two critical security risks: jailbreaking and training data extraction attacks
#MLSecOps
"Security Attacks on LLM-based Code Completion Tools", v.4, AAAI 2025.
]-> example code and attack samples
// LLM-based Code Completion Tools (LCCTs) often rely on proprietary code datasets for training, raising concerns about the potential exposure of sensitive data. We exploit these distinct characteristics of LCCTs to develop targeted attack methodologies on two critical security risks: jailbreaking and training data extraction attacks
🔥1
Forwarded from Андрей
Банк России разработал Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке \ КонсультантПлюс
https://www.consultant.ru/law/hotdocs/89962.html
https://www.consultant.ru/law/hotdocs/89962.html
www.consultant.ru
Банк России разработал Кодекс этики в сфере разработки и применения искусственного интеллекта на финансовом рынке \ КонсультантПлюс
Информационное письмо Банка России от 09.07.2025 N ИН-016-13/91 "О Кодексе этики в сфере разработки и применения искусственного интеллекта на финансовом рынке"
LLMs in the SOC: An Empirical Study of Human-AI Collaboration in Security Operations Centres
https://arxiv.org/html/2508.18947v1
Исследование представляет собой первый всесторонний эмпирический анализ того, как аналитики SOC взаимодействуют с LLM в своих повседневных рабочих процессах. Изучив 3090 реальных запросов аналитиков, отправленных GPT-4 в течение 10 месяцев в eSentire Inc., исследователи из CSIRO's Data61 и eSentire предоставили беспрецедентные данные о моделях сотрудничества человека и ИИ в операциях кибербезопасности. Результаты показывают, что LLM в основном функционируют как когнитивные помощники для осмысления и построения контекста, а не как инструменты принятия решений, при этом аналитики сохраняют четкий авторитет в отношении критически важных определений безопасности.
https://arxiv.org/html/2508.18947v1
Исследование представляет собой первый всесторонний эмпирический анализ того, как аналитики SOC взаимодействуют с LLM в своих повседневных рабочих процессах. Изучив 3090 реальных запросов аналитиков, отправленных GPT-4 в течение 10 месяцев в eSentire Inc., исследователи из CSIRO's Data61 и eSentire предоставили беспрецедентные данные о моделях сотрудничества человека и ИИ в операциях кибербезопасности. Результаты показывают, что LLM в основном функционируют как когнитивные помощники для осмысления и построения контекста, а не как инструменты принятия решений, при этом аналитики сохраняют четкий авторитет в отношении критически важных определений безопасности.
Forwarded from Пост Лукацкого
И еще один постер от SANS – про то, как стать лучшим пентестером 🤕
#sans #пентест #оценказащищенности
#sans #пентест #оценказащищенности
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from Пост Лукацкого
SANS-OO-Pen-Testing-0725.pdf
2.3 MB
Forwarded from AISecHub
xiangxin-guardrails - https://github.com/xiangxinai/xiangxin-guardrails/blob/main/README_EN.md An open-source and free enterprise-level AI security protection platform that supports both API and security gateway modes. It provides dual protection via prompt word attack detection and content compliance detection. Based on advanced large language models, it has context-aware capabilities and supports fully private deployment.
https://github.com/xiangxinai/xiangxin-guardrails - www.xiangxinai.cn
https://github.com/xiangxinai/xiangxin-guardrails - www.xiangxinai.cn
Forwarded from AISecHub
HackGpt - HackGPT Enterprise is a production-ready, cloud-native AI-powered penetration testing platform designed for enterprise security teams. It combines advanced AI, machine learning, microservices architecture, and comprehensive security frameworks to deliver professional-grade cybersecurity assessments.
https://github.com/yashab-cyber/HackGpt
https://github.com/yashab-cyber/HackGpt
GitHub
GitHub - yashab-cyber/HackGpt: HackGPT Enterprise is a production-ready, cloud-native AI-powered penetration testing platform designed…
HackGPT Enterprise is a production-ready, cloud-native AI-powered penetration testing platform designed for enterprise security teams. It combines advanced AI, machine learning, microservices archi...
👏1
Forwarded from GolDBUG
C-AI/MLPen - a good certification in sphere, from the few existing.
On the link, you can find information about which blocks will be tested during the examination and resources to learn and prepare [ for the moment, all of the given educational resources are free ] .
On the link, you can find information about which blocks will be tested during the examination and resources to learn and prepare [ for the moment, all of the given educational resources are free ] .
❤3🔥1
Forwarded from CyberSecurityTechnologies
CAI.pdf
314.3 KB
#AIOps
#MLSecOps
"Cybersecurity AI: Hacking the AI Hackers via Prompt Injection", Aug. 2025.
]-> Prompt injection mitigation
// We present PoC exploits against the Cybersecurity AI (CAI) framework and its CLI tool, and detail our mitigations against such attacks in a multi-layered defense implementation
#MLSecOps
"Cybersecurity AI: Hacking the AI Hackers via Prompt Injection", Aug. 2025.
]-> Prompt injection mitigation
// We present PoC exploits against the Cybersecurity AI (CAI) framework and its CLI tool, and detail our mitigations against such attacks in a multi-layered defense implementation
🔥4
Forwarded from ИИ & Право
📖 Новое исследование об инцидентах безопасности при внедрении ИИ в компаниях
Infosys опубликовали новое исследование, согласно которому 95% опрошенных руководителей компаний по всему миру уже столкнулись с инцидентами безопасности, связанными с корпоративными инструментами ИИ, а 77% таких случаев привели к прямым финансовым потерям.
#ИИ #Кибербезопасность
Infosys опубликовали новое исследование, согласно которому 95% опрошенных руководителей компаний по всему миру уже столкнулись с инцидентами безопасности, связанными с корпоративными инструментами ИИ, а 77% таких случаев привели к прямым финансовым потерям.
#ИИ #Кибербезопасность
Infosys
Responsible Enterprise AI in the Agentic Era
Companies see RAI as critical enabler for Enterprise AI success but are playing catch up on building out effective RAI capabilities. RAI teams must proactively invest in agile, efficient, and scalable operating models to enable enterprise AI to thrive as…
😱3
Forwarded from Not Boring Tech
🍯 Сеньор-инженер из Google выложил бесплатную (!) книгу на 400 страниц об агентских системах — Agentic Design Patterns. Это целый учебник для создания ИИ-агентов под любые задачи:
Сохраняйте мастрид — тут.
P.S. Кто сделает перевод книги на русский и пришлёт в комменты — отправлю редкий подарок за $16. Думаю, многим будет полезно!
@notboring_tech
• Продвинутые техники промптинга
• Шаблоны команд ИИ-агентов и фреймворки
• Гайды по использованию инструментов и MCP
• Кодинг-агенты и CLI
• Техники ризонинга моделей
• Управление памятью в ИИ-агентах
• Практические примеры с кодом и наглядные схемы
Сохраняйте мастрид — тут.
P.S. Кто сделает перевод книги на русский и пришлёт в комменты — отправлю редкий подарок за $16. Думаю, многим будет полезно!
@notboring_tech
🔥2