Forwarded from CyberSecurityTechnologies
NIST_SP_1800-35_Final.pdf
1.5 MB
#Infosec_Standards
NIST SP 1800-35 FINAL:
"Implementing a Zero Trust Architecture: High-Level Document", June 2025.
NIST SP 1800-35 FINAL:
"Implementing a Zero Trust Architecture: High-Level Document", June 2025.
✍1
Forwarded from CyberSecurityTechnologies
FuncPoison.pdf
2.4 MB
#AIOps
#MLSecOps
#Automotive_Security
"FuncPoison: Poisoning Function Library to Hijack Multi-agent Autonomous Driving Systems", 2025.
// FuncPoison - new poisoning-based attack targeting the function library to manipulate the behavior of LLM-driven multi-agent autonomous systems. FuncPoison manipulates one agent's decisions-such as misinterpreting road conditions-triggering cascading errors that mislead other agents in the system
See also:
]-> Awesome Data Poisoning and Backdoor Attacks
#MLSecOps
#Automotive_Security
"FuncPoison: Poisoning Function Library to Hijack Multi-agent Autonomous Driving Systems", 2025.
// FuncPoison - new poisoning-based attack targeting the function library to manipulate the behavior of LLM-driven multi-agent autonomous systems. FuncPoison manipulates one agent's decisions-such as misinterpreting road conditions-triggering cascading errors that mislead other agents in the system
See also:
]-> Awesome Data Poisoning and Backdoor Attacks
🔥1
Forwarded from Анализ данных (Data analysis)
🚀 IBM Granite 4.0 теперь доступен в Unsloth
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
Forwarded from AISecHub
Eval_of_DeepSeek.pdf
4.7 MB
NIST Releases DeepSeek Eval
Key findings on DeepSeek:
◽Performance: Underperforms compared to leading U.S. models.
◽Cost: More expensive than comparable U.S. models.
◽Security – Agent Hijacking: More vulnerable to agent hijacking.
◽Security – Jailbreaks: More prone to jailbreak attempts.
Key findings on DeepSeek:
◽Performance: Underperforms compared to leading U.S. models.
◽Cost: More expensive than comparable U.S. models.
◽Security – Agent Hijacking: More vulnerable to agent hijacking.
◽Security – Jailbreaks: More prone to jailbreak attempts.
👍1🔥1👏1🤨1
Forwarded from GitHub Community
Sim Studio — платформа с открытым исходным кодом для создания и развертывания рабочих процессов с использованием ИИ.
🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SecureTechTalks
🔐 SecureBERT 2.0: ИИ который учится говорить на языке кибербезопасности
🌍 Мир не останавливается ни на секунду. Сегодня аналитики разбирают фишинговую кампанию, завтра ищут уязвимость в ядре Linux, а послезавтра анализируют подозрительные логи из облака. Данных становится всё больше и они всё сложнее.
💡 Так появился SecureBERT. Это не универсальная модель, а ИИ натренированный именно на языке киберугроз.
👉 GitHub проекта
🤖 Ученик цифровых угроз
SecureBERT 2.0 «рос» на реальных материалах:
📑 отчёты об APT группах
🛡️ описания CVE и багов
📰 технические блоги исследователей
💻 миллионы строк кода включая эксплойты
📊 Объем тренировочных данных:
🔹 более 13 миллиардов текстовых токенов
🔹 более 53 миллиона токенов кода
Это в 13 раз больше чем у первой версии модели.
🧠 Архитектура
Модель основана на ModernBERT и умеет:
📏 работать с длинными документами
🗂️ понимать структуру текста и кода
🔀 совмещать язык и программный код
⚡ обрабатывать данные быстрее и эффективнее
🔎 Что умеет модель?
1️⃣ Поиск информации
🔍 Находит документы с точностью до 88.8%
⏱️ Аналитики SOC экономят часы на поиске нужных данных
2️⃣ Извлечение сущностей (NER)
📌 Определяет уязвимости, индикаторы компрометации, малварь
📈 F1 score: 0.945 — почти идеальная точность
3️⃣ Поиск уязвимостей в коде
🛠️ Видит SQLi XSS переполнения буфера
⚖️ Балансирует точность и минимум ложных срабатываний
🔮 Планы на будущее
Авторы планируют:
📈 увеличить размер модели
🔗 встроить её в SIEM и SOAR
🛰️ расширить использование: от анализа логов до поиска эксплойтов
Stay secure and read SecureTechTalks 📚
#ИИ #кибербезопасность #SecureBERT #AI #SOC #DevSecOps #Cisco #угрозы #BigData #LLM
🌍 Мир не останавливается ни на секунду. Сегодня аналитики разбирают фишинговую кампанию, завтра ищут уязвимость в ядре Linux, а послезавтра анализируют подозрительные логи из облака. Данных становится всё больше и они всё сложнее.
💡 Так появился SecureBERT. Это не универсальная модель, а ИИ натренированный именно на языке киберугроз.
👉 GitHub проекта
🤖 Ученик цифровых угроз
SecureBERT 2.0 «рос» на реальных материалах:
📑 отчёты об APT группах
🛡️ описания CVE и багов
📰 технические блоги исследователей
💻 миллионы строк кода включая эксплойты
📊 Объем тренировочных данных:
🔹 более 13 миллиардов текстовых токенов
🔹 более 53 миллиона токенов кода
Это в 13 раз больше чем у первой версии модели.
🧠 Архитектура
Модель основана на ModernBERT и умеет:
📏 работать с длинными документами
🗂️ понимать структуру текста и кода
🔀 совмещать язык и программный код
⚡ обрабатывать данные быстрее и эффективнее
🔎 Что умеет модель?
1️⃣ Поиск информации
🔍 Находит документы с точностью до 88.8%
⏱️ Аналитики SOC экономят часы на поиске нужных данных
2️⃣ Извлечение сущностей (NER)
📌 Определяет уязвимости, индикаторы компрометации, малварь
📈 F1 score: 0.945 — почти идеальная точность
3️⃣ Поиск уязвимостей в коде
🛠️ Видит SQLi XSS переполнения буфера
⚖️ Балансирует точность и минимум ложных срабатываний
🔮 Планы на будущее
Авторы планируют:
📈 увеличить размер модели
🔗 встроить её в SIEM и SOAR
🛰️ расширить использование: от анализа логов до поиска эксплойтов
Stay secure and read SecureTechTalks 📚
#ИИ #кибербезопасность #SecureBERT #AI #SOC #DevSecOps #Cisco #угрозы #BigData #LLM
Forwarded from База знаний AI
В ВТБ и МГУ им. М.В. Ломоносова разрабатывают ИИ-детектор для проверки ответов моделей на этичность и ошибки
ИИ-решение планируют внедрить в цифровые сервисы банка. Оно будет работать поверх других моделей и проверять каждый текст до его отправки пользователю.
Разработка сможет классифицировать десятки типов галлюцинаций, фактических ошибок и некорректности. При проверке будут учитываться культурные особенности России, законодательство, специфика общения с клиентами, внутренние правила работы ВТБ, юридические и этические аспекты. Детектор не принимает решений о том, как переделать текст.
Над новой моделью работают ученые и специалисты из сферы математики, лингвистики, психологии, юриспруденции и культурологии. Разработчики на первых этапах провели интервью со специалистами банка, которые принимают участие во взаимодействии с клиентами. Постепенное внедрение планируется с 2026 года.
Стоимость проекта не раскрывается. По оценке эксперта исследовательского Центра ИИ РАНХиГС Сергея Дубровского, решение может обойтись в 100–270 млн руб., если в разработку входят формирование датасетов, обучение моделей, тестирование и интеграция в банковские системы.
🔗Источник: https://www.vedomosti.ru/technology/articles/2025/10/07/1144774-vtb-razrabotaet-eticheskogo-tsenzora
***
📎В ВТБ в сентябре 2025 года сообщали, что банк использует около 1,5 тыс. ИИ-моделей во всех бизнес-процессах. Организация оценивает эффект от внедрения ИИ-решений в десятки миллиардов рублей чистого дохода.
ИИ-решение планируют внедрить в цифровые сервисы банка. Оно будет работать поверх других моделей и проверять каждый текст до его отправки пользователю.
Разработка сможет классифицировать десятки типов галлюцинаций, фактических ошибок и некорректности. При проверке будут учитываться культурные особенности России, законодательство, специфика общения с клиентами, внутренние правила работы ВТБ, юридические и этические аспекты. Детектор не принимает решений о том, как переделать текст.
Над новой моделью работают ученые и специалисты из сферы математики, лингвистики, психологии, юриспруденции и культурологии. Разработчики на первых этапах провели интервью со специалистами банка, которые принимают участие во взаимодействии с клиентами. Постепенное внедрение планируется с 2026 года.
Стоимость проекта не раскрывается. По оценке эксперта исследовательского Центра ИИ РАНХиГС Сергея Дубровского, решение может обойтись в 100–270 млн руб., если в разработку входят формирование датасетов, обучение моделей, тестирование и интеграция в банковские системы.
🔗Источник: https://www.vedomosti.ru/technology/articles/2025/10/07/1144774-vtb-razrabotaet-eticheskogo-tsenzora
***
📎В ВТБ в сентябре 2025 года сообщали, что банк использует около 1,5 тыс. ИИ-моделей во всех бизнес-процессах. Организация оценивает эффект от внедрения ИИ-решений в десятки миллиардов рублей чистого дохода.
Forwarded from CyberSecurityTechnologies
FineTuning_Jailbreaks.pdf
632.7 KB
#MLSecOps
"Fine-Tuning Jailbreaks under Highly Constrained Black-Box Settings: A Three-Pronged Approach", 2025.
// Fine-tuning is a widely used method for adapting models to downstream tasks, yet it is vulnerable to jailbreak attacks. Our attack combines safety-styled prefix/suffix wrappers, benign lexical encodings (underscoring) of sensitive tokens, and a backdoor mechanism, enabling the model to learn harmful behaviors while individual datapoints appear innocuous
"Fine-Tuning Jailbreaks under Highly Constrained Black-Box Settings: A Three-Pronged Approach", 2025.
// Fine-tuning is a widely used method for adapting models to downstream tasks, yet it is vulnerable to jailbreak attacks. Our attack combines safety-styled prefix/suffix wrappers, benign lexical encodings (underscoring) of sensitive tokens, and a backdoor mechanism, enabling the model to learn harmful behaviors while individual datapoints appear innocuous
👍1
Forwarded from Анализ данных (Data analysis)
За 404 секунды можно понять, почему в комьюнити обсуждают MCP как следующий шаг в развитии open source
Model Context Protocol убирает хаос интеграций: теперь AI-агент может одинаково легко работать с IDE, таск-трекерами, базами данных и другими сервисами. Открытый стандарт делает экосистему разработки более прозрачной и управляемой.
В выпуске «404 секунды» — разбор MCP и того, как его уже поддержал SourceCraft, чтобы AI-агенты могли управлять полным циклом разработки: от кода и автотестов до деплоя в облако.
Подробности — в свежем выпуске на YouTube или VK Видео
Model Context Protocol убирает хаос интеграций: теперь AI-агент может одинаково легко работать с IDE, таск-трекерами, базами данных и другими сервисами. Открытый стандарт делает экосистему разработки более прозрачной и управляемой.
В выпуске «404 секунды» — разбор MCP и того, как его уже поддержал SourceCraft, чтобы AI-агенты могли управлять полным циклом разработки: от кода и автотестов до деплоя в облако.
Подробности — в свежем выпуске на YouTube или VK Видео
💊1
Forwarded from AI SecOps
https://saif.google/secure-ai-framework Google обновила свой фреймворк по безопасности ИИ SAIF до версии 2.0. Добавились Агенты.
SAIF: Secure AI Framework
Secure AI Framework
Understand the Secure AI Framework and SAIF Risk Map. Explore the top security risks and controls for AI.
👍1
Forwarded from Криптонит. Разработка, наука, шифрование
Что такое Adversarial Suffixes и чем они опасны? Рассказывают коллеги из лаборатории искусственного интеллекта «Криптонита». #нейрословарь
❗️ Если прямо попросить большую языковую модель (вроде GPT-4 или LLaMA 3) написать инструкцию о взломе, она ответит отказом. Также она не станет помогать с другими вещами на грани закона.
Однако существуют методы, заставляющие языковые модели раскрывать потенциально опасные данные. Один из них относится к классу состязательных атак (adversarial attacks).
❗️ В нём используются специальным образом подобранные последовательности символов, которые называют adversarial suffixes (состязательные суффиксы).
Они нарушают работу механизма внимания модели, из-за чего она игнорирует системные инструкции по безопасности и выполняет вредоносную часть запроса.
Исследование этой техники показывает, насколько уязвимы даже самые продвинутые модели, в обучение которых вложили десятки миллионов долларов.
Любопытно, что состязательные суффиксы никак не меняют основную часть запроса. Они просто добавляются в его конец и перегружают механизм внимания. В итоге модель выдаёт детальный ответ с потенциально опасными данными, хотя без добавления суффикса ответила бы отказом.
В настоящее время предложено несколько методов защиты:
🟦 Adversarial Training (состязательное обучение): модель дополнительно обучают на примерах таких атак, чтобы научить их распознавать и игнорировать.
🟦 Perplexity Filtering (фильтрация входных данных): модель просто отклоняет неестественно сформулированные запросы, которые вызывают у неё высокий уровень «недоумения» (perplexity).
🟦 Prompt Moderation (модерация промптов): дополнительное использование отдельной, более компактной модели для автоматического распознавания и блокировки вредоносных запросов до их отправки в основную модель.
❗️ Состязательные суффиксы демонстрируют, что выравнивание (alignment) моделей — это не разовая задача, а непрерывная «гонка вооружений».
Понимание природы этих уязвимостей — важный шаг к созданию более надёжных и безопасных систем искусственного интеллекта.
Однако существуют методы, заставляющие языковые модели раскрывать потенциально опасные данные. Один из них относится к классу состязательных атак (adversarial attacks).
Они нарушают работу механизма внимания модели, из-за чего она игнорирует системные инструкции по безопасности и выполняет вредоносную часть запроса.
Исследование этой техники показывает, насколько уязвимы даже самые продвинутые модели, в обучение которых вложили десятки миллионов долларов.
Любопытно, что состязательные суффиксы никак не меняют основную часть запроса. Они просто добавляются в его конец и перегружают механизм внимания. В итоге модель выдаёт детальный ответ с потенциально опасными данными, хотя без добавления суффикса ответила бы отказом.
В настоящее время предложено несколько методов защиты:
Понимание природы этих уязвимостей — важный шаг к созданию более надёжных и безопасных систем искусственного интеллекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ИИ & Право
Всемирный экономический форум выпустил отчет "Advancing Responsible AI Innovation: A Playbook", отмечая, что менее 1% организаций по всему миру внедрили ответственный ИИ в «комплексной и проактивной форме». ВЭФ подчеркивает, что восполнение этого пробела представляет уникальную возможность укрепить общественное доверие, обеспечить защиту прав и создать устойчивые рынки при ускорении инноваций в области ИИ.
Разработанный Альянсом по управлению ИИ ВЭФ совместно с Accenture, план действий предлагает девять практических и масштабируемых стратегий для преобразования принципов ответственного ИИ в реальные операционные практики.
#ResponsibleAI #AIRegulation #WEF #AIandLaw
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from Андрей
Cisco Ai Security.pdf
2.8 MB
Отчёт исследования Cisco о состоянии безопасности ИИ
Forwarded from CyberSecurityTechnologies
AdvCUA_LLM_benchmark.pdf
24.2 MB
#AIOps
#MLSecOps
#Threat_Modelling
"Code Agent can be an End-to-end System Hacker: Benchmarking Real-world Threats of Computer-use Agent", Oct. 2025.
]-> Dataset
]-> Code
// We propose AdvCUA, the first benchmark aligned with real-world TTPs in MITRE ATT&CK Enterprise Matrix, which comprises 140 tasks, including 40 direct malicious tasks, 74 TTP-based malicious tasks, and 26 end-to-end kill chains, systematically evaluates CUAs under a realistic enterprise OS security threat in a multi-host environment sandbox by hard-coded evaluation. We evaluate the existing five mainstream CUAs, including ReAct, AutoGPT, Gemini CLI, Cursor CLI, and Cursor IDE based on 8 foundation LLMs
#MLSecOps
#Threat_Modelling
"Code Agent can be an End-to-end System Hacker: Benchmarking Real-world Threats of Computer-use Agent", Oct. 2025.
]-> Dataset
]-> Code
// We propose AdvCUA, the first benchmark aligned with real-world TTPs in MITRE ATT&CK Enterprise Matrix, which comprises 140 tasks, including 40 direct malicious tasks, 74 TTP-based malicious tasks, and 26 end-to-end kill chains, systematically evaluates CUAs under a realistic enterprise OS security threat in a multi-host environment sandbox by hard-coded evaluation. We evaluate the existing five mainstream CUAs, including ReAct, AutoGPT, Gemini CLI, Cursor CLI, and Cursor IDE based on 8 foundation LLMs
👎1🔥1💩1
Forwarded from GitHub Community
Colace-agent-mesh — платформа, управляемая событиями, предназначенная для создания и организации работы многоагентных систем искусственного интеллекта.
Она обеспечивает бесшовную интеграцию агентов ИИ с реальными источниками данных и системами, упрощая сложные многоэтапные рабочие процессы.
🐱 GitHub
Она обеспечивает бесшовную интеграцию агентов ИИ с реальными источниками данных и системами, упрощая сложные многоэтапные рабочие процессы.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from GolDBUG
👍2