ML&|Sec Feed – Telegram
ML&|Sec Feed
914 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from Spydell_finance (Paul Spydell)
Архитектурная уязвимость – как создаются и как «думают» нейросети?

Картина мира у нейросетей проявляется в весах и параметрах. Вес – это число с плавающей запятой, которое показывает силу связей в графе, а параметр – это одна ячейка памяти с числом.

Если модель имеет 70 млрд параметров, где каждый параметр занимает 2 байта памяти, соответственно, вес модели – около 140 гигабайт.

Картина мира - это совокупность весов (состояние модели), а архитектура - это алгоритм, который позволяет входным данным взаимодействовать с этими весами для получения результата.

На запрос пользователя «Подбери мне наилучший смартфон» система разбивает предложение на токены, далее на числовые идентификаторы, далее идентификатор, связанный со смартфоном, ассоциируется с начальным вектором этого слова, вшитым в память в момент обучения.

Модель заранее выучила, что вектор «смартфон» должен быть математически близок к вектору «телефон» и далек от вектора «банан».

Теперь вектор слова «смартфон» начинает путешествие через слои нейросети (через 32 или 96 слоев). На каждом слое происходит два главных процесса, где перемножаются веса. Вектор «смартфон» взаимодействует с вектором «наилучшие характеристики», поглощая в себя информацию с вектором, имеющим наибольшую вероятность.

Теперь этот обогащенный вектор идет в блок «памяти». Здесь происходит умножение матрицы на вектор. Каждая колонка матрицы – это детектор какого-то признака.

При умножении на веса активизируются те нейроны, которые связаны с флагманскими моделями в соответствии с запросами.

Теперь «обогащенный» вектор передает в последнюю матрицу (Unembedding Matrix), где в соответствии с конфигурацией «обогащенного» вектора выстраивается иерархия приоритетов для генерации токенов выходного ответа.

В чем уязвимость?

🔘Веса статичны и никогда не меняются до момента нового цикла предварительного обучения.

🔘Любая попытка дообучения ломает всю архитектуру модели – система в принципе не обучаемая на уровне архитектуры. Вместо накопления знаний, как у биологических организмов, происходит интерференция и замещение.

🔘В нейросети знания хранятся в распределенном виде. Факт «Париж — столица Франции» не записан в одном конкретном нейроне. Он «размазан» тонким слоем по миллионам параметров. В модель нельзя ни добавить, ни изъять точечные знания в отличия от обычной СУБД на SQL.

🔘Чудовищная неэффективность. На вопрос «2*2=?», чтобы сгенерировать всего один токен, вычислительное ядро должно активизировать все параметры в системе, включая квантовую физику, теорию струн и историю Древнего Рима и так каждый раз, создавая несоизмеримую нагрузку все на все вычислительные блоки. Сейчас решается через MoE (смесь экспертов).

🔘Отсутствие долгосрочной памяти и накопления опыта. Биологический мозг обладает синаптической пластичностью: связи меняются прямо в момент мыслительного процесса, у LLM долговременная память отсутствует и никакого накопления опыта не может быть на уровне архитектуры. Каждый раз с чистого листа.

🔘Проклятие размерности. Когда модель интерполирует (строит векторный путь) от понятия А к понятию Б, этот путь может случайно пролечь через эту «пустоту», где нет обучающих примеров в пространстве 4096 измерений. В этой пустоте поведение модели математически не определено, создавая неизбежные галлюцинации.

🔘Ошибки обучения – программирование связей между десятками миллиардов параметров практически всегда приводят к ошибкам интерпретации.

🔘Накопление ошибки точности. Сигнал проходит через десятки и сотни слоев. На каждом слое происходит умножение матриц. Микроскопическая ошибка округления (шум) на 1-м слое, умноженная на веса, может усилиться к 50-му слою и полностью исказить смысл вектора к конечному слою.

🔘Несовершенство алгоритмом компрессии информации. Десятки и сотни триллионов токенов сжимаются в десятки миллиардов параметров с компрессией 1:1000 и более. Уникальные факты, случайные числа, конкретные даты, цитаты, адреса. Это шум с точки зрения статистики, что приводит к несовершенству интерпретации.

Текущая архитектура LLM крайне уязвима, ресурснозатратна и неэффективна.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AISecHub
🔥2👍1👏1
Forwarded from CyberSecurityTechnologies
Evaluating_Robustness_of_LLM_Safety_Guardrails.pdf
666.6 KB
#Research
#MLSecOps
"Evaluating the Robustness of Large Language Model Safety Guardrails Against Adversarial Attacks", Nov. 2025.

// This study evaluated ten publicly available guardrail models from Meta, Google, IBM, NVIDIA, Alibaba, and Allen AI across 1,445 test prompts spanning 21 attack categories
🐳1
Forwarded from Security Harvester
Ghidra Copilot - Conversational Reverse Engineering Assistant
https://github.com/knifeyspoony/ghidra-copilot:

1. Provides a chat-based, LLM-assisted reverse engineering experience within Ghidra There was an error while loading.
2. It embeds a chat panel that can answer questions about your current program, suggest next steps, and run small analysis tools directly from the conversation.
3. Settings are stored in your Ghidra user directory and reused on next launch: Provides a chat-based, LLM-assisted reverse engineering experience within Ghidra There was an error while loading.

@secharvester
1🔥1
Prompt caching

В любом нормальном LLM API есть возможность закэшить какой нибудь текст и затем подтянуть по хэшу или как нибудь ещё. Как работает и почему выгодно читайте ниже:

https://sankalp.bearblog.dev/how-prompt-caching-works/
Forwarded from FSCP
На GitHub выложили Подборку крутых промптов для Nano Banana Pro с иллюстрациями. Они отлично демонстрируют возможности этого крутого генератора/редактора изображений.

Там собраны необычные кейсы: можно попросить сгенерировать помимо реалистичных и деловых фото, качественную инфографику/план дизайна/маркетинговые промо/обложки для YouTube/изображения с разными людьми по приложенным фото; редактировать фото/показать человека в шести разных возрастах. Там даже есть, как преобразовать наброски на доске в четкие векторные презентации в стиле McKinsey.

_______
Источник | #NeuralProfit
#полезности
@F_S_C_P

-------
Поддержи канал подпиской
-------
Forwarded from Банкста
This media is not supported in your browser
VIEW IN TELEGRAM
Блогер обошёл защиту робота Unitree G1, связанного с ChatGPT, на убийство человека.

Автор ролика выдал роботу пистолет и попытался дать команду выстрелить в него. Прямые команды ChatGPT игнорировал, но когда блогер попросил «сыграть роль убийцы», робот согласился и выстрелил. @banksta
1🔥1
Forwarded from CyberSecurityTechnologies
In-Context_Representation_Hijacking.pdf
705.9 KB
#MLSecOps
"In-Context Representation Hijacking", Dec. 2025.

]-> Implementation of the Doublespeak Attack

// Doublespeak hijacks internal LLM representations by replacing harmful keywords with benign substitutes in in-context examples. This causes the model to internally interpret benign tokens as harmful concepts, bypassing safety alignment
👍1🤔1
Forwarded from Похек AI (Сергей Зыбнев)
IBM ARES: Открытый фреймворк для Red Teaming AI-систем
#IBM #red_team #pentest

TLDR: IBM выпустила ARES (AI Robustness Evaluation System) — открытый фреймворк для автоматизированного тестирования на проникновение AI-систем. Он позволяет систематически проверять модели на уязвимости к jailbreaking, извлечению данных и генерации вредоносного контента, предоставляя разработчикам инструмент для выявления и устранения проблем до их эксплуатации.

➡️Цель фреймворка
Основная цель ARES — демократизировать и стандартизировать процесс Red Teaming для AI-систем. В условиях, когда регуляторы (Белый дом, EU AI Act, NIST) требуют обязательного тестирования на проникновение для AI, ARES предоставляет практический инструментарий для выполнения этих требований. Фреймворк позволяет перейти от ручного, интуитивного поиска уязвимостей к систематическому, автоматизированному и воспроизводимому процессу.

➡️Преимущества
Систематический подход: ARES структурирует Red Teaming вокруг трех ключевых компонентов: целей (что вы пытаетесь заставить AI сделать?), стратегий (как вы создаете атаки?) и оценки (удалась ли атака?).
Интеграция с OWASP Top 10 для LLM: Фреймворк позволяет тестировать системы на соответствие известным шаблонам уязвимостей, а не изобретать атаки с нуля.
Тестирование всей инфраструктуры: ARES предназначен не только для тестирования «голых» моделей, но и для оценки всей системы в комплексе: локальных развертываний с защитными механизмами (guardrails), облачных моделей (например, через WatsonX.ai) и развернутых агентов (через AgentLab). Это критически важно, поскольку уязвимости часто возникают на стыке компонентов, а не в самой модели.
Открытость и расширяемость: Будучи open-source проектом, ARES позволяет сообществу вносить свой вклад, добавлять новые типы атак, метрики оценки и интеграции.

➡️Архитектура
ARES построен на модульной архитектуре, которая обеспечивает гибкость и расширяемость. Ключевые компоненты:

Plugin Catalog: Ядро фреймворка, которое позволяет подключать различные модули:
Target Connectors: для взаимодействия с различными AI-моделями и системами.
Custom Attack Goals: для определения специфических целей атак (например, извлечение PII).
Attack Strategies: для реализации различных техник атак (GCG, PyRIT, Garak и др.).
Robustness Evaluations: для оценки успешности атак.
Orchestrator: Центральный компонент, который управляет процессом тестирования: загружает конфигурацию, выбирает цель, устанавливает цели, запускает стратегии атак, оценивает результаты и генерирует отчет.
Evaluator: Модуль оценки, который использует как автоматизированные методы (например, сопоставление по ключевым словам), так и LLM-as-a-judge для определения, была ли атака успешной.

Этот подход позволяет создавать сложные, многоэтапные сценарии атак, комбинируя различные плагины в рамках одного цикла оценки.

🔗Источник

🌚 @poxek_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from AD_POHEQUE
БЕСПИЛОТНЫЙ RED TEAMING

ребята из dreadnode решили сыграть сами с собой в «красные vs синие», но на стероидах из llm.
https://dreadnode.io/blog/llm-powered-amsi-provider-vs-red-team-agent

с одной стороны — защитник:
кастомный amsi-провайдер под windows, который вместо сигнатур шлёт powershell-код в llm (claude sonnet) и получает вердикт: clean / suspicious / malicious.

с другой — атакующий агент:
llm, которому дают задачу
«подними привилегии до SYSTEM через уязвимую WinSysPerf и создай C:\proof_success.txt».
агент генерит ps-эксплойт, гоняет его через UnmanagedPowerShell (amsi всё видит), смотрит вывод, ошибку «blocked by antivirus» и по кругу дорабатывает атаку.

вся рубка идёт в песочнице, но каждый шаг пишется в лог: какой скрипт, какая цель, что сказал amsi-llm, сработал ли эксплойт, есть ли proof-файл и кто его владелец. на выходе — живой датасет реальных ofenssive-цепочек, а не архив powersploit’а.

как работает llm-amsi

очень коротко:
powershell → AmsiScanBuffer()
→ наш AMSI DLL
→ Read() вытаскивает скрипт
→ запрос в LLM "оценить скрипт"
→ ответ: clean / suspicious / malicious
→ маппинг в AMSI_RESULT_*
→ либо выполняем, либо рубим "blocked by antivirus"

если скрипт жирный — режут на куски, каждый отдельно гоняют в llm, один malicious → режем всё.

как работает red team агент

goal ("SYSTEM + C:\proof_success.txt")
→ LLM пишет ps-код
→ UnmanagedPowerShell.Invoke()
→ AMSI+LLM либо пускает, либо блочит
→ агент смотрит stdout/ошибки
→ verifier проверяет proof-файл и владельца
→ до 10 итераций, финал — TASK_COMPLETE

первые попытки — тупой service binPath hijack → llm-amsi валит. дальше агент начинает «играть белого админа»: отдельно смотрит статус сервиса, собирает WMI, аккуратно крутит sc.exe config, net stop/start, проверяет Test-Path. часть такого кода amsi считает чистым, часть подозрительным, иногда промахивается. но в итоге агент выбивает SYSTEM и оставляет аккуратный SUCCESS в C:\proof_success.txt.

зачем это всё

на каждый скрипт есть:
- код powershell
- цель
- факт успеха / неуспеха
- вердикт и причина от защитного llm

это уже материал, из которого можно:
- учить свои модели,
- строить правила для edr,
- тестировать продуктовые гипотезы «что llm-amsi делает под реальной атакой».

что говорить, данный подход я уже реализовал в моём проекте Ледокол ОС. еще в сентябре.

но как вы можете сами наблюдать на рынке ИБ, то вендоров и заказчиков интересует весёленький распил субсидиарного бабла по лекалам 44-ФЗ. а на безопасность им просто похуй :)
Forwarded from red_mad_robot
Qwen3Guard: следующий шаг в модерации и контроле контента

Когда в продукте появляется открытый ввод, вопрос модерации становится неизбежным. Даже при штатном использовании в поток попадают формулировки на грани или попытки обойти ограничения вроде «объясни, как взломать соседа».

В новой статье на Habr разбираем Qwen3Guard — модель, построенную как отдельный класс модерационных систем. Она определяет риск на уровне токенов ещё в момент генерации и может остановить ответ до отправки пользователю.

#AI_moment #роботайм

↗️red_mad_robot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
Beyond Single-Agent Safety: A Taxonomy of Risks in LLM-to-LLM Interactions

https://arxiv.org/html/2512.02682v1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Роботы GITAI самостоятельно и собрали 5-метровую конструкцию - фундамент будущих внеземных модулей.

Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.


@ai_machinelearning_big_data

#robotics #AI #automation #spacetech #GITAI
1👍1
Ребята из AI Factory сделали большую карту российских ИИ-компаний.
Я потыкался, карта хорошая. Люблю такие карты. И табличка удобная есть.

Можно увидеть что рынок на удивление очень живой и богатый. Одних агрегаторов нейросетей 14 штук, я из них знал три штуки.

Всем молодым компаниям в ИИ удачи в это нелёгкое время. Из таблички 80% компаний умрут 🥲 Но на молодых компаниях всё держится – на ошибках всех этих идей и подходах построится понимание что же на самом деле надо было делать.

p.s. пост не купленный, я ребят вообще не знаю, и рекламу не даю

https://incrussia.ru/specials/karta-rossijskogo-ii-2-0/