GolDBUG – Telegram
GolDBUG
71 subscribers
199 photos
24 videos
69 files
229 links
»«

🟪 purple team
🍵📗 green hat

` I say the singularity of this coincidence
absolutely stupefied me for a time....
The bug is to make my fortune . `

«William Legrand»

Admins:
@alwaysofflayn
@durchiks
@ ~ Raph Abdurakhmanov
Download Telegram
Forwarded from AI для Всех
🧠 Лечим амнезию у Claude Code: как я превратил AI в личного библиотекаря

TL;DR: Написал опенсорс-утилиту, которая слушает ваши сессии с Claude Code, выжимает из них самое ценное и сама раскладывает знания по полочкам в Obsidian.

Знаете это чувство? Вы битый час дебажили с Claude сложную проблему, нашли гениальное решение, закрыли терминал... а через неделю сидите перед пустым экраном с мыслью: «Чёрт, мы же это уже чинили! Какой там был флаг?».

Claude Code - крутой напарник, но у него память золотой рыбки. Сессия закрылась - контекст умер.
Меня это достало. Я хочу, чтобы мой опыт копился, а не испарялся. Так появился claude-note.

⚙️ Как это работает
Это не просто логгер. Это полноценный пайплайн обработки знаний, который работает в фоном режиме.

- Перехват: Вы работаете в терминале как обычно. claude-note через хуки (hooks) молча ловит каждое действие.
- Анализ: Как только сессия завершается (или вы ушли пить кофе на 30 минут), в дело вступает другой инстанс Claude.
- Синтез: Он перечитывает весь ваш диалог и, как внимательный стажёр-секретарь, выписывает: — Чему мы научились (Learnings) — Какие решения приняли и почему (Decisions) — Классные куски кода (Patterns) — Вопросы, которые остались висеть (Open Questions)

🎛 Три режима: от простого к магии
Я сделал три режима, чтобы угодить всем:

🪵 Log: Для параноиков и архивариусов. Просто сохраняет сырой текст сессии. Быстро, дешево, сердито.

📥 Inbox: Классика GTD. AI делает выжимку и кидает её в один файл «Входящие». Вы сами потом разбираете за утренним кофе.

🚀 Route (мой любимый): Полный автопилот. Система понимает контекст инсайта и сама находит, куда его записать.
Обсуждали настройку Nginx? Инсайт полетит в заметку nginx-config.md. Всплыла новая тема про WebSockets? Создастся websockets.md. Это реально похоже на магию.

🧠 Киллер-фича: Семантический поиск
Чтобы «Route» работал идеально, я прикрутил интеграцию с qmd. Это векторный поиск по вашим заметкам.
Благодаря ему Claude понимает смысл, а не просто ищет слова. Если вы обсуждали «токенизацию», он поймет, что это относится к заметке про LLM, даже если слова «LLM» в диалоге не было. Контекст сохраняется железобетонно.

🛠 Как потрогать
Всё опенсорс, всё у вас локально. Никаких сторонних облаков, кроме API самого Claude.


git clone https://github.com/crimeacs/claude-note.git
cd claude-note
./install.sh


Нужен Python 3.11+ и Mac/Linux. Инсталлер сам всё настроит и подскажет, что прописать в конфиг Claude.

Для меня этот проект закрыл огромную дыру в продуктивности. Теперь, когда я сажусь кодить, я знаю, что ни одна умная мысль не потеряется. Мой «второй мозг» в Obsidian наполняется сам собой.

🔗 Забирайте на GitHub: https://github.com/crimeacs/claude-note

Попробуйте поставить и поработать денек. Гарантирую, когда вечером заглянете в свой Obsidian - приятно удивитесь.

💬 Вопрос в зал: А как вы сейчас сохраняете инсайты от AI? Копипастите руками в Notion? Делаете скриншоты? Или надеетесь на свою память? Делитесь болью в комментариях!

Если пост зашел - перешлите коллеге, который вечно всё забывает. 😉
🔥2
👋Приветствую!

В новой статье разберём атаку LDAP Injection и обойдём аутентификацию web-приложения, используя различные конструкции для изменения запросов в свою пользу.

Облегчённый протокол доступа к каталогам (Lightweight Directory Access Protocol, LDAP) — это протокол, используемый для доступа к серверам каталогов, таким как Active Directory (AD). Веб-приложения могут использовать LDAP для интеграции с AD или другими службами каталогов в целях аутентификации или получения данных. Если пользовательский ввод вставляется в запросы LDAP без надлежащей очистки, могут возникнуть уязвимости, связанные с внедрением кода в LDAP.

LDAP-инъекция — это атака, при которой злоумышленник вводит специальные LDAP-операторы в поля ввода приложения, чтобы изменить логику запроса, обойти аутентификацию, получить несанкционированный доступ к данным или модифицировать каталог.

Не забывайте оценивать моё творчество лайком. Приятного изучения нового материала!

Разбор кейса

#CTF #Web #LDAPInjection
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from Мир трендов
🤔 Твиттер внезапно осознал, почему нейропомощников вроде Claude Cowork называют ИИ-агентами 🤖

В «🔤атрице» агентами называли врагов.
Холодных, системных, опасных.


мы сами их создали — и называем помощниками 😨

🔵Мир трендов
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯2😁1🤣1
Forwarded from CyberED
Потратил $5 000 на AI-агентов для пентеста. Какие результаты получил?

Всем привет! На связи Сергей Зыбнев. Я 5 лет в ИБ, веду телеграм-канал Похек, работаю тимлидом пентестеров в «Бастион», специализируюсь на веб-пентесте.

🤖 В последнее время я увлёкся AI/ML/LLM R&D и за 1,5 года потратил больше $5 000 из своего кармана на эксперименты с AI-агентами для пентеста. 

В карточках рассказал, какие инструменты испытал.

Подробнее про каждый из них, результаты и мои выводы об AI для пентеста — в свежей статье для CyberED.

👉 Читать статью 👈
___
Больше об экспериментах с AI пишу в телеграмм-канале Похек AI – подпишитесь 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Innovation & Research
international-ai-safety-report-2026.pdf
6.7 MB
Международный отчет по безопасности ИИ

Под председательством Йошуа Бенджио издан второй отчет о безопасности ИИ. Среди ревьюеров можно найти Рассела, Хинтона и других хорошо известных ученых.
Основные выводы:

- Возможности ИИ общего назначения продолжают улучшаться, особенно в математике, программировании и автономной работе. Ведущие системы ИИ достигли высоких результатов в решении задач Международной математической олимпиады. В программировании агенты ИИ теперь могут надежно выполнять некоторые задачи, на которые у человека-программиста ушло бы около получаса, по сравнению с менее чем 10 минутами год назад. Тем не менее, производительность остается «неравномерной», и ведущие системы по-прежнему не справляются с некоторыми, казалось бы, простыми задачами.

- Улучшения в возможностях ИИ общего назначения все чаще достигаются за счет методов, применяемых после первоначального обучения модели. Эти методы «постобучения» включают в себя уточнение моделей для конкретных задач и предоставление им возможности использовать больше вычислительной мощности при генерации результатов. В то же время использование большей вычислительной мощности для первоначального обучения продолжает также улучшать возможности модели.

- Внедрение ИИ происходило быстро, хотя и крайне неравномерно по регионам. ИИ внедрялся быстрее, чем предыдущие технологии, такие как персональные компьютеры, и по меньшей мере 700 миллионов людей сейчас еженедельно используют ведущие системы ИИ. В некоторых странах более 50% населения использует ИИ, хотя в большей части Африки, Азии и Латинской Америки уровень внедрения, вероятно, остается ниже 10%.

- Развитие научных возможностей ИИ усилило опасения по поводу его неправомерного использования в разработке биологического оружия. Несколько компаний, занимающихся ИИ, решили выпустить новые модели в 2025 году с дополнительными мерами безопасности после того, как предварительные испытания не смогли исключить возможность того, что они могут существенно помочь новичкам в разработке такого оружия.

- Появилось больше свидетельств использования систем ИИ в реальных кибератаках. Анализы безопасности, проведенные компаниями, занимающимися ИИ, указывают на то, что злоумышленники и связанные с государством группы используют инструменты ИИ для содействия в кибероперациях.

- Проведение надежных предварительных испытаний на безопасность стало сложнее. Модели стали чаще различать условия тестирования и реальное развертывание, и использовать лазейки в оценках. Это означает, что опасные возможности могут остаться необнаруженными до развертывания.

- Обязательства отрасли по управлению безопасностью расширились. В 2025 году 12 компаний опубликовали или обновили «Рамочные стандарты безопасности ИИ на передовом уровне» — документы, описывающие, как они планируют управлять рисками по мере создания более совершенных моделей. Большинство инициатив по управлению рисками остаются добровольными, но в некоторых юрисдикциях начинают формализовать некоторые практики в качестве юридических требований.
👾1
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM

AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.

Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.

Как это возможно?

Вместо загрузки всей модели в память сразу, AirLLM:

- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою

Фактически, это потоковая обработка модели.

Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.

Что это даёт разработчикам:

- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU

Это сдвигает барьер входа для локального LLM-разработки и экспериментов.

AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.

https://github.com/0xSojalSec/airllm
🔥1
Forwarded from Machinelearning
📌 OVQA: прощай, KV-cache offloading.

В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.

То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.

В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.


Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.

Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.

Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.

🟡Результаты тестовых экспериментов

🟢Модель, обученная на 4К токенах, уверенно справлялась с контекстом до 64К без деградации качества;

🟢На внутриконтекстном поиске OVQ почти не отставала от полноценного самовнимания, потребляя при этом в 4 раза меньше памяти;

🟢На In-Context Learning VQ провалился, а OVQ вышла на уровень классического внимания, используя всего ~4К центроидов;

🟢Сравнения с линейными альтернативами (Mamba2 и дельта-сети) тоже в пользу OVQ: она стабильнее держит долгий контекст без просадок точности;

🟠В задачах Positional ICR OVQA работает чуть хуже, чем классическое внимание но все равно достойно.

Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏1
Machinelearning
Photo
Вауу, всё проще обучаться с ноута) ❤️
1