Forwarded from AI для Всех
🧠 Лечим амнезию у Claude Code: как я превратил AI в личного библиотекаря
TL;DR: Написал опенсорс-утилиту, которая слушает ваши сессии с Claude Code, выжимает из них самое ценное и сама раскладывает знания по полочкам в Obsidian.
Знаете это чувство? Вы битый час дебажили с Claude сложную проблему, нашли гениальное решение, закрыли терминал... а через неделю сидите перед пустым экраном с мыслью: «Чёрт, мы же это уже чинили! Какой там был флаг?».
Claude Code - крутой напарник, но у него память золотой рыбки. Сессия закрылась - контекст умер.
Меня это достало. Я хочу, чтобы мой опыт копился, а не испарялся. Так появился claude-note.
⚙️ Как это работает
Это не просто логгер. Это полноценный пайплайн обработки знаний, который работает в фоном режиме.
- Перехват: Вы работаете в терминале как обычно. claude-note через хуки (hooks) молча ловит каждое действие.
- Анализ: Как только сессия завершается (или вы ушли пить кофе на 30 минут), в дело вступает другой инстанс Claude.
- Синтез: Он перечитывает весь ваш диалог и, как внимательный стажёр-секретарь, выписывает: — Чему мы научились (Learnings) — Какие решения приняли и почему (Decisions) — Классные куски кода (Patterns) — Вопросы, которые остались висеть (Open Questions)
🎛 Три режима: от простого к магии
Я сделал три режима, чтобы угодить всем:
🪵 Log: Для параноиков и архивариусов. Просто сохраняет сырой текст сессии. Быстро, дешево, сердито.
📥 Inbox: Классика GTD. AI делает выжимку и кидает её в один файл «Входящие». Вы сами потом разбираете за утренним кофе.
🚀 Route (мой любимый): Полный автопилот. Система понимает контекст инсайта и сама находит, куда его записать.
Обсуждали настройку Nginx? Инсайт полетит в заметку nginx-config.md. Всплыла новая тема про WebSockets? Создастся websockets.md. Это реально похоже на магию.
🧠 Киллер-фича: Семантический поиск
Чтобы «Route» работал идеально, я прикрутил интеграцию с qmd. Это векторный поиск по вашим заметкам.
Благодаря ему Claude понимает смысл, а не просто ищет слова. Если вы обсуждали «токенизацию», он поймет, что это относится к заметке про LLM, даже если слова «LLM» в диалоге не было. Контекст сохраняется железобетонно.
🛠 Как потрогать
Всё опенсорс, всё у вас локально. Никаких сторонних облаков, кроме API самого Claude.
Нужен Python 3.11+ и Mac/Linux. Инсталлер сам всё настроит и подскажет, что прописать в конфиг Claude.
Для меня этот проект закрыл огромную дыру в продуктивности. Теперь, когда я сажусь кодить, я знаю, что ни одна умная мысль не потеряется. Мой «второй мозг» в Obsidian наполняется сам собой.
🔗 Забирайте на GitHub: https://github.com/crimeacs/claude-note
Попробуйте поставить и поработать денек. Гарантирую, когда вечером заглянете в свой Obsidian - приятно удивитесь.
💬 Вопрос в зал: А как вы сейчас сохраняете инсайты от AI? Копипастите руками в Notion? Делаете скриншоты? Или надеетесь на свою память? Делитесь болью в комментариях!
Если пост зашел - перешлите коллеге, который вечно всё забывает. 😉
TL;DR: Написал опенсорс-утилиту, которая слушает ваши сессии с Claude Code, выжимает из них самое ценное и сама раскладывает знания по полочкам в Obsidian.
Знаете это чувство? Вы битый час дебажили с Claude сложную проблему, нашли гениальное решение, закрыли терминал... а через неделю сидите перед пустым экраном с мыслью: «Чёрт, мы же это уже чинили! Какой там был флаг?».
Claude Code - крутой напарник, но у него память золотой рыбки. Сессия закрылась - контекст умер.
Меня это достало. Я хочу, чтобы мой опыт копился, а не испарялся. Так появился claude-note.
⚙️ Как это работает
Это не просто логгер. Это полноценный пайплайн обработки знаний, который работает в фоном режиме.
- Перехват: Вы работаете в терминале как обычно. claude-note через хуки (hooks) молча ловит каждое действие.
- Анализ: Как только сессия завершается (или вы ушли пить кофе на 30 минут), в дело вступает другой инстанс Claude.
- Синтез: Он перечитывает весь ваш диалог и, как внимательный стажёр-секретарь, выписывает: — Чему мы научились (Learnings) — Какие решения приняли и почему (Decisions) — Классные куски кода (Patterns) — Вопросы, которые остались висеть (Open Questions)
🎛 Три режима: от простого к магии
Я сделал три режима, чтобы угодить всем:
🪵 Log: Для параноиков и архивариусов. Просто сохраняет сырой текст сессии. Быстро, дешево, сердито.
📥 Inbox: Классика GTD. AI делает выжимку и кидает её в один файл «Входящие». Вы сами потом разбираете за утренним кофе.
🚀 Route (мой любимый): Полный автопилот. Система понимает контекст инсайта и сама находит, куда его записать.
Обсуждали настройку Nginx? Инсайт полетит в заметку nginx-config.md. Всплыла новая тема про WebSockets? Создастся websockets.md. Это реально похоже на магию.
🧠 Киллер-фича: Семантический поиск
Чтобы «Route» работал идеально, я прикрутил интеграцию с qmd. Это векторный поиск по вашим заметкам.
Благодаря ему Claude понимает смысл, а не просто ищет слова. Если вы обсуждали «токенизацию», он поймет, что это относится к заметке про LLM, даже если слова «LLM» в диалоге не было. Контекст сохраняется железобетонно.
🛠 Как потрогать
Всё опенсорс, всё у вас локально. Никаких сторонних облаков, кроме API самого Claude.
git clone https://github.com/crimeacs/claude-note.git
cd claude-note
./install.shНужен Python 3.11+ и Mac/Linux. Инсталлер сам всё настроит и подскажет, что прописать в конфиг Claude.
Для меня этот проект закрыл огромную дыру в продуктивности. Теперь, когда я сажусь кодить, я знаю, что ни одна умная мысль не потеряется. Мой «второй мозг» в Obsidian наполняется сам собой.
🔗 Забирайте на GitHub: https://github.com/crimeacs/claude-note
Попробуйте поставить и поработать денек. Гарантирую, когда вечером заглянете в свой Obsidian - приятно удивитесь.
💬 Вопрос в зал: А как вы сейчас сохраняете инсайты от AI? Копипастите руками в Notion? Делаете скриншоты? Или надеетесь на свою память? Делитесь болью в комментариях!
Если пост зашел - перешлите коллеге, который вечно всё забывает. 😉
🔥2
Forwarded from B0rn2beR00T | Кибербезопасность
В новой статье разберём атаку LDAP Injection и обойдём аутентификацию web-приложения, используя различные конструкции для изменения запросов в свою пользу.
Облегчённый протокол доступа к каталогам (Lightweight Directory Access Protocol, LDAP) — это протокол, используемый для доступа к серверам каталогов, таким как Active Directory (AD). Веб-приложения могут использовать LDAP для интеграции с AD или другими службами каталогов в целях аутентификации или получения данных. Если пользовательский ввод вставляется в запросы LDAP без надлежащей очистки, могут возникнуть уязвимости, связанные с внедрением кода в LDAP.
LDAP-инъекция — это атака, при которой злоумышленник вводит специальные LDAP-операторы в поля ввода приложения, чтобы изменить логику запроса, обойти аутентификацию, получить несанкционированный доступ к данным или модифицировать каталог.
Не забывайте оценивать моё творчество лайком. Приятного изучения нового материала!
Разбор кейса
#CTF #Web #LDAPInjection
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from Мир трендов
В «🔤 атрице» агентами называли врагов.
Холодных, системных, опасных.
мы сами их создали — и называем помощниками
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯2😁1🤣1
Forwarded from CyberED
Потратил $5 000 на AI-агентов для пентеста. Какие результаты получил?
Всем привет! На связи Сергей Зыбнев. Я 5 лет в ИБ, веду телеграм-канал Похек, работаю тимлидом пентестеров в «Бастион», специализируюсь на веб-пентесте.
🤖 В последнее время я увлёкся AI/ML/LLM R&D и за 1,5 года потратил больше $5 000 из своего кармана на эксперименты с AI-агентами для пентеста.
В карточках рассказал, какие инструменты испытал.
Подробнее про каждый из них, результаты и мои выводы об AI для пентеста — в свежей статье для CyberED.
👉 Читать статью 👈
___
Больше об экспериментах с AI пишу в телеграмм-канале Похек AI – подпишитесь 🙃
Всем привет! На связи Сергей Зыбнев. Я 5 лет в ИБ, веду телеграм-канал Похек, работаю тимлидом пентестеров в «Бастион», специализируюсь на веб-пентесте.
В карточках рассказал, какие инструменты испытал.
Подробнее про каждый из них, результаты и мои выводы об AI для пентеста — в свежей статье для CyberED.
___
Больше об экспериментах с AI пишу в телеграмм-канале Похек AI – подпишитесь 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Innovation & Research
international-ai-safety-report-2026.pdf
6.7 MB
Международный отчет по безопасности ИИ
Под председательством Йошуа Бенджио издан второй отчет о безопасности ИИ. Среди ревьюеров можно найти Рассела, Хинтона и других хорошо известных ученых.
Основные выводы:
- Возможности ИИ общего назначения продолжают улучшаться, особенно в математике, программировании и автономной работе. Ведущие системы ИИ достигли высоких результатов в решении задач Международной математической олимпиады. В программировании агенты ИИ теперь могут надежно выполнять некоторые задачи, на которые у человека-программиста ушло бы около получаса, по сравнению с менее чем 10 минутами год назад. Тем не менее, производительность остается «неравномерной», и ведущие системы по-прежнему не справляются с некоторыми, казалось бы, простыми задачами.
- Улучшения в возможностях ИИ общего назначения все чаще достигаются за счет методов, применяемых после первоначального обучения модели. Эти методы «постобучения» включают в себя уточнение моделей для конкретных задач и предоставление им возможности использовать больше вычислительной мощности при генерации результатов. В то же время использование большей вычислительной мощности для первоначального обучения продолжает также улучшать возможности модели.
- Внедрение ИИ происходило быстро, хотя и крайне неравномерно по регионам. ИИ внедрялся быстрее, чем предыдущие технологии, такие как персональные компьютеры, и по меньшей мере 700 миллионов людей сейчас еженедельно используют ведущие системы ИИ. В некоторых странах более 50% населения использует ИИ, хотя в большей части Африки, Азии и Латинской Америки уровень внедрения, вероятно, остается ниже 10%.
- Развитие научных возможностей ИИ усилило опасения по поводу его неправомерного использования в разработке биологического оружия. Несколько компаний, занимающихся ИИ, решили выпустить новые модели в 2025 году с дополнительными мерами безопасности после того, как предварительные испытания не смогли исключить возможность того, что они могут существенно помочь новичкам в разработке такого оружия.
- Появилось больше свидетельств использования систем ИИ в реальных кибератаках. Анализы безопасности, проведенные компаниями, занимающимися ИИ, указывают на то, что злоумышленники и связанные с государством группы используют инструменты ИИ для содействия в кибероперациях.
- Проведение надежных предварительных испытаний на безопасность стало сложнее. Модели стали чаще различать условия тестирования и реальное развертывание, и использовать лазейки в оценках. Это означает, что опасные возможности могут остаться необнаруженными до развертывания.
- Обязательства отрасли по управлению безопасностью расширились. В 2025 году 12 компаний опубликовали или обновили «Рамочные стандарты безопасности ИИ на передовом уровне» — документы, описывающие, как они планируют управлять рисками по мере создания более совершенных моделей. Большинство инициатив по управлению рисками остаются добровольными, но в некоторых юрисдикциях начинают формализовать некоторые практики в качестве юридических требований.
Под председательством Йошуа Бенджио издан второй отчет о безопасности ИИ. Среди ревьюеров можно найти Рассела, Хинтона и других хорошо известных ученых.
Основные выводы:
- Возможности ИИ общего назначения продолжают улучшаться, особенно в математике, программировании и автономной работе. Ведущие системы ИИ достигли высоких результатов в решении задач Международной математической олимпиады. В программировании агенты ИИ теперь могут надежно выполнять некоторые задачи, на которые у человека-программиста ушло бы около получаса, по сравнению с менее чем 10 минутами год назад. Тем не менее, производительность остается «неравномерной», и ведущие системы по-прежнему не справляются с некоторыми, казалось бы, простыми задачами.
- Улучшения в возможностях ИИ общего назначения все чаще достигаются за счет методов, применяемых после первоначального обучения модели. Эти методы «постобучения» включают в себя уточнение моделей для конкретных задач и предоставление им возможности использовать больше вычислительной мощности при генерации результатов. В то же время использование большей вычислительной мощности для первоначального обучения продолжает также улучшать возможности модели.
- Внедрение ИИ происходило быстро, хотя и крайне неравномерно по регионам. ИИ внедрялся быстрее, чем предыдущие технологии, такие как персональные компьютеры, и по меньшей мере 700 миллионов людей сейчас еженедельно используют ведущие системы ИИ. В некоторых странах более 50% населения использует ИИ, хотя в большей части Африки, Азии и Латинской Америки уровень внедрения, вероятно, остается ниже 10%.
- Развитие научных возможностей ИИ усилило опасения по поводу его неправомерного использования в разработке биологического оружия. Несколько компаний, занимающихся ИИ, решили выпустить новые модели в 2025 году с дополнительными мерами безопасности после того, как предварительные испытания не смогли исключить возможность того, что они могут существенно помочь новичкам в разработке такого оружия.
- Появилось больше свидетельств использования систем ИИ в реальных кибератаках. Анализы безопасности, проведенные компаниями, занимающимися ИИ, указывают на то, что злоумышленники и связанные с государством группы используют инструменты ИИ для содействия в кибероперациях.
- Проведение надежных предварительных испытаний на безопасность стало сложнее. Модели стали чаще различать условия тестирования и реальное развертывание, и использовать лазейки в оценках. Это означает, что опасные возможности могут остаться необнаруженными до развертывания.
- Обязательства отрасли по управлению безопасностью расширились. В 2025 году 12 компаний опубликовали или обновили «Рамочные стандарты безопасности ИИ на передовом уровне» — документы, описывающие, как они планируют управлять рисками по мере создания более совершенных моделей. Большинство инициатив по управлению рисками остаются добровольными, но в некоторых юрисдикциях начинают формализовать некоторые практики в качестве юридических требований.
👾1
Forwarded from IT Guy
ИИ впервые заплатил человеку: американец заработал $100 благодаря сервису Rent a Human https://share.google/sLNC9knGLk34Cm5Qq
ITC.ua
ИИ впервые заплатил человеку: американец заработал $100 благодаря сервису Rent a Human
ИИ впервые задокументировано заплатил человеку за выполнение физического поруче
❤1
Forwarded from Анализ данных (Data analysis)
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.
Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.
Как это возможно?
Вместо загрузки всей модели в память сразу, AirLLM:
- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою
Фактически, это потоковая обработка модели.
Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.
Что это даёт разработчикам:
- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU
Это сдвигает барьер входа для локального LLM-разработки и экспериментов.
AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.
https://github.com/0xSojalSec/airllm
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.
Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.
Как это возможно?
Вместо загрузки всей модели в память сразу, AirLLM:
- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою
Фактически, это потоковая обработка модели.
Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.
Что это даёт разработчикам:
- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU
Это сдвигает барьер входа для локального LLM-разработки и экспериментов.
AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.
https://github.com/0xSojalSec/airllm
🔥1
Forwarded from Machinelearning
В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.
То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.
В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.
Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.
Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.
Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.
Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.
@ai_machinelearning_big_data
#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏1