This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Быстрый совет Linux: Как экономить время! #linux
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Создание вложенной структуры директорий
mkdir -p ~/noscripts/{site-01,site-02}/{backup,monitoring,network}
Быстрая проверка созданных папок
ls -R ~/noscripts
Добавление ещё одной группы директорий
mkdir -p ~/noscripts/{site-03,site-04}/{logs,temp,reports}
@linux_education
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Создание вложенной структуры директорий
mkdir -p ~/noscripts/{site-01,site-02}/{backup,monitoring,network}
Быстрая проверка созданных папок
ls -R ~/noscripts
Добавление ещё одной группы директорий
mkdir -p ~/noscripts/{site-03,site-04}/{logs,temp,reports}
@linux_education
👍5
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@linux_education
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@linux_education
karpathy
Auto-grading decade-old Hacker News discussions with hindsight
A vibe coding thought exercise on what it might look like for LLMs to scour human historical data at scale and in retrospect.
🚨 Stanford показал, что AI уже превосходит профессиональных хакеров в реальном мире. И масштаб этого события многие пока не осознают.
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k
Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
@linux_education
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k
Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
@linux_education
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🐧 Linux: диагностика скрытых тормозов
Полезный DevOps-совет по Linux: когда сервер «тормозит», а top показывает, что всё нормально - проблема почти всегда скрывается в I/O или в отдельных процессах.
Установи пакет sysstat и используй pidstat, iostat и sar - они дают историю нагрузки и точные метрики, которые показывают, что реально жрёт систему.
install sysstat
sudo apt install sysstat
мониторинг CPU по времени
sar -u 1 5
анализ дисковых задержек
iostat -x 1
кто грузит систему: CPU / RAM / IO
pidstat -dru 1
@linux_education
Полезный DevOps-совет по Linux: когда сервер «тормозит», а top показывает, что всё нормально - проблема почти всегда скрывается в I/O или в отдельных процессах.
Установи пакет sysstat и используй pidstat, iostat и sar - они дают историю нагрузки и точные метрики, которые показывают, что реально жрёт систему.
install sysstat
sudo apt install sysstat
мониторинг CPU по времени
sar -u 1 5
анализ дисковых задержек
iostat -x 1
кто грузит систему: CPU / RAM / IO
pidstat -dru 1
@linux_education
👍5❤2
⚡️ IPv6 исполнилось 30 лет
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv4: 8.8.8.8
IPv6: 2001:0db8:85a3:0000:0000:8a2e:0370:7334
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
@linux_education
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv4: 8.8.8.8
IPv6: 2001:0db8:85a3:0000:0000:8a2e:0370:7334
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
@linux_education
🔥8
🎄 Проверка перед 2026-м: вы точно контролируете свою ИТ-инфраструктуру?
📃Команда «Инферит ИТМен» решила сделать новогодний подарок уже сейчас и подготовила короткий чек-лист. Он поможет за пару минут понять, все ли под контролем в вашей ИТ-инфраструктуре или где-то уже есть риски, которые проявятся в новом году.
Внутри — вопросы по ключевым направлениям:
✅ инвентаризация и учет активов;
✅ ПО и безопасность;
✅ лицензии и затраты;
✅ операционная эффективность.
Формат мини-теста: отвечаете «да/нет» и сразу видите свой уровень контроля.
Полезно ИТ-директорам, техлидам, руководителям инфраструктуры и всем, кто отвечает за непрерывность работы ИТ.
👉 Забрать чек-лист (https://itman.ru/blog-posts/besplatnyj-chek-list-dlya-proverki-it-infrastruktury-?utm_source=tg&utm_medium=cheklist&utm_campaign=linuxkalii?erid=2VSb5wT8NCR)
@linux_education
📃Команда «Инферит ИТМен» решила сделать новогодний подарок уже сейчас и подготовила короткий чек-лист. Он поможет за пару минут понять, все ли под контролем в вашей ИТ-инфраструктуре или где-то уже есть риски, которые проявятся в новом году.
Внутри — вопросы по ключевым направлениям:
✅ инвентаризация и учет активов;
✅ ПО и безопасность;
✅ лицензии и затраты;
✅ операционная эффективность.
Формат мини-теста: отвечаете «да/нет» и сразу видите свой уровень контроля.
Полезно ИТ-директорам, техлидам, руководителям инфраструктуры и всем, кто отвечает за непрерывность работы ИТ.
👉 Забрать чек-лист (https://itman.ru/blog-posts/besplatnyj-chek-list-dlya-proverki-it-infrastruktury-?utm_source=tg&utm_medium=cheklist&utm_campaign=linuxkalii?erid=2VSb5wT8NCR)
@linux_education
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Linux совет дня 💡
Создай “пустой” файл на 10GB, который почти не занимает места на диске:
truncate -s 10G sparsefile.img
Команда просто выставляет метаданные размера — файл выглядит как 10 GB, но реальные блоки не записываются.
⚡ Создаётся мгновенно
⚡ Не нагружает систему
⚡ Реальное пространство начнёт выделяться только когда ты запишешь непустые данные внутрь файла
Использовать такие sparse-файлы полезно в ряде задач:
1) Быстрое создание образов дисков
Например, для виртуальных машин, контейнеров, тестов — без траты реального места.
2) Экономия диска
Образ может “выглядеть” как 10–100 GB, но занимает фактически лишь пару мегабайт, пока его не использовали.
3) Тестирование приложений
Можно проверить работу с большими файлами, не расходуя реальное хранилище.
4) Линукс-файловые системы и бэкапы
Многие FS и backup tools поддерживают sparse-файлы и сохраняют их эффективно.
5) Эксперименты с дисковыми квотами, логами, block storage и переносом файлов.
@linux_education
Создай “пустой” файл на 10GB, который почти не занимает места на диске:
truncate -s 10G sparsefile.img
Команда просто выставляет метаданные размера — файл выглядит как 10 GB, но реальные блоки не записываются.
⚡ Создаётся мгновенно
⚡ Не нагружает систему
⚡ Реальное пространство начнёт выделяться только когда ты запишешь непустые данные внутрь файла
Использовать такие sparse-файлы полезно в ряде задач:
1) Быстрое создание образов дисков
Например, для виртуальных машин, контейнеров, тестов — без траты реального места.
2) Экономия диска
Образ может “выглядеть” как 10–100 GB, но занимает фактически лишь пару мегабайт, пока его не использовали.
3) Тестирование приложений
Можно проверить работу с большими файлами, не расходуя реальное хранилище.
4) Линукс-файловые системы и бэкапы
Многие FS и backup tools поддерживают sparse-файлы и сохраняют их эффективно.
5) Эксперименты с дисковыми квотами, логами, block storage и переносом файлов.
@linux_education
👍5
Linux совет дня 💡
В Linux есть малоизвестная, но очень мощная команда fc - она позволяет редактировать команды прямо из history.
Допустим, тебе нужно отредактировать и заново выполнить команды с номерами 230–232:
fc 230 232
Что произойдет:
- команды из истории откроются в editor-е по умолчанию (`$EDITOR`)
- ты можешь изменить их как обычный текст
- после сохранения и выхода команды автоматически выполнятся
Когда это особенно полезно:
- длинная команда с ошибкой
- сложный pipeline, который не хочется набирать заново
- нужно быстро переиспользовать несколько команд подряд
Лайфхак: можно явно указать редактор
fc -e nano 230 232
Маленькая команда, которая реально ускоряет работу в терминале.
@linux_education
В Linux есть малоизвестная, но очень мощная команда fc - она позволяет редактировать команды прямо из history.
Допустим, тебе нужно отредактировать и заново выполнить команды с номерами 230–232:
fc 230 232
Что произойдет:
- команды из истории откроются в editor-е по умолчанию (`$EDITOR`)
- ты можешь изменить их как обычный текст
- после сохранения и выхода команды автоматически выполнятся
Когда это особенно полезно:
- длинная команда с ошибкой
- сложный pipeline, который не хочется набирать заново
- нужно быстро переиспользовать несколько команд подряд
Лайфхак: можно явно указать редактор
fc -e nano 230 232
Маленькая команда, которая реально ускоряет работу в терминале.
@linux_education
👍12🔥2❤1
💀 NeuroSploit v2 - продвинутый AI-фреймворк для тестирования на проникновение (пентеста).
NeuroSploit v2 использует большие языковые модели, чтобы автоматизировать и усилить offensive security.
Фреймворк помогает анализировать цели, находить уязвимости, планировать эксплуатацию и поддерживать защитные меры, сохраняя фокус на этике и операционной безопасности.
Основные возможности:
• Агентная архитектура
Специализированные AI-агенты под разные роли: Red Team, Blue Team, Bug Bounty Hunter, Malware Analyst.
• Гибкая интеграция LLM
Поддержка Gemini, Claude, GPT (OpenAI) и Ollama с настройкой через профили.
• Тонкая настройка моделей
Отдельные LLM-профили для каждой роли: выбор модели, температура, лимиты токенов, кэш и контекст.
• Markdown-промпты
Динамические шаблоны промптов, адаптирующиеся под задачу и контекст.
• Расширяемые инструменты
Интеграция Nmap, Metasploit, Subfinder, Nuclei и других security-инструментов через конфигурацию.
• Структурированные отчёты
JSON-результаты кампаний и удобные HTML-отчёты.
• Интерактивный CLI
Командная строка для прямого управления агентами и сценариями.
NeuroSploit v2 - пример того, как agentic AI превращает пентест из ручной работы в управляемую автоматизацию.
git clone https://github.com/CyberSecurityUP/NeuroSploitv2.git
cd NeuroSploitv2
▪ Github: https://github.com/CyberSecurityUP/NeuroSploit
@ai_machinelearning_big_data
#python #Penetrationtesting #llm #mlops #Cybersecurity
@linux_education
NeuroSploit v2 использует большие языковые модели, чтобы автоматизировать и усилить offensive security.
Фреймворк помогает анализировать цели, находить уязвимости, планировать эксплуатацию и поддерживать защитные меры, сохраняя фокус на этике и операционной безопасности.
Основные возможности:
• Агентная архитектура
Специализированные AI-агенты под разные роли: Red Team, Blue Team, Bug Bounty Hunter, Malware Analyst.
• Гибкая интеграция LLM
Поддержка Gemini, Claude, GPT (OpenAI) и Ollama с настройкой через профили.
• Тонкая настройка моделей
Отдельные LLM-профили для каждой роли: выбор модели, температура, лимиты токенов, кэш и контекст.
• Markdown-промпты
Динамические шаблоны промптов, адаптирующиеся под задачу и контекст.
• Расширяемые инструменты
Интеграция Nmap, Metasploit, Subfinder, Nuclei и других security-инструментов через конфигурацию.
• Структурированные отчёты
JSON-результаты кампаний и удобные HTML-отчёты.
• Интерактивный CLI
Командная строка для прямого управления агентами и сценариями.
NeuroSploit v2 - пример того, как agentic AI превращает пентест из ручной работы в управляемую автоматизацию.
git clone https://github.com/CyberSecurityUP/NeuroSploitv2.git
cd NeuroSploitv2
▪ Github: https://github.com/CyberSecurityUP/NeuroSploit
@ai_machinelearning_big_data
#python #Penetrationtesting #llm #mlops #Cybersecurity
@linux_education
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Linux: Как один забытый процесс может убить сервер за ночь
Одна из самых частых и коварных проблем в Linux - забытый процесс без лимитов.
Это может быть:
- cron задача
- systemd сервис
- Python скрипт
- backup или лог-парсер
Днем он почти незаметен.
А ночью начинает:
- бесконечно писать в лог
- съедать память
- плодить дескрипторы
- держать CPU на 100%
К утру сервер либо:
- перестает отвечать по SSH
- начинает дропать сервисы
Причина почти всегда одна - нет лимитов и мониторинга.
Минимум, что нужно проверять:
- сколько памяти потребляет процесс
- растет ли число файловых дескрипторов
- жив ли он неделями без рестарта
- ограничен ли он через systemd
Найти самые прожорливые процессы
ps aux --sort=-%mem | head
# Проверить количество открытых файлов у процесса
ls /proc/PID/fd | wc -l
# Посмотреть лимиты процесса
cat /proc/PID/limits
# Если systemd - проверить ограничения сервиса
systemctl show your-service.service | grep -E 'LimitNOFILE|MemoryLimit'
@linux_education
Одна из самых частых и коварных проблем в Linux - забытый процесс без лимитов.
Это может быть:
- cron задача
- systemd сервис
- Python скрипт
- backup или лог-парсер
Днем он почти незаметен.
А ночью начинает:
- бесконечно писать в лог
- съедать память
- плодить дескрипторы
- держать CPU на 100%
К утру сервер либо:
- перестает отвечать по SSH
- начинает дропать сервисы
Причина почти всегда одна - нет лимитов и мониторинга.
Минимум, что нужно проверять:
- сколько памяти потребляет процесс
- растет ли число файловых дескрипторов
- жив ли он неделями без рестарта
- ограничен ли он через systemd
Найти самые прожорливые процессы
ps aux --sort=-%mem | head
# Проверить количество открытых файлов у процесса
ls /proc/PID/fd | wc -l
# Посмотреть лимиты процесса
cat /proc/PID/limits
# Если systemd - проверить ограничения сервиса
systemctl show your-service.service | grep -E 'LimitNOFILE|MemoryLimit'
@linux_education
🔥5❤4👍2
⚡ Простой Linux-совет:
Если логи сжаты в .gz, их не нужно распаковывать, чтобы посмотреть содержимое или найти нужную строку.
Используй специальные `z`-команды:
• zcat - просто показать содержимое файла
• zless - читать файл постранично
• zgrep - искать текст внутри .gz
• zegrep - поиск с расширенными регулярными выражениями
• zfgrep - поиск точного текста
• zcmp / zdiff - сравнивать сжатые файлы
Это экономит время и место на диске и отлично подходит для быстрого анализа логов прямо в проде.
@linux_education
Если логи сжаты в .gz, их не нужно распаковывать, чтобы посмотреть содержимое или найти нужную строку.
Используй специальные `z`-команды:
• zcat - просто показать содержимое файла
• zless - читать файл постранично
• zgrep - искать текст внутри .gz
• zegrep - поиск с расширенными регулярными выражениями
• zfgrep - поиск точного текста
• zcmp / zdiff - сравнивать сжатые файлы
Это экономит время и место на диске и отлично подходит для быстрого анализа логов прямо в проде.
@linux_education
❤5👍4🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Танцевали с роботом, прокачивали ГигаЧат и собирали лучших спецов на AI Journey 🤩
Подписчики Sber AI наблюдали этот год на максимальных скоростях — весь 2025-й мы генерировали настоящее и создавали будущее.
В этом видео — наш вайб! А в канале Sber AI:
🤩 инсайды AI-индустрии от разработчиков Сбера
🤩 гайды и лайфхаки по нейросетям
🤩 главные события из мира искусственного интеллекта — AI Journey всё ещё можно посмотреть тут (https://aij.ru/program/2025)
◀️ Запрыгивайте на борт! (https://news.1rj.ru/str/SberAIScience)
@linux_education
Подписчики Sber AI наблюдали этот год на максимальных скоростях — весь 2025-й мы генерировали настоящее и создавали будущее.
В этом видео — наш вайб! А в канале Sber AI:
🤩 инсайды AI-индустрии от разработчиков Сбера
🤩 гайды и лайфхаки по нейросетям
🤩 главные события из мира искусственного интеллекта — AI Journey всё ещё можно посмотреть тут (https://aij.ru/program/2025)
◀️ Запрыгивайте на борт! (https://news.1rj.ru/str/SberAIScience)
@linux_education
⚡️ Shannon - автономный AI-хакер для поиска реальных уязвимостей
Shannon - это полностью автономный AI-агент, который ищет настоящие эксплойты в веб-приложениях, а не просто флаги или теоретические проблемы. Он работает без подсказок, анализирует исходный код и ведёт себя как реальный атакующий.
Главное достижение - 96.15 процента успешных атак на XBOW Benchmark в режиме hint-free и source-aware. Это один из самых сложных бенчмарков для offensive security, где агенту нужно самостоятельно находить цепочки уязвимостей.
Как это работает:
- анализ исходного кода и поведения приложения
- построение гипотез атак
- автоматическая проверка эксплойтов
- подтверждение реального взлома, а не ложных срабатываний
Shannon показывает, куда движется AppSec. Мы переходим от сканеров и правил к автономным AI-агентам, которые думают и атакуют как человек, но делают это быстрее и масштабнее.
Для команд безопасности это означает одно - защищаться скоро придётся не от скриптов, а от полноценных AI-атакеров.
github.com/KeygraphHQ/shannon
@linux_education
Shannon - это полностью автономный AI-агент, который ищет настоящие эксплойты в веб-приложениях, а не просто флаги или теоретические проблемы. Он работает без подсказок, анализирует исходный код и ведёт себя как реальный атакующий.
Главное достижение - 96.15 процента успешных атак на XBOW Benchmark в режиме hint-free и source-aware. Это один из самых сложных бенчмарков для offensive security, где агенту нужно самостоятельно находить цепочки уязвимостей.
Как это работает:
- анализ исходного кода и поведения приложения
- построение гипотез атак
- автоматическая проверка эксплойтов
- подтверждение реального взлома, а не ложных срабатываний
Shannon показывает, куда движется AppSec. Мы переходим от сканеров и правил к автономным AI-агентам, которые думают и атакуют как человек, но делают это быстрее и масштабнее.
Для команд безопасности это означает одно - защищаться скоро придётся не от скриптов, а от полноценных AI-атакеров.
github.com/KeygraphHQ/shannon
@linux_education