🖥 Собираем идеальный Linux-ПК по версии Линуса Торвальдса
В часовом видео Линус Торвальдс вместе с Линусом Себастьяном собрали «идеальную машину» под Linux и обсудили нюансы разработки ядра. Получился редкий взгляд на то, каким железом пользуется создатель Linux.
Выбор комплектующих:
- AMD Ryzen Threadripper 9960X
- Intel Arc B580
- материнская плата GIGABYTE TRX50 AERO D
- SSD Samsung 9100 PRO 2 TB
- кулер Noctua NH-U14S TR5-SP6
- монитор Asus ProArt PA32QCV (31.5", 6K HDR)
Из дистрибутивов Торвальдс по-прежнему отдаёт предпочтение Fedora.
Видео получилось живым и информативным — отличный вариант для просмотра вечером.
https://www.youtube.com/watch?v=mfv0V1SxbNA
@linux_education
В часовом видео Линус Торвальдс вместе с Линусом Себастьяном собрали «идеальную машину» под Linux и обсудили нюансы разработки ядра. Получился редкий взгляд на то, каким железом пользуется создатель Linux.
Выбор комплектующих:
- AMD Ryzen Threadripper 9960X
- Intel Arc B580
- материнская плата GIGABYTE TRX50 AERO D
- SSD Samsung 9100 PRO 2 TB
- кулер Noctua NH-U14S TR5-SP6
- монитор Asus ProArt PA32QCV (31.5", 6K HDR)
Из дистрибутивов Торвальдс по-прежнему отдаёт предпочтение Fedora.
Видео получилось живым и информативным — отличный вариант для просмотра вечером.
https://www.youtube.com/watch?v=mfv0V1SxbNA
@linux_education
👍4❤1
🔥 Вся историю Unix - от первых 2.5 тысяч строк на PDP-7 до 30 миллионов строк современного FreeBSD.
По сути, это Git-машина времени, восстановленная вручную из 24 исторических снапшотов.
Что внутри:
- Полвека разработки сведены в непрерывную линию: 1970 → 2018, без пропавших релизов и дыр в истории.
- Почти 500 000 коммитов, более 2000 мерджей и около 1000 авторов — самых первых нашли через архивные документы и письма.
- Полная эволюция Unix: PDP-7, версии V1–V7, Unix/32V, все ветки BSD, SCCS-история, 386BSD, вся линейка FreeBSD от 1.0 до текущего дерева.
- Восстановление сделано с максимальной точностью — код собрали по крупицам из разных систем.
- Репозиторий только для чтения: он не принимает пуши, а регулярно пересобирается с нуля, чтобы история оставалась чистой и неизменной.
Это, пожалуй, самый аккуратный и полный архив развития Unix, который можно открыть прямо в GitHub:
https://github.com/dspinellis/unix-history-repo
@linux_education
По сути, это Git-машина времени, восстановленная вручную из 24 исторических снапшотов.
Что внутри:
- Полвека разработки сведены в непрерывную линию: 1970 → 2018, без пропавших релизов и дыр в истории.
- Почти 500 000 коммитов, более 2000 мерджей и около 1000 авторов — самых первых нашли через архивные документы и письма.
- Полная эволюция Unix: PDP-7, версии V1–V7, Unix/32V, все ветки BSD, SCCS-история, 386BSD, вся линейка FreeBSD от 1.0 до текущего дерева.
- Восстановление сделано с максимальной точностью — код собрали по крупицам из разных систем.
- Репозиторий только для чтения: он не принимает пуши, а регулярно пересобирается с нуля, чтобы история оставалась чистой и неизменной.
Это, пожалуй, самый аккуратный и полный архив развития Unix, который можно открыть прямо в GitHub:
https://github.com/dspinellis/unix-history-repo
@linux_education
❤4
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Полезный совет по Linux
Команда rm сама по себе достаточно рискованна, а с подстановкой * становится ещё опаснее.
В некоторых случаях можно заранее посмотреть, во что именно превратится команда после расширения shell’ом.
Пример:
echo rm -rf /*
Вместо выполнения удаления команда выведет на экран итоговую строку после расширения. Такой «сухой прогон» помогает убедиться, что вы не удалите лишнее.
@linux_education
Команда rm сама по себе достаточно рискованна, а с подстановкой * становится ещё опаснее.
В некоторых случаях можно заранее посмотреть, во что именно превратится команда после расширения shell’ом.
Пример:
echo rm -rf /*
Вместо выполнения удаления команда выведет на экран итоговую строку после расширения. Такой «сухой прогон» помогает убедиться, что вы не удалите лишнее.
@linux_education
👍4🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 LINUX: ХВАТИТ ТРАТИТЬ ВРЕМЯ НА ПОИСК ФАЙЛОВ #linux #unix #ubuntu
Совет: в Linux можно быстро найти все исполняемые файлы в каталоге.
Вместо ручного поиска просто используй find с флагом executable.
Команда учитывает реальные права доступа и покажет только те файлы, которые ты действительно можешь запускать.
найти исполняемые файлы в текущем каталоге
find . -type f -executable
поиск в другом пути
find /usr/local/bin -type f -executable
комбинированный фильтр: исполняемые и принадлежащие пользователю
find /opt -type f -executable -user $USER
@linux_education
Совет: в Linux можно быстро найти все исполняемые файлы в каталоге.
Вместо ручного поиска просто используй find с флагом executable.
Команда учитывает реальные права доступа и покажет только те файлы, которые ты действительно можешь запускать.
найти исполняемые файлы в текущем каталоге
find . -type f -executable
поиск в другом пути
find /usr/local/bin -type f -executable
комбинированный фильтр: исполняемые и принадлежащие пользователю
find /opt -type f -executable -user $USER
@linux_education
❤4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Быстрый совет Linux: Как экономить время! #linux
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Создание вложенной структуры директорий
mkdir -p ~/noscripts/{site-01,site-02}/{backup,monitoring,network}
Быстрая проверка созданных папок
ls -R ~/noscripts
Добавление ещё одной группы директорий
mkdir -p ~/noscripts/{site-03,site-04}/{logs,temp,reports}
@linux_education
Когда нужно создать много директорий разом, не трать время на десятки команд.
Используй brace expansion в mkdir - он создаёт целые структуры папок за один вызов.
Создание вложенной структуры директорий
mkdir -p ~/noscripts/{site-01,site-02}/{backup,monitoring,network}
Быстрая проверка созданных папок
ls -R ~/noscripts
Добавление ещё одной группы директорий
mkdir -p ~/noscripts/{site-03,site-04}/{logs,temp,reports}
@linux_education
👍5
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@linux_education
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@linux_education
karpathy
Auto-grading decade-old Hacker News discussions with hindsight
A vibe coding thought exercise on what it might look like for LLMs to scour human historical data at scale and in retrospect.
🚨 Stanford показал, что AI уже превосходит профессиональных хакеров в реальном мире. И масштаб этого события многие пока не осознают.
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k
Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
@linux_education
Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.
Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи
В ту же среду они запустили автономного AI-агента под названием ARTEMIS.
Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.
И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк
Это была реальная enterprise-сеть с реальными последствиями.
Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час
Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.
Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k
Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.
Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний
Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.
Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.
Это момент, когда offensive security начинает меняться необратимо.
📄 Статья: https://arxiv.org/abs/2512.09882
@linux_education
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🐧 Linux: диагностика скрытых тормозов
Полезный DevOps-совет по Linux: когда сервер «тормозит», а top показывает, что всё нормально - проблема почти всегда скрывается в I/O или в отдельных процессах.
Установи пакет sysstat и используй pidstat, iostat и sar - они дают историю нагрузки и точные метрики, которые показывают, что реально жрёт систему.
install sysstat
sudo apt install sysstat
мониторинг CPU по времени
sar -u 1 5
анализ дисковых задержек
iostat -x 1
кто грузит систему: CPU / RAM / IO
pidstat -dru 1
@linux_education
Полезный DevOps-совет по Linux: когда сервер «тормозит», а top показывает, что всё нормально - проблема почти всегда скрывается в I/O или в отдельных процессах.
Установи пакет sysstat и используй pidstat, iostat и sar - они дают историю нагрузки и точные метрики, которые показывают, что реально жрёт систему.
install sysstat
sudo apt install sysstat
мониторинг CPU по времени
sar -u 1 5
анализ дисковых задержек
iostat -x 1
кто грузит систему: CPU / RAM / IO
pidstat -dru 1
@linux_education
👍5❤2
⚡️ IPv6 исполнилось 30 лет
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv4: 8.8.8.8
IPv6: 2001:0db8:85a3:0000:0000:8a2e:0370:7334
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
@linux_education
Ещё 25 лет назад все были уверены, что IPv4 вот-вот устареет, и переход на IPv6 станет обязательным.
IPv6 - это способ давать адреса устройствам в интернете.
Зачем он нужен:
Интернету нужны уникальные адреса для компьютеров, телефонов, серверов.
Старых адресов (IPv4) мало- их всего около 4 миллиардов.
IPv6 даёт почти бесконечное количество адресов.
Пример:
IPv4: 8.8.8.8
IPv6: 2001:0db8:85a3:0000:0000:8a2e:0370:7334
IPv6 придумали давно и говорили, что переход будет «вот-вот», но из-за NAT и костылей IPv4 до сих пор жив.
IPv6 адресов почти бесконечно много, но внедряется он очень медленно.
@linux_education
🔥8
This media is not supported in your browser
VIEW IN TELEGRAM
Linux совет дня 💡
Создай “пустой” файл на 10GB, который почти не занимает места на диске:
truncate -s 10G sparsefile.img
Команда просто выставляет метаданные размера — файл выглядит как 10 GB, но реальные блоки не записываются.
⚡ Создаётся мгновенно
⚡ Не нагружает систему
⚡ Реальное пространство начнёт выделяться только когда ты запишешь непустые данные внутрь файла
Использовать такие sparse-файлы полезно в ряде задач:
1) Быстрое создание образов дисков
Например, для виртуальных машин, контейнеров, тестов — без траты реального места.
2) Экономия диска
Образ может “выглядеть” как 10–100 GB, но занимает фактически лишь пару мегабайт, пока его не использовали.
3) Тестирование приложений
Можно проверить работу с большими файлами, не расходуя реальное хранилище.
4) Линукс-файловые системы и бэкапы
Многие FS и backup tools поддерживают sparse-файлы и сохраняют их эффективно.
5) Эксперименты с дисковыми квотами, логами, block storage и переносом файлов.
@linux_education
Создай “пустой” файл на 10GB, который почти не занимает места на диске:
truncate -s 10G sparsefile.img
Команда просто выставляет метаданные размера — файл выглядит как 10 GB, но реальные блоки не записываются.
⚡ Создаётся мгновенно
⚡ Не нагружает систему
⚡ Реальное пространство начнёт выделяться только когда ты запишешь непустые данные внутрь файла
Использовать такие sparse-файлы полезно в ряде задач:
1) Быстрое создание образов дисков
Например, для виртуальных машин, контейнеров, тестов — без траты реального места.
2) Экономия диска
Образ может “выглядеть” как 10–100 GB, но занимает фактически лишь пару мегабайт, пока его не использовали.
3) Тестирование приложений
Можно проверить работу с большими файлами, не расходуя реальное хранилище.
4) Линукс-файловые системы и бэкапы
Многие FS и backup tools поддерживают sparse-файлы и сохраняют их эффективно.
5) Эксперименты с дисковыми квотами, логами, block storage и переносом файлов.
@linux_education
👍5
Linux совет дня 💡
В Linux есть малоизвестная, но очень мощная команда fc - она позволяет редактировать команды прямо из history.
Допустим, тебе нужно отредактировать и заново выполнить команды с номерами 230–232:
fc 230 232
Что произойдет:
- команды из истории откроются в editor-е по умолчанию (`$EDITOR`)
- ты можешь изменить их как обычный текст
- после сохранения и выхода команды автоматически выполнятся
Когда это особенно полезно:
- длинная команда с ошибкой
- сложный pipeline, который не хочется набирать заново
- нужно быстро переиспользовать несколько команд подряд
Лайфхак: можно явно указать редактор
fc -e nano 230 232
Маленькая команда, которая реально ускоряет работу в терминале.
@linux_education
В Linux есть малоизвестная, но очень мощная команда fc - она позволяет редактировать команды прямо из history.
Допустим, тебе нужно отредактировать и заново выполнить команды с номерами 230–232:
fc 230 232
Что произойдет:
- команды из истории откроются в editor-е по умолчанию (`$EDITOR`)
- ты можешь изменить их как обычный текст
- после сохранения и выхода команды автоматически выполнятся
Когда это особенно полезно:
- длинная команда с ошибкой
- сложный pipeline, который не хочется набирать заново
- нужно быстро переиспользовать несколько команд подряд
Лайфхак: можно явно указать редактор
fc -e nano 230 232
Маленькая команда, которая реально ускоряет работу в терминале.
@linux_education
👍12🔥2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Linux: Как один забытый процесс может убить сервер за ночь
Одна из самых частых и коварных проблем в Linux - забытый процесс без лимитов.
Это может быть:
- cron задача
- systemd сервис
- Python скрипт
- backup или лог-парсер
Днем он почти незаметен.
А ночью начинает:
- бесконечно писать в лог
- съедать память
- плодить дескрипторы
- держать CPU на 100%
К утру сервер либо:
- перестает отвечать по SSH
- начинает дропать сервисы
Причина почти всегда одна - нет лимитов и мониторинга.
Минимум, что нужно проверять:
- сколько памяти потребляет процесс
- растет ли число файловых дескрипторов
- жив ли он неделями без рестарта
- ограничен ли он через systemd
Найти самые прожорливые процессы
ps aux --sort=-%mem | head
# Проверить количество открытых файлов у процесса
ls /proc/PID/fd | wc -l
# Посмотреть лимиты процесса
cat /proc/PID/limits
# Если systemd - проверить ограничения сервиса
systemctl show your-service.service | grep -E 'LimitNOFILE|MemoryLimit'
@linux_education
Одна из самых частых и коварных проблем в Linux - забытый процесс без лимитов.
Это может быть:
- cron задача
- systemd сервис
- Python скрипт
- backup или лог-парсер
Днем он почти незаметен.
А ночью начинает:
- бесконечно писать в лог
- съедать память
- плодить дескрипторы
- держать CPU на 100%
К утру сервер либо:
- перестает отвечать по SSH
- начинает дропать сервисы
Причина почти всегда одна - нет лимитов и мониторинга.
Минимум, что нужно проверять:
- сколько памяти потребляет процесс
- растет ли число файловых дескрипторов
- жив ли он неделями без рестарта
- ограничен ли он через systemd
Найти самые прожорливые процессы
ps aux --sort=-%mem | head
# Проверить количество открытых файлов у процесса
ls /proc/PID/fd | wc -l
# Посмотреть лимиты процесса
cat /proc/PID/limits
# Если systemd - проверить ограничения сервиса
systemctl show your-service.service | grep -E 'LimitNOFILE|MemoryLimit'
@linux_education
🔥5❤4👍2
⚡ Простой Linux-совет:
Если логи сжаты в .gz, их не нужно распаковывать, чтобы посмотреть содержимое или найти нужную строку.
Используй специальные `z`-команды:
• zcat - просто показать содержимое файла
• zless - читать файл постранично
• zgrep - искать текст внутри .gz
• zegrep - поиск с расширенными регулярными выражениями
• zfgrep - поиск точного текста
• zcmp / zdiff - сравнивать сжатые файлы
Это экономит время и место на диске и отлично подходит для быстрого анализа логов прямо в проде.
@linux_education
Если логи сжаты в .gz, их не нужно распаковывать, чтобы посмотреть содержимое или найти нужную строку.
Используй специальные `z`-команды:
• zcat - просто показать содержимое файла
• zless - читать файл постранично
• zgrep - искать текст внутри .gz
• zegrep - поиск с расширенными регулярными выражениями
• zfgrep - поиск точного текста
• zcmp / zdiff - сравнивать сжатые файлы
Это экономит время и место на диске и отлично подходит для быстрого анализа логов прямо в проде.
@linux_education
❤6👍4🔥1🤩1
⚡️ Shannon - автономный AI-хакер для поиска реальных уязвимостей
Shannon - это полностью автономный AI-агент, который ищет настоящие эксплойты в веб-приложениях, а не просто флаги или теоретические проблемы. Он работает без подсказок, анализирует исходный код и ведёт себя как реальный атакующий.
Главное достижение - 96.15 процента успешных атак на XBOW Benchmark в режиме hint-free и source-aware. Это один из самых сложных бенчмарков для offensive security, где агенту нужно самостоятельно находить цепочки уязвимостей.
Как это работает:
- анализ исходного кода и поведения приложения
- построение гипотез атак
- автоматическая проверка эксплойтов
- подтверждение реального взлома, а не ложных срабатываний
Shannon показывает, куда движется AppSec. Мы переходим от сканеров и правил к автономным AI-агентам, которые думают и атакуют как человек, но делают это быстрее и масштабнее.
Для команд безопасности это означает одно - защищаться скоро придётся не от скриптов, а от полноценных AI-атакеров.
github.com/KeygraphHQ/shannon
@linux_education
Shannon - это полностью автономный AI-агент, который ищет настоящие эксплойты в веб-приложениях, а не просто флаги или теоретические проблемы. Он работает без подсказок, анализирует исходный код и ведёт себя как реальный атакующий.
Главное достижение - 96.15 процента успешных атак на XBOW Benchmark в режиме hint-free и source-aware. Это один из самых сложных бенчмарков для offensive security, где агенту нужно самостоятельно находить цепочки уязвимостей.
Как это работает:
- анализ исходного кода и поведения приложения
- построение гипотез атак
- автоматическая проверка эксплойтов
- подтверждение реального взлома, а не ложных срабатываний
Shannon показывает, куда движется AppSec. Мы переходим от сканеров и правил к автономным AI-агентам, которые думают и атакуют как человек, но делают это быстрее и масштабнее.
Для команд безопасности это означает одно - защищаться скоро придётся не от скриптов, а от полноценных AI-атакеров.
github.com/KeygraphHQ/shannon
@linux_education
🖥 python-injection - практический сборник уязвимостей в Python
python-injection - это репозиторий с наглядными примерами инъекций и небезопасных паттернов в Python-коде, которые регулярно встречаются в реальных проектах.
Проект показывает, как «обычный» Python-код превращается в уязвимость, если не понимать, как именно работают интерпретатор, библиотеки и внешние вызовы.
Что внутри:
- Command Injection через os.system, subprocess, shell=True
- SQL Injection при неправильной работе с запросами
- Code Injection через eval, exec, pickle
- Path Traversal и небезопасная работа с файлами
- Template Injection
- Примеры небезопасной десериализации
- Реальные анти-паттерны из production-кода
Главная ценность репозитория — код, а не теория:
- есть уязвимый пример
- есть объяснение, почему он опасен
- понятно, как именно происходит атака
Подходит для:
- Python-разработчиков
- backend-инженеров
- security-энтузиастов
- code review и обучения безопасному программированию
Если ты пишешь Python и думаешь, что «у нас же не веб» - этот репозиторий стоит открыть.
pip install python-injection
https://github.com/100nm/python-injection
@linux_education
python-injection - это репозиторий с наглядными примерами инъекций и небезопасных паттернов в Python-коде, которые регулярно встречаются в реальных проектах.
Проект показывает, как «обычный» Python-код превращается в уязвимость, если не понимать, как именно работают интерпретатор, библиотеки и внешние вызовы.
Что внутри:
- Command Injection через os.system, subprocess, shell=True
- SQL Injection при неправильной работе с запросами
- Code Injection через eval, exec, pickle
- Path Traversal и небезопасная работа с файлами
- Template Injection
- Примеры небезопасной десериализации
- Реальные анти-паттерны из production-кода
Главная ценность репозитория — код, а не теория:
- есть уязвимый пример
- есть объяснение, почему он опасен
- понятно, как именно происходит атака
Подходит для:
- Python-разработчиков
- backend-инженеров
- security-энтузиастов
- code review и обучения безопасному программированию
Если ты пишешь Python и думаешь, что «у нас же не веб» - этот репозиторий стоит открыть.
pip install python-injection
https://github.com/100nm/python-injection
@linux_education
Linux совет 💡
Если нужно удалить пустые директории, find делает это быстро и аккуратно.
Способ через rmdir:
$ find . -type d -empty -exec rmdir -v {} +
Что здесь происходит:
- -type d — ищем только директории
- -empty — выбираем пустые
- -exec rmdir — удаляем через rmdir
- rmdir гарантирует, что директория действительно пустая
Альтернативный и более короткий вариант:
$ find . -type d -empty -delete
Этот способ делает то же самое, но без вызова внешней команды.
Полезно для:
- очистки build-артефактов
- приведения проекта в порядок
- автоматизации cleanup-скриптов
@linux_education
Если нужно удалить пустые директории, find делает это быстро и аккуратно.
Способ через rmdir:
$ find . -type d -empty -exec rmdir -v {} +
Что здесь происходит:
- -type d — ищем только директории
- -empty — выбираем пустые
- -exec rmdir — удаляем через rmdir
- rmdir гарантирует, что директория действительно пустая
Альтернативный и более короткий вариант:
$ find . -type d -empty -delete
Этот способ делает то же самое, но без вызова внешней команды.
Полезно для:
- очистки build-артефактов
- приведения проекта в порядок
- автоматизации cleanup-скриптов
@linux_education
🔥4