Constrict
Хочешь скинуть другу видос или залить вложение где-нибудь, а платформа выдает “файл слишком большой”. Приходится искать софт, ковырять настройки и сжимать вручную.
На GitHub как раз попался Constrict — маленький опенсорс-инструмент, заточенный под одну конкретную задачу: ужать видео до нужного размера.
Не нужно возиться с кучей параметров. Просто задаешь целевой размер, а дальше он сам рассчитывает и подбирает битрейт, разрешение и FPS, чтобы ужать ролик максимально точно.
Поддерживаются популярные кодеки вроде H.264, HEVC и AV1. Вся обработка делается локально, без загрузки в облако, так что и приватность сохраняется, и ждать ничего не нужно.
Есть готовые инсталляторы, интерфейс простой и понятный. Если тебе часто нужно ужимать видео под конкретный размер и неохота каждый раз вручную крутить параметры — инструмент прям годный для закладок.
📁 Language: #Python 94.2%
⭐️ Stars: 507
➡️ Cсылка на GitHub
📱 @git_developer
Хочешь скинуть другу видос или залить вложение где-нибудь, а платформа выдает “файл слишком большой”. Приходится искать софт, ковырять настройки и сжимать вручную.
На GitHub как раз попался Constrict — маленький опенсорс-инструмент, заточенный под одну конкретную задачу: ужать видео до нужного размера.
Не нужно возиться с кучей параметров. Просто задаешь целевой размер, а дальше он сам рассчитывает и подбирает битрейт, разрешение и FPS, чтобы ужать ролик максимально точно.
Поддерживаются популярные кодеки вроде H.264, HEVC и AV1. Вся обработка делается локально, без загрузки в облако, так что и приватность сохраняется, и ждать ничего не нужно.
Есть готовые инсталляторы, интерфейс простой и понятный. Если тебе часто нужно ужимать видео под конкретный размер и неохота каждый раз вручную крутить параметры — инструмент прям годный для закладок.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🏆2
Lonkero
При пентесте самая боль обычно не в том чтобы найти уязвимость, а в том что сканер насыпает тонну ложных срабатываний и потом полдня сидишь руками проверяешь. В итоге реальные дырки тонут в шуме.
Попался тут Lonkero — опенсорсный сканер безопасности с байесовым движком и умным фильтром. Ложных срабатываний около 5%, что в разы ниже среднего по рынку.
Собран на Rust. Внутри больше 125 профильных сканеров: инъекции, аутентификация, API security, современные фреймворки и прочие штуки. Определяет стек и сам подстраивает стратегию тестирования.
Плюс там встроенная ML-начинка: после каждого прогона учится на ответах и со временем становится точнее. Есть даже федеративный режим — можно делиться весами моделей (без сырых данных) и подтягивать точность всей экосистеме.
Если ищешь пентестовский сканер с низким шумом, нормальным покрытием и поддержкой актуальных стеков, или устал от обычных сканеров с тоннами ложных тревог — Lonkero выглядит вполне стоящим вариантом.
📁 Language: #Rust 100.0%
⭐️ Stars: 719
➡️ Cсылка на GitHub
📱 @git_developer
При пентесте самая боль обычно не в том чтобы найти уязвимость, а в том что сканер насыпает тонну ложных срабатываний и потом полдня сидишь руками проверяешь. В итоге реальные дырки тонут в шуме.
Попался тут Lonkero — опенсорсный сканер безопасности с байесовым движком и умным фильтром. Ложных срабатываний около 5%, что в разы ниже среднего по рынку.
Собран на Rust. Внутри больше 125 профильных сканеров: инъекции, аутентификация, API security, современные фреймворки и прочие штуки. Определяет стек и сам подстраивает стратегию тестирования.
Плюс там встроенная ML-начинка: после каждого прогона учится на ответах и со временем становится точнее. Есть даже федеративный режим — можно делиться весами моделей (без сырых данных) и подтягивать точность всей экосистеме.
Если ищешь пентестовский сканер с низким шумом, нормальным покрытием и поддержкой актуальных стеков, или устал от обычных сканеров с тоннами ложных тревог — Lonkero выглядит вполне стоящим вариантом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2
pad.ws
Когда в разработке хочется и рисовать схемы, и писать код, обычно начинаешь прыгать между белой доской и IDE или открывать всё в разных окнах. Место быстро заканчивается, а фокус теряется.
Наткнулся на GitHub на проект pad.ws — довольно креативная штука, которая склеивает белую доску и дев-среду прямо в браузере.
Там Excalidraw отвечает за интерактивный вайборд, а внутри ещё лежит полноценный IDE: можно открыть терминал и VS Code прямо на доске и мгновенно переключаться между визуализацией и кодингом.
Заход работает с любого устройства. Плюс есть десктопный коннект через VS Code и Cursor чтобы подключаться к виртуалке.
Есть готовый хостинг для быстрого прогона, а также Docker для самохоста. Проект пока на ранней стадии, поэтому локальный деплой скорее для тестов, но идея сама по себе очень живая.
📁 Language: #TypeScript 57.7%
⭐️ Stars: 3.9k
➡️ Cсылка на GitHub
📱 @git_developer
Когда в разработке хочется и рисовать схемы, и писать код, обычно начинаешь прыгать между белой доской и IDE или открывать всё в разных окнах. Место быстро заканчивается, а фокус теряется.
Наткнулся на GitHub на проект pad.ws — довольно креативная штука, которая склеивает белую доску и дев-среду прямо в браузере.
Там Excalidraw отвечает за интерактивный вайборд, а внутри ещё лежит полноценный IDE: можно открыть терминал и VS Code прямо на доске и мгновенно переключаться между визуализацией и кодингом.
Заход работает с любого устройства. Плюс есть десктопный коннект через VS Code и Cursor чтобы подключаться к виртуалке.
Есть готовый хостинг для быстрого прогона, а также Docker для самохоста. Проект пока на ранней стадии, поэтому локальный деплой скорее для тестов, но идея сама по себе очень живая.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1👍1
На Stepik вышел курс по: автоматизации рабочих процессов с помощью n8n
Этот курс знакомит разработчиков с n8n как инструментом для автоматизации и интеграций.
Чему вы научитесь:
✅ Базовое понимание автоматизаций и воркфлоу с обработкой событий в реальном времени на триггерах и вебхуках.
✅ Уверенные навыки сборки динамической и условной логики через n8n expressions и ноды ветвления.
✅ Рабочее владение Code node для написания кастомного JavaScript под специфичные сценарии и сложные трансформации данных.
✅ Умение строить, дебажить и делать устойчивые к сбоям автоматизации, которые подключаются к любым API и внешним сервисам.
✅ Практический опыт интеграции AI-агентов и LLM, а также построения баз знаний через RAG и векторные хранилища.
✅ Навыки создания переиспользуемых воркфлоу и подключения внешних AI-инструментов через MCP
✅ Четкое понимание стратегий деплоя и лучшие практики для запуска n8n в продакшен-окружении.
В конце тебя ждет сертификат, который можно добавить в резюме или LinkedIn
Скидка 25%, действует 48 часов
🔗 Пройти курс на Stepik
Этот курс знакомит разработчиков с n8n как инструментом для автоматизации и интеграций.
Чему вы научитесь:
В конце тебя ждет сертификат, который можно добавить в резюме или LinkedIn
Скидка 25%, действует 48 часов
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3💊1
Time Tracker for Browser
Если хочется понять, сколько времени ты реально тратишь на разные сайты каждый день, встроенная история браузера тут вообще не помогает: там видно только количество заходов, а куда ушло время, непонятно.
На GitHub как раз нашелся Time Tracker for Browser, опенсорсное расширение, которое автоматически считает, сколько ты сидишь на каждом домене, и рисует наглядные отчеты.
Поддерживает Chrome, Edge и Firefox. Поставил и забыл: оно в фоне собирает статистику, а через попап можно быстро посмотреть распределение времени по сайтам за день.
Помимо базового трекинга времени, есть отчеты по анализу данных и “привычкам”, чтобы видеть тренды и как меняется поведение в интернете. Плюс есть блокировки: можно задать правила и ограничить время на конкретных сайтах.
Все данные хранятся локально и никуда не отправляются, так что с приватностью все ок. Если хочешь разобрать свои интернет-привычки или начать жестче контролить время на “залипалках”, расширение точно стоит попробовать.
📁 Language: #TypeScript 97.6%
⭐️ Stars: 746
➡️ Cсылка на GitHub
📱 @git_developer
Если хочется понять, сколько времени ты реально тратишь на разные сайты каждый день, встроенная история браузера тут вообще не помогает: там видно только количество заходов, а куда ушло время, непонятно.
На GitHub как раз нашелся Time Tracker for Browser, опенсорсное расширение, которое автоматически считает, сколько ты сидишь на каждом домене, и рисует наглядные отчеты.
Поддерживает Chrome, Edge и Firefox. Поставил и забыл: оно в фоне собирает статистику, а через попап можно быстро посмотреть распределение времени по сайтам за день.
Помимо базового трекинга времени, есть отчеты по анализу данных и “привычкам”, чтобы видеть тренды и как меняется поведение в интернете. Плюс есть блокировки: можно задать правила и ограничить время на конкретных сайтах.
Все данные хранятся локально и никуда не отправляются, так что с приватностью все ок. Если хочешь разобрать свои интернет-привычки или начать жестче контролить время на “залипалках”, расширение точно стоит попробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
TaxHacker
Каждый раз, когда надо разгрести чеки и инвойсы для налогов, обычно все превращается в ручной ад: по одной бумажке вбивать в таблицу продавца, сумму, дату, налоги и прочие поля. Долго и легко накосячить.
На GitHub недавно нашелся TaxHacker, опенсорсный учетный инструмент под фрилансеров и малый бизнес. Фишка в том, что он с помощью AI автоматически распознает и вытаскивает данные из инвойсов.
Сфоткал чек или загрузил PDF и AI сам вытащит ключевое: названия позиций, суммы, дату, продавца, налоговые поля и т.д. Дальше это сохраняется сразу в структурированную базу, плюс можно добавить кастомные поля, чтобы вытягивать то, что нужно именно тебе.
Есть поддержка 170+ фиатных валют и 14 криптовалют, а также автоматический пересчет по курсу на дату операции. Можно фильтровать записи по дате, категориям, проектам, сумме и другим признакам, и выгружать полный журнал транзакций в CSV.
Отдельно полезно, что можно настраивать промпты для AI, включая системные шаблоны: заставить модель вытаскивать дополнительные атрибуты под твой кейс, например email, адрес, код проекта и т.п.
Для деплоя есть Docker-образ и Docker Compose, можно быстро поднять на своем сервере и держать данные под полным контролем. Также поддерживается подключение к уже существующему PostgreSQL.
📁 Language: #TypeScript 99.7%
⭐️ Stars: 1k
➡️ Cсылка на GitHub
📱 @git_developer
Каждый раз, когда надо разгрести чеки и инвойсы для налогов, обычно все превращается в ручной ад: по одной бумажке вбивать в таблицу продавца, сумму, дату, налоги и прочие поля. Долго и легко накосячить.
На GitHub недавно нашелся TaxHacker, опенсорсный учетный инструмент под фрилансеров и малый бизнес. Фишка в том, что он с помощью AI автоматически распознает и вытаскивает данные из инвойсов.
Сфоткал чек или загрузил PDF и AI сам вытащит ключевое: названия позиций, суммы, дату, продавца, налоговые поля и т.д. Дальше это сохраняется сразу в структурированную базу, плюс можно добавить кастомные поля, чтобы вытягивать то, что нужно именно тебе.
Есть поддержка 170+ фиатных валют и 14 криптовалют, а также автоматический пересчет по курсу на дату операции. Можно фильтровать записи по дате, категориям, проектам, сумме и другим признакам, и выгружать полный журнал транзакций в CSV.
Отдельно полезно, что можно настраивать промпты для AI, включая системные шаблоны: заставить модель вытаскивать дополнительные атрибуты под твой кейс, например email, адрес, код проекта и т.п.
Для деплоя есть Docker-образ и Docker Compose, можно быстро поднять на своем сервере и держать данные под полным контролем. Также поддерживается подключение к уже существующему PostgreSQL.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
paperetl
Когда занимаешься исследованием или анализом данных и у тебя сотни или тысячи PDF-статей, каждый раз вручную вытаскивать и раскладывать информацию это ад.
Недавно, пока копался в тулзах для обработки данных, наткнулся на paperetl. Это опенсорсная библиотека для пакетной обработки и парсинга научных публикаций, которая приводит разный входной формат к структурированным данным.
Поддерживает массовый парсинг и преобразование источников в разных форматах: полный текст PDF, PubMed XML, ArXiv XML и другие.
Может складывать неструктурированные статьи прямо в SQLite, выгружать в JSON, а также подключаться к Elasticsearch для полнотекстового поиска.
По сути, одной командой можно прогнать целую папку с файлами и превратить её в БД или набор структурированных файлов, чтобы потом нормально искать, фильтровать и анализировать.
Если ты делаешь литобзор, систематический обзор или хочешь собрать свою базу статей, инструмент точно стоит попробовать.
📁 Language: #Python 96.2%
⭐️ Stars: 490
➡️ Cсылка на GitHub
📱 @git_developer
Когда занимаешься исследованием или анализом данных и у тебя сотни или тысячи PDF-статей, каждый раз вручную вытаскивать и раскладывать информацию это ад.
Недавно, пока копался в тулзах для обработки данных, наткнулся на paperetl. Это опенсорсная библиотека для пакетной обработки и парсинга научных публикаций, которая приводит разный входной формат к структурированным данным.
Поддерживает массовый парсинг и преобразование источников в разных форматах: полный текст PDF, PubMed XML, ArXiv XML и другие.
Может складывать неструктурированные статьи прямо в SQLite, выгружать в JSON, а также подключаться к Elasticsearch для полнотекстового поиска.
По сути, одной командой можно прогнать целую папку с файлами и превратить её в БД или набор структурированных файлов, чтобы потом нормально искать, фильтровать и анализировать.
Если ты делаешь литобзор, систематический обзор или хочешь собрать свою базу статей, инструмент точно стоит попробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1
NoLanguageLeftWaiting
Если хочется делать стриминговый перевод для трансляций или прям настоящий синхрон, быстро упираешься в тупняк классических офлайн-моделей: они часто ждут, пока человек договорит фразу целиком, и из-за этого появляется заметная задержка.
На GitHub нашелся опенсорсный проект NoLanguageLeftWaiting. Ребята взяли офлайн-переводчик Meta NLLB и переделали его в режим реального синхронного перевода: модель может переводить на лету, не дожидаясь конца предложения.
Плюс они закрывают типичные боли “псевдо-синхрона”: когда пунктуация вставляется криво, а работа с префиксами и контекстом превращается в кашу.
Что по возможностям:
* перевод между ~200 языками
* два варианта бэкенда: HuggingFace и CTranslate2
* внутри сразу два размера модели: 600M и 1.3B
Сейчас они ещё пилят speculative decoding (спекулятивное декодирование), чтобы ускорить вывод. Идея: часть гипотез быстро “пробрасывать” и потом частично валидировать, чтобы не тормозить на каждом шаге. По их замерам валидация занимает примерно 0.15 секунды.
Если делаешь голосовой перевод, субтитры для стрима или любой кросс-языковой созвон, где задержка решает, проект прям стоит потыкать.
📁 Language: #Python 100.0%
⭐️ Stars: 41
➡️ Cсылка на GitHub
📱 @git_developer
Если хочется делать стриминговый перевод для трансляций или прям настоящий синхрон, быстро упираешься в тупняк классических офлайн-моделей: они часто ждут, пока человек договорит фразу целиком, и из-за этого появляется заметная задержка.
На GitHub нашелся опенсорсный проект NoLanguageLeftWaiting. Ребята взяли офлайн-переводчик Meta NLLB и переделали его в режим реального синхронного перевода: модель может переводить на лету, не дожидаясь конца предложения.
Плюс они закрывают типичные боли “псевдо-синхрона”: когда пунктуация вставляется криво, а работа с префиксами и контекстом превращается в кашу.
Что по возможностям:
* перевод между ~200 языками
* два варианта бэкенда: HuggingFace и CTranslate2
* внутри сразу два размера модели: 600M и 1.3B
Сейчас они ещё пилят speculative decoding (спекулятивное декодирование), чтобы ускорить вывод. Идея: часть гипотез быстро “пробрасывать” и потом частично валидировать, чтобы не тормозить на каждом шаге. По их замерам валидация занимает примерно 0.15 секунды.
Если делаешь голосовой перевод, субтитры для стрима или любой кросс-языковой созвон, где задержка решает, проект прям стоит потыкать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍1
local_ai_ocr
Если нужно вытаскивать текст из документов или PDF, загружать файлы в онлайн-конвертеры всегда как-то стрёмно. А у многих локальных тулов то распознавание так себе, то форматирование превращается в кашу.
Случайно наткнулся на GitHub на open-source проект local_ai_ocr: он собран на модели DeepSeek-OCR и заточен под локальное офлайн-распознавание текста на Windows.
Он умеет с GPU-ускорением обрабатывать картинки и PDF: не просто точно вытягивает текст, но и может сразу экспортировать в Markdown, чтобы сохранить сложные таблицы и верстку.
Работает полностью офлайн: ничего не нужно отправлять в облако. Скачал, распаковал, запустил init-скрипт и можно пользоваться, без сложной настройки окружения.
Если для тебя критична приватность данных или нужна максимально точная “реконструкция” форматирования документа, штука точно стоит того, чтобы попробовать.
📁 Language: #Python 67%
⭐️ Stars: 493
➡️ Cсылка на GitHub
📱 @git_developer
Если нужно вытаскивать текст из документов или PDF, загружать файлы в онлайн-конвертеры всегда как-то стрёмно. А у многих локальных тулов то распознавание так себе, то форматирование превращается в кашу.
Случайно наткнулся на GitHub на open-source проект local_ai_ocr: он собран на модели DeepSeek-OCR и заточен под локальное офлайн-распознавание текста на Windows.
Он умеет с GPU-ускорением обрабатывать картинки и PDF: не просто точно вытягивает текст, но и может сразу экспортировать в Markdown, чтобы сохранить сложные таблицы и верстку.
Работает полностью офлайн: ничего не нужно отправлять в облако. Скачал, распаковал, запустил init-скрипт и можно пользоваться, без сложной настройки окружения.
Если для тебя критична приватность данных или нужна максимально точная “реконструкция” форматирования документа, штука точно стоит того, чтобы попробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
Neoflow
Когда команда устраивает брейншторм или рисует схемки, за нормальные коммерческие whiteboard-инструменты приходится платить, а бесплатные обычно душат лимитами и пользоваться ими бесит.
На GitHub как раз попался Neoflow — опенсорсный whiteboard, который полностью бесплатный и при этом не урезанный. Заточен под простую коллаборацию.
Собран на базе tldraw, поэтому интерфейс приятный и лёгкий. Есть realtime совместное редактирование — несколько человек могут двигать блоки одновременно без лагов.
Плюс завезли AI-фичи, которые реально помогают в работе — авто-организация канваса, распознавание фигур и прочие полезные штуки.
Лицензия MIT. Можно поднять локально через Docker или npm — без танцев и без привязки к SaaS.
Подходит дизайнерам для набросков и идей, а дев-команде — для обсуждения архитектур и процессов. Хорошая альтернатива коммерческим whiteboard-сервисам.
📁 Language: #JavaScript 87.1%
⭐️ Stars: 142
➡️ Cсылка на GitHub
📱 @git_developer
Когда команда устраивает брейншторм или рисует схемки, за нормальные коммерческие whiteboard-инструменты приходится платить, а бесплатные обычно душат лимитами и пользоваться ими бесит.
На GitHub как раз попался Neoflow — опенсорсный whiteboard, который полностью бесплатный и при этом не урезанный. Заточен под простую коллаборацию.
Собран на базе tldraw, поэтому интерфейс приятный и лёгкий. Есть realtime совместное редактирование — несколько человек могут двигать блоки одновременно без лагов.
Плюс завезли AI-фичи, которые реально помогают в работе — авто-организация канваса, распознавание фигур и прочие полезные штуки.
Лицензия MIT. Можно поднять локально через Docker или npm — без танцев и без привязки к SaaS.
Подходит дизайнерам для набросков и идей, а дев-команде — для обсуждения архитектур и процессов. Хорошая альтернатива коммерческим whiteboard-сервисам.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
json-render
Идея про AI-генерацию UI сейчас реально меняется. Команда Vercel Labs недавно выложила в опенсорс json-render и по сути ломает старые правила.
Вместо привычной (и часто нестабильной) генерации кода они предлагают новый пайплайн: AI → JSON → UI. За какие-то три дня проект собрал 6000+ звезд.
Ключевая мысль: не давать AI “свободно творить”, а заставить работать внутри “ограждений”, чтобы на выходе были полностью предсказуемые структурированные данные.
Тебе нужно лишь описать библиотеку компонентов в нужной директории, а дальше AI заполняет данные. Так можно практически полностью убрать галлюцинации.
Это не только лечит вечную проблему “поплыл стиль”, но и дает стриминговый рендер с задержками на уровне миллисекунд, скорость там прям безумная.
Если хочешь собирать “абсолютно контролируемый” генеративный интерфейс, эту фронтенд-библиотеку точно стоит покопать.
📁 Language: #TypeScript 98.1%
⭐️ Stars: 6.7k
➡️ Cсылка на GitHub
📱 @git_developer
Идея про AI-генерацию UI сейчас реально меняется. Команда Vercel Labs недавно выложила в опенсорс json-render и по сути ломает старые правила.
Вместо привычной (и часто нестабильной) генерации кода они предлагают новый пайплайн: AI → JSON → UI. За какие-то три дня проект собрал 6000+ звезд.
Ключевая мысль: не давать AI “свободно творить”, а заставить работать внутри “ограждений”, чтобы на выходе были полностью предсказуемые структурированные данные.
Тебе нужно лишь описать библиотеку компонентов в нужной директории, а дальше AI заполняет данные. Так можно практически полностью убрать галлюцинации.
Это не только лечит вечную проблему “поплыл стиль”, но и дает стриминговый рендер с задержками на уровне миллисекунд, скорость там прям безумная.
Если хочешь собирать “абсолютно контролируемый” генеративный интерфейс, эту фронтенд-библиотеку точно стоит покопать.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
web-check
Чтобы нормально разобрать техархитектуру сайта, его security-настройки и потенциальные риски, вручную проверять DNS, SSL, инфу по серверу и т.д. обычно значит открыть кучу разных тулзов. Это реально неудобно.
Случайно наткнулся на Web-Check, опенсорс-проект: на одной странице можно прогнать десятки проверок по сайту, от IP-информации до security-конфига, всё видно сразу.
Он делает и браузерные, и серверные проверки. Вводишь домен, и дальше автоматически запускаются: поиск IP, разбор цепочки SSL-сертификатов, парсинг DNS-записей, проверка cookie, анализ HTTP-заголовков и ещё больше 30 разных тестов.
Помимо базового определения техстека, геолокации/размещения сервера и скана портов, он умеет проверять DNSSEC, тип фаервола, безопасность TLS-наборов шифров и даже считать углеродный след сайта. Плюс есть полезные штуки вроде превью со скриншотом, поиска по историческим снапшотам, глобального рейтинга и т.п.
Проект поддерживает деплой одной командой через Docker, а ещё его можно задеплоить на Netlify или Vercel. Если нужно глубже понять архитектуру сайта или сделать security-оценку, инструмент точно стоит сохранить.
📁 Language: #TypeScript 65.5%
⭐️ Stars: 30.3k
➡️ Cсылка на GitHub
📱 @git_developer
Чтобы нормально разобрать техархитектуру сайта, его security-настройки и потенциальные риски, вручную проверять DNS, SSL, инфу по серверу и т.д. обычно значит открыть кучу разных тулзов. Это реально неудобно.
Случайно наткнулся на Web-Check, опенсорс-проект: на одной странице можно прогнать десятки проверок по сайту, от IP-информации до security-конфига, всё видно сразу.
Он делает и браузерные, и серверные проверки. Вводишь домен, и дальше автоматически запускаются: поиск IP, разбор цепочки SSL-сертификатов, парсинг DNS-записей, проверка cookie, анализ HTTP-заголовков и ещё больше 30 разных тестов.
Помимо базового определения техстека, геолокации/размещения сервера и скана портов, он умеет проверять DNSSEC, тип фаервола, безопасность TLS-наборов шифров и даже считать углеродный след сайта. Плюс есть полезные штуки вроде превью со скриншотом, поиска по историческим снапшотам, глобального рейтинга и т.п.
Проект поддерживает деплой одной командой через Docker, а ещё его можно задеплоить на Netlify или Vercel. Если нужно глубже понять архитектуру сайта или сделать security-оценку, инструмент точно стоит сохранить.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1