Профи-совет для Claude Code: добавь в system prompt строку :
потому что у Claude есть склонность осторожничать с завершением задач, а такая инструкция позволяет выполнять их автономно и без ограничения по контексту.
«Контекст будет автоматически сжиматься по мере приближения к лимиту. Никогда не останавливай задачу из-за ограничений токенов. Всегда доводи её до конца, даже если бюджет почти исчерпан.»
потому что у Claude есть склонность осторожничать с завершением задач, а такая инструкция позволяет выполнять их автономно и без ограничения по контексту.
This media is not supported in your browser
VIEW IN TELEGRAM
Мой любимый лайфхак:
1. находишь лекцию на YouTube
2. берёшь транскрипт через http://ytscribe.ai
3. вставляешь в Gemini с таким промтом:
1. находишь лекцию на YouTube
2. берёшь транскрипт через http://ytscribe.ai
3. вставляешь в Gemini с таким промтом:
Сгенерируй изображение. Преврати этот транскрипт в шпаргалку с основными тезисами и выведи финальный результат как изображение 9:16, созданное nano banana.
[ВСТАВЬ ПОЛНЫЙ ТРАНСКРИПТ]
4
This media is not supported in your browser
VIEW IN TELEGRAM
Еще один опенсорсный CLI-инструмент для AI-разработки — CodeMachine CLI. Суть простая, кидаешь сюда ТЗ или requirements-док, и он превращает это в продакшн-готовый рабочий код.
Внутри работает несколько специализированных AI-агентов, которые кооперируются и закрывают сразу весь цикл разработки - архитектура, код, тесты и деплой.
Можно миксовать модели вроде Claude и Gemini под одну задачу. Разные модули проекта могут писаться одновременно. Агент может трудиться часами или даже сутками над сложным проектом. Встроенные проверки качества и валидация, чтобы код был консистентным и надежным. Сохранение полного контекста проекта🧃
Внутри работает несколько специализированных AI-агентов, которые кооперируются и закрывают сразу весь цикл разработки - архитектура, код, тесты и деплой.
Можно миксовать модели вроде Claude и Gemini под одну задачу. Разные модули проекта могут писаться одновременно. Агент может трудиться часами или даже сутками над сложным проектом. Встроенные проверки качества и валидация, чтобы код был консистентным и надежным. Сохранение полного контекста проекта
Please open Telegram to view this post
VIEW IN TELEGRAM
Анджей Карпати выложил в опенсорс LLM Council — симулятор совета LLM, где несколько моделей с разными ролями спорят и выбирают лучший ответ на ваши вопросы
И всего за сутки проект уже собрал больше 2 тысяч звёзд на GitHub.😎
И всего за сутки проект уже собрал больше 2 тысяч звёзд на GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic выпустили Claude Opus 4.5 — новый ТОП-1 в кодинге. Модель набрала 80,9% на SWE-бенче, это лучший результат по программированию среди всех ИИ.
При этом модель стала в три раза дешевле: всего $5 / $25 за 1 млн входных/выходных токенов. Правда, даже с пониженной ценой она остаётся примерно вдвое дороже Gemini 3 Pro.
Попробовать уже можно в Claude (только с подпиской)
При этом модель стала в три раза дешевле: всего $5 / $25 за 1 млн входных/выходных токенов. Правда, даже с пониженной ценой она остаётся примерно вдвое дороже Gemini 3 Pro.
Попробовать уже можно в Claude (только с подпиской)
Anthropic работает над новым процессом создания Skills, где сам Claude сможет генерировать Skill по описанию пользователя.
This media is not supported in your browser
VIEW IN TELEGRAM
Появился новый проект: AI Researcher
Это многоагентная система на базе Gemini 3, которая автономно запускает ML-эксперименты.
Ты просто задаёшь исследовательский вопрос, а дальше система сама:
- проектирует эксперимент
- поднимает отдельных агентов со своими GPU для выполнения задач
- пишет итоговую научную работу
И самое приятное..проект с открытым исходником . 😜
Это многоагентная система на базе Gemini 3, которая автономно запускает ML-эксперименты.
Ты просто задаёшь исследовательский вопрос, а дальше система сама:
- проектирует эксперимент
- поднимает отдельных агентов со своими GPU для выполнения задач
- пишет итоговую научную работу
И самое приятное..
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Айти мемы
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Режим Plan в Claude Code долго недооценивали, а теперь он стал ещё лучше.
Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.
Попробуй:
Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.
Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.
Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.
Вот в такие моменты Plan Mode раскрывается лучше всего.
Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через
Совет: можно включить Plan Mode по умолчанию через😐
Подробнее: тык
Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.
Попробуй:
Shift + Tab дважды.Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.
Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.
Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.
Вот в такие моменты Plan Mode раскрывается лучше всего.
Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через
/plan open. Все изменения автоматически синхронизируются с контекстом Claude, так что если план не идеален, то можешь дотюнить его под себя.Совет: можно включить Plan Mode по умолчанию через
/config. Подробнее: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Серьезный прорыв.
Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.
Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.
Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду.😬
Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.
Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.
Deepnote только что открыл исходники решения (Apache 2.0).
Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:
→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:
После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.
Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.
И это полностью open-source
Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.
Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.
Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду.
Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.
Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.
Deepnote только что открыл исходники решения (Apache 2.0).
Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:
→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:
npx @deepnote/convert notebook.ipynb
После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.
Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.
И это полностью open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft. Google. AWS.
Все пытаются решить одну и ту же задачу для AI-агентов:
Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?
FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.
Разберем, почему она такая быстрая.
Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.
Но тут возникает проблема.
Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.
А что если представить весь граф как математическую структуру?
Здесь появляются разреженные матрицы.
Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.
И вот ключевой момент:
Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.
Математика быстрее обхода. Намного быстрее.
Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.
Почему бы тогда просто не использовать Vector Search?
Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.
Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.
Что дает FalkorDB:
↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой
Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.
Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.
И что особенно приятно она полностью open-source.
Все пытаются решить одну и ту же задачу для AI-агентов:
Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?
FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.
Разберем, почему она такая быстрая.
Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.
Но тут возникает проблема.
Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.
А что если представить весь граф как математическую структуру?
Здесь появляются разреженные матрицы.
Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.
И вот ключевой момент:
Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.
Математика быстрее обхода. Намного быстрее.
Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.
Почему бы тогда просто не использовать Vector Search?
Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.
Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.
Что дает FalkorDB:
↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой
Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.
Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.
И что особенно приятно она полностью open-source.
Разработчики раскопали свежий репозиторий, который обещает превращать обычных кодеров в полноценных AI-инженеров.
Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить.🖥
Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - InterviewReady/ai-engineering-resources: Research papers and blogs to transition to AI Engineering
Research papers and blogs to transition to AI Engineering - InterviewReady/ai-engineering-resources
This media is not supported in your browser
VIEW IN TELEGRAM
Это от Apple. Модель с открытым доступом, которая в реальном времени описывает то, что видит.
Она называется FastVLM. Работает полностью локально прямо в браузере.
Зацени демо и офигеешь😐 😐
Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu
Github: https://github.com/apple/ml-fastvlm
Она называется FastVLM. Работает полностью локально прямо в браузере.
Зацени демо и офигеешь
Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu
Github: https://github.com/apple/ml-fastvlm
Please open Telegram to view this post
VIEW IN TELEGRAM
На GitHub есть опенсорсный инструмент под названием Continuous Claude, который позволяет запускать Claude Code в цикле для одной и той же задачи, и можно указать сколько раз он должен выполниться.
Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.
Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.
Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке.👍
Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.
Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.
Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Разрабатывать приложения под Windows и добавлять туда AI-функции вроде распознавания изображений, генерации текста и прочего бывает долго и муторно, если настраивать модели и писать всё с нуля.
Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.
Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.
Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.
Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.
Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.
Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.
Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
This media is not supported in your browser
VIEW IN TELEGRAM
Этот open-source интерфейс для чатов переносит фичи ChatGPT и Claude.ai в любой LLM.
Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.
Поддерживается self-hosting и развёртывание в изолированных средах.
Полностью открытый исходный код.
Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.
Поддерживается self-hosting и развёртывание в изолированных средах.
Полностью открытый исходный код.
При работе с Claude Code иногда можно столкнуться с нестабильными API вызовами или лимитами, из-за чего генерация кода обрывается. Потом приходится вручную переключать API-ключи и перезапускать CC, что довольно утомляет.
Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.
У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)
Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.
Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.
Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально.🌟
Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.
У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)
Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.
Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.
Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
В разработке появился новый полезный инструмент для навигации по большим кодовым базам. Open-source проект mgrep предлагает более умный способ искать логику в проекте = вместо точных ключевых слов можно использовать обычный человеческий запрос.
Инструмент понимает смысл поиска с помощью семантической модели и способен находить нужные фрагменты не только в коде, но и в PDF, изображениях и других файлах. mgrep также умеет индексировать проект в фоновом режиме и интегрируется с AI-инструментами вроде Claude Code и Codex, при этом уменьшая расход токенов.🤓
Установить его можно через npm, а команда
Инструмент понимает смысл поиска с помощью семантической модели и способен находить нужные фрагменты не только в коде, но и в PDF, изображениях и других файлах. mgrep также умеет индексировать проект в фоновом режиме и интегрируется с AI-инструментами вроде Claude Code и Codex, при этом уменьшая расход токенов.
Установить его можно через npm, а команда
mgrep watch запускает индексацию проекта.Please open Telegram to view this post
VIEW IN TELEGRAM
Если вдруг пропустил: в начале недели Anthropic пофиксили одну из самых бесящих проблем на Claude.ai — упирание в лимит контекста посреди диалога. 😡
Теперь Claude сам умно сжимает ранние сообщения, когда ты начинаешь подходить к лимиту, так что диалог не обрывается и можно спокойно продолжать чат.
Теперь Claude сам умно сжимает ранние сообщения, когда ты начинаешь подходить к лимиту, так что диалог не обрывается и можно спокойно продолжать чат.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Claude Scientific Skills.
Сделай из Claude полноценного AI-ассистента для исследований, который умеет выполнять сложные многошаговые научные процессы — от математики до биологии, химии, медицины и других областей.
Полностью open source. Уже доступно больше 123 навыков.🌟
https://github.com/K-Dense-AI/claude-scientific-skills
Сделай из Claude полноценного AI-ассистента для исследований, который умеет выполнять сложные многошаговые научные процессы — от математики до биологии, химии, медицины и других областей.
Полностью open source. Уже доступно больше 123 навыков.
https://github.com/K-Dense-AI/claude-scientific-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, Anthropic нашли что-то, что позволило Claude Opus сильно прокачаться. 🚬
Он не просто работает заметно лучше, чем Sonnet 4.5, но ещё и стоит в два раза дешевле. Почти парадокс, но Anthropic явно сделали серьёзный рывок внутри компании.
Он не просто работает заметно лучше, чем Sonnet 4.5, но ещё и стоит в два раза дешевле. Почти парадокс, но Anthropic явно сделали серьёзный рывок внутри компании.
Please open Telegram to view this post
VIEW IN TELEGRAM
1