This media is not supported in your browser
VIEW IN TELEGRAM
Делитесь сессиями Claude Code одной командой
Выпущена версия v1.26.1
Команда:
- Все ваши сессии сгруппированы по чатам
- Можно скачать любую переписку
Как поделиться сессией:
- Передайте файл и добавьте его в проект
- Затем выполните:
Или если вы в одном аккаунте, нажмите «Resume» —
там будет команда:
Фича сделана, чтобы команда могла работать с общим контекстом, не теряя темп.
Выпущена версия v1.26.1
claude-code-templates, потому что часто нужно передавать работу прямо посреди сессии.Команда:
npx claude-code-templates@latest --chats
- Все ваши сессии сгруппированы по чатам
- Можно скачать любую переписку
Как поделиться сессией:
- Передайте файл и добавьте его в проект
- Затем выполните:
claude "read @ chat-file.md and continue"
Или если вы в одном аккаунте, нажмите «Resume» —
там будет команда:
claude --resume session_id
Фича сделана, чтобы команда могла работать с общим контекстом, не теряя темп.
Media is too big
VIEW IN TELEGRAM
Разработчики нашли способ сделать работу с Claude Code в терминале куда удобнее. Появился опенсорсный тул под названием Claude Code Enhanced Statusline. Он выводит в строку статуса всё, что раньше приходилось выискивать вручную: стоимость запросов, состояние MCP-серверов, инфу по Git и тд
Фишка в том, что статус-бар полностью настраивается. Можно собрать из 18 модулей свой набор. С темами тоже порядок, три готовые и возможность сделать свою.
Разработчики хвастаются приростом скорости до 90 процентов благодаря кэшированию. Всё работает на macOS, Linux и Windows. Ставится одной кнопкой, так что попробовать просто.
Код и инструкции лежат на GitHub: github.com/rz1989s/claude-code-statusline
Фишка в том, что статус-бар полностью настраивается. Можно собрать из 18 модулей свой набор. С темами тоже порядок, три готовые и возможность сделать свою.
Разработчики хвастаются приростом скорости до 90 процентов благодаря кэшированию. Всё работает на macOS, Linux и Windows. Ставится одной кнопкой, так что попробовать просто.
Код и инструкции лежат на GitHub: github.com/rz1989s/claude-code-statusline
This media is not supported in your browser
VIEW IN TELEGRAM
Освой GitHub MCP Server меньше чем за 90 секунд
Вчера наткнулся на GitHub MCP Server прямо в VS Code и честно, офигел.
Можно создавать репозитории, управлять задачами, делать pull-request’ы и многое другое… не выходя из редактора.
На видео короткое демо, чтобы показать, как MCP Server от github может зарядить твой VS Code🧠
VS Code реально выходит на новый уровень с этими MCP-серверами от разных инструментов и компаний :)
Вчера наткнулся на GitHub MCP Server прямо в VS Code и честно, офигел.
Можно создавать репозитории, управлять задачами, делать pull-request’ы и многое другое… не выходя из редактора.
На видео короткое демо, чтобы показать, как MCP Server от github может зарядить твой VS Code
VS Code реально выходит на новый уровень с этими MCP-серверами от разных инструментов и компаний :)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхак для Cursor
Это прямо штука, которая меняет игру
Когда контекст подбирается к ~50%, просто напиши команду
Экономит деньги и держит ответы модели чёткими.
Это прямо штука, которая меняет игру
Когда контекст подбирается к ~50%, просто напиши команду
/summarize.Экономит деньги и держит ответы модели чёткими.
LangChain показал Deep Agents CLI с памятью инструкций
Команда LangChain представила пример консольного инструмента Deep Agents CLI, построенного на их пакете deepagents. Это демонстрация того, как можно сделать разработческое приложение поверх нового фреймворка.
Главная фишка - память. CLI запоминает указания и советы, которые пользователь давал раньше, и может опираться на этот контекст дальше. По сути, это более «осознанный» помощник для разработки.
Проект пока небольшой, но хорошо показывает, как deepagents можно интегрировать в реальные сценарии: помощь с кодом, автоматизация рутинных задач, адаптация к стилю конкретного разработчика.
Видео и подробнее в блоге:
blog.langchain.com/introducing-deepagents-cli/
youtu.be/IrnacLa9PJc
Команда LangChain представила пример консольного инструмента Deep Agents CLI, построенного на их пакете deepagents. Это демонстрация того, как можно сделать разработческое приложение поверх нового фреймворка.
Главная фишка - память. CLI запоминает указания и советы, которые пользователь давал раньше, и может опираться на этот контекст дальше. По сути, это более «осознанный» помощник для разработки.
Проект пока небольшой, но хорошо показывает, как deepagents можно интегрировать в реальные сценарии: помощь с кодом, автоматизация рутинных задач, адаптация к стилю конкретного разработчика.
Видео и подробнее в блоге:
blog.langchain.com/introducing-deepagents-cli/
youtu.be/IrnacLa9PJc
AI снова лезет в трейдинг.
На GitHub открыли проект NOFX — это open source версия нашумевшей системы NOF1 для автоматической квантовой торговли. Под капотом большие модели вроде DeepSeek и Qwen. Они анализируют графики, ищут точки входа, открывают и закрывают сделки и потом сами разбирают свои ошибки.
Есть нормальный интерфейс с графиком доходности, позициями и объяснениями решений прямо в реальном времени. Работает с Binance, Hyperliquid и Aster DEX. Развернуть можно одной кнопкой через Docker.
Кому хочется поиграться с AI-трейдингом и посмотреть, как модели ведут себя на реальном рынке, можно заценить:
github.com/tinkle-community/nofx
На GitHub открыли проект NOFX — это open source версия нашумевшей системы NOF1 для автоматической квантовой торговли. Под капотом большие модели вроде DeepSeek и Qwen. Они анализируют графики, ищут точки входа, открывают и закрывают сделки и потом сами разбирают свои ошибки.
Есть нормальный интерфейс с графиком доходности, позициями и объяснениями решений прямо в реальном времени. Работает с Binance, Hyperliquid и Aster DEX. Развернуть можно одной кнопкой через Docker.
Кому хочется поиграться с AI-трейдингом и посмотреть, как модели ведут себя на реальном рынке, можно заценить:
github.com/tinkle-community/nofx
This media is not supported in your browser
VIEW IN TELEGRAM
Все почему-то игнорят новую OCR-модель
Chandra от Datalab заняла топ в независимых бенчмарках и обогнала прежнего лидера dots-ocr.
Поддержка 40+ языков
Нормально тянет текст, таблицы, формулы
Я прогнал её на рукописном письме Рамануджана 1913 года.
Полностью open source
Chandra от Datalab заняла топ в независимых бенчмарках и обогнала прежнего лидера dots-ocr.
Поддержка 40+ языков
Нормально тянет текст, таблицы, формулы
Я прогнал её на рукописном письме Рамануджана 1913 года.
Полностью open source
Во время разработки нам часто приходится постоянно дергать базу. Писать SQL вручную не особо удобно, а в сложных запросах с несколькими JOIN легко накосячить.
Мне случайно попался Conar, это опенсорсный инструмент для управления базами, который с помощью AI генерирует и оптимизирует SQL-запросы. Существенно ускоряет работу с базой.
Это десктопное приложение на Electron с простой и понятной UI. Можно подключить свои модели вроде Claude, ChatGPT или Gemini.
Сейчас поддерживается PostgreSQL, позже добавят MySQL и MongoDB. Данные подключения к базе можно шифровать и хранить в облаке, чтобы безопасно подключаться откуда угодно.
Есть готовые инсталляторы под Windows, macOS и Linux. Разработчики также могут собрать и дорабатывать проект локально.
Мне случайно попался Conar, это опенсорсный инструмент для управления базами, который с помощью AI генерирует и оптимизирует SQL-запросы. Существенно ускоряет работу с базой.
Это десктопное приложение на Electron с простой и понятной UI. Можно подключить свои модели вроде Claude, ChatGPT или Gemini.
Сейчас поддерживается PostgreSQL, позже добавят MySQL и MongoDB. Данные подключения к базе можно шифровать и хранить в облаке, чтобы безопасно подключаться откуда угодно.
Есть готовые инсталляторы под Windows, macOS и Linux. Разработчики также могут собрать и дорабатывать проект локально.
This media is not supported in your browser
VIEW IN TELEGRAM
Аналитика сессий Claude Code (бета)
Только что завезли новую фичу в claude-code-templates
Пробуйте:
Теперь можно видеть, что реально происходит под капотом в ваших сессиях Claude Code: токены, вызовы тулов, эффективность кэша, стоимость и прочее.
Разбор по времени: 85% на исполнение (26 ч 7 мин) против 15% на диалоги (4 ч 45 мин).
Оказалось, что львиная доля времени уходит на выполнение, а не на болтовню туда-сюда.👀
Пока бета. Интересно, какие паттерны вы найдете… попробуйте.
Только что завезли новую фичу в claude-code-templates
Пробуйте:
npx claude-code-templates@latest --chats
Теперь можно видеть, что реально происходит под капотом в ваших сессиях Claude Code: токены, вызовы тулов, эффективность кэша, стоимость и прочее.
Разбор по времени: 85% на исполнение (26 ч 7 мин) против 15% на диалоги (4 ч 45 мин).
Оказалось, что львиная доля времени уходит на выполнение, а не на болтовню туда-сюда.
Пока бета. Интересно, какие паттерны вы найдете… попробуйте.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
GitHub только что взвинтил мощность Copilot раз так в десять
Появился новый режим Copilot Agent, и это реально круто.
Теперь он встроен прямо в GitHub. Есть панель Agents, и у Copilot полный контекст репозитория, issues, пулреквестов и всего такого.
Просто пишешь, что тебе нужно сделать, и он выполняет задачу прямо в браузере, пока ты спокойно отпиваешь кофе.
Появился новый режим Copilot Agent, и это реально круто.
Теперь он встроен прямо в GitHub. Есть панель Agents, и у Copilot полный контекст репозитория, issues, пулреквестов и всего такого.
Просто пишешь, что тебе нужно сделать, и он выполняет задачу прямо в браузере, пока ты спокойно отпиваешь кофе.
This media is not supported in your browser
VIEW IN TELEGRAM
Фишка на GitHub! Добавь
Бесплатно. Смотри , как это работает
0 в URL Pull Request, и ИИ поможет тебе разобрать и понять изменения, которые хотят влить. Бесплатно. Смотри , как это работает
This media is not supported in your browser
VIEW IN TELEGRAM
Запускаю код-агентов Claude в Docker и все работает отлично 👏
Только что выполнил команду и посмотрел, как Claude собрал полноценный REST API на Express внутри изолированного контейнера:
- Контейнер стартует
- ставит Claude Agent SDK
- подтягивает агента
- Claude начинает писать код
- Все видно в Docker logs.
На выходе полноценный Express-проект с роутами, валидацией и обработкой ошибок. После выполнения все файлы вытягиваются на локалку.
Только что выполнил команду и посмотрел, как Claude собрал полноценный REST API на Express внутри изолированного контейнера:
npx claude-code-templates@latest --sandbox docker \
--agent development-team/backend-architect \
--prompt "Create a REST API with Express with validation and error handling"
- Контейнер стартует
- ставит Claude Agent SDK
- подтягивает агента
- Claude начинает писать код
- Все видно в Docker logs.
На выходе полноценный Express-проект с роутами, валидацией и обработкой ошибок. После выполнения все файлы вытягиваются на локалку.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Google пилит новый блок Agent для конструктора Opal. Агент сможет работать итеративно над задачей, пока не добьется результата.
Плюс обещают Smart Layout и новые MCP-коннекторы. Всё это уже на подходе.
Плюс обещают Smart Layout и новые MCP-коннекторы. Всё это уже на подходе.
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor теперь нативно поддерживает git worktree.
Ты можешь запускать несколько агентов параллельно, у каждого будет своя изолированная копия репозитория.
Это удобно, если нужно сравнивать модели или прогонять одну и ту же модель несколько раз и выбирать лучший результат.
Ты можешь запускать несколько агентов параллельно, у каждого будет своя изолированная копия репозитория.
Это удобно, если нужно сравнивать модели или прогонять одну и ту же модель несколько раз и выбирать лучший результат.
This media is not supported in your browser
VIEW IN TELEGRAM
Перейдите от пустого слайда к готовой презентации быстрее с Canvas в Gemini. 🙄
Теперь можно просто попросить Gemini создать презентацию одним промптом (и с учётом всех ваших проектных заметок). Попробуйте сами
Теперь можно просто попросить Gemini создать презентацию одним промптом (и с учётом всех ваших проектных заметок). Попробуйте сами
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Еще три года назад я бы ни за что не поверил, что мы так продвинемся. Можно генерировать четыре плана параллельно разными моделями, потом выбрать лучший вариант (или склеить несколько), и отправить в облако, где всё автоматически превращается в код. Это реально похоже на будущее.
This media is not supported in your browser
VIEW IN TELEGRAM
Появился крутой инструмент для создания SQL-баз данных — database.build. Он умеет автоматически:
• Генерировать схемы таблиц и заполнять данные с помощью ИИ
• Рисовать ER-диаграммы и связи между сущностями
• Развертывать проект в Supabase в один клик
Главное бесплатно. Полезно для прототипов и быстрого протягивания идеи в рабочую базу. http://database.build
• Генерировать схемы таблиц и заполнять данные с помощью ИИ
• Рисовать ER-диаграммы и связи между сущностями
• Развертывать проект в Supabase в один клик
Главное бесплатно. Полезно для прототипов и быстрого протягивания идеи в рабочую базу. http://database.build
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic временно раздает бесплатные кредиты пользователям тарифов Pro и Max для веб-версии Claude Code. Компания объясняет это тем, что обратная связь от сообщества помогает активно улучшать продукт, и хочется дать больше свободы для экспериментов.
Условия акции:
• Max: 1000 долларов кредитов
• Pro: 250 долларов кредитов
• Действует до 18 ноября, 23:59 PT
Кредиты не связаны с лимитами текущего тарифного плана и автоматически сгорают после окончания срока действия предложения. Оно распространяется на всех существующих пользователей и на новых — пока хватает ресурсов.
Дополнительные подробности и ссылки доступны в официальных материалах Anthropic.
https://claude.com/blog/claude-code-on-the-web
Условия акции:
• Max: 1000 долларов кредитов
• Pro: 250 долларов кредитов
• Действует до 18 ноября, 23:59 PT
Кредиты не связаны с лимитами текущего тарифного плана и автоматически сгорают после окончания срока действия предложения. Оно распространяется на всех существующих пользователей и на новых — пока хватает ресурсов.
Дополнительные подробности и ссылки доступны в официальных материалах Anthropic.
https://claude.com/blog/claude-code-on-the-web
Media is too big
VIEW IN TELEGRAM
Большое обновление для тех, кто сидит на Claude Desktop и Cursor.
Теперь можно подружить все AI-приложения через общий слой памяти буквально за минуту.
Я использовал Graphiti MCP сервер, который работает полностью локально. Он позволяет синхронизировать контекст между Claude Desktop, Cursor и другими инструментами, не теряя информацию по пути.
Как настроить:
1. Docker
Деплоим Graphiti MCP сервер через Docker Compose.
В конфиге используется SSE-транспорт. Плюс поднимается Neo4j как локальная база.
Можно лезть в Neo4j браузер и смотреть граф знаний визуально.
Если хочешь, можешь заменить Neo4j на FalkorDB.
2. Подключаем MCP сервер к Cursor
Когда всё поднято и готовы тулзы, цепляем это к Cursor IDE.
Открываем: File → Preferences → Cursor Settings → MCP → Add new global MCP server.
В JSON вставляем пример из инструкции (как на скрине ниже у автора).
3. Подключаем MCP сервер к Claude
Аналогично делаем в Claude Desktop.
Путь: File → Settings → Developer → Edit Config
В JSON — нужный блок с настройками.
Готово.
Теперь можно болтать с Claude Desktop, сохранять факты и ответы в память, а потом доставать их из Cursor. И наоборот. На видео выше это всё уже показано в деле.
Почему Graphiti?
AI-агенты обычно забывают всё после каждого запроса.
Graphiti строит живой временной граф знаний.
С ним у агентов появляется реальная, актуальная память.
Интеграция MCP с Claude/Cursor дает мощный memory-layer для всех твоих рабочих процессов.
Проект полностью open-source, уже больше 20k звезд.
Репо на GitHub: https://github.com/getzep/graphiti
Теперь можно подружить все AI-приложения через общий слой памяти буквально за минуту.
Я использовал Graphiti MCP сервер, который работает полностью локально. Он позволяет синхронизировать контекст между Claude Desktop, Cursor и другими инструментами, не теряя информацию по пути.
Как настроить:
1. Docker
Деплоим Graphiti MCP сервер через Docker Compose.
В конфиге используется SSE-транспорт. Плюс поднимается Neo4j как локальная база.
Можно лезть в Neo4j браузер и смотреть граф знаний визуально.
Если хочешь, можешь заменить Neo4j на FalkorDB.
2. Подключаем MCP сервер к Cursor
Когда всё поднято и готовы тулзы, цепляем это к Cursor IDE.
Открываем: File → Preferences → Cursor Settings → MCP → Add new global MCP server.
В JSON вставляем пример из инструкции (как на скрине ниже у автора).
3. Подключаем MCP сервер к Claude
Аналогично делаем в Claude Desktop.
Путь: File → Settings → Developer → Edit Config
В JSON — нужный блок с настройками.
Готово.
Теперь можно болтать с Claude Desktop, сохранять факты и ответы в память, а потом доставать их из Cursor. И наоборот. На видео выше это всё уже показано в деле.
Почему Graphiti?
AI-агенты обычно забывают всё после каждого запроса.
Graphiti строит живой временной граф знаний.
С ним у агентов появляется реальная, актуальная память.
Интеграция MCP с Claude/Cursor дает мощный memory-layer для всех твоих рабочих процессов.
Проект полностью open-source, уже больше 20k звезд.
Репо на GitHub: https://github.com/getzep/graphiti
«Вайб-кодинг» стало словом года, по версии словаря Collins
Авторы считают, что термин отражает фундаментальную суть меняющихся отношений людей с технологиями😎
Для сравнения: в 2023 году слово года было «AI», а в 2024 - «brat».
Авторы считают, что термин отражает фундаментальную суть меняющихся отношений людей с технологиями
Для сравнения: в 2023 году слово года было «AI», а в 2024 - «brat».
Please open Telegram to view this post
VIEW IN TELEGRAM