Anthropic работает над новым процессом создания Skills, где сам Claude сможет генерировать Skill по описанию пользователя.
This media is not supported in your browser
VIEW IN TELEGRAM
Появился новый проект: AI Researcher
Это многоагентная система на базе Gemini 3, которая автономно запускает ML-эксперименты.
Ты просто задаёшь исследовательский вопрос, а дальше система сама:
- проектирует эксперимент
- поднимает отдельных агентов со своими GPU для выполнения задач
- пишет итоговую научную работу
И самое приятное..проект с открытым исходником . 😜
Это многоагентная система на базе Gemini 3, которая автономно запускает ML-эксперименты.
Ты просто задаёшь исследовательский вопрос, а дальше система сама:
- проектирует эксперимент
- поднимает отдельных агентов со своими GPU для выполнения задач
- пишет итоговую научную работу
И самое приятное..
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Айти мемы
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Режим Plan в Claude Code долго недооценивали, а теперь он стал ещё лучше.
Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.
Попробуй:
Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.
Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.
Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.
Вот в такие моменты Plan Mode раскрывается лучше всего.
Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через
Совет: можно включить Plan Mode по умолчанию через😐
Подробнее: тык
Он заметно повышает шанс получить нужный результат с первого раза. Меньше итераций, меньше микроменеджмента, итого итоговый результат лучше.
Попробуй:
Shift + Tab дважды.Теперь Plan Mode поднимает сразу несколько саб-агентов, которые параллельно изучают кодовую базу и генерируют планы с разных точек зрения. После этого он задаёт уточняющие вопросы, прежде чем выбрать стратегию.
Итог — более продуманный и полный план ещё до того, как Claude напишет хоть одну строку кода.
Пример: когда автор разрабатывал UX для multi-subagent режима (который ты видишь в видео), Claude создал два плана - один быстрый и хакающий проблему, второй более чистый и архитектурный. Главный агент совместил оба подхода, учитывая запрос, и выдал реально хорошее решение.
Вот в такие моменты Plan Mode раскрывается лучше всего.
Теперь Claude сохраняет plan-файлы в файловой системе, и ты можешь редактировать их через
/plan open. Все изменения автоматически синхронизируются с контекстом Claude, так что если план не идеален, то можешь дотюнить его под себя.Совет: можно включить Plan Mode по умолчанию через
/config. Подробнее: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Серьезный прорыв.
Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.
Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.
Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду.😬
Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.
Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.
Deepnote только что открыл исходники решения (Apache 2.0).
Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:
→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:
После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.
Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.
И это полностью open-source
Кто-то наконец пофиксил почти все главные проблемы Jupyter Notebook.
Формат .ipynb застрял в 2014 году. Он создавался для другого времени, т.е. без облачной совместной работы, без AI-агентов и без нормальных командных процессов.
Меняешь одну ячейку и в git diff улетает 50+ строк бесполезного JSON-мусора. Код-ревью превращается в клоунаду.
Хочешь расшарить одно подключение к базе между ноутбуками? Настраивай отдельно в каждом. Нужны комментарии или права доступа? Удачи.
Jupyter ок для соло-аналитики, но разваливается, когда команда строит продакшн-системы с AI.
Deepnote только что открыл исходники решения (Apache 2.0).
Они сделали новый стандарт ноутбуков, который реально подходит современным рабочим процессам:
→ Читаемый YAML. В diff отображаются реальные изменения, а не тонны JSON. Нормальные код-ревью наконец возможны.
→ Проектная структура. Несколько ноутбуков могут делить интеграции, секреты и настройки окружения. Один раз настроил = везде работает.
→ 23 новых блока. SQL, интерактивные инпуты, графики и KPI как полноценные элементы. Можно строить дата-приложения, а не просто аналитические ноутбуки.
→ Поддержка нескольких языков. Python и SQL в одном ноутбуке. Современная работа с данными давно не в одном языке.
→ Полная обратная совместимость. Любой Jupyter ноутбук можно сконвертировать в Deepnote и обратно одной командой:
npx @deepnote/convert notebook.ipynb
После этого можно открыть его в VS Code, Cursor, WindSurf или Antigravity. Миграция занимает секунды.
Облачная версия добавляет совместное редактирование в реальном времени, комментарии, права доступа и лайв-коллаб.
И это полностью open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft. Google. AWS.
Все пытаются решить одну и ту же задачу для AI-агентов:
Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?
FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.
Разберем, почему она такая быстрая.
Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.
Но тут возникает проблема.
Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.
А что если представить весь граф как математическую структуру?
Здесь появляются разреженные матрицы.
Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.
И вот ключевой момент:
Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.
Математика быстрее обхода. Намного быстрее.
Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.
Почему бы тогда просто не использовать Vector Search?
Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.
Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.
Что дает FalkorDB:
↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой
Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.
Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.
И что особенно приятно она полностью open-source.
Все пытаются решить одну и ту же задачу для AI-агентов:
Как построить графовые базы знаний, достаточно быстрые для LLM-приложений в реальном времени?
FalkorDB это open-source графовая база данных, которая решает эту задачу, переосмыслив принцип работы графов. Она использует разреженные матрицы и линейную алгебру вместо классической обходной модели.
Разберем, почему она такая быстрая.
Обычные графовые базы данных хранят связи как связанные узлы и обходят граф по одному шагу.
Но тут возникает проблема.
Когда ты выполняешь запрос на поиск связей, база данных проходит через узлы и ребра примерно как по карте. В огромных графах знаний, используемых AI-агентами, это создает серьезное узкое место по производительности.
А что если представить весь граф как математическую структуру?
Здесь появляются разреженные матрицы.
Разреженная матрица хранит только существующие связи. Никаких лишних данных, никаких пустых ячеек. Только реальные отношения между объектами.
И вот ключевой момент:
Когда граф представлен как разреженная матрица, запросы можно выполнять через линейную алгебру вместо обхода. Запрос превращается в математическую операцию, а не в пошаговый проход узлов.
Математика быстрее обхода. Намного быстрее.
Плюс разреженные матрицы делают хранение невероятно эффективным. Ты хранишь только то, что существует, поэтому огромные графы знаний можно держать в памяти, не сжигая ресурсы.
Почему бы тогда просто не использовать Vector Search?
Vector Search действительно быстрый, но он работает только с наивным сходством. Он находит похожие объекты, но теряет структуру.
Графы фиксируют сложные связи между сущностями. Это дает AI-агенту контекст, который точнее и релевантнее, а не просто похож по смыслу.
Что дает FalkorDB:
↳ Очень быстрая многопользовательская графовая база
↳ Эффективное хранение через sparse matrix
↳ Совместимость с OpenCypher (тот же синтаксис, что у Neo4j)
↳ Спроектирована специально под LLM-приложения и память агентов
↳ Работает поверх Redis, упрощая деплой
Старт занимает одну Docker-команду. Я протестировал Python-клиент и разница в производительности чувствуется сразу.
Если ты делаешь AI-агентов, которым нужен доступ к связанным данным в реальном времени, стоит обратить внимание.
И что особенно приятно она полностью open-source.
Разработчики раскопали свежий репозиторий, который обещает превращать обычных кодеров в полноценных AI-инженеров.
Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить.🖥
Внутри собраны лучшие научные статьи, блоги и визуальные схемы по ключевым темам: архитектуры моделей, токенизация, RAG, MCP и еще куча того, что многие слышали, но руки так и не дошли изучить.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - InterviewReady/ai-engineering-resources: Research papers and blogs to transition to AI Engineering
Research papers and blogs to transition to AI Engineering - InterviewReady/ai-engineering-resources
This media is not supported in your browser
VIEW IN TELEGRAM
Это от Apple. Модель с открытым доступом, которая в реальном времени описывает то, что видит.
Она называется FastVLM. Работает полностью локально прямо в браузере.
Зацени демо и офигеешь😐 😐
Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu
Github: https://github.com/apple/ml-fastvlm
Она называется FastVLM. Работает полностью локально прямо в браузере.
Зацени демо и офигеешь
Демо: https://huggingface.co/spaces/apple/fastvlm-webgpu
Github: https://github.com/apple/ml-fastvlm
Please open Telegram to view this post
VIEW IN TELEGRAM
На GitHub есть опенсорсный инструмент под названием Continuous Claude, который позволяет запускать Claude Code в цикле для одной и той же задачи, и можно указать сколько раз он должен выполниться.
Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.
Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.
Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке.👍
Если гонять Claude в цикле, он может автоматически создавать ветки, коммитить изменения, открывать PR, ждать пока все проверки пройдут, и потом мержить. Весь процесс идет без ручного участия.
Кроме того, инструмент использует общий Markdown-файл для сохранения контекста, так что каждая итерация понимает, что было сделано до этого.
Установить и запустить его можно через простые команды в терминале. Хороший вариант, если нужно обрабатывать большое количество повторяющихся задач в разработке.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Разрабатывать приложения под Windows и добавлять туда AI-функции вроде распознавания изображений, генерации текста и прочего бывает долго и муторно, если настраивать модели и писать всё с нуля.
Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.
Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.
Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.
Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
Поэтому Microsoft выложила в открытый доступ инструмент AI Dev Gallery. Он сделан специально для Windows-разработчиков и помогает быстро подключать модели и интегрировать разные AI-возможности.
Там есть больше 25 интерактивных примеров, которые покрывают работу с изображениями, текстом, голосом и другими задачами. Модели можно сразу просматривать и скачивать с Hugging Face и GitHub.
Каждый пример включает полный исходник на C#, и его можно экспортировать в самостоятельный проект Visual Studio одним кликом, чтобы дальше спокойно дорабатывать.
Установить можно через Microsoft Store или клонировать репозиторий и собрать проект в Visual Studio 2022 или новеe
This media is not supported in your browser
VIEW IN TELEGRAM
Этот open-source интерфейс для чатов переносит фичи ChatGPT и Claude.ai в любой LLM.
Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.
Поддерживается self-hosting и развёртывание в изолированных средах.
Полностью открытый исходный код.
Можно использовать любую модель вместе с RAG, веб-поиском, MCP, deep research, code interpreter, кастомными командами и многим другим в одном месте.
Поддерживается self-hosting и развёртывание в изолированных средах.
Полностью открытый исходный код.
При работе с Claude Code иногда можно столкнуться с нестабильными API вызовами или лимитами, из-за чего генерация кода обрывается. Потом приходится вручную переключать API-ключи и перезапускать CC, что довольно утомляет.
Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.
У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)
Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.
Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.
Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально.🌟
Поэтому один разработчик выложил на GitHub open-source инструмент для умного ротационного прокси для Claude Code — ccNexus.
У него удобный визуальный интерфейс для управления конфигурацией. Можно добавить несколько API-ключей и форматов (Claude, OpenAI, Gemini и другие.)
Если API-вызов в Claude Code падает, инструмент может автоматически переключиться на следующий ключ без перезапуска CC.
Также доступна статистика в реальном времени: количество запросов, ошибки, расход токенов - всё показывается наглядно в интерфейсе.
Достаточно просто скачать исполняемый файл под свою систему и запустить. Никаких зависимостей ставить не нужно, все данные хранятся локально.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
В разработке появился новый полезный инструмент для навигации по большим кодовым базам. Open-source проект mgrep предлагает более умный способ искать логику в проекте = вместо точных ключевых слов можно использовать обычный человеческий запрос.
Инструмент понимает смысл поиска с помощью семантической модели и способен находить нужные фрагменты не только в коде, но и в PDF, изображениях и других файлах. mgrep также умеет индексировать проект в фоновом режиме и интегрируется с AI-инструментами вроде Claude Code и Codex, при этом уменьшая расход токенов.🤓
Установить его можно через npm, а команда
Инструмент понимает смысл поиска с помощью семантической модели и способен находить нужные фрагменты не только в коде, но и в PDF, изображениях и других файлах. mgrep также умеет индексировать проект в фоновом режиме и интегрируется с AI-инструментами вроде Claude Code и Codex, при этом уменьшая расход токенов.
Установить его можно через npm, а команда
mgrep watch запускает индексацию проекта.Please open Telegram to view this post
VIEW IN TELEGRAM
Если вдруг пропустил: в начале недели Anthropic пофиксили одну из самых бесящих проблем на Claude.ai — упирание в лимит контекста посреди диалога. 😡
Теперь Claude сам умно сжимает ранние сообщения, когда ты начинаешь подходить к лимиту, так что диалог не обрывается и можно спокойно продолжать чат.
Теперь Claude сам умно сжимает ранние сообщения, когда ты начинаешь подходить к лимиту, так что диалог не обрывается и можно спокойно продолжать чат.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Claude Scientific Skills.
Сделай из Claude полноценного AI-ассистента для исследований, который умеет выполнять сложные многошаговые научные процессы — от математики до биологии, химии, медицины и других областей.
Полностью open source. Уже доступно больше 123 навыков.🌟
https://github.com/K-Dense-AI/claude-scientific-skills
Сделай из Claude полноценного AI-ассистента для исследований, который умеет выполнять сложные многошаговые научные процессы — от математики до биологии, химии, медицины и других областей.
Полностью open source. Уже доступно больше 123 навыков.
https://github.com/K-Dense-AI/claude-scientific-skills
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, Anthropic нашли что-то, что позволило Claude Opus сильно прокачаться. 🚬
Он не просто работает заметно лучше, чем Sonnet 4.5, но ещё и стоит в два раза дешевле. Почти парадокс, но Anthropic явно сделали серьёзный рывок внутри компании.
Он не просто работает заметно лучше, чем Sonnet 4.5, но ещё и стоит в два раза дешевле. Почти парадокс, но Anthropic явно сделали серьёзный рывок внутри компании.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Ещё Anthropic завезли продвинутый tool-use для Claude. Теперь Claude может:
Это довольно серьёзный шаг для построения масштабируемых AI-агентов.
https://anthropic.com/engineering/advanced-tool-use
Находить нужные инструменты по запросу
Запускать их через Python-код
Учиться на примерах использования
Это довольно серьёзный шаг для построения масштабируемых AI-агентов.
https://anthropic.com/engineering/advanced-tool-use
Когда используешь ИИ для разработки, самая сложная часть обычно не в том, чтобы писать код, а в том, чтобы заставить ИИ строго соблюдать существующие инженерные стандарты команды, а не генерировать что попало каждый раз.
Недавно наткнулся на open-source проект Compounding Engineering Plugin. Он предлагает довольно жёсткий рабочий цикл Plan-Work-Review, который помогает делать так, чтобы каждая итерация разработки с участием ИИ улучшала качество кода, а не плодила техдолг.
Это не просто память или сохранение контекста. На этапе Plan плагин глубоко анализирует кодовую базу, выявляет паттерны и генерирует подробный issue. Дальше разработка происходит в изолированной среде (worktree), а затем результат проходит ревью сразу более чем у 10 специализированных агентов.
Самая интересная часть.. это механизм Review. Там есть такие агенты, как security-sentinel (безопасность) и performance-oracle (производительность). Они ведут себя как опытные инженеры и буквально устраивают полноценную проверку кода.🤙
Недавно наткнулся на open-source проект Compounding Engineering Plugin. Он предлагает довольно жёсткий рабочий цикл Plan-Work-Review, который помогает делать так, чтобы каждая итерация разработки с участием ИИ улучшала качество кода, а не плодила техдолг.
Это не просто память или сохранение контекста. На этапе Plan плагин глубоко анализирует кодовую базу, выявляет паттерны и генерирует подробный issue. Дальше разработка происходит в изолированной среде (worktree), а затем результат проходит ревью сразу более чем у 10 специализированных агентов.
Самая интересная часть.. это механизм Review. Там есть такие агенты, как security-sentinel (безопасность) и performance-oracle (производительность). Они ведут себя как опытные инженеры и буквально устраивают полноценную проверку кода.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Gemini (слева) vs ChatGPT vs Claude (справа)
Промпт:
Промпт:
Создай интерактивную симуляцию на HTML, CSS и JavaScript спутниковой системы, которая передает сигналы на наземные приёмники.
Симуляция должна показывать спутник, вращающийся вокруг Земли и периодически отправляющий сигналы, которые принимаются несколькими наземными станциями.
Учти реалистичные факторы: задержка сигнала в зависимости от расстояния, периодические потери сигнала из-за помех или препятствий и визуализацию траектории сигнала в виде линий или волн.
Позиция спутника должна обновляться с использованием упрощённой орбитальной механики, а наземные приёмники должны отображать уровень принятого сигнала и таймстемпы.
OpenAI планирует скоро начать тестировать рекламу в ChatGPT — в последней сборке для Android появились строки, связанные с рекламой.
Скорее всего, это будет ограничено только поисковой рекламой. Есть большая вероятность, что всё будет работать на той же инфраструктуре, что и Bing Ads.🚬
Скорее всего, это будет ограничено только поисковой рекламой. Есть большая вероятность, что всё будет работать на той же инфраструктуре, что и Bing Ads.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM