Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).
Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате.
Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
Для установки и запуска сервера можно использовать следующие команды:
git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server
▪Github
#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
❤5🔥1
Мой воркфлоу для вайб-кодинга (в любой точке мира):
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
GitHub
GitHub - upstash/context7: Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors - upstash/context7
❤1👍1
Audio
https://labs.google/fx/ru/tools/music-fx
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
AI Coder
Мой воркфлоу для вайб-кодинга (в любой точке мира): — SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку. — Termius + tmux — прямой туннель в свои сервера, хоть из поезда. — Codex / Claude Code — работа с кодом через…
Друзья, я случайно внес ошибку в текст
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
OpenAI выпустили свой док о том как делать агентов. Ну тут конечно Agents SDK + function tool вместо MCP) https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
👍2
Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое
В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCPВ perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1
🧠 Новая методика работы с AI для интеграции фичей в код 💻
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
👍6💯3✍1
🚨 Anthropic запускает Development Partner Program!
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
Anthropic официально включила Claude Code в подписку Max! Теперь пользователи Max могут работать с кодом прямо из терминала - писать, анализировать, рефакторить и автоматизировать проекты с помощью Claude, не переплачивая за отдельные сервисы. Это особенно выгодно для тех, кто активно использует ИИ для разработки и автоматизации. 💻⚡️
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
🚀 Новое в Claude Max — Web MCP (Integrations)
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
❤1👍1👀1
💎🐙 Gemini подключает GitHub-репозитории — апдейт для разработчиков!
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
🔥1