🔥 MCP, агенты и автоматизация данных: а что с RAG?
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
👍3
Попросил gemini 2.5 pro визуализировать репу http://github.com/google/A2A
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
GitHub
GitHub - a2aproject/A2A: An open protocol enabling communication and interoperability between opaque agentic applications.
An open protocol enabling communication and interoperability between opaque agentic applications. - a2aproject/A2A
🔥3👍1
Так, что нужно знать про сегодняшний день?
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
👍1
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).
Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате.
Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
Для установки и запуска сервера можно использовать следующие команды:
git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server
▪Github
#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
❤5🔥1
Мой воркфлоу для вайб-кодинга (в любой точке мира):
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
GitHub
GitHub - upstash/context7: Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors - upstash/context7
❤1👍1
Audio
https://labs.google/fx/ru/tools/music-fx
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
AI Coder
Мой воркфлоу для вайб-кодинга (в любой точке мира): — SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку. — Termius + tmux — прямой туннель в свои сервера, хоть из поезда. — Codex / Claude Code — работа с кодом через…
Друзья, я случайно внес ошибку в текст
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
OpenAI выпустили свой док о том как делать агентов. Ну тут конечно Agents SDK + function tool вместо MCP) https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
👍2
Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое
В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCPВ perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1