AI Coder – Telegram
AI Coder
291 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
🔥 MCP, агенты и автоматизация данных: а что с RAG?

Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:

1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.

2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.

3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.

4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.

5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.

⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
👍3
Прислали на тему A2A… Ну есть над чем подумать)))
😁4🥰1😭1
Так, что нужно знать про сегодняшний день?

Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3

НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex

Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!

Как потестирую еще отпишусь
👍1
Так, ну чо, ща свой бенч посмотрю
Зарядил дип ресерч на o3…. Это что-то новенькое
🤣1
Приятно, что aider bench уже стандарт дефакто. Ну то есть o3-high набирает 81.3%, у gemini 2.5 pro 03 25 - 72.9%! 8.4% up
А вот он и топ-3! И как видно если смотреть цена/качество, то gemini 2.5 pro 03-25 остается лидером
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
🔥 ArXiv MCP Server

arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).

Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате. 

Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
🟢 Загрузка статьи download_paper — хранит PDF/метаданные локально, чтобы не дергать arXiv повторно.
🟢Список локальных статей list_papers.
🟢Чтение содержимого read_paper — отдаёт текст постранично.
🟢Готовые исследовательские промпты — например, deep-paper-analysis, который строит полное ревью (summary, методология, импликации, дальнейшая работа и т.д.). 

🌟 Установка:

Для установки и запуска сервера можно использовать следующие команды:​


git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server



Github

#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.

codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
5🔥1
Вот по этой ссылке: https://github.com/jaacob/perplexity-mcp

Очень круто работает. Особенно с sonar-reasoning-pro
Мой воркфлоу для вайб-кодинга (в любой точке мира):

SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).

В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI

Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.

Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.

Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)

Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:

"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}


3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”

Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел

Офф. гитхаб: github.com/upstash/context7-mcp
1👍1
Audio
https://labs.google/fx/ru/tools/music-fx

Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей


Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
AI Coder
Мой воркфлоу для вайб-кодинга (в любой точке мира): — SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку. — Termius + tmux — прямой туннель в свои сервера, хоть из поезда. — Codex / Claude Code — работа с кодом через…
Друзья, я случайно внес ошибку в текст
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.

А было локально.

Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
OpenAI выпустили свой док о том как делать агентов. Ну тут конечно Agents SDK + function tool вместо MCP) https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
👍2
Вдруг кто не в курсе, что в Cursor модель gpt-4.1 работает БЕСПЛАТНО) Если вы не платите, значит вы и есть оплата
Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое

## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCP


В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"

Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1