Model Context Protocol (MCP): Базовое описание и интеграция
Model Context Protocol (MCP) — открытый стандарт для подключения ИИ-моделей к внешним данным и инструментам. По аналогии с USB-C, он унифицирует взаимодействие между LLM (например, Claude, GPT) и сервисами, устраняя необходимость в кастомных интеграциях для каждого API.
Ключевые компоненты MCP
Инструменты (Tools)
Функции, которые ИИ может вызывать. Пример:
Модель сама решает, когда использовать инструмент:
Пользователь: "Создай задачу в репозитории"
Модель → вызывает GitHub.create_issue → возвращает ссылку на issue
Ресурсы (Resources)
Данные, доступные для чтения (например, файлы, JSON-объекты). Пример конфигурации:
Шаблоны (Prompts)
Предопределённые инструкции для типовых задач:
/explain-code [фрагмент] → "Объясни этот код на Python"
Интеграция MCP в разработку
1. Создание MCP-сервера (Node.js)
Пример сервера для работы с погодой:
2. Подключение клиента (Python)
3. Использование в LLM-приложениях
Интеграция с OpenAI через MCP:
Преимущества для разработчиков
Универсальность: Один сервер MCP работает с любыми LLM (Claude, GPT, Llama)
Безопасность: Локальные серверы исключают передачу данных в облако
Упрощение кода: Замена десятков API-интеграций единым протоколом
Пример использования в CI/CD:
Пользователь: "Задеплой фичу в прод" → Модель вызывает последовательно:
1. MCP-Tool: run_tests
2. MCP-Tool: build_docker
3. MCP-Tool: deploy_to_kubernetes
Для старта используйте официальные SDK (Python/TypeScript/Java) и шаблоны из репозитория MCP. Документация включает примеры интеграции с Docker для изоляции окружений.
Model Context Protocol (MCP) — открытый стандарт для подключения ИИ-моделей к внешним данным и инструментам. По аналогии с USB-C, он унифицирует взаимодействие между LLM (например, Claude, GPT) и сервисами, устраняя необходимость в кастомных интеграциях для каждого API.
Ключевые компоненты MCP
Инструменты (Tools)
Функции, которые ИИ может вызывать. Пример:
// Сервер для работы с GitHub
server.tool("create_issue", {
noscript: z.string(),
body: z.string()
}, async ({ noscript, body }) => {
return { issue_url: "https://github.com/repo/issue/123" };
}); Модель сама решает, когда использовать инструмент:
Пользователь: "Создай задачу в репозитории"
Модель → вызывает GitHub.create_issue → возвращает ссылку на issue
Ресурсы (Resources)
Данные, доступные для чтения (например, файлы, JSON-объекты). Пример конфигурации:
server.resource(
"analytics_data",
ResourceTemplate("data://analytics/{date}"),
async (uri) => fetch_data_from_db(uri.params.date)
); Шаблоны (Prompts)
Предопределённые инструкции для типовых задач:
/explain-code [фрагмент] → "Объясни этот код на Python"
Интеграция MCP в разработку
1. Создание MCP-сервера (Node.js)
Пример сервера для работы с погодой:
import { McpServer } from "@modelcontextprotocol/sdk";
const server = new McpServer({ name: "Weather" });
// Инструмент для запроса погоды
server.tool("get_weather", {
city: z.string()
}, async ({ city }) => {
return { temp: 22, conditions: "Sunny" };
});
// Ресурс с прогнозом
server.resource("forecast", new ResourceTemplate("weather://forecast/{city}"), async (uri) => {
return fetch_forecast(uri.params.city);
}); 2. Подключение клиента (Python)
from mcp_client import McpClient
client = McpClient(
servers=[
{
"id": "github",
"command": "npx -y @modelcontextprotocol/server-github",
"args": ["--token", "ВАШ_ТОКЕН"]
}
]
)
# Получение списка доступных инструментов
tools = await client.list_tools()
print(f"Доступные инструменты: {[t.name for t in tools]}") # → ["create_issue", "get_commits"] 3. Использование в LLM-приложениях
Интеграция с OpenAI через MCP:
from openai import OpenAI
client = OpenAI()
# Запрос с использованием MCP-инструментов
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Создай задачу в GitHub с заголовком 'Фикс бага'"}],
tools=[tool.schema for tool in mcp_tools] # Схемы инструментов из MCP
)
# Вызов инструмента через MCP-сервер
if response.choices[0].message.tool_calls:
tool_call = response.choices[0].message.tool_calls[0]
result = await mcp_client.call_tool(tool_call.name, tool_call.arguments) Преимущества для разработчиков
Универсальность: Один сервер MCP работает с любыми LLM (Claude, GPT, Llama)
Безопасность: Локальные серверы исключают передачу данных в облако
Упрощение кода: Замена десятков API-интеграций единым протоколом
Пример использования в CI/CD:
Пользователь: "Задеплой фичу в прод" → Модель вызывает последовательно:
1. MCP-Tool: run_tests
2. MCP-Tool: build_docker
3. MCP-Tool: deploy_to_kubernetes
Для старта используйте официальные SDK (Python/TypeScript/Java) и шаблоны из репозитория MCP. Документация включает примеры интеграции с Docker для изоляции окружений.
👍1
Вот 4 месяца прошло с момента анонса MCP и вот только сейчас люди начали догонять
Нашел в твиттере подборку разных использований. Тут и для реакта и для соланы и для чего душе угодно. Вот оно будущее разработки! Протоколы будут появляться, но MCP явно удачный получился.
https://x.com/atomsilverman/status/1900261905106903124?s=46&t=o-gNuwBmunp1vKR4u9v13w
Нашел в твиттере подборку разных использований. Тут и для реакта и для соланы и для чего душе угодно. Вот оно будущее разработки! Протоколы будут появляться, но MCP явно удачный получился.
https://x.com/atomsilverman/status/1900261905106903124?s=46&t=o-gNuwBmunp1vKR4u9v13w
🔥4
Вот еще нашел Awesome MCP servers - https://github.com/punkpeye/awesome-mcp-servers
Например @modelcontextprotocol/server-github. Можно добавить в Cursor и будет сам pull requests оформлять =) Profit!
Например @modelcontextprotocol/server-github. Можно добавить в Cursor и будет сам pull requests оформлять =) Profit!
GitHub
GitHub - punkpeye/awesome-mcp-servers: A collection of MCP servers.
A collection of MCP servers. Contribute to punkpeye/awesome-mcp-servers development by creating an account on GitHub.
Forwarded from e/acc
Media is too big
VIEW IN TELEGRAM
Идея → дизайн → сайт за 1,5 минуты
С помощью Figma MCP сервера для Курсора, я сделал с нуля дизайн и вёрстку страницы на основе созданного в Фигме стиля с нужным мне контентом.
Что важно:
— это первый прототип технологии, через 6 месяцев она сможет создавать многостраничные и мультимодальные приложения на лету
— это бесплатно и не требует никаких навыков, кроме умения печатать
— это приведет к созданию эфемерного just-in-time веба, в котором все сайты и приложения создаются под вас, в вашем любимом стиле с персонализированными текстами и графикой
— попробовать можно прямо сейчас (в видео я голосом рассказываю как это работает)
— кожаным останется создавать дизайн-системы или просты выбирать наиболее красивые из сотен тысяч вариантов созданных ИИ
С помощью Figma MCP сервера для Курсора, я сделал с нуля дизайн и вёрстку страницы на основе созданного в Фигме стиля с нужным мне контентом.
Что важно:
— это первый прототип технологии, через 6 месяцев она сможет создавать многостраничные и мультимодальные приложения на лету
— это бесплатно и не требует никаких навыков, кроме умения печатать
— это приведет к созданию эфемерного just-in-time веба, в котором все сайты и приложения создаются под вас, в вашем любимом стиле с персонализированными текстами и графикой
— попробовать можно прямо сейчас (в видео я голосом рассказываю как это работает)
— кожаным останется создавать дизайн-системы или просты выбирать наиболее красивые из сотен тысяч вариантов созданных ИИ
🔥3👍2👀2
https://x.com/sonnylazuardi/status/1901511152171200696?s=46&t=o-gNuwBmunp1vKR4u9v13w
Пример как верстать Cursor в Figma
Пример как верстать Cursor в Figma
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
MCP месте с DeepSeek является самой популярной ИИ-разработкой за последние 6 месяцев.
Вот все, что нужно знать об этой технологии, как она меняет ваши рабочие задачи
MCP (Model Context Protocol) - это протокол, созданный Anthropic, ставший стандартом для взаимодействия между различными ИИ-агентами и инструментами.
Это новая парадигма, которая делает ИИ полезнее для обычных пользователей, бизнеса и разработчиков, превращая модели из просто "умных собеседников" в инструменты, способные решать реальные задачи с доступом к актуальным данным и инструментам.
MCP состоит из 3-х ключевых компонентов:
Хост/Клиент — ИИ-приложения, такие как Claude
Сервер — связующее звено между ИИ и внешними системами
Протокол — стандарт обмена данными между ними
Практические примеры использования MCP:
Поиск и доступ к информации
Perplexity + Sonar: Интеграция позволяет Claude искать в интернете и получать актуальную информацию, преодолевая ограничения модели по знаниям
PubMed: Интеграция научной базы данных с Claude для медицинских исследований за считанные минуты
Бизнес-решения
Composio: Полная автоматизация поддержки клиентов, где ИИ может отвечать на запросы, имея доступ к базам данных
Audiense Insights: Аналитическая платформа, предоставляющая ИИ-ассистентам доступ к маркетинговым данным
Sharable: 1й облачный MCP-клиент для финансового анализа и трейдинга
Инструменты разработки
Langflow: Интеграция с инструментами разработки для создания более мощных ИИ-решений
LlamaIndex: Подключение агентов LlamaIndex к любому MCP-серверу всего одной строкой кода
Gradio Client: Прототип для имплементации MCP клиента с использованием популярного интерфейса Gradio
Подключение к внешним системам
Weaviate: Интеграция векторного поиска с моделями Claude для работы с большими массивами данных
ORKL: Создание ассистента по анализу угроз безопасности через MCP
Agno: Платформа для подключения агентов к сотням MCP-совместимых сервисов
Специализированные решения
Latitude Agents: 1-я автономная агентская платформа, созданная специально для MCP
MultiVersX: MCP-платформа для создания бизнес-решений без программирования
Java SDK: Официальная поддержка Java для интеграции MCP с корпоративными системами
Почему MCP становится стандартом?
1. Единый протокол для подключения к любым внешним системам
2. Интеграция с новыми инструментами за минуты, а не недели
3. Открытый стандарт с активно растущей экосистемой
4. Сильная поддержка со стороны Anthropic и растущего сообщества
5.Работает с различными платформами и языками программирования.
Вот все, что нужно знать об этой технологии, как она меняет ваши рабочие задачи
MCP (Model Context Protocol) - это протокол, созданный Anthropic, ставший стандартом для взаимодействия между различными ИИ-агентами и инструментами.
Это новая парадигма, которая делает ИИ полезнее для обычных пользователей, бизнеса и разработчиков, превращая модели из просто "умных собеседников" в инструменты, способные решать реальные задачи с доступом к актуальным данным и инструментам.
MCP состоит из 3-х ключевых компонентов:
Хост/Клиент — ИИ-приложения, такие как Claude
Сервер — связующее звено между ИИ и внешними системами
Протокол — стандарт обмена данными между ними
Практические примеры использования MCP:
Поиск и доступ к информации
Perplexity + Sonar: Интеграция позволяет Claude искать в интернете и получать актуальную информацию, преодолевая ограничения модели по знаниям
PubMed: Интеграция научной базы данных с Claude для медицинских исследований за считанные минуты
Бизнес-решения
Composio: Полная автоматизация поддержки клиентов, где ИИ может отвечать на запросы, имея доступ к базам данных
Audiense Insights: Аналитическая платформа, предоставляющая ИИ-ассистентам доступ к маркетинговым данным
Sharable: 1й облачный MCP-клиент для финансового анализа и трейдинга
Инструменты разработки
Langflow: Интеграция с инструментами разработки для создания более мощных ИИ-решений
LlamaIndex: Подключение агентов LlamaIndex к любому MCP-серверу всего одной строкой кода
Gradio Client: Прототип для имплементации MCP клиента с использованием популярного интерфейса Gradio
Подключение к внешним системам
Weaviate: Интеграция векторного поиска с моделями Claude для работы с большими массивами данных
ORKL: Создание ассистента по анализу угроз безопасности через MCP
Agno: Платформа для подключения агентов к сотням MCP-совместимых сервисов
Специализированные решения
Latitude Agents: 1-я автономная агентская платформа, созданная специально для MCP
MultiVersX: MCP-платформа для создания бизнес-решений без программирования
Java SDK: Официальная поддержка Java для интеграции MCP с корпоративными системами
Почему MCP становится стандартом?
1. Единый протокол для подключения к любым внешним системам
2. Интеграция с новыми инструментами за минуты, а не недели
3. Открытый стандарт с активно растущей экосистемой
4. Сильная поддержка со стороны Anthropic и растущего сообщества
5.Работает с различными платформами и языками программирования.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Claude 2.0: Из чат-бота в полноценного цифрового ассистента
Теперь у вас есть способный ИИ-ассистент, который может не только давать советы, но и реально помогать выполнять задачи. Именно это предлагает Model Context Protocol (MCP).
Теперь Claude может:…
Теперь у вас есть способный ИИ-ассистент, который может не только давать советы, но и реально помогать выполнять задачи. Именно это предлагает Model Context Protocol (MCP).
Теперь Claude может:…
🔥4
tg_image_167981469.png
24.7 KB
What's new:
• New MCP "project" scope now allows you to add MCP servers to .mcp.json files and commit them to your repository
В Claude Code обновление которые показывает тренд. То есть mcp сервера это часть тулинга разработки. Как maven repo, pip, sonar и тд. Через месяц уже будет видно новый ландшафт разработки
🚀 Claude научился искать в интернете!
Только что анонсировали крутую фишку для всех, кто работает с данными: ИИ-ассистент Claude теперь умеет искать информацию в сети в реальном времени!
Что это значит?
✔️ Самые свежие данные (курсы валют, новости, исследования)
✔️ Автоматические ссылки на источники для проверки
✔️ Примеры использования: сравнение товаров, анализ рынка, подготовка грантов
Кому пригодится?
👉 Менеджерам по продажам — для анализа трендов перед встречами
👉 Инвесторам — для оценки отчётов компаний
👉 Исследователям — для поиска научных публикаций
👉 Покупателям — сравнение цен и характеристик
Как попробовать?
Пока функция в бета-тесте для платных подписок в США, но скоро расширят географию. Включается в настройках профиля → Claude 3.7 Sonnet.
👉 Подробности: anthropic.com/news/web-search
#AI #Claude #Нейросети #Инновации
И это сообщение написано Claude)
Только что анонсировали крутую фишку для всех, кто работает с данными: ИИ-ассистент Claude теперь умеет искать информацию в сети в реальном времени!
Что это значит?
✔️ Самые свежие данные (курсы валют, новости, исследования)
✔️ Автоматические ссылки на источники для проверки
✔️ Примеры использования: сравнение товаров, анализ рынка, подготовка грантов
Кому пригодится?
👉 Менеджерам по продажам — для анализа трендов перед встречами
👉 Инвесторам — для оценки отчётов компаний
👉 Исследователям — для поиска научных публикаций
👉 Покупателям — сравнение цен и характеристик
Как попробовать?
Пока функция в бета-тесте для платных подписок в США, но скоро расширят географию. Включается в настройках профиля → Claude 3.7 Sonnet.
👉 Подробности: anthropic.com/news/web-search
#AI #Claude #Нейросети #Инновации
И это сообщение написано Claude)
Claude
Claude web search now available globally on all plans | Claude
Claude can now search the internet to provide up-to-date, cited responses on all plans worldwide. Get real-time insights for research, market analysis, and more.
👍5🔥1
Forwarded from Все о блокчейн/мозге/space/WEB 3.0 в России и мире
⚡️Anthropic обогнала OpenAI и Google DeepMind в создании ИИ для сложных и долгих задач
В свежем исследовании METR анализируют способности ИИ - моделей временной горизонт задачи — это время, которое требуется человеку для выполнения задачи, и которое ИИ может выполнить с определенной вероятностью успеха.
В центре исследования находится 50%-временной горизонт — длительность задач, где ИИ достигает успеха в 50% случаев. Это своего рода "средняя точка" возможностей моделей, которая позволяет измерять их прогресс.
В исследовании говорится, что Claude 3.7 Sonnet от Anthropic показал наилучшие результаты среди тестируемых моделей - может с 50% вероятностью выполнять задачи, которые занимают у человека ~ 59 минут, что превосходит результаты o1, GPT-4o, Gemini-2.0 и DeepSeek-R1.
С 2019 года временной горизонт лучших моделей ИИ удваивается примерно каждые 7 месяцев.
Если поднять планку до 80% успеха, временной горизонт сокращается до примерно 15 минут. Это показывает, что надежность остается слабым местом даже у топовых моделей.
Если темпы роста сохранятся, к 2028–2031 годам ИИ сможет брать на себя задачи, эквивалентные месяцу человеческой работы (около 167 часов). Это открывает перспективы для автоматизации сложных проектов.
Что движет прогрессом?
- Улучшение логических способностей моделей.
- Более умелое использование инструментов.
- Повышение надежности и устойчивости к ошибкам.
- Рост самосознания моделей (понимания своих пределов).
Проблемы и ограничения
- ИИ хуже справляется с "грязными" задачами — неструктурированными или с неясной обратной связью.
- Модели редко сами ищут дополнительную информацию, что ограничивает их инициативность.
- Большой разрыв между 50% и 80% надежностью говорит о том, что стабильность пока далека от идеала.
В свежем исследовании METR анализируют способности ИИ - моделей временной горизонт задачи — это время, которое требуется человеку для выполнения задачи, и которое ИИ может выполнить с определенной вероятностью успеха.
В центре исследования находится 50%-временной горизонт — длительность задач, где ИИ достигает успеха в 50% случаев. Это своего рода "средняя точка" возможностей моделей, которая позволяет измерять их прогресс.
В исследовании говорится, что Claude 3.7 Sonnet от Anthropic показал наилучшие результаты среди тестируемых моделей - может с 50% вероятностью выполнять задачи, которые занимают у человека ~ 59 минут, что превосходит результаты o1, GPT-4o, Gemini-2.0 и DeepSeek-R1.
С 2019 года временной горизонт лучших моделей ИИ удваивается примерно каждые 7 месяцев.
Если поднять планку до 80% успеха, временной горизонт сокращается до примерно 15 минут. Это показывает, что надежность остается слабым местом даже у топовых моделей.
Если темпы роста сохранятся, к 2028–2031 годам ИИ сможет брать на себя задачи, эквивалентные месяцу человеческой работы (около 167 часов). Это открывает перспективы для автоматизации сложных проектов.
Что движет прогрессом?
- Улучшение логических способностей моделей.
- Более умелое использование инструментов.
- Повышение надежности и устойчивости к ошибкам.
- Рост самосознания моделей (понимания своих пределов).
Проблемы и ограничения
- ИИ хуже справляется с "грязными" задачами — неструктурированными или с неясной обратной связью.
- Модели редко сами ищут дополнительную информацию, что ограничивает их инициативность.
- Большой разрыв между 50% и 80% надежностью говорит о том, что стабильность пока далека от идеала.
metr.org
Measuring AI Ability to Complete Long Tasks
We propose measuring AI performance in terms of the *length* of tasks AI agents can complete. We show that this metric has been consistently exponentially increasing over the past 6 years, with a doubling time of around 7 months. Extrapolating this trend…
Forwarded from эйай ньюз
Gemini 2.5 Pro
Наконец-то reasoning завезли в Gemini Pro. На бенчах себя показывает очень хорошо — на нескольких это SOTA, в большей части бенчей модель проигрывает только multiple attempts режимам других LLM. Длина контекста у Gemini 2.5 Pro — миллион токенов, потом обещают завезти два. Модель мультимодальная, но нативную генерацию картинок не завезли (надеюсь пока что).
Экспериментальное превью уже доступно в AI Studio и подписчикам Gemini Advanced, цен на API пока что нет. Кстати, заметьте как раньше OpenAI релизила прямо перед релизами гугла, а сейчас всё наоборот.
Блогпост
@ai_newz
Наконец-то reasoning завезли в Gemini Pro. На бенчах себя показывает очень хорошо — на нескольких это SOTA, в большей части бенчей модель проигрывает только multiple attempts режимам других LLM. Длина контекста у Gemini 2.5 Pro — миллион токенов, потом обещают завезти два. Модель мультимодальная, но нативную генерацию картинок не завезли (надеюсь пока что).
Экспериментальное превью уже доступно в AI Studio и подписчикам Gemini Advanced, цен на API пока что нет. Кстати, заметьте как раньше OpenAI релизила прямо перед релизами гугла, а сейчас всё наоборот.
Блогпост
@ai_newz