Отличный обзор базовых промптов для разработки https://www.youtube.com/watch?v=uDJUwls-Gpw
ТОП-5 инструментов для повышения продуктивности:
1️⃣ SuperWhishper — бесплатная программа для голосового набора кода в ЛЮБОМ приложении
2️⃣ cursorrules — задаем контекст для AI (кодстайл, корпоративные правила)
3️⃣ Ручная настройка контекста вместо Auto Edits/Requests
4️⃣ Прикрепление документации вручную — больше предсказуемости
5️⃣ Правильно составленные промты (главное оружие!)
Язык промтов: русский vs английский
🔹 Для современных моделей (Claude 3.5, GPT 4.0+) принципиальной разницы НЕТ
🔹 Но! Технический контекст лучше воспринимается на английском
🔹 Короткие запросы — на любом языке
🔹 Объемные тексты — лучше на английском
🔥 СУПЕР-ЭФФЕКТИВНЫЕ ПРОМТЫ (сохраняйте себе!)
"Чем меньше строк кода, тем лучше" — получаем компактные решения
"Действуй как крутой разработчик" — фокусируем модель на нужных компетенциях
"Не останавливайся, пока не реализуешь функцию до конца" — получаем завершенный код
"Разбей на необходимые шаги" — избегаем лишнего функционала
"Перед продолжением дай краткое описание текущего состояния" — освежаем контекст
Продвинутые стратегии:
💡 Просите рассуждать перед написанием кода
💡 Запрашивайте несколько вариантов решения (А, Б, В)
💡 Используйте промты для фильтрации результатов поиска
💡 Делегируйте сбор информации самой модели
ТОП-5 инструментов для повышения продуктивности:
1️⃣ SuperWhishper — бесплатная программа для голосового набора кода в ЛЮБОМ приложении
2️⃣ cursorrules — задаем контекст для AI (кодстайл, корпоративные правила)
3️⃣ Ручная настройка контекста вместо Auto Edits/Requests
4️⃣ Прикрепление документации вручную — больше предсказуемости
5️⃣ Правильно составленные промты (главное оружие!)
Язык промтов: русский vs английский
🔹 Для современных моделей (Claude 3.5, GPT 4.0+) принципиальной разницы НЕТ
🔹 Но! Технический контекст лучше воспринимается на английском
🔹 Короткие запросы — на любом языке
🔹 Объемные тексты — лучше на английском
🔥 СУПЕР-ЭФФЕКТИВНЫЕ ПРОМТЫ (сохраняйте себе!)
"Чем меньше строк кода, тем лучше" — получаем компактные решения
"Действуй как крутой разработчик" — фокусируем модель на нужных компетенциях
"Не останавливайся, пока не реализуешь функцию до конца" — получаем завершенный код
"Разбей на необходимые шаги" — избегаем лишнего функционала
"Перед продолжением дай краткое описание текущего состояния" — освежаем контекст
Продвинутые стратегии:
💡 Просите рассуждать перед написанием кода
💡 Запрашивайте несколько вариантов решения (А, Б, В)
💡 Используйте промты для фильтрации результатов поиска
💡 Делегируйте сбор информации самой модели
YouTube
480 часов с Cursor: как я упростил себе кодинг с AI
25 марта по 1 апреля — 7-дневный Марафон/Хакатон
Как правильно генерировать код, какими промтами? Есть целые промтовские базы, и я хотел для себя выделить ключевые топ-5, топ-10, на которые стоит обратить внимание. Понять зачем они мне и что дают. Не перебирая…
Как правильно генерировать код, какими промтами? Есть целые промтовские базы, и я хотел для себя выделить ключевые топ-5, топ-10, на которые стоит обратить внимание. Понять зачем они мне и что дают. Не перебирая…
Forwarded from e/acc
Прям только что Мета выпустила свою очередную серию SoTA моделей LLaMa 4. Самая маленькая может работать на одной видеокарте (с 80GB памяти) и бьет по бенчмаркам Gemma и аналоги, а самая большая — Бегемот — хоть и немного, но по заявлениям круче чем GPT-4.5 (хотя сравнивать стоит с Gemini 2.5 Pro). Про Грок и Сонет, которые вышли меньше месяца назад все уже забыли. Таймлайн ускоряется.
Подробный пост с анонсами всех фич и крутостей модели вот тут.
Из самых интересных вещей это 10М токенов окно контекста. То есть туда можно в одном промте можно загрузить целиком небольшую школьную библиотеку или базу кода на пару миллионов строк и попросить найти/изменить одну строчку.
Все модели мультимодальные (теперь стандарт) и это пока еще не reasoning (думающие) варианты.
Nothing stops this train. До ASI со всеми остановками.
Подробный пост с анонсами всех фич и крутостей модели вот тут.
Из самых интересных вещей это 10М токенов окно контекста. То есть туда можно в одном промте можно загрузить целиком небольшую школьную библиотеку или базу кода на пару миллионов строк и попросить найти/изменить одну строчку.
Все модели мультимодальные (теперь стандарт) и это пока еще не reasoning (думающие) варианты.
Nothing stops this train. До ASI со всеми остановками.
🔥2
📢 Новый подход к кодированию с Gemini Pro 2.5!
Друзья, делюсь интересным опытом от @cj_zZZz! После 20+ часов тестирования он рассказал, как использует связку моделей Gemini Pro 2.5, Claude 3.5 Sonnet и GPT o1 для эффективного кодирования. Вот ключевые выводы:
🔹 Gemini Pro 2.5 — лидер: 80% времени используется именно эта модель от Google. Она отлично справляется с планированием, анализом больших кодовых баз и генерацией кода с первого раза.
🔹 Claude 3.5 Sonnet и GPT o1 — помощники: по 10% времени для решения сложных задач и исправления ошибок.
🔹 Важность документации: Чтобы избежать галлюцинаций модели, важно прикреплять подробные документы (PRD, тех. стек, правила проекта).
🔹 Интеграция с инструментами: Gemini Pro 2.5 идеально работает с @CodeGuidedev — генерация документации и пошаговое кодирование стали проще.
🔹 Игры и визуализация: Модель особенно хороша для работы с Three.js — создание игр и иллюстраций на высоте.
🔹 Цены и доступность: Gemini Pro 2.5 дешевле конкурентов (от $1.25 за ввод), а Google увеличил лимиты запросов даже для бесплатного тарифа.
⚠️ Нюансы: Gemini может путаться, если запросы нечеткие, а контекст свыше 400K токенов иногда вызывает проблемы. Но с правильным подходом это мощный инструмент!
🔗 Подробности: [ссылка на пост](https://x.com/cj_zZZz/status/1908910331855855827)
#AI #Coding #GeminiPro #Программирование #Технологии
Друзья, делюсь интересным опытом от @cj_zZZz! После 20+ часов тестирования он рассказал, как использует связку моделей Gemini Pro 2.5, Claude 3.5 Sonnet и GPT o1 для эффективного кодирования. Вот ключевые выводы:
🔹 Gemini Pro 2.5 — лидер: 80% времени используется именно эта модель от Google. Она отлично справляется с планированием, анализом больших кодовых баз и генерацией кода с первого раза.
🔹 Claude 3.5 Sonnet и GPT o1 — помощники: по 10% времени для решения сложных задач и исправления ошибок.
🔹 Важность документации: Чтобы избежать галлюцинаций модели, важно прикреплять подробные документы (PRD, тех. стек, правила проекта).
🔹 Интеграция с инструментами: Gemini Pro 2.5 идеально работает с @CodeGuidedev — генерация документации и пошаговое кодирование стали проще.
🔹 Игры и визуализация: Модель особенно хороша для работы с Three.js — создание игр и иллюстраций на высоте.
🔹 Цены и доступность: Gemini Pro 2.5 дешевле конкурентов (от $1.25 за ввод), а Google увеличил лимиты запросов даже для бесплатного тарифа.
⚠️ Нюансы: Gemini может путаться, если запросы нечеткие, а контекст свыше 400K токенов иногда вызывает проблемы. Но с правильным подходом это мощный инструмент!
🔗 Подробности: [ссылка на пост](https://x.com/cj_zZZz/status/1908910331855855827)
#AI #Coding #GeminiPro #Программирование #Технологии
X (formerly Twitter)
CJ Zafir (@cjzafir) on X
Google's Gemini Pro 2.5 is the best AI coding model right now.
I use Gemini 2.5 + Sonnet 3.5 + GPT o1 models in my new coding workflow.
After using it for 20 hours, here're my finding: ↓
I use Gemini 2.5 + Sonnet 3.5 + GPT o1 models in my new coding workflow.
After using it for 20 hours, here're my finding: ↓
👍2
Google прям атакует! А я ждал и говорил об этом!
🤖 Google Agent Development Kit (ADK): Открытый фреймворк для создания ИИ-агентов
🔍 Google представил Agent Development Kit (ADK) — открытый Python-фреймворк для разработки и развертывания интеллектуальных агентов. Репозиторий https://github.com/google/adk-python предлагает гибкий и модульный инструментарий для создания сложных ИИ-решений с максимальным контролем.
✨ Ключевые возможности ADK
🔄 Гибкая оркестрация
ADK позволяет определять различные типы рабочих процессов: последовательные, параллельные и циклические. Это обеспечивает как предсказуемое выполнение задач, так и адаптивное поведение за счет динамической маршрутизации на основе LLM.
👥 Мультиагентная архитектура
Создавайте модульные и масштабируемые приложения, объединяя специализированных агентов в иерархические структуры. Такой подход реализует сложные схемы координации и делегирования задач.
🛠️ Богатая экосистема инструментов
Фреймворк предоставляет доступ к разнообразным инструментам: предустановленным (поиск, выполнение кода), пользовательским функциям, интеграциям со сторонними библиотеками (LangChain, CrewAI) и даже использованию других агентов в качестве инструментов.
🚀 Готовность к развертыванию
ADK позволяет контейнеризировать и развертывать агентов где угодно — локально, в Vertex AI Agent Engine или в собственной инфраструктуре через Cloud Run или Docker.
🏁 Как начать работу
⌨️ Установка ADK выполняется через pip:
📚 Официальная документация предлагает подробное руководство по быстрому старту для создания базового агента и запуска его локально в терминале или веб-интерфейсе.
💡 Для практического обучения доступен репозиторий с готовыми решениями: https://github.com/google/adk-samples. Он содержит коллекцию функциональных агентов для различных сценариев — от простых чат-ботов до сложных мультиагентных рабочих процессов.
🔗 ADK тесно интегрирован с экосистемой Google и моделями Gemini, что особенно удобно для разработчиков, работающих с Google Cloud. При этом фреймворк поддерживает популярные LLM и инструменты генеративного ИИ с открытым исходным кодом.
🌟 Если вы интересуетесь разработкой ИИ-агентов или ищете гибкий инструмент для создания интеллектуальных приложений, ADK определенно заслуживает вашего внимания.
#AI #Google #Development #Python #OpenSource #ИИ #Разработка
🤖 Google Agent Development Kit (ADK): Открытый фреймворк для создания ИИ-агентов
🔍 Google представил Agent Development Kit (ADK) — открытый Python-фреймворк для разработки и развертывания интеллектуальных агентов. Репозиторий https://github.com/google/adk-python предлагает гибкий и модульный инструментарий для создания сложных ИИ-решений с максимальным контролем.
✨ Ключевые возможности ADK
🔄 Гибкая оркестрация
ADK позволяет определять различные типы рабочих процессов: последовательные, параллельные и циклические. Это обеспечивает как предсказуемое выполнение задач, так и адаптивное поведение за счет динамической маршрутизации на основе LLM.
👥 Мультиагентная архитектура
Создавайте модульные и масштабируемые приложения, объединяя специализированных агентов в иерархические структуры. Такой подход реализует сложные схемы координации и делегирования задач.
🛠️ Богатая экосистема инструментов
Фреймворк предоставляет доступ к разнообразным инструментам: предустановленным (поиск, выполнение кода), пользовательским функциям, интеграциям со сторонними библиотеками (LangChain, CrewAI) и даже использованию других агентов в качестве инструментов.
🚀 Готовность к развертыванию
ADK позволяет контейнеризировать и развертывать агентов где угодно — локально, в Vertex AI Agent Engine или в собственной инфраструктуре через Cloud Run или Docker.
🏁 Как начать работу
⌨️ Установка ADK выполняется через pip:
pip install google-adk📚 Официальная документация предлагает подробное руководство по быстрому старту для создания базового агента и запуска его локально в терминале или веб-интерфейсе.
💡 Для практического обучения доступен репозиторий с готовыми решениями: https://github.com/google/adk-samples. Он содержит коллекцию функциональных агентов для различных сценариев — от простых чат-ботов до сложных мультиагентных рабочих процессов.
🔗 ADK тесно интегрирован с экосистемой Google и моделями Gemini, что особенно удобно для разработчиков, работающих с Google Cloud. При этом фреймворк поддерживает популярные LLM и инструменты генеративного ИИ с открытым исходным кодом.
🌟 Если вы интересуетесь разработкой ИИ-агентов или ищете гибкий инструмент для создания интеллектуальных приложений, ADK определенно заслуживает вашего внимания.
#AI #Google #Development #Python #OpenSource #ИИ #Разработка
GitHub
GitHub - google/adk-python: An open-source, code-first Python toolkit for building, evaluating, and deploying sophisticated AI…
An open-source, code-first Python toolkit for building, evaluating, and deploying sophisticated AI agents with flexibility and control. - google/adk-python
🔥2
Forwarded from e/acc
Media is too big
VIEW IN TELEGRAM
Google представил расширение MCP, которое действительно делает его полезным, позволяя агентам обмениваться информацией между собой.
👍1
Forwarded from эйай ньюз
Для Grok 3 вышло API
Дают доступ к двум моделям — Grok 3 и Grok 3 Mini. Контекст — 131к для обеих моделей. Reasoning (в двух режимах — low и high) есть только у Mini версии — изначально на презентации она с ризонингом была заметно лучше полноценного Grok 3. Тогда сказали что это из-за более долгого обучения Mini модели и что полноценную они ещё дообучат, видимо что-то произошло, если за два месяца это сделать не вышло.
Цена — $3/$15 за миллион токенов для Grok 3 и $0.3/$0.5 за Grok 3 Mini. Но это со стандартной скоростью, есть ещё и fast mode для обеих моделей, где стоимость выше — $5/$25 для Grok 3 и $0.5/$4 для Mini. Самое смешное, что не смотря на высокую цену, fast режим сейчас заметно медленнее (по замерам OpenRouter).
Впечатления какие-то смешанные — с одной стороны Grok 3 Mini очень сильная, при этом заметно дешевле o3 mini. С другой стороны полноценному Grok 3 конкурировать предстоит с Gemini 2.5 Pro, GPT 4.5 и Sonnet 3.7, а это крайне сильные конкуренты, у каждого из которых есть что-то, что Grok 3 дать не в состоянии.
x.ai/api
@ai_newz
Дают доступ к двум моделям — Grok 3 и Grok 3 Mini. Контекст — 131к для обеих моделей. Reasoning (в двух режимах — low и high) есть только у Mini версии — изначально на презентации она с ризонингом была заметно лучше полноценного Grok 3. Тогда сказали что это из-за более долгого обучения Mini модели и что полноценную они ещё дообучат, видимо что-то произошло, если за два месяца это сделать не вышло.
Цена — $3/$15 за миллион токенов для Grok 3 и $0.3/$0.5 за Grok 3 Mini. Но это со стандартной скоростью, есть ещё и fast mode для обеих моделей, где стоимость выше — $5/$25 для Grok 3 и $0.5/$4 для Mini. Самое смешное, что не смотря на высокую цену, fast режим сейчас заметно медленнее (по замерам OpenRouter).
Впечатления какие-то смешанные — с одной стороны Grok 3 Mini очень сильная, при этом заметно дешевле o3 mini. С другой стороны полноценному Grok 3 конкурировать предстоит с Gemini 2.5 Pro, GPT 4.5 и Sonnet 3.7, а это крайне сильные конкуренты, у каждого из которых есть что-то, что Grok 3 дать не в состоянии.
x.ai/api
@ai_newz
👍1🗿1
Как сделать AI-кодинг без багов и "галлюцинаций"? 💻
Друзья, который помогает AI (например, в Cursor или Claude Code) работать без ошибок! Секрет в том, чтобы "загрузить" модель максимально структурированным контекстом — тогда она не будет придумывать лишнего. 🛠️
Для этого нужно подготовить подробные документы, которые четко опишут проект. Иначе AI может начать генерировать нерабочий код, дублировать файлы или даже удалять готовое. 😱
📋 Какие документы нужны:
1️⃣ Техническое задание (ТЗ) — обзор проекта, целевая аудитория, функции, технический стек.
2️⃣ Документ с описанием потока приложения — пошаговый сценарий работы приложения (без списков, чтобы AI не запутался).
3️⃣ Документ с техническим стеком — какие технологии используем (например, Python, Next.js, PostgreSQL).
4️⃣ Руководство по интерфейсу — стили, библиотеки для интерфейса, шрифты, требования к скорости загрузки.
5️⃣ Структура серверной части — схемы базы данных, таблицы, авторизация.
6️⃣ План реализации — план из 50 шагов, чтобы AI шел по четкому пути.
Без такого подхода AI может "залететь" в цикл ошибок.
Кто уже пробовал так работать с AI? Делитесь опытом! 🚀 #AI #кодинг #разработка
Друзья, который помогает AI (например, в Cursor или Claude Code) работать без ошибок! Секрет в том, чтобы "загрузить" модель максимально структурированным контекстом — тогда она не будет придумывать лишнего. 🛠️
Для этого нужно подготовить подробные документы, которые четко опишут проект. Иначе AI может начать генерировать нерабочий код, дублировать файлы или даже удалять готовое. 😱
📋 Какие документы нужны:
1️⃣ Техническое задание (ТЗ) — обзор проекта, целевая аудитория, функции, технический стек.
2️⃣ Документ с описанием потока приложения — пошаговый сценарий работы приложения (без списков, чтобы AI не запутался).
3️⃣ Документ с техническим стеком — какие технологии используем (например, Python, Next.js, PostgreSQL).
4️⃣ Руководство по интерфейсу — стили, библиотеки для интерфейса, шрифты, требования к скорости загрузки.
5️⃣ Структура серверной части — схемы базы данных, таблицы, авторизация.
6️⃣ План реализации — план из 50 шагов, чтобы AI шел по четкому пути.
Без такого подхода AI может "залететь" в цикл ошибок.
Кто уже пробовал так работать с AI? Делитесь опытом! 🚀 #AI #кодинг #разработка
Много говорим про нейросети, но кажется, пора обсудить их по-серьёзному!) . Почему, несмотря на весь хайп, генеративный ИИ так и не стал полноценным стандартом в разработке?
Я вижу три ключевых проблемы:
1. Психология. Разработчики по-прежнему боятся потерять навыки или быть заменёнными ИИ. Джуны переживают, что за подсказки от Copilot их будут считать несамостоятельными. А сеньоры просто не доверяют качеству предложений от нейросетей — по опросам, всего 3% разработчиков полностью доверяют AI-инструментам. Остальные относятся с осторожностью или скепсисом.
2. Профессиональные сложности. Нейросети часто предлагают решения, которые увеличивают технический долг или требуют дополнительных усилий на code review и отладку. По статистике, более половины разработчиков говорят, что на отладку сгенерированного кода тратится больше времени, чем на свой собственный. Плюс возрастает число уязвимостей — до 68% специалистов сталкивались с проблемами безопасности.
3. Технические ограничения. Современные инструменты пока плохо понимают контекст вашего проекта. Например, Copilot смотрит только текущий файл и не видит всей картины репозитория. Из-за этого советы часто оказываются бесполезными или устаревшими. Да и вопрос лицензий тоже актуален — нейросеть случайно может вставить кусок кода, защищённый авторскими правами.
Кто больше всего выигрывает от ИИ? На практике джуны получают серьёзный буст в продуктивности, но рискуют привыкнуть к готовым ответам и не развиваться самостоятельно. Сеньоры осторожнее относятся к подсказкам, но эффективно снимают с себя рутину. Оптимальный вариант — комбинировать новичков с энтузиазмом и опытных специалистов, контролирующих качество решений.
Как внедрять нейросети правильно:
• Начинайте с простых и безопасных задач (тесты, документация, рефакторинг legacy).
• Чётко ставьте цели и рамки (что доверяем ИИ, что проверяем вручную).
• Обязательно проводить review и тестировать любой сгенерированный код.
• Организуйте обучение команды навыкам prompt engineering и грамотного использования AI.
• Формируйте культуру, где пользоваться нейросетью — это норма и признак профессионализма, а не повод для стыда.
Успешных кейсов уже немало. Например, крупные банки (Capital One, Goldman Sachs) сэкономили месяцы времени на разборе legacy-кода и оптимизации бизнес-логики. Стартапы из Y Combinator с помощью ИИ выпускают MVP буквально за пару дней, а корпорации вроде ZoomInfo фиксируют повышение скорости разработки до 55%.
Мой совет — не откладывать. Нейросети уже не будущее, а реальность. Разработчиков, умеющих эффективно использовать ИИ, никто не заменит — наоборот, они быстро заменят тех, кто решит игнорировать эту технологию. Лучше начать адаптироваться сейчас, пока есть возможность делать это постепенно и с комфортом.
Я вижу три ключевых проблемы:
1. Психология. Разработчики по-прежнему боятся потерять навыки или быть заменёнными ИИ. Джуны переживают, что за подсказки от Copilot их будут считать несамостоятельными. А сеньоры просто не доверяют качеству предложений от нейросетей — по опросам, всего 3% разработчиков полностью доверяют AI-инструментам. Остальные относятся с осторожностью или скепсисом.
2. Профессиональные сложности. Нейросети часто предлагают решения, которые увеличивают технический долг или требуют дополнительных усилий на code review и отладку. По статистике, более половины разработчиков говорят, что на отладку сгенерированного кода тратится больше времени, чем на свой собственный. Плюс возрастает число уязвимостей — до 68% специалистов сталкивались с проблемами безопасности.
3. Технические ограничения. Современные инструменты пока плохо понимают контекст вашего проекта. Например, Copilot смотрит только текущий файл и не видит всей картины репозитория. Из-за этого советы часто оказываются бесполезными или устаревшими. Да и вопрос лицензий тоже актуален — нейросеть случайно может вставить кусок кода, защищённый авторскими правами.
Кто больше всего выигрывает от ИИ? На практике джуны получают серьёзный буст в продуктивности, но рискуют привыкнуть к готовым ответам и не развиваться самостоятельно. Сеньоры осторожнее относятся к подсказкам, но эффективно снимают с себя рутину. Оптимальный вариант — комбинировать новичков с энтузиазмом и опытных специалистов, контролирующих качество решений.
Как внедрять нейросети правильно:
• Начинайте с простых и безопасных задач (тесты, документация, рефакторинг legacy).
• Чётко ставьте цели и рамки (что доверяем ИИ, что проверяем вручную).
• Обязательно проводить review и тестировать любой сгенерированный код.
• Организуйте обучение команды навыкам prompt engineering и грамотного использования AI.
• Формируйте культуру, где пользоваться нейросетью — это норма и признак профессионализма, а не повод для стыда.
Успешных кейсов уже немало. Например, крупные банки (Capital One, Goldman Sachs) сэкономили месяцы времени на разборе legacy-кода и оптимизации бизнес-логики. Стартапы из Y Combinator с помощью ИИ выпускают MVP буквально за пару дней, а корпорации вроде ZoomInfo фиксируют повышение скорости разработки до 55%.
Мой совет — не откладывать. Нейросети уже не будущее, а реальность. Разработчиков, умеющих эффективно использовать ИИ, никто не заменит — наоборот, они быстро заменят тех, кто решит игнорировать эту технологию. Лучше начать адаптироваться сейчас, пока есть возможность делать это постепенно и с комфортом.
👍5
🔥 MCP, агенты и автоматизация данных: а что с RAG?
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
👍3
Попросил gemini 2.5 pro визуализировать репу http://github.com/google/A2A
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
GitHub
GitHub - a2aproject/A2A: An open protocol enabling communication and interoperability between opaque agentic applications.
An open protocol enabling communication and interoperability between opaque agentic applications. - a2aproject/A2A
🔥3👍1
Так, что нужно знать про сегодняшний день?
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
👍1
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).
Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате.
Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
Для установки и запуска сервера можно использовать следующие команды:
git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server
▪Github
#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1