AI Coder – Telegram
AI Coder
290 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
Google прям атакует! А я ждал и говорил об этом!

🤖 Google Agent Development Kit (ADK): Открытый фреймворк для создания ИИ-агентов

🔍 Google представил Agent Development Kit (ADK) — открытый Python-фреймворк для разработки и развертывания интеллектуальных агентов. Репозиторий https://github.com/google/adk-python предлагает гибкий и модульный инструментарий для создания сложных ИИ-решений с максимальным контролем.

Ключевые возможности ADK

🔄 Гибкая оркестрация
ADK позволяет определять различные типы рабочих процессов: последовательные, параллельные и циклические. Это обеспечивает как предсказуемое выполнение задач, так и адаптивное поведение за счет динамической маршрутизации на основе LLM.

👥 Мультиагентная архитектура
Создавайте модульные и масштабируемые приложения, объединяя специализированных агентов в иерархические структуры. Такой подход реализует сложные схемы координации и делегирования задач.

🛠️ Богатая экосистема инструментов
Фреймворк предоставляет доступ к разнообразным инструментам: предустановленным (поиск, выполнение кода), пользовательским функциям, интеграциям со сторонними библиотеками (LangChain, CrewAI) и даже использованию других агентов в качестве инструментов.

🚀 Готовность к развертыванию
ADK позволяет контейнеризировать и развертывать агентов где угодно — локально, в Vertex AI Agent Engine или в собственной инфраструктуре через Cloud Run или Docker.

🏁 Как начать работу
⌨️ Установка ADK выполняется через pip:
pip install google-adk

📚 Официальная документация предлагает подробное руководство по быстрому старту для создания базового агента и запуска его локально в терминале или веб-интерфейсе.

💡 Для практического обучения доступен репозиторий с готовыми решениями: https://github.com/google/adk-samples. Он содержит коллекцию функциональных агентов для различных сценариев — от простых чат-ботов до сложных мультиагентных рабочих процессов.

🔗 ADK тесно интегрирован с экосистемой Google и моделями Gemini, что особенно удобно для разработчиков, работающих с Google Cloud. При этом фреймворк поддерживает популярные LLM и инструменты генеративного ИИ с открытым исходным кодом.

🌟 Если вы интересуетесь разработкой ИИ-агентов или ищете гибкий инструмент для создания интеллектуальных приложений, ADK определенно заслуживает вашего внимания.

#AI #Google #Development #Python #OpenSource #ИИ #Разработка
🔥2
Forwarded from e/acc
Media is too big
VIEW IN TELEGRAM
Google представил расширение MCP, которое действительно делает его полезным, позволяя агентам обмениваться информацией между собой.
👍1
Маск все догоняет, но пока еще нет
Forwarded from эйай ньюз
Для Grok 3 вышло API

Дают доступ к двум моделям — Grok 3 и Grok 3 Mini. Контекст — 131к для обеих моделей. Reasoning (в двух режимах — low и high) есть только у Mini версии — изначально на презентации она с ризонингом была заметно лучше полноценного Grok 3. Тогда сказали что это из-за более долгого обучения Mini модели и что полноценную они ещё дообучат, видимо что-то произошло, если за два месяца это сделать не вышло.

Цена — $3/$15 за миллион токенов для Grok 3 и $0.3/$0.5 за Grok 3 Mini. Но это со стандартной скоростью, есть ещё и fast mode для обеих моделей, где стоимость выше — $5/$25 для Grok 3 и $0.5/$4 для Mini. Самое смешное, что не смотря на высокую цену, fast режим сейчас заметно медленнее (по замерам OpenRouter).

Впечатления какие-то смешанные — с одной стороны Grok 3 Mini очень сильная, при этом заметно дешевле o3 mini. С другой стороны полноценному Grok 3 конкурировать предстоит с Gemini 2.5 Pro, GPT 4.5 и Sonnet 3.7, а это крайне сильные конкуренты, у каждого из которых есть что-то, что Grok 3 дать не в состоянии.

x.ai/api

@ai_newz
👍1🗿1
Quasar alpha это ChatGPT 5?
🤔1
Как сделать AI-кодинг без багов и "галлюцинаций"? 💻

Друзья, который помогает AI (например, в Cursor или Claude Code) работать без ошибок! Секрет в том, чтобы "загрузить" модель максимально структурированным контекстом — тогда она не будет придумывать лишнего. 🛠️

Для этого нужно подготовить подробные документы, которые четко опишут проект. Иначе AI может начать генерировать нерабочий код, дублировать файлы или даже удалять готовое. 😱

📋 Какие документы нужны:
1️⃣ Техническое задание (ТЗ) — обзор проекта, целевая аудитория, функции, технический стек.
2️⃣ Документ с описанием потока приложения — пошаговый сценарий работы приложения (без списков, чтобы AI не запутался).
3️⃣ Документ с техническим стеком — какие технологии используем (например, Python, Next.js, PostgreSQL).
4️⃣ Руководство по интерфейсу — стили, библиотеки для интерфейса, шрифты, требования к скорости загрузки.
5️⃣ Структура серверной части — схемы базы данных, таблицы, авторизация.
6️⃣ План реализации — план из 50 шагов, чтобы AI шел по четкому пути.

Без такого подхода AI может "залететь" в цикл ошибок.

Кто уже пробовал так работать с AI? Делитесь опытом! 🚀 #AI #кодинг #разработка
Много говорим про нейросети, но кажется, пора обсудить их по-серьёзному!) . Почему, несмотря на весь хайп, генеративный ИИ так и не стал полноценным стандартом в разработке?

Я вижу три ключевых проблемы:

1. Психология. Разработчики по-прежнему боятся потерять навыки или быть заменёнными ИИ. Джуны переживают, что за подсказки от Copilot их будут считать несамостоятельными. А сеньоры просто не доверяют качеству предложений от нейросетей — по опросам, всего 3% разработчиков полностью доверяют AI-инструментам. Остальные относятся с осторожностью или скепсисом.

2. Профессиональные сложности. Нейросети часто предлагают решения, которые увеличивают технический долг или требуют дополнительных усилий на code review и отладку. По статистике, более половины разработчиков говорят, что на отладку сгенерированного кода тратится больше времени, чем на свой собственный. Плюс возрастает число уязвимостей — до 68% специалистов сталкивались с проблемами безопасности.

3. Технические ограничения. Современные инструменты пока плохо понимают контекст вашего проекта. Например, Copilot смотрит только текущий файл и не видит всей картины репозитория. Из-за этого советы часто оказываются бесполезными или устаревшими. Да и вопрос лицензий тоже актуален — нейросеть случайно может вставить кусок кода, защищённый авторскими правами.

Кто больше всего выигрывает от ИИ? На практике джуны получают серьёзный буст в продуктивности, но рискуют привыкнуть к готовым ответам и не развиваться самостоятельно. Сеньоры осторожнее относятся к подсказкам, но эффективно снимают с себя рутину. Оптимальный вариант — комбинировать новичков с энтузиазмом и опытных специалистов, контролирующих качество решений.

Как внедрять нейросети правильно:
• Начинайте с простых и безопасных задач (тесты, документация, рефакторинг legacy).
• Чётко ставьте цели и рамки (что доверяем ИИ, что проверяем вручную).
• Обязательно проводить review и тестировать любой сгенерированный код.
• Организуйте обучение команды навыкам prompt engineering и грамотного использования AI.
• Формируйте культуру, где пользоваться нейросетью — это норма и признак профессионализма, а не повод для стыда.

Успешных кейсов уже немало. Например, крупные банки (Capital One, Goldman Sachs) сэкономили месяцы времени на разборе legacy-кода и оптимизации бизнес-логики. Стартапы из Y Combinator с помощью ИИ выпускают MVP буквально за пару дней, а корпорации вроде ZoomInfo фиксируют повышение скорости разработки до 55%.

Мой совет — не откладывать. Нейросети уже не будущее, а реальность. Разработчиков, умеющих эффективно использовать ИИ, никто не заменит — наоборот, они быстро заменят тех, кто решит игнорировать эту технологию. Лучше начать адаптироваться сейчас, пока есть возможность делать это постепенно и с комфортом.
👍5
🔥 MCP, агенты и автоматизация данных: а что с RAG?

Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:

1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.

2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.

3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.

4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.

5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.

⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
👍3
Прислали на тему A2A… Ну есть над чем подумать)))
😁4🥰1😭1
Так, что нужно знать про сегодняшний день?

Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3

НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex

Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!

Как потестирую еще отпишусь
👍1
Так, ну чо, ща свой бенч посмотрю
Зарядил дип ресерч на o3…. Это что-то новенькое
🤣1
Приятно, что aider bench уже стандарт дефакто. Ну то есть o3-high набирает 81.3%, у gemini 2.5 pro 03 25 - 72.9%! 8.4% up
А вот он и топ-3! И как видно если смотреть цена/качество, то gemini 2.5 pro 03-25 остается лидером
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
🔥 ArXiv MCP Server

arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).

Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате. 

Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
🟢 Загрузка статьи download_paper — хранит PDF/метаданные локально, чтобы не дергать arXiv повторно.
🟢Список локальных статей list_papers.
🟢Чтение содержимого read_paper — отдаёт текст постранично.
🟢Готовые исследовательские промпты — например, deep-paper-analysis, который строит полное ревью (summary, методология, импликации, дальнейшая работа и т.д.). 

🌟 Установка:

Для установки и запуска сервера можно использовать следующие команды:​


git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server



Github

#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.

codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
5🔥1
Вот по этой ссылке: https://github.com/jaacob/perplexity-mcp

Очень круто работает. Особенно с sonar-reasoning-pro
Мой воркфлоу для вайб-кодинга (в любой точке мира):

SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).

В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI

Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.

Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.

Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)

Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:

"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}


3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”

Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел

Офф. гитхаб: github.com/upstash/context7-mcp
1👍1