Forwarded from эйай ньюз
Для Grok 3 вышло API
Дают доступ к двум моделям — Grok 3 и Grok 3 Mini. Контекст — 131к для обеих моделей. Reasoning (в двух режимах — low и high) есть только у Mini версии — изначально на презентации она с ризонингом была заметно лучше полноценного Grok 3. Тогда сказали что это из-за более долгого обучения Mini модели и что полноценную они ещё дообучат, видимо что-то произошло, если за два месяца это сделать не вышло.
Цена — $3/$15 за миллион токенов для Grok 3 и $0.3/$0.5 за Grok 3 Mini. Но это со стандартной скоростью, есть ещё и fast mode для обеих моделей, где стоимость выше — $5/$25 для Grok 3 и $0.5/$4 для Mini. Самое смешное, что не смотря на высокую цену, fast режим сейчас заметно медленнее (по замерам OpenRouter).
Впечатления какие-то смешанные — с одной стороны Grok 3 Mini очень сильная, при этом заметно дешевле o3 mini. С другой стороны полноценному Grok 3 конкурировать предстоит с Gemini 2.5 Pro, GPT 4.5 и Sonnet 3.7, а это крайне сильные конкуренты, у каждого из которых есть что-то, что Grok 3 дать не в состоянии.
x.ai/api
@ai_newz
Дают доступ к двум моделям — Grok 3 и Grok 3 Mini. Контекст — 131к для обеих моделей. Reasoning (в двух режимах — low и high) есть только у Mini версии — изначально на презентации она с ризонингом была заметно лучше полноценного Grok 3. Тогда сказали что это из-за более долгого обучения Mini модели и что полноценную они ещё дообучат, видимо что-то произошло, если за два месяца это сделать не вышло.
Цена — $3/$15 за миллион токенов для Grok 3 и $0.3/$0.5 за Grok 3 Mini. Но это со стандартной скоростью, есть ещё и fast mode для обеих моделей, где стоимость выше — $5/$25 для Grok 3 и $0.5/$4 для Mini. Самое смешное, что не смотря на высокую цену, fast режим сейчас заметно медленнее (по замерам OpenRouter).
Впечатления какие-то смешанные — с одной стороны Grok 3 Mini очень сильная, при этом заметно дешевле o3 mini. С другой стороны полноценному Grok 3 конкурировать предстоит с Gemini 2.5 Pro, GPT 4.5 и Sonnet 3.7, а это крайне сильные конкуренты, у каждого из которых есть что-то, что Grok 3 дать не в состоянии.
x.ai/api
@ai_newz
👍1🗿1
Как сделать AI-кодинг без багов и "галлюцинаций"? 💻
Друзья, который помогает AI (например, в Cursor или Claude Code) работать без ошибок! Секрет в том, чтобы "загрузить" модель максимально структурированным контекстом — тогда она не будет придумывать лишнего. 🛠️
Для этого нужно подготовить подробные документы, которые четко опишут проект. Иначе AI может начать генерировать нерабочий код, дублировать файлы или даже удалять готовое. 😱
📋 Какие документы нужны:
1️⃣ Техническое задание (ТЗ) — обзор проекта, целевая аудитория, функции, технический стек.
2️⃣ Документ с описанием потока приложения — пошаговый сценарий работы приложения (без списков, чтобы AI не запутался).
3️⃣ Документ с техническим стеком — какие технологии используем (например, Python, Next.js, PostgreSQL).
4️⃣ Руководство по интерфейсу — стили, библиотеки для интерфейса, шрифты, требования к скорости загрузки.
5️⃣ Структура серверной части — схемы базы данных, таблицы, авторизация.
6️⃣ План реализации — план из 50 шагов, чтобы AI шел по четкому пути.
Без такого подхода AI может "залететь" в цикл ошибок.
Кто уже пробовал так работать с AI? Делитесь опытом! 🚀 #AI #кодинг #разработка
Друзья, который помогает AI (например, в Cursor или Claude Code) работать без ошибок! Секрет в том, чтобы "загрузить" модель максимально структурированным контекстом — тогда она не будет придумывать лишнего. 🛠️
Для этого нужно подготовить подробные документы, которые четко опишут проект. Иначе AI может начать генерировать нерабочий код, дублировать файлы или даже удалять готовое. 😱
📋 Какие документы нужны:
1️⃣ Техническое задание (ТЗ) — обзор проекта, целевая аудитория, функции, технический стек.
2️⃣ Документ с описанием потока приложения — пошаговый сценарий работы приложения (без списков, чтобы AI не запутался).
3️⃣ Документ с техническим стеком — какие технологии используем (например, Python, Next.js, PostgreSQL).
4️⃣ Руководство по интерфейсу — стили, библиотеки для интерфейса, шрифты, требования к скорости загрузки.
5️⃣ Структура серверной части — схемы базы данных, таблицы, авторизация.
6️⃣ План реализации — план из 50 шагов, чтобы AI шел по четкому пути.
Без такого подхода AI может "залететь" в цикл ошибок.
Кто уже пробовал так работать с AI? Делитесь опытом! 🚀 #AI #кодинг #разработка
Много говорим про нейросети, но кажется, пора обсудить их по-серьёзному!) . Почему, несмотря на весь хайп, генеративный ИИ так и не стал полноценным стандартом в разработке?
Я вижу три ключевых проблемы:
1. Психология. Разработчики по-прежнему боятся потерять навыки или быть заменёнными ИИ. Джуны переживают, что за подсказки от Copilot их будут считать несамостоятельными. А сеньоры просто не доверяют качеству предложений от нейросетей — по опросам, всего 3% разработчиков полностью доверяют AI-инструментам. Остальные относятся с осторожностью или скепсисом.
2. Профессиональные сложности. Нейросети часто предлагают решения, которые увеличивают технический долг или требуют дополнительных усилий на code review и отладку. По статистике, более половины разработчиков говорят, что на отладку сгенерированного кода тратится больше времени, чем на свой собственный. Плюс возрастает число уязвимостей — до 68% специалистов сталкивались с проблемами безопасности.
3. Технические ограничения. Современные инструменты пока плохо понимают контекст вашего проекта. Например, Copilot смотрит только текущий файл и не видит всей картины репозитория. Из-за этого советы часто оказываются бесполезными или устаревшими. Да и вопрос лицензий тоже актуален — нейросеть случайно может вставить кусок кода, защищённый авторскими правами.
Кто больше всего выигрывает от ИИ? На практике джуны получают серьёзный буст в продуктивности, но рискуют привыкнуть к готовым ответам и не развиваться самостоятельно. Сеньоры осторожнее относятся к подсказкам, но эффективно снимают с себя рутину. Оптимальный вариант — комбинировать новичков с энтузиазмом и опытных специалистов, контролирующих качество решений.
Как внедрять нейросети правильно:
• Начинайте с простых и безопасных задач (тесты, документация, рефакторинг legacy).
• Чётко ставьте цели и рамки (что доверяем ИИ, что проверяем вручную).
• Обязательно проводить review и тестировать любой сгенерированный код.
• Организуйте обучение команды навыкам prompt engineering и грамотного использования AI.
• Формируйте культуру, где пользоваться нейросетью — это норма и признак профессионализма, а не повод для стыда.
Успешных кейсов уже немало. Например, крупные банки (Capital One, Goldman Sachs) сэкономили месяцы времени на разборе legacy-кода и оптимизации бизнес-логики. Стартапы из Y Combinator с помощью ИИ выпускают MVP буквально за пару дней, а корпорации вроде ZoomInfo фиксируют повышение скорости разработки до 55%.
Мой совет — не откладывать. Нейросети уже не будущее, а реальность. Разработчиков, умеющих эффективно использовать ИИ, никто не заменит — наоборот, они быстро заменят тех, кто решит игнорировать эту технологию. Лучше начать адаптироваться сейчас, пока есть возможность делать это постепенно и с комфортом.
Я вижу три ключевых проблемы:
1. Психология. Разработчики по-прежнему боятся потерять навыки или быть заменёнными ИИ. Джуны переживают, что за подсказки от Copilot их будут считать несамостоятельными. А сеньоры просто не доверяют качеству предложений от нейросетей — по опросам, всего 3% разработчиков полностью доверяют AI-инструментам. Остальные относятся с осторожностью или скепсисом.
2. Профессиональные сложности. Нейросети часто предлагают решения, которые увеличивают технический долг или требуют дополнительных усилий на code review и отладку. По статистике, более половины разработчиков говорят, что на отладку сгенерированного кода тратится больше времени, чем на свой собственный. Плюс возрастает число уязвимостей — до 68% специалистов сталкивались с проблемами безопасности.
3. Технические ограничения. Современные инструменты пока плохо понимают контекст вашего проекта. Например, Copilot смотрит только текущий файл и не видит всей картины репозитория. Из-за этого советы часто оказываются бесполезными или устаревшими. Да и вопрос лицензий тоже актуален — нейросеть случайно может вставить кусок кода, защищённый авторскими правами.
Кто больше всего выигрывает от ИИ? На практике джуны получают серьёзный буст в продуктивности, но рискуют привыкнуть к готовым ответам и не развиваться самостоятельно. Сеньоры осторожнее относятся к подсказкам, но эффективно снимают с себя рутину. Оптимальный вариант — комбинировать новичков с энтузиазмом и опытных специалистов, контролирующих качество решений.
Как внедрять нейросети правильно:
• Начинайте с простых и безопасных задач (тесты, документация, рефакторинг legacy).
• Чётко ставьте цели и рамки (что доверяем ИИ, что проверяем вручную).
• Обязательно проводить review и тестировать любой сгенерированный код.
• Организуйте обучение команды навыкам prompt engineering и грамотного использования AI.
• Формируйте культуру, где пользоваться нейросетью — это норма и признак профессионализма, а не повод для стыда.
Успешных кейсов уже немало. Например, крупные банки (Capital One, Goldman Sachs) сэкономили месяцы времени на разборе legacy-кода и оптимизации бизнес-логики. Стартапы из Y Combinator с помощью ИИ выпускают MVP буквально за пару дней, а корпорации вроде ZoomInfo фиксируют повышение скорости разработки до 55%.
Мой совет — не откладывать. Нейросети уже не будущее, а реальность. Разработчиков, умеющих эффективно использовать ИИ, никто не заменит — наоборот, они быстро заменят тех, кто решит игнорировать эту технологию. Лучше начать адаптироваться сейчас, пока есть возможность делать это постепенно и с комфортом.
👍5
🔥 MCP, агенты и автоматизация данных: а что с RAG?
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
Сегодня активно погрузился в детали Model Context Protocol (MCP), и есть несколько ключевых мыслей, которыми хочу поделиться:
1️⃣ Суть MCP — в простоте и универсальности
MCP состоит всего из трёх компонентов: функции (tools), ресурсы и промпты. Самое интересное — именно функции: MCP позволяет нейросетям легко вызывать заранее заданные действия по идентификаторам, что упрощает интеграцию нейросетей с внешними сервисами и источниками данных.
2️⃣ Управление контекстом критически важно
Любая реализация MCP требует строгого контроля размера контекста диалогов. Без правильного подхода к очистке (по TTL, размеру и возможности ручного сброса) расходы могут быстро выйти из-под контроля.
3️⃣ MCP как мощный инструмент интеграции данных
Одно из главных преимуществ MCP — возможность быстро подключать новые источники данных, избегая необходимости вручную писать сложные коннекторы. Это ускоряет и упрощает интеграцию, особенно в быстро меняющихся условиях.
4️⃣ Google A2A — будущее взаимодействия агентов
Отдельно стоит отметить движение Google A2A (Agent-to-Agent). Google создал фреймворк на основе MCP, в котором агенты могут самостоятельно договариваться между собой о протоколах взаимодействия и совместно решать задачи без вмешательства человека. Это открывает огромные перспективы, ставя под вопрос будущее традиционных решений и привычных архитектур.
Важно, что Google A2A будет сильно сокращать время разработки, так как носит кумулятивный характер: чем больше готовых компонентов-агентов, тем проще и быстрее будет создавать сложные решения. Всё это напоминает подход LEGO — когда из уже существующих кубиков можно собрать практически любую конструкцию, просто комбинируя их по-новому.
5️⃣ А что с RAG?
Есть серьёзные сомнения в долгосрочной перспективе традиционного подхода Retrieval-Augmented Generation (RAG). Хотя сегодня он ещё используется, в конечном итоге его, скорее всего, полностью заменит MCP — благодаря своей универсальности и гибкости. В MCP нейросеть сама делает суммаризацию и выборку информации, что по сути напоминает подход sliding window с агрегатором, аналогично механизму Cursor в базах данных.
⚡️ Итого:
Сейчас идеальный момент внедрять MCP, пока технология не стала стандартом. Именно MCP и агентное взаимодействие (A2A) имеют все шансы сформировать будущее автоматизации и управления данными 🚀
👍3
Попросил gemini 2.5 pro визуализировать репу http://github.com/google/A2A
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
И вот что получилось http://dpolishuk.github.io/a2a-tutor/
GitHub
GitHub - a2aproject/A2A: An open protocol enabling communication and interoperability between opaque agentic applications.
An open protocol enabling communication and interoperability between opaque agentic applications. - a2aproject/A2A
🔥3👍1
Так, что нужно знать про сегодняшний день?
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
👍1
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).
Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате.
Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
Для установки и запуска сервера можно использовать следующие команды:
git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server
▪Github
#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
❤5🔥1
Мой воркфлоу для вайб-кодинга (в любой точке мира):
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
GitHub
GitHub - upstash/context7: Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors - upstash/context7
❤1👍1
Audio
https://labs.google/fx/ru/tools/music-fx
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
AI Coder
Мой воркфлоу для вайб-кодинга (в любой точке мира): — SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку. — Termius + tmux — прямой туннель в свои сервера, хоть из поезда. — Codex / Claude Code — работа с кодом через…
Друзья, я случайно внес ошибку в текст
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.