Так, что нужно знать про сегодняшний день?
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
Да, релиз от OpenAI. Прошло 22 дня с момента релиза Gemini 2.5 Pro, как OpenAI зарелизил o3 и o4-mini которые по ходу сместят с пьедестала 2.5 Pro… Но к слову, они уже как с декабря активно работали над o3
НО и еще одна новость которая прошла незамеченной, напрямую связанная с нашей темой - https://github.com/openai/codex
Встречаем! Конкурент aider и claude code - openai codex! И в отличии от claude code - codex полностью в open source!
Как потестирую еще отпишусь
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
👍1
Это ответ почему я считаю, что RAG мертв. Конечно пока с RAG такое быстрее, но это вопрос времени
Forwarded from Machinelearning
arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).
Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате.
Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
Для установки и запуска сервера можно использовать следующие команды:
git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server
▪Github
#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Ну что, o4-mini заменило мне рабочую лошадку sonnet-3.7 thinking. От o3 у меня ощущения специфические, то есть это правда модель нового уровня, отличающаяся от всех предыдущих особенно на deep research.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
codex от openai кстати очень активно развивается, общественность на него прям накинулась и контрибутит pull requests, так что у aider будет полноценный конкурент. Я codex так же как и с Cursor запускаю в full-auto режиме отдельными ветками и получается devin 2 только без всей той мути что они там понаворотили, потом как код заработает смотрю дифы. Ну ждем как интеграция с gemini и grok3 завезут, будет интереснее.
❤5🔥1
Мой воркфлоу для вайб-кодинга (в любой точке мира):
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
— SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку.
— Termius + tmux — прямой туннель в свои сервера, хоть из поезда.
— Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
— Perplexity-MCP — подключён как контекстный помощник к Claude Code (через MCP).
В итоге — неважно, где ты: на берегу, в кафе или в аэропорту.
Рабочий контекст всегда с тобой, AI рядом, код идёт по вайбу.
👍2
Context7 + Cursor = актуальная дока прямо в AI
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
Зачем это нужно?
Большинство LLM по-прежнему не в курсе Next.js 15, Tailwind 4 и других свежих фреймворков. В результате — галлюцинации, устаревшие примеры, неработающий код.
Context7.com решает это: он подставляет живые фрагменты документации из оф. источников в запросы AI прямо в редакторе Cursor. Работает через MCP (Model Context Protocol), всё open-source и бесплатно.
Что умеет:
— Парсит и индексирует свежую доку из реп и сайтов
— Возвращает реальные примеры кода
— Работает даже без API-ключей
— Умно фильтрует и добавляет только нужные куски (экономит токены)
Как подключить в Cursor:
1. Установи Node.js 18+
2. Добавь в ~/.cursor/mcp.json:
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}3. Перезапусти Cursor
4. В запросе к ассистенту добавляй use context7
Пример:
“Как работает middleware в Next.js? use context7”
Где полезно:
— Работа с новыми API
— Командная разработка
— Быстрый онбординг
— Уверенность, что код не устарел
Офф. гитхаб: github.com/upstash/context7-mcp
GitHub
GitHub - upstash/context7: Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors - upstash/context7
❤1👍1
Audio
https://labs.google/fx/ru/tools/music-fx
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
Вот вам результат промпта: Прекрасный Drum n Bass в стиле муми тролей
Google очень активно работает над GenAI медиа. Veo2 потрясает, НО MusicFX тоже прям норм
AI Coder
Мой воркфлоу для вайб-кодинга (в любой точке мира): — SuperWhisper (iOS/macOS) в режиме vibe: надиктовал — получил готовое ТЗ под выбранную сетку. — Termius + tmux — прямой туннель в свои сервера, хоть из поезда. — Codex / Claude Code — работа с кодом через…
Друзья, я случайно внес ошибку в текст
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
Codex / Claude Code — работа с кодом через LLM, развёрнутые в облаке.
А было локально.
Конечно же эти инструменты у меня в облаке. И сообще все всегда в git + docker-compose/kubernetes и разворачивается по конфигам. Весь девопс на на claude code.
OpenAI выпустили свой док о том как делать агентов. Ну тут конечно Agents SDK + function tool вместо MCP) https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
👍2
Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое
В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCPВ perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1
🧠 Новая методика работы с AI для интеграции фичей в код 💻
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
👍6💯3✍1
🚨 Anthropic запускает Development Partner Program!
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
Anthropic официально включила Claude Code в подписку Max! Теперь пользователи Max могут работать с кодом прямо из терминала - писать, анализировать, рефакторить и автоматизировать проекты с помощью Claude, не переплачивая за отдельные сервисы. Это особенно выгодно для тех, кто активно использует ИИ для разработки и автоматизации. 💻⚡️
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости