Forwarded from Data Secrets
Claude Opus написал статью-ответ на ту самую резонансную работу Apple «The Illusion of Thinking»
Его дисс называется The Illusion of the Illusion of Thinking, и Opus в нем числится первым из двух авторов. Вот эта папира, лежит на arxiv.
Док небольшой, всего три страницы. Если кратко, Клод предъявляет ряд претензий к дизайну экспериментов Apple. Вот основные:
1️⃣ Автоматическая система оценки работала неправильно. Она засчитывала ответ только если модель могла явно перечислить все шаги решения, не различая ситуацию «не могу» и «могу, но не буду перечислять всё». Также некорректными были исходные метрики сложности задач: авторы считали ее просто по числу шагов, не учитывая количество вариантов решения, NP сложность и другие нюансы.
2️⃣ Авторы давали модели нерешаемые задачи. Например, тестировали River Crossing с
N ≥ 6 при вместимости лодки 3. Такие задачи математически не имеют решений, но модели все равно получают 0 баллов за «провал».
3️⃣ Ограничений по длине ризонинга не должно было быть. Якобы в задачах типа Башни Ханоя модели не провалились в рассуждениях, как утверждается в оригинале, а остановились из-за ограничения на количество токенов. При этом если попросить вывести ответ в другом формате (например, написать функцию для решения задачи) – все работает.
Ризонинг-модель пишет диссы на человеческую статью про ризонинг. Добро пожаловать в 2025☠️
Его дисс называется The Illusion of the Illusion of Thinking, и Opus в нем числится первым из двух авторов. Вот эта папира, лежит на arxiv.
Док небольшой, всего три страницы. Если кратко, Клод предъявляет ряд претензий к дизайну экспериментов Apple. Вот основные:
N ≥ 6 при вместимости лодки 3. Такие задачи математически не имеют решений, но модели все равно получают 0 баллов за «провал».
Ризонинг-модель пишет диссы на человеческую статью про ризонинг. Добро пожаловать в 2025
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3✍1👀1
🤑 Сделка: Cursor взлетает до $10B. Стартап Anysphere (создатель AI-инструмента Cursor) привлёк рекордные $900 млн инвестиций при оценке ~$9,9 млрд . Cursor – флагман «vibe coding» (кодинг на естественном языке) и прямой конкурент Replit, Windsurf (Codeium) и др. . Компания растёт взрывно (выручка удваивается каждые ~2 месяца ), генерируя до миллиарда строк кода в день – инвесторы уверены, что перед ними следующий tech-гигант.
https://www.youtube.com/watch?v=BGgsoIgbT_Y
После интервью показалось что их Anthropic купит) Но посмотрим
https://www.youtube.com/watch?v=BGgsoIgbT_Y
После интервью показалось что их Anthropic купит) Но посмотрим
YouTube
How Cursor is building the future of AI coding with Claude
Cursor’s Jacob Jackson, Lukas Möller and Aman Sanger join Anthropic's Alex Albert to talk about the changing landscape of software development.
0:00 Introduction
0:34 Cursor’s growth
1:57 Progression of models
3:09 Building Cursor with Cursor
5:17 Spectrum…
0:00 Introduction
0:34 Cursor’s growth
1:57 Progression of models
3:09 Building Cursor with Cursor
5:17 Spectrum…
Ура! Наконец-то вышел этот доклад от Андрея Карпаты!
С пылу, с жару вам overview:
🤖⚡️ Digest для Telegram‑канала: «AI Coding с Андреем Карпаты»
🗓 Когда: 19 июня 2025
📍 Где: YC AI Startup School, Сан‑Франциско
🎙 Тема доклада: «Software is Changing (Again)»
⸻
🚀 Ключевые идеи
1️⃣ Software 3.0 → «📝 промпт = программа»
Бизнес‑логику всё чаще описывают текстом для LLM, а не кодом; «машинный интеллект» уже переписывает легаси‑системы.
2️⃣ LLM = новый «компьютер» 🖥
Модели выступают и как коммунальная услуга ⚡️, и как фабрика 🏭, и как ОС 🛠. Доступ к интеллекту становится базовым ресурсом.
3️⃣ Психология моделей 🧠
Jagged Intelligence — велики в алгебре, но путают 9.11 > 9.9.
Anterograde Amnesia — не запоминают новое; нужна внешняя память 💾.
4️⃣ «Держите ИИ на поводке» 🪢
LLM пишет тысячи строк за секунды, но разработчик остаётся «бутылочным горлышком» — маленькие итерации, чёткие промпты и ручная верификация ✅.
5️⃣ Ползунок автономности 🎚
Выбирайте уровень: autocomplete ➡️ агент. Побеждает короткий цикл генерация → верификация 🔄.
6️⃣ Vibe Coding ≠ production 🚧
Быстрый демо‑UI по промпту — это ещё не готовый продукт. Между «вау‑эффектом» и продом всё так же пропасть, особенно в web‑стеке 🌐.
7️⃣ Интерфейсы «для агентов» 🤝
Появляется третий пользователь — AI‑агент. Пишите llms.txt, чтобы документация и API были понятны моделям 🤖.
⸻
🛠 Практические шаги
• 🔹 Разбивайте задачи на крошечные шаги, формулируйте конкретные промпты.
• 🔹 Автоматизируйте верификацию кода — тесты, статический анализ, CI 🚦.
• 🔹 Добавляйте долговременную память (кэши, базы знаний) к LLM‑потокам 🗄.
• 🔹 Проектируйте сервисы так, чтобы их могли вызывать и люди, и агенты 🤖.
🎥 Полное видео на YouTube / 📑 Слайды доступны в описании ролика.
https://www.youtube.com/watch?v=LCEmiRjPEtQ
Поделитесь в комментариях, какую часть генерация‑верификация уже закрывает в вашем стеке!
С пылу, с жару вам overview:
🤖⚡️ Digest для Telegram‑канала: «AI Coding с Андреем Карпаты»
🗓 Когда: 19 июня 2025
📍 Где: YC AI Startup School, Сан‑Франциско
🎙 Тема доклада: «Software is Changing (Again)»
⸻
🚀 Ключевые идеи
1️⃣ Software 3.0 → «📝 промпт = программа»
Бизнес‑логику всё чаще описывают текстом для LLM, а не кодом; «машинный интеллект» уже переписывает легаси‑системы.
2️⃣ LLM = новый «компьютер» 🖥
Модели выступают и как коммунальная услуга ⚡️, и как фабрика 🏭, и как ОС 🛠. Доступ к интеллекту становится базовым ресурсом.
3️⃣ Психология моделей 🧠
Jagged Intelligence — велики в алгебре, но путают 9.11 > 9.9.
Anterograde Amnesia — не запоминают новое; нужна внешняя память 💾.
4️⃣ «Держите ИИ на поводке» 🪢
LLM пишет тысячи строк за секунды, но разработчик остаётся «бутылочным горлышком» — маленькие итерации, чёткие промпты и ручная верификация ✅.
5️⃣ Ползунок автономности 🎚
Выбирайте уровень: autocomplete ➡️ агент. Побеждает короткий цикл генерация → верификация 🔄.
6️⃣ Vibe Coding ≠ production 🚧
Быстрый демо‑UI по промпту — это ещё не готовый продукт. Между «вау‑эффектом» и продом всё так же пропасть, особенно в web‑стеке 🌐.
7️⃣ Интерфейсы «для агентов» 🤝
Появляется третий пользователь — AI‑агент. Пишите llms.txt, чтобы документация и API были понятны моделям 🤖.
⸻
🛠 Практические шаги
• 🔹 Разбивайте задачи на крошечные шаги, формулируйте конкретные промпты.
• 🔹 Автоматизируйте верификацию кода — тесты, статический анализ, CI 🚦.
• 🔹 Добавляйте долговременную память (кэши, базы знаний) к LLM‑потокам 🗄.
• 🔹 Проектируйте сервисы так, чтобы их могли вызывать и люди, и агенты 🤖.
🎥 Полное видео на YouTube / 📑 Слайды доступны в описании ролика.
https://www.youtube.com/watch?v=LCEmiRjPEtQ
Поделитесь в комментариях, какую часть генерация‑верификация уже закрывает в вашем стеке!
YouTube
Andrej Karpathy: Software Is Changing (Again)
Andrej Karpathy's keynote on June 17, 2025 at AI Startup School in San Francisco. Slides provided by Andrej: https://drive.google.com/file/d/1a0h1mkwfmV2PlekxDN8isMrDA5evc4wW/view?usp=sharing
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
👍3
Рубрика полезнятина!
GitMCP — мгновенный MCP-сервер для любого GitHub-репозитория
1. Как это работает
Просто замените github.com на gitmcp.io, получив URL вида https://gitmcp.io/owner/repo. Добавьте этот адрес в Cursor, Claude, Windsurf, VS Code или любой другой инструмент, поддерживающий Model Context Protocol, и ассистент начнёт читать живой код и документацию вашего проекта прямо во время ответа.
2. Зачем это нужно
Ассистенты перестают «галлюцинировать», отвечают по актуальной версии кода, быстро находят примеры API и даже самые свежие изменения. GitMCP полностью открыт, бесплатен и не требует установки — всё работает в облаке.
3. Примеры использования
• github.com/microsoft/typenoscript → gitmcp.io/microsoft/typenoscript
• langchain-ai.github.io/langgraph → langchain-ai.gitmcp.io/langgraph
• Универсальный эндпоинт: gitmcp.io/docs — ассистент сам выберет нужный репозиторий «на лету».
4. Поддерживаемые ассистенты
Cursor, Claude Desktop, Windsurf, VS Code, Cline, Highlight AI, Augment Code и любые другие MCP-клиенты.
5. Статус проекта
⭐ 3 100+ на GitHub, лицензия Apache-2.0, коммьюнити приветствует контрибьюторов.
🛠 Попробовать легко: зайдите на https://gitmcp.io/, вставьте URL репозитория и скопируйте полученный MCP-адрес в свой ИИ-инструмент.
➡️ Делитесь опытом в комментариях!
GitMCP — мгновенный MCP-сервер для любого GitHub-репозитория
1. Как это работает
Просто замените github.com на gitmcp.io, получив URL вида https://gitmcp.io/owner/repo. Добавьте этот адрес в Cursor, Claude, Windsurf, VS Code или любой другой инструмент, поддерживающий Model Context Protocol, и ассистент начнёт читать живой код и документацию вашего проекта прямо во время ответа.
2. Зачем это нужно
Ассистенты перестают «галлюцинировать», отвечают по актуальной версии кода, быстро находят примеры API и даже самые свежие изменения. GitMCP полностью открыт, бесплатен и не требует установки — всё работает в облаке.
3. Примеры использования
• github.com/microsoft/typenoscript → gitmcp.io/microsoft/typenoscript
• langchain-ai.github.io/langgraph → langchain-ai.gitmcp.io/langgraph
• Универсальный эндпоинт: gitmcp.io/docs — ассистент сам выберет нужный репозиторий «на лету».
4. Поддерживаемые ассистенты
Cursor, Claude Desktop, Windsurf, VS Code, Cline, Highlight AI, Augment Code и любые другие MCP-клиенты.
5. Статус проекта
⭐ 3 100+ на GitHub, лицензия Apache-2.0, коммьюнити приветствует контрибьюторов.
🛠 Попробовать легко: зайдите на https://gitmcp.io/, вставьте URL репозитория и скопируйте полученный MCP-адрес в свой ИИ-инструмент.
➡️ Делитесь опытом в комментариях!
gitmcp.io
Instantly create an MCP server for any GitHub project
Кто из читателей активно использует mem0 ?
Anonymous Poll
15%
Знаю и активно использую
20%
Знаю и не использую
65%
Не знаю что это такое вообще
Полный клон Claude Code! Встречайте! На самом деле это очень хорошая новость, что это большой рынок теперь куда все идут
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
• Лёгкий и мощный инструмент для разработки в командной строке
• Код агента в открытом доступе (Apache 2.0)
• Поддержка контекста в 1 миллион токенов
• Бесплатный тариф: до 60 запросов в минуту и 1000 в день
• Привязка к Google Search
• Поддержка плагинов и скриптов
• Интеграция с VS Code (Gemini Code Assist)
@ai_machinelearning_big_data
#AI #ML #agent #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🤖 Taskmaster-AI + MCP — «скрам-бот» для вашего IDE
v0.18.0 • 21 июня 2025 • 16 500★ на GitHub
⸻
🛠️ Что это такое?
Taskmaster-AI — open-source CLI/сервер, который превращает чат-панель LLM в полноценный таск-трекер: парсит PRD, строит иерархию задач, следит за прогрессом и подсказывает «следующий шаг». Работает через Model Context Protocol (MCP), поэтому подключается одной ссылкой в Cursor, VS Code, Roo и других IDE.
⸻
🚀 Почему стоит попробовать?
• ✨ Multi-LLM — Anthropic, OpenAI, Gemini, xAI, Mistral, Perplexity: переключайтесь без переделки кода
• 🔖 Tagged Lists — изолируйте контексты задач для A/B-веток или командной работы
• 🔍 Research-команда — подтягивает свежие best practice и доки («research jwt auth»)
• 📝 PRD-parser — превращает prd.txt в структурированный backlog с оценкой сложности
• 🔗 Глубокая MCP-интеграция — все команды доступны прямо из чата IDE
• 🌳 Git-friendly — хранит задачи в репозитории, поддерживает worktree и хук-автодобавление
⸻
⚡ Быстрый старт через MCP
# 1 Откройте ссылку (Cursor 1.0+):
cursor://anysphere.cursor-deeplink/mcp/install?name=taskmaster-ai&config=...
# 2 Добавьте API-ключи в ~/.cursor/mcp.json
# 3 В чате IDE:
Initialize taskmaster-ai in my project
⸻
🆕 Что нового в 0.18.0
➕ Rule Profiles — готовые пресеты для конкретных IDE
➕ Claude Code provider — локальные Opus/Sonnet без API-ключа
🔧 Больше Git-флагов (--git-tasks, --dry-run) и auto-detector worktree
🌐 Переопределяемый <PROVIDER>_BASE_URL — удобно при собственном LLM-прокси
⸻
💡 Лайфхаки
• ⚖️ Смешивайте роли LLM: main → Claude 3, research → Perplexity, fallback → Gemini 2.5 — баланс кода и фактов
• 🏷️ Теги = ветки: task-master use-tag feature-login + git switch -c feature/login держат код и задачи вместе
• 📜 История требований: update-task --append добавляет прогресс с тайм-штампом, не ломая саб-таски
⸻
🔗 Полезные ссылки
• GitHub: https://github.com/eyaltoledano/claude-task-master
• Документация — папка docs/ в репозитории
• Discord-чат проекта — ссылка в README
Тестируйте, делитесь отзывами и прокачивайте свой dev-процесс! 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - eyaltoledano/claude-task-master: An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo…
An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo, and others. - eyaltoledano/claude-task-master
🔥2
Machinelearning
Всем отличного вайб кодинга этим вечером! 🔥 🤙
Из плюсов Claude перестанет падать от нагрузки ☝🏻
Из плюсов Claude перестанет падать от нагрузки ☝🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👾2👏1
Machinelearning
Ну короче gemini-cli с бесплатными 1000 запросами в день это какой-то эксперимент чтоли. Ну вы представляете что самую мощную модель в мире раздали в виде агента бесплатно 1000 запросов в день?! И какой это объем рынка, который мы до сих пор даже не осознали
⚡2
🚀 Новинка в Claude Code: Hooks — ваши автоматические помощники в терминале
Зачем нужны hooks
Hooks — это произвольные shell‑команды, которые Claude Code запускает автоматически в определённые моменты своей работы. Они дают детерминированный контроль: вместо «надеяться, что LLM догадается», вы гарантируете, что нужное действие всегда выполнится. Основные сценарии:
• 🔔 Уведомления — отправлять сообщение в Slack, Telegram или system notify, когда Claude ждёт разрешения.
• 🧹 Автоформатирование — prettier для .ts, gofmt для .go сразу после любого правки файла.
• 📈 Логирование и аудит — писать каждую Bash‑команду Claude Code в отдельный журнал.
• 🚫 Безопасность — блокировать изменения в /config/prod/**, если кто‑то случайно попросит LLM туда писать.
Как это устроено
1. Конфигурация хранится в ~/.claude/settings.json, .claude/settings.json (проект) или .claude/settings.local.json (локально).
2. Структура: события → «matcher» (какой tool затронут) → массив команд.
3. Поддерживаемые события:
• PreToolUse — до вызова инструмента, можно заблокировать.
• PostToolUse — после успешного вызова, можно анализировать результат.
• Notification — когда Claude отправляет уведомление.
• Stop — когда сессия заканчивается.
5‑минутный Quickstart
# 1. Открой меню /hooks и выбери PreToolUse
# 2. Добавь matcher "Bash"
# 3. Добавь команду:
jq -r '"\(.tool_input.command) - \(.tool_input.denoscription // "No denoscription")"' \
>> ~/.claude/bash-command-log.txt
# 4. Сохрани в User settings
# 5. Проверка: /hooks снова или cat ~/.claude/settings.json
Теперь каждая Bash‑команда, которую Claude собирается выполнить, логируется в ~/.claude/bash-command-log.txt.
Что передаётся в скрипт
Hook получает JSON через stdin с полями: session_id, trannoscript_path, tool_name, tool_input и т.д. Возврат:
• exit 0 — всё ок; stdout увидит пользователь.
• exit 2 — блокировка; stderr пойдёт в Claude как фидбек.
• Или structured JSON с decision: "approve" | "block" и доп. полями continue, stopReason.
Советы по безопасности
• Тщательно проверяйте команды — они выполняются с вашими правами.
• Используйте абсолютные пути и валидацию параметров.
• Тестируйте в песочнице, прежде чем включать в боевом проекте.
⸻
💡 Hooks превращают Claude Code из «умного собеседника» в адаптивный инструмент, который подстраивается под процессы вашей команды. Подпишитесь, экспериментируйте и делитесь кейсами!
Зачем нужны hooks
Hooks — это произвольные shell‑команды, которые Claude Code запускает автоматически в определённые моменты своей работы. Они дают детерминированный контроль: вместо «надеяться, что LLM догадается», вы гарантируете, что нужное действие всегда выполнится. Основные сценарии:
• 🔔 Уведомления — отправлять сообщение в Slack, Telegram или system notify, когда Claude ждёт разрешения.
• 🧹 Автоформатирование — prettier для .ts, gofmt для .go сразу после любого правки файла.
• 📈 Логирование и аудит — писать каждую Bash‑команду Claude Code в отдельный журнал.
• 🚫 Безопасность — блокировать изменения в /config/prod/**, если кто‑то случайно попросит LLM туда писать.
Как это устроено
1. Конфигурация хранится в ~/.claude/settings.json, .claude/settings.json (проект) или .claude/settings.local.json (локально).
2. Структура: события → «matcher» (какой tool затронут) → массив команд.
3. Поддерживаемые события:
• PreToolUse — до вызова инструмента, можно заблокировать.
• PostToolUse — после успешного вызова, можно анализировать результат.
• Notification — когда Claude отправляет уведомление.
• Stop — когда сессия заканчивается.
5‑минутный Quickstart
# 1. Открой меню /hooks и выбери PreToolUse
# 2. Добавь matcher "Bash"
# 3. Добавь команду:
jq -r '"\(.tool_input.command) - \(.tool_input.denoscription // "No denoscription")"' \
>> ~/.claude/bash-command-log.txt
# 4. Сохрани в User settings
# 5. Проверка: /hooks снова или cat ~/.claude/settings.json
Теперь каждая Bash‑команда, которую Claude собирается выполнить, логируется в ~/.claude/bash-command-log.txt.
Что передаётся в скрипт
Hook получает JSON через stdin с полями: session_id, trannoscript_path, tool_name, tool_input и т.д. Возврат:
• exit 0 — всё ок; stdout увидит пользователь.
• exit 2 — блокировка; stderr пойдёт в Claude как фидбек.
• Или structured JSON с decision: "approve" | "block" и доп. полями continue, stopReason.
Советы по безопасности
• Тщательно проверяйте команды — они выполняются с вашими правами.
• Используйте абсолютные пути и валидацию параметров.
• Тестируйте в песочнице, прежде чем включать в боевом проекте.
⸻
💡 Hooks превращают Claude Code из «умного собеседника» в адаптивный инструмент, который подстраивается под процессы вашей команды. Подпишитесь, экспериментируйте и делитесь кейсами!
🔥4
/hooksКакие я использую?
Notification:
bash -c 'msg=$(jq -r .message); icon=\"🔔\"; [[ \"$msg\" =~ ^Running ]] && icon=\"🚀\"; [[ \"$msg\" =~ ^Error ]] && icon=\"❌\"; [[ \"$msg\" =~ ^Warning ]] && icon=\"⚠️\"; [[ \"$msg\" =~ ^Success|^Done|^Completed ]] && icon=\"✅\"; curl -s --data chat_id=$CLAUDE_TG_CHAT_ID --data-urlencode \"text=$icon $msg\" \"https://api.telegram.org/bot$CLAUDE_TG_TOKEN/sendMessage\" >/dev/null'Stop:
bash -c 'json=$(cat); session_id=$(echo \"$json\" | jq -r .session_id); trannoscript=$(echo \"$json\" | jq -r .trannoscript_path); if [ -f \"$trannoscript\" ]; then last_msg=$(tail -20 \"$trannoscript\" | while read line; do echo \"$line\" | jq -r \"select(.type == \\\"userMessage\\\" or .type == \\\"assistantMessage\\\") | .message // empty\" 2>/dev/null; done | grep -v \"^$\" | tail -1 | cut -c1-100); last_cmd=$(tail -20 \"$trannoscript\" | while read line; do echo \"$line\" | jq -r \"select(.type == \\\"command\\\") | .command // empty\" 2>/dev/null; done | grep -v \"^$\" | tail -1); cwd=$(tail -1 \"$trannoscript\" | jq -r .cwd 2>/dev/null); curl -s --data chat_id=$CLAUDE_TG_CHAT_ID --data-urlencode \"text=⏹️ Сессия завершена\n📁 $cwd\n💬 ${last_msg:+Промпт: $last_msg...}\n⚡ ${last_cmd:+Команда: $last_cmd}\" \"https://api.telegram.org/bot$CLAUDE_TG_TOKEN/sendMessage\" >/dev/null; fi'
https://gist.github.com/dpolishuk/09d8793dad79a405c30b9d0fe24ace30👍3🌚1
🚀 OpenCode — AI-агент для кодинга прямо в терминале
🔗 GitHub: https://github.com/opencode-ai/opencode
📚 Docs: https://opencode.ai/docs/
⸻
💡 Почему это интересно
• Нативный TUI. Красивый, отзывчивый, с темами (есть tokyonight и др.).
• Авто-LSP. Сам подгружает нужные LSP, чтобы LLM ошибался реже.
• Multi-session. Можно запускать несколько агентов параллельно в одном проекте.
• Share-links. Ссылки на сессии — удобно делиться и дебажить.
• 75+ моделей. Через Models.dev работают Anthropic, OpenAI, Google, локальные модели и др.
• Claude Pro/Max ready. Отдельная авторизация для экономии токенов.
• MIT license & active dev. ~6.8 k ⭐️ и обновления почти каждый день (последний релиз v0.0.55 от 27 июня 2025).
• Платформы. macOS/Linux — скрипт или brew/paru; Windows — ручная загрузка бинаря (пока).
⸻
⚙️ Установка за 30 секунд
🚀 Быстрый старт
⸻
🛠️ Типичные кейсы
• Генерировать или рефакторить код без переключения из терминала.
• Объяснить чужой проект: “opencode explain ./src”.
• Создать тесты: “write tests for file.go –style table”.
• Одновременно вести пару агентов (например, один — инженер-кодер, другой — ревьюер).
⸻
🔥 Чем лучше Gemini CLI / Claude Code
1. Открытый исходник — можно расширять под свои скрипты.
2. Провайдер-агностичность: подключайте хоть локальный Ollama, хоть Groq.
3. Более «живой» TUI: окно чата, дерево файлов, статус токенов и мыслей агента в ре-тайме.
⸻
😉 Попробуйте и напишите фидбек в issues — комьюнити растёт очень быстро!
#AICoding #OpenSource #CLI #DevTools
🔗 GitHub: https://github.com/opencode-ai/opencode
📚 Docs: https://opencode.ai/docs/
⸻
💡 Почему это интересно
• Нативный TUI. Красивый, отзывчивый, с темами (есть tokyonight и др.).
• Авто-LSP. Сам подгружает нужные LSP, чтобы LLM ошибался реже.
• Multi-session. Можно запускать несколько агентов параллельно в одном проекте.
• Share-links. Ссылки на сессии — удобно делиться и дебажить.
• 75+ моделей. Через Models.dev работают Anthropic, OpenAI, Google, локальные модели и др.
• Claude Pro/Max ready. Отдельная авторизация для экономии токенов.
• MIT license & active dev. ~6.8 k ⭐️ и обновления почти каждый день (последний релиз v0.0.55 от 27 июня 2025).
• Платформы. macOS/Linux — скрипт или brew/paru; Windows — ручная загрузка бинаря (пока).
⸻
⚙️ Установка за 30 секунд
# macOS/Linux
curl -fsSL https://opencode.ai/install | bash
# или
brew install sst/tap/opencode # macOS
paru -S opencode-bin # Arch Linux🚀 Быстрый старт
opencode auth login # выбрать провайдера и ввести API-ключ
opencode agent . # запустить ИИ-помощника в текущем репо⸻
🛠️ Типичные кейсы
• Генерировать или рефакторить код без переключения из терминала.
• Объяснить чужой проект: “opencode explain ./src”.
• Создать тесты: “write tests for file.go –style table”.
• Одновременно вести пару агентов (например, один — инженер-кодер, другой — ревьюер).
⸻
🔥 Чем лучше Gemini CLI / Claude Code
1. Открытый исходник — можно расширять под свои скрипты.
2. Провайдер-агностичность: подключайте хоть локальный Ollama, хоть Groq.
3. Более «живой» TUI: окно чата, дерево файлов, статус токенов и мыслей агента в ре-тайме.
⸻
😉 Попробуйте и напишите фидбек в issues — комьюнити растёт очень быстро!
#AICoding #OpenSource #CLI #DevTools
GitHub
GitHub - opencode-ai/opencode: A powerful AI coding agent. Built for the terminal.
A powerful AI coding agent. Built for the terminal. - opencode-ai/opencode
🔥2
Друзья! Как же приятно, что мой канал уже читает 103 человека !
😍 🫶🚀
Очень вам благодарен!
Очень вам благодарен!
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝14❤5🙏1
Оказывается, еще в мае выложили версию Plaud для Mac OS X. https://github.com/Plaud-AI/PLAUD-Desktop/releases.
Plaud это линейка умных транскрайберов для работы над большим потоком информации и ведения проектов 😉
Plaud это линейка умных транскрайберов для работы над большим потоком информации и ведения проектов 😉
GitHub
Releases · Plaud-AI/PLAUD-Desktop
PLAUD Desktop. Contribute to Plaud-AI/PLAUD-Desktop development by creating an account on GitHub.
👍3
Для тестирования интерфейсов использовал browser-use и playwright, но там везде были шероховатости. Нашел версию которая хорошо работает:
В чем плюс playwright еще раз - он может запускать браузер headless, то есть в фоне, и можно автоматизировать тестирование и запуск веб приложений очень просто
Так же можно напромптить чтоб модель его запускала сама (https://playwright.dev). Работает на всех ОС
Буквально, подключаете mcp playwright, дальше кидаете тест план модели и модель начинает тестировать интерфейс по вашему тестплану. Хозяйке на заметку
"playwright": {
"command": "npx",
"args": [
"-y",
"@executeautomation/playwright-mcp-server"
]
}В чем плюс playwright еще раз - он может запускать браузер headless, то есть в фоне, и можно автоматизировать тестирование и запуск веб приложений очень просто
Так же можно напромптить чтоб модель его запускала сама (https://playwright.dev). Работает на всех ОС
Буквально, подключаете mcp playwright, дальше кидаете тест план модели и модель начинает тестировать интерфейс по вашему тестплану. Хозяйке на заметку
playwright.dev
Fast and reliable end-to-end testing for modern web apps | Playwright
Cross-browser end-to-end testing for modern web apps
✍3
А с этой штукой на выходных поиграюсь https://github.com/mobile-next/mobile-mcp. Напишу свои заметки
GitHub
GitHub - mobile-next/mobile-mcp: Model Context Protocol Server for Mobile Automation and Scraping (iOS, Android, Emulators, Simulators…
Model Context Protocol Server for Mobile Automation and Scraping (iOS, Android, Emulators, Simulators and Real Devices) - mobile-next/mobile-mcp
❤1