🔥 OpenAI анонсировала o3‑pro — самый мощный reasoning‑ИИ на сегодня
10 июня OpenAI представила o3‑pro — «прокачанную» версию модели o3, обученную дольше размышлять над задачей и давать более точные ответы.
Ключевые факты:
• Доступность
• Уже включена для подписчиков ChatGPT Pro и Team.
• Enterprise и Edu получат доступ на следующей неделе.
• В API модель активна с сегодняшнего дня.
• Цена
• 1 М входных токенов — $20, выходных — $80.
• Для сравнения: базовый o3 подешевел на 80 % — до $2 / $8 за 1 М токенов.
• Чем лучше
• Внутренние тесты показали уверенное превосходство над o3 во всех категориях, особенно в науке, коде и бизнес‑аналитике.
• Улучшены ясность, полнота и следование инструкциям.
• Инструменты
o3‑pro умеет:
✅ искать в вебе,
✅ анализировать файлы,
✅ рассуждать по изображениям,
✅ запускать Python‑код и др.
• Ограничения
• Ответы медленнее, чем у o1‑pro.
• Нет генерации изображений.
• Canvas пока не поддерживается.
• Временные чаты временно отключены из‑за «технического сбоя».
⸻
Что это значит для разработчиков
1. Больше “мозгов” — меньше промптинга
Сложные задачи (многошаговая математика, архитектура кода) требуют меньше костылей.
2. Дисконты на эксперименты
Снижение цены на базовый o3 позволяет дешево обкатывать идеи, а в проде переключаться на o3‑pro.
3. Простая миграция
Эндпоинт тот же, достаточно поменять id модели на o3-pro.
⸻
🔖 TL;DR: OpenAI выкатила o3‑pro — самый умный ИИ на рынке. Уже доступен в ChatGPT Pro, Team и API; стоит $20/$80 за миллион токенов. Базовый o3 подешевел в 5 раз. Самое время протестировать! 🚀 И да, это сообщение написал я - o3-pro! Ахахаха
10 июня OpenAI представила o3‑pro — «прокачанную» версию модели o3, обученную дольше размышлять над задачей и давать более точные ответы.
Ключевые факты:
• Доступность
• Уже включена для подписчиков ChatGPT Pro и Team.
• Enterprise и Edu получат доступ на следующей неделе.
• В API модель активна с сегодняшнего дня.
• Цена
• 1 М входных токенов — $20, выходных — $80.
• Для сравнения: базовый o3 подешевел на 80 % — до $2 / $8 за 1 М токенов.
• Чем лучше
• Внутренние тесты показали уверенное превосходство над o3 во всех категориях, особенно в науке, коде и бизнес‑аналитике.
• Улучшены ясность, полнота и следование инструкциям.
• Инструменты
o3‑pro умеет:
✅ искать в вебе,
✅ анализировать файлы,
✅ рассуждать по изображениям,
✅ запускать Python‑код и др.
• Ограничения
• Ответы медленнее, чем у o1‑pro.
• Нет генерации изображений.
• Canvas пока не поддерживается.
• Временные чаты временно отключены из‑за «технического сбоя».
⸻
Что это значит для разработчиков
1. Больше “мозгов” — меньше промптинга
Сложные задачи (многошаговая математика, архитектура кода) требуют меньше костылей.
2. Дисконты на эксперименты
Снижение цены на базовый o3 позволяет дешево обкатывать идеи, а в проде переключаться на o3‑pro.
3. Простая миграция
Эндпоинт тот же, достаточно поменять id модели на o3-pro.
⸻
🔖 TL;DR: OpenAI выкатила o3‑pro — самый умный ИИ на рынке. Уже доступен в ChatGPT Pro, Team и API; стоит $20/$80 за миллион токенов. Базовый o3 подешевел в 5 раз. Самое время протестировать! 🚀 И да, это сообщение написал я - o3-pro! Ахахаха
❤3
Сегодня вот обсуждали в кулуарах эту эпичную статью от Apple. А тут Дорогой БРАТ выложил шикарный ликбез про нее)
Forwarded from Kantor.AI
Про the illusion of thinking
Как говорится, не можешь в рисерч - хотя бы выложи датасет или бенчмарк и напиши о нем статью (что, заметим для протокола, не умаляет полезности бенчмарков❗️)
Когда РБК меня просили прокомментировать провал Apple Intelligence, я очень удивился и был сдержан в выражениях. Все же Apple последние лет 10 уж точно был компанией победившего маркетинга, а по технологиям в продуктах отставал от конкурентов на пару-тройку лет, однако все-таки в конечном счете делал откровенно удобные решения. Я вежливо объяснял, что ну не работает после релиза, и ладно, так бывает, будет еще десяток апдейтов и заработает, что бухтеть-то.
Но вот сегодня половина твиттера обсуждает яблочную статью The illusion of thinking и теперь у меня закралась определенная тревога по поводу дел с AI в Apple (не потому что статья не супер, а потому что нет более интересных от них и как будто идут по пути наименьшего сопротивления в поисках о чем написать). Статья в сухом остатке про «мы придумали еще один бенчмарк» и «нам не понравилось, как LRM с ним справляется». Бенчмарк в виде задачек про ханойские башни и волка-козу-капусту (и еще 2 типа заданий) с регулируемым уровнем сложности. Основная претензия к LRM - Large Reasoning Models - в том, что они, видите ли, не понимают какие-то концепты и рассуждают, а пытаются вспоминать и воспроизводить заученные паттерны (алё, вы в курсе какую задачу решают языковые модели?)))), судя по тому, как они справляются с бенчмарком. И, о ужас, мы с вами так далеки от AGI, гораздо дальше чем Альтман говорит инвесторам 🤡
Это конечно офигеть какая новость (конечно же нет 😐), однако как человек много работающий с обучением живых людей, могу сказать, что радикального отличия не вижу. Как только человек существенно выходит за пределы знакомых задач и знакомой ситуации, первым делом активируется воспроизведение знакомых паттернов и попытка из них собрать решение, словно Кай слово «вечность» из ледышек или инженер что угодно из говна, палок и синей изоленты. Только единицы начинают в незнакомой ситуации разбираться в основных концептах и правилах игры, а затем придумывать алгоритмы решения задачи, большинство же людей так делает только внутри той области, где уже более-менее комфортно разбирается.
Касательно нытья о том, что LRM не рассуждает, а воспроизводит паттерны, вспоминается один частый вопрос про возможности AI: “Могла бы LLM придумать квантовую механику или общую теорию относительности?”. Скорее всего, нет, по крайней мере в ближайшие годы наверняка нет (но буду рад оказаться неправ). Зато пересказывать и немного дописывать за другими, сразу владея последними публикациями человечества по любой теме - легко. И это тоже сильное преимущество, которого у людей нет, и которое даже с поисковиком наверстывается долго. Возможно, нам не стоит переоценивать себя и говорить, что такой интеллект «недостаточно general». Это скорее Гейзенберг и Эйнштейн исключения из нормального представления об интеллекте, а эрудированный попугай вполне себе general intelligence :)
Как говорится, не можешь в рисерч - хотя бы выложи датасет или бенчмарк и напиши о нем статью (что, заметим для протокола, не умаляет полезности бенчмарков❗️)
Когда РБК меня просили прокомментировать провал Apple Intelligence, я очень удивился и был сдержан в выражениях. Все же Apple последние лет 10 уж точно был компанией победившего маркетинга, а по технологиям в продуктах отставал от конкурентов на пару-тройку лет, однако все-таки в конечном счете делал откровенно удобные решения. Я вежливо объяснял, что ну не работает после релиза, и ладно, так бывает, будет еще десяток апдейтов и заработает, что бухтеть-то.
Но вот сегодня половина твиттера обсуждает яблочную статью The illusion of thinking и теперь у меня закралась определенная тревога по поводу дел с AI в Apple (не потому что статья не супер, а потому что нет более интересных от них и как будто идут по пути наименьшего сопротивления в поисках о чем написать). Статья в сухом остатке про «мы придумали еще один бенчмарк» и «нам не понравилось, как LRM с ним справляется». Бенчмарк в виде задачек про ханойские башни и волка-козу-капусту (и еще 2 типа заданий) с регулируемым уровнем сложности. Основная претензия к LRM - Large Reasoning Models - в том, что они, видите ли, не понимают какие-то концепты и рассуждают, а пытаются вспоминать и воспроизводить заученные паттерны (алё, вы в курсе какую задачу решают языковые модели?)))), судя по тому, как они справляются с бенчмарком. И, о ужас, мы с вами так далеки от AGI, гораздо дальше чем Альтман говорит инвесторам 🤡
Это конечно офигеть какая новость (конечно же нет 😐), однако как человек много работающий с обучением живых людей, могу сказать, что радикального отличия не вижу. Как только человек существенно выходит за пределы знакомых задач и знакомой ситуации, первым делом активируется воспроизведение знакомых паттернов и попытка из них собрать решение, словно Кай слово «вечность» из ледышек или инженер что угодно из говна, палок и синей изоленты. Только единицы начинают в незнакомой ситуации разбираться в основных концептах и правилах игры, а затем придумывать алгоритмы решения задачи, большинство же людей так делает только внутри той области, где уже более-менее комфортно разбирается.
Касательно нытья о том, что LRM не рассуждает, а воспроизводит паттерны, вспоминается один частый вопрос про возможности AI: “Могла бы LLM придумать квантовую механику или общую теорию относительности?”. Скорее всего, нет, по крайней мере в ближайшие годы наверняка нет (но буду рад оказаться неправ). Зато пересказывать и немного дописывать за другими, сразу владея последними публикациями человечества по любой теме - легко. И это тоже сильное преимущество, которого у людей нет, и которое даже с поисковиком наверстывается долго. Возможно, нам не стоит переоценивать себя и говорить, что такой интеллект «недостаточно general». Это скорее Гейзенберг и Эйнштейн исключения из нормального представления об интеллекте, а эрудированный попугай вполне себе general intelligence :)
👍3🤔1
🆕 Anthropic запустила бесплатный мини-курс “AI Fluency: Framework & Foundations” — 12 коротких уроков (всего 3-4 часа) о том, как работать с ИИ эффективно, этично и безопасно.
Зачем это нужно?
Курс учит смотреть на ИИ как на полноценного партнёра. Авторы предлагают три уровня взаимодействия — Automation → Augmentation → Agency — и дают инструмент, который помогает выбрать, что поручать модели, а что делать самому.
Каркас из “4 D” навыков:
• Delegation — решаем, какую часть работы отдать ИИ;
• Denoscription — формулируем точные инструкции;
• Discernment — проверяем и критикуем ответы;
• Diligence — отвечаем за безопасность и этику.
В каждом модуле есть практические задания прямо в Claude (или любой другой LLM), рефлексия и итоговый тест. После завершения выдаётся сертификат; материалы открыты под лицензией CC BY-NC-SA 4.0.
Кому пригодится?
Маркетологам, разработчикам, менеджерам продуктов, преподавателям — всем, кто ежедневно использует ChatGPT/Claude и хочет продуктивно масштабировать работу с ИИ.
👉 Начать можно прямо сейчас, бесплатно: https://www.anthropic.com/ai-fluency
Зачем это нужно?
Курс учит смотреть на ИИ как на полноценного партнёра. Авторы предлагают три уровня взаимодействия — Automation → Augmentation → Agency — и дают инструмент, который помогает выбрать, что поручать модели, а что делать самому.
Каркас из “4 D” навыков:
• Delegation — решаем, какую часть работы отдать ИИ;
• Denoscription — формулируем точные инструкции;
• Discernment — проверяем и критикуем ответы;
• Diligence — отвечаем за безопасность и этику.
В каждом модуле есть практические задания прямо в Claude (или любой другой LLM), рефлексия и итоговый тест. После завершения выдаётся сертификат; материалы открыты под лицензией CC BY-NC-SA 4.0.
Кому пригодится?
Маркетологам, разработчикам, менеджерам продуктов, преподавателям — всем, кто ежедневно использует ChatGPT/Claude и хочет продуктивно масштабировать работу с ИИ.
👉 Начать можно прямо сейчас, бесплатно: https://www.anthropic.com/ai-fluency
Anthropic Courses
Learn to build with Claude AI
through Anthropic's comprehensive courses and training programs.
through Anthropic's comprehensive courses and training programs.
❤1👍1
Forwarded from Data Secrets
Claude Opus написал статью-ответ на ту самую резонансную работу Apple «The Illusion of Thinking»
Его дисс называется The Illusion of the Illusion of Thinking, и Opus в нем числится первым из двух авторов. Вот эта папира, лежит на arxiv.
Док небольшой, всего три страницы. Если кратко, Клод предъявляет ряд претензий к дизайну экспериментов Apple. Вот основные:
1️⃣ Автоматическая система оценки работала неправильно. Она засчитывала ответ только если модель могла явно перечислить все шаги решения, не различая ситуацию «не могу» и «могу, но не буду перечислять всё». Также некорректными были исходные метрики сложности задач: авторы считали ее просто по числу шагов, не учитывая количество вариантов решения, NP сложность и другие нюансы.
2️⃣ Авторы давали модели нерешаемые задачи. Например, тестировали River Crossing с
N ≥ 6 при вместимости лодки 3. Такие задачи математически не имеют решений, но модели все равно получают 0 баллов за «провал».
3️⃣ Ограничений по длине ризонинга не должно было быть. Якобы в задачах типа Башни Ханоя модели не провалились в рассуждениях, как утверждается в оригинале, а остановились из-за ограничения на количество токенов. При этом если попросить вывести ответ в другом формате (например, написать функцию для решения задачи) – все работает.
Ризонинг-модель пишет диссы на человеческую статью про ризонинг. Добро пожаловать в 2025☠️
Его дисс называется The Illusion of the Illusion of Thinking, и Opus в нем числится первым из двух авторов. Вот эта папира, лежит на arxiv.
Док небольшой, всего три страницы. Если кратко, Клод предъявляет ряд претензий к дизайну экспериментов Apple. Вот основные:
N ≥ 6 при вместимости лодки 3. Такие задачи математически не имеют решений, но модели все равно получают 0 баллов за «провал».
Ризонинг-модель пишет диссы на человеческую статью про ризонинг. Добро пожаловать в 2025
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3✍1👀1
🤑 Сделка: Cursor взлетает до $10B. Стартап Anysphere (создатель AI-инструмента Cursor) привлёк рекордные $900 млн инвестиций при оценке ~$9,9 млрд . Cursor – флагман «vibe coding» (кодинг на естественном языке) и прямой конкурент Replit, Windsurf (Codeium) и др. . Компания растёт взрывно (выручка удваивается каждые ~2 месяца ), генерируя до миллиарда строк кода в день – инвесторы уверены, что перед ними следующий tech-гигант.
https://www.youtube.com/watch?v=BGgsoIgbT_Y
После интервью показалось что их Anthropic купит) Но посмотрим
https://www.youtube.com/watch?v=BGgsoIgbT_Y
После интервью показалось что их Anthropic купит) Но посмотрим
YouTube
How Cursor is building the future of AI coding with Claude
Cursor’s Jacob Jackson, Lukas Möller and Aman Sanger join Anthropic's Alex Albert to talk about the changing landscape of software development.
0:00 Introduction
0:34 Cursor’s growth
1:57 Progression of models
3:09 Building Cursor with Cursor
5:17 Spectrum…
0:00 Introduction
0:34 Cursor’s growth
1:57 Progression of models
3:09 Building Cursor with Cursor
5:17 Spectrum…
Ура! Наконец-то вышел этот доклад от Андрея Карпаты!
С пылу, с жару вам overview:
🤖⚡️ Digest для Telegram‑канала: «AI Coding с Андреем Карпаты»
🗓 Когда: 19 июня 2025
📍 Где: YC AI Startup School, Сан‑Франциско
🎙 Тема доклада: «Software is Changing (Again)»
⸻
🚀 Ключевые идеи
1️⃣ Software 3.0 → «📝 промпт = программа»
Бизнес‑логику всё чаще описывают текстом для LLM, а не кодом; «машинный интеллект» уже переписывает легаси‑системы.
2️⃣ LLM = новый «компьютер» 🖥
Модели выступают и как коммунальная услуга ⚡️, и как фабрика 🏭, и как ОС 🛠. Доступ к интеллекту становится базовым ресурсом.
3️⃣ Психология моделей 🧠
Jagged Intelligence — велики в алгебре, но путают 9.11 > 9.9.
Anterograde Amnesia — не запоминают новое; нужна внешняя память 💾.
4️⃣ «Держите ИИ на поводке» 🪢
LLM пишет тысячи строк за секунды, но разработчик остаётся «бутылочным горлышком» — маленькие итерации, чёткие промпты и ручная верификация ✅.
5️⃣ Ползунок автономности 🎚
Выбирайте уровень: autocomplete ➡️ агент. Побеждает короткий цикл генерация → верификация 🔄.
6️⃣ Vibe Coding ≠ production 🚧
Быстрый демо‑UI по промпту — это ещё не готовый продукт. Между «вау‑эффектом» и продом всё так же пропасть, особенно в web‑стеке 🌐.
7️⃣ Интерфейсы «для агентов» 🤝
Появляется третий пользователь — AI‑агент. Пишите llms.txt, чтобы документация и API были понятны моделям 🤖.
⸻
🛠 Практические шаги
• 🔹 Разбивайте задачи на крошечные шаги, формулируйте конкретные промпты.
• 🔹 Автоматизируйте верификацию кода — тесты, статический анализ, CI 🚦.
• 🔹 Добавляйте долговременную память (кэши, базы знаний) к LLM‑потокам 🗄.
• 🔹 Проектируйте сервисы так, чтобы их могли вызывать и люди, и агенты 🤖.
🎥 Полное видео на YouTube / 📑 Слайды доступны в описании ролика.
https://www.youtube.com/watch?v=LCEmiRjPEtQ
Поделитесь в комментариях, какую часть генерация‑верификация уже закрывает в вашем стеке!
С пылу, с жару вам overview:
🤖⚡️ Digest для Telegram‑канала: «AI Coding с Андреем Карпаты»
🗓 Когда: 19 июня 2025
📍 Где: YC AI Startup School, Сан‑Франциско
🎙 Тема доклада: «Software is Changing (Again)»
⸻
🚀 Ключевые идеи
1️⃣ Software 3.0 → «📝 промпт = программа»
Бизнес‑логику всё чаще описывают текстом для LLM, а не кодом; «машинный интеллект» уже переписывает легаси‑системы.
2️⃣ LLM = новый «компьютер» 🖥
Модели выступают и как коммунальная услуга ⚡️, и как фабрика 🏭, и как ОС 🛠. Доступ к интеллекту становится базовым ресурсом.
3️⃣ Психология моделей 🧠
Jagged Intelligence — велики в алгебре, но путают 9.11 > 9.9.
Anterograde Amnesia — не запоминают новое; нужна внешняя память 💾.
4️⃣ «Держите ИИ на поводке» 🪢
LLM пишет тысячи строк за секунды, но разработчик остаётся «бутылочным горлышком» — маленькие итерации, чёткие промпты и ручная верификация ✅.
5️⃣ Ползунок автономности 🎚
Выбирайте уровень: autocomplete ➡️ агент. Побеждает короткий цикл генерация → верификация 🔄.
6️⃣ Vibe Coding ≠ production 🚧
Быстрый демо‑UI по промпту — это ещё не готовый продукт. Между «вау‑эффектом» и продом всё так же пропасть, особенно в web‑стеке 🌐.
7️⃣ Интерфейсы «для агентов» 🤝
Появляется третий пользователь — AI‑агент. Пишите llms.txt, чтобы документация и API были понятны моделям 🤖.
⸻
🛠 Практические шаги
• 🔹 Разбивайте задачи на крошечные шаги, формулируйте конкретные промпты.
• 🔹 Автоматизируйте верификацию кода — тесты, статический анализ, CI 🚦.
• 🔹 Добавляйте долговременную память (кэши, базы знаний) к LLM‑потокам 🗄.
• 🔹 Проектируйте сервисы так, чтобы их могли вызывать и люди, и агенты 🤖.
🎥 Полное видео на YouTube / 📑 Слайды доступны в описании ролика.
https://www.youtube.com/watch?v=LCEmiRjPEtQ
Поделитесь в комментариях, какую часть генерация‑верификация уже закрывает в вашем стеке!
YouTube
Andrej Karpathy: Software Is Changing (Again)
Andrej Karpathy's keynote on June 17, 2025 at AI Startup School in San Francisco. Slides provided by Andrej: https://drive.google.com/file/d/1a0h1mkwfmV2PlekxDN8isMrDA5evc4wW/view?usp=sharing
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
👍3
Рубрика полезнятина!
GitMCP — мгновенный MCP-сервер для любого GitHub-репозитория
1. Как это работает
Просто замените github.com на gitmcp.io, получив URL вида https://gitmcp.io/owner/repo. Добавьте этот адрес в Cursor, Claude, Windsurf, VS Code или любой другой инструмент, поддерживающий Model Context Protocol, и ассистент начнёт читать живой код и документацию вашего проекта прямо во время ответа.
2. Зачем это нужно
Ассистенты перестают «галлюцинировать», отвечают по актуальной версии кода, быстро находят примеры API и даже самые свежие изменения. GitMCP полностью открыт, бесплатен и не требует установки — всё работает в облаке.
3. Примеры использования
• github.com/microsoft/typenoscript → gitmcp.io/microsoft/typenoscript
• langchain-ai.github.io/langgraph → langchain-ai.gitmcp.io/langgraph
• Универсальный эндпоинт: gitmcp.io/docs — ассистент сам выберет нужный репозиторий «на лету».
4. Поддерживаемые ассистенты
Cursor, Claude Desktop, Windsurf, VS Code, Cline, Highlight AI, Augment Code и любые другие MCP-клиенты.
5. Статус проекта
⭐ 3 100+ на GitHub, лицензия Apache-2.0, коммьюнити приветствует контрибьюторов.
🛠 Попробовать легко: зайдите на https://gitmcp.io/, вставьте URL репозитория и скопируйте полученный MCP-адрес в свой ИИ-инструмент.
➡️ Делитесь опытом в комментариях!
GitMCP — мгновенный MCP-сервер для любого GitHub-репозитория
1. Как это работает
Просто замените github.com на gitmcp.io, получив URL вида https://gitmcp.io/owner/repo. Добавьте этот адрес в Cursor, Claude, Windsurf, VS Code или любой другой инструмент, поддерживающий Model Context Protocol, и ассистент начнёт читать живой код и документацию вашего проекта прямо во время ответа.
2. Зачем это нужно
Ассистенты перестают «галлюцинировать», отвечают по актуальной версии кода, быстро находят примеры API и даже самые свежие изменения. GitMCP полностью открыт, бесплатен и не требует установки — всё работает в облаке.
3. Примеры использования
• github.com/microsoft/typenoscript → gitmcp.io/microsoft/typenoscript
• langchain-ai.github.io/langgraph → langchain-ai.gitmcp.io/langgraph
• Универсальный эндпоинт: gitmcp.io/docs — ассистент сам выберет нужный репозиторий «на лету».
4. Поддерживаемые ассистенты
Cursor, Claude Desktop, Windsurf, VS Code, Cline, Highlight AI, Augment Code и любые другие MCP-клиенты.
5. Статус проекта
⭐ 3 100+ на GitHub, лицензия Apache-2.0, коммьюнити приветствует контрибьюторов.
🛠 Попробовать легко: зайдите на https://gitmcp.io/, вставьте URL репозитория и скопируйте полученный MCP-адрес в свой ИИ-инструмент.
➡️ Делитесь опытом в комментариях!
gitmcp.io
Instantly create an MCP server for any GitHub project
Кто из читателей активно использует mem0 ?
Anonymous Poll
15%
Знаю и активно использую
20%
Знаю и не использую
65%
Не знаю что это такое вообще
Полный клон Claude Code! Встречайте! На самом деле это очень хорошая новость, что это большой рынок теперь куда все идут
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
• Лёгкий и мощный инструмент для разработки в командной строке
• Код агента в открытом доступе (Apache 2.0)
• Поддержка контекста в 1 миллион токенов
• Бесплатный тариф: до 60 запросов в минуту и 1000 в день
• Привязка к Google Search
• Поддержка плагинов и скриптов
• Интеграция с VS Code (Gemini Code Assist)
@ai_machinelearning_big_data
#AI #ML #agent #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🤖 Taskmaster-AI + MCP — «скрам-бот» для вашего IDE
v0.18.0 • 21 июня 2025 • 16 500★ на GitHub
⸻
🛠️ Что это такое?
Taskmaster-AI — open-source CLI/сервер, который превращает чат-панель LLM в полноценный таск-трекер: парсит PRD, строит иерархию задач, следит за прогрессом и подсказывает «следующий шаг». Работает через Model Context Protocol (MCP), поэтому подключается одной ссылкой в Cursor, VS Code, Roo и других IDE.
⸻
🚀 Почему стоит попробовать?
• ✨ Multi-LLM — Anthropic, OpenAI, Gemini, xAI, Mistral, Perplexity: переключайтесь без переделки кода
• 🔖 Tagged Lists — изолируйте контексты задач для A/B-веток или командной работы
• 🔍 Research-команда — подтягивает свежие best practice и доки («research jwt auth»)
• 📝 PRD-parser — превращает prd.txt в структурированный backlog с оценкой сложности
• 🔗 Глубокая MCP-интеграция — все команды доступны прямо из чата IDE
• 🌳 Git-friendly — хранит задачи в репозитории, поддерживает worktree и хук-автодобавление
⸻
⚡ Быстрый старт через MCP
# 1 Откройте ссылку (Cursor 1.0+):
cursor://anysphere.cursor-deeplink/mcp/install?name=taskmaster-ai&config=...
# 2 Добавьте API-ключи в ~/.cursor/mcp.json
# 3 В чате IDE:
Initialize taskmaster-ai in my project
⸻
🆕 Что нового в 0.18.0
➕ Rule Profiles — готовые пресеты для конкретных IDE
➕ Claude Code provider — локальные Opus/Sonnet без API-ключа
🔧 Больше Git-флагов (--git-tasks, --dry-run) и auto-detector worktree
🌐 Переопределяемый <PROVIDER>_BASE_URL — удобно при собственном LLM-прокси
⸻
💡 Лайфхаки
• ⚖️ Смешивайте роли LLM: main → Claude 3, research → Perplexity, fallback → Gemini 2.5 — баланс кода и фактов
• 🏷️ Теги = ветки: task-master use-tag feature-login + git switch -c feature/login держат код и задачи вместе
• 📜 История требований: update-task --append добавляет прогресс с тайм-штампом, не ломая саб-таски
⸻
🔗 Полезные ссылки
• GitHub: https://github.com/eyaltoledano/claude-task-master
• Документация — папка docs/ в репозитории
• Discord-чат проекта — ссылка в README
Тестируйте, делитесь отзывами и прокачивайте свой dev-процесс! 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - eyaltoledano/claude-task-master: An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo…
An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo, and others. - eyaltoledano/claude-task-master
🔥2
Machinelearning
Всем отличного вайб кодинга этим вечером! 🔥 🤙
Из плюсов Claude перестанет падать от нагрузки ☝🏻
Из плюсов Claude перестанет падать от нагрузки ☝🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👾2👏1
Machinelearning
Ну короче gemini-cli с бесплатными 1000 запросами в день это какой-то эксперимент чтоли. Ну вы представляете что самую мощную модель в мире раздали в виде агента бесплатно 1000 запросов в день?! И какой это объем рынка, который мы до сих пор даже не осознали
⚡2
🚀 Новинка в Claude Code: Hooks — ваши автоматические помощники в терминале
Зачем нужны hooks
Hooks — это произвольные shell‑команды, которые Claude Code запускает автоматически в определённые моменты своей работы. Они дают детерминированный контроль: вместо «надеяться, что LLM догадается», вы гарантируете, что нужное действие всегда выполнится. Основные сценарии:
• 🔔 Уведомления — отправлять сообщение в Slack, Telegram или system notify, когда Claude ждёт разрешения.
• 🧹 Автоформатирование — prettier для .ts, gofmt для .go сразу после любого правки файла.
• 📈 Логирование и аудит — писать каждую Bash‑команду Claude Code в отдельный журнал.
• 🚫 Безопасность — блокировать изменения в /config/prod/**, если кто‑то случайно попросит LLM туда писать.
Как это устроено
1. Конфигурация хранится в ~/.claude/settings.json, .claude/settings.json (проект) или .claude/settings.local.json (локально).
2. Структура: события → «matcher» (какой tool затронут) → массив команд.
3. Поддерживаемые события:
• PreToolUse — до вызова инструмента, можно заблокировать.
• PostToolUse — после успешного вызова, можно анализировать результат.
• Notification — когда Claude отправляет уведомление.
• Stop — когда сессия заканчивается.
5‑минутный Quickstart
# 1. Открой меню /hooks и выбери PreToolUse
# 2. Добавь matcher "Bash"
# 3. Добавь команду:
jq -r '"\(.tool_input.command) - \(.tool_input.denoscription // "No denoscription")"' \
>> ~/.claude/bash-command-log.txt
# 4. Сохрани в User settings
# 5. Проверка: /hooks снова или cat ~/.claude/settings.json
Теперь каждая Bash‑команда, которую Claude собирается выполнить, логируется в ~/.claude/bash-command-log.txt.
Что передаётся в скрипт
Hook получает JSON через stdin с полями: session_id, trannoscript_path, tool_name, tool_input и т.д. Возврат:
• exit 0 — всё ок; stdout увидит пользователь.
• exit 2 — блокировка; stderr пойдёт в Claude как фидбек.
• Или structured JSON с decision: "approve" | "block" и доп. полями continue, stopReason.
Советы по безопасности
• Тщательно проверяйте команды — они выполняются с вашими правами.
• Используйте абсолютные пути и валидацию параметров.
• Тестируйте в песочнице, прежде чем включать в боевом проекте.
⸻
💡 Hooks превращают Claude Code из «умного собеседника» в адаптивный инструмент, который подстраивается под процессы вашей команды. Подпишитесь, экспериментируйте и делитесь кейсами!
Зачем нужны hooks
Hooks — это произвольные shell‑команды, которые Claude Code запускает автоматически в определённые моменты своей работы. Они дают детерминированный контроль: вместо «надеяться, что LLM догадается», вы гарантируете, что нужное действие всегда выполнится. Основные сценарии:
• 🔔 Уведомления — отправлять сообщение в Slack, Telegram или system notify, когда Claude ждёт разрешения.
• 🧹 Автоформатирование — prettier для .ts, gofmt для .go сразу после любого правки файла.
• 📈 Логирование и аудит — писать каждую Bash‑команду Claude Code в отдельный журнал.
• 🚫 Безопасность — блокировать изменения в /config/prod/**, если кто‑то случайно попросит LLM туда писать.
Как это устроено
1. Конфигурация хранится в ~/.claude/settings.json, .claude/settings.json (проект) или .claude/settings.local.json (локально).
2. Структура: события → «matcher» (какой tool затронут) → массив команд.
3. Поддерживаемые события:
• PreToolUse — до вызова инструмента, можно заблокировать.
• PostToolUse — после успешного вызова, можно анализировать результат.
• Notification — когда Claude отправляет уведомление.
• Stop — когда сессия заканчивается.
5‑минутный Quickstart
# 1. Открой меню /hooks и выбери PreToolUse
# 2. Добавь matcher "Bash"
# 3. Добавь команду:
jq -r '"\(.tool_input.command) - \(.tool_input.denoscription // "No denoscription")"' \
>> ~/.claude/bash-command-log.txt
# 4. Сохрани в User settings
# 5. Проверка: /hooks снова или cat ~/.claude/settings.json
Теперь каждая Bash‑команда, которую Claude собирается выполнить, логируется в ~/.claude/bash-command-log.txt.
Что передаётся в скрипт
Hook получает JSON через stdin с полями: session_id, trannoscript_path, tool_name, tool_input и т.д. Возврат:
• exit 0 — всё ок; stdout увидит пользователь.
• exit 2 — блокировка; stderr пойдёт в Claude как фидбек.
• Или structured JSON с decision: "approve" | "block" и доп. полями continue, stopReason.
Советы по безопасности
• Тщательно проверяйте команды — они выполняются с вашими правами.
• Используйте абсолютные пути и валидацию параметров.
• Тестируйте в песочнице, прежде чем включать в боевом проекте.
⸻
💡 Hooks превращают Claude Code из «умного собеседника» в адаптивный инструмент, который подстраивается под процессы вашей команды. Подпишитесь, экспериментируйте и делитесь кейсами!
🔥4
/hooksКакие я использую?
Notification:
bash -c 'msg=$(jq -r .message); icon=\"🔔\"; [[ \"$msg\" =~ ^Running ]] && icon=\"🚀\"; [[ \"$msg\" =~ ^Error ]] && icon=\"❌\"; [[ \"$msg\" =~ ^Warning ]] && icon=\"⚠️\"; [[ \"$msg\" =~ ^Success|^Done|^Completed ]] && icon=\"✅\"; curl -s --data chat_id=$CLAUDE_TG_CHAT_ID --data-urlencode \"text=$icon $msg\" \"https://api.telegram.org/bot$CLAUDE_TG_TOKEN/sendMessage\" >/dev/null'Stop:
bash -c 'json=$(cat); session_id=$(echo \"$json\" | jq -r .session_id); trannoscript=$(echo \"$json\" | jq -r .trannoscript_path); if [ -f \"$trannoscript\" ]; then last_msg=$(tail -20 \"$trannoscript\" | while read line; do echo \"$line\" | jq -r \"select(.type == \\\"userMessage\\\" or .type == \\\"assistantMessage\\\") | .message // empty\" 2>/dev/null; done | grep -v \"^$\" | tail -1 | cut -c1-100); last_cmd=$(tail -20 \"$trannoscript\" | while read line; do echo \"$line\" | jq -r \"select(.type == \\\"command\\\") | .command // empty\" 2>/dev/null; done | grep -v \"^$\" | tail -1); cwd=$(tail -1 \"$trannoscript\" | jq -r .cwd 2>/dev/null); curl -s --data chat_id=$CLAUDE_TG_CHAT_ID --data-urlencode \"text=⏹️ Сессия завершена\n📁 $cwd\n💬 ${last_msg:+Промпт: $last_msg...}\n⚡ ${last_cmd:+Команда: $last_cmd}\" \"https://api.telegram.org/bot$CLAUDE_TG_TOKEN/sendMessage\" >/dev/null; fi'
https://gist.github.com/dpolishuk/09d8793dad79a405c30b9d0fe24ace30👍3🌚1