Интерактивный курс по Prompt Engineering от Anthropic
Этот курс создан, чтобы дать вам поэтапное и полноценное понимание того, как проектировать оптимальные промпты для Claude.
После прохождения курса вы сможете:
• освоить базовую структуру хорошего промпта
• распознавать типичные ошибки и применять 80/20-техники для их исправления
• понимать сильные и слабые стороны Claude
• собирать сильные промпты с нуля под типовые сценарии использования
Этот курс создан, чтобы дать вам поэтапное и полноценное понимание того, как проектировать оптимальные промпты для Claude.
После прохождения курса вы сможете:
• освоить базовую структуру хорошего промпта
• распознавать типичные ошибки и применять 80/20-техники для их исправления
• понимать сильные и слабые стороны Claude
• собирать сильные промпты с нуля под типовые сценарии использования
This media is not supported in your browser
VIEW IN TELEGRAM
Поднимаемся, пора на тренировку
Разработчик навайбкодил Flappy Bird от первого лица с помощью Mediapipe, компьютерного зрения, ThreeJS и Gemini 3.. Чтобы не врезаться, нужно буквально махать руками перед камерой.
Поиграться можно здесь😈
Разработчик навайбкодил Flappy Bird от первого лица с помощью Mediapipe, компьютерного зрения, ThreeJS и Gemini 3.. Чтобы не врезаться, нужно буквально махать руками перед камерой.
Поиграться можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Мэтт Покок поделился своими дополнениями к файлу CLAUDE.md, которые заметно улучшают работу план-режима.
По его словам:
До: планы, которые невозможно читать
После: короткие, полезные планы с уточняющими вопросами
Скопируйте это в свой
По его словам:
До: планы, которые невозможно читать
После: короткие, полезные планы с уточняющими вопросами
Скопируйте это в свой
CLAUDE.md или AGENTS.md или запустите этот скрипт, чтобы добавить это в ~/.claude/CLAUDE.md:mkdir -p ~/.claude && cat >> ~/.claude/CLAUDE.md << 'EOF'
## Plan Mode
- Make the plan extremely concise. Sacrifice grammar for the sake of concision.
- At the end of each plan, give me a list of unresolved questions to answer, if any.
EOF
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь в Google Vids: можно собирать вертикальные клипы через Ingredients to Video. Кидаешь свои картинки, пишешь промпт и на выходе получаешь готовый для соцсетей ролик, в хорошем качестве на движке Veo 3.1.
Можно попробовать😄
Можно попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Забавное: один парень сделал через Claude Code небольшой плагин, который визуализирует работу Claude Code как офис с агентами.
Они таскают задачи, передают данные друг другу, нанимаются новые саб-агенты, учат новые скиллы и сдают готовую работу.😬
Они таскают задачи, передают данные друг другу, нанимаются новые саб-агенты, учат новые скиллы и сдают готовую работу.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Наконец-то: в Google Antigravity теперь завезли Agent Skills.
Skills — это открытый стандарт для расширения возможностей агента. Хочешь кастомные рабочие процессы, хочешь утилиты под любые задачи - теперь можно паковать знания в переиспользуемые скиллы.😈
Skills — это открытый стандарт для расширения возможностей агента. Хочешь кастомные рабочие процессы, хочешь утилиты под любые задачи - теперь можно паковать знания в переиспользуемые скиллы.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic за последние 10 дней: собрали Claude Cowork.
Я за последние 10 дней: гонял продовый баг, пока не выяснил что весь "фикс" — это минорный апдейт закрытой Java-зависимости.😢
Я за последние 10 дней: гонял продовый баг, пока не выяснил что весь "фикс" — это минорный апдейт закрытой Java-зависимости.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это да: представили json-render
UI, который генерит ИИ. Выход детерминированный.
1. Определяешь каталог компонентов
2. ИИ стримит JSON
3. Рендеришь интерактивный UI
Пользователь может по промпту собирать дашборды, виджеты и целые мини-приложения, но в пределах тех компонентов и экшенов, которые ты заранее разрешил.
К этому шли 10 лет.
И это вышло в опенсорс.👍
UI, который генерит ИИ. Выход детерминированный.
1. Определяешь каталог компонентов
2. ИИ стримит JSON
3. Рендеришь интерактивный UI
Пользователь может по промпту собирать дашборды, виджеты и целые мини-приложения, но в пределах тех компонентов и экшенов, которые ты заранее разрешил.
К этому шли 10 лет.
И это вышло в опенсорс.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Анонс Personal Intelligence: более персонализированный Gemini, построенный под тебя.
Как это работает:
• с твоего разрешения модель использует контекст из Gmail, YouTube, Google Photos и поиска, чтобы выдавать максимально релевантные и контекстные ответы
• если включить, ты сам выбираешь какие сервисы Google подключать. По умолчанию всё выключено
• от планов поездок на основе фотографий до рекомендаций по тренировкам исходя из целей, которые ты уже описывал в Gemini — ассистент подстраивается под твой реальный мир
Бета выкатывается для подписчиков Google AI Pro и AI Ultra в США. Позже добавят бесплатный тариф, больше стран и AI Mode в поиске.
В ролике показан персонализированный режим
Как это работает:
• с твоего разрешения модель использует контекст из Gmail, YouTube, Google Photos и поиска, чтобы выдавать максимально релевантные и контекстные ответы
• если включить, ты сам выбираешь какие сервисы Google подключать. По умолчанию всё выключено
• от планов поездок на основе фотографий до рекомендаций по тренировкам исходя из целей, которые ты уже описывал в Gemini — ассистент подстраивается под твой реальный мир
Бета выкатывается для подписчиков Google AI Pro и AI Ultra в США. Позже добавят бесплатный тариф, больше стран и AI Mode в поиске.
В ролике показан персонализированный режим
GPT-5.2-Codex от OpenAI начинают выкатывать в GitHub Copilot.
Модель хорошо справляется с крупными правками кода вроде рефакторингов и миграций, плюс подтянули работу в Windows-средах. Уже можно попробовать в VS Code.
Также GPT-5.2-Codex теперь работает и в Windsurf😁
Для кодинга это апгрейд по сравнению с GPT-5.1-Codex-Max и GPT-5.2.
Доступен всем пользователям, старт от 0.5x кредов (временная скидка).
Модель хорошо справляется с крупными правками кода вроде рефакторингов и миграций, плюс подтянули работу в Windows-средах. Уже можно попробовать в VS Code.
Также GPT-5.2-Codex теперь работает и в Windsurf
Для кодинга это апгрейд по сравнению с GPT-5.1-Codex-Max и GPT-5.2.
Доступен всем пользователям, старт от 0.5x кредов (временная скидка).
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Manus запустили первый дата-партнёрский интеграционный релиз с Similarweb.
Теперь можно:
➡️ смотреть до 12 месяцев истории веб-трафика
➡️ мгновенно сравнивать конкурентов
➡️ анализировать каналы маркетинга и источники трафика
➡️ смотреть распределение трафика по регионам
Вся аналитика идёт на данных Similarweb.
Доступно для всех пользователей Manus Pro.
Теперь можно:
Вся аналитика идёт на данных Similarweb.
Доступно для всех пользователей Manus Pro.
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft выпустила FrogMini на Hugging Face.
Модель построена на базе Qwen3-14B и показывает лучшие на данный момент результаты на SWE-Bench Verified (Pass@1: 45,0%).
Для обучения использовали супервизорное дообучение (SFT) на успешных траекториях отладки, сгенерированных сильной teacher-моделью (например, Claude), полученных из смеси реальных и искусственно сгенерированных датасетов с багами.
Модель построена на базе Qwen3-14B и показывает лучшие на данный момент результаты на SWE-Bench Verified (Pass@1: 45,0%).
Для обучения использовали супервизорное дообучение (SFT) на успешных траекториях отладки, сгенерированных сильной teacher-моделью (например, Claude), полученных из смеси реальных и искусственно сгенерированных датасетов с багами.
huggingface.co
microsoft/FrogMini-14B-2510 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
This media is not supported in your browser
VIEW IN TELEGRAM
Представь: ты запускаешь “новую катку”, только вместо юнитов у тебя агенты.
Автор с ником Ido Salomon выкатил тизер AgentCraft: оркестрация AI-агентов через интерфейс в стиле RTS. Типа StarCraft/Warcraft, но вместо “строим барак” ты запускаешь таски, спавнишь сабагентов и следишь за их прогрессом прямо на карте.🍖
Автор с ником Ido Salomon выкатил тизер AgentCraft: оркестрация AI-агентов через интерфейс в стиле RTS. Типа StarCraft/Warcraft, но вместо “строим барак” ты запускаешь таски, спавнишь сабагентов и следишь за их прогрессом прямо на карте.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Команда Cursor выложила блог-пост про бест-практик разработки с агентами. Разница между рабочим кодом и нечитабельной мешаниной часто сводится к довольно простым принципам:
1. сначала план, потом код
2. если модель запуталась — начни новую сессию
3. дай агенту самому собрать контекст, не нужно тэгать всё подряд
4. откатывай и уточняй инструкции вместо попыток спасать безнадёжный код
5. добавляй правила для повторяющихся ошибок
6. пиши тесты заранее чтобы агент мог по ним делать итерации
7. прогоняй несколько моделей и выбирай лучший результат
8. для хардкор багов включай debug mode
9. чем конкретнее промпт — тем лучше результат
10. давай линтеры и тесты чтобы валидировать вывод
Блог тут: почитать
1. сначала план, потом код
2. если модель запуталась — начни новую сессию
3. дай агенту самому собрать контекст, не нужно тэгать всё подряд
4. откатывай и уточняй инструкции вместо попыток спасать безнадёжный код
5. добавляй правила для повторяющихся ошибок
6. пиши тесты заранее чтобы агент мог по ним делать итерации
7. прогоняй несколько моделей и выбирай лучший результат
8. для хардкор багов включай debug mode
9. чем конкретнее промпт — тем лучше результат
10. давай линтеры и тесты чтобы валидировать вывод
Блог тут: почитать
Google представил MedGemma 1.5: новую открытую мультимодальную модель для медицинских задач.
Обновление заметно расширило спектр данных, которые система умеет понимать и анализировать. Речь идёт не только о классических изображениях, но и о высокоразмерной визуализации, данных EHR, а также анатомической локализации с использованием bounding box.
Фактически модель закрывает сразу несколько болевых точек медтеха: интерпретацию сложных снимков, связанную текстовую информацию и структурирование клинических данных.
Подробнее
Обновление заметно расширило спектр данных, которые система умеет понимать и анализировать. Речь идёт не только о классических изображениях, но и о высокоразмерной визуализации, данных EHR, а также анатомической локализации с использованием bounding box.
Фактически модель закрывает сразу несколько болевых точек медтеха: интерпретацию сложных снимков, связанную текстовую информацию и структурирование клинических данных.
Подробнее
This media is not supported in your browser
VIEW IN TELEGRAM
claude --dangerously-skip-permissions
2
This media is not supported in your browser
VIEW IN TELEGRAM
Залип на новую фичу от Google Antigravity: они сделали Artifacts, чтобы тебе не приходилось гадать, что сейчас делает агент.
Artifacts это динамические промежуточные артефакты, общий источник правды между тобой и агентом. Не только финальный ответ, а весь процесс: шаги, что проверил, что нажал, что заскринил, какие выводы.
В итоге меньше угадываний, проще дебажить и повторять задачи как нормальный чеклист/тест-кейс.🎁
Artifacts это динамические промежуточные артефакты, общий источник правды между тобой и агентом. Не только финальный ответ, а весь процесс: шаги, что проверил, что нажал, что заскринил, какие выводы.
В итоге меньше угадываний, проще дебажить и повторять задачи как нормальный чеклист/тест-кейс.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Google выпускает TranslateGemma, новое семейство открытых моделей для перевода с поддержкой 55 языков.
Доступны размеры на 4B, 12B и 27B параметров, упор на эффективность без просадки по качеству.
Сделано на базе Gemma 3: TranslateGemma обучали на данных, сгенерированных Gemini, по сути перенося его интеллект в более компактный формат.
Это значит, что разработчики могут делать низколатентные переводчики, которые полностью крутятся на устройстве, без облака.
Попробовать можно на huggingface и Kaggle🛌
Доступны размеры на 4B, 12B и 27B параметров, упор на эффективность без просадки по качеству.
Сделано на базе Gemma 3: TranslateGemma обучали на данных, сгенерированных Gemini, по сути перенося его интеллект в более компактный формат.
Это значит, что разработчики могут делать низколатентные переводчики, которые полностью крутятся на устройстве, без облака.
Попробовать можно на huggingface и Kaggle
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenCode теперь официально можно использовать с подпиской GitHub Copilot.
С подпиской Pro+ вы получаете доступ к лучшим моделям для кодинга.
Классно видеть, что они так поддерживают опенсорс и дают пользователям свободу выбора инструментов.
С подпиской Pro+ вы получаете доступ к лучшим моделям для кодинга.
Классно видеть, что они так поддерживают опенсорс и дают пользователям свободу выбора инструментов.
1