Microsoft открыла исходники MarkItDown - универсального Python-инструмента для конвертации файлов в Markdown
—> Он конвертирует PDF, Word, Excel, PPT, HTML, JSON, XML, EPUB, изображения (OCR), аудио (ASR), ZIP, YouTube — идеально для LLM
Советую заценить, если хочешь быстро превращать любые файлы в Markdown
—> Он конвертирует PDF, Word, Excel, PPT, HTML, JSON, XML, EPUB, изображения (OCR), аудио (ASR), ZIP, YouTube — идеально для LLM
Советую заценить, если хочешь быстро превращать любые файлы в Markdown
Gemini Tip:
Есть модели Gemini Pro и Flash для Text-to-Speech (TTS), которые умеют генерировать речь в 30 разных голосах и понимают подсказки про стиль, тон, акцент и темп.
Вот как это сделать (Flash TTS доступен даже на бесплатном тарифе):
доки по созданию речи: клик
Есть модели Gemini Pro и Flash для Text-to-Speech (TTS), которые умеют генерировать речь в 30 разных голосах и понимают подсказки про стиль, тон, акцент и темп.
Вот как это сделать (Flash TTS доступен даже на бесплатном тарифе):
from google import genai
import wave
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash-preview-tts",
contents="Say cheerfully: Good morning to all vibe coders!",
config={
"response_modalities": ["AUDIO"],
"speech_config": {
"voice_config": {
"prebuilt_voice_config": {
"voice_name": "Kore", # 30 voice options
}
}
}
}
)
data = response.candidates[0].content.parts[0].inline_data.data
with wave.open("output.wav", "wb") as wf:
wf.setnchannels(1)
wf.setsampwidth(2)
wf.setframerate(24000)
wf.writeframes(data)
доки по созданию речи: клик
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчик выложил в open source более 90 проектов по AI-инженерии
Инженер под ником patchy631 поделился внушительной коллекцией из более чем 90 open source-проектов, связанных с AI-агентами, RAG, MCP и контекстной инженерией.
По словам автора, лучший способ освоить создание AI-агентов:
Проекты уже собрали свыше 18 тысяч звёзд на GitHub.
Инженер под ником patchy631 поделился внушительной коллекцией из более чем 90 open source-проектов, связанных с AI-агентами, RAG, MCP и контекстной инженерией.
По словам автора, лучший способ освоить создание AI-агентов:
не читать блоги и не смотреть видео, а писать код и собирать всё с нуля.
Проекты уже собрали свыше 18 тысяч звёзд на GitHub.
5 практических советов по Context Engineering (применимо к Google DeepMind Gemini):
1. Порядок контекста имеет значение: старайтесь использовать «append-only» контекст, тоесть добавлять новую информацию в конец. Это увеличивает попадания в кэш и снижает стоимость (в ~4 раза) и задержки.
2. Управляйте инструментами статично: не меняйте порядок или доступность инструментов в процессе задачи без необходимости. Это может сломать кэширование контекста и запутать модель, если в истории есть вызовы инструментов, которые больше не определены.
3. Используйте внешнюю память: явно или неявно записывайте контекст/цели во внешнее хранилище, чтобы избежать потери информации. Типичная задача в Manus требует примерно 50 вызовов инструментов в среднем.
4. Повторяйте цели, чтобы не потеряться: периодически заставляйте модель проговаривать свои цели, чтобы основная задача оставалась в её недавнем окне внимания.
5. Принимайте ошибки: сохраняйте сообщения об ошибках в контексте. Это даёт модели возможность учиться на ошибках и не повторять их.
1. Порядок контекста имеет значение: старайтесь использовать «append-only» контекст, тоесть добавлять новую информацию в конец. Это увеличивает попадания в кэш и снижает стоимость (в ~4 раза) и задержки.
2. Управляйте инструментами статично: не меняйте порядок или доступность инструментов в процессе задачи без необходимости. Это может сломать кэширование контекста и запутать модель, если в истории есть вызовы инструментов, которые больше не определены.
3. Используйте внешнюю память: явно или неявно записывайте контекст/цели во внешнее хранилище, чтобы избежать потери информации. Типичная задача в Manus требует примерно 50 вызовов инструментов в среднем.
4. Повторяйте цели, чтобы не потеряться: периодически заставляйте модель проговаривать свои цели, чтобы основная задача оставалась в её недавнем окне внимания.
5. Принимайте ошибки: сохраняйте сообщения об ошибках в контексте. Это даёт модели возможность учиться на ошибках и не повторять их.
У Microsoft с open source прямо любовь 😎
Выпустили Agent Lightning для оптимизации multi-agent систем.
Работает с популярными фреймворками для агентов. Почти ничего переписывать не нужно.
Поддерживает разные штуки: RL, автоматическую оптимизацию промптов, supervised fine-tuning и другое.
Выпустили Agent Lightning для оптимизации multi-agent систем.
Работает с популярными фреймворками для агентов. Почти ничего переписывать не нужно.
Поддерживает разные штуки: RL, автоматическую оптимизацию промптов, supervised fine-tuning и другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Google выкатил Pomelli. Новый маркетинговый AI-агент на Google Labs. Он может проанализировать твой бренд и сгенерировать готовую маркетинговую кампанию.
Сейчас доступен в США, Канаде, Австралии и Новой Зеландии.
Вообще штука выглядит круто. Я прям рад. Нужно запускать рекламу, а времени разбираться с этим добром вовсе нет. Буду плотно тестить.
Сейчас доступен в США, Канаде, Австралии и Новой Зеландии.
Вообще штука выглядит круто. Я прям рад. Нужно запускать рекламу, а времени разбираться с этим добром вовсе нет. Буду плотно тестить.
Codex pro tip:
Добавь это правило в
(Я устал разбираться, почему он не может добавить или закоммитить файлы🚑 )
---
Добавь это правило в
AGENTS.md, когда он начинает путаться с командами в песочнице, чтобы заставить его спрашивать разрешение.(Я устал разбираться, почему он не может добавить или закоммитить файлы
---
Если команда в шелле падает с ошибкой failed in sandbox, используй инструмент запроса разрешения (with_escalated_permissions), чтобы сначала спросить у пользователя одобрения, а потом пробовать снова.
Please open Telegram to view this post
VIEW IN TELEGRAM
Cursor получил большой апдейт до версии 2.0 — теперь он с собственной моделью Composer.
Composer называют лучшей моделью, которая выполняет задачи всего за 30 секунд. А еще Cursor 2.0 позволяет запускать множество агентов параллельно, что очень удобно. Плюс обновили интерфейс, добавили встроенный браузер для тестирования и голосовой режим👍
Composer называют лучшей моделью, которая выполняет задачи всего за 30 секунд. А еще Cursor 2.0 позволяет запускать множество агентов параллельно, что очень удобно. Плюс обновили интерфейс, добавили встроенный браузер для тестирования и голосовой режим
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Jules теперь доступен как расширение для Gemini CLI! 🐙
Можно спокойно скидывать удалённые задачи по коду на Jules прямо из Gemini CLI, не блокируя терминал.
Примеры:
❯
❯
❯
анонс с подробностями
Можно спокойно скидывать удалённые задачи по коду на Jules прямо из Gemini CLI, не блокируя терминал.
Примеры:
❯
/jules добавь кнопку логина на главную❯
/jules обнови все зависимости до последних версий❯
/jules глянь статус моей последней задачианонс с подробностями
Please open Telegram to view this post
VIEW IN TELEGRAM
Новичкам в Claude Code бывает тяжело разобраться, с чего начать и какие команды реально нужны. Для этого есть Claude Code Cheat Sheet, это типа краткий, но толковый справочник с чёткой дорожкой обучения от простого к сложному.
10 уровней: установка, работа с командами, автоматизация, CI/CD, безопасность, использование в продакшне. Примеры, лучшие практики и ответы на частые вопросы.🙂
Если хочешь быстро въехать в инструмент, то шпаргалка определенно пригодится.
10 уровней: установка, работа с командами, автоматизация, CI/CD, безопасность, использование в продакшне. Примеры, лучшие практики и ответы на частые вопросы.
Если хочешь быстро въехать в инструмент, то шпаргалка определенно пригодится.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Черт возьми, Hugging Face снова навалила золота 👍
Они выкатили бесплатный блог (практически КНИГУ), где без воды разбирают реальность разработки SOTA-моделей. Я не видел, чтобы какие-то лаборатории или исследователи так честно рассказывали о реальных решениях и нюансах в LLM-разработке. Это прямо сокровище.
Внутри более 200 страниц про предобучение, постобучение и необходимую инфраструктуру.
Пробежал взглядом по этому блогу, он чертовски подробный, как и их ultrascale playbook.
Читать тут:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook
Они выкатили бесплатный блог (практически КНИГУ), где без воды разбирают реальность разработки SOTA-моделей. Я не видел, чтобы какие-то лаборатории или исследователи так честно рассказывали о реальных решениях и нюансах в LLM-разработке. Это прямо сокровище.
Внутри более 200 страниц про предобучение, постобучение и необходимую инфраструктуру.
Пробежал взглядом по этому блогу, он чертовски подробный, как и их ultrascale playbook.
Читать тут:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Делитесь сессиями Claude Code одной командой
Выпущена версия v1.26.1
Команда:
- Все ваши сессии сгруппированы по чатам
- Можно скачать любую переписку
Как поделиться сессией:
- Передайте файл и добавьте его в проект
- Затем выполните:
Или если вы в одном аккаунте, нажмите «Resume» —
там будет команда:
Фича сделана, чтобы команда могла работать с общим контекстом, не теряя темп.
Выпущена версия v1.26.1
claude-code-templates, потому что часто нужно передавать работу прямо посреди сессии.Команда:
npx claude-code-templates@latest --chats
- Все ваши сессии сгруппированы по чатам
- Можно скачать любую переписку
Как поделиться сессией:
- Передайте файл и добавьте его в проект
- Затем выполните:
claude "read @ chat-file.md and continue"
Или если вы в одном аккаунте, нажмите «Resume» —
там будет команда:
claude --resume session_id
Фича сделана, чтобы команда могла работать с общим контекстом, не теряя темп.
Media is too big
VIEW IN TELEGRAM
Разработчики нашли способ сделать работу с Claude Code в терминале куда удобнее. Появился опенсорсный тул под названием Claude Code Enhanced Statusline. Он выводит в строку статуса всё, что раньше приходилось выискивать вручную: стоимость запросов, состояние MCP-серверов, инфу по Git и тд
Фишка в том, что статус-бар полностью настраивается. Можно собрать из 18 модулей свой набор. С темами тоже порядок, три готовые и возможность сделать свою.
Разработчики хвастаются приростом скорости до 90 процентов благодаря кэшированию. Всё работает на macOS, Linux и Windows. Ставится одной кнопкой, так что попробовать просто.
Код и инструкции лежат на GitHub: github.com/rz1989s/claude-code-statusline
Фишка в том, что статус-бар полностью настраивается. Можно собрать из 18 модулей свой набор. С темами тоже порядок, три готовые и возможность сделать свою.
Разработчики хвастаются приростом скорости до 90 процентов благодаря кэшированию. Всё работает на macOS, Linux и Windows. Ставится одной кнопкой, так что попробовать просто.
Код и инструкции лежат на GitHub: github.com/rz1989s/claude-code-statusline
This media is not supported in your browser
VIEW IN TELEGRAM
Освой GitHub MCP Server меньше чем за 90 секунд
Вчера наткнулся на GitHub MCP Server прямо в VS Code и честно, офигел.
Можно создавать репозитории, управлять задачами, делать pull-request’ы и многое другое… не выходя из редактора.
На видео короткое демо, чтобы показать, как MCP Server от github может зарядить твой VS Code🧠
VS Code реально выходит на новый уровень с этими MCP-серверами от разных инструментов и компаний :)
Вчера наткнулся на GitHub MCP Server прямо в VS Code и честно, офигел.
Можно создавать репозитории, управлять задачами, делать pull-request’ы и многое другое… не выходя из редактора.
На видео короткое демо, чтобы показать, как MCP Server от github может зарядить твой VS Code
VS Code реально выходит на новый уровень с этими MCP-серверами от разных инструментов и компаний :)
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Лайфхак для Cursor
Это прямо штука, которая меняет игру
Когда контекст подбирается к ~50%, просто напиши команду
Экономит деньги и держит ответы модели чёткими.
Это прямо штука, которая меняет игру
Когда контекст подбирается к ~50%, просто напиши команду
/summarize.Экономит деньги и держит ответы модели чёткими.
LangChain показал Deep Agents CLI с памятью инструкций
Команда LangChain представила пример консольного инструмента Deep Agents CLI, построенного на их пакете deepagents. Это демонстрация того, как можно сделать разработческое приложение поверх нового фреймворка.
Главная фишка - память. CLI запоминает указания и советы, которые пользователь давал раньше, и может опираться на этот контекст дальше. По сути, это более «осознанный» помощник для разработки.
Проект пока небольшой, но хорошо показывает, как deepagents можно интегрировать в реальные сценарии: помощь с кодом, автоматизация рутинных задач, адаптация к стилю конкретного разработчика.
Видео и подробнее в блоге:
blog.langchain.com/introducing-deepagents-cli/
youtu.be/IrnacLa9PJc
Команда LangChain представила пример консольного инструмента Deep Agents CLI, построенного на их пакете deepagents. Это демонстрация того, как можно сделать разработческое приложение поверх нового фреймворка.
Главная фишка - память. CLI запоминает указания и советы, которые пользователь давал раньше, и может опираться на этот контекст дальше. По сути, это более «осознанный» помощник для разработки.
Проект пока небольшой, но хорошо показывает, как deepagents можно интегрировать в реальные сценарии: помощь с кодом, автоматизация рутинных задач, адаптация к стилю конкретного разработчика.
Видео и подробнее в блоге:
blog.langchain.com/introducing-deepagents-cli/
youtu.be/IrnacLa9PJc
AI снова лезет в трейдинг.
На GitHub открыли проект NOFX — это open source версия нашумевшей системы NOF1 для автоматической квантовой торговли. Под капотом большие модели вроде DeepSeek и Qwen. Они анализируют графики, ищут точки входа, открывают и закрывают сделки и потом сами разбирают свои ошибки.
Есть нормальный интерфейс с графиком доходности, позициями и объяснениями решений прямо в реальном времени. Работает с Binance, Hyperliquid и Aster DEX. Развернуть можно одной кнопкой через Docker.
Кому хочется поиграться с AI-трейдингом и посмотреть, как модели ведут себя на реальном рынке, можно заценить:
github.com/tinkle-community/nofx
На GitHub открыли проект NOFX — это open source версия нашумевшей системы NOF1 для автоматической квантовой торговли. Под капотом большие модели вроде DeepSeek и Qwen. Они анализируют графики, ищут точки входа, открывают и закрывают сделки и потом сами разбирают свои ошибки.
Есть нормальный интерфейс с графиком доходности, позициями и объяснениями решений прямо в реальном времени. Работает с Binance, Hyperliquid и Aster DEX. Развернуть можно одной кнопкой через Docker.
Кому хочется поиграться с AI-трейдингом и посмотреть, как модели ведут себя на реальном рынке, можно заценить:
github.com/tinkle-community/nofx
This media is not supported in your browser
VIEW IN TELEGRAM
Все почему-то игнорят новую OCR-модель
Chandra от Datalab заняла топ в независимых бенчмарках и обогнала прежнего лидера dots-ocr.
Поддержка 40+ языков
Нормально тянет текст, таблицы, формулы
Я прогнал её на рукописном письме Рамануджана 1913 года.
Полностью open source
Chandra от Datalab заняла топ в независимых бенчмарках и обогнала прежнего лидера dots-ocr.
Поддержка 40+ языков
Нормально тянет текст, таблицы, формулы
Я прогнал её на рукописном письме Рамануджана 1913 года.
Полностью open source
Во время разработки нам часто приходится постоянно дергать базу. Писать SQL вручную не особо удобно, а в сложных запросах с несколькими JOIN легко накосячить.
Мне случайно попался Conar, это опенсорсный инструмент для управления базами, который с помощью AI генерирует и оптимизирует SQL-запросы. Существенно ускоряет работу с базой.
Это десктопное приложение на Electron с простой и понятной UI. Можно подключить свои модели вроде Claude, ChatGPT или Gemini.
Сейчас поддерживается PostgreSQL, позже добавят MySQL и MongoDB. Данные подключения к базе можно шифровать и хранить в облаке, чтобы безопасно подключаться откуда угодно.
Есть готовые инсталляторы под Windows, macOS и Linux. Разработчики также могут собрать и дорабатывать проект локально.
Мне случайно попался Conar, это опенсорсный инструмент для управления базами, который с помощью AI генерирует и оптимизирует SQL-запросы. Существенно ускоряет работу с базой.
Это десктопное приложение на Electron с простой и понятной UI. Можно подключить свои модели вроде Claude, ChatGPT или Gemini.
Сейчас поддерживается PostgreSQL, позже добавят MySQL и MongoDB. Данные подключения к базе можно шифровать и хранить в облаке, чтобы безопасно подключаться откуда угодно.
Есть готовые инсталляторы под Windows, macOS и Linux. Разработчики также могут собрать и дорабатывать проект локально.
This media is not supported in your browser
VIEW IN TELEGRAM
Аналитика сессий Claude Code (бета)
Только что завезли новую фичу в claude-code-templates
Пробуйте:
Теперь можно видеть, что реально происходит под капотом в ваших сессиях Claude Code: токены, вызовы тулов, эффективность кэша, стоимость и прочее.
Разбор по времени: 85% на исполнение (26 ч 7 мин) против 15% на диалоги (4 ч 45 мин).
Оказалось, что львиная доля времени уходит на выполнение, а не на болтовню туда-сюда.👀
Пока бета. Интересно, какие паттерны вы найдете… попробуйте.
Только что завезли новую фичу в claude-code-templates
Пробуйте:
npx claude-code-templates@latest --chats
Теперь можно видеть, что реально происходит под капотом в ваших сессиях Claude Code: токены, вызовы тулов, эффективность кэша, стоимость и прочее.
Разбор по времени: 85% на исполнение (26 ч 7 мин) против 15% на диалоги (4 ч 45 мин).
Оказалось, что львиная доля времени уходит на выполнение, а не на болтовню туда-сюда.
Пока бета. Интересно, какие паттерны вы найдете… попробуйте.
Please open Telegram to view this post
VIEW IN TELEGRAM
1