Media is too big
VIEW IN TELEGRAM
Ох ты… так вообще не должно работать.
Собрать полноценное мобильное приложение за 493 секунды.
- Фронтенд
- Бэкенд с базой данных
- Интеграция с ИИ (NanoBanana Pro)
- Подключение платежей (RevenueCat)
- Отправка в App Store на ревью
Ни строчки кода. Весь процесс показан тут.
00:00 Вводная
00:35 Первый промт для vibecodeapp
01:47 Добавляем Nano Banana
02:25 Подключаем бэкенд и базу
02:58 Тестируем Nano Banana и базу
03:58 Чиним ошибку
04:56 Подключаем платежи
05:56 Генерируем ассеты для paywall
06:54 Тестируем paywall
Собрать полноценное мобильное приложение за 493 секунды.
- Фронтенд
- Бэкенд с базой данных
- Интеграция с ИИ (NanoBanana Pro)
- Подключение платежей (RevenueCat)
- Отправка в App Store на ревью
Ни строчки кода. Весь процесс показан тут.
00:00 Вводная
00:35 Первый промт для vibecodeapp
01:47 Добавляем Nano Banana
02:25 Подключаем бэкенд и базу
02:58 Тестируем Nano Banana и базу
03:58 Чиним ошибку
04:56 Подключаем платежи
05:56 Генерируем ассеты для paywall
06:54 Тестируем paywall
1
GOOGLE ANTIGRAVITY РАЗДАЛ БЕСПЛАТНЫЙ OPUS 4.5 THINKING
В Antigravity сейчас реально жарко после добавления Opus 4.5. Пакет стал выглядеть максимально мощно.
Вопрос открыт: OpenAI все? Посмотрим на следующей неделе, но пока они заметно отстают.
Также провели прямое сравнение GPT-5.1-Codex-Max и Opus 4.5 на одной и той же задаче. Opus 4.5 оказался сильно впереди. Если так пойдет дальше, причин пользоваться продуктами OpenAI почти не остается.
В Antigravity сейчас реально жарко после добавления Opus 4.5. Пакет стал выглядеть максимально мощно.
Вопрос открыт: OpenAI все? Посмотрим на следующей неделе, но пока они заметно отстают.
Также провели прямое сравнение GPT-5.1-Codex-Max и Opus 4.5 на одной и той же задаче. Opus 4.5 оказался сильно впереди. Если так пойдет дальше, причин пользоваться продуктами OpenAI почти не остается.
This media is not supported in your browser
VIEW IN TELEGRAM
Расширенное мышление
Хочешь, чтобы Claude реально думал перед ответом, когда ты работаешь через API?
Просто добавь:
Claude будет показывать пошаговое рассуждение в thinking-блоках перед финальным ответом.
Хочешь, чтобы Claude реально думал перед ответом, когда ты работаешь через API?
Просто добавь:
thinking: { type: "enabled", budget_tokens: 5000 }Claude будет показывать пошаговое рассуждение в thinking-блоках перед финальным ответом.
This media is not supported in your browser
VIEW IN TELEGRAM
Этот GitHub-репозиторий просто топ.
Там собрано 500+ валидных Nano Banana промптов в одном месте для генерации любых визуалов через модель Nano от Google: портреты, персонажи, логотипы, продукты, обои. Закрыто вообще всё.
Забираем, кому пригодится
Там собрано 500+ валидных Nano Banana промптов в одном месте для генерации любых визуалов через модель Nano от Google: портреты, персонажи, логотипы, продукты, обои. Закрыто вообще всё.
Забираем, кому пригодится
Команда показала, как использовать Claude Code для обучения open-source LLM под ключ. Они подключили навыки Hugging Face к Claude Code, и агент смог запускать полный цикл обучения моделей end-to-end. Самое интересное, это работает не только с Claude, но и с Codex, Cursor и Gemini CLI.
Как это выглядит на практике:
- ты даешь агенту задачу дообучить модель на датасете, можно указать свой или поручить агенту найти его самому
- агент сам подбирает железо под размер модели и проверяет датасет
- обучение запускается на облачных GPU, в режиме теста или полноценного прогона
- прогресс в реальном времени отображается через дашборд Trackio
- чекпоинты автоматически пушатся в Hugging Face
Уже можно попробовать в своем любимом кодинг-агенте.
Как это выглядит на практике:
- ты даешь агенту задачу дообучить модель на датасете, можно указать свой или поручить агенту найти его самому
- агент сам подбирает железо под размер модели и проверяет датасет
- обучение запускается на облачных GPU, в режиме теста или полноценного прогона
- прогресс в реальном времени отображается через дашборд Trackio
- чекпоинты автоматически пушатся в Hugging Face
Уже можно попробовать в своем любимом кодинг-агенте.
❤1🤯1
Breaking 🚨 : Google работает над функцией «живого перевода» для Gemini в веб-версии
В интерфейсе обнаружена опция «Поделиться экраном для онлайн-перевода». Похоже, Gemini сможет переводить происходящее на экране в реальном времени.
Gemini 3 Pro Native Audio & Video model скоро?👀
В интерфейсе обнаружена опция «Поделиться экраном для онлайн-перевода». Похоже, Gemini сможет переводить происходящее на экране в реальном времени.
Gemini 3 Pro Native Audio & Video model скоро?
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Мэнг записал 50-минутный гайд по созданию высококачественных целевых страниц с помощью Gemini 3.
Автор показал, какие промпты и компоненты использовал при работе с aura.build. В качестве примеров шаблонов упомянуты:
aura-financial.aura.build
roar-ai.aura.build
Также он поделился списком ресурсов для вдохновения и рефов по дизайну и интерфейсам:
supahero.io
bentogrids.com
cta.gallery
mobbin.com
dribbble.com
И по многочисленным просьбам выложен remix-линк на WebGL-фон из Unicorn Studio:
https://unicorn.studio/remix/AlkJLTvJC9q6Zw8oRD4g
Автор показал, какие промпты и компоненты использовал при работе с aura.build. В качестве примеров шаблонов упомянуты:
aura-financial.aura.build
roar-ai.aura.build
Также он поделился списком ресурсов для вдохновения и рефов по дизайну и интерфейсам:
supahero.io
bentogrids.com
cta.gallery
mobbin.com
dribbble.com
И по многочисленным просьбам выложен remix-линк на WebGL-фон из Unicorn Studio:
https://unicorn.studio/remix/AlkJLTvJC9q6Zw8oRD4g
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпускает GPT-5.1-Codex-Max в публичный превью GitHub Copilot.
По первым тестам GPT-5.1-Codex-Max показывает себя так:
- отлично справляется со сложными рефакторингами
- надежнее работает как напарник на Windows
Можно попробовать самому в Visual Studio Code.
Ссылка: тык
По первым тестам GPT-5.1-Codex-Max показывает себя так:
- отлично справляется со сложными рефакторингами
- надежнее работает как напарник на Windows
Можно попробовать самому в Visual Studio Code.
Ссылка: тык
This media is not supported in your browser
VIEW IN TELEGRAM
Хочешь сохранить что-то в память Claude без открытия файла?
Просто начни сообщение с #, например:
Claude спросит, куда это сохранить. Память обновлена. Можно дальше писать код.
Просто начни сообщение с #, например:
# Always use bun instead of npm
Claude спросит, куда это сохранить. Память обновлена. Можно дальше писать код.
❤1
Вайбкодеры, забираем халяву: Cursor открыл безлимитный доступ к одной из лучших моделей для кодинга – GPT 5.1 Codex Max
Акция продлится до 11 декабря✌️
Акция продлится до 11 декабря
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
До сих пор не верю, что Gemini 3 умеет такое. 😨
Он может сгенерить целую 3D-интерактивную систему управления зданием на Three.js. Без кода, просто по текстовому промпту.
Он анализирует и симулирует данные в реальном времени, чтобы находить потенциальные проблемы.
Туториал и промпты слишком длинные, чтобы вставлять их сюда.
Забрать бесплатно можно здесь
Он может сгенерить целую 3D-интерактивную систему управления зданием на Three.js. Без кода, просто по текстовому промпту.
Он анализирует и симулирует данные в реальном времени, чтобы находить потенциальные проблемы.
Туториал и промпты слишком длинные, чтобы вставлять их сюда.
Забрать бесплатно можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👀3
В GitHub появился проект InkSight от Google Research - система, которая умеет превращать фотографии рукописных заметок не просто в текст, а в векторный цифровой почерк с сохранением траектории письма. В отличие от обычного OCR, здесь сохраняется сама логика и форма написания, а результат можно редактировать и искать по нему.
Проект построен на связке ViT + mT5 (encoder–decoder) и обучается в двух режимах - «чтение» и «письмо». Это позволяет модели одновременно понимать рукописный текст и восстанавливать процесс его написания.
InkSight поддерживает несколько языков, разные фоны и стили письма, а также два режима работы - по словам и по всей странице. Выходные данные - векторные штрихи, которые можно импортировать в заметочные приложения.
Проект уже доступен на GitHub, есть онлайн-демо на Hugging Face, полный датасет и Jupyter-примеры для локального запуска.
Проект построен на связке ViT + mT5 (encoder–decoder) и обучается в двух режимах - «чтение» и «письмо». Это позволяет модели одновременно понимать рукописный текст и восстанавливать процесс его написания.
InkSight поддерживает несколько языков, разные фоны и стили письма, а также два режима работы - по словам и по всей странице. Выходные данные - векторные штрихи, которые можно импортировать в заметочные приложения.
Проект уже доступен на GitHub, есть онлайн-демо на Hugging Face, полный датасет и Jupyter-примеры для локального запуска.
❤3
Пользуешься Cursor или TRAE и всё ещё завидуешь Skills из Claude Code?
Кто-то уже вынес всю систему Skills в универсальный open-source инструмент:
- без Claude Code
- можно напрямую подключать те же Skills в Cursor, TRAE и других IDE
- установка официального репозитория skills от Anthropic в один клик
Skills от Claude теперь работают во всех AI-IDE.🤝
Кто-то уже вынес всю систему Skills в универсальный open-source инструмент:
- без Claude Code
- можно напрямую подключать те же Skills в Cursor, TRAE и других IDE
- установка официального репозитория skills от Anthropic в один клик
npm i -g openskills
openskills install anthropics/skills
openskills sync
Skills от Claude теперь работают во всех AI-IDE.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - numman-ali/openskills: Universal skills loader for AI coding agents - npm i -g openskills
Universal skills loader for AI coding agents - npm i -g openskills - numman-ali/openskills
Microsoft выкатили open-source инструмент для запуска AI-моделей локально
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local
This media is not supported in your browser
VIEW IN TELEGRAM
Китайские ИИ-агенты ведут больше 50 аккаунтов в соцсетях на автопилоте. Круглосуточно, 24/7.
Они штампуют контент в таком масштабе, что трудно представить
Они штампуют контент в таком масштабе, что трудно представить
🤯15❤2👏2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Репозиторий в ChatGPT
Общайся с любым репозиторием на GitHub
Ссылка: http://repo-to-chatgpt-i8ry.vercel.app
Репозиторий: http://github.com/filiksyos/repo-to-chatgpt
Общайся с любым репозиторием на GitHub
Ссылка: http://repo-to-chatgpt-i8ry.vercel.app
Репозиторий: http://github.com/filiksyos/repo-to-chatgpt
This media is not supported in your browser
VIEW IN TELEGRAM
Vim mode
Устал тянуться к мышке, чтобы редактировать свои промпты?
Просто введи: /vim
И получишь полноценное редактирование в стиле vim прямо в Claude Code:
h j k l → навигация
ciw → изменить слово
dd → удалить строку
w b → прыжки по словам
Редактируй промпты со скоростью мысли.
Устал тянуться к мышке, чтобы редактировать свои промпты?
Просто введи: /vim
И получишь полноценное редактирование в стиле vim прямо в Claude Code:
h j k l → навигация
ciw → изменить слово
dd → удалить строку
w b → прыжки по словам
Редактируй промпты со скоростью мысли.
👍6❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Визуализация того, что находится внутри моделей ИИ. Это представляет слои взаимосвязанных нейронных сетей. И да, со временем формируются паттерны, и они могут образовывать своего рода сигнатуру того, как модель мыслит.
Этот паттерн можно рассматривать как процесс мышления.
Этот паттерн можно рассматривать как процесс мышления.
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
Представили Dexter 2.0
Опенсорс. Заточен под финансовые исследования.
По сути, как Claude Code, только для акций.
Что умеет Dexter:
• планирует задачи
• работает автономно
• валидирует результаты
• анализирует акции
Использует OSS-инструменты вроде LangChain, плюс свежий стек на TypeScript, React, Ink и Bun.
Быстро разворачивается. Лёгок в использовании. Код писать не нужно.
Опенсорс. Заточен под финансовые исследования.
По сути, как Claude Code, только для акций.
Что умеет Dexter:
• планирует задачи
• работает автономно
• валидирует результаты
• анализирует акции
Использует OSS-инструменты вроде LangChain, плюс свежий стек на TypeScript, React, Ink и Bun.
Быстро разворачивается. Лёгок в использовании. Код писать не нужно.
👍11❤3🔥3