#полезное
😎 Wan 2.5 — китайский нейрокомбайн с генерацией видео по аудио
Вышла моделька Wan 2.5, продолжение всеми любимой в опенсорсе 2.2 версии.
Можно было бы написать просто про её релиз сразу, но после него выкатили ещё кучу фич. Оказалось, что платформа теперь моделька мультимодальная и чуть ли не единственная в своём роде.
Считайте сами, Wan 2.5 поддерживает вход и выход в следующих форматах: Text, Image, Video, Audio. Только запах осталось добавить. Причём видео и картинки можно редактировать промптом, и, судя по всему, всё это можно комбинировать. Например, только что появилась возможность генерации видео по аудиовходу.
Что это значит? Персонажи и окружение в видео теперь могут двигаться в такт музыке! Ну и нативный липсинк, конечно же.
Кроме того, обновили интерфейс и добавили удобный редактор. Полноценно монтировать там, конечно, не получится, но генерацию в целом это упрощает.
В опенсорс, как и ожидалось, пока не выложили.
Анонс
👉 Новости 👉 База вопросов
Вышла моделька Wan 2.5, продолжение всеми любимой в опенсорсе 2.2 версии.
Можно было бы написать просто про её релиз сразу, но после него выкатили ещё кучу фич. Оказалось, что платформа теперь моделька мультимодальная и чуть ли не единственная в своём роде.
Считайте сами, Wan 2.5 поддерживает вход и выход в следующих форматах: Text, Image, Video, Audio. Только запах осталось добавить. Причём видео и картинки можно редактировать промптом, и, судя по всему, всё это можно комбинировать. Например, только что появилась возможность генерации видео по аудиовходу.
Что это значит? Персонажи и окружение в видео теперь могут двигаться в такт музыке! Ну и нативный липсинк, конечно же.
Кроме того, обновили интерфейс и добавили удобный редактор. Полноценно монтировать там, конечно, не получится, но генерацию в целом это упрощает.
В опенсорс, как и ожидалось, пока не выложили.
Анонс
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес #pytorch
🤔 Как реализовать аугментацию данных с помощью PyTorch и каковы её преимущества?
💬 Кратко:
Аугментация данных в PyTorch выполняется с помощью модуля
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
💬 Кратко:
Аугментация данных в PyTorch выполняется с помощью модуля
torchvision. transforms . Этот модуль позволяет применять различные преобразования изображений, такие как повороты, обрезки и зеркалирование. Это увеличивает обьем данных и помогает модели лучше обобщать. Например, можно использовать RandomHorizontalFlip дЛя случайного зеркалирования изображений.📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
Please open Telegram to view this post
VIEW IN TELEGRAM
YeaHub
YeaHub — тренажер собеседований по IT
5000+ вопросов для подготовки к интервью. Фильтры, квизы, статистика!
#полезное
😇 Claude Sonnet 4.5
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
👉 Новости 👉 База вопросов
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Что такое распределённая система контроля версий?
💬 Кратко:
Распределённая система контроля версий (например, Git) сохраняет полную копию репозитория у каждого участника проекта. Это делает работу более надёжной, позволяет работать оффлайн и обеспечивает лёгкое слияние изменений.
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
💬 Кратко:
Распределённая система контроля версий (например, Git) сохраняет полную копию репозитория у каждого участника проекта. Это делает работу более надёжной, позволяет работать оффлайн и обеспечивает лёгкое слияние изменений.
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️🔥 Tinker — первый продукт Thinking Machines
Tinker это облачное API для файнтюна LLM направленное на ресёрчеров. Оно берёт берёт на себя менеджмент инфраструктуры, при этом оставляет контроль над данными и алгоритмами.
Выглядит это так: пользователям дают крайне простой интерфейс в виде forward_backward, sample, optim_step и ещё парочки функций для сохранения/загрузки тюнов. Остальное (трейнинг луп, энвайроменты и т.д.) можно спокойно запускать у себя на ноутбуке. Результаты тренировки можно скачать.
Пока что тренировать можно только LoRA, поддержку полноценного файнтюна тоже обещают, но полноценный тюн будет явно дороже. Судя по ресёрчу Thinking Machines, LoRA не отличаются по качеству от полноценных файнтюнов на небольших датасетах. Но у LoRA есть большое преимущество по эффективности — для их тренировки нужно на 30% меньше флопс, кроме этого использование LoRA даёт дополнительную экономию при тренировке большого количества за раз.
Из моделей пока доступны последние версии Llama 3 (кроме 405B) и Qwen 3, для части из них даже доступны Base модели. Пока что доступ по вейтлисту. В первое время сервис будет бесплатным, ввести оплату обещают уже в ближайшие недели.
Вышел очень крутой продукт, надеюсь цена будет не конской. Ну и следующий шаг компании очевиден — API для инференса, чтобы эти модельки где-то можно было запускать.
Блогпост
👉 Новости 👉 База вопросов
Tinker это облачное API для файнтюна LLM направленное на ресёрчеров. Оно берёт берёт на себя менеджмент инфраструктуры, при этом оставляет контроль над данными и алгоритмами.
Выглядит это так: пользователям дают крайне простой интерфейс в виде forward_backward, sample, optim_step и ещё парочки функций для сохранения/загрузки тюнов. Остальное (трейнинг луп, энвайроменты и т.д.) можно спокойно запускать у себя на ноутбуке. Результаты тренировки можно скачать.
Пока что тренировать можно только LoRA, поддержку полноценного файнтюна тоже обещают, но полноценный тюн будет явно дороже. Судя по ресёрчу Thinking Machines, LoRA не отличаются по качеству от полноценных файнтюнов на небольших датасетах. Но у LoRA есть большое преимущество по эффективности — для их тренировки нужно на 30% меньше флопс, кроме этого использование LoRA даёт дополнительную экономию при тренировке большого количества за раз.
Из моделей пока доступны последние версии Llama 3 (кроме 405B) и Qwen 3, для части из них даже доступны Base модели. Пока что доступ по вейтлисту. В первое время сервис будет бесплатным, ввести оплату обещают уже в ближайшие недели.
Вышел очень крутой продукт, надеюсь цена будет не конской. Ну и следующий шаг компании очевиден — API для инференса, чтобы эти модельки где-то можно было запускать.
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤯 FastMCP — Быстрый, Python-способ создания MCP-серверов!
Серверы Model Context Protocol (MCP) — это новый стандартизированный способ предоставления контекста и инструментов вашим LLM, а FastMCP делает создание серверов MCP простым и интуитивно понятным. Создавайте инструменты, предоставляйте ресурсы и определяйте подсказки с помощью чистого кода Python!
Github
👉 Новости 👉 База вопросов
Серверы Model Context Protocol (MCP) — это новый стандартизированный способ предоставления контекста и инструментов вашим LLM, а FastMCP делает создание серверов MCP простым и интуитивно понятным. Создавайте инструменты, предоставляйте ресурсы и определяйте подсказки с помощью чистого кода Python!
Github
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😱 Релиз Agent S3 - продвинутый агент для работы с компьютером, который приближается к человеческому уровню.
Вместо того, чтобы усложнять одну модель, авторы запускают несколько агентов параллельно и затем выбирают лучший результат.
Метод назвили **Behavior Best-of-N (bBoN).
Как работает:
🟢 Каждый агент пробует решить задачу.
🟢 Его действия переводятся в поведенческий нарратив - короткое описание, что реально изменилось на экране.
🟢 Специальный судья сравнивает эти нарративы и выбирает лучший.
Результаты:
- GPT-5 с 10 параллельными агентами → 69.9% успеха
- Для примера у GPT-5 Mini → 60.2%
- Agent S3* набирает на +10% выше предыдущей SOTA
Paper: http://arxiv.org/abs/2510.02250
Code: http://github.com/simular-ai/Agent-S
Blog: http://simular.ai/articles/agent-s3
👉 Новости 👉 База вопросов
Вместо того, чтобы усложнять одну модель, авторы запускают несколько агентов параллельно и затем выбирают лучший результат.
Метод назвили **Behavior Best-of-N (bBoN).
Как работает:
Результаты:
- GPT-5 с 10 параллельными агентами → 69.9% успеха
- Для примера у GPT-5 Mini → 60.2%
- Agent S3* набирает на +10% выше предыдущей SOTA
Paper: http://arxiv.org/abs/2510.02250
Code: http://github.com/simular-ai/Agent-S
Blog: http://simular.ai/articles/agent-s3
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #pytorch
🤔 Каковы ключевые особенности и преимущества JIT-компилятора PyTorch?
💬 Кратко:
JIT-компилятор в PyTorch позволяет оптимизировать модель, улучшая её производительность, сокращая время выполнения и повышая эффективность использования памяти. Он преобразует код из режима немедленного выполнения в графовый режим. Также поддерживается сериализация моделей для их использования на различных платформах, включая устройства с ограниченными ресурсами.
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
💬 Кратко:
JIT-компилятор в PyTorch позволяет оптимизировать модель, улучшая её производительность, сокращая время выполнения и повышая эффективность использования памяти. Он преобразует код из режима немедленного выполнения в графовый режим. Также поддерживается сериализация моделей для их использования на различных платформах, включая устройства с ограниченными ресурсами.
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
Please open Telegram to view this post
VIEW IN TELEGRAM
YeaHub
YeaHub — тренажер собеседований по IT
5000+ вопросов для подготовки к интервью. Фильтры, квизы, статистика!
#полезное
🛞 Learning Deep Representations of Data Distributions — новая бесплатная книга от исследователей UC Berkeley (Sam Buchanan, Druv Pai, Peng Wang, Yi Ma).
Главная идея книги - показать, почему и как глубокие нейросети учатся извлекать сжатые, информативные представления сложных данных, и что у них внутри:
В книге вы найдите:
🟠 простое объяснение фундаментальных принципов архитектур нейросетей через оптимизацию и теорию информации.
🟠 как модели формируют инвариантные и устойчивые представления
🟠 связь с PCA, автоэнкодерами и дифференцируемыми отображениями — то есть, как нейросети по сути обобщают классические методы сжатия данных и учатся находить их оптимальное представление
🟠 взгляд на обучение через энергию, энтропию и структуру данных
🟠 свежие идеи для понимания LLM и генеративных моделей
Читать онлайн: ma-lab-berkeley.github.io/deep-representation-learning-book
Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book
👉 Новости 👉 База вопросов
Главная идея книги - показать, почему и как глубокие нейросети учатся извлекать сжатые, информативные представления сложных данных, и что у них внутри:
В книге вы найдите:
Читать онлайн: ma-lab-berkeley.github.io/deep-representation-learning-book
Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😊 Amazon FAR показывает, как роботы учатся двигаться как люди
Новая команда Amazon FAR (созданная после покупки Covariant**) представила систему, которая умеет **переносить длинные последовательности человеческих движений (>30 секунд) на роботов с разной анатомией и в разных условиях — например, при взаимодействии с коробками, столами и объектами разных размеров.
Технология позволяет делать масштабное симуляционное обучение и zero-shot-трансфер — без необходимости собирать сложные телеметрические данные от операторов-людей, что особенно важно для гуманоидных роботов.
📂 Датасет доступен на Hugging Face (ищите *OmniRetarget*), а полный код-фреймворк команда обещает выложить скоро.
На странице проекта уже есть трёхмерные интерактивные демо на *three.js* — выглядят впечатляюще.
omniretarget.github.io
👉 Новости 👉 База вопросов
Новая команда Amazon FAR (созданная после покупки Covariant**) представила систему, которая умеет **переносить длинные последовательности человеческих движений (>30 секунд) на роботов с разной анатомией и в разных условиях — например, при взаимодействии с коробками, столами и объектами разных размеров.
Технология позволяет делать масштабное симуляционное обучение и zero-shot-трансфер — без необходимости собирать сложные телеметрические данные от операторов-людей, что особенно важно для гуманоидных роботов.
На странице проекта уже есть трёхмерные интерактивные демо на *three.js* — выглядят впечатляюще.
omniretarget.github.io
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😇 Генерация видео из кода с Code2Video
Code2Video предлагает инновационный подход к созданию образовательных видео на основе кода. Проект позволяет визуализировать программные концепции, превращая код в наглядные видеоматериалы, что упрощает обучение и понимание.
📂 Основные моменты:
- Генерация видео на основе программного кода.
- Поддержка различных учебных тем.
- Визуализация сложных концепций в доступной форме.
- Открытый доступ к проекту и данным.
GitHub
👉 Новости 👉 База вопросов
Code2Video предлагает инновационный подход к созданию образовательных видео на основе кода. Проект позволяет визуализировать программные концепции, превращая код в наглядные видеоматериалы, что упрощает обучение и понимание.
- Генерация видео на основе программного кода.
- Поддержка различных учебных тем.
- Визуализация сложных концепций в доступной форме.
- Открытый доступ к проекту и данным.
GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Что такое рабочий процесс Gitflow?
💬 Кратко:
Gitflow - это стратегия ветвления, которая делит разработку на несколько веток:
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
💬 Кратко:
Gitflow - это стратегия ветвления, которая делит разработку на несколько веток:
main для релизов, develop для активной разработки и дополнительные ветки для новых функций, исправлений багов и релизов. Этот процесс удобен для крупных проектов с чёткими этапами разработки.📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🥱 Nvidia будет частью нового раунда финансирования xAI
Особенность раунда в том, что акций xAI инвесторы не получают. Всё идёт через SPV (Special Purpose Vehicle), специально созданную компанию, которая приобретёт GPU для Colossus 2 и будет сдавать их в аренду xAI. В чём-то это похоже на схему OpenAI со Stargate. Доля Nvidia составит 2 миллиарда, а в целом размер раунда ожидается в 20 миллиардов — 7.5 будут акциями SPV, остальное в долг.
👉 Новости 👉 База вопросов
Особенность раунда в том, что акций xAI инвесторы не получают. Всё идёт через SPV (Special Purpose Vehicle), специально созданную компанию, которая приобретёт GPU для Colossus 2 и будет сдавать их в аренду xAI. В чём-то это похоже на схему OpenAI со Stargate. Доля Nvidia составит 2 миллиарда, а в целом размер раунда ожидается в 20 миллиардов — 7.5 будут акциями SPV, остальное в долг.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Media is too big
VIEW IN TELEGRAM
#полезное
😵💫 Глава Nvidia Дженсен Хуанг объяснил, почему инвестировал $2 млрд в компанию Илона Маска xAI - и сделал это с редкой откровенностью:
Крупнейшие компании Amazon, Microsoft и Google - управляют бизнесом на несколько триллионов долларов и тратят около сотни миллиадров на инфраструктуру дата-центров.
Но сейчас происходит тектонический сдвиг:
➡️ переход от CPU-систем к генеративным AI-платформам на GPU, и этот переход только начинается.
Nvidia уже продала оборудования на сотни миллиардов долларов для этой новой эры,
но на фоне многотриллионного рынка AI-инфраструктуры и это тольео начало пути.
Мир вступает в долгосрочный цикл экспансии инвестиций в ИИ,
Nvidia - в самом центре этого колоссального рынка.
👉 Новости 👉 База вопросов
«Единственное, о чём я жалею, что не дал ему больше денег.
Когда речь идёт о проектах, в которых участвует Илон, ты хочешь быть частью этого. Он дал нам шанс инвестировать в xAI и это инвестиция в действительно великое будущее. Это не просто партнёрское финансирование, это вера в идею».
Крупнейшие компании Amazon, Microsoft и Google - управляют бизнесом на несколько триллионов долларов и тратят около сотни миллиадров на инфраструктуру дата-центров.
Но сейчас происходит тектонический сдвиг:
Nvidia уже продала оборудования на сотни миллиардов долларов для этой новой эры,
но на фоне многотриллионного рынка AI-инфраструктуры и это тольео начало пути.
Мир вступает в долгосрочный цикл экспансии инвестиций в ИИ,
Nvidia - в самом центре этого колоссального рынка.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес #git
🤔 Что делает файл .gitignore?
💬 Кратко:
Файл
📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
💬 Кратко:
Файл
.gitignore определяет файлы и папки, которые Git должен игнорировать. Это используется для исключения временных файлов, логов, зависимостей, сгенерированных файлов и других ненужных элементов.📌 Полный разбор + примеры использования — на платформе:
👉 Перейти к разбору
📣 Хочешь получать больше таких разборов?
Подпишись на наш главный канал
Please open Telegram to view this post
VIEW IN TELEGRAM