🦾 Машинное обучение стало базой почти всех современных AI-решений — от систем рекомендаций до генеративных моделей.
📌 22 декабря в 18:00 МСК мы разберём фундамент ML, его связь с Data Science и роль в развитии современных AI-моделей. Покажем pipeline обучения, объясним, чем ML отличается от классического программирования, и вместе обучим простую модель классификации изображений.
Открытый урок подойдёт тем, кто делает первые шаги в Data Science и ML, IT-специалистам, которые хотят расширить компетенции, и тем, кто давно ищет понятное, логичное объяснение того, как устроена ML-модель.
Регистрация на вебинар: https://tglink.io/0c63316b0095?erid=2W5zFGTEVY4
Вебинар проходит в преддверие старта курса «Machine Learning» 🎄 Учитесь в новом году по старым ценам!
Максимальная скидка 30% на обучение до 21.12.2025:
1 курс — тающая скидка 15% до 21.12
2 курса −25%, 3 курса −30%
Вы можете оставить заявку на странице курса. Учиться системно — выгоднее!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
📌 22 декабря в 18:00 МСК мы разберём фундамент ML, его связь с Data Science и роль в развитии современных AI-моделей. Покажем pipeline обучения, объясним, чем ML отличается от классического программирования, и вместе обучим простую модель классификации изображений.
Открытый урок подойдёт тем, кто делает первые шаги в Data Science и ML, IT-специалистам, которые хотят расширить компетенции, и тем, кто давно ищет понятное, логичное объяснение того, как устроена ML-модель.
Регистрация на вебинар: https://tglink.io/0c63316b0095?erid=2W5zFGTEVY4
Вебинар проходит в преддверие старта курса «Machine Learning» 🎄 Учитесь в новом году по старым ценам!
Максимальная скидка 30% на обучение до 21.12.2025:
1 курс — тающая скидка 15% до 21.12
2 курса −25%, 3 курса −30%
Вы можете оставить заявку на странице курса. Учиться системно — выгоднее!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Большинство качественных - слишком медленные.
И почти ни одна не решает вопрос аутентичности аудио на уровне архитектуры.
Resemble AI закрыли все три проблемы сразу.
Chatterbox Turbo 0 это:
🟢 <150 мс до первого звука
🟢 Качество уровня SOTA - превосходит более крупные проприетарные модели
🟢 Естественные, программируемые эмоции и интонации
🟢 Zero-shot клонирование голоса всего по 5 секундам аудио
🟢 PerTh watermarking - проверяемое и аутентифицированное аудио
🟢 Полностью open source, никакой «чёрной магии»
Редкий пример, когда скорость, качество и безопасность не идут на компромисс, а работают вместе.
HuggingFace: https://huggingface.co/spaces/ResembleAI/chatterbox-turbo-demo
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥5⚡3🥰1🤨1
Моделька на 309B параметров, из которых одновременно активны лишь 15B - за счёт умной MoE-маршрутизации модель достигает высокой эффективности. Сравнима с DeepSeek-V3.2 на общих бенчмарках.
MiMo-V2-Flash заточена под агентов и работу с инструментами.
🔥 Ключевые особенности
🏗️ Hybrid Attention
5:1 чередование 128-window SWA и Global Attention
Контекст — 256K токенов
🏆 Код и разработка
• SWE-Bench Verified - 73.4%
• SWE-Bench Multilingual - 71.7%
Новый SOTA среди open-source моделей
🚀 Скорость
• До 150 output tokens/sec
• Day-0 поддержка от @lmsysorg
MiMo-V2-Flash - пример того, как MoE-архитектуры выходят на новый уровень: быстрее, дешевле и готовые к агентным сценариям.
🤗 Model: http://hf.co/XiaomiMiMo/MiMo-V2-Flash
📝 Blog: http://mimo.xiaomi.com/blog/mimo-v2-flash
📄 Technical Report: http://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf
🎨 AI Studio: http://aistudio.xiaomimimo.com
#AI #LLM #MoE #OpenSource #AgenticAI #MachineLearning #DeepLearning #GenAI #SWEBench #Xiaomi #AIModels
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Когда OpenAI публикует такие посты, это редко бывает случайно.
Похоже, релиз новой модели для генерации изображений уже совсем близко. 🤯
@data_analysis_ml
Похоже, релиз новой модели для генерации изображений уже совсем близко. 🤯
@data_analysis_ml
❤12👍7🔥3
Media is too big
VIEW IN TELEGRAM
🚀Релиз HY World 1.5 (WorldPlay)
Команда Tencent Hunyuan открыла исходный код HY World 1.5 (WorldPlay) - одного из самых продвинутых и фреймворков для интерактивного моделирования миров в реальном времени.
В версии 1.5 представлен WorldPlay - стриминговая video diffusion-модель, позволяющая создавать и исследовать интерактивные 3D-миры с долгосрочной геометрической согласованностью.
3D-миры можно создавать по тексту или изображениям, свободно перемещаться по ним, осматриваться и взаимодействовать с окружением, как в видеоигре.
Ключевые особенности:
- Реальное время
Генерация длинных видеопотоков со скоростью 24 FPS с высокой стабильностью сцен.
- Геометрическая согласованность
Используется механизм Reconstituted Context Memory, который динамически пересобирает контекст из предыдущих кадров и предотвращает деградацию памяти.
- Точное и устойчивое управление
Dual Action Representation обеспечивает корректную реакцию на ввод с клавиатуры и мыши.
- Широкие сценарии применения
Поддержка вида от первого и третьего лица, событий, управляемых промптом, и бесконечного расширения мира.
Проект полностью открыт.
▪Попробовать: https://3d.hunyuan.tencent.com/sceneTo3D?tab=worldplay
▪Проект Page: https://3d-models.hunyuan.tencent.com/world/
▪ GitHub: https://github.com/Tencent-Hunyuan/HY-WorldPlay
▪Hugging Face: https://huggingface.co/tencent/HY-WorldPlay
Technical Report: https://3d-models.hunyuan.tencent.com/world/world1_5/HYWorld_1.5_Tech_Report.pdf
@data_analysis_ml
Команда Tencent Hunyuan открыла исходный код HY World 1.5 (WorldPlay) - одного из самых продвинутых и фреймворков для интерактивного моделирования миров в реальном времени.
В версии 1.5 представлен WorldPlay - стриминговая video diffusion-модель, позволяющая создавать и исследовать интерактивные 3D-миры с долгосрочной геометрической согласованностью.
3D-миры можно создавать по тексту или изображениям, свободно перемещаться по ним, осматриваться и взаимодействовать с окружением, как в видеоигре.
Ключевые особенности:
- Реальное время
Генерация длинных видеопотоков со скоростью 24 FPS с высокой стабильностью сцен.
- Геометрическая согласованность
Используется механизм Reconstituted Context Memory, который динамически пересобирает контекст из предыдущих кадров и предотвращает деградацию памяти.
- Точное и устойчивое управление
Dual Action Representation обеспечивает корректную реакцию на ввод с клавиатуры и мыши.
- Широкие сценарии применения
Поддержка вида от первого и третьего лица, событий, управляемых промптом, и бесконечного расширения мира.
Проект полностью открыт.
▪Попробовать: https://3d.hunyuan.tencent.com/sceneTo3D?tab=worldplay
▪Проект Page: https://3d-models.hunyuan.tencent.com/world/
▪ GitHub: https://github.com/Tencent-Hunyuan/HY-WorldPlay
▪Hugging Face: https://huggingface.co/tencent/HY-WorldPlay
Technical Report: https://3d-models.hunyuan.tencent.com/world/world1_5/HYWorld_1.5_Tech_Report.pdf
@data_analysis_ml
❤9👍5🔥3
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
❤3👍3🔥1
📌 Новое исследование показывает: AI-статьи, финансируемые Big Tech, получают больше цитирований, чаще цитируют “своих” и сильнее ориентируются на свежие результаты.
Ключевые факты:
🔹 Всего около 10% статей имеют финансирование Big Tech, но ~12% из них попадают в число наиболее цитируемых.
🔹 Анализировали ~50K работ из топ-конференций, классифицируя их по благодарностям: Big Tech, другое финансирование или без него.
🔹 За 20 лет доля Big Tech выросла с примерно 0 до ~10% всех топ-публикаций.
🔹 Чтобы оценить влияние, сравнили “сколько статьи публикуют” vs “сколько их цитируют”:
• статьи Big Tech цитируются больше, чем можно ожидать по их доле;
• нерефинансируемые - меньше.
🔹 Каждая группа чаще цитирует “своих”, но Big Tech особенно склонна ссылаться на другие Big Tech работы.
🔹 По возрасту ссылок — Big Tech публикует статьи, которые сильнее ориентированы на совсем свежие исследования, а значит такие деньги частично формируют, какие идеи и старые результаты AI-сообщество не забывает и к чему возвращается.
arxiv.org/abs/2512.05714
Ключевые факты:
🔹 Всего около 10% статей имеют финансирование Big Tech, но ~12% из них попадают в число наиболее цитируемых.
🔹 Анализировали ~50K работ из топ-конференций, классифицируя их по благодарностям: Big Tech, другое финансирование или без него.
🔹 За 20 лет доля Big Tech выросла с примерно 0 до ~10% всех топ-публикаций.
🔹 Чтобы оценить влияние, сравнили “сколько статьи публикуют” vs “сколько их цитируют”:
• статьи Big Tech цитируются больше, чем можно ожидать по их доле;
• нерефинансируемые - меньше.
🔹 Каждая группа чаще цитирует “своих”, но Big Tech особенно склонна ссылаться на другие Big Tech работы.
🔹 По возрасту ссылок — Big Tech публикует статьи, которые сильнее ориентированы на совсем свежие исследования, а значит такие деньги частично формируют, какие идеи и старые результаты AI-сообщество не забывает и к чему возвращается.
arxiv.org/abs/2512.05714
⚡2🔥2🥰1