Анализ данных (Data analysis) – Telegram
Анализ данных (Data analysis)
47K subscribers
2.72K photos
308 videos
1 file
2.32K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🚀 GLM-4.6V от Zai_org только что вышла на Chutes 🪂

- 106B параметров
- Контекст 128K
Нативный vision-driven function calling

GLM-4.6V умеет *действовать на основе увиденного*.

Возможности:
- точное, пиксель-в-пиксель восстановление HTML по изображению
- глубокое понимание сложных мультимодальных документов
- прямой вызов функций из визуального ввода
- связка «зрение → рассуждение → действие» без костылей

Попробовать модель:
https://chutes.ai/app/chute/8f2105c5-b200-5aa5-969f-0720f7690f3c?tab=api
🔥10👍54
🔊 Google представила обновления моделей Gemini 2.5 Flash и Pro для Text-to-Speech (TTS)

Что нового:
- Более гибкая передача эмоций и тональности
- Контекстно-зависимая настройка темпа речи
- Улучшенная работа с несколькими говорящими

Теперь разработчики получают куда больше контроля над тем, как именно модель озвучивает тексты - от эмоционального стиля до динамики повествования.

https://blog.google/technology/developers/gemini-2-5-text-to-speech/

@ai_machinelearning_big_data


#tts #Gemini #google
👍149🔥3
Microsoft запустила VibeVoice Realtime на Hugging Face - лёгкую стриминговую text-to-speech модель, которая начинает озвучивать текст примерно за 300 миллисекунд.

Идеально для живых данных и разговоров с LLM.

huggingface.co/microsoft/VibeVoice-Realtime-0.5B
13👍9🥰4
This media is not supported in your browser
VIEW IN TELEGRAM
Не просто строить мультимодальные модели, а создавать мир завтрашнего дня.
//От модели данных до будущего — ближе, чем кажется.

В VK уже работают над этим. Узнайте, как команды создают технологии, которые определяют завтрашний день. Заходите по ссылке — смотрите, читайте, вдохновляйтесь.
4🥰2😁2🤣2🍌1
🚀 Live Avatar - генерация интерактивного аватара в реальном времени и бесконечной длины!

Система построена на диффузионной модели 14B параметров, выдаёт 20 FPS на 5×H800 (4 шага семплинга).

Можно говорить в микрофон и смотреть в камеру - аватар отвечает сразу, живым видеопотоком.

В связке с Qwen3-Omni это превращается в полноценный формат лицом-к-лицу с AI, автономные диалоги и агенты, которые могут общаться между собой потоково, в реальном времени, более 10 000 секунд подряд.


🔗YouTube: https://youtube.com/watch?v=srbsGlLNpAc&list=TLGGqUfEsaFb8-QwODEyMjAyNQ&t=55s
🔗Модель: https://modelscope.cn/models/Quark-Vision/Live-Avatar
🔗Блог: https://liveavatar.github.io
🔗Modelscope: https://modelscope.cn/papers/2512.04677
🔗Код: https://github.com/Alibaba-Quark/LiveAvatar
👍10🔥54
⚡️ Обсуждение развития ИИ давно раскололось на несколько "лагерей"

Сегодня вокруг ИИ есть несколько устойчивых позиций:
- думеры, которые видят экзистенциальную угрозу
- этики, фокусирующиеся на рисках и регулировании
- билдеры, которые просто строят и запускают продукты
- прагматики, смотрящие на пользу здесь и сейчас
- скептики, считающие всё это переоценённым

Одни призывают срочно замедлить развитие.
Другие говорят, что LLM - всего лишь продвинутый автодополнитель текста.

Третьи уверены, что AGI практически неизбежен и близок.

При этом парадокс в том, что все наблюдают один и тот же технологический прогресс, одни и те же модели, графики и демо.

Но выводы делают диаметрально противоположные.

Именно поэтому любой разговор об ИИ почти мгновенно скатывается в поляризацию, споры и идеологические войны, а не в спокойный анализ.

@data_analysis_ml
👍138🔥4🙏1
🦾 Машинное обучение стало базой почти всех современных AI-решений — от систем рекомендаций до генеративных моделей.
📌 22 декабря в 18:00 МСК мы разберём фундамент ML, его связь с Data Science и роль в развитии современных AI-моделей. Покажем pipeline обучения, объясним, чем ML отличается от классического программирования, и вместе обучим простую модель классификации изображений.

Открытый урок подойдёт тем, кто делает первые шаги в Data Science и ML, IT-специалистам, которые хотят расширить компетенции, и тем, кто давно ищет понятное, логичное объяснение того, как устроена ML-модель.

Регистрация на вебинар: https://tglink.io/0c63316b0095?erid=2W5zFGTEVY4

Вебинар проходит в преддверие старта курса «Machine Learning» 🎄 Учитесь в новом году по старым ценам!
Максимальная скидка 30% на обучение до 21.12.2025:
1 курс — тающая скидка 15% до 21.12
2 курса −25%, 3 курса −30%
Вы можете оставить заявку на странице курса. Учиться системно — выгоднее!

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Большинство быстрых text-to-speech моделей звучат роботизировано.

Большинство качественных - слишком медленные.
И почти ни одна не решает вопрос аутентичности аудио на уровне архитектуры.

Resemble AI закрыли все три проблемы сразу.

Chatterbox Turbo 0 это:

🟢 <150 мс до первого звука
🟢 Качество уровня SOTA - превосходит более крупные проприетарные модели
🟢 Естественные, программируемые эмоции и интонации
🟢 Zero-shot клонирование голоса всего по 5 секундам аудио
🟢 PerTh watermarking - проверяемое и аутентифицированное аудио
🟢 Полностью open source, никакой «чёрной магии»

Редкий пример, когда скорость, качество и безопасность не идут на компромисс, а работают вместе.

HuggingFace: https://huggingface.co/spaces/ResembleAI/chatterbox-turbo-demo
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥53🥰1🤨1
🧠 Xiaomi представила MiMo-V2-Flash - новую open-source MoE-модель с фокусом на максимальную скорость без потери качества.

Моделька на 309B параметров, из которых одновременно активны лишь 15B - за счёт умной MoE-маршрутизации модель достигает высокой эффективности. Сравнима с DeepSeek-V3.2 на общих бенчмарках.

MiMo-V2-Flash заточена под агентов и работу с инструментами.

🔥 Ключевые особенности

🏗️ Hybrid Attention
5:1 чередование 128-window SWA и Global Attention
Контекст — 256K токенов

🏆 Код и разработка
• SWE-Bench Verified - 73.4%
• SWE-Bench Multilingual - 71.7%
Новый SOTA среди open-source моделей

🚀 Скорость
• До 150 output tokens/sec
• Day-0 поддержка от @lmsysorg

MiMo-V2-Flash - пример того, как MoE-архитектуры выходят на новый уровень: быстрее, дешевле и готовые к агентным сценариям.

🤗 Model: http://hf.co/XiaomiMiMo/MiMo-V2-Flash
📝 Blog: http://mimo.xiaomi.com/blog/mimo-v2-flash
📄 Technical Report: http://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf
🎨 AI Studio
: http://aistudio.xiaomimimo.com

#AI #LLM #MoE #OpenSource #AgenticAI #MachineLearning #DeepLearning #GenAI #SWEBench #Xiaomi #AIModels
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍5🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Когда OpenAI публикует такие посты, это редко бывает случайно.
Похоже, релиз новой модели для генерации изображений уже совсем близко. 🤯

@data_analysis_ml
12👍7🔥3
Media is too big
VIEW IN TELEGRAM
🚀Релиз HY World 1.5 (WorldPlay)

Команда Tencent Hunyuan открыла исходный код HY World 1.5 (WorldPlay) - одного из самых продвинутых и фреймворков для интерактивного моделирования миров в реальном времени.

В версии 1.5 представлен WorldPlay - стриминговая video diffusion-модель, позволяющая создавать и исследовать интерактивные 3D-миры с долгосрочной геометрической согласованностью.

3D-миры можно создавать по тексту или изображениям, свободно перемещаться по ним, осматриваться и взаимодействовать с окружением, как в видеоигре.

Ключевые особенности:

- Реальное время
Генерация длинных видеопотоков со скоростью 24 FPS с высокой стабильностью сцен.

- Геометрическая согласованность
Используется механизм Reconstituted Context Memory, который динамически пересобирает контекст из предыдущих кадров и предотвращает деградацию памяти.

- Точное и устойчивое управление
Dual Action Representation обеспечивает корректную реакцию на ввод с клавиатуры и мыши.

- Широкие сценарии применения
Поддержка вида от первого и третьего лица, событий, управляемых промптом, и бесконечного расширения мира.

Проект полностью открыт.

Попробовать: https://3d.hunyuan.tencent.com/sceneTo3D?tab=worldplay
Проект Page: https://3d-models.hunyuan.tencent.com/world/
GitHub: https://github.com/Tencent-Hunyuan/HY-WorldPlay
Hugging Face: https://huggingface.co/tencent/HY-WorldPlay
Technical Report: https://3d-models.hunyuan.tencent.com/world/world1_5/HYWorld_1.5_Tech_Report.pdf

@data_analysis_ml
6👍4🔥3
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?

Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.

Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.

Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.

🎁 48 часов действует скидка в 40% процентов

👉 Начать учиться на Stepik
2👍1🔥1