Анализ данных (Data analysis) – Telegram
Анализ данных (Data analysis)
47K subscribers
2.71K photos
306 videos
1 file
2.32K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🚀 GPU для ИИ в периметре компании — MWS Cloud запускает новый сервис

MWS GPU on-premises решает задачу для тех, кому облако не подходит по требованиям безопасности. Серверы с передовыми графическими ускорителями разворачиваются на площадке предприятия, а команда MWS Cloud берёт на себя весь цикл — от подбора конфигурации до поддержки.

Почему это важно:

1. В России множество компаний, которые по закону могут разворачивать инфраструктуру только on-premises — теперь у них есть готовое решение.
2. Благодаря готовым конфигурациям запуск занимает дни, а не месяцы.
3. Аренда переводит капитальные затраты в операционные — не нужно замораживать бюджет на закупку железа.
4. Всего доступно 7 видов карт и более чем 20 конфигураций серверов.

«Инфраструктура может масштабироваться в зависимости от задач и объёмов вычислений. Это обеспечивает гибкость при расширении проектов», — отметил директор по новым облачным продуктам Алексей Кузнецов.


→ Все конфигурации и условия: https://mws.ru/services/mws-gpu-on-prem/
6👍6🔥3
🚀 Paper2Slides теперь в open source!

Теперь можно превращать научные статьи и техотчёты в профессиональные презентации в один клик.

Мы уже сгенерировали слайды по свежему DeepSeek V3.2 - разные стили, аккуратное оформление. Загляни, оцени и поделись мнением.

🔥 Что умеет Paper2Slides:

📄 Поддержка разных форматов - PDF, Word, Excel, PowerPoint и др.
🎯 Понимает содержание - вытягивает ключевые идеи, таблицы, формулы, графики и данные
🎨 Кастомизация - готовые темы и полная персонализация стилей
Очень быстро — качественные презентации за минуты

GitHub: github.com/HKUDS/Paper2Slides
🔥179👍8
💡 Google Переводчик запускает перевод речи в реальном времени прямо в беспроводные наушники - и да, подходят любые модели.

Функция работает на базе нейросети Gemini и уже проходит тестирование на Android в США, Индии и Мексике. Поддерживается более 70 языков, включая русский.

Как это выглядит на практике:
собеседник говорит - ты сразу слышишь перевод в наушниках. Без пауз, без необходимости смотреть на экран, без лишних действий.

Ключевое отличие от конкурентов - универсальность. Google не привязывает функцию к конкретному «железу» и не требует фирменных наушников. Это резко контрастирует с подходом Apple, где подобные возможности ограничены экосистемой AirPods.

По сути, Google делает перевод частью повседневного общения, а не отдельным режимом в приложении.

Глобальный релиз и версия для iOS ожидаются в 2026 году.
🔥419👍6
Please open Telegram to view this post
VIEW IN TELEGRAM
4
🚀 GLM-4.6V от Zai_org только что вышла на Chutes 🪂

- 106B параметров
- Контекст 128K
Нативный vision-driven function calling

GLM-4.6V умеет *действовать на основе увиденного*.

Возможности:
- точное, пиксель-в-пиксель восстановление HTML по изображению
- глубокое понимание сложных мультимодальных документов
- прямой вызов функций из визуального ввода
- связка «зрение → рассуждение → действие» без костылей

Попробовать модель:
https://chutes.ai/app/chute/8f2105c5-b200-5aa5-969f-0720f7690f3c?tab=api
🔥73👍2
🔊 Google представила обновления моделей Gemini 2.5 Flash и Pro для Text-to-Speech (TTS)

Что нового:
- Более гибкая передача эмоций и тональности
- Контекстно-зависимая настройка темпа речи
- Улучшенная работа с несколькими говорящими

Теперь разработчики получают куда больше контроля над тем, как именно модель озвучивает тексты - от эмоционального стиля до динамики повествования.

https://blog.google/technology/developers/gemini-2-5-text-to-speech/

@ai_machinelearning_big_data


#tts #Gemini #google
👍107🔥1
Microsoft запустила VibeVoice Realtime на Hugging Face - лёгкую стриминговую text-to-speech модель, которая начинает озвучивать текст примерно за 300 миллисекунд.

Идеально для живых данных и разговоров с LLM.

huggingface.co/microsoft/VibeVoice-Realtime-0.5B
10👍6🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Не просто строить мультимодальные модели, а создавать мир завтрашнего дня.
//От модели данных до будущего — ближе, чем кажется.

В VK уже работают над этим. Узнайте, как команды создают технологии, которые определяют завтрашний день. Заходите по ссылке — смотрите, читайте, вдохновляйтесь.
😁2🤣21🍌1
🚀 Live Avatar - генерация интерактивного аватара в реальном времени и бесконечной длины!

Система построена на диффузионной модели 14B параметров, выдаёт 20 FPS на 5×H800 (4 шага семплинга).

Можно говорить в микрофон и смотреть в камеру - аватар отвечает сразу, живым видеопотоком.

В связке с Qwen3-Omni это превращается в полноценный формат лицом-к-лицу с AI, автономные диалоги и агенты, которые могут общаться между собой потоково, в реальном времени, более 10 000 секунд подряд.


🔗YouTube: https://youtube.com/watch?v=srbsGlLNpAc&list=TLGGqUfEsaFb8-QwODEyMjAyNQ&t=55s
🔗Модель: https://modelscope.cn/models/Quark-Vision/Live-Avatar
🔗Блог: https://liveavatar.github.io
🔗Modelscope: https://modelscope.cn/papers/2512.04677
🔗Код: https://github.com/Alibaba-Quark/LiveAvatar
👍3