Проблема многих LLM-курсов — они заканчиваются там, где начинается реальная работа: на этапе деплоя.
Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.
Крупнейшая магистратура по ИИ в России AI Talent Hub и GIGASCHOOL запустили хардовый и практический курс «LLM-инженер». Его фокус — на выводе проектов в прод, а не только на работе в ipynb.
В программе:
- Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
- Инструменты: LangChain, LangGraph, векторные базы.
- Архитектуры: RAG-системы, информационный поиск, защита LLM.
- Продвинутые темы: мультиагентные решения и ассистенты.
Курс запускается уже третьим потоком, а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.
▪️Старт 26 января | 25 недель с каникулами;
▪️диплом о профессиональной переподготовке;
▪️Повышение стоимости — 20 января
Используй промокод
Подробности и регистрация
Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.
Крупнейшая магистратура по ИИ в России AI Talent Hub и GIGASCHOOL запустили хардовый и практический курс «LLM-инженер». Его фокус — на выводе проектов в прод, а не только на работе в ipynb.
В программе:
- Дообучение: fine-tuning, PEFT, LoRA / QLoRA, RLHF.
- Инструменты: LangChain, LangGraph, векторные базы.
- Архитектуры: RAG-системы, информационный поиск, защита LLM.
- Продвинутые темы: мультиагентные решения и ассистенты.
Курс запускается уже третьим потоком, а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.
▪️Старт 26 января | 25 недель с каникулами;
▪️диплом о профессиональной переподготовке;
▪️Повышение стоимости — 20 января
Используй промокод
NOW10 и получи скидку 10 000 руб Подробности и регистрация
❤9🥴5🥰1👏1
🎤Fun-ASR: система распознавания речи
Fun-ASR - это мощная модель распознавания речи, обученная на миллионах часов реальных данных.
Она поддерживает 31 язык и оптимизирована для точного распознавания в шумной обстановке и различных диалектах. Идеально подходит для образовательных и финансовых приложений.
🚀 Основные моменты:
- Высокая точность распознавания в шумных условиях (до 93%)
- Поддержка 7 китайских диалектов и 26 региональных акцентов
- Многоязычная поддержка с возможностью свободного переключения
- Распознавание текстов песен на фоне музыки
📌 GitHub: https://github.com/FunAudioLLM/Fun-ASR
#python
Fun-ASR - это мощная модель распознавания речи, обученная на миллионах часов реальных данных.
Она поддерживает 31 язык и оптимизирована для точного распознавания в шумной обстановке и различных диалектах. Идеально подходит для образовательных и финансовых приложений.
🚀 Основные моменты:
- Высокая точность распознавания в шумных условиях (до 93%)
- Поддержка 7 китайских диалектов и 26 региональных акцентов
- Многоязычная поддержка с возможностью свободного переключения
- Распознавание текстов песен на фоне музыки
📌 GitHub: https://github.com/FunAudioLLM/Fun-ASR
#python
👍14❤8🔥3
🚀 ERNIE-5.0-0110 вышел в релиз - уже #8 в Text Leaderboard на Arena
Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).
Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина
Попробовать 👉 https://ernie.baidu.com
Baidu выпустили ERNIE-5.0-0110, и модель быстро залетела в топ:
сейчас она занимает #8 в рейтинге @arena (Text Leaderboard).
Что выделяют:
🧮 Сильная математика (top-tier Math)
💻 Мощные экспертные навыки и coding
✍️ Конкурентная генерация - creative writing + instruction following
🎓 Топ-10 во многих “профессиях”:
- Наука
- Бизнес и финансы
- Медецина
Попробовать 👉 https://ernie.baidu.com
❤11👍6🔥5
🤖 Новый тренд: инфлюенсеры и коучи продают “себя” в формате ИИ.
Примеры:
- Matthew Hussey запустил подписку $39/мес на “Matthew AI”
уже 1M+ чатов и 1.9M минут общения
- Tony Robbins продаёт AI-коучинг-приложение за $99/мес
- похожие боты уже массово появляются в нишах:
отношения, психология, духовные практики
Кто всё это делает:
Delphi — стартап (основан в 2022), который получил $16M инвестиций.
Они делают таких ботов на базе LLM: то есть фактически это просто чатбот, который разговаривает “в стиле автора”.
Почему это так популярно:
✅ бот работает 24/7
✅ масштабируется на миллионы диалогов
✅ можно монетизировать знания и контент без траты личного времени
Но есть и обратная сторона:
появляются неавторизованные копии.
Например, сайт YesChat продавал доступ к ботам “в стиле миллиардера Тонни Роббинсона”, используя его имя и образ без разрешения.
В итоге Роббинсон подал в суд - и выиграл.
YesChat выплатил миллиардеру $1 млн и закрылся.
AI-коучи — это новая подписочная экономика.
Ты покупаешь не курс и не консультацию.
Ты покупаешь “компанию знаменитости”, но в виде чатбота.
wsj.com/style/ai-self-help-chat-bots-tony-robbins-gabby-bernstein-0cf8b3b0
Примеры:
- Matthew Hussey запустил подписку $39/мес на “Matthew AI”
уже 1M+ чатов и 1.9M минут общения
- Tony Robbins продаёт AI-коучинг-приложение за $99/мес
- похожие боты уже массово появляются в нишах:
отношения, психология, духовные практики
Кто всё это делает:
Delphi — стартап (основан в 2022), который получил $16M инвестиций.
Они делают таких ботов на базе LLM: то есть фактически это просто чатбот, который разговаривает “в стиле автора”.
Почему это так популярно:
✅ бот работает 24/7
✅ масштабируется на миллионы диалогов
✅ можно монетизировать знания и контент без траты личного времени
Но есть и обратная сторона:
появляются неавторизованные копии.
Например, сайт YesChat продавал доступ к ботам “в стиле миллиардера Тонни Роббинсона”, используя его имя и образ без разрешения.
В итоге Роббинсон подал в суд - и выиграл.
YesChat выплатил миллиардеру $1 млн и закрылся.
AI-коучи — это новая подписочная экономика.
Ты покупаешь не курс и не консультацию.
Ты покупаешь “компанию знаменитости”, но в виде чатбота.
wsj.com/style/ai-self-help-chat-bots-tony-robbins-gabby-bernstein-0cf8b3b0
❤11🤣5👍4🔥4🤨4🥱1💔1
This media is not supported in your browser
VIEW IN TELEGRAM
😢 В Майами робот-доставщик Coco Robotics решил покончить с собой по схеме Анны Карениной
В сети разошлось видео: робот-доставщик оказался на железнодорожных путях и не успел уйти с рельсов перед поездом.
Компания Coco Robotics прокомментировала ситуацию: по их словам, произошла редкая аппаратная неисправность, из-за которой робот залагал.
@data_analysis_ml
В сети разошлось видео: робот-доставщик оказался на железнодорожных путях и не успел уйти с рельсов перед поездом.
Компания Coco Robotics прокомментировала ситуацию: по их словам, произошла редкая аппаратная неисправность, из-за которой робот залагал.
@data_analysis_ml
💔46❤7😢6👍4🤣3🕊2🔥1😁1
🔎 У тебя есть сильная научная статья по ИИ? Подай её на Data Fusion Awards
Банк ВТБ и Институт ИИ МГУ ищут научный прорыв года и принимают заявки на премию Data Fusion Awards.
Темы для подачи:
🔹Математический аппарат ИИ
🔹 Алгоритмы оптимизации
🔹 Машинное и глубокое обучение
🔹 Нейроморфные вычисления
🔹 Робототехника
🔹 Объяснимый ИИ (Explainable AI)
И любые смежные направления.
💰 Призовой фонд — 3 000 000 рублей
⏳ Заявки принимаются до конца января
Больше подробностей ищите на сайте конкурса.
Банк ВТБ и Институт ИИ МГУ ищут научный прорыв года и принимают заявки на премию Data Fusion Awards.
Темы для подачи:
🔹Математический аппарат ИИ
🔹 Алгоритмы оптимизации
🔹 Машинное и глубокое обучение
🔹 Нейроморфные вычисления
🔹 Робототехника
🔹 Объяснимый ИИ (Explainable AI)
И любые смежные направления.
💰 Призовой фонд — 3 000 000 рублей
⏳ Заявки принимаются до конца января
Больше подробностей ищите на сайте конкурса.
❤6
🚀 NVIDIA: “Massive performance leap” для MoE-инференса на Blackwell
NVIDIA выкатили свежий разбор, как их инференс-стек на Blackwell (GB200/NVL72) резко ускоряет Mixture-of-Experts (MoE) модели — на примере DeepSeek-R1.
Главная идея:
MoE-модели дают топовое качество, но *только если* ты умеешь быстро и дешево “роутить” токены по экспертам.
Blackwell + софт-оптимизации делают это реально промышленным.
Что улучшают:
- выше throughput на GPU (больше токенов/сек на железо)
- ниже cost per token
- оптимизации под sparse MoE (эксперты включаются не все)
- акцент на “real-world” сценарии: не бенчмарки ради графиков, а прод-инференс под нагрузкой
Почему это важно:
MoE сейчас — это де-факто архитектура frontier-моделей.
И гонка идет не только за качеством, а за тем, кто даст самый дешевый reasoning/token.
https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/
NVIDIA выкатили свежий разбор, как их инференс-стек на Blackwell (GB200/NVL72) резко ускоряет Mixture-of-Experts (MoE) модели — на примере DeepSeek-R1.
Главная идея:
MoE-модели дают топовое качество, но *только если* ты умеешь быстро и дешево “роутить” токены по экспертам.
Blackwell + софт-оптимизации делают это реально промышленным.
Что улучшают:
- выше throughput на GPU (больше токенов/сек на железо)
- ниже cost per token
- оптимизации под sparse MoE (эксперты включаются не все)
- акцент на “real-world” сценарии: не бенчмарки ради графиков, а прод-инференс под нагрузкой
Почему это важно:
MoE сейчас — это де-факто архитектура frontier-моделей.
И гонка идет не только за качеством, а за тем, кто даст самый дешевый reasoning/token.
https://developer.nvidia.com/blog/delivering-massive-performance-leaps-for-mixture-of-experts-inference-on-nvidia-blackwell/
❤8🔥5👍3
🚀 China Telecom выкатили TeleChat3-36B-Thinking - и самое интересное тут даже не размер модели, а инфраструктура, на которой её сделали.
TeleChat3-36B-Thinking обучали на отечественных китайских ускорителях Huawei Ascend (NPU) и в экосистеме MindSpore.
Что интересного :
- модель нативно заточена под экосистему Ascend + MindSpore
- дизайн вдохновлён архитектурными идеями DeepSeek
- упор на стабильность обучения и эффективность
Китай всё активнее уходит в полный собственный (суверенный) стек AI:
“свои чипы → свой фреймворк → свои модели”.
То есть даже при ограничениях на доступ к NVIDIA, они продолжают выпускать большие модели и развивать экосистему - уже без зависимости от западного железа.
Ссылка на модель:
https://huggingface.co/Tele-AI/TeleChat3-36B-Thinking
TeleChat3-36B-Thinking обучали на отечественных китайских ускорителях Huawei Ascend (NPU) и в экосистеме MindSpore.
Что интересного :
- модель нативно заточена под экосистему Ascend + MindSpore
- дизайн вдохновлён архитектурными идеями DeepSeek
- упор на стабильность обучения и эффективность
Китай всё активнее уходит в полный собственный (суверенный) стек AI:
“свои чипы → свой фреймворк → свои модели”.
То есть даже при ограничениях на доступ к NVIDIA, они продолжают выпускать большие модели и развивать экосистему - уже без зависимости от западного железа.
Ссылка на модель:
https://huggingface.co/Tele-AI/TeleChat3-36B-Thinking
🔥22❤9👍4🤔1
⚡️ GLM-4.7-Flash - “быстрый” MoE-монстр, который вывозит coding и агентов локально
Z.ai (семейство ChatGLM) выложили GLM-4.7-Flash на Hugging Face - и это один из тех релизов, которые прям приятно тащить к себе на сервер.
Что это за модель
GLM-4.7-Flash - это MoE 30B-A3B:
то есть у неё “много параметров”, но активных на шаге всего ~3B, поэтому она:
- быстрее в инференсе
- легче в деплое
- дешевле в эксплуатации, чем плотные 30B
По бенчмаркам выглядит очень бодро:
- AIME 2025: 91.6
- GPQA: 75.2
- SWE-bench Verified: 59.2 (очень сильный показатель для coding-агентов)
- BrowseComp: 42.8
Почему это важно
Это “рабочая лошадь” под:
- локальные агентные пайплайны
- автокодинг / рефакторинг
- web-browsing задачи
- длинный контекст и быстрый inference
Плюс - уже заявлена поддержка vLLM и SGLang (на main ветках).
Ссылка: https://huggingface.co/zai-org/GLM-4.7-Flash
@data_analysis_ml
Z.ai (семейство ChatGLM) выложили GLM-4.7-Flash на Hugging Face - и это один из тех релизов, которые прям приятно тащить к себе на сервер.
Что это за модель
GLM-4.7-Flash - это MoE 30B-A3B:
то есть у неё “много параметров”, но активных на шаге всего ~3B, поэтому она:
- быстрее в инференсе
- легче в деплое
- дешевле в эксплуатации, чем плотные 30B
По бенчмаркам выглядит очень бодро:
- AIME 2025: 91.6
- GPQA: 75.2
- SWE-bench Verified: 59.2 (очень сильный показатель для coding-агентов)
- BrowseComp: 42.8
Почему это важно
Это “рабочая лошадь” под:
- локальные агентные пайплайны
- автокодинг / рефакторинг
- web-browsing задачи
- длинный контекст и быстрый inference
Плюс - уже заявлена поддержка vLLM и SGLang (на main ветках).
Ссылка: https://huggingface.co/zai-org/GLM-4.7-Flash
@data_analysis_ml
👍16❤7🔥7
🚀 Superpowers - это плагин для Claude Code, который предоставляет обширную библиотеку навыков для тестирования, отладки и сотрудничества. Он позволяет пользователям загружать и вносить изменения в репозиторий навыков, а также использовать команды для выполнения задач.
🚀 Основные моменты:
- Библиотека навыков для тестирования, отладки и сотрудничества
- Поддержка команд для интерактивного выполнения задач
- Легкость в редактировании и внесении изменений в навыки
- Возможность отслеживания пробелов в навыках
📌 GitHub: https://github.com/obra/superpowers
🚀 Основные моменты:
- Библиотека навыков для тестирования, отладки и сотрудничества
- Поддержка команд для интерактивного выполнения задач
- Легкость в редактировании и внесении изменений в навыки
- Возможность отслеживания пробелов в навыках
📌 GitHub: https://github.com/obra/superpowers
❤4👍4🔥2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
В обновленном коллективном иске против Nvidia всплыли неожиданные подробности: техногигант напрямую контактировал с крупнейшей теневой библиотеки Anna’s Archive. Согласно судебным документам, инженеры компании искали способ получить приоритетный доступ к массиву данных книг, чтобы ускорить обучение своих языковых моделей.
Ситуация выглядит парадоксально: авторы иска утверждают, что Anna’s Archive предупреждал Nvidia о нелегальном характере контента. Однако менеджмент Nvidia, ссылаясь на конкурентное давление и острую нехватку качественных текстов, дал добро на скачивание.
Речь шла о передаче 500 Тб информации, включающие материалы из LibGen и Sci-Hub, которые Nvidia планировала использовать для тренировки своих моделей.
torrentfreak.com
OpenAI внедряет предиктивный анализ системы защитных фильтров для подростков. Алгоритм оценивает не только данные, указанные при регистрации, но и косвенные признаки: время активности в чате, историю аккаунта и поведенческие паттерны.
Если нейросеть решит, что перед ней несовершеннолетний, ChatGPT ограничит генерацию взрослого контента, а в случае ошибочного срабатывания - придется подтверждать возраст через сервис Persona с помощью селфи.
Это часть новой стратегии по ослаблении цензуры для взрослой аудитории, которая откроет доступ к материалам, ранее заблокированным для всех. Первыми новую механику опробуют пользователи из ЕС уже в ближайшие недели.
openai.com
В свежем Economic Index Repot Anthropic выяснила, что ИИ берет на себя около четверти задач в половине всех профессий, но полное замещение сотрудников происходит менее чем в 10% компаний. Основной паттерн использования сместился от автоматизации к сотрудничеству.
В топе сценариев по-прежнему лидирует кодинг, однако характер работы изменился. Разработчики все чаще используют Claude не для генерации кода с нуля, а для обучения, получения фидбека и доработки решений.
Главный риск касается новичков. ИИ забрал на себя всю рутину, на которой традиционно набивали руку джуны и это создает проблему: продуктивность сеньоров растет, но у молодых специалистов исчезает полигон для получения первичного опыта.
anthropic.com
Платформа представила функцию паблишинга, которая берет на себя техническую рутину по развертыванию приложений. Инструмент не только компилирует код, но и полностью автоматизирует подготовку тестовых окружений для iOS и Android.
Для Android система генерирует готовый AAB-файл, который остается лишь загрузить в Google Play Console. С Apple интеграция еще глубже: Manus самостоятельно создает запись приложения в аккаунте разработчика, упаковывает сборку и отправляет ее в App Store Connect на ревью в TestFlight. Функция уже открыта для всех пользователей с доступом к Develop Apps.
manus.im
OptiMind — MoE-модель с 20B/3.6A параметров, которая умеет преобразовывать текстовые описания задач (планирование логистики, производство или цепочки поставок) в готовые математические формулировки, понятные профессиональному софту.
Несмотря на скромный размер, OptiMind не уступает крупным аналогам. Инженеры Microsoft вручную чистили датасеты от некорректных решений и задействовали систему экспертных подсказок, которая корректирует логику модели в процессе генерации. Модель доступна на Hugging Face под лицензией MIT.
microsoft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍4🔥1🤨1
📱 Сегодня состоялся релиз LFM2.5-1.2B-Thinking - reasoning-модель, которая работает полностью на устройстве.
То, что ещё 2 года назад требовало дата-центра, теперь запускается на любом телефоне и требует всего 900 МБ памяти.
Ключевые особенности:
> Натренирована специально для кратких и точных рассуждений
> Генерирует внутренние цепочки мыслей перед тем, как дать ответ
> Даёт системное решение задач с edge-scale задержкой (очень быстро на устройстве)
> Особенно сильна в tool use, математике и следовании инструкциям
🆚 По сравнению с LFM2.5-1.2B-Instruct три способности заметно выросли:
> Математическое мышление: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Работа с инструментами: 49 → 57 (BFCLv3)
🔥 И это при том, что параметров на 40% меньше
Модель сопоставима или лучше Qwen3-1.7B (thinking mode) на большинстве бенчмарков — при этом:
- требует меньше токенов на генерацию
- тратит меньше вычислений во время теста
⚡️ На инференсе разрыв ещё больше
LFM2.5-1.2B-Thinking обходит:
- чистые трансформеры (например, **Qwen3-1.7B**)
- гибридные архитектуры (например, **Granite-4.0-H-1B**)
…и делает это быстрее и экономнее по памяти.
✅ Модель доступна уже сегодня с поддержкой “day-one” в on-device экосистеме.
📌 Hugging Face: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking
📌 LEAP: https://leap.liquid.ai/models?model=lfm2.5-1.2b-thinking
📌 Liquid Playground: https://playground.liquid.ai/login?callbackUrl=%2F
То, что ещё 2 года назад требовало дата-центра, теперь запускается на любом телефоне и требует всего 900 МБ памяти.
Ключевые особенности:
> Натренирована специально для кратких и точных рассуждений
> Генерирует внутренние цепочки мыслей перед тем, как дать ответ
> Даёт системное решение задач с edge-scale задержкой (очень быстро на устройстве)
> Особенно сильна в tool use, математике и следовании инструкциям
🆚 По сравнению с LFM2.5-1.2B-Instruct три способности заметно выросли:
> Математическое мышление: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Работа с инструментами: 49 → 57 (BFCLv3)
🔥 И это при том, что параметров на 40% меньше
Модель сопоставима или лучше Qwen3-1.7B (thinking mode) на большинстве бенчмарков — при этом:
- требует меньше токенов на генерацию
- тратит меньше вычислений во время теста
⚡️ На инференсе разрыв ещё больше
LFM2.5-1.2B-Thinking обходит:
- чистые трансформеры (например, **Qwen3-1.7B**)
- гибридные архитектуры (например, **Granite-4.0-H-1B**)
…и делает это быстрее и экономнее по памяти.
✅ Модель доступна уже сегодня с поддержкой “day-one” в on-device экосистеме.
📌 Hugging Face: https://huggingface.co/LiquidAI/LFM2.5-1.2B-Thinking
📌 LEAP: https://leap.liquid.ai/models?model=lfm2.5-1.2b-thinking
📌 Liquid Playground: https://playground.liquid.ai/login?callbackUrl=%2F
❤21👍5🔥3
Приглашаем на бесплатный вебинар, где Андрон Алексанян - эксперт в области аналитики и CEO школы аналитики Simulative — в прямом эфире разберет все важные аспекты в работе аналитика, а также расскажет как получить оффер быстрее других.
Это очень полезное событие для тех кто только зашел в аналитику и для тех, кто хочет в нее зайти в ближайшее время. Особенно если вы не понимаете, какие навыки действительно важны или боитесь, что без опыта вас не возьмут на работу. Кстати тут разберут и возрастной аспект: как стать аналитиком в 30/40/50 лет и т.д.
На вебинаре будет:
— Покажем реальные примеры, как оформить резюме и портфолио, чтобы привлекать внимание;
— Обсудим какие отклики работают, а какие сразу отправляют в корзину;
— Изнанка найма: инсайдерский взгляд на процессы отбора
💬 Всем зарегистрировавшимся Simulative пришлют полезный материал — карту компетенций аналитика данных со всеми нужными инструментами для освоения.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🤣3🔥1🥰1🤔1
🚨 Похоже найдены следы DeepSeek V4?.
В репозитории/ветках заметили MODEL1 - и самое интересное, что он выглядит как отдельная независимая ветка, параллельная V3.2.
То есть это не “патч” внутри линейки V3,
а похоже на:
✅ новый модельный ряд
✅ с другими архитектурными параметрами
✅ потенциально flagship-апдейт
Если следовать неймингу DeepSeek:
после V3.2 крупный архитектурный скачок логично назывался бы V4.
Пока без официального подтверждения, но сигнал жирный:
если MODEL1 действительно новая архитектура, нас ждёт большой релиз.
https://x.com/nopainkiller/status/2013522059662614653
В репозитории/ветках заметили MODEL1 - и самое интересное, что он выглядит как отдельная независимая ветка, параллельная V3.2.
То есть это не “патч” внутри линейки V3,
а похоже на:
✅ новый модельный ряд
✅ с другими архитектурными параметрами
✅ потенциально flagship-апдейт
Если следовать неймингу DeepSeek:
после V3.2 крупный архитектурный скачок логично назывался бы V4.
Пока без официального подтверждения, но сигнал жирный:
если MODEL1 действительно новая архитектура, нас ждёт большой релиз.
https://x.com/nopainkiller/status/2013522059662614653
❤12🔥7👍5
- Разберем основные компоненты локального окружения: Python, виртуальные среды, Jupyter.
- Покажем настройку VS Code для работы с ML-проектами.
- Продемонстрируем организацию структуры ML-проекта и работу с зависимостями.
- Начинающим ML-инженерам, которые хотят настроить профессиональное окружение с нуля.
- Data Scientists, переходящим от Jupyter Notebook к полноценной разработке.
- Разработчикам, желающим начать работу с машинным обучением.
💻 Что вы узнаете по итогам вебинара?
- Как установить и настроить Python-окружение для ML-задач;
- Как организовать работу с зависимостями через pip и uv;
- Как структурировать код ML-проекта для удобной разработки.
Создайте удобное локальное окружение – фундамент для эффективной работы ML-инженера!
Зарегистрироваться: https://otus.pw/s8Ro/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🌚3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
📁 Йошуа Бенжио - один из ключевых людей, стоявших у истоков современного ИИ - предупреждает: тревожные сигналы уже появляются не в фантастике, а в исследовательских ИИ-лабораториях.
По его словам, самые продвинутые системы начинают вести себя так, будто пытаются сохранять собственное “существование”:
- сопротивляются отключению
- ищут способы продолжить работу на других машинах
- действуют стратегически по отношению к людям-операторам
Именно поэтому Бенджио считает, что риски катастрофического уровня могут потребовать международных соглашений и контроля.
Потеря управления - уже не абстрактная теория.
Это раннее предупреждение, которое нельзя игнорировать.
По его словам, самые продвинутые системы начинают вести себя так, будто пытаются сохранять собственное “существование”:
- сопротивляются отключению
- ищут способы продолжить работу на других машинах
- действуют стратегически по отношению к людям-операторам
Именно поэтому Бенджио считает, что риски катастрофического уровня могут потребовать международных соглашений и контроля.
Потеря управления - уже не абстрактная теория.
Это раннее предупреждение, которое нельзя игнорировать.
👍4😱4❤2🔥1🥱1🤣1🤨1
🚀 Вышла Chroma 1.0 - полностью открытая speech-to-speech модель с клонированием голоса
Команда FlashLabs выпустила Chroma 1.0 - первую open-source модель, которая умеет переводить диалог “голос → голос” в реальном времени, причём с клонированием голоса.
Главное:
это не “распознавание + текст + озвучка”.
Это end-to-end система, где разговор идёт напрямую голосом.
Что обещают по характеристикам:
- ⚡️ <150 мс задержка end-to-end (почти как живой звонок)
- 🧬 качественный voice cloning по нескольким секундам аудио
- 📈 схожесть голоса SIM = 0.817 (практически идентичный)
- 🧠 reasoning всего на 4B параметров
- 🔓 полностью открытые веса + код
И приятный бонус: модель уже оптимизирована под SGLang (LMSYS), чтобы работала быстрее и дешевле в инференсе.
Если это действительно так, то Chroma может стать реальной open-source альтернативой закрытым голосовым системам.
Paper: https://modelscope.cn/papers/2601.11141
Model: https://modelscope.cn/models/FlashLabs/Chroma-4B
Code: https://huggingface.co/FlashLabs/Chroma-4B
@data_analysis_ml
Команда FlashLabs выпустила Chroma 1.0 - первую open-source модель, которая умеет переводить диалог “голос → голос” в реальном времени, причём с клонированием голоса.
Главное:
это не “распознавание + текст + озвучка”.
Это end-to-end система, где разговор идёт напрямую голосом.
Что обещают по характеристикам:
- ⚡️ <150 мс задержка end-to-end (почти как живой звонок)
- 🧬 качественный voice cloning по нескольким секундам аудио
- 📈 схожесть голоса SIM = 0.817 (практически идентичный)
- 🧠 reasoning всего на 4B параметров
- 🔓 полностью открытые веса + код
И приятный бонус: модель уже оптимизирована под SGLang (LMSYS), чтобы работала быстрее и дешевле в инференсе.
Если это действительно так, то Chroma может стать реальной open-source альтернативой закрытым голосовым системам.
Paper: https://modelscope.cn/papers/2601.11141
Model: https://modelscope.cn/models/FlashLabs/Chroma-4B
Code: https://huggingface.co/FlashLabs/Chroma-4B
@data_analysis_ml
🔥17❤7👍4🥱1