Machine Learning | YeaHub pinned «🤝 Добро пожаловать в экосистему YeaHub! YeaHub — это платформа для IT-специалистов, объединяющая обучение, карьерный рост, развитие и сообщество единомышленников. Подпишитесь на наши каналы, чтобы не пропустить: 👩💻 C# 🤖 ML Engineer 👩💻 …»
#новости
😊 Gemini 2.0 Flash наконец-то релизнулась
Модель заметно дешевле конкурентов в подобной ценовой категории (GPT-4o mini, DeepSeek V3 по скидке и Claude Haiku 3.5), при этом она показывает себя лучше всех этих моделей. Но есть и нюанс - расценки заметно поменяли. Раньше для длинных запросов цена была в 2x больше, а теперь цену сделали усреднённо единой. Теперь длинные запросы будут дешевле на 30%, а короткие - дороже на 30%.
Тебе Google обновил превью Gemini 2.0 Pro - более ранняя версия модели була доступна уже два месяца как Gemini-Experimental-1206, эта версия уже ближе к релизу. Надеюсь она не будет сидеть в превью ещё два месяца и релизнется скоро, желательно сразу с Thinking версией.
Тык (если не работает, то попробуй врубить впн)
👉 Новости 👉 Платформа
Модель заметно дешевле конкурентов в подобной ценовой категории (GPT-4o mini, DeepSeek V3 по скидке и Claude Haiku 3.5), при этом она показывает себя лучше всех этих моделей. Но есть и нюанс - расценки заметно поменяли. Раньше для длинных запросов цена была в 2x больше, а теперь цену сделали усреднённо единой. Теперь длинные запросы будут дешевле на 30%, а короткие - дороже на 30%.
Тебе Google обновил превью Gemini 2.0 Pro - более ранняя версия модели була доступна уже два месяца как Gemini-Experimental-1206, эта версия уже ближе к релизу. Надеюсь она не будет сидеть в превью ещё два месяца и релизнется скоро, желательно сразу с Thinking версией.
Тык (если не работает, то попробуй врубить впн)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#статьи
😬 Ускорение инференса больших языковых моделей: опыт команды YandexGPT
Разработчик рассказал на Хабре универсальные методы оптимизации инференса LLM, применимые к большинству современных архитектур, включая LLaMA-подобные и MoE.
Дистилляция знаний — метод создания небольших эффективных моделей. Hard-label представлен как наиболее простой подход к передаче знаний от учителя к ученику. Soft-label даёт ученику доступ к внутренним распределениям вероятностей модели‑учителя. On-policy эффективно отражает неопределённость модели учителя, когда та присваивает сходные вероятности нескольким правдоподобным токенам.
Квантизация трансформеров эволюционировала от простой квантизации весов к борьбе с выбросами в активациях через LLM.int8(), SmoothQuant и GPT-Q.
EAGLE — метод спекулятивного декодирования — способен принести ускорение на compute bound сценариях. При KV-cache подсчитанный кеш для конкретного префикса сохраняется в VRAM/RAM и может быть переиспользован в другом запросе. Он применяется при ускорении сценариев с длинными контекстами.
Все описанные методы комбинируются между собой, давая мультипликативный эффект в ускорении модели.
Читать статью
👉 Новости 👉 Платформа
Разработчик рассказал на Хабре универсальные методы оптимизации инференса LLM, применимые к большинству современных архитектур, включая LLaMA-подобные и MoE.
Дистилляция знаний — метод создания небольших эффективных моделей. Hard-label представлен как наиболее простой подход к передаче знаний от учителя к ученику. Soft-label даёт ученику доступ к внутренним распределениям вероятностей модели‑учителя. On-policy эффективно отражает неопределённость модели учителя, когда та присваивает сходные вероятности нескольким правдоподобным токенам.
Квантизация трансформеров эволюционировала от простой квантизации весов к борьбе с выбросами в активациях через LLM.int8(), SmoothQuant и GPT-Q.
EAGLE — метод спекулятивного декодирования — способен принести ускорение на compute bound сценариях. При KV-cache подсчитанный кеш для конкретного префикса сохраняется в VRAM/RAM и может быть переиспользован в другом запросе. Он применяется при ускорении сценариев с длинными контекстами.
Все описанные методы комбинируются между собой, давая мультипликативный эффект в ускорении модели.
Читать статью
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#новости
😊 Hailuo AI выпустили новую версию своего генератора видео T2V 01 Director, в которой упор сделан на контроль камеры!
Модель управления и движения камеры работает просто великолепно.
Что нового
🟠 Уменьшена хаотичность движений генераций.
🟠 Повышена точность управления.
🟠 Улучшена эстетика движения камеры.
Попробовать
👉 Новости 👉 Платформа
Модель управления и движения камеры работает просто великолепно.
Что нового
Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Мультимодальные модели
VideoLLaMA 3 — это серия мультимодальных моделей, разработанных для OCR задач, понимания изображений и видео!
🟠 Эти модели сочетают возможности обработки текста, изображений и видео, что позволяет им эффективно анализировать и интерпретировать мультимедийные данные.
Проект направлен на создание универсальных мультимодальных моделей, способных решать широкий спектр задач, связанных с анализом визуальной информации.
👉 Новости 👉 Платформа
VideoLLaMA 3 — это серия мультимодальных моделей, разработанных для OCR задач, понимания изображений и видео!
Проект направлен на создание универсальных мультимодальных моделей, способных решать широкий спектр задач, связанных с анализом визуальной информации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Media is too big
VIEW IN TELEGRAM
#новости
😐 Ученые добились телепортации с помощью квантового суперкомпьютера.
Исследователи из Оксфордского университета впервые продемонстрировали распределенные квантовые вычисления (DQC) между 2 модулями с захваченными ионами, соединенными оптической сетью. В эксперименте статьи, опубликованной в Nature, ученые использовали квантовую телепортацию для передачи управляемого гейта CZ между модулями с точностью 86%. Это достижение позволяет выполнять сложные квантовые алгоритмы, например алгоритм Гровера, с успешностью 71%.
Распределенная архитектура DQC позволит в будущем создавать крупномасштабные квантовые компьютеры, объединяя несколько модулей через квантовые и классические каналы связи.
Исследователи также показали, что квантовая система может быть построена и масштабирована с использованием уже имеющихся технологий.
«Наш эксперимент демонстрирует, что сетевая распределенная квантовая обработка информации вполне осуществима с помощью существующих технологий», - сказал профессор Дэвид Лукас, главный исследователь исследовательской группы и ведущий ученый в UK Quantum Computing and Simulation Hub.
«Масштабирование квантовых компьютеров остается сложной технической задачей, которая в ближайшие годы потребует новых знаний в области физики, а также интенсивных инженерных усилий».
🟠 Новость: independent.co.uk
🟠 Видео: тык
👉 Новости 👉 Платформа
Исследователи из Оксфордского университета впервые продемонстрировали распределенные квантовые вычисления (DQC) между 2 модулями с захваченными ионами, соединенными оптической сетью. В эксперименте статьи, опубликованной в Nature, ученые использовали квантовую телепортацию для передачи управляемого гейта CZ между модулями с точностью 86%. Это достижение позволяет выполнять сложные квантовые алгоритмы, например алгоритм Гровера, с успешностью 71%.
Распределенная архитектура DQC позволит в будущем создавать крупномасштабные квантовые компьютеры, объединяя несколько модулей через квантовые и классические каналы связи.
Исследователи также показали, что квантовая система может быть построена и масштабирована с использованием уже имеющихся технологий.
«Наш эксперимент демонстрирует, что сетевая распределенная квантовая обработка информации вполне осуществима с помощью существующих технологий», - сказал профессор Дэвид Лукас, главный исследователь исследовательской группы и ведущий ученый в UK Quantum Computing and Simulation Hub.
«Масштабирование квантовых компьютеров остается сложной технической задачей, которая в ближайшие годы потребует новых знаний в области физики, а также интенсивных инженерных усилий».
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2❤1
#полезное
😊 Создаем ЛЮБОЙ софт прямо НА ТЕЛЕФОНЕ — Replit релизнули своего ИИ-агента для разработки.
🟠 Внутри — Claude Sonnet 3.5.
🟠 Создавать можно ЛЮБОЕ приложение: от офисной тулзы до игр с проработанным сюжетом.
🟠 Все предельно просто: вводим запрос — получаем файлы с кодом.
🟠 ИИ знает русский язык!
🟠 Тестить прогу можно сразу.
🟠 Также есть ИИ-агент для редактирования уже готового проекта.
Софт здесь
👉 Новости 👉 Платформа
Софт здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Math
Учебный план для самостоятельного изучения математики, разработанный Open Source Society University (OSSU)!
🟠 Он предназначен для тех, кто хочет получить фундаментальные знания в области математики, используя онлайн-материалы. Курсы, включенные в программу, соответствуют требованиям бакалавриата по математике, за исключением общих (не математических) дисциплин, и часто предоставляются такими ведущими университетами, как Гарвард, MIT и Стэнфорд.
Гитхаб
👉 Новости 👉 Платформа
Учебный план для самостоятельного изучения математики, разработанный Open Source Society University (OSSU)!
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🥺 GPT-5 будет бесплатной!
Сэм Альтман объявил, что OpenAI возвращается к понятному неймингу, а GPT-4.5 станет промежуточной версией перед новой эрой.
Ключевые заявления главы OpenAI
🟠 GPT-5 будет бесплатной, но с базовым уровнем мощности.
🟠 Для подписчиков Plus — продвинутая версия, а за $200 — максимальный жир.
🟠 Нейросеть сама будет решать, когда дать быстрый ответ, а когда глубоко анализировать инфу.
👉 Новости 👉 Платформа
Сэм Альтман объявил, что OpenAI возвращается к понятному неймингу, а GPT-4.5 станет промежуточной версией перед новой эрой.
Ключевые заявления главы OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
#новости
📞 Hibiki (2B и 1B) - новая модель синхронного перевода РЕЧИ В РЕЧЬ.
Модель может выполнять аудио и текстовые переводы речи в режиме реального времени, сохраняя голос говорящего и оптимально адаптируя его темп на основе содержания исходной речи.
Hibiki превосходит предыдущие модели по качеству перевода, естественности и по схожести говорящих и приближается к переводчикам-людям.
🟠 Открытые веса
🟠 Потоковый перевод: обрабатывает аудио в реальном времени
🟠 Многопотоковая архитектура: использует архитектуру Moshi для моделирования исходной и целевой речи
🟠 Способна работать в шумных условиях
🟠 Обучена на 48 Nvidia H100
🟠 Работает с MLX, Candle и PyTorch
🟠 На данный момент поддерживает французский и английский языки (дальше больше)
🟠 Отлично подходит на запусках на девайсах
HF
👉 Новости 👉 Платформа
Модель может выполнять аудио и текстовые переводы речи в режиме реального времени, сохраняя голос говорящего и оптимально адаптируя его темп на основе содержания исходной речи.
Hibiki превосходит предыдущие модели по качеству перевода, естественности и по схожести говорящих и приближается к переводчикам-людям.
HF
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
🥱 RAGFlow
Это open-source движок для Retrieval-Augmented Generation (RAG), основанный на глубоком понимании документов!
🟠 Он помогает компаниям организовывать поток работы с ИИ-моделями, обеспечивая точные ответы на вопросы с обоснованными ссылками на сложные форматы данных. RAGFlow предлагает интеграцию с LLM, анализ макетов документов и гибкую конфигурацию для различных масштабов бизнеса.
Гитхаб
👉 Новости 👉 Платформа
Это open-source движок для Retrieval-Augmented Generation (RAG), основанный на глубоком понимании документов!
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥1😇1
#новости
😊 Perplexity AI представила новую ультрабыструю поисковую модель Sonar.
Perplexity запустила обновленную версию поисковой модели Sonar, которая основана на Llama 3.3 70B и работает на мощностях от Cerebras Systems. Внутренние тесты, проведенные Perplexity показали, что Sonar превосходит GPT-4o mini и Claude 3.5 Haiku по удовлетворенности пользователей и сравнивается с GPT-4o и Claude 3.5 Sonnet в поисковых задачах.
Cerebras Systems использует уникальные Wafer Scale Engines, позволяющие Sonar обрабатывать 1200 токенов в секунду, что дает почти мгновенные ответы. Доступ к Sonar ограничен для платных пользователей Pro, но Perplexity планирует сделать его более широко доступным в будущем.
perplexity.ai
👉 Новости 👉 Платформа
Perplexity запустила обновленную версию поисковой модели Sonar, которая основана на Llama 3.3 70B и работает на мощностях от Cerebras Systems. Внутренние тесты, проведенные Perplexity показали, что Sonar превосходит GPT-4o mini и Claude 3.5 Haiku по удовлетворенности пользователей и сравнивается с GPT-4o и Claude 3.5 Sonnet в поисковых задачах.
Cerebras Systems использует уникальные Wafer Scale Engines, позволяющие Sonar обрабатывать 1200 токенов в секунду, что дает почти мгновенные ответы. Доступ к Sonar ограничен для платных пользователей Pro, но Perplexity планирует сделать его более широко доступным в будущем.
perplexity.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1