Machinelearning – Telegram
338K subscribers
4.57K photos
929 videos
17 files
5.01K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
🙂 Все мы иногда немного Gilfoyle.

На первый взгляд может показаться, что Silicon Valley опередил свое время, но на самом деле - это результат отличной проработки технической части сериала, что для современного продакшена - редкость.

Роль технологических консультантов сериала в разное время выполняли PhD и профессор Стэнфорда, СTO Twitter, основатель сервиса Vizify и еще более 70 специалистов Кремниевой долины.

Тем не менее, создатели Silicon Valley почти угадали: в прошлом году ИИ-ассистент платформы Replit удалил на проде базу данных, а вендинговый аппарат в офисе Anthropic под управлением Claude заказал партию вольфрамовых кубиков.


@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍100😁58🔥15😍63🤔3🦄2
📌 OVQA: прощай, KV-cache offloading.

В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.

То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.

В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.


Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.

Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.

Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.

🟡Результаты тестовых экспериментов

🟢Модель, обученная на 4К токенах, уверенно справлялась с контекстом до 64К без деградации качества;

🟢На внутриконтекстном поиске OVQ почти не отставала от полноценного самовнимания, потребляя при этом в 4 раза меньше памяти;

🟢На In-Context Learning VQ провалился, а OVQ вышла на уровень классического внимания, используя всего ~4К центроидов;

🟢Сравнения с линейными альтернативами (Mamba2 и дельта-сети) тоже в пользу OVQ: она стабильнее держит долгий контекст без просадок точности;

🟠В задачах Positional ICR OVQA работает чуть хуже, чем классическое внимание но все равно достойно.

Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
99👍35🔥22👏3🦄2
Рынок ИИ в России быстро растёт: по предварительным оценкам, в 2025 году его объём достиг $2,1 млрд, а спрос на ML-инженеров уже сейчас опережает предложение. Бизнесу нужны специалисты для реальных задач — от рекомендательных систем и аналитики до автоматизации сложных процессов.

На курсе "Инженер машинного обучения с нуля" в Нетологии делают упор на практических навыках. Вы научитесь работать со всем циклом ML-разработки:

• формулировать и проверять гипотезы с помощью статистики;
• создавать и дообучать нейросети, использовать transfer learning;
• собирать ETL-пайплайны и готовить данные;
• контейнеризировать проекты и настраивать CI/CD для ML-систем.

В программе больше 10 проектов для портфолио, задачи от реальных компаний и шанс на стажировку в Globus IT. А эксперты из Яндекса, Сбера и Amazon помогут на протяжении всего обучения.

Начните свой путь в профессию, которая уже меняет рынок. Получите скидку 45% по промокоду ML2026 с возможностью оформить рассрочку.

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid:2VSb5wbcUg9
🤣58🌭96🔥5🥰3🗿2
🌟 HY3D-Bench: 22 терабайта отборной 3D-геометрии.

Tencent Hunyuan вывалили в опенсорс монструозный пак HY3D-Bench на 22.5 ТБ и это подарок для всех, кто занимается 3D Gen и робототехникой.

Датасет разбит на 3 логических куска, каждый под свои задачи:

🟡Full-level Dataset (252K+ мешей, ~11 ТБ)
База с полностью замкнутой геометрией, без дырок и non-manifold артефактов, которыми обычно кишат сканы. Все нормализовано и готово к скармливанию в DiT или GAN. В комплекте идут сэмплы точек и мульти-вью рендеры.

🟡Part-level Dataset (240K+ объектов, ~5 ТБ)
Мёд для робототехников и тех, кто занимается geometric perception. Тут объекты с семантической сегментацией на части. Если учите сервоприводного друга манипуляциям или хотите генерить объекты кусками - вам сюда.

🟡Synthetic Dataset (125K+ объектов, ~6.5 ТБ)
Очевидная синтетика, чтобы закрыть редкие категории, которых нет в обычных датасетах. Охват - 1252 категории.

Ждем волну SOAT-level 3D-генераторов, дотюненных на этом наборе.


🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Dataset #HY3DBench #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
48🔥38👍16😁2🤔2🦄1
⚡️ Вышла Z-Image Base.

Tongyi выложила фундаментальную версию модели семейства Z-Image.

В отличие от ранее выпущенной Turbo, это полновесный трансформер, ориентированный на максимальное качество и управляемость генерации .

Z-Image отлично подходит для дообучения, тренировки LoRA и интеграции с ControlNet.

Модель поддерживает CFG и работу с негативными промптами, генерируя результат за 28–50 шагов.


📌Лицензирование:  Apache 2.0 License.


🟡Модель
🟡Демо HF
🟡Демо ModelScope
🟡Archive
🟡ComfyUI WorkFlow
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Diffusion #ZImage #Tongyi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6813😍4🦄3👍2
Media is too big
VIEW IN TELEGRAM
✔️ ByteDance представила Seedance 2.0.

Китайский гигант запустил пре-релиз видео-модели Seedance 2.0, которая уже доступна избранным пользователям на платформах Jimeng AI, CapCut и Atlas Cloud.

Модель поддерживает генерацию в 2K и работает на  30% быстрее прошлой версии. Разработчики сделали акцент на более точном управлении через естественные описания: теперь можно задавать тон, стиль и композицию с помощью простых фраз. Подтянули и работу с референсами: модель лучше понимает ракурсы, освещение и движение объектов.

По оценке агентства CTOL, Seedance 2.0 на практике показывает результаты выше, чем Sora 2 и Veo 3.1. После этого сообщения акции китайских технологических компаний заметно выросли, а ByteDance укрепила свои позиции в сегменте генерации видео‑контента.
bloomberg.com

✔️ OpenAI выпустит чат-версию GPT 5.3 на этой неделе.

Сэм Альтман во внутреннем сообщении сотрудникам сообщил, что рост аудитории ChatGPT ускорился более чем на 10% в месяц. По последним данным, в январе 2026 года сервисом еженедельно пользовались около 800 млн. человек.

Главная новость - уже на этой неделе в продакшен запустят обновленную разговорную модель, предположительно, на архитектуре GPT  5.3. На прошлой неделе вышел ее специализированный вариант Codex, заточенный под кодинг.

Еще ожидается обновление десктопного приложения OpenAI - оно выйдет за рамки задач программирования и получит более широкий набор функций.
cnbc.com

✔️ Anthropic добавила быстрый режим работы в Claude Code.

В Claude Code появилось превью Fast mode для Opus 4.6. Обещают, что в этом режиме модель станет ощутимо шустрее и при этом не потеряет в точности.

Фича уже доступна подписчикам Pro и Team. Она работает, помимо родных окружений, в Cursor, GitHub Copilot, Figma и Windsurf. В облачных средах Amazon Bedrock, Google Vertex и Azure ее пока не завезли.

Цены, честно говоря, кусаются: $30 за 1 млн. входных токенов и $150 за аутпут. Чтобы подсластить пилюлю, дали скидку 50% до 16 февраля. Записаться в лист ожидания можно тут.
claude.com

✔️ В репозитории Transformers появился PR с Qwen 3.5.

Судя по содержимому, новое поколение получит поддержку зрения и гибридный механизм внимания, который сочетает разные типы обработки контекста. В коде упоминаются 2 конфигурации: компактная плотная модель на 2 млрд. параметров и MoE-архитектура 35B‑A3B.

По слухам, релиз Qwen 3.5 может совпасть с выходом DeepSeek v4, что заметно оживит конкуренцию между крупными LLM в open‑source‑экосистеме.
github.com


✔️ Тест Halluhard: топовые ИИ-модели галлюцинируют в трети случаев даже с доступом в сеть.

Исследователи из EPFL и Института Макса Планка развеяли стереотип о том, что если дать модели доступ в интернет, она перестанет галлюцинировать.

На созданном ими бенчмарке Halluhard даже Claude Opus 4.5 с веб-поиском выдает ложную информацию в 30% случаев. Без интернета ситуация совсем плохая - 60% ошибок. GPT-5.2 Thinking держится чуть лучше, но почти 40% галлюцинаций - это все еще много.

Китайские модели, кстати, показали себя хуже всех, а ризонинг-LLM часто сами себя запутывают. В длинных диалогах срабатывает эффект снежного кома: стоит модели один раз ошибиться, она начинает опираться на эту ложь в следующих ответах, и исправить ситуацию становится почти невозможно.
halluhard.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5418🔥7🥰1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
«Не переживайте, рабочие места останутся, даже когда AI всё автоматизирует»

☝️ А вот эти рабочие места.
😁135👍2917😭13🔥8🦄2🤬1
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей

Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.

Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)

Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость

Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0

@ai_machinelearning_big_data

#qwen
171👍20🔥11🦄2
🏅 LLM на Олимпийских играх: как нейросети меняют индустрию спорта

Технологии проникают в большой спорт. Свежий разбор показывает, как именно языковые модели «рассуждают» в контексте Олимпиады, превращаясь из простых чат-ботов в мощные аналитические инструменты: ГигаЧат проанализировал использование различных LLM в олимпийской инфраструктуре.

Почему ИИ уже сейчас может помогать анализировать спортивные мероприятия:
- Языковые модели способны обрабатывать гигантские массивы данных и статистики, которые живой комментатор не способен переварить
- LLM выстраивают логические цепочки для аналитики, обладая знаниями и методологией профессиональных комментаторов и бывших спортсменов
- Интеграция технологий делает трансляции интерактивнее, предоставляя зрителям незаметные человеческому глазу инсайты в реальном времени.

@ai_machinelearning_big_data

#ai #ml #olympics #llm
🗿3813🔥9👍5😁1🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Waymo анонсировала модель мира на базе Google Genie 3 для тренировки автопилота.

Waymo World Model - это бесконечный генератор симуляций, где автопилоты учатся выживать, не рискуя реальным железом и людьми.

Звучит как видеоигра, но с очень серьезной начинкой. Инженеры могут текстовыми запросами менять погоду, время суток или вообще с нуля создавать дорожные ситуации.

Система умеет брать обычное видео с регистратора и превращать его в интерактивную 3D-среду, которую можно редактировать на ходу.

Главная цель - отработка так называемых "редких событий". Это самые безумные сценарии, которые в реальности случаются раз в миллион лет, но наглухо ломают логику робота.

Waymo приводит примеры слона, выбежавшего на трассу, погони за торнадо или снега в тропическом городе. Кажется перебором, но именно такие вещи невозможно безопасно протестировать в живом городе. А учиться на них надо.


Контекст тут тоже важен. После случая в Калифорнии, где роботакси задело ребенка, к Waymo много вопросов.

Сейчас в сложных ситуациях машинам помогают люди-операторы (они не рулят напрямую, а дают подсказки), но компания явно хочет убрать человеческий фактор, повысив реальную автономность.

Вообще, хайп вокруг World Models сейчас огромный. Инвесторы и звезды ИИ (Ян Лекун и Фей-Фей Ли) видят в моделях мира следующий большой шаг после LLM.

Недавний пре-релиз Project Genie уже подтолкнул десятки разработчиком к экспериментам, которые научат ИИ понимать физику и пространство нашего мира.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
69🔥18👍11🦄3🥰1