Machinelearning – Telegram
338K subscribers
4.57K photos
932 videos
17 files
5.02K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📌 OVQA: прощай, KV-cache offloading.

В Zyphra придумали как усидеть на двух стульях сразу, когда хочется резиновый контекст, но под рукой нет тонны памяти.

То. что они предложили, называется Online Vector-Quantized Attention - это модификация векторного квантования, которая учит словарь думать на лету.

В классическом VQ ключи заменяются ближайшими центроидами из статичного словаря. Это бустит вычисления, но создает проблему: словарь обучен на одних данных, а во время генерации модель видит совсем другое распределение ключей. Ошибка квантования растет, внимание теряет точность и как итог: VQ начинает плавать.


Так вот, модификация в том, чтобы отказаться от статического словаря в пользу адаптивного к текущей последовательности: каждый новый токен обновляет только один центроид - тот, к которому ближе всего.

Это разреженное обновление работает как защита от катастрофического забывания: старая информация не вымывается новой волной токенов, а аккуратно перезаписывается по мере необходимости.

Плюс есть хард-лимит на размер состояния, после достижения которого объем памяти перестает расти, а вычисления становятся строго линейными.

🟡Результаты тестовых экспериментов

🟢Модель, обученная на 4К токенах, уверенно справлялась с контекстом до 64К без деградации качества;

🟢На внутриконтекстном поиске OVQ почти не отставала от полноценного самовнимания, потребляя при этом в 4 раза меньше памяти;

🟢На In-Context Learning VQ провалился, а OVQ вышла на уровень классического внимания, используя всего ~4К центроидов;

🟢Сравнения с линейными альтернативами (Mamba2 и дельта-сети) тоже в пользу OVQ: она стабильнее держит долгий контекст без просадок точности;

🟠В задачах Positional ICR OVQA работает чуть хуже, чем классическое внимание но все равно достойно.

Очень хочется надеяться, что OVQ - это предтеча настоящего непрерывного обучения, где в светлом будущем вместо бесконечно пухнущего KV-кэша появится компактная, но живая память, способная удерживать важные детали без потерь.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #OVQA #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
100👍38🔥22👏3🦄2
Рынок ИИ в России быстро растёт: по предварительным оценкам, в 2025 году его объём достиг $2,1 млрд, а спрос на ML-инженеров уже сейчас опережает предложение. Бизнесу нужны специалисты для реальных задач — от рекомендательных систем и аналитики до автоматизации сложных процессов.

На курсе "Инженер машинного обучения с нуля" в Нетологии делают упор на практических навыках. Вы научитесь работать со всем циклом ML-разработки:

• формулировать и проверять гипотезы с помощью статистики;
• создавать и дообучать нейросети, использовать transfer learning;
• собирать ETL-пайплайны и готовить данные;
• контейнеризировать проекты и настраивать CI/CD для ML-систем.

В программе больше 10 проектов для портфолио, задачи от реальных компаний и шанс на стажировку в Globus IT. А эксперты из Яндекса, Сбера и Amazon помогут на протяжении всего обучения.

Начните свой путь в профессию, которая уже меняет рынок. Получите скидку 45% по промокоду ML2026 с возможностью оформить рассрочку.

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid:2VSb5wbcUg9
🤣59🌭96🔥5🥰3🗿3
🌟 HY3D-Bench: 22 терабайта отборной 3D-геометрии.

Tencent Hunyuan вывалили в опенсорс монструозный пак HY3D-Bench на 22.5 ТБ и это подарок для всех, кто занимается 3D Gen и робототехникой.

Датасет разбит на 3 логических куска, каждый под свои задачи:

🟡Full-level Dataset (252K+ мешей, ~11 ТБ)
База с полностью замкнутой геометрией, без дырок и non-manifold артефактов, которыми обычно кишат сканы. Все нормализовано и готово к скармливанию в DiT или GAN. В комплекте идут сэмплы точек и мульти-вью рендеры.

🟡Part-level Dataset (240K+ объектов, ~5 ТБ)
Мёд для робототехников и тех, кто занимается geometric perception. Тут объекты с семантической сегментацией на части. Если учите сервоприводного друга манипуляциям или хотите генерить объекты кусками - вам сюда.

🟡Synthetic Dataset (125K+ объектов, ~6.5 ТБ)
Очевидная синтетика, чтобы закрыть редкие категории, которых нет в обычных датасетах. Охват - 1252 категории.

Ждем волну SOAT-level 3D-генераторов, дотюненных на этом наборе.


🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Dataset #HY3DBench #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
50🔥39👍16🤔3😁2🦄1
⚡️ Вышла Z-Image Base.

Tongyi выложила фундаментальную версию модели семейства Z-Image.

В отличие от ранее выпущенной Turbo, это полновесный трансформер, ориентированный на максимальное качество и управляемость генерации .

Z-Image отлично подходит для дообучения, тренировки LoRA и интеграции с ControlNet.

Модель поддерживает CFG и работу с негативными промптами, генерируя результат за 28–50 шагов.


📌Лицензирование:  Apache 2.0 License.


🟡Модель
🟡Демо HF
🟡Демо ModelScope
🟡Archive
🟡ComfyUI WorkFlow
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Diffusion #ZImage #Tongyi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7214😍4🦄3👍2
Media is too big
VIEW IN TELEGRAM
✔️ ByteDance представила Seedance 2.0.

Китайский гигант запустил пре-релиз видео-модели Seedance 2.0, которая уже доступна избранным пользователям на платформах Jimeng AI, CapCut и Atlas Cloud.

Модель поддерживает генерацию в 2K и работает на  30% быстрее прошлой версии. Разработчики сделали акцент на более точном управлении через естественные описания: теперь можно задавать тон, стиль и композицию с помощью простых фраз. Подтянули и работу с референсами: модель лучше понимает ракурсы, освещение и движение объектов.

По оценке агентства CTOL, Seedance 2.0 на практике показывает результаты выше, чем Sora 2 и Veo 3.1. После этого сообщения акции китайских технологических компаний заметно выросли, а ByteDance укрепила свои позиции в сегменте генерации видео‑контента.
bloomberg.com

✔️ OpenAI выпустит чат-версию GPT 5.3 на этой неделе.

Сэм Альтман во внутреннем сообщении сотрудникам сообщил, что рост аудитории ChatGPT ускорился более чем на 10% в месяц. По последним данным, в январе 2026 года сервисом еженедельно пользовались около 800 млн. человек.

Главная новость - уже на этой неделе в продакшен запустят обновленную разговорную модель, предположительно, на архитектуре GPT  5.3. На прошлой неделе вышел ее специализированный вариант Codex, заточенный под кодинг.

Еще ожидается обновление десктопного приложения OpenAI - оно выйдет за рамки задач программирования и получит более широкий набор функций.
cnbc.com

✔️ Anthropic добавила быстрый режим работы в Claude Code.

В Claude Code появилось превью Fast mode для Opus 4.6. Обещают, что в этом режиме модель станет ощутимо шустрее и при этом не потеряет в точности.

Фича уже доступна подписчикам Pro и Team. Она работает, помимо родных окружений, в Cursor, GitHub Copilot, Figma и Windsurf. В облачных средах Amazon Bedrock, Google Vertex и Azure ее пока не завезли.

Цены, честно говоря, кусаются: $30 за 1 млн. входных токенов и $150 за аутпут. Чтобы подсластить пилюлю, дали скидку 50% до 16 февраля. Записаться в лист ожидания можно тут.
claude.com

✔️ В репозитории Transformers появился PR с Qwen 3.5.

Судя по содержимому, новое поколение получит поддержку зрения и гибридный механизм внимания, который сочетает разные типы обработки контекста. В коде упоминаются 2 конфигурации: компактная плотная модель на 2 млрд. параметров и MoE-архитектура 35B‑A3B.

По слухам, релиз Qwen 3.5 может совпасть с выходом DeepSeek v4, что заметно оживит конкуренцию между крупными LLM в open‑source‑экосистеме.
github.com


✔️ Тест Halluhard: топовые ИИ-модели галлюцинируют в трети случаев даже с доступом в сеть.

Исследователи из EPFL и Института Макса Планка развеяли стереотип о том, что если дать модели доступ в интернет, она перестанет галлюцинировать.

На созданном ими бенчмарке Halluhard даже Claude Opus 4.5 с веб-поиском выдает ложную информацию в 30% случаев. Без интернета ситуация совсем плохая - 60% ошибок. GPT-5.2 Thinking держится чуть лучше, но почти 40% галлюцинаций - это все еще много.

Китайские модели, кстати, показали себя хуже всех, а ризонинг-LLM часто сами себя запутывают. В длинных диалогах срабатывает эффект снежного кома: стоит модели один раз ошибиться, она начинает опираться на эту ложь в следующих ответах, и исправить ситуацию становится почти невозможно.
halluhard.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5819🔥7🦄2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
«Не переживайте, рабочие места останутся, даже когда AI всё автоматизирует»

☝️ А вот эти рабочие места.
😁152👍3017😭13🔥8🤣3🦄2🤬1
🎨 Qwen-Image-2.0 - новое поколение генерации изображений Qwen моделей

Alibaba представили Qwen-Image-2.0 - модель, которая выводит генерацию визуала на уровень дизайнерских инструментов. Теперь ИИ не просто рисует картинки, а умеет создавать полноценные слайды, постеры и визуалы с аккуратной типографикой и высоким качеством деталей.

Что умеет модель:
- Написал абзац → получил готовый слайд
- Описал сцену → получил фотореалистичное изображение в 2K
- Добавил текст → он отображается корректно, без «ломаных» букв (русский поддерживает, но работает кривовато)

Ключевые улучшения:
- Профессиональная типографика - поддержка длинных промптов до 1K токенов для презентаций, постеров и комиксов
- Нативное разрешение 2K с высокой детализацией
- Точное и стабильное отображение текста
- Единый режим генерации и редактирования изображений
- Облегчённая архитектура — быстрее инференс и ниже стоимость

Попробовать: https://chat.qwen.ai/?inputFeature=t2i
Подробнее: https://qwen.ai/blog?id=qwen-image-2.0

@ai_machinelearning_big_data

#qwen
177👍22🔥11🦄2
🏅 LLM на Олимпийских играх: как нейросети меняют индустрию спорта

Технологии проникают в большой спорт. Свежий разбор показывает, как именно языковые модели «рассуждают» в контексте Олимпиады, превращаясь из простых чат-ботов в мощные аналитические инструменты: ГигаЧат проанализировал использование различных LLM в олимпийской инфраструктуре.

Почему ИИ уже сейчас может помогать анализировать спортивные мероприятия:
- Языковые модели способны обрабатывать гигантские массивы данных и статистики, которые живой комментатор не способен переварить
- LLM выстраивают логические цепочки для аналитики, обладая знаниями и методологией профессиональных комментаторов и бывших спортсменов
- Интеграция технологий делает трансляции интерактивнее, предоставляя зрителям незаметные человеческому глазу инсайты в реальном времени.

@ai_machinelearning_big_data

#ai #ml #olympics #llm
🗿4215🔥9👍5😁1🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Waymo анонсировала модель мира на базе Google Genie 3 для тренировки автопилота.

Waymo World Model - это бесконечный генератор симуляций, где автопилоты учатся выживать, не рискуя реальным железом и людьми.

Звучит как видеоигра, но с очень серьезной начинкой. Инженеры могут текстовыми запросами менять погоду, время суток или вообще с нуля создавать дорожные ситуации.

Система умеет брать обычное видео с регистратора и превращать его в интерактивную 3D-среду, которую можно редактировать на ходу.

Главная цель - отработка так называемых "редких событий". Это самые безумные сценарии, которые в реальности случаются раз в миллион лет, но наглухо ломают логику робота.

Waymo приводит примеры слона, выбежавшего на трассу, погони за торнадо или снега в тропическом городе. Кажется перебором, но именно такие вещи невозможно безопасно протестировать в живом городе. А учиться на них надо.


Контекст тут тоже важен. После случая в Калифорнии, где роботакси задело ребенка, к Waymo много вопросов.

Сейчас в сложных ситуациях машинам помогают люди-операторы (они не рулят напрямую, а дают подсказки), но компания явно хочет убрать человеческий фактор, повысив реальную автономность.

Вообще, хайп вокруг World Models сейчас огромный. Инвесторы и звезды ИИ (Ян Лекун и Фей-Фей Ли) видят в моделях мира следующий большой шаг после LLM.

Недавний пре-релиз Project Genie уже подтолкнул десятки разработчиком к экспериментам, которые научат ИИ понимать физику и пространство нашего мира.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
81🔥20👍12🦄3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Глава команды безопасности Anthropic покидает компанию.

Мринанк Шарма, руководитель Safeguards Research Team в Anthropic в прощальном письме объяснил, что его этические принципы все сильнее расходятся с направлением, в котором развивается индустрия ИИ - корпоративная среда создает давление и вынуждает специалистов откладывать по‑настоящему важные вещи в сторону.

Шарма работал в Anthropic с  2023  года и курировал проекты по защите моделей - от конституционных фильтров до систем предотвращения джейлбрейка. Теперь он планирует получить степень по литературе и сосредоточиться на поэзии параллельно с наукой.
Mrinank Sharma в сети Х

✔️ OpenAI отказалась от бренда «io»

Отказ от названия «io» для линейки устройств подтвержден судебными документами, поданными в рамках спора о нарушении товарного знака со стартапом iyO. По словам вице-президента Питера Велиндера, OpenAI пересмотрела стратегию нейминга и решила полностью отказаться от проблемного бренда в маркетинговых и коммерческих материалах.

Вместе с ребрендингом изменился и график релиза. Теперь OpenAI заявляет, что поставки первого устройства начнутся не раньше конца февраля 2027 года, хотя ранее анонсы указывали на вторую половину 2026-го.

Вопреки слухам и фейковым рекламным роликам, в суде подтвердили: это будет не носимый девайс или наушники, а стационарный настольный ассистент без экрана.
wired.com

✔️ ElevenLabs выпустила крупное обновление ElevenAgents.

Новый режим Expressive Mode позволяет ботам динамически управлять интонацией и эмоциональной окраской речи. Теперь агент может адаптироваться под собеседника в реальном времени: говорить мягче и спокойнее в напряжённой ситуации или, наоборот, добавить уверенности и темпа, когда нужно донести информацию максимально ясно.

Апдейт базируется на двух компонентах. Первый - новая TTS-модель Eleven v3 Conversational, оптимизированная для диалогов: она удерживает контекст беседы и избегает характерного роботизированного звучания. Второй компонент — переработанная система смены очереди говорящего.

Используя данные транскрибации, ИИ теперь точнее определяет уместные моменты для вступления в разговор и пауз, решая давнюю проблему голосовых ботов, которые часто перебивают на полуслове. Поддержка нового режима заявлена для 70+ языков.
elevenlabs.io

✔️ Artificial Analysis сделала инструмент для подбора LLM.

Аналитическая платформа представила Model Recommender - сервис выбора модели под конкретные задачи. Рекомендательный движок позволяет указать собственные ограничения и получить персональный список подходящих моделей.

Алгоритм учитывает десятки параметров: скорость инференса через API, наличие мультимодальности, тип лицензии и многое другое. В сервисе можно вручную расставить приоритеты: повысить вес метрик качества генерации кода, устойчивости к галлюцинациям или эффективности в агентных задачах.
Artificial Analysis в сети Х

✔️ Джон Кармак предложил оптоволокно как кэш-память для ИИ.

По расчетам создателя Doom, при пропускной способности 256 Тбит/с внутри 200 км контура в каждый момент времени циркулировало бы примерно 32 ГБ данных, которые можно рассматривать как область памяти.

Кармак напомнил о старом принципе, где данные существовали в форме непрерывно передаваемых сигналов. В современном исполнении эта концепция могла бы стать энергоэффективной заменой DRAM - свет в кабеле потребляет меньше энергии, чем поддержание заряда в ячейках.

На практике реализовать такую систему физически сложно: 200 км оптоволокна это много даже для дата‑центра. Более реальной альтернативой Джон называет прямое соединение массивов флэш‑памяти с вычислительными чипами без контроллеров и шин, что тоже могло бы сократить задержки при работе больших моделей.
tomshardware.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
57🔥19👍17🥰2🤣2🤔1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
✉️ Вам приглашение на 35-летний юбилей Python 🐍🎉

Python уже совсем взрослый — и мы отмечаем это уютной конференцией вместе с комьюнити: докладами, интерактивами и праздничной атмосферой.

📍 Встречаемся в пятницу, 20 февраля, в 15:30 — в московском офисе Сбера и онлайн.

В программе:

🔹 Доклады от топовых спикеров — обсудим будущее Python, ИИ в кодинге, мутационное тестирование и многое другое.

🔸 Интерактивные зоны и праздничная атмосфера — кодинг-активности, нетворкинг и, конечно, торт 🎂

Проведём этот день вместе — в офисе или онлайн.
Ждём вас 20 февраля в 15:30!


Регистрация по ссылке. 👈
27👍8🥰3👏2🤬2🤣2🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Cowork стал доступен на Windows.

Пользователи Windows теперь могут использовать все возможности Cowork: прямой доступ к файлам, выполнение многошаговых задач, поддержку плагинов и всех коннекторов MCP. Ранее этот функционал был эксклюзивом для яблочной платформы.

Попутно Anthropic представила гибкую систему инструкций. Вы можете задать глобальные предпочтения: тон, формат ответов или описание своей роли, они будут применяться ко всем чатам.

Также появились инструкции уровня папок: они активируются автоматически, когда вы работаете в конкретной директории. Обновлять эти настройки можно прямо в ходе диалога, не копаясь в меню.

Инструмент все еще в стадии research preview и открыт для всех пользователей платных тарифов. Для доступа достаточно скачать свежую версию клиента с сайта.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
26👍9🔥6🦄2🥰1😁1
⚡️ ZAI релизнули GLM-5.

Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.

Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.

Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥187🦄41