Machinelearning – Telegram
382K subscribers
4.43K photos
851 videos
17 files
4.87K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🧾 Microsoft раскрыла цифры, которые показывают масштабы расходов OpenAI.

В отчёте для SEC видно: OpenAI потеряла около $11.5 млрд за один квартал.

Это считается по методу учёта доли — Microsoft владеет примерно 27% OpenAI и списала у себя $3.1 млрд. Если 27% = $3.1 млрд убытка, то общий минус - около $11.5 млрд.

Ещё один факт: Microsoft уже перечислила $11.6 млрд из обещанных $13 млрд - почти всё финансирование уже пришло в OpenAI.

И при этом Microsoft за тот же период заработала $27.7 млрд чистой прибыли, так что такой минус она спокойно выдерживает.

Гонка за лидерство в ИИ - это игра, где даже крупнейшие компании готовы сжигать гигантские суммы.

Интересно посмотреть, сколько она ещё продлится и кто выдержит дольше?

theregister.com/2025/10/29/microsoft_earnings_q1_26_openai_loss

@ai_machinelearning_big_data

#opanai #Microsoft #money
👍88🤔82🔥3125🤓17😐7😁6🤗2
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Ничего необычного - просто в одном из сеульских кафе заметили СЕО Nvidia, который отмечал капитализацию в $5 трлн жареной курицей и пивком.

С ним за столом сидели руководители Samsung и Hyundai.

@ai_machinelearning_big_data

#Nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM
1243👍70🍾44😁18🥰12🥱6👏5🔥4🗿2
🔥 Hugging Face снова выкатили полезные материалы.

Вышел бесплатный плейбук о том, как изнутри строят SOTA-модели.

Без общих слов - только реальные решения и нюансы, которые обычно скрыты внутри исследовательских команд.

Это полноценный мастеркласс на 214 страниц для тех, кто хочет понимать, как устроены современные LLM.

Что внутри:
• Логика построения модели: зачем → что → как
• Как разработчики берут модель и по частям включают/выключают компоненты (или меняют их)
• Архитектура: ключевые выборы и trade-offs
• Искусство подбора и очистки данных
• Как проходит обучение моделей
• Пост-тренинг и RLHF в 2025
• Инфраструктура больших моделей

По первым страницам - уровень деталей как в Ultra-scale playbook.

Ссылка
: https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture

@ai_machinelearning_big_data

#AI #LLM #MachineLearning #HuggingFace
🔥10030🥰9🤩3
ИИ-ассистент по имени «Ави» от Авито готовится к запуску

Технологическая платформа подала заявку на регистрацию соответствующего товарного знака – стало известно Коммерсанту.

Новый виртуальный помощник работает на базе большой языковой модели и общается с пользователем в формате живого диалога. «Ави» уточняет цель покупки, предлагает подходящие варианты, помогает разобраться в характеристиках и объясняет, чем отличаются похожие предложения. Сейчас ассистент проходит тестирование в разных категориях, а в следующем году компания планирует запустить универсальную версию, которая будет работать во всех вертикалях платформы.

По оценкам экспертов, разработка могла обойтись примерно в 500 млн рублей. Ранее в Авито сообщали, что планируют инвестировать до 12 млрд рублей в развитие генеративного ИИ и заработать на этом более 21 млрд рублей к 2028 году. Источники отмечают, что запуск таких решений — новый тренд среди крупных компаний: они позволяют быстрее получать бизнес-эффект и усиливают лояльность аудитории.

Ранее уже писали о том, что Авито выложил в открытый доступ свои модели A-Vibe (текстовая) и A-Vision (мультимодальная). Всего за неделю A-Vibe собрала свыше 1400 скачиваний и вошла в топ трендовых моделей на Hugging Face — среди сотен тысяч доступных нейросетей.
👍41🤣3312🔥8🤬4🤷‍♂3😁3🥰1🌭1
🧨 Kimi представили новую модель - Kimi-Linear-48B-A3B-Base

Команда Moonshot показала KDA - механизм, который соединяет идеи Gated DeltaNet и MLA-компрессии в одну архитектуру. Звучит сложно, но суть очень практичная: модель получает долгую память без раздувания контекста и лишних вычислений.

- KDA (Kimi Delta Attention: основной быстрый attention, улучшает эффективность и reasoning
= MLA (Multi-Head Linear Attention) - помогает точности и стабильности. Модель не пересчитывает всё внимание каждый токен, а фокусируется на изменениях, что снижает затраты.

Соотношение слоёв: ~3 части KDA : 1 часть ML.

Модель в основном работает на «дельта-внимании» (KDA), а MLA помогает сохранять качество:

- модель сама выбирает, что забывать, а что держать
- это даетустойчивость при большом контексте выше
- меньше распада длинных зависимостей

Kimi-Linear хороша тем, что даёт почти уровень больших LLM на длинных контекстах, но при этом заметно экономит память и работает быстрее за счёт линейной архитектуры.

Что улучшили:
- требует до 75% меньше памяти на KV-кэш
- до 6.3× быстрее декодирование на длинных контекстах

Как устроена:
- гибридный подход: Kimi Delta Attention + MLA
- модель хорошо оптимизирована под длиннный контекст и высокую пропускную способность

По бенчмаркам модель обгоняет и MLA, и GDN-H, включая задачи с длинным контекстом. В задачах на рассуждения и длинную RL-генерацию Kimi-Linear показывает заметно лучшие результаты, чем MLA.

Архитектура модели пример того, как линейные attention-архитектуры выходят на уровень, где они конкурируют с классическими решениями не только по скорости, но и по качеству.

🟠Github: github.com/MoonshotAI/Kimi-Linear
🟠Hf: https://huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct

@ai_machinelearning_big_data

#Kimi #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66🔥2015👏6
🌍 Awesome-World-Models

На GitHub вышел большой курируемый репозиторий, собравший всё самое важное о World Models. Это подход в ИИ, где система строит внутреннюю модель мира, чтобы понимать среду и предсказывать будущие действия в ней.

Внутри можно найти ключевые работы и исследования по направлениям:
- embodied-AI и робототехника
- автономное вождение
- NLP-модели с долгосрочным контекстом и планированием
- другие области, где ИИ должен строить представление о мире и действовать в нём

Если тема миромоделей интересна - это отличный старт для изучения.

GitHub: github.com/knightnemo/Awesome-World-Models

@ai_machinelearning_big_data


#worldmodels
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍44🔥1613🤗5❤‍🔥4
🆕 Новый сильный GUI-агент: UI-Ins от TongyiLab и RUC

Это модель, которая уверенно работает с мобильными интерфейсами и лучше понимает намерения пользователя.

Она рассматривает команду как цепочку рассуждений, а не как одно действие, поэтому справляется со сложными задачами стабильнее.

Результаты
UI-Ins показал 74.1% успешных действий в AndroidWorld. Для сравнения: Gemini 2.5 Computer Use - 69.7%. То есть модель чаще правильно выполняет задачи в реальных интерфейсах.

Модель:
- пытается понять цель, а не только текст команды
- строит несколько вариантов рассуждений
- выбирает подходящую стратегию перед действием
- адаптируется, если состояние приложения меняется

Идет в двух версиях: 7B и 32B.

Если вы работаете над агентами, которые должны нажимать кнопки, заполнять формы, открывать приложения и следовать шагам в интерфейсе - UI-Ins стоит добавить в список моделей для тестов.

🤖 UI-Ins-7B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-7B
UI-Ins-32B: https://modelscope.cn/models/Tongyi-MiA/UI-Ins-32B
📄 arXiv: https://modelscope.cn/papers/2510.20286

@ai_machinelearning_big_data


#AI #Agents #GUI #MobileAgents #AndroidWorld #LLM
👍32🔥1712🥰6
🥧 PewDiePie в 2025

- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,

- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,

- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.

Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить

Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU

А вот его Github: https://github.com/pewdiepie-archdaemon

@ai_machinelearning_big_data

#llm
👍19779🔥48😁32😨11👏9🤓3🤔1
⚡️ LongCat-Flash-Omni - открытая 560B MoE-модель (27B активных параметров), которая умеет вести живой диалог в реальном времени, слышать, видеть и отвечать голосом.

Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source

По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель

Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.

🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni

@ai_machinelearning_big_data


#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
🔥6244👍24
Media is too big
VIEW IN TELEGRAM
✔️ Lambda AI заключила многомиллиардную сделку с Microsoft.

Облачный стартап Lambda объявил о многомиллиардном соглашении с Microsoft на создание новой инфраструктуры для ИИ. Она будет оснащена десятками тысяч чипов Nvidia, в частности системами NVIDIA GB300 NVL72. Точная сумма сделки не раскрывается.

Lambda была основана в 2012 году и специализируется на облачных сервисах для обучения и развертывания ИИ-моделей. Новое соглашение позволит ей значительно нарастить мощности на фоне растущего спроса на ИИ. В планах не только аренда дата-центров, но и строительство собственной инфраструктуры.
lambda.ai

✔️ Alibaba представила превью Qwen3-Max-Thinking.

Китайский техногигант выпустил предварительную ризонинг-версию своей топовой модели Qwen3-Max, которая все еще находится на стадии обучения. Модель показала в тестах стопроцентный результат на сложных бенчмарках для оценки логического мышления (AIME 2025 и HMMT).

Под капотом - 1 трлн. параметров на архитектуре MoE, так же как и в родительской Max, Alibaba обещает, что обучение будет продолжено. Попробовать превью уже можно в Qwen Chat и через API Alibaba Cloud.
Qwen в сети X

✔️ Granite 4.0 Nano: семейство компактных моделей от IBM.

IBM опубликовала новое семейство открытых моделей Granite 4.0 Nano, которые созданы для работы в составе ИИ-агентов. Версия на 350 млн. параметров может работать на обычном CPU с 8–16 ГБ ОЗУ, а для варианта на 1,5 млрд. хватит GPU с 6-8 ГБ видеопамяти.

Семейство построено на гибридной архитектуре Mamba-2+Transformer, что позволило снизить потребление памяти на 70% и удвоить скорость инференса по сравнению с аналогами. По словам IBM, Granite 4.0 Nano показывают SOTA в следовании инструкциям и использовании инструментов. Все модели под Apache 2.0 и доступны на HuggingFace.
huggingface.co

✔️ Huxley-Gödel Machine: ИИ-агент, способный эволюционировать.

В Университете KAUST создали ИИ-агента Huxley-Gödel Machine (HGM), который может самосовершенствоваться, изменяя собственный код. Система не затрагивает ядро языковой модели, а переписывает окружающую ее инфраструктуру: управляющую логику, скрипты и инструменты.

Главное отличие от конкурентов в фокусе на долгосрочной продуктивности, а не на результатах в бенчах. Для этого был создан показатель Clade Metaproductivity (CMP), который мониторит совокупную эффективность всех потомков агента.

В тесте SWE-Bench Verified, HGM-агент на базе GPT-5-mini решил 61.4% проблем. Это лучше, чем существующие агенты с той же моделью. Код агента доступен на Github.
arxiv.org

✔️ Skyfall-GS: генератор 3D-моделей городов по спутниковым снимкам.

Skyfall-GS способна создавать детализированные и проходимые 3D-модели городов, используя только стандартные спутниковые изображения. В отличие от старых методов, которые могут воссоздать лишь крыши, Skyfall-GS генерирует недостающие элементы, что на выходе дает фотореалистичные городские пространства.

Пайплайн состоит из 3D Gaussian splatting (базовый 3D-каркас города) и диффузионных моделей, которые дорисовывают недостающие элементы (стены зданий и текстуры на уровне земли).

Skyfall-GS работает с 11 FPS на потребительском GPU и, по тестам, лучше аналогичных методик. Код проекта опубликован на GitHub.
skyfall-gs.jayinnn.dev

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6134🔥8👏3🤔1
📌Хьюстон, у нас новая проблема.

В свежем выпуске подкаста канала Bg2Pod CEO Microsoft Сатья Наделла пожаловался, что у компании не хватает электроэнергии для питания инфраструктуры ИИ.

Он опасается, что в итоге у Microsoft может оказаться куча чипов, которые просто будут лежать без дела, потому что не хватает энергии, чтобы их подключить.

Оказывается, что проблема не в поставках чипов, а в отсутствии готовых ЦОДов, расположенных рядом с крупными источниками электроэнергии.

OpenAI выражает обеспокоенность по этому поводу и просит правительство США добавить 100 гигаватт в год к производству электроэнергии в качестве стратегического актива для ИИ.

Этот дефицит электроэнергии приводит к потере капитала, поскольку графические ускорители теряют свою стоимость в ожидании готовности зданий, подстанций и линий электропередачи.

Даже если обучение останется централизованным, спрос на вычисления является основным фактором, влияющим на потребление электроэнергии, поэтому любой переход к эффективным периферийным устройствам изменит предположения о размерах энергосистемы и центров обработки данных.

Основная новая проблема заключается в том, что графики поставки электроэнергии и строительства рассчитываются на основе многолетних циклов получения разрешений и строительства, а вот поставки чипов увеличиваются поквартально.

🔜 Посмотреть выпуск

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5422😁20🔥11👀5🗿4🤨2💋1💘1
Media is too big
VIEW IN TELEGRAM
✔️ Google разместит ИИ-вычисления на околоземной орбите.

Google анонсировала проект Suncatcher, который будет строить ML-инфраструктуру в космическом пространстве. Концепция состоит из развертывания группировок спутников, оснащенных TPU и связанных оптическими каналами. Идея проекта в том, что на правильной орбите солнечная панель может быть до 8 раз продуктивнее, чем на Земле, а значит космос - это лучшее место для масштабирования вычислений.

Для реализации еще предстоит решить как поддерживать высокоскоростную межспутниковую связь, которая требует полета аппаратов в очень плотном строю (километр или менее). К началу 2027 года планируют запуск двух прототипов спутников для проверки работы оборудования на орбите.
research.google

✔️ Microsoft Azure преодолела барьер инференса в 1 млн. т/с.

Новый рекорд производительности был получен на виртуальных машинах Azure ND GB300 v6, запущенных на стоечной системе NVIDIA GB300 NVL72. В ходе тестов была достигнута совокупная скорость инференса модели Llama 2 70B в 1.1 млн токенов в секунду. Это на 27% больше предыдущего рекорда, установленного на GB200.

Новая конфигурация дала почти пятикратный прирост пропускной способности на один GPU по сравнению с поколением H100. Ключевыми факторами стали возможности архитектуры Blackwell, использование FP4 и оптимизация библиотеки NVIDIA TensorRT-LLM. Результаты были подтверждены независимой аналитической компанией Signal 65. Логи запуска тестового инстанса можно посмотреть на Github.
techcommunity.microsoft.com

✔️ ArXiv ужесточает модерацию CS-статей.

Платформа вводит новые, более строгие правила для раздела Computer Science. Причиной стал резкий рост числа обзорных и концептуальных статей низкого качества, многие из которых созданы с помощью нейросетей.

Теперь работы будут приниматься к публикации только после того, как их одобрят в рецензируемом научном журнале или на конференции. Авторам потребуется предоставить соответствующее подтверждение при загрузке работы, в противном случае статья будет отклонена. Новая политика не затрагивает обычные исследовательские статьи, однако в будущем может быть распространена и на другие научные области, если там возникнет схожая проблема.
blog.arxiv.org

✔️ AgiBot запустила роботов, обучающихся с подкреплением в реальном мире.

AgiBot в партнерстве с Longcheer Technology развернула систему обучения с подкреплением в реальном мире (RW-RL) на пилотной производственной линии. Это первый подтвержденный случай промышленного применения технологии, которая позволяет роботам обучаться непосредственно в процессе работы, а не следовать жестким инструкциям.

С RW-RL роботы AgiBot осваивают новые навыки за минуты, автономно адаптируясь к изменениям в деталях или производственных допусках. Система поддерживает стабильность промышленного уровня и не требует сложной аппаратной модификации при смене продукта. После успешного пилотного проекта компании планируют расширить применение RW-RL на сборку потребительской электроники и автомобильных компонентов.
gizmochina.com

✔️ Remote Labor Index: топовые ИИ-модели проваливают 97% реальных фриланс-задач.

Scale AI и Center for AI Safety опубликовали результаты бенчмарка Remote Labor Index, который оценивает способность ИИ выполнять реальную работу фрилансеров. В рамках теста исследователи взяли 240 завершенных проектов с биржи Upwork и поставили идентичные задачи 6 топовым ИИ-системам.

Результаты показали, что даже лучшие модели справились с заданиями на человеческом уровне лишь в 2.5% случаев. Почти 97% работ были признаны неудовлетворительными из-за низкого качества, неполных данных или поврежденных файлов. ИИ справился только с узкими задачами: создание логотипов или сведение аудио.

Тест наглядно подсветил огромный разрыв между показателями ИИ на синтетических бенчмарках и его реальной готовностью к автоматизации сложных проектов.
scale.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
180👍50🔥13😁11😨4😢2