Machinelearning – Telegram
383K subscribers
4.44K photos
854 videos
17 files
4.88K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🧬🤖 Paper2Agent: оживляем научные статьи
Open-source инструмент от исследователей из Stanford, который превращает статические статьи в интерактивных AI-ассистентов.

📌 Как это работает:
- Paper2MCP анализирует статью и её код( если есть), извлекает ключевые методы и превращает их в инструменты внутри MCP-сервера.
- Agent layer подключает этот сервер к чат-агенту (например, Claude Code или Chatgpt).

Поле чего, у каждой статьи появляется свой ИИ-ассистент, который:
- объясняет папиру на простом языке;
- запускает код без ручного копания в репозиториях, зависимостях и API-ключах;
- объединяет данные и пайплайны из разных работ.

Каждый MCP-сервер включает:
- Tools — функции (например, прогноз изменения экспрессии генов).
- Resources — текст, код, датасеты.
- Prompts — шаблоны для пошаговых сценариев.

Фактически Paper2Agent помогает конвертировать научные работы в полноценные рабочие инструменты.


Чтобы повторить методы их статьи, приходилось вручную ставить окружения, импортировать десятки модулей и гадать с входными данными. Paper2Agent позволяет это сделать через диалоговый интерфейс.

🟠Github

@ai_machinelearning_big_data


#ai #ml #aiagent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍239🔥78🤩5531👏11🎉10🙏9😐6🥰5🤔4💯2
🤖Как применять LLM для построения ИИ-ассистентов

На научной конференции «ИИ-ЗАМАН» в Казани технологическая платформа Авито подробно рассказала о своем пути к созданию масштабной многоагентной системы. Исследователь данных Виктория Берестова объяснила, как компания переосмыслила подход к автоматизации, отказавшись от громоздких запрограммированных сценариев в пользу гибких LLM-ассистентов.

🟠 В основе перехода — архитектура MAS (Multi-Agent System), где каждый агент выполняет узкоспециализированную роль, подобно юристу или техническому эксперту в большой команде. Это решает ключевую проблему: вместо одного медленного и дорогого универсального помощника работают множество маленьких и эффективных. Система сама решает, какой специализированный агент лучше справится с задачей.

🟠 Экономика такого подхода оказалась выгоднее классических решений. Платформа научилась оптимизировать ресурсы, заменяя дорогие универсальные модели дешевыми специализированными без потери качества. Для еще большей эффективности работает система предварительной фильтрации: простые запросы обрабатываются автоматически, без запуска тяжелых моделей.

🟠 Результат — единый ИИ-помощник, объединивший более 100 рабочих сценариев для тысяч сотрудников. Вместо десятков интерфейсов работники теперь получают помощь через естественный диалог.

🟠Компания уже давно развивает собственные генеративные модели: собственная текстовая A-Vibe и мультимодальная A-Vision уже принесли Авито 670 млн рублей дополнительной выручки в 2024 году. Также в компании объявили о создании своего R&D-отдела под руководством Kaggle Grandmaster Александра Рыжкова. Исследования сфокусированы на пяти направлениях: генеративные модели, компьютерное зрение, голосовые технологии, защита от дипфейков и 3D-технологии.

@ai_machinelearning_big_data

#news #ai
👍142🙈58🤓5341🔥16👏14🎉11👌5😇4💯3🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
🏭 Microsoft строит самый мощный в мире датацентр для ИИ — Fairwater AI в Висконсине.

Он будет оснащён сотнями тысяч GPU NVIDIA GB200 и обеспечит производительность в 10 раз выше, чем у самого быстрого суперкомпьютера сегодня.

📍 Факты:
- Кампус: около 127 гектаров, 3 здания, примерно 111 000 м² (бывший Foxconn)
- Хранилище: длиной с 5 футбольных полей
- Охлаждение: замкнутый жидкостный контур, 172 гигантских вентилятора, второй по величине водоохлаждающий чиллер
- Сеть: InfiniBand + Ethernet по 800 Гбит/с, топология fat-tree без блокировок
- Рэк: 72 GPU GB200 как один ускоритель → 865 тыс. токенов/сек
- Память: 14 ТБ в пуле на рэк, 1,8 ТБ/с скорость обмена между GPU

🌍 В глобальном масштабе Microsoft объединяет Fairwater с 400+ датацентрами в 70 регионах в единую сеть AI WAN, чтобы десятки тысячи GPU могли работать синхронно над одной задачей.

Запуск планируют на начало 2026 года. Это инфраструктура планетарного уровня.

🟠 Подробности

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍193🔥5629🤩18👏9😁7🤔4👀3💘1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI готовит к запуску в 2026 году собственный AI-Pin.

Ранее Сэм Альтман говорил, что первый продукт компании не будет очками, но теперь они рассматриваются как часть будущей линейки.
В разработке участвует Джони Айв — культовый дизайнер Apple, который ранее критиковал носимые устройства и особенно Humane AI Pin. Обсуждался также вариант внутриушного девайса, но он пока исключен. Если слухи подтвердятся, OpenAI выйдет на рынок персональных AI-устройств, где уже экспериментируют Humane, Meta и другие.
theverge

✔️ TikTok продолжит работу в США — Вашингтон и Пекин заключили сделку. 80% компании перейдет к американским инвесторам (Oracle, Silver Lake, Andreessen Horowitz), а 20% останется у ByteDance.
Управление возьмет американский совет директоров при надзоре правительства США.
Китай согласился передать хранение данных и безопасность американскому партнеру. Но главный вопрос — кто управляет алгоритмами ранжирования, формирующими ленты миллионов пользователей, — пока не решен. (Reuters)
reuters

✔️ IBM на конференции Think 2025 представила концепцию generative computing.
По мнению компании, взаимодействие с ИИ через промты — ненадежный и устаревший метод.
Новый подход делает работу моделей стабильнее: управление контекстом, уровни абстракции, встроенные правила безопасности и контроль случайности. Среди ключевых технологий — aLoRAs, позволяющая переписывать и проверять запросы, и open-source инструмент Mellea, превращающий размытые промты в структурированные программы.
Tipranks

✔️ Radware выявила уязвимость ShadowLeak в агенте Deep Research от ChatGPT.
Она позволяла извлекать данные из Gmail через скрытые инструкции в письмах. Пользователи не замечали подвоха: агент автоматически выполнял вредоносные команды.
OpenAI закрыла дыру и поблагодарила исследователей за находку. Этот случай показал серьезные риски «нулевых кликов», когда атака происходит без участия пользователя и без видимых признаков. (The Verge)
theverge

✔️ InclusionAI выпустила Ring-flash-2.0 — открытую reasoning-модель, развитие Ling-flash-2.0.

Модель на 100B параметров, но при инференсе активирует лишь ~6,1B. Внутри алгоритм IcePop, устраняющий нестабильность MoE и сокращающий разрыв между обучением и инференсом.

Модель обучена в три этапа (SFT, RLVR, RLHF), показывает SOTA-результаты в математике, коде и логике, выдавая 200+ токенов/с на 4 GPU H20. Доступна по MIT-лицензии. (HF)
HF

✔️ xAI представила Grok 4 Fast — модель, ориентированную на скорость и дешевизну.

Модель мультимодальная, поддерживает контекст 2M токенов. Тарифы: $0.20 за 1M входных токенов и $0.50 за 1M выходных. В 20 раз дешевле GPT-5-high и при производительности на уровне Gemini 2.5 Pro, стоит в 25 раз дешевле.
X

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
183👍25🔥11🤬2🎃2💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Y-Hand M1 — универсальная рука для человекоподобных роботов

Компания Yuequan Bionic представила Y-Hand M1 - самую универсальную и ловкую антропоморфную руку с рекордной степенью свободы движений.

Что умеет:
- Вести ручку по бумаге
- Открывать бутылки
- Резать бумагу
- Выполнять мелкие бытовые задачи почти как человек

🔧 Технические характеристики:
- 38 степеней свободы, нагрузка до 28.7 кг
- Точность позиционирования кончика пальца — 0.04 мм
- Полное сжатие пяти пальцев за 0.2 секунды
- Репликация суставов пальцев с помощью собственных магнитоэлектрических искусственных мышц

⚡️ По сути, это шаг к тому, чтобы роботы получили руки, которые по ловкости максимально близки к человеческим.

@ai_machinelearning_big_data


#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7733🔥15👏9😭1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Марк Цукерберг:

> «Мы будем тратить деньги очень агрессивно.

Даже если мы потеряем пару сотен миллиардов — это будет неприятно, но лучше так, чем остаться позади в гонке за супер-интеллектом».

Эти слова показывают, насколько серьёзно Цукерберг и его компания воспринимают гонку ИИ.

💸 Капитальные вложения не сокращаются — наоборот, компании наращивают расходы.

👉 Сигнал для всего рынка: крупнейшие игроки готовы рисковать колоссальными суммами ради лидерства в ИИ.

📌Полное интервью

@ai_machinelearning_big_data

#ai #ml #airace #money #zuck
1👍12732🔥17😁17🤔82👏1💘1
⚡️ Вышли новые версии Qwen3-Next-80B в формате FP8!

📌 Модели:
- Qwen3-Next-80B-A3B-Instruct-FP8: 80B, обученная в формате Instruct. Сочетает MoE-архитектуру и FP8-квантование, при большом размере работает быстро и кушает меньше памяти, поддерживает длинный контекст - до 262k токенов (с расширением до миллиона) и оптимизирована для сложных задач рассуждения и работы с большими документами.
- Qwen3-Next-80B-A3B-Thinking-FP8
— Thinking модель, с акцентом на рассуждения, и решение логических задач. Гибридное внимание: Gated DeltaNet + Gated Attention → работа с супердлинными контекстами. Thinking-версия** показывает топ-результаты на задачах рассуждений, обгоняя не только Qwen3-30B/32B, но и закрытую Gemini-2.5-Flash-Thinking

- FP8-точность → быстрый инференс при сохранении качества.
- Полная совместимость с Transformers, vLLM и SGLang.
- Подходит для продакшн-задач, где важны скорость и эффективность.

🟠Hugging Face: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
🟠ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a

@ai_machinelearning_big_data


#qwen #opensource #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
53👍23🔥14❤‍🔥1👌1💘1
🐳 Обновленная DeepSeek-V3.1-Terminus

Она даёт более стабильные и полные результаты на тестах по сравнению с предыдущей версией.

Языковая консистентность -китайцы значительно улучшили вывод модель - меньше случайных иероглифов и мешанины CN/EN.

Ряд Агентных апгрейдов рузльтаты на Code Agent и Search Agent стали заметно сильнее.

Доступна в приложении и в веб-версии и через API.

🔗 Открытые веса: https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Terminus

@ai_machinelearning_big_data


#DeepSeek #opensource #llm
👍6824🔥10🤨2💘1
🚀 Новая китайская модель LongCat-Flash-Thinking

🧠 Это модель для рассуждений, которая показала SOTA-результаты среди open-source решений.

Основное:
- Архитектура MoE, 560B параметров, из них 27B активируются.
- Эффективность: требует на **64,5% меньше токенов**( чем другим открытым моделям того же класса), чтобы достичь топ-результатов на AIME25 (с нативным использованием инструментов,).
- Контекст: 128k, обучение с усилением на задачах рассуждений и кода, многоэтапное пост-тюнинг обучение с мультиагентным синтезом.
- Инфраструктура: асинхронный RL даёт 3x ускорение по сравнению с синхронными фреймворками.

⚙️ Оптимизации для продакшена:
- Свои оптимизированные ядра для работы с MoE и специальные приёмы распределённого обучения,
- KV-cache reduction, квантование, chunked prefill,
- статическая/эластичная маршрутизация, peer-to-peer cache transfer, heavy-hitter replication и PD-disaggregation.
- Поддержка SGLang и vLLM для эффективного деплоя.

📊 Бенчмарки:
- Лидирует в tool use (**τ²-Bench, VitaBench**)
- Хорошие результаты по instruction following (**IFEval, COLLIE, Meeseeks-zh**).

Китайцы стабильно удерживают лидерство в reasoning-моделях.

🟠 HF: https://huggingface.co/meituan-longcat/LongCat-Flash-Thinking

@ai_machinelearning_big_data


#AI #LLM #Reasoning #MoE #DeepLearning #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4018🥰8👍4💘1
🚀 День релизов: Qwen выпустили Qwen3-Omni — первый нативный end-to-end *omni-modal AI*

Модель обрабатывает текст, изображения, аудио и видео в одной модели.

На бенчмарках выглядит так, как будто все модальности работают одинаково качественно.

⚡️ Особенности
- Первое место на 22 из 36 аудио- и мультимодальных бенчмарков
- Поддержка: 119 языков текста,
- Минимальная задержка — 211 мс
- Обработка аудио до 30 минут длиной
- ПОзволяет гибко настраивать через системные промпты
- Встроенный tool calling

🌟 Open-source релизы
Компания выложила три версии:
- Qwen3-Omni-30B-A3B-Instruct
- Qwen3-Omni-30B-A3B-Thinking
- Qwen3-Omni-30B-A3B-Captioner

👉 Попробовать можно здесь:
💬 Chat: https://chat.qwen.ai/?models=qwen3-omni-flash
💻 GitHub: https://github.com/QwenLM/Qwen3-Omni
🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-omni-68d100a86cd0906843ceccbe
🤖 ModelScope: https://modelscope.cn/collections/Qwen3-Omni-867aef131e7d4f
🎬 Demo: https://huggingface.co/spaces/Qwen/Qwen3-Omni-Demo

@ai_machinelearning_big_data


#qwen #opensource #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11544🔥34💘1