Artificial Intelligence – Telegram
Artificial Intelligence
16.4K subscribers
1.11K photos
9 videos
1 file
1.97K links
Artificial Intelligence

admin - @haarrp

@itchannels_telegram - 🔥 best it channels

@ai_machinelearning_big_data - Machine learning channel

@pythonl - Our Python channel

@pythonlbooks- python книги📚

@datascienceiot - ml 📚

РКН: clck.ru/3FmwZw
Download Telegram
Forwarded from Machinelearning
📌Как создавали RL-агент AutoGLM-OS, который выбил SOTA на OSWorld, обогнав OpenAI и Anthropic.

Автономные агенты, способные управлять рабочим столом - это Грааль современного HCI. Но их обучение сопряжено с трудностями: GUI созданы для людей, а не для машин, а масштабирование RL упирается в неэффективность и нестабильность сред.

В Z.ai сделали фреймворк COMPUTERRL, который лег в основу агента AutoGLM-OS. Результат - state-of-the-art на бенчмарке OSWorld: 48.1% успешных выполнений и это лучше, чем у OpenAI CUA 03 (42.9%), UI-TARS-1.5 (42.5%) и Claude 4.0 Sonnet (30.7%).

OSWorld — это крупный бенчмарк из 369 заданий для проверки многомодальных ИИ-агентов в реальных условиях. Он работает в Ubuntu, Windows и macOS.

В нем ИИ выполняет открытые задачи: работает с веб- и десктопными приложениями, управляет файлами, запускает процессы. Каждое задание имеет четкие начальные условия и скрипты для оценки, чтобы результаты можно было воспроизвести.


Такие высокие показатели - результат комбинации 3-х инноваций.

🟡Новая парадигма взаимодействия API-GUI.

Фреймворк объединяет GUI-взаимодействия с быстрыми и точными API-вызовами образуя систему, которая через LLM автоматически анализирует примеры задач, генерирует необходимый API-код для стандартных приложений Ubuntu и даже создает для него базовые тесты.
Таким образом, агент использует быстрые API там, где это возможно, и переключается на GUI для общих задач, что повышает и скорость, и надежность. Абляция показала, что переход от GUI-only к API-GUI поднимает средний показатель успеха с 11.2% до 26.2%.

🟡Масштабируемая распределенная RL-инфраструктура.

OSWorld крайне ресурсоемок, и запуск множества его экземпляров на одном узле это тот еще квест. Z.ai полностью переработали эту среду, используя qemu-in-docker для легковесного развертывания VM, gRPC для связи между узлами и полностью асинхронный фреймворк AgentRL. Это позволило создать кластер из тысяч параллельных виртуальных сред, к котором онлайн-обучение RL-агентов стало максимально эффективным.

🟡Стратегия обучения Entropulse.

Entropulse решает проблему коллапса энтропии, чередуя фазы RL с периодическими сессиями SFT. Во время RL-фазы собираются все успешные траектории, и на их основе формируется новый SFT-датасет. Затем модель дообучается на этом датасете, что позволяет восстановить её исследовательскую способность без потери производительности. После этого запускается вторая, более эффективная фаза RL.

Эта стратегия позволила AutoGLM-OS, построенному на базе 9B GLM-4, достичь финального результата в 48.1%, в то время как после первой RL-фазы показатель был 42.0%.


🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #Agents #AutoGLM #Zai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3🔥2🤔1
Вчера была первая встреча AI VK & Pro – классный ивент про рекомендательные системы

Собрались все, кто так или иначе в теме RecSys и ML: от инженеров из BigTech до исследователей. Получилось на стиле: много общения, глитч-декор, активный нетворкинг

Команда RecSys из VK рассказала, куда движутся рекомендации внутри экосистемы, как они учатся глубже понимать контент и строят новые технологии вокруг этого.

Было ярко: DJ-сеты, активити и даже турнир по су-е-фа.
5🔥4👍3👎1🥰1👏1😁1
Forwarded from Machinelearning
⚡️ 200+ готовых сценариев для n8n

Нашёл простой и полезный ресурс: GitHub-репозиторий с 200+ бесплатными workflow для n8n.

Темы: продажи, маркетинг, учёт финансов, кодинг и личная продуктивность.

Что такое n8n
- Open-source инструмент для автоматизации без кода
- Визуальный конструктор: соединяете блоки и получаете процесс
- Есть сотни интеграций: почта, CRM, таблицы, мессенджеры, вебхуки
- Можно добавлять свою логику на JavaScript
- Запуск по расписанию или по событию, работает в облаке или на своём сервере

Как воспользоваться:
1) Скачайте нужный workflow (.json) и импортируйте в n8n
2) Вставьте свои API-ключи и учётные данные в блоки
3) Проверьте шаги и включите запуск по cron или webhook

Github

@ai_machinelearning_big_data

#n8n #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3
VaultGemma: The world's most capable differentially private LLM

VaultGemma, the most capable model trained from scratch with differential privacy.

🖥 Blog: https://github.com/ziangcao0312/PhysX-3D

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍2🤔2🔥1
📊 MIT показал, как экономить при обучении больших LLM

MIT и MIT-IBM Watson AI Lab выпустили плейбук о том, как правильно строить законы масштабирования — правила, по которым можно предсказывать, какой будет точность большой модели, не тратя миллионы на полный прогон.

Что выяснили:
- Достаточно обучить 5 моделей разных размеров, чтобы построить рабочий прогноз.
- Первые 10 миллиардов токенов обучения можно смело пропускать — данные там слишком шумные и бесполезные.
- Большую модель можно обучить всего на 30%, и по этой частичной кривой уже предсказать финальные результаты.

Что интересного в плейбуке:
Сильно сокращает расходы на тесты.
Позволяет исследователям заранее понимать, какой результат даст масштабирование.
- Делает разработку больших LLM быстрее и эффективнее.

Подробнее здесь:
https://news.mit.edu/2025/how-build-ai-scaling-laws-efficient-llm-training-budget-maximization-0916

@ArtificialIntelligencedl
👍63🔥2
Learning Deep Representations of Data Distributions

Fully open source, available and readable online, and covers everything from theoretical foundations to practical algorithms.

🟠Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book

🟠Web: ma-lab-berkeley.github.io/deep-representation-learning-book/
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4
Forwarded from Machinelearning
⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers.

Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.

Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.

📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.

Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.

🧠 Что изменилось под капотом:

- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).

- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.

⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.

- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.

- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.

Mamba-3 - это не просто ускоренная альтернатива Transformers.

Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.

🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj

@ai_machinelearning_big_data


#ssm #mamba3 #llm,#architecture #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥6👍4
Вайб Цех. Кодим на станках будущего

red_mad_robot открывают двери Вайб Цеха — места, где рождается новый стандарт разработки. Вместо станков — LLM, вместо чертежей — промпты.

Мастера из red_mad_robot, SberAI и Clоud.ru расскажут, как работает производство цифровых продуктов будущего. На сборочной линии обсудят:

01_Как промпты и LLM меняют работу инженера.
02_Рост производительности и новые возможности.
03_Вектор развития для разработчиков.

📅 25 октября, Санкт-Петербург
🎟 Ловите промокод на скидку PROMOArtificial и записывайтесь в цех: https://clck.ru/3PY7ty

Стань мастером цифровой сборки!
1
Крутая работа от NVIDIA + MIT 👏

QeRL (Quantization-enhanced Reinforcement Learning) - новый способ обучать LLM-модели с подкреплением, используя 4-битные веса и адаптивный шум.

📈 Результат работы метода: до 1.5× быстрее rollout’ы* и полноценное RL-обучение 32B модели на одной H100 (80 GB).

Rollout - это прохождение эпизода или попытка модели выполнить задачу от начала до конца, чтобы потом оценить её действия и выдать награду.

Обычный RL медленный, потому что rollout’ы длинные, а память занята политикой и эталоном.

LoRA уменьшает число обучаемых параметров, но не ускоряет генерацию.
QLoRA использует NF4, но таблицы тормозят вывод.

⚙️ QeRL решает это:
- применяет NVFP4 веса через Marlin,
- сохраняет LoRA только для градиентов,
- использует одну 4-битную политику и для rollout’ов, и для scoring — без дубликатов.

🧠 Добавление адаптивного шума квантизации повышает энтропию токенов — модель исследует пространство решений активнее.
Шум постепенно уменьшается и сливается с RMSNorm-масштабированием — без добавления параметров.

📊 На математических задачах:
- награды растут быстрее,
- точность равна или выше, чем у 16-битных LoRA и QLoRA.

💡 Итого: быстрее, экономнее по памяти, и крупные модели теперь реально можно обучать на одной GPU.

📄 https://arxiv.org/abs/2510.11696
🔥31