Artificial Intelligence – Telegram
Artificial Intelligence
16.4K subscribers
1.11K photos
9 videos
1 file
1.97K links
Artificial Intelligence

admin - @haarrp

@itchannels_telegram - 🔥 best it channels

@ai_machinelearning_big_data - Machine learning channel

@pythonl - Our Python channel

@pythonlbooks- python книги📚

@datascienceiot - ml 📚

РКН: clck.ru/3FmwZw
Download Telegram
Learning Deep Representations of Data Distributions

Fully open source, available and readable online, and covers everything from theoretical foundations to practical algorithms.

🟠Github: https://github.com/Ma-Lab-Berkeley/deep-representation-learning-book

🟠Web: ma-lab-berkeley.github.io/deep-representation-learning-book/
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4
Forwarded from Machinelearning
⚡️ Mamba-3 тихо и без объявления вышла на ICLR - и это может стать началом конца эпохи Transformers.

Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.

Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.

📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.

Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.

🧠 Что изменилось под капотом:

- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).

- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.

⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.

- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.

- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.

Mamba-3 - это не просто ускоренная альтернатива Transformers.

Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.

🟢 Подробности: https://openreview.net/pdf?id=HwCvaJOiCj

@ai_machinelearning_big_data


#ssm #mamba3 #llm,#architecture #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥6👍4
Вайб Цех. Кодим на станках будущего

red_mad_robot открывают двери Вайб Цеха — места, где рождается новый стандарт разработки. Вместо станков — LLM, вместо чертежей — промпты.

Мастера из red_mad_robot, SberAI и Clоud.ru расскажут, как работает производство цифровых продуктов будущего. На сборочной линии обсудят:

01_Как промпты и LLM меняют работу инженера.
02_Рост производительности и новые возможности.
03_Вектор развития для разработчиков.

📅 25 октября, Санкт-Петербург
🎟 Ловите промокод на скидку PROMOArtificial и записывайтесь в цех: https://clck.ru/3PY7ty

Стань мастером цифровой сборки!
1
Крутая работа от NVIDIA + MIT 👏

QeRL (Quantization-enhanced Reinforcement Learning) - новый способ обучать LLM-модели с подкреплением, используя 4-битные веса и адаптивный шум.

📈 Результат работы метода: до 1.5× быстрее rollout’ы* и полноценное RL-обучение 32B модели на одной H100 (80 GB).

Rollout - это прохождение эпизода или попытка модели выполнить задачу от начала до конца, чтобы потом оценить её действия и выдать награду.

Обычный RL медленный, потому что rollout’ы длинные, а память занята политикой и эталоном.

LoRA уменьшает число обучаемых параметров, но не ускоряет генерацию.
QLoRA использует NF4, но таблицы тормозят вывод.

⚙️ QeRL решает это:
- применяет NVFP4 веса через Marlin,
- сохраняет LoRA только для градиентов,
- использует одну 4-битную политику и для rollout’ов, и для scoring — без дубликатов.

🧠 Добавление адаптивного шума квантизации повышает энтропию токенов — модель исследует пространство решений активнее.
Шум постепенно уменьшается и сливается с RMSNorm-масштабированием — без добавления параметров.

📊 На математических задачах:
- награды растут быстрее,
- точность равна или выше, чем у 16-битных LoRA и QLoRA.

💡 Итого: быстрее, экономнее по памяти, и крупные модели теперь реально можно обучать на одной GPU.

📄 https://arxiv.org/abs/2510.11696
🔥31
DeepAnalyze: Agentic Large Language Models for Autonomous Data Science

🖥 Github: https://github.com/ruc-datalab/DeepAnalyze

📕 Paper: https://huggingface.co/papers/2510.16872

🔗 Project: https://ruc-deepanalyze.github.io/

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41
📚 Perplexity выпустили мощный гайд - 43 страницы чистой пользы по работе с ИИ.

Если хотите выжать максимум из нейросетей, будь то Perplexity, ChatGPT или любой другой чат-бот - этот гайд для вас.

Внутри:
Готовые промпты
Пошаговые сценарии
Практические воркфлоу
Реальные кейсы автоматизации рутинных задач

Хотя примеры заточены под инструменты Perplexity, подавляющее большинство советов универсальны и сработают в любом ИИ-ассистенте.

🔥 Сохраняйте пригодится: https://r2cdn.perplexity.ai/pdf/pplx-at-work.pdf
👍3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Новинка от ByteDance: модель Video-As-Prompt Wan2.1-14B

ByteDance выпустила модель Wan2.1-14B, специализирующуюся на задаче *video-as-prompt*, то есть использование видео или комбинации изображений и текста как входных данных для генерации нового видео.

- Работает в режимах «видео → видео» или «изображения/текст → видео».
- 14 млрд параметров — высокая детализация, плавная динамика, реалистичные движения.
- Использует исходное видео как шаблон стиля и композиции.

⚠️ Что стоит учитывать
- Модель требует мощных GPU и большого объёма памяти.
- Качество результата зависит от сложности запроса и длины видео.

🟠Github: https://github.com/bytedance/Video-As-Prompt
🟠HF: https://huggingface.co/ByteDance/Video-As-Prompt-Wan2.1-14B

@ai_machinelearning_big_data


#AI #VideoGeneration #ByteDance #Wan2 #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
AIJ Deep Dive: специальный очный трек для AI-профи в рамках международной конференции AI Journey!

Среда для профессионального роста, общение с экспертами мировой AI-индустрии и другими AI-профи — всё это ждёт вас на треке AIJ Deep Dive. В программе — только главные аспекты работы с AI:

Это событие точно нельзя пропустить

1️⃣19 ноября — день Науки: проведём глубокий анализ IT-решений, прорывных научных исследований, R&D-разработок и передовых методик.

2️⃣ 20 ноября — день Бизнеса: разберём успешные кейсы внедрения, оценим эффективность и практические результаты.


На треке вас ждут выступления ведущих экспертов в AI, постер-сессия, специальные форматы для нетворкинга и выставка R’n’D решений. Это уникальная возможность обсудить сложные вопросы с теми, кто действительно понимает ваши вызовы.

Где? Офис Сбера, Кутузовский проспект, д. 32, к. 1 (Е)
Когда? 19–20 ноября 2025 года

По ссылке — форма регистрации на очное участие. Присоединяйтесь к профессиональному AI-сообществу!
1
Forwarded from Machinelearning
🦉 LightOnOCR-1B: новая быстрая OCR-модель от LightOn

Модель дистиллирована из Qwen2-VL-72B-Instruct и обучена на корпусе из 17.6 млн страниц / 45.5 млрд токенов.

🔥 Главное:**
-1 B параметров
- позволяет обрабатывать 5.7 страниц/с на одном H100 (это примерно ≈ 493 000 страниц за день)
- Распознаёт таблицы, формы, уравнения и сложные макеты
- 6.5× быстрее dots.ocr, 1.7× быстрее DeepSeekOCR
- Расходы < $0.01 за 1000 страниц A4

📊 Качество (Olmo-Bench):
- Превосходит DeepSeekOCR
- Сопоставима с dots.ocr (при этом модель в 3 раза меньше по весу)
- +16 пт к Qwen3-VL-2B-Instruct

Эта моделька - отличный баланс качества, скорости и стоимости.

🟢Модель 1B: https://huggingface.co/lightonai/LightOnOCR-1B-1025
🟢Модель 0.9B (32k): https://huggingface.co/lightonai/LightOnOCR-0.9B-32k-1025)
🟢Блог LightOn: https://huggingface.co/blog/lightonai/lightonocr
🟢Демка: https://huggingface.co/spaces/lightonai/LightOnOCR-1B-Demo

@ai_machinelearning_big_data


#ocr #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🚀 Инференс языковых моделей на Go с yzma

yzma позволяет использовать языковые модели, включая VLM и LLM, на вашем оборудовании с полной аппаратной поддержкой. Работает на Linux, macOS и Windows без необходимости в CGo, что упрощает интеграцию.

🚀Основные моменты:
- Поддержка VLM, LLM, SLM и TLM.
- Полная аппаратная активация для оптимальной производительности.
- Простота использования без C компилятора.
- Совместимость с последними версиями llama.cpp.
- Примеры использования для различных моделей.

📌 GitHub: https://github.com/hybridgroup/yzma

#go
👍1
LLM «под капотом»: первый шаг к полноценной разработке AI-решений

Приглашаем на открытый вебинар, посвященный фундаменту прикладной разработки на LLM. На практике разберем:
✔️ Архитектуру: как работает генерация текста и почему это важно для понимания ограничений модели.
✔️ Локальное развертывание: первый шаг к LLMOps — запустить мощную модель у себя и работать с ней через API.
✔️ Контекст и агенты: базовый принцип, лежащий в основе RAG-систем и агентных моделей, которые вы будете строить на курсе.

Идеально для Python-разработчиков, DevOps- и Data-инженеров, а также технических проджектов, которые оценивают возможности интеграции LLM в свои сервисы.

Этот вебинар — введение в философию нашего нового курса «LLM Driven Development», где вы с нуля осваиваете полный цикл создания AI-продуктов.
➡️ Регистрация на вебинар:

https://otus.pw/RS7v/?erid=2W5zFJuKr2t

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🚀 Emu3.5 - новая масштабная мультимодальная world-модель

Это World-модель, работающая сразу с двумя потоками - текстом и пикселями и предсказывающая их совместное состояние на каждом шаге.

- 🔥 Обучена на 10T+ чередующихся vision-language токенов и доведена RL - в результате модель демонстрирует сильное мультимодальное рассуждение и генерация
- Новый подход DiDA (Discrete Diffusion Adaptation) —- Discrete Diffusion Adaptation переводит последовательное декодирование в параллельное двустороннее «денойзинг»-предсказание в дискретном пространстве токенов - в итоге это дает примерно 20× быстрее инференс без потери качества.

По метрикам модель превосходит Nano Banana в генерации, редактировании и интерливинговых задачах.

🟠Попробовать: Emu3.5: https://emu.world
🟠Github: https://github.com/baaivision/Emu3.5

@ai_machinelearning_big_data


#Emu3 #MultimodalAI #WorldModel #NextTokenPrediction
Please open Telegram to view this post
VIEW IN TELEGRAM
ВКонтакте автоматизировал шопинг с помощью искусственного интеллекта и запустил шопсы.
Это публикации с карточками товаров или ссылками на быструю покупку прямо из соцсети. Благодаря интеграции LLM и VLM, платформа теперь автоматически распознает не только карточки товаров и ссылки, но и обзоры, распаковки и другие нативные форматы, создавая shoppable-разметку.

Команда AI VK рассказала как они размечали shoppable-контент у себя в канале
👍3🤯2😁1
Смотришь вакансии AI/LLM Engineer. Часто видишь:
Опыт с LangChain
RAG-системы и векторный поиск
Агенты и tool-calling
Промпт-инжиниринг и работа с LLM API

В резюме этого нет? Дальше не смотрят.

Курс «LangChain: с нуля до продакшн» покрывает эти навыки:
LangChain на практике (цепочки, агенты, инструменты)
RAG с метриками качества (precision/recall, faithfulness)
Tool-calling и агенты (веб-поиск, Pandas-аналитика)
Продакшн-контур: FastAPI, observability, PromptOps
Проект в GitHub + сертификат = можешь писать в резюме "опыт с LangChain, RAG, агентами".

Скидка 25% — 72 часа.

Начать со скидкой
1👍1👎1
⚡️Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds

HF: https://huggingface.co/papers/2511.08892

Peoject: https://www.lumine-ai.org/

Paper: https://arxiv.org/abs/2511.08892
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🔥 Подборка полезных ресурсов для программистов.

Здесь ты найдёшь всё это - коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

AI: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Data Science: t.me/data_analysis_ml
Javanoscript: t.me/javanoscriptv
C#: t.me/csharp_1001_notes
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://news.1rj.ru/str/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat

💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://news.1rj.ru/str/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://news.1rj.ru/str/addlist/mzMMG3RPZhY2M2Iy
Папка Linux:https://news.1rj.ru/str/addlist/w4Doot-XBG4xNzYy

😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://news.1rj.ru/str/addlist/BkskQciUW_FhNjEy

Сохрани себе, чтобы не потерять!
👍1
💡 UniVA: Universal Video Agent towards Open-Source Next-Generation Video Generalist

Hf: https://huggingface.co/papers/2511.08521

Paper: https://arxiv.org/pdf/2511.08521

Github: https://github.com/univa-agent/univa
👍32