Machinelearning – Telegram
383K subscribers
4.46K photos
862 videos
17 files
4.9K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск:

Я бы притормозил развитие ИИ и робототехники, но не могу - они движутся вперёд слишком стремительно, нравится мне это или нет.

«У меня было много кошмаров про ИИ… много дней подряд».

И что я должен с этим делать?


@ai_machinelearning_big_data
😁132😨2315🤣9🥰6🔥5👏4🥱3
Media is too big
VIEW IN TELEGRAM
✔️ Марк Цукерберг сворачивает стратегию Open Source.

Компания радикально меняет вектор развития ИИ, отказываясь от идеологии открытости в пользу закрытых коммерческих продуктов. По данным источников, уже весной будет выпущена проприетарная модель Avocado, которая будет распространяться по закрытой лицензии для прямой монетизации.

Причиной резкого разворота стала неудача с Llama 4, которая не оправдала ожиданий руководства. Любопытно, что в процессе обучения Avocado использовались ответы моделей конкурентов: Google Gemma, GPT-OSS и Qwen.
bloomberg.com

✔️ Nvidia разработала механизм проверки геолокации своих чипов.

Компания создала ПО, которое определяет страну, где физически работают её ИИ-ускорители. Технология опирается на анализ сетевых задержек при обмене данными с серверами Nvidia, что позволяет установить геолокацию оборудования с точностью, достаточной для выявления нарушений санкционного режима.

Первыми поддержку новой функции получат системы на Blackwell. Инженеры также изучают варианты внедрения технологии для предыдущих поколений Hopper и Ampere. Nvidia позиционирует этот инструмент как опциональное ПО для инвентаризации и мониторинга состояния GPU-флота в дата-центрах, но фактически он отвечает на требования властей США о противодействию контрабанды железа в Китай.
reuters.com

✔️ Cursor получил режим Debug Mode.

Debug Mode — это новый агентный сценарий для борьбы с ошибками, которые обычно ставят языковые модели в тупик. Фишка инструмента в том, что он не пытается угадать решение, а действует методично: сначала выдвигает несколько гипотез о причинах сбоя, а затем временно внедряет в код инструкции для сбора runtime-логов.

Процесс отладки полностью интерактивен. После того как агент расставит «ловушки» в коде, разработчик должен воспроизвести ошибку в запущенном приложении. Получив реальные данные, Cursor локализует проблему и предлагает конкретный фикс без переписывания сотен строк кода. Если исправление работает, система автоматически вычищает весь черновой код, оставляя в проекте только финальный патч.
cursor.com

✔️ Microsoft превратила Copilot в автономного агента для автоматизации работы в Excel.

Microsoft открыла общий доступ к режиму Agent Mode в веб-версии Excel. Это обновление меняет взаимодействие с ИИ: Copilot теперь выполняет роль агента, способного самостоятельно выполнять многоступенчатые сценарии внутри книги.

В новом режиме агент может создавать таблицы с нуля, используя данные из веба, проводить сценарное моделирование «что - если», исправлять сложные формулы и строить сводные таблицы. Система показывает цепочку рассуждений и каждый шаг выполнения задачи.

Инструмент доступен подписчикам Microsoft 365 в веб-интерфейсе, а поддержка десктопных версий для Windows и Mac появится в январе.
techcommunity.microsoft.com

✔️ Adobe интегрировала Photoshop и Acrobat в интерфейс ChatGPT.

Компания запустила специализированные ИИ-агенты для редактирования медиафайлов и документов прямо в чат-боте. Новые инструменты поддерживают конкретные сценарии работы: Photoshop внутри чата умеет ретушировать области снимков и управлять контрастом и экспозицией. Acrobat - конвертировать, сжимать, объединять PDF-файлы и извлекать из них таблицы. Adobe Express используется для генерации и правки макетов.

Если возможностей чат-бота окажется недостаточно, проект можно бесшовно перенести в десктопный софт Adobe. Решение уже доступно в веб-версии, на десктопах и iOS. Функциональность предоставляется бесплатно: для активации достаточно загрузить файл и ввести текстовую команду с упоминанием нужного сервиса, например, «Adobe Photoshop, убери фон на этом изображении».
theverge.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6720😁13🔥7😢4🤗3🤔2🌭1
Расскажем, как создать умных AI‑агентов, работая с MCP 🌨

17 декабря на вебинаре покажем, как создать полезных AI-агентов, которые не просто «думают», а реально работают - получают актуальные данные и принимают решения в режиме реального времени.

Ещё недавно разработчики AI‑агентов писали кастомные интеграции с внешними источниками данных и сервисами. Теперь появился способ подружить нейросети со всеми API всего за пару кликов!

Ключевые темы вебинара:

♦️эволюция агентов и роль MCP;
♦️обзор MCP — как разрабатывать умных ИИ-агентов;
♦️особенности MCP в Enterprise;
♦️свой MCP-сервер за пару шагов в Octapi.


Регистрация доступна по ссылке, ждём вас ↗️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍156🔥6
📌 SAPO: RL-метод, который приручил нестабильные градиенты в LLM и MoE.

Qwen предложил RL-метод SAPO (Soft Adaptive Policy Optimization), который решает ключевую проблему нестабильного обучения LLM и архитектур MoE и предлагает более разумный и мягкий подход к контролю над процессом обучения.

Reinforcement Learning, RL - это ингредиент, превращающий просто большую языковую модель в рассуждающего помощника. Именно RL учит ИИ решать олимпиадные задачи по математике, писать чистый код и понимать связь между текстом и изображением.


Но у RL есть обратная сторона: катастрофическая нестабильность обучения, особенно для гигантских моделей.

Главная техническая головоломка - это контроль над коэффициентами значимости на уровне каждого токена. В архитектурах MoE, где разные части модели активируются для разных задач, эти коэффициенты могут бесконтрольно «скакать».

Слишком большие колебания коэффициентов превращают четкие обучающие сигналы в помехи, дестабилизирующие всю систему.

До сих пор стандартными инструментами были GRPO и GSPO, которые использовали принцип хард-клиппинга. Если коэффициент выходил за заданные рамки, градиент просто обнулялся.

🟠Минус первый: Потеря информации. Ценные, но выбивающиеся данные безжалостно отбрасывались.

🟠Минус второй: Невозможный баланс. Сделаешь рамки узкими - задушишь обучение. Сделаешь широкими - полезет паразитный шум. Для капризных MoE-архитектур эта дилемма особенно актуальна.
SAPO предлагает отказаться от хард-клиппинга в пользу интеллектуального сглаживания.

Вместо резкого обнуления SAPO использует плавную, адаптивную функцию (контролируемую температурой), которая мягко снижает влияние проблемных градиентов, но не обнуляет их полностью. Это создает непрерывные области доверия, внутри которых модель может учиться более гибко и безопасно.

🟡Красота SAPO - в универсальности.

🟢Как GSPO, но умнее. Если в длинном ответе сбился лишь один токен, GSPO наказывает всю последовательность. SAPO избирательно подавляет только «виновника», сохраняя полезные сигналы от остальных слов. Это резко повышает эффективность наборов обучающих данных.

🟢Как GRPO, но плавнее. Вместо резкого отключения градиента для плохого токена SAPO применяет постепенное затухание. Это предотвращает резкие рывки в обучении, обеспечивая плавную и стабильную настройку политики модели.

Вишенка метода - это асимметричный температурный дизайн. SAPO по-разному обрабатывает «хорошие» и «плохие» обновления. Для токенов с негативным вкладом используется более высокая температура, заставляющая их влияние затухать быстрее и сильнее.

Это простое правило надежно гасит наиболее опасные колебания, что на практике приводит к беспрецедентной стабильности процесса RL-обучения.

🟡Теорию подтвердили тестами.

При обучении Qwen3-30B-A3B-Base, SAPO не только показал более стабильную кривую обучения , но и достиг более высоких результатов на сложных математических бенчмарках AIME25, HMMT25. Причем он сделал это без трудоемкого маршрутизирующего воспроизведения, которая требовалась конкурентам для работы с MoE.

Успех повторили в масштабном эксперименте с мультимодальной Qwen3-VL-30B-A3B, где SAPO стабильно обошел аналоги в смешанных задачах на кодинг, логику и математику.


🟡Статья
🟡Arxiv

@ai_machinelearning_big_data

#AI #ML #LLM #MoE #SAPO #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥2717🥰6🦄1
⚡️ В открытом доступе появился техрепорт собственного семейства моделей Яндекса — Alice AI.

Что изменилось:

⭐️ VLM- и LLM-«Алисы» сближаются все сильнее, поскольку компания делает большую ставку на мультимодальность. Например, VLM-модель уже использует RL-подход текстовой «сестрёнки». Промпт на входе в Alice AI ART обрабатывается в специальном «рефразере», который помогает сделать описание более детальным. Также увеличен контекст и объем данных претрейна в VLM.

⭐️ Много технических подробностей о работе Alice AI LLM Search, которая теперь приносит в ответе не только текст, но и изображения, видео и геоданные.

⭐️ На инфраструктуре видим прирост по скорости за счет мелких аджастов — увеличение эффективного батча на претрейне, внедрение Ulysses attention, снижение объема кэша на инференсе и еще много изменений. В целом сняты ключевые ограничения для тренировки MoE-модели на сотни миллиардов параметров.

@ai_machinelearning_big_data

#vlm #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣3332👍22🔥11🤬2🙊1
🚨 The Information: DeepSeek тайно использует *запрещённые Nvidia Blackwell GPU* для обучения своей следующей модели

По данным The Information, DeepSeek тренирует новое поколение своей модели на *тысячах* Blackwell-чипов, которые формально запрещены к поставкам в Китай.
Схема выглядит так: серверы с GPU сначала устанавливают и проверяют в «фантомных» дата-центрах за рубежом, после чего их разбирают, декларируют как другое оборудование и снова собирают уже в китайских дата-центрах.

Схема показывает, насколько неэффективными остаются экспортные ограничения США, даже несмотря на давление Вашингтона и недавние обвинения в контрабанде против посредников.

Nvidia в спешке внедряет механизмы отслеживания местоположения GPU, которые могут фактически «отключать» нелегально ввезённые чипы.

Интересное следствие:
Китай проявляет слабый интерес к официально разрешённому H200, что может быть связано с тем, что у ведущих игроков уже есть доступ к более мощным - пусть и нелегальным - Blackwell.

https://www.theinformation.com/articles/deepseek-using-banned-nvidia-chips-race-build-next-model

@ai_machinelearning_big_data

#ai #news #Nvidia
1😁6616👍11🔥10🤷‍♂2🤬2😨1
🧠 Qwen представляет режим Learn Mode!

Learn Mode - обучающий режим в Qwen Chat, который превращает модель в ИИ-репетора.

Построен на базе Qwen3-Max,

Что делает Learn Mode:
- Ведёт обучение через диалог
- Подстраивается под ваш уровень подготовки и темп
- Строит логические опоры, помогая работать со сложными темами
- Формирует индивидуальную траекторию обучения под ваш стиль мышления

Попробовать можно здесь: https://chat.qwen.ai/?inputFeature=learn

@ai_machinelearning_big_data

#Qwen
44👍29🔥84👏1🦄1
🌟 "ИИ-отцы" получили главную ежегодную награду журнала Time «Человек года».

Их объединённый портрет, вдохновлённый культовой фотографией «Обед на небоскрёбе», украсил обложку.

В числе тех, кого редакция назвала главными архитекторами новой технологической эры: Илон Маск, Марк Цукерберг, Лиза Су (AMD), Джeнсен Хуанг (Nvidia), Сэм Альтман (OpenAI), Демис Хассабис (DeepMind), Дарио Амодей (Anthropic) и Фэй-Фэй Ли (World Labs).

Как отмечает издание, в 2025 году потенциал ИИ был полностью реализован, а эта группа визионеров окончательно утвердила наступление эпохи мыслящих машин.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4117👍15🤬7😁5🍾2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Кризис DRAM меняет рынок и подход к обучению современного ИИ.

✔️ Рынок захлестнул дефицит оперативной памяти и других накопителей: ИИ-гиганты выкупили огромные объёмы DRAM, HBM и NAND. Nvidia, по слухам, прекращает поставлять дистрибьюторам видеопамять в комплекте с GPU — теперь её нужно закупать отдельно. На текущий момент цены на SSD и оперативную память выросли на 50-100% по сравнению с началом года. Производители ноутбуков и смартфонов фиксируют задержки поставок, а комплект DDR5 на 64 ГБ уже стоит дороже PS5. 🤯

✔️ Мы спросили Гигачат, как кризис повлияет на развитие нейросетей и обучение моделей. ИИ-помощник формулирует так: "Дефицит памяти — это временный дисбаланс между взрывным ростом ИИ-индустрии и производственными мощностями, которые просто не успели масштабироваться под такой спрос. Высокая стоимость памяти заставляет компании переосмыслить подходы к обучению: вместо наращивания "железа напролом" фокус смещается на эффективные архитектуры и методы.". Подробнее — в видео.

@ai_machinelearning_big_data


#ai #llm #ml #ramcrisis #infrastructure
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿6717😁11🤣9👍8🔥3🤬2🥱2🤗1🦄1
🖥 Релиз GPT-5.2

Ряд значительных улучшений, по сравнению с GPT-5.1, особенно в визуальном понимании и сложных рассуждениях.

Приросты в бенчмарках говорят сами за себя:
• SWE-Bench Pro: 50.8% → 55.6%
• GPQA Diamond: 88.1% → 92.4%
• AIME 2025: 94.0% → 100%
• ARC-AGI-2: 17.6% → 52.9%

GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.

Цены API: $1,75/1M input, $14/1M output (Thinking). Это дороже чем GPT-5.1 ($1,25/$10), но дешевле Gemini 3 Pro.

https://openai.com/index/introducing-gpt-5-2/

@ai_machinelearning_big_data

#chatgpt #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥101👍3924😁5🦄21🤗1
Media is too big
VIEW IN TELEGRAM
✔️ GPT-5.2 Pro преодолела барьер в 90% на ARC-AGI-1.

ARC Prize зафиксировали рекорд GPT-5.2 Pro (X-High). Модель достигла точности 90,5% при стоимости вычислений $11,64 за задачу. Тесты ARC-AGI - это уникальные задачи, требующие навыков обобщения и логики, что исключает возможность запоминания паттернов из обучающей выборки.

Несмотря на успех, экономика процесса пока отстает от идеала. Стоимость решения одной задачи все еще в 58 раз превышает целевой показатель бенчмарка ($0,20), а до человеческого уровня (100% точности) сохраняется разрыв. На более сложном наборе ARC-AGI-2 модель показала результат 54,2%.
ARC Prize в сети Х

✔️ Стандарт RSL 1.0 официально утвержден.

Спецификация Really Simple Licensing (RSL), позволяющая издателям диктовать условия лицензирования для ИИ-краулеров, получила статус официального стандарта. Технически, это расширение файла robots.txt, которое дает возможность указывать правила компенсации за парсинг контента.

RSL получил поддержку со стороны гигантов: стандарт внедрили Cloudflare, Akamai и Fastly. Это превращает RSL из простой декларации в рабочий механизм — провайдеры смогут блокировать на уровне CDN тех ботов, которые игнорируют условия лицензии.

Еще одна важная особенность версии 1.0 — гранулярный контроль видимости. Теперь ресурсы могут запретить использование своих материалов в генеративных ответах, сохраняя при этом позиции в классической поисковой выдаче.
rslstandard.org

✔️ Disney и OpenAI заключили партнерство.

Компании объявили о соглашении, которое меняет правила игры в сфере авторского права в ИИ. Начиная со следующего года, Sora сможет официально использовать образы Микки Мауса, Йоды и других героев студии. В рамках сделки Disney получает долю в OpenAI размером в $1 млрд, а ее инженеры - приоритетный доступ к API ChatGPT для внутренних разработок.

Для Disney, известной своей жесткой позицией по защите авторских прав это стратегический разворот. Вместо безуспешных попыток полностью запретить генерацию своих персонажей, корпорация решила возглавить процесс и монетизировать его.

Стороны обещают внедрить жесткие фильтры безопасности, а на Disney+ появится раздел с фанатскими видео, созданными в Sora.
openai.com

✔️ Google обновила модели Gemini TTS.

DeepMind представила апдейт для моделей синтеза речи Gemini Flash TTS и Pro TTS, заменяющий майские версии этого года. Разделение по задачам осталось прежним: Flash для real-time приложений, а Pro - для максимального качества.

Теперь модели жестче придерживаются системных промптов, задающих тон, настроение и ролевую модель спикера. Добавили контекстно-зависимое управление темпом: алгоритм автоматически замедляет речь на плотной информации и ускоряется там, где это уместно, либо строго следует явно заданным таймингам.

Также инженеры стабилизировали работу мульти-спикерных диалогов: голоса собеседников больше не «плывут» и остаются четко различимыми.
blog.google

✔️ Microsoft проанализировала, как люди используют Copilot.

Компания опубликовала исследование об эволюции взаимодействия с ИИ-ассистентом за последний год. Данные показывают смену аудитории: если в январе среди запросов доминировало программирование, то к концу года вектор сместился в сторону социальных тем. Это подтверждает выход технологии в мейнстрим - пользователи всё чаще видят в ИИ не просто умный поиск, а полноценного советчика.

Отчет также подсвечивает зависимость запросов от контекста. Мобильные устройства закрепили за собой роль карманных консультантов по здоровью и психологии. Время суток тоже влияет на содержание: глубокой ночью растет доля философских и экзистенциальных бесед.

Для разработчиков эти метрики важны: следующее поколение ассистентов должно уметь адаптироваться не только под текст запроса, но и под устройство и время обращения.
microsoft.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5617🔥7🦄2
MWS Cloud запускает сервис MWS GPU on-premises — сервис для тех, кому не подходит облако.

Серверы с графическими ускорителями устанавливаются на площадке предприятия или в дата-центре MWS Cloud.

Команда поможет подобрать конфигурацию под ваши задачи, установит оборудование и возьмёт на себя поддержку. Можно выбрать готовое решение из более чем 20 конфигураций или собрать индивидуальное. Всего доступно 7 видов GPU. Покупка или аренда — на ваше усмотрение.

Сервис особенно актуален для промышленных компаний с существующими on-premises системами и медицинских организаций, использующих ИИ для диагностики.

Все конфигурации и условия — на странице сервиса.
🔥12👍95😁2🦄2💘1
🌟 PyRoki: Библиотека кинематики роботов на Python.

PyRoki (Python Robot Kinematics) - это модульный, расширяемый и кроссплатформенный инструментарий, заточенный под задачи кинематической оптимизации и реализованный полностью на Python.

Фишка библиотеки - в предоставлении дифференцируемой модели прямой кинематики робота, которая строится на основе URDF-файлов, тем самым избавляя инженера от необходимости вручную прописывать кинематические цепи: система не только парсит описание робота, но и автоматически генерирует примитивы коллизий.

С точки зрения математического аппарата, PyRoki интегрируется с решателем Levenberg-Marquardt (через jaxls). Это дает возможность проводить оптимизацию на многообразиях, а также обрабатывать жесткие ограничения с помощью решателя на основе модифицированной функции Лагранжа.

Библиотека предлагает готовые реализации cost-функций: поза рабочего органа, коллизии с самим собой или объектами мира и метрики манипулируемости.

Если стандартного набора недостаточно, архитектура позволяет задавать свои функции затрат, используя как автоматическое дифференцирование, так и аналитические якобианы.

Благодаря базе JAX, библиотека кроссплатформенна: ее работа возможна на CPU, GPU и TPU.

🟡При внедрении PyRoki в пайплайн важно учитывать специфику JIT-компиляции в JAX.

Компиляция триггерится при первом запуске, а также каждый раз, когда меняются формы входных данных: например, количество целей или препятствий.

Чтобы избежать расходов на перекомпиляцию, рекомендуется использовать предварительный паддинг массивов, что позволяет векторизовать вычисления для входов с различными шейпами.

Также стоит учитывать, что в библиотеке отсутствуют планировщики, основанные на сэмплировании (графы, деревья), поэтому задачи глобального планирования пути придется решать внешними средствами.

🟡Типы поддерживаемых соединений и геометрия ограничены.

На данный момент PyRoki работает исключительно с кинематическими деревьями; замкнутые механизмы или параллельные манипуляторы не поддерживаются.

Список доступных типов джоинтов ограничен 4 позициями: вращательные, непрерывные, призматические и фиксированные. Любые другие типы соединений, встреченные в URDF, будут автоматически интерпретироваться системой как фиксированные.

Для геометрии коллизий набор примитивов также фиксирован: поддерживаются сферы, капсулы, полупространства и карты высот.

Если ваша модель использует сложные меши, коллизии для них будут аппроксимироваться капсулами.

В вопросах производительности, особенно в сценариях с интенсивными проверками коллизий, PyRoki, вероятно, уступает CuRobo, хотя, как говорится в документации - сравнительные тесты скорости и точности авторами пока не проводились.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🟡Документация
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Robotics #Pyroki #Python
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥97🦄1