Machinelearning – Telegram
383K subscribers
4.44K photos
853 videos
17 files
4.88K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🙂 Эволюция text-to-video.

Чуть меньше 3-х лет прошло между этими генерациями Уилла Смита, поедающего спагетти.

Слева - ролик, созданный в феврале 2023 года пользователем Reddit chaindrop на модели ModelScope text2video. он так ее назвал в комментариях

Справа - современная генерация на свежем Kling 2.6

С чем мы будем сравнивать видос Уилла Смита в 2030 году?
Please open Telegram to view this post
VIEW IN TELEGRAM
77🔥35😁21👍13😭3🤔2🦄1
OpenAI: «GPT-5 положит конец всей путанице с названиями.»

OpenAI спустя секунду ☝️

@ai_machinelearning_big_data
😁182🤣8817👍4💯4😭4🔥3👻3💅2
Вчера на конференции облачного провайдера Cloud․ru про внедрение AI-инструментов в процесс разработки, показали коллекцию одежды, посвещенную релизу новой платформы для работы с GenAI — AI Factory. Лимитку создали совместно с брендом .Solutions.
Эта коллекция — не случайный мерч, а продуманная метафора: она визуализирует, как данные, идеи и цифровые процессы эволюционируют в реальные продукты, создаваемые пользователями на базе AI Factory.

Хорошая новость — вещи из коллекции можно выиграть. Участвуйте в розыгрыше в телеграм-канале Cloud․ru: https://news.1rj.ru/str/cloudruprovider/1259
👍15🤣159🦄4🥰3🤗2🌭1🙈1
🌟 CUDA-L2: ИИ научился писать CUDA-ядра эффективнее инженеров NVIDIA.

Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.

Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.

Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.

В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.

Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.

В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.

🟡Что это дает на практике

Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.

Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.

🟡Тесты

HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.

В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.

А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с torch.matmul и cuBLAS.


Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.

В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12142🔥33🤷6🦄21🆒1
Media is too big
VIEW IN TELEGRAM
✔️ Интеграция ИИ-агентов в GitHub и GitLab небезопасна.

Подключение ИИ-инструментов к рабочим процессам разработки открывает новый вектор атак. Проблема затрагивает Gemini CLI, Claude Code и OpenAI Codex.

Механизм взлома основан на внедрении скрытых инструкций в issues, пулл-реквесты или коммиты. Когда агент считывает этот текст для анализа, он может ошибочно интерпретировать его как прямую команду, а не как пассивные данные.

Тестирование, проведенное Aikido Security показало, что уязвимость актуальна как минимум для 5 компаний из списка Fortune 500. Google оперативно устранила брешь в Gemini CLI, однако эксперты настоятельно рекомендуют инженерам ограничивать полномочия ИИ-агентов и внедрять строгую валидацию входных данных.
aikido.dev

✔️ Google представила архитектуру Titans.

Google Research анонсировала Titans — новую архитектуру, которая решает проблему эффективности обработки огромных массивов данных. Фишка - в механизме «глубокой обучаемой памяти», которая обновляется непосредственно в процессе инференса, превращая работу сети в непрерывный цикл онлайн-обучения.

Вместо сохранения всего контекста Titans использует градиенты как индикатор неожиданности: модель запоминает только те токены, которые несут новую информацию и отсеивает предсказуемые данные. Это позволяет поддерживать контекстные окна объемом более 2 млн. токенов при сохранении линейной скорости вычислений, свойственной RNN.

В тестах на длинный контекст и ризонинг архитектура обошла по производительности Transformer++ и Mamba 2.
research.google

✔️ Отчет OpenRouter: генерация кода и ризонинг-модели захватили 50% мирового ИИ-трафика.

OpenRouter совместно с фондом a16z опубликовали исследование «State of AI», основанное на анализе 100 триллионов обработанных токенов. Главный инсайт — рост популярности рассуждающих моделей: во второй половине 2025 они уже генерируют половину всего трафика платформы.

Драйвером индустрии остается разработка ПО: на задачи по написанию и отладке кода приходится более 50% всех запросов. Одновременно растет доля open-source решений, открытые модели занимают уже треть рынка, локомотивами выступают китайские DeepSeek и Qwen.

Эксперты прогнозируют скорый переход к прокси-инференсу, когда сложные задачи будут автоматически распределяться между несколькими специализированными моделями.
openrouter.ai

✔️ Компания Марка Цукерберга купила стартап Limitless.

Техногигант приобрел компанию Limitless (ранее Rewind), создателя умного кулона, который записывает, транскрибирует и индексирует разговоры пользователя в реальном времени.

Устройство Limitless позиционировалось как аппаратный «расширитель памяти», позволяющий мгновенно находить информацию в прошлых диалогах. Это направление сейчас переживает бум: ранее стартап привлек более $33 млн. инвестиций, в том числе от фонда a16z и Сэма Альтмана.

Согласно заявлению, продажи устройств Limitless новым клиентам будут прекращены. Текущие владельцы гаджетов продолжат получать поддержку, но для дальнейшего использования сервиса им придется принять новые условия конфиденциальности.
reuters.com

✔️ В MIT создали летающего микро-робота с ИИ.

MIT представила устройство размером с насекомое. В основе разработки лежат мягкие приводы и двухуровневый ИИ-контроллер, объединяющий методы предиктивного планирования и имитационного обучения. Такая архитектура позволяет роботу мгновенно адаптироваться к внешним возмущениям.

На тестах микро-бот показал уверенную маневренность, выполнив 10 непрерывных сальто за 11 секунд в условиях сильных порывов ветра. Проект планирует создавать автономные рои для поисково-спасательных миссий: благодаря миниатюрным размерам и ударопрочности, они смогут проникать в узкие расщелины завалов при ЧС.

Следующим этапом станет интеграция бортовых камер и сенсоров для полноценной навигации вне помещений.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6229🔥12🦄2🙊2😁1
⚡️ ChatGPT 5.2 "Code Red" выйдет 9 декабря.

The Verge пишет, что по информации инсайдеров, OpenAI планирует представить обновление уже в начале следующей недели, ориентировочно 9 декабря.

Ожидается, что GPT-5.2 вернет компании доминирующие позиции в сегменте больших языковых моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69😁5120🔥12🦄31🥱1🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
Когда многие решили, что видео с T800 - это CGI, CEO EngineAI Чжао Тонъян вышел на ринг и лично принял удар ногой от робота🦶

Никакой графики, всё настоящее. 📷

@ai_machinelearning_big_data

#ai #robots
🔥8120👍18😨13😁10🕊3🦄2👻1
This media is not supported in your browser
VIEW IN TELEGRAM
🌏 AlphaEarth Foundations: DeepMind показала ИИ, который создаёт детальную карту Земли

DeepMind представила AlphaEarth Foundations - модель, которая объединяет огромные объёмы спутниковых и климатических данных и превращает их в точную карту планеты с детализацией до 10 метров.

Что важно:

- Модель создаёт компактное 64-мерное представление для каждого участка Земли. Это позволяет быстро анализировать территорию, видеть, как она менялась с 2017 по 2024 год, и сравнивать регионы между собой.
- Система делает данные в 16 раз компактнее и примерно на четверть точнее, чем предыдущие подходы.
- Можно отслеживать вырубку лесов, рост городов, состояние почв, влияние климата, изменения береговой линии и другие процессы.
- AlphaEarth уже встроена в Google Earth Engine, поэтому доступна исследователям, экологам и госорганизациям.

Проще говоря, это инструмент, который помогает увидеть Землю в динамике и с высокой точностью, чтобы лучше понимать происходящие изменения.

deepmind.google/blog/alphaearth-foundations-helps-map-our-planet-in-unprecedented-detail/

@ai_machinelearning_big_data

#DeepMind
173🔥30🥰6👍4❤‍🔥3
Channel photo updated
📊 В топ-50 контрибьюторов NeurIPS 2025 Китай и США идут практически наравне.

В США произошёл сдвиг: корпоративные AI-лаборатории - Google DeepMind, Meta, Microsoft, теперь сопоставимы по вкладу с ведущими университетами вроде Stanford, CMU и MIT. Исследования всё заметнее смещаются в индустрию.

В Китае лидерами остаются академические центры: Tsinghua, CAS, Peking University, SJTU, HKUST. Сильные позиции держат также Сингапур (NUS, NTU), Корея (KAIST), ОАЭ (MBZUAI) и Канада (Mila).

Европа заметно отстаёт: в списке лишь Oxford, EPFL, ETH Zurich и TUM из стран ЕС-27.

👉 Источник

@ai_machinelearning_big_data

#NeurIPS
👍5717🔥7🎄1🗿1🦄1
❗️Быстрее! В OTUS начинается обучение на курсе «Компьютерное зрение. Advanced»
Что узнаете во время обучения?

●Основы и инструменты
Docker, PyTorch, OpenCV, Kornia, Hugging Face, OCR

●Нейронные сети и глубокое обучение
CNN: от AlexNet до EfficientNet, оптимизаторы: Adam, SAM, трансформеры: ViT, CLIP, Self-Supervised Learning: SimCLR, DINO

●Стандартные задачи CV
Детекция: R-CNN, YOLO, сегментация: U-Net, 3D, Face Recognition: ArcFace, трекинг: DeepSORT

●Генеративные модели
VAE, GAN, диффузионные модели: Stable Diffusion, ControlNet, генерация видео

●Продвинутые методы
Zero-Shot Learning: SAM, стереозрение, 3D-реконструкция: NeRF, SLAM, распознавание действий

●Проектная работа
Детекция, трекинг, генерация - с защитой проекта

🎁Бонусные занятия
Основы CNN, аугментация данных, градиентный спуск, регуляризация

🎓 4 месяца | 110 ч
Старт группы: 24 декабря

🎁Познакомьтесь с программой курса и преподавателями на бесплатных вебинарах — регистрация на сайте.

Оставить заявку ➡️ OTUS.RU

#реклама
О рекламодателе
😁2114👍5🔥4🦄4🙉2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Роботы GITAI самостоятельно и собрали 5-метровую конструкцию - фундамент будущих внеземных модулей.

Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.


@ai_machinelearning_big_data

#robotics #AI #automation #spacetech #GITAI
👍101🔥4516❤‍🔥9🌭2🤗2🤩1🦄1
Внедряйте ИИ в бизнес-процессы и добивайтесь большего 💪

Сегодня нейросети помогают сотрудникам быстрее решать ежедневные задачи. Завтра — ИИ внедряют во все процессы компании и она выходит на новый уровень эффективности.

Научитесь решать стратегические задачи бизнеса с помощью нейросетей на курсе Нетологии «Руководитель проектов в области ИИ». Программу разработали вместе с МФТИ.

Это курс для опытных специалистов, где за 3,5 месяца вы:
🔹 разберётесь в принципах работы машинного обучения;
🔹 научитесь внедрять ИИ-решения в корпоративные системы;
🔹 получите опыт в управлении ИИ-проектами;
🔹 узнаете, как эффективно взаимодействовать с разработчиками и аналитиками.

Записывайтесь на курс, если хотите вывести ИИ-навыки на новый уровень. Есть скидки на обучение группы от 5 человек. Подробнее о программе

🎄Новогоднее чудо в Нетологии: семь курсов вместо одного. За покупку обучения в декабре дарим 6 программ о здоровье, осознанности и продуктивности

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5yXAfe1
🤣76👍3🙈2🔥1🦄1
📌Адвент-календарь по ML и DL.

Towardsdatascience запустил декабрьский Адвент-календарь "Machine and Deep Learning", котором предлагает разобраться, что под капотом у ML-процессов.

Фреймворки, например scikit-learn, сделали нас ленивыми. Вызов model.fit стал настолько обыденным, что в эпоху Gen AI кажется, будто обучение модели -это просто подбор параметров.

ML-инженеры жонглируют моделями со сложностью, которая растет в геометрической прогрессии, но при этом они не всегда способны вручную пересчитать и объяснить результаты даже самых простых алгоритмов: линейной регрессии или классификатора.

Модели превратились в "черные ящики", и это огромная проблема, ведь знание, что стоит за каждой функцией, критически важно для понимания процесса.


Фишка в том, что весь материал разбирается в Excel. Звучит диковато, но в этом и есть гений. В отличие от кода, где операции скрыты за функциями, в Excel каждая формула, каждое число, каждый расчет - всё на виду. Никаких "черных ящиков".

Уже вышло 7 статей:

🟢День 1 : k-NN Regressor

🟢День 2 : k-NN Classifier

🟢День 4 : GNB, LDA и QDA

🟢День 5 : GMM (Gaussian Mixture Model)

🟢День 6 : Decision Tree Regressor

🟢День 7 : Decision Tree Classifier

Цикл поможет ответить на вопросы, которые часто остаются за кадром: как грамотно обрабатывать категориальные признаки, когда масштабирование не является правильным решением, и как измерять важность признаков, интерпретируя их напрямую с моделью, минуя модель-агностические пакеты LIME и SHAP.

Серия будет полезна студентам для осмысления формул, и менеджерам для понимания какой ML-метод необходим для бизнеса. А для разработчиков это шанс наконец-то понять теорию.

В общем, это маст-рид для тех, кто хочет перестать быть оператором библиотек и по-настоящему понять, как работает ML-движок.

🔜 Мониторить выход новых статей можно тут, обещают публикацию до конца декабря в формате "один день - одна статья".



@ai_machinelearning_big_data

#AI #ML #DL #Tutorial #Excel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3214🔥7🥰3🆒2😁1🦄1