Machinelearning – Telegram
382K subscribers
4.43K photos
851 videos
17 files
4.87K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml
1👍60🔥2214🦄4
This media is not supported in your browser
VIEW IN TELEGRAM
Представьте, что вы проснулись в недалёком будущем. Как бигтех работает с контентом?

Мультимодальные и рекомендательные системы нового поколения — это то, что уже сейчас определяет мир, в котором мы скоро будем жить.

Сотрудники VK рассказали, над чем работает их группа R&D и другие команды. Заходите по ссылке — смотрите ролики и знакомьтесь с нашей внутренней кухней.
1🥱228👍6🔥5🤣2🙊1
📌 LiDAR: глаза беспилотников.

Лонгрид материала от Main Street Autonomy, о том, как лидары видят мир, почему они прожигают камеры смартфонов и где маркетологи нас обманывают.

🟡Что делает LiDAR?

В отличие от обычной камеры, которая фиксирует интенсивность света, лидар - это активный сенсор. Он отправляет свет и ловит его отражение. Его цель - измерить расстояние и направление.

В результате получается облако точек, где каждая точка - это точное положение объекта в пространстве. Камеры дают разрешение и цвет, а лидары - точную геометрию.

🟡Методы измерения дальности.

Самый популярный - Direct time of flight. Лидар посылает лазерный импульс и засекает время, за которое он вернется. Зная скорость света, можно посчитать расстояние. Но чтобы это работало, нужны невероятно быстрые детекторы.

🟡Детекторы.

APD - это лавинные фотодиоды. Они надежны, работают в линейном режиме, но требуют сложной аналоговой электроники.

А вот SPAD - однофотонные лавинные диоды, это настоящий бриллиант. Они настолько чувствительны, что реагируют на единственный фотон, работая в режиме счетчика Гейгера.

Главный плюс SPAD в том, что они совместимы с CMOS-процессом. Это значит, что их можно делать на тех же кремниевых пластинах, что и процессоры, создавая огромные массивы - их называют  SPAD macropixels. Это путь компаний Ouster и Sony.

Но есть и другой путь - FMCW, или частотно-модулированный лидар. Здесь лазер светит постоянно, меняя частоту, а расстояние вычисляется по сдвигу фазы вернувшегося сигнала.

С FMCW можно измерять не только дальность, но и мгновенную скорость объекта через эффект Доплера. Звучит круто, но требует дорогих лазеров.

🟡Как LiDAR понимает, куда он смотрит?

Исторически, первым решением было просто вращать весь лидар. Старые модели на крышах машин - те самые «ведра», которые крутятся на 360 градусов. Это надежно, дает полный обзор, но механически сложно и дорого.

Современный тренд - уход от вращения всей «головы» к более хитрым методам.

MEMS mirror. Это крошечные зеркала на чипе, которые вибрируют и отклоняют луч.

Risley prisms. Две вращающиеся призмы, преломляющие луч так, что он рисует сложный узор, похожий на цветок.

Есть совсем футуристичный Baraja SpectrumScan. Они вообще отказались от движущихся зеркал в одной из плоскостей. Они меняют длину волны лазера, пропуская свет через призму. Разные цвета преломляются под разным углом и луч сканирует пространство просто за счет изменения цвета. Гениально, но требует очень качественного источника света.

🟡Длина волны.

Большинство лидаров работают на длине волны 905 nm. Но есть проблема: человеческий глаз фокусирует этот свет на сетчатке. Если поднять мощность, можно буквально выжечь человеку глаз. Поэтому мощность таких лидаров жестко ограничена.

1550 nm. Этот свет поглощается жидкостью в глазу и не доходит до сетчатки. И мощность можно поднимать в тысячи раз, что дает огромную дальность обнаружения.

Но для детекторов на этой частоте нужен дорогой сплав InGaAs, а в качестве источника часто используют волоконные лазеры.

И тут есть нюанс: мощный лазер 1550 nm безопасен для сетчатки, но может повредить роговицу нагревом. Более того, такие мощные лидары сжигают матрицы обычных камер и смартфонов, если те окажутся на "линии огня".

🟡Суровые реалии эксплуатации.

Многие лидары врут. Одна из частых проблем - рассинхрон углов лучей. Даже в знаменитом датасете KITTI находили ошибки калибровки, из-за чего плоские стены становились кривыми.

Еще одна беда - «блюминг». Если лазер попадает в дорожный знак или катафот, отраженный сигнал настолько силен, что засвечивает соседние пиксели. Лидар видит призрачные объекты там, где их нет.

🟡И напоследок, про один маркетинговый миф.

Есть такой термин - "Solid State LiDAR". Производители любят называть так свои устройства, чтобы подчеркнуть надежность.

Но часто это не так. Они выглядят как цельные коробки, но внутри у них есть движущиеся части: зеркала или призмы.

Настоящий Solid State - это когда вообще ничего не движется, даже внутри. Это то, к чему стремится индустрия. Но пока механика все еще с нами.
Please open Telegram to view this post
VIEW IN TELEGRAM
52👍33🔥7🥰5🤔4👀2🦄2👾2🤬1😇1💘1
Media is too big
VIEW IN TELEGRAM
✔️ Дарио Амодей: Anthropic не объявляет «красных кодов» в ответ на релизы.

Пока Сэм Альтман переводит OpenAI в режим «code red» после выхода Gemini 3, Anthropic демонстративно отказывается от паники. На саммите NYT Dealbook, CEO компании? Дарио Амодей заявил, что им не нужно реагировать на каждый шаг конкурентов авралами, так как у Anthropic принципиально иной вектор развития.

Вместо гонки за вниманием и метриками вовлеченности, Anthropic глубоко фокусируется на корпоративном сегменте. Дарио говорит, что их приоритет - высокая интеллектуальная деятельность: генерация чистого кода, научные исследования и сложная аналитика. Он также скептически оценил огромные бюджеты техногигантов, назвав их финансовую политику «YOLO-стратегией».
businessinsider.com

✔️ Anthropic выложила датасет из 1250 диалогов.

Проект Anthropic Interviewer - инструмент для автоматизации социологических исследований. Он позволяет проводить глубокие интервью в промышленных масштабах, делегируя роль интервьюера ИИ.

Компания опубликовала результаты первого масштабного эксперимента: массив из 1250 транскриптов бесед. В выборку попали представители массовых профессий, ученые и работники креативных индустрий. ИИ выяснял, как специалисты реально интегрируют нейросети в свои рабочие процессы и как оценивают карьерные риски. Датасет доступен на HuggingFace под лицензией CC-BY.
anthropic.com

✔️ Google запустила no-code платформу создания ИИ-агентов.

Google представила инструмент Workspace Studio для упрощения автоматизации в корпоративных средах. Платформа, построенная на Gemini 3, позволяет создавать кастомных ИИ-агентов без написания кода всего за несколько минут.

Инструмент получил глубокую интеграцию в экосистему Google: созданные помощники работают непосредственно внутри Gmail, Drive и Chat, беря на себя рутину: обработка почты, управление расписанием или анализ документов. Заявлена возможность подключения внешних систем - Asana, Jira, Mailchimp и Salesforce. Доступ к студии уже открыт для бизнес- и энтерпрайз-подписчиков.
workspace.google.com

✔️ Perplexity открыла модель BrowseSafe для защиты ИИ-браузеров от промпт-инъекций.

BrowseSafe - решение для обеспечения безопасности агентного веба. Инструмент защищает ИИ-ассистентов от вредоносных инструкций, которые злоумышленники скрывают в структуре веб-страниц.

Угроза заключается в способности агентов считывать весь HTML-код, включая невидимые пользователю элементы (комментарии, скрытые поля и мета-теги). Хакеры могут внедрять туда команды, перехватывающие управление моделью. BrowseSafe выступает в роли легковесного детектора: он сканирует контент в реальном времени и блокирует подозрительные инструкции до того, как они попадут в контекст основной LLM.

В релиз также вошел бенчмарк BrowseSafe-Bench, содержащий более 14 тысяч сценариев атак для тестирования надежности систем.
perplexity.ai

✔️ OpenAI проиграла спор о конфиденциальности.

Суд Манхэттена постановил, что компания должна передать The New York Times и другим новостным изданиям массив анонимизированных переписок пользователей. Это решение принято в рамках громкого процесса об авторских правах: истцы утверждают, что модели OpenAI незаконно обучались на их контенте.

Судья отклонила аргументы OpenAI о рисках для приватности, посчитав меры по обезличиванию данных достаточными. Доступ к логам важен для истцов: они намерены доказать, что ChatGPT способен дословно воспроизводить защищенные авторским правом статьи. OpenAI уже подала апелляцию, называя требование нарушением стандартов безопасности, но по текущему решению обязана подготовить данные в течение 7 дней.
reuters.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2821🦄5🔥3😢2😁1
⚡️ MWS AI представила корпоративную платформу для создания и запуска ИИ-агентов.

Платформа MWS AI AGENTS PLATFORM позволяет без программирования собирать ИИ-агентов и мультиагентные системы в визуальном конструкторе, подключая бизнес-процессы, внутренние сервисы и внешние инструменты. Агент может работать с документами, CRM, почтой, HR-системами, передавать результаты другим агентам и проверять их.

В составе платформы — средства подготовки данных, мониторинга качества и готовые интеграционные модули. Взаимодействие с агентами доступно через сайты, чаты, мессенджеры и API. Поддерживаются мультимодальные сценарии: работа с изображениями, текстом, голосом, синтез и распознавание речи (ASR, TTS) и IVR. С помощью встроенной платформы разметки доступен простой и быстрый функционал дообучения моделей классификации и определения интентов — без больших датасетов и без привлечения технических специалистов.

Дополнительно доступны платформа разметки и AutoML-модуль — low-code инструментарий для быстрого дообучения или создания кастомных моделей, например классификаторов под конкретные бизнес-процессы.

На базе решения уже доступны прикладные продукты: корпоративные ассистенты для поиска по документам, клиентской поддержки, аналитики, HR- и юридические помощники. Линейка будет расширяться.

Платформа разработана по принципу enterprise-ready: её можно развернуть в закрытом контуре или частном облаке, она поддерживает управление доступом, защиту данных и не привязана к конкретным поставщикам. Vendor-agnostic подход обеспечивает поддержку популярных LLM и даёт компаниям гибкость в выборе стека: заказчик может заменять компоненты, подключать собственные разработки и использовать модели разных производителей.

По оценке компании, использование платформы сокращает стоимость разработки ИИ-приложений и агентов как минимум в шесть раз. Инвестиции в создание решения превысили 4 млрд рублей, включая разработку собственных языковых и мультимодальных моделей семейства Cotype и технологий речевой аналитики.

MWS AI также предоставляет консультации, обучение и сопровождение внедрений - компании могут развивать продукты самостоятельно или привлекать экспертов.
13🤷‍♂8👍7🥰7😁5🥱4👀1
This media is not supported in your browser
VIEW IN TELEGRAM
🙂 Эволюция text-to-video.

Чуть меньше 3-х лет прошло между этими генерациями Уилла Смита, поедающего спагетти.

Слева - ролик, созданный в феврале 2023 года пользователем Reddit chaindrop на модели ModelScope text2video. он так ее назвал в комментариях

Справа - современная генерация на свежем Kling 2.6

С чем мы будем сравнивать видос Уилла Смита в 2030 году?
Please open Telegram to view this post
VIEW IN TELEGRAM
74🔥32😁21👍12🤔2😭2🦄1
OpenAI: «GPT-5 положит конец всей путанице с названиями.»

OpenAI спустя секунду ☝️

@ai_machinelearning_big_data
😁173🤣8417👍4😭4🔥3💯2👻2💅2
Вчера на конференции облачного провайдера Cloud․ru про внедрение AI-инструментов в процесс разработки, показали коллекцию одежды, посвещенную релизу новой платформы для работы с GenAI — AI Factory. Лимитку создали совместно с брендом .Solutions.
Эта коллекция — не случайный мерч, а продуманная метафора: она визуализирует, как данные, идеи и цифровые процессы эволюционируют в реальные продукты, создаваемые пользователями на базе AI Factory.

Хорошая новость — вещи из коллекции можно выиграть. Участвуйте в розыгрыше в телеграм-канале Cloud․ru: https://news.1rj.ru/str/cloudruprovider/1259
👍15🤣139🥰3🦄3🤗1
🌟 CUDA-L2: ИИ научился писать CUDA-ядра эффективнее инженеров NVIDIA.

Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.

Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.

Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.

В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.

Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.

В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.

🟡Что это дает на практике

Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.

Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.

🟡Тесты

HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.

В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.

А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с torch.matmul и cuBLAS.


Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.

В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10936🔥27🤷61🆒1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ Интеграция ИИ-агентов в GitHub и GitLab небезопасна.

Подключение ИИ-инструментов к рабочим процессам разработки открывает новый вектор атак. Проблема затрагивает Gemini CLI, Claude Code и OpenAI Codex.

Механизм взлома основан на внедрении скрытых инструкций в issues, пулл-реквесты или коммиты. Когда агент считывает этот текст для анализа, он может ошибочно интерпретировать его как прямую команду, а не как пассивные данные.

Тестирование, проведенное Aikido Security показало, что уязвимость актуальна как минимум для 5 компаний из списка Fortune 500. Google оперативно устранила брешь в Gemini CLI, однако эксперты настоятельно рекомендуют инженерам ограничивать полномочия ИИ-агентов и внедрять строгую валидацию входных данных.
aikido.dev

✔️ Google представила архитектуру Titans.

Google Research анонсировала Titans — новую архитектуру, которая решает проблему эффективности обработки огромных массивов данных. Фишка - в механизме «глубокой обучаемой памяти», которая обновляется непосредственно в процессе инференса, превращая работу сети в непрерывный цикл онлайн-обучения.

Вместо сохранения всего контекста Titans использует градиенты как индикатор неожиданности: модель запоминает только те токены, которые несут новую информацию и отсеивает предсказуемые данные. Это позволяет поддерживать контекстные окна объемом более 2 млн. токенов при сохранении линейной скорости вычислений, свойственной RNN.

В тестах на длинный контекст и ризонинг архитектура обошла по производительности Transformer++ и Mamba 2.
research.google

✔️ Отчет OpenRouter: генерация кода и ризонинг-модели захватили 50% мирового ИИ-трафика.

OpenRouter совместно с фондом a16z опубликовали исследование «State of AI», основанное на анализе 100 триллионов обработанных токенов. Главный инсайт — рост популярности рассуждающих моделей: во второй половине 2025 они уже генерируют половину всего трафика платформы.

Драйвером индустрии остается разработка ПО: на задачи по написанию и отладке кода приходится более 50% всех запросов. Одновременно растет доля open-source решений, открытые модели занимают уже треть рынка, локомотивами выступают китайские DeepSeek и Qwen.

Эксперты прогнозируют скорый переход к прокси-инференсу, когда сложные задачи будут автоматически распределяться между несколькими специализированными моделями.
openrouter.ai

✔️ Компания Марка Цукерберга купила стартап Limitless.

Техногигант приобрел компанию Limitless (ранее Rewind), создателя умного кулона, который записывает, транскрибирует и индексирует разговоры пользователя в реальном времени.

Устройство Limitless позиционировалось как аппаратный «расширитель памяти», позволяющий мгновенно находить информацию в прошлых диалогах. Это направление сейчас переживает бум: ранее стартап привлек более $33 млн. инвестиций, в том числе от фонда a16z и Сэма Альтмана.

Согласно заявлению, продажи устройств Limitless новым клиентам будут прекращены. Текущие владельцы гаджетов продолжат получать поддержку, но для дальнейшего использования сервиса им придется принять новые условия конфиденциальности.
reuters.com

✔️ В MIT создали летающего микро-робота с ИИ.

MIT представила устройство размером с насекомое. В основе разработки лежат мягкие приводы и двухуровневый ИИ-контроллер, объединяющий методы предиктивного планирования и имитационного обучения. Такая архитектура позволяет роботу мгновенно адаптироваться к внешним возмущениям.

На тестах микро-бот показал уверенную маневренность, выполнив 10 непрерывных сальто за 11 секунд в условиях сильных порывов ветра. Проект планирует создавать автономные рои для поисково-спасательных миссий: благодаря миниатюрным размерам и ударопрочности, они смогут проникать в узкие расщелины завалов при ЧС.

Следующим этапом станет интеграция бортовых камер и сенсоров для полноценной навигации вне помещений.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5725🔥8🙊2😁1🦄1
⚡️ ChatGPT 5.2 "Code Red" выйдет 9 декабря.

The Verge пишет, что по информации инсайдеров, OpenAI планирует представить обновление уже в начале следующей недели, ориентировочно 9 декабря.

Ожидается, что GPT-5.2 вернет компании доминирующие позиции в сегменте больших языковых моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64😁4516🔥11🦄31🤗1