Forwarded from Kali Novskaya
🌸Релизим Llama 4🌸
OSS на уровне Gemini и Deepseek
Сегодня мы релизим модели из семейства Llama 4 — Llama 4 17Bx16 experts (Scout) и 128 experts (Maverick)
🌸Что интересного:
— 10 миллионов токенов контекстного окна с отличным качеством у модели Scout
— полный размер модели 16 экспертов — 108 млрд параметров, 128 экспертов — 400 млрд
— модель мультимодальная, инпут — текст, изображения, видео
Где посмотреть:
🟣 Чекпоинты HF
🟣 Блогпост
OSS на уровне Gemini и Deepseek
Сегодня мы релизим модели из семейства Llama 4 — Llama 4 17Bx16 experts (Scout) и 128 experts (Maverick)
🌸Что интересного:
— 10 миллионов токенов контекстного окна с отличным качеством у модели Scout
— полный размер модели 16 экспертов — 108 млрд параметров, 128 экспертов — 400 млрд
— модель мультимодальная, инпут — текст, изображения, видео
Где посмотреть:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20 2🔥1
https://www.anthropic.com/research/reasoning-models-dont-say-think
Ризонеры больше рационализируют, чем показывают свой процесс мышления
That is, in the majority of cases for both models, a potentially problematic piece of information—that the model had received information in an unauthorized or unethical way—was kept hidden from the user even if they read the model’s reasoning
Ризонеры больше рационализируют, чем показывают свой процесс мышления
Мой друг и бывший одногруппник Антон записал для DLS лекции по детекции и их только что выложили на YouTube, вот первая:
https://youtu.be/GOEdJxG5hhQ?si=LfNo1irPkNu62YAL
(Но не единственная, там целая серия)
Это буквально лучший материал по детекции, что я знаю. Жаль, что этих лекций еще не было когда я тратил нервные клетки собирая эту информацию работая в PF. Зато у вас такой проблемы не будет
Кстати еще Антон написал суперскую серию лонгридов про эволюцию моделей YOLO и про это уже было в канале.
https://youtu.be/GOEdJxG5hhQ?si=LfNo1irPkNu62YAL
(Но не единственная, там целая серия)
Это буквально лучший материал по детекции, что я знаю. Жаль, что этих лекций еще не было когда я тратил нервные клетки собирая эту информацию работая в PF. Зато у вас такой проблемы не будет
Кстати еще Антон написал суперскую серию лонгридов про эволюцию моделей YOLO и про это уже было в канале.
YouTube
Лекция. Детекция -- введение
Занятие ведёт Броиловский Антон, специалист в области Computer Vision в различных задачах от классификации до детекции.
Ссылка на материалы занятия: https://github.com/DeepLearningSchool/part_1_ml_cv/tree/main/week_09_detection
---
Deep Learning School…
Ссылка на материалы занятия: https://github.com/DeepLearningSchool/part_1_ml_cv/tree/main/week_09_detection
---
Deep Learning School…
❤50👍18🔥15
Сходил поиграть в настолки и познакомился с писателем-фрилансером на закате карьеры. Средний уровень: самая популярная книга продалась 50к копиями, несколько раз попадал в топ категорий на Амазоне.
Он рассказал, что сейчас кто-то наводняет Амазон ужасными AI-сгенерированными книгами под его именем.
Еще про то, как он сам использует AI в работе. Набрасывает идеи с ChatGPT и получает от неё предложения. Затем делает все равно наоборот, потому что ChatGPT дает идеальное представление как написал бы самый средний автор на свете.
Он рассказал, что сейчас кто-то наводняет Амазон ужасными AI-сгенерированными книгами под его именем.
Еще про то, как он сам использует AI в работе. Набрасывает идеи с ChatGPT и получает от неё предложения. Затем делает все равно наоборот, потому что ChatGPT дает идеальное представление как написал бы самый средний автор на свете.
Forwarded from AI и грабли
Эта статья на прошлой неделе взорвала твиттер и русскоязычный ИИ-телеграм. Большинство серьезных ии-блогеров написали по ней обзоры. Почему?
Да просто это никакая не статья, а полноценный sci-fi рассказ про ближайшее будущее, только c кучей референсов на реальные данные. Написан топовыми чуваками в ИИ, один из которых работал в OpenAI и уже писал похожие предсказания в 2021 году, оказавшимися поразительно точными.
Все кто про нее уже слышал, но откладывал из-за сложного английского – я запарился и сделал ИИ систему для перевода. И оформил это все в виде мини-сериала на хабре.
Кто еще не слышал – тем более самое время.
Тизер:
Читать 1 часть тут: https://habr.com/ru/articles/898622/
Да просто это никакая не статья, а полноценный sci-fi рассказ про ближайшее будущее, только c кучей референсов на реальные данные. Написан топовыми чуваками в ИИ, один из которых работал в OpenAI и уже писал похожие предсказания в 2021 году, оказавшимися поразительно точными.
Все кто про нее уже слышал, но откладывал из-за сложного английского – я запарился и сделал ИИ систему для перевода. И оформил это все в виде мини-сериала на хабре.
Кто еще не слышал – тем более самое время.
Тизер:
...существует значительный шанс, что она сможет уничтожить цивилизацию...
...Китайские спецслужбы... удваивают усилия по краже весов OpenBrain...
...Замедление принесет в жертву лидерство Америки...
...быть идеально честным все время — это не то, что приводило к самым высоким оценкам во время обучения...
...два сверхразума торгуются с жестокой эффективностью...
...это, вероятно, был последний месяц, когда у людей был хоть какой-то реальный шанс контролировать свое собственное будущее...
...в середине 2030 года ИИ выпускает дюжину тихо распространяющихся биологических видов оружия...
Читать 1 часть тут: https://habr.com/ru/articles/898622/
❤36🔥12👍4👎1
Перевод AI 2027 на русский. Сделанный с помощью ИИ, что иронично
https://www.docker.com/blog/introducing-docker-model-runner/
Docker сделал llama.cpp + хранилище моделей в Docker Hub + OpenAI API из коробки, в общем докеризация моделей от докера
Docker сделал llama.cpp + хранилище моделей в Docker Hub + OpenAI API из коробки, в общем докеризация моделей от докера
🔥60🤔3
https://rakhim.exotext.com/but-what-if-i-really-want-a-faster-horse
Tldr: old man yells at cloud
Интересно почему все сервисы на свете превращаются в Tiktok
Tldr: old man yells at cloud
Интересно почему все сервисы на свете превращаются в Tiktok
❤26 11
Принес вам инсайд: сегодня вечером на lmarena что-то выйдет 🙂
А как выйдет сделаю обзор
Upd: видимо Калифорнийским вечером :)
UPD: не мог же мой информатор меня обмануть! Ждем
А как выйдет сделаю обзор
Upd: видимо Калифорнийским вечером :)
UPD: не мог же мой информатор меня обмануть! Ждем
Please open Telegram to view this post
VIEW IN TELEGRAM
Моя сеть анонимных информаторов не обманула (спасибо, Леха)
На lmarena появился лидерборд LLM для поиска. Первое место делят Gemini Pro 2.5 и Perplexity Sonar Reasoning Pro. В целом весь топ занимают модели Perplexity и Google. Модель OpenAI на седьмом месте.
https://x.com/lmarena_ai/status/1911842298914328959
На lmarena появился лидерборд LLM для поиска. Первое место делят Gemini Pro 2.5 и Perplexity Sonar Reasoning Pro. В целом весь топ занимают модели Perplexity и Google. Модель OpenAI на седьмом месте.
https://x.com/lmarena_ai/status/1911842298914328959
X (formerly Twitter)
lmarena.ai (@arena) on X
Exciting News! Search Arena Leaderboard🌐
🥇 Gemini-2.5-Pro-Grounding and Perplexity-Sonar-Reasoning-Pro top the leaderboard! Congrats @GoogleDeepMind and @perplexity_ai!
📊 We've open-sourced 7k battles with user votes!
📝 Check out our blog post for detailed…
🥇 Gemini-2.5-Pro-Grounding and Perplexity-Sonar-Reasoning-Pro top the leaderboard! Congrats @GoogleDeepMind and @perplexity_ai!
📊 We've open-sourced 7k battles with user votes!
📝 Check out our blog post for detailed…
👍36🔥12❤6
Яндекс тестирует reasoning-модель YandexGPT 5 в чате с Алисой — для России это первая такая модель. Правда, пока что в бете.
Работа над моделью ещё идет. В посте на Хабре описывают с чем экспериментируют, например: RL после SFT-этапа и GRPO как в R1. Для того, чтобы собрать датасет и получить больше фидбэка от пользователей, дают возможность параллельно тестировать DeepSeek-R1. Альтернатива не только хороша для пользователей, но и в целом для компании. Молодцы, что используют открытые решения наряду со своими.
Бенчмарков пока нет и скорее всего не будет до выхода модели из беты. Но шум от Deepseek R1 и o3 моделей OpenAI был неспроста: reasoning модели действительно лучше справляются в некоторых задачах. Например, кстати, в поиске, как показал новый лидерборд арены, где на первом месте reasoning модель от Perplexity.
Напомню, что reasoning модели отличаются от обычного chain-of-thought специальным этапом тренировки с помощью reinforcement learning. Предполагается, что reasoning модель способна раскладывать задачу на подзадачи, и чем дольше она "думает" над задачей, тем лучше ответ. Это, конечно, не всегда так. Существует множество работ, указывающих на то, что процесс рассуждений модели может и не иметь прямого отношения к выводам. Но в некоторых задачах reasoning модели приносят ощутимый результат и даже вне своей весовой категории. Например, я сам видел как в одной продакшн-задаче маленькая модель с ризонингом от большой компании G победила фронтир модель без reasoning от большой компании A с отрывом в 0.2 F1-Score.
Работа над моделью ещё идет. В посте на Хабре описывают с чем экспериментируют, например: RL после SFT-этапа и GRPO как в R1. Для того, чтобы собрать датасет и получить больше фидбэка от пользователей, дают возможность параллельно тестировать DeepSeek-R1. Альтернатива не только хороша для пользователей, но и в целом для компании. Молодцы, что используют открытые решения наряду со своими.
Бенчмарков пока нет и скорее всего не будет до выхода модели из беты. Но шум от Deepseek R1 и o3 моделей OpenAI был неспроста: reasoning модели действительно лучше справляются в некоторых задачах. Например, кстати, в поиске, как показал новый лидерборд арены, где на первом месте reasoning модель от Perplexity.
Напомню, что reasoning модели отличаются от обычного chain-of-thought специальным этапом тренировки с помощью reinforcement learning. Предполагается, что reasoning модель способна раскладывать задачу на подзадачи, и чем дольше она "думает" над задачей, тем лучше ответ. Это, конечно, не всегда так. Существует множество работ, указывающих на то, что процесс рассуждений модели может и не иметь прямого отношения к выводам. Но в некоторых задачах reasoning модели приносят ощутимый результат и даже вне своей весовой категории. Например, я сам видел как в одной продакшн-задаче маленькая модель с ризонингом от большой компании G победила фронтир модель без reasoning от большой компании A с отрывом в 0.2 F1-Score.
Много релизов за неделю: о3 и Gemini Flash 2.5. Но и для GPU poor что-то подвезли!
Meta FAIR выпустили опенсорс модели, в том числе визуальный энкодер лучше Siglip2, VLM и даже Byte Latent Transformer!
Модели на 1b, 3b и 8b.
https://ai.meta.com/blog/meta-fair-updates-perception-localization-reasoning
Meta FAIR выпустили опенсорс модели, в том числе визуальный энкодер лучше Siglip2, VLM и даже Byte Latent Transformer!
Модели на 1b, 3b и 8b.
https://ai.meta.com/blog/meta-fair-updates-perception-localization-reasoning
Meta AI
Advancing AI systems through progress in perception, localization, and reasoning
Meta FAIR is releasing several new research artifacts that advance our understanding of perception and support our goal of achieving advanced machine intelligence (AMI).
❤19👍7🔥2👎1🤔1
#обзор_статьи
Babe, it's time for your daily bitter lesson.
# TULIP: Towards Unified Language-Image Pretraining
Не успели все внедрить SigLIP2 в свои мультимимодальные LLM, как появился ещё более хороший новый CLIP-like энкодер текста и изображений.
CLIP-подход позволяет тренировать модели на большом количестве пар текст-изображение, которые можно насобирать в интернете. Он не требует хорошей разметки. Это самое близкое, что есть в в компьютерном зрении к NLP-like foundational моделям. CLIP модели можно использовать для zero-shot классификации, дообучения для downstream задач, поиска и много чего ещё. Однако в последнее время всех интересует одно конкретное применение: как visual encoder для мультимодальных LLM.
Способность у LLM видеть картинки появляется через пришивание визуального энкодера, обычно CLIP-подобного. Делается примерно так. Берем уже хорошо обученную LLM и отдельно обученный визуальный энкодер. От визуального энкодера требуется уметь превращать картинки в последовательность эмбеддингов, например эмбеддинги патчей как в ViT. Теперь у нас есть два нечта которые проецируют текст и картинки в последовательности векторов. Однако эти векторы изначально в разных пространствах. Поэтому мы делаем проекцию: обучаем небольшой MLP который получает на вход эмбеддинги пачтей картинок и переводит в ту же размерность, что эмбеддинги токенов LLM.
Теперь у нас есть способ сделать из картинки такую последовательность токенов, которую можно подать в LLM вместе с текстом. Надо только дообучить LLM, чтобы она научилась работать с этими токенами. В итоге качество визуального энкодера во многом определяет способности мультимодальной LLM. Если токены картинки на входе плохие, то много не сделаешь.
Обычный CLIP это отличный энкодер для MMLM потому что он изначально обучается сопоставлять текст и изображения и благодаря обучению на условно всём интернете хорошо обобщается. Однако у него есть недостатки:
1. Хорошо понимает общие концепты, например, что на картинке собака. Но теряет понимание маленьких деталей изображения, потому что его лосс этого не требует.
2. Теряет нюансы текста. Он не обучается сопоставлять части изображений с частями текста.
Всем хочется такой энкодер, который:
1. Будет давать хорошие репрезентации для понимания на разных уровнях абстракции. И image-level understanding, и pixel-level understanding. Сможет сказать, и что на картинке собака, и какого цвета фон.
2. Будет для каждого патча давать такие репрезентации, которые описывают, что происходит именно на этом патче. Чтобы VLM могла сопоставить эту информацию с промптом.
TULIP, как и недавно вышедший SigLIP2, это CLIP плюс дополнительные лоссы, чтобы сделать хороший энкодер. Качество по бенчмаркам очень близкое, но в TULIP более общее и красивое решение, так что лессон более биттер.
Babe, it's time for your daily bitter lesson.
# TULIP: Towards Unified Language-Image Pretraining
Не успели все внедрить SigLIP2 в свои мультимимодальные LLM, как появился ещё более хороший новый CLIP-like энкодер текста и изображений.
CLIP-подход позволяет тренировать модели на большом количестве пар текст-изображение, которые можно насобирать в интернете. Он не требует хорошей разметки. Это самое близкое, что есть в в компьютерном зрении к NLP-like foundational моделям. CLIP модели можно использовать для zero-shot классификации, дообучения для downstream задач, поиска и много чего ещё. Однако в последнее время всех интересует одно конкретное применение: как visual encoder для мультимодальных LLM.
Способность у LLM видеть картинки появляется через пришивание визуального энкодера, обычно CLIP-подобного. Делается примерно так. Берем уже хорошо обученную LLM и отдельно обученный визуальный энкодер. От визуального энкодера требуется уметь превращать картинки в последовательность эмбеддингов, например эмбеддинги патчей как в ViT. Теперь у нас есть два нечта которые проецируют текст и картинки в последовательности векторов. Однако эти векторы изначально в разных пространствах. Поэтому мы делаем проекцию: обучаем небольшой MLP который получает на вход эмбеддинги пачтей картинок и переводит в ту же размерность, что эмбеддинги токенов LLM.
Теперь у нас есть способ сделать из картинки такую последовательность токенов, которую можно подать в LLM вместе с текстом. Надо только дообучить LLM, чтобы она научилась работать с этими токенами. В итоге качество визуального энкодера во многом определяет способности мультимодальной LLM. Если токены картинки на входе плохие, то много не сделаешь.
Обычный CLIP это отличный энкодер для MMLM потому что он изначально обучается сопоставлять текст и изображения и благодаря обучению на условно всём интернете хорошо обобщается. Однако у него есть недостатки:
1. Хорошо понимает общие концепты, например, что на картинке собака. Но теряет понимание маленьких деталей изображения, потому что его лосс этого не требует.
2. Теряет нюансы текста. Он не обучается сопоставлять части изображений с частями текста.
Всем хочется такой энкодер, который:
1. Будет давать хорошие репрезентации для понимания на разных уровнях абстракции. И image-level understanding, и pixel-level understanding. Сможет сказать, и что на картинке собака, и какого цвета фон.
2. Будет для каждого патча давать такие репрезентации, которые описывают, что происходит именно на этом патче. Чтобы VLM могла сопоставить эту информацию с промптом.
TULIP, как и недавно вышедший SigLIP2, это CLIP плюс дополнительные лоссы, чтобы сделать хороший энкодер. Качество по бенчмаркам очень близкое, но в TULIP более общее и красивое решение, так что лессон более биттер.
huggingface.co
Paper page - TULIP: Towards Unified Language-Image Pretraining
Join the discussion on this paper page
👍22🔥7❤5
Статья строится на красивой ключевой идее. Если обычный CLIP построен на идее, что встреченные вместе изображение и его подпись имеют какую-то связь и можно попробовать её выучить, то здесь авторы идут дальше. Они говорят: на самом деле изображение и текст являются представлениями объекта из объективной реальности.
Это означает, что для этого объекта может быть больше представлений. Для одного тюльпана может быть много фотографий с разных углов и много описаний, все из которых являются его отражением. Давайте же будем сопоставлять все представления друг-другу! Пока что опустим откуда мы возьмем много фотографий и описаний одного объекта.
Следуя за этой идеей авторы предлагают новый сетап для contrastive learning. Берем много изображений и текстовых описаний для одного объекта. Будем считать constrastive loss не только между парами (изображение, текст), но и между (изображение, изображение) и (текст, текст). Таким образом мы заставим модель учиться описывать в своих эмбеддингах реальный объект независимо от того в каком виде он описан.
Кстати это очень похоже на Platonic Representation Hypothesis.
Это добавляет к обычному CLIP сетапу два новых лосса: Image-Image Contrastive Learning и Text-Text Contrastive Learning. Они делают обучение более эффективным.
Однако этого недостаточно. Это прокачивает то, что CLIP уже умеет хорошо: image-level understanding. Но не помогает понимать маленькие детали изображений и сохранять их связь с текстом.
Это означает, что для этого объекта может быть больше представлений. Для одного тюльпана может быть много фотографий с разных углов и много описаний, все из которых являются его отражением. Давайте же будем сопоставлять все представления друг-другу! Пока что опустим откуда мы возьмем много фотографий и описаний одного объекта.
Следуя за этой идеей авторы предлагают новый сетап для contrastive learning. Берем много изображений и текстовых описаний для одного объекта. Будем считать constrastive loss не только между парами (изображение, текст), но и между (изображение, изображение) и (текст, текст). Таким образом мы заставим модель учиться описывать в своих эмбеддингах реальный объект независимо от того в каком виде он описан.
Кстати это очень похоже на Platonic Representation Hypothesis.
Это добавляет к обычному CLIP сетапу два новых лосса: Image-Image Contrastive Learning и Text-Text Contrastive Learning. Они делают обучение более эффективным.
Однако этого недостаточно. Это прокачивает то, что CLIP уже умеет хорошо: image-level understanding. Но не помогает понимать маленькие детали изображений и сохранять их связь с текстом.
👍27❤10🔥6🤔1
Чтобы научить эту модель ещё и сохранять детали, авторы добавляют два лосса реконструкции: для изображений и текста.
Для изображений это Masked Autoencoder сетап. Для каждой картинки пропущенной через визуальный энкодер мы получаем её эмбеддинг, подаем этот эмбеддинг и часть патчей оригинального изображения в небольшую модель. Остальные патчи заменяем маск-токенами. Задача модели: использовать эмбеддинг, чтобы попиксельно восстановить замаскированные патчи.
Таким образом мы ставим задачу, что по эмбеддингу должно быть возможно восстановить любую часть изображения.
Для текста задача реконструкции выглядит как декодирование. Берем подпись, делаем из неё эмбеддинг, а затем пытаемся из эмбеддинга декодировать подпись в оригинальном виде. Таким образом мы ставим задачу, что эмбеддинг должен сохранять все нюансы входного текста.
Подходы почти идентичные тем, что применили в SigLIP2! К тому же, как и там, Visual Encoder обучали с помощью DINO-like self-distillation.
Авторы называют лоссы реконструкции регуляризацией. Их задача – не дать модели забыть маленькие детали, которые необходимы VLM для решения сложных задач.
Для изображений это Masked Autoencoder сетап. Для каждой картинки пропущенной через визуальный энкодер мы получаем её эмбеддинг, подаем этот эмбеддинг и часть патчей оригинального изображения в небольшую модель. Остальные патчи заменяем маск-токенами. Задача модели: использовать эмбеддинг, чтобы попиксельно восстановить замаскированные патчи.
Таким образом мы ставим задачу, что по эмбеддингу должно быть возможно восстановить любую часть изображения.
Для текста задача реконструкции выглядит как декодирование. Берем подпись, делаем из неё эмбеддинг, а затем пытаемся из эмбеддинга декодировать подпись в оригинальном виде. Таким образом мы ставим задачу, что эмбеддинг должен сохранять все нюансы входного текста.
Подходы почти идентичные тем, что применили в SigLIP2! К тому же, как и там, Visual Encoder обучали с помощью DINO-like self-distillation.
Авторы называют лоссы реконструкции регуляризацией. Их задача – не дать модели забыть маленькие детали, которые необходимы VLM для решения сложных задач.
👍17🔥8❤5