Data Secrets – Telegram
Data Secrets
78.5K subscribers
6.35K photos
652 videos
20 files
2.64K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Data Secrets
Юра Борисов может сыграть Илью Суцкевера в фильме про увольнение Альтмана Фильм снимает режиссер «Претендентов». В сюжете – события осени 2023, когда Сэма драматически уволили, а потом восстановили на позицию CEO OpenAI. На роль Альтмана, кстати, хотят…
Папарацци сняли Эндрю Гарфилда в образе Альтмана и Юру Борисова в образе Суцкевера на съемках фильма Artificial (про события осени 2023 и увольнение Сэма из OpenAI)

Лучше второй фотографии вы сегодня точно ничего не увидите 🐘
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁32042382120👍16🔥5🐳3🗿3👻2
Google выпустили Gemma 3 270М – одну из самых компактных моделей индустрии

Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.

И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.

Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться 👉

Отличная штука для экспериментов, в общем

Веса
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥203👍5529🤩4👌4❤‍🔥2😁1🤝1
Media is too big
VIEW IN TELEGRAM
В Китае прошел забег роботов

Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.

Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.

Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
😁16260🔥2414👾8👍43🤯3🗿3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
MetaAI выпустили DINOv3 – первую в мире vision foundation модель, которая обходит по качеству специализированные решения

Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.

При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.

Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.

Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:

1. На каждое изображение применяют набор аугментаций. Например, вырезают из него какие-то части (кропы).
2. Разные варианты изображения (разные кропы) поступают на вход студенту и учителю. Это две копии одной нейросети, но изначально с разными весами.
3. Студента учат воспроизводить предсказания учителя для кропов из одного и того же изображения, даже если сами кропы абсолютно разные. Лосс – кросс-энтропия между выходом студента и учителя, но градиент считают только по студенту.


Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.

Как использовать на практике:
Вот тут лежит бэкбон. Это основная часть сетки, которую в большинстве случаев вам дообучать не придется. Он уже заморожен и готов к применению.
К нему цепляем адаптер. Это обычно небольшой дополнительный линейный слой или линейная голова. Адаптер преобразует фичи из бэкбона под конкретную задачу: классификацию, сегментацию, детекцию, depth estimation и тд.
Если задач сразу несколько, можно шарить фичи на лету. То есть стоимость и время инференса почти не увеличатся, а сетка будет выполнять для вас сразу несколько тасок.

Спасибо, Цукер, сегодня порадовал

Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯132👍77🔥473261👏1😁1
В Claude Code добавили два новых режима работы

1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.

2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.

Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.

Приятно 🍯

Документация
3208🔥68👍22🤔4🤯4😁2
Случайно наткнулись

Это статья 2018 года. Получается, всего 7 лет назад.

Если бы они тогда знали…
2😁172472115🗿76🔥4👍2
В ближайшем будущем рекомендации в X могут начать работать на Grok 4 Mini

Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.

Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
👍10659🤯1810🗿5😁3🔥1
Хаха, зацените: внутренний мерч Anthropic

Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)

Теперь срочно надо такую же 😛
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁317🔥7338👍14🦄9🗿7👀5❤‍🔥1👌1
Data Secrets
Пошел слух, что скоро выйдет DeepSeek R2 Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели. Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга…
Оказалось, что DeepSeek откладывают запуск R2 не просто так, а как раз из-за перехода на те самые чипы Huawei Ascend 910

Об этом пишет FT со ссылкой на анонимные источники. Говорят, после бума релиза R1 китайские власти плотно взялись за DeepSeek и буквально заставили их перейти на отечественные чипы.

И вроде бы все ничего: на бумаге Ascend выглядят даже лучше H20 от Nvidia. Там и памяти побольше, и производительность заявлена неплохая. Но это все, видимо, в теории.

А на практике дипсику даже выделили команду инженеров Huawei, чтобы те помогли адаптировать всю инфру под новое железо, НО ни одного трейнлупа на этих чипах завершить так и не удалось.

Во-первых, из-за низкой надежности видеокарт, медленного соединения и хромого ПО. Во-вторых, из-за того что вся экосистема DeepSeek годами оптимизировалась именно под Nvidia. Например, у них там все на fp8, а 910 этот формат даже не поддерживает 🤷‍♂️

Короче сейчас, вроде как, Ascend оставили только для инференса, а обучать будут-таки на H20. Вот только жаль, что пока сыр до бор, время уже ушло…
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10080🫡33252216😁14🤯51🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets

Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.

Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.

Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.

Легко запускается локально, инструкция лежит у них на гите.

github.com/huggingface/aisheets
5164🔥70👍32😁3🤔2
Появился новый бенчмарк, который оценивает способность ИИ предсказывать будущее – Prophet Arena

Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.

Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.

Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.

Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.

Пока лидерборд такой:
3 место – Gemini 2.5 Pro
2 место – o3
1 место – GPT-5
(Ну и гран-при – Симпсоны)

А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.

Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) смотрите тут: www.prophetarena.co/
2113👍45🔥24😁18
Наконец-то стали известны названия тех самых профессий будущего, которые создает ИИ на рынке труда
1😁550❤‍🔥3320139🔥6🕊5👍2🗿1
Claude Opus 4 и 4.1 впервые в мире получили функцию «завершения диалога»

Теперь, если вы слишком долго будете пытаться выбить из бота что-то запрещенное или не прекращая оскорблять кого-то, включая саму модель, она может решить просто не говорить с вами дальше и завершить диалог.

Говорят, что большинство пользователей никогда с таким не столкнется, потому что функция активируется только как последнее средство, когда все попытки перенаправить диалог в конструктивное русло не дали результата. И тем не менее, это вообще первый в мире случай, когда у модели появляется что-то типа права выбирать, «хочет» ли она вести диалог.

И Anthropic утверждают, что делают это НЕ потому что наделяют ИИ сознанием. В то же время, они вводят термин «model welfare», то есть «благополучие модели» и не отрицают возможности обсуждать, например, стресс моделей или их поведенческие реакции в контексте элаймента и безопасности.

www.anthropic.com/research/end-subset-conversations
1🗿10546👍3631😁1211🔥7🤯22👌1
Media is too big
VIEW IN TELEGRAM
Qwen только что релизнули собственную Image Edit модель

В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.

Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.

Ну и результаты довольно приятные. По крайней мере, по первым примерам. К тому же в чате можно попробовать бесплатно.

Ну и конечно, все как всегда в опенсорсе (веса, гитхаб)

Короче, теперь у Qwen сформировалась настоящая полноценная экосистема моделей на любой вкус и задачу, с чем мы нас всех и поздравляем
7🔥167👍3126🤗4👏3😁2🤯2
Ха, Meta* открыли в своей новой лаборатории «обычную» вакансию не за миллионы долларов

Позиция – Product Operations Manager. Ставка – всего лишь 122 000-177 000 $ в год.

То есть, по самым грубым рассчетам, «бедняга» будет получать в десятки раз меньше всех своих коллег 🥹

Непонятно, как вообще выживать на такую сумму…

www.metacareers.com/jobs/717327034414949
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁120😎45🤯159👍41
Сейчас будет интересная история про ИИ и физику

В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.

Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.

Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.

И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.

Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.

Это не все. Система не просто нашла лучшие решения, а внезапно переоткрыла старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще несколько десятилетий назад, но до этого дня никто не пытался реализовать эту идею на практике. И тут в 2025 году ее воссоздала уже ИИ-система 🚨

Ну разве не в удивительное время живем?

www.wired.com/story/ai-comes-up-with-bizarre-physics-experiments-but-they-work/
Please open Telegram to view this post
VIEW IN TELEGRAM
2268🤯127🔥64👍12😁9😍8👀5🤔442🤨1
Breaking: Илон Маск положительно высказался о GPT-5

P.S. На самом деле умение модели говорить «не знаю» действительно впечатляет.
321👍111😁69🔥15🤯7❤‍🔥4😎1
Сны при температуре 38:
1😁224🔥49👍11🤩97