Data Secrets
Юра Борисов может сыграть Илью Суцкевера в фильме про увольнение Альтмана Фильм снимает режиссер «Претендентов». В сюжете – события осени 2023, когда Сэма драматически уволили, а потом восстановили на позицию CEO OpenAI. На роль Альтмана, кстати, хотят…
Папарацци сняли Эндрю Гарфилда в образе Альтмана и Юру Борисова в образе Суцкевера на съемках фильма Artificial (про события осени 2023 и увольнение Сэма из OpenAI)
Лучше второй фотографии вы сегодня точно ничего не увидите🐘
Лучше второй фотографии вы сегодня точно ничего не увидите
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁320 42 38 21❤20👍16🔥5🐳3🗿3👻2
Google выпустили Gemma 3 270М – одну из самых компактных моделей индустрии
Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.
И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.
Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться👉
Отличная штука для экспериментов, в общем
Веса
Да, именно 270M, а не B. Совсем кроха, которую запустить действительно можно чуть ли не на утюге. Она и создана специально для этого, и даже оптимизирована с точки зрения энергоэффективности: в INT4 квантизации на Pixel 9 Pro съедает всего 0.75% батареи за 25 диалогов.
И кстати, для такого размера очень неплохие показатели следования инструкциям: на IF-Eval 51.2%. По этому показателю модель обходит даже Qwen 2.5 0.5В, который почти в два раза больше.
Для чего использовать:
1. Конечно, локальный запуск. Для кода не подойдет, но для генерации простого текста сгодится.
2. Быстрое простое дообучение под вашу задачу (например, под entity extraction или какой-нибудь sentiment-анализ подойдет отлично).
3. Edge/Internet of Things. Модельку реально можно встроить в колонку, чайник или холодильник и развлекаться
Отличная штука для экспериментов, в общем
Веса
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥203👍55❤29🤩4👌4❤🔥2😁1🤝1
Media is too big
VIEW IN TELEGRAM
В Китае прошел забег роботов
Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.
Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.
Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет😳
Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.
Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.
Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет
Please open Telegram to view this post
VIEW IN TELEGRAM
😁162❤60🔥24 14👾8👍4⚡3🤯3🗿3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
MetaAI выпустили DINOv3 – первую в мире vision foundation модель, которая обходит по качеству специализированные решения
Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.
При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.
Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.
Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:
Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.
Как использовать на практике:
➖ Вот тут лежит бэкбон. Это основная часть сетки, которую в большинстве случаев вам дообучать не придется. Он уже заморожен и готов к применению.
➖ К нему цепляем адаптер. Это обычно небольшой дополнительный линейный слой или линейная голова. Адаптер преобразует фичи из бэкбона под конкретную задачу: классификацию, сегментацию, детекцию, depth estimation и тд.
➖ Если задач сразу несколько, можно шарить фичи на лету. То есть стоимость и время инференса почти не увеличатся, а сетка будет выполнять для вас сразу несколько тасок.
Спасибо, Цукер, сегодня порадовал
Блогпост
Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.
При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.
Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.
Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:
1. На каждое изображение применяют набор аугментаций. Например, вырезают из него какие-то части (кропы).
2. Разные варианты изображения (разные кропы) поступают на вход студенту и учителю. Это две копии одной нейросети, но изначально с разными весами.
3. Студента учат воспроизводить предсказания учителя для кропов из одного и того же изображения, даже если сами кропы абсолютно разные. Лосс – кросс-энтропия между выходом студента и учителя, но градиент считают только по студенту.
Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.
Как использовать на практике:
Спасибо, Цукер, сегодня порадовал
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯132👍77🔥47❤32 6☃1👏1😁1
В Claude Code добавили два новых режима работы
1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.
2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.
Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.
Приятно 🍯
Документация
1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.
2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.
Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.
Приятно 🍯
Документация
3❤208🔥68👍22🤔4🤯4😁2
В ближайшем будущем рекомендации в X могут начать работать на Grok 4 Mini
Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.
Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.
Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
👍106 59🤯18❤10🗿5😁3🔥1
Хаха, зацените: внутренний мерч Anthropic
Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)
Теперь срочно надо такую же😛
Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)
Теперь срочно надо такую же
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁317🔥73❤38👍14🦄9🗿7👀5❤🔥1👌1
Data Secrets
Пошел слух, что скоро выйдет DeepSeek R2 Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели. Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга…
Оказалось, что DeepSeek откладывают запуск R2 не просто так, а как раз из-за перехода на те самые чипы Huawei Ascend 910
Об этом пишет FT со ссылкой на анонимные источники. Говорят, после бума релиза R1 китайские власти плотно взялись за DeepSeek и буквально заставили их перейти на отечественные чипы.
И вроде бы все ничего: на бумаге Ascend выглядят даже лучше H20 от Nvidia. Там и памяти побольше, и производительность заявлена неплохая. Но это все, видимо, в теории.
А на практике дипсику даже выделили команду инженеров Huawei, чтобы те помогли адаптировать всю инфру под новое железо, НО ни одного трейнлупа на этих чипах завершить так и не удалось.
Во-первых, из-за низкой надежности видеокарт, медленного соединения и хромого ПО. Во-вторых, из-за того что вся экосистема DeepSeek годами оптимизировалась именно под Nvidia. Например, у них там все на fp8, а 910 этот формат даже не поддерживает🤷♂️
Короче сейчас, вроде как, Ascend оставили только для инференса, а обучать будут-таки на H20. Вот только жаль, что пока сыр до бор, время уже ушло…
Об этом пишет FT со ссылкой на анонимные источники. Говорят, после бума релиза R1 китайские власти плотно взялись за DeepSeek и буквально заставили их перейти на отечественные чипы.
И вроде бы все ничего: на бумаге Ascend выглядят даже лучше H20 от Nvidia. Там и памяти побольше, и производительность заявлена неплохая. Но это все, видимо, в теории.
А на практике дипсику даже выделили команду инженеров Huawei, чтобы те помогли адаптировать всю инфру под новое железо, НО ни одного трейнлупа на этих чипах завершить так и не удалось.
Во-первых, из-за низкой надежности видеокарт, медленного соединения и хромого ПО. Во-вторых, из-за того что вся экосистема DeepSeek годами оптимизировалась именно под Nvidia. Например, у них там все на fp8, а 910 этот формат даже не поддерживает
Короче сейчас, вроде как, Ascend оставили только для инференса, а обучать будут-таки на H20. Вот только жаль, что пока сыр до бор, время уже ушло…
Please open Telegram to view this post
VIEW IN TELEGRAM
👍100 80🫡33 25❤22 16😁14🤯5✍1🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets
Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.
Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.
Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.
Легко запускается локально, инструкция лежит у них на гите.
github.com/huggingface/aisheets
Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.
Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.
Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.
Легко запускается локально, инструкция лежит у них на гите.
github.com/huggingface/aisheets
5❤164🔥70👍32😁3🤔2
Появился новый бенчмарк, который оценивает способность ИИ предсказывать будущее – Prophet Arena
Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.
Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.
Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.
Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.
Пока лидерборд такой:
3 место – Gemini 2.5 Pro
2 место – o3
1 место – GPT-5
(Ну и гран-при – Симпсоны)
А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.
Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) смотрите тут: www.prophetarena.co/
Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.
Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.
Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.
Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.
Пока лидерборд такой:
3 место – Gemini 2.5 Pro
2 место – o3
1 место – GPT-5
(Ну и гран-при – Симпсоны)
А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.
Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) смотрите тут: www.prophetarena.co/
2❤113👍45🔥24😁18
Claude Opus 4 и 4.1 впервые в мире получили функцию «завершения диалога»
Теперь, если вы слишком долго будете пытаться выбить из бота что-то запрещенное или не прекращая оскорблять кого-то, включая саму модель, она может решить просто не говорить с вами дальше и завершить диалог.
Говорят, что большинство пользователей никогда с таким не столкнется, потому что функция активируется только как последнее средство, когда все попытки перенаправить диалог в конструктивное русло не дали результата. И тем не менее, это вообще первый в мире случай, когда у модели появляется что-то типа права выбирать, «хочет» ли она вести диалог.
И Anthropic утверждают, что делают это НЕ потому что наделяют ИИ сознанием. В то же время, они вводят термин «model welfare», то есть «благополучие модели» и не отрицают возможности обсуждать, например, стресс моделей или их поведенческие реакции в контексте элаймента и безопасности.
www.anthropic.com/research/end-subset-conversations
Теперь, если вы слишком долго будете пытаться выбить из бота что-то запрещенное или не прекращая оскорблять кого-то, включая саму модель, она может решить просто не говорить с вами дальше и завершить диалог.
Говорят, что большинство пользователей никогда с таким не столкнется, потому что функция активируется только как последнее средство, когда все попытки перенаправить диалог в конструктивное русло не дали результата. И тем не менее, это вообще первый в мире случай, когда у модели появляется что-то типа права выбирать, «хочет» ли она вести диалог.
И Anthropic утверждают, что делают это НЕ потому что наделяют ИИ сознанием. В то же время, они вводят термин «model welfare», то есть «благополучие модели» и не отрицают возможности обсуждать, например, стресс моделей или их поведенческие реакции в контексте элаймента и безопасности.
www.anthropic.com/research/end-subset-conversations
1🗿105 46👍36❤31😁12 11🔥7🤯2 2👌1
Data Secrets
Claude Opus 4 и 4.1 впервые в мире получили функцию «завершения диалога» Теперь, если вы слишком долго будете пытаться выбить из бота что-то запрещенное или не прекращая оскорблять кого-то, включая саму модель, она может решить просто не говорить с вами дальше…
Пример того, как это будет работать
2😁425 111 23❤8🗿5 5😎3🔥2💯2👏1🤯1
Media is too big
VIEW IN TELEGRAM
Qwen только что релизнули собственную Image Edit модель
В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.
Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.
Ну и результаты довольно приятные. По крайней мере, по первым примерам. К тому же в чате можно попробовать бесплатно.
Ну и конечно, все как всегда в опенсорсе (веса, гитхаб)
Короче, теперь у Qwen сформировалась настоящая полноценная экосистема моделей на любой вкус и задачу, с чем мы нас всех и поздравляем
В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.
Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.
Ну и результаты довольно приятные. По крайней мере, по первым примерам. К тому же в чате можно попробовать бесплатно.
Ну и конечно, все как всегда в опенсорсе (веса, гитхаб)
Короче, теперь у Qwen сформировалась настоящая полноценная экосистема моделей на любой вкус и задачу, с чем мы нас всех и поздравляем
7🔥167👍31❤26🤗4👏3😁2🤯2
Ха, Meta* открыли в своей новой лаборатории «обычную» вакансию не за миллионы долларов
Позиция – Product Operations Manager. Ставка – всего лишь 122 000-177 000 $ в год.
То есть, по самым грубым рассчетам, «бедняга» будет получать в десятки раз меньше всех своих коллег🥹
Непонятно, как вообще выживать на такую сумму…
www.metacareers.com/jobs/717327034414949
Позиция – Product Operations Manager. Ставка – всего лишь 122 000-177 000 $ в год.
То есть, по самым грубым рассчетам, «бедняга» будет получать в десятки раз меньше всех своих коллег
Непонятно, как вообще выживать на такую сумму…
www.metacareers.com/jobs/717327034414949
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁120😎45🤯15❤9👍4☃1
Сейчас будет интересная история про ИИ и физику
В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.
Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.
Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.
И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.
Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.
Это не все. Система не просто нашла лучшие решения, а внезапно переоткрыла старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще несколько десятилетий назад, но до этого дня никто не пытался реализовать эту идею на практике. И тут в 2025 году ее воссоздала уже ИИ-система🚨
Ну разве не в удивительное время живем?
www.wired.com/story/ai-comes-up-with-bizarre-physics-experiments-but-they-work/
В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.
Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.
Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.
И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.
Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.
Это не все. Система не просто нашла лучшие решения, а внезапно переоткрыла старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще несколько десятилетий назад, но до этого дня никто не пытался реализовать эту идею на практике. И тут в 2025 году ее воссоздала уже ИИ-система
Ну разве не в удивительное время живем?
www.wired.com/story/ai-comes-up-with-bizarre-physics-experiments-but-they-work/
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤268🤯127🔥64👍12😁9😍8👀5🤔4 4☃2🤨1