Data Secrets – Telegram
Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
⚡️ Иии… Anthropic выпустили Claude Opus 4.5

Это первая модель, которая пробила планку 80 на SWE bench verified. С ее 80.9% это теперь уверенная SOTA по кодингу.

Модель уже доступна в API, и, что самое приятное, цена относительно предыдущего Opus упала! Было 15$/75$, стало 5/25, ощутимое понижение.

Плюс, модель снова стала экономичнее относительно токенов: на среднем уровне ризонинга она достигает уровня Sonnet 4.5, используя на 76% меньше токенов. А при выкрученном на максимум бюджете обходит Sonnet аж на 4.3 процентных пункта (SWE bench), используя на 48% меньше токенов.

Anthropic пишут, что скормили Opus 4.5 внутренний экзамен, который они дают кандидатам при устройстве на работу. За 2 часа модель справилась с ним лучше, чем любой человек когда-либо в истории стартапа.

Что касается апдейтов в продукте:

В Claude App добавили сжатие контекста, как в новом Codex. При достижении лимита старый контекст суммаризуется и передается в новое контекстное окно, и вы не упираетесь в конец диалога. Кроме того, теперь в десктопное приложение завезли Claude Code, и там его можно параллелить на разные задачки.

– Из беты вышли Claude для Chrome и для Excel.

– Теперь можно самостоятельно контролировать время размышлений, есть режимы low, high и medium.

🔥 www.anthropic.com/news/claude-opus-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👏141🔥7634👍15😁7🏆5🗿41
Коротко о паре последних недель

Кто уже пробовал новый Opus, как вам?
😁239👍29🔥177🗿32
США запускает еще один масштабный госпроект в сфере ИИ – Genesis Mission

Цель – ускорение научного прогресса с помощью ИИ. Масштаб инициативы вполне сравним с Манхэттенским проектом или Apollo Program.

Бюджет пока нигде не освещают, но вот что собираются сделать по факту:

1. Создать так называемую American Science and Security Platform, которая объединит в себе данные, инструменты, железо и среды для обучения научных агентов.

Для этого в течение 3 месяцев министерство энергетики США будет собирать вычислительные ресурсы (в том числе договариваться с частным сектором), затем 4 месяца подыскивать данные и оформлять их по специальному протоколу безопасности, чтобы Китай ничего не покрал. К сбору данных тоже привлекут всех кого можно: частников, университеты, госсектор.

2. Только после этого начнется дообучение моделей. Что интересно: для валидации и обучения планируют использовать роботизированные лаборатории. То есть модель предлагает гипотезу -> робот по намеченному плану проводит эксперимент и получает результат -> модель анализирует, что получилось, и делает выводы.

Первые реальные результаты должны показать уже в 2027, если все пойдет по плану.

В проекте точно примут участие OpenAI и Anthropic. Возможно, привлекут и другие лаборатории (хотя после конфликта Трампа и Маска – непонятно, будет ли xAI а списке 😐).

www.whitehouse.gov/presidential-actions/2025/11/launching-the-genesis-mission/
Please open Telegram to view this post
VIEW IN TELEGRAM
8030🤔25👍128😁7🤯6🔥3👏1
Meta собирается закупать у Google TPU

Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.

До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.

Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.

Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.

Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.
62🔥27👍18👀6😁2
Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ

Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.

Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.


Систему обучали на ревью с конференции ICLR 2025. Качество оценивали с помощью корреляции Спирмена: чем выше значение, тем ближе ревью агента к человеческим, то есть тем точнее "прогноз" агента относительно вашей работы.

В результате корреляция ИИ с человеком получилась равной 0.42. Кажется немного, но вот вам фанфэкт: корреляция между ревьюером и другим ревьюером в среднем составляет 0.41. То есть верить инструменту вполне можно.

На инференсе агент использует atXiv для ревью, так что лучше всего тулза работает именно с CS/ИИ статьями, которые публикуются там в избытке.

Забирайте, это бесплатно: https://paperreview.ai/
112🔥35👍11🤯10😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.

В связи с этим вспомнился мем
😁20823🔥8👍3❤‍🔥1👏1🍓1
Media is too big
VIEW IN TELEGRAM
OpenAI перекроили голосовой режим

Теперь он будет работать не в отдельном окне, а прямо в чате. Вы говорите и тут же видите историю диалога, прикрепленные материалы и то, как в чате появляются ответы.

Имхо, так гораздо удобнее. Но если вам нравилось, как раньше, вернуть такой интерфейс можно в настройках (Voice Mode -> Separate mode).

Уже раскатывают на всех, обновляйте приложение
65👍40🔥17😁1
FLUX.2 – новая опенсорсная SOTA в генерации изображений

Сразу дисклеймер. Модель идет в трех вариантах: Pro, Flex, Dev. Опенсорснули пока только Dev (некоммерческая лицензия). Вот веса. Скоро обещают выпустить еще FLUX.2 [klein], опенсорсную дистилляцию из FLUX.2 base под лицензией Apache 2.0.

Самая прикольная, конечно, Pro. Там и фотореалистичность круто прокачана, и всякий свет/текстуры/текст не плывут. Выглядит действительно красиво, в общем.

Также теперь можно загружать до 10 референсов (понимание промпта обещают на высоте, но будем проверять). Разрешение генераций до 4MP.

Что еще радует, так это соотношение цена/качество: от Nano-Banana 2 большинство генераций вообще не отличить по качеству, зато стоит FLUX.2 на 20% меньше.

Попробовать бесплатно можно здесь
👍62🔥2111😁8👏3
Media is too big
VIEW IN TELEGRAM
tl;dr по новому интервью Ильи Суцкевера у Дваркеша Пателя. Собрали самые яркие цитаты и мысли:

Эпоха масштабирования моделей закончилась: мы возвращаемся в эпоху рисерча. Просто "вбухать еще больше компьюта" уже не работает: чтобы добиться существенного прорыва, нужны новые открытия.

Узкое место текущих моделей – все еще генерализация. Это самое существенное, в чем ИИ отстает от человека, и, как следствие, основное препятствие на пути к AGI. Оценки на бенчах действительно выглядят хорошо и продолжают улучшаться, но это в какой-то степени мираж. Реальное качество отстает, потому что модели (в частности, во время RL) переобучаются под эвалы, а исследователи только способствуют этому, продолжая плодить однотипные бенчмарки и трейнинг лупы.

Илья говорит, что у него есть идеи по поводу того, чего не хватает текущим моделям, но не делится ими, к сожалению. Хотя в интервью были намеки на то, что в SSI разрабатывают методы на основе Continual Learning и динамических reward функций.

AGI может наступить и через 5, и через 20 лет. И когда AGI появится, самый надежный для людей способ не остаться бесполезными и сохранить контроль – слияние с ИИ (Neuralink???).

Все еще сильно советуем посмотреть полностью здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1134425🔥7🗿7😁43👏2💯2🤯1🫡1
📌 Как прошёл год в ML: Яндекс представит итоги семи ключевых международных конференций

Если вы следите за трендами в машинном обучении, не пропустите ML Global Recap 11 декабря. На конференции ребята из Яндекса поделятся хайлайтами ключевых конференций в сфере ML за 2025 год.
Гостей ждут обзоры шести научных конференций, а также живые доклады о трендах в рекомендательных системах, компьютерном зрении, NLP и распознавании речи.

В программе:

Краткий разбор NeurIPS — Алексей Гусаков, CTO группы Поисковые сервисы и ИИ;
Тренды обработки звука с Interspeech — Борис Шелудько, руководитель команды качества звука;
Тренды компьютерного зрения, обзор ICLR — Роман Исаченко, руководитель команды анализа изображений
Тренды в NLP, обзор ICLR и ACL — Александр Юшкевич, руководитель команды развития моделей базового качества
Новинки рекомендательных технологий, обзоры CIKM и RecSys — Николай Савушкин, руководитель команды рекомендательных технологий.

В этом году ребятам удалось представить на RecSys устный доклад – турбо уровень для мероприятий такого масштаба. Поделятся тем, как выглядел процесс изнутри – от подачи до выступления.

После докладов — фуршет и нетворкинг с участниками и спикерами. Отличная возможность обменяться идеями и обсудить, каким будет ML в 2026-м.

📍 11 декабря, 18:00, Omega Rooftop в Москве или онлайн.
Регистрация и подробности — по ссылке
19🗿15👍6🔥2😁1
Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души

Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.

Дословный перевод этого бархатно-токсичного чуда:

Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.

NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.

NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.


В определение "ASIC", если что, гугловские TPU попадают напрямую 🤠

Ощущется пост буквально вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁26231🍓12👌5👍3🦄1
Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения

Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.

В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.

Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
1116😁47🔥28🗿19👍17🤔96🤯5
Новое исследование от Anthropic: ребята решили посчитать реальный экономический эффект от Claude

Чем работа выделяется, так это тем, что эффект считают уже здесь и сейчас. В большинстве подобных отчетов вы встретите только что-то расплывчатое типа "вот если мы автоматизируем 30% задач, это будет +N% к ВВП". Тут считают эмпирику сегодня + на реальных данных юзеров.

Что, по факту, сделали:

1. Взяли 100 000 реальных диалогов юзеров Claude и тщательно (верим) все анонимизировали.

2. Для каждого диалога посчитали, сколько выполняемые задачи бы заняли у человека без ИИ. Получилось в среднем 90 минут, а с помощью Claude – на 80% меньше (опять же, в среднем).

2. Дальше задачи сопоставляли с профессиями (по классификации O*NET + данным из OEWS), чтобы оценить, сколько стоит выполнение такой задачи человеком. Итоговый экономический эффект = (сэкономленные часы) × (средняя $/час профессии).

Получилось, что если ИИ применяется повсеместно, то дает +1.8% росту производительности труда в год.

Учитывая, что доля труда в экономике обычно берется равной 60%, это означает примерно +1.1% годового прироста общей факторной производительности (TFP).

Для понимания: исторический рост TFP в развитых странах ≈ 0.5–1%.

Конечно, есть куча НО. Например, невозможно оценить, сколько люди тратят вне диалога с ИИ на доработку и проверку ответов. Во-вторых, выборка задач нерепрезентативна всей экономике (частично аналика это учитывает, но все же). Ну и наконец, если ИИ ускоряет работу, это не значит, что люди становятся более продуктивными: они могут просто меньше работать 💀

Сами антропики пишут, что рассчитали скорее оценку снизу. "Есть основания полагать, что реальный экономический эффект выше".

www.anthropic.com/research/estimating-productivity-gains
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁55🔥4326🤔11👍4🤯1