Data Secrets – Telegram
Data Secrets
84.9K subscribers
6.45K photos
670 videos
20 files
2.73K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Meta собирается закупать у Google TPU

Знаменательна эта сделка тем, что Meta станет первой крупной компанией, которая купит TPU для установки в собственные дата-центры.

До этого в этом году на гугловское железо уже заключали большие контракты Anthropic и SSI Ильи Суцкевера, а про OpenAI даже ходили слухи, что они хотят полностью пересесть на TPU.

Но это все было про аренду мощностей в облаке, а Meta станут, по факту, пионерами в непосредственном физическом владении чипами. Интеграцию TPU в свои центры они начнут в 2027.

Для Google эта сделка – не просто хорошие деньги, но и важный стратегический рубеж.

Подписать такой контракт – значит окончательно и публично подтвердить свои аппаратные амбиции. У Google есть реальная возможность расширить присутствие TPU на рынке, и их аналитики считают, что компания может оттяпать у Nvidia аж 10% выручки.
62🔥27👍18👀6😁2
Рисерчеры и студенты, это для вас: легендарный Эндрю Ын (сооснователь Coursera и доцент Стэнфоррда) сделал ИИ-ревьюера для научных работ

Суть проекта – в быстром пред-ревью вашей работы перед тем, как вы отправите ее в журнал или научруку. Человеческое ревью длится неделями и даже месяцами, а тут вы можете предвательно оценить, насколько исследование "понравится" ревьюерам и заранее исправить замечания, которые обнаружит агент.

Меня вдохновила история студента, чью работу отклоняли 6 раз за 3 года. Цикл обратной связи обычно занимает примерно пол года, и это мучительно долго. Я захотел проверить, насколько агенты смогут помочь исследователям ускорить процесс.


Систему обучали на ревью с конференции ICLR 2025. Качество оценивали с помощью корреляции Спирмена: чем выше значение, тем ближе ревью агента к человеческим, то есть тем точнее "прогноз" агента относительно вашей работы.

В результате корреляция ИИ с человеком получилась равной 0.42. Кажется немного, но вот вам фанфэкт: корреляция между ревьюером и другим ревьюером в среднем составляет 0.41. То есть верить инструменту вполне можно.

На инференсе агент использует atXiv для ревью, так что лучше всего тулза работает именно с CS/ИИ статьями, которые публикуются там в избытке.

Забирайте, это бесплатно: https://paperreview.ai/
112🔥35👍11🤯10😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Читаем сейчас системную карту Opus 4.5, там гигантская глава про элаймент. На контрасте с OpenAI ребята конечно очень упарываются по безопасности.

В связи с этим вспомнился мем
😁20923🔥8👍3❤‍🔥1👏1🍓1
Media is too big
VIEW IN TELEGRAM
OpenAI перекроили голосовой режим

Теперь он будет работать не в отдельном окне, а прямо в чате. Вы говорите и тут же видите историю диалога, прикрепленные материалы и то, как в чате появляются ответы.

Имхо, так гораздо удобнее. Но если вам нравилось, как раньше, вернуть такой интерфейс можно в настройках (Voice Mode -> Separate mode).

Уже раскатывают на всех, обновляйте приложение
66👍41🔥17😁1
FLUX.2 – новая опенсорсная SOTA в генерации изображений

Сразу дисклеймер. Модель идет в трех вариантах: Pro, Flex, Dev. Опенсорснули пока только Dev (некоммерческая лицензия). Вот веса. Скоро обещают выпустить еще FLUX.2 [klein], опенсорсную дистилляцию из FLUX.2 base под лицензией Apache 2.0.

Самая прикольная, конечно, Pro. Там и фотореалистичность круто прокачана, и всякий свет/текстуры/текст не плывут. Выглядит действительно красиво, в общем.

Также теперь можно загружать до 10 референсов (понимание промпта обещают на высоте, но будем проверять). Разрешение генераций до 4MP.

Что еще радует, так это соотношение цена/качество: от Nano-Banana 2 большинство генераций вообще не отличить по качеству, зато стоит FLUX.2 на 20% меньше.

Попробовать бесплатно можно здесь
👍62🔥2112😁8👏3
Media is too big
VIEW IN TELEGRAM
tl;dr по новому интервью Ильи Суцкевера у Дваркеша Пателя. Собрали самые яркие цитаты и мысли:

Эпоха масштабирования моделей закончилась: мы возвращаемся в эпоху рисерча. Просто "вбухать еще больше компьюта" уже не работает: чтобы добиться существенного прорыва, нужны новые открытия.

Узкое место текущих моделей – все еще генерализация. Это самое существенное, в чем ИИ отстает от человека, и, как следствие, основное препятствие на пути к AGI. Оценки на бенчах действительно выглядят хорошо и продолжают улучшаться, но это в какой-то степени мираж. Реальное качество отстает, потому что модели (в частности, во время RL) переобучаются под эвалы, а исследователи только способствуют этому, продолжая плодить однотипные бенчмарки и трейнинг лупы.

Илья говорит, что у него есть идеи по поводу того, чего не хватает текущим моделям, но не делится ими, к сожалению. Хотя в интервью были намеки на то, что в SSI разрабатывают методы на основе Continual Learning и динамических reward функций.

AGI может наступить и через 5, и через 20 лет. И когда AGI появится, самый надежный для людей способ не остаться бесполезными и сохранить контроль – слияние с ИИ (Neuralink???).

Все еще сильно советуем посмотреть полностью здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1144425🔥7🗿7😁43👏2💯2🤯1🫡1
Nvidia сегодня снова в центре внимания: они внезапно выложили самодовольный твит, в котором поздравили Google с успехом, но (скажем так) не от всей души

Напоминаем, что вчера стало известно, что Meta впервые в истории закупит у Google TPU для установки в свои датацентры (мы об этом вот тут писали). Так вот, на фоне новости акции Nvidia упали аж на 6 пунктов, и компания, видимо, решила "ненавязчиво" напомнить, кто тут главный.

Дословный перевод этого бархатно-токсичного чуда:

Мы рады успехам Google – они действительно заметно продвинулись в ИИ, и при этом мы продолжаем оставаться их поставщиком.

NVIDIA опережает всю отрасль как минимум на одно поколение – это единственная платформа, способная запускать любые модели ИИ и использоваться повсюду, где идут вычисления.

NVIDIA предлагает более высокую производительность, гибкость и взаимозаменяемость по сравнению с ASIC-чипами, которые заточены под конкретные фреймворки или отдельные задачи.


В определение "ASIC", если что, гугловские TPU попадают напрямую 🤠

Ощущется пост буквально вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁26231🍓12👌5👍3🦄1
Российские ученые первыми нашли способ защитить модели компьютерного зрения от пиратства без дополнительного обучения

Метод представили на ICCV 2025(A*), где его положительно оценили эксперты из таких гигантов как Amazon, Google и других ведущих университетов. Команда из научной лаборатории ИИ Центрального университета предложила механизм, который защищает готовые нейросети по принципу лицензионного ключа.

В модель добавляется специальный нейрон, который не реагирует на обычные изображения, но активируется при появлении секретного ключа – это и позволяет подтвердить авторство. А “нейроны-нарушители” делают модель работоспособной только при наличии ключа. Без него она начинает вносить помехи.

Главное: решение подходит для любых моделей CV, не требует вычислений и практически полностью исключает ложные срабатывания. Это открывает путь к массовой коммерциализации и реальной защите моделей компьютерного зрения от копирования.
1116😁47🔥28🗿19👍17🤔96🤯5
Новое исследование от Anthropic: ребята решили посчитать реальный экономический эффект от Claude

Чем работа выделяется, так это тем, что эффект считают уже здесь и сейчас. В большинстве подобных отчетов вы встретите только что-то расплывчатое типа "вот если мы автоматизируем 30% задач, это будет +N% к ВВП". Тут считают эмпирику сегодня + на реальных данных юзеров.

Что, по факту, сделали:

1. Взяли 100 000 реальных диалогов юзеров Claude и тщательно (верим) все анонимизировали.

2. Для каждого диалога посчитали, сколько выполняемые задачи бы заняли у человека без ИИ. Получилось в среднем 90 минут, а с помощью Claude – на 80% меньше (опять же, в среднем).

2. Дальше задачи сопоставляли с профессиями (по классификации O*NET + данным из OEWS), чтобы оценить, сколько стоит выполнение такой задачи человеком. Итоговый экономический эффект = (сэкономленные часы) × (средняя $/час профессии).

Получилось, что если ИИ применяется повсеместно, то дает +1.8% росту производительности труда в год.

Учитывая, что доля труда в экономике обычно берется равной 60%, это означает примерно +1.1% годового прироста общей факторной производительности (TFP).

Для понимания: исторический рост TFP в развитых странах ≈ 0.5–1%.

Конечно, есть куча НО. Например, невозможно оценить, сколько люди тратят вне диалога с ИИ на доработку и проверку ответов. Во-вторых, выборка задач нерепрезентативна всей экономике (частично аналика это учитывает, но все же). Ну и наконец, если ИИ ускоряет работу, это не значит, что люди становятся более продуктивными: они могут просто меньше работать 💀

Сами антропики пишут, что рассчитали скорее оценку снизу. "Есть основания полагать, что реальный экономический эффект выше".

www.anthropic.com/research/estimating-productivity-gains
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁55🔥4326🤔11👍4🤯1
Курица не птица, рисерчер с волосами – не авторитет
😁306👍20🔥131044🤔1
Тем временем на ARC-AGI-2 ИИ-системе впервые удалось превзойти уровень человека

В лаборатории Poetiq придумали, как можно соединять разные LLM так, чтобы в разы бустить их производительность (кому интересно, внизу оставим ссылку на код). И вот 20 ноября они заявили, что их подход – микс Gemini 3 и GPT-5.1 – впервые дал на бенчмарке результат, превосходящий человека.

Правда, это только на публичном evaluation-сете. При переносе на semi-private результат, скорее всего, ухудшится. Но учитывая, что по отдельности модели даже близко не дотягивают до 60% (у Gemini 3 45%, у GPT-5 около 20%), все равно новость занятная.

Еще пол года назад ARC-AGI-2 казался для ИИ вообще нерешаемым, а самые топовые модели выбивали на нем 1-2%.

Блогпост | Код
❤‍🔥83🔥372013👍11😁8🤯8🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
В честь пятилетия AlphaFold Google впервые выложили в бесплатный доступ фильм про DeepMind

Картина называется The Thinking Game, наверняка кто-то из вас ее уже смотрел. Фильм вышел летом 2024, но до этого дня был доступен только на платных площадках.

Сегодня, в честь 5-летия AlphaFold, Google впервые бесплатно выложили его на YouTube.

Документалка снималась с 2019 и рассказывает о Демисе Хассабисе, основателе и CEO DeepMind, его команде и ключевых моментах разработки легендарных систем вроде AlphaGo, AlphaZero и AlphaFold.

100% советуем к просмотру: https://youtu.be/d95J8yzvjbQ
👍90🔥321212😁2
Я на любом рабочем дейлике, когда речь заходит о моих задачах
😁204👍181184🔥3