Data Secrets – Telegram
Data Secrets
78.5K subscribers
6.35K photos
652 videos
20 files
2.64K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
PostgreSQL опубликовали топ-50 главных контрибьюторов проекта: в список вошел Андрей Бородин, руководитель разработки СУБД с открытым исходным кодом в Yandex Cloud

На данный момент PostgreSQL является самой популярной опенсорсной СУБД в мире. Особенно в сегменте ИИ- и ML-проектов: векторный поиск помогает моделям быстрее находить и анализировать нужную информацию. Например, PostgreSQL применяют при создании ChatGPT.

Получить статус контрибьютора в проекте очень нелегко: нужно не просто коммитить, но и проходить долгое строгое ревью. Процент коммитов, которые в конечном счете одобряют, довольно мал, – доработка должна быть действительно существенной.

Андрей стабильно контрибьютит с 2016, четвертый раз входит в топ-50 контрибьюторов года и теперь имеет статус major contributors. Их в проекте всего 52, этот статус выше, чем significant contributor, и означает, что разработчик "оказывает существенное влияние на кодовую базу и процессы".

Интересно, что вклад команды Бородина не ограничивается только ядром PostgreSQL. Недавно они разработали SPQR (Stateless Postgres Query Router), систему с открытым исходным кодом для горизонтального масштабирования PostgreSQL через шардирование. Она уже доступна сообществу: если любите Postgres, потрогать проект можно здесь.

Отдаем дань уважения 👒
1206👍81🔥30🎄6🗿3😁1
RL не улучшает навыки ризонинга модели

Тренд на негативные статьи о том, что "что-то не работает или работает не так, как мы думали", остается с нами. В этот раз хайпует китайская работа под названием "Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?".

Мы все привыкли к тому, что в целом ризонинг – это про RL*. Но в этой статье показано, что на самом деле ничего сверхъестественного RL не вносит, а просто переупаковывает то, что уже было в распределении базовой модели.

Как это проверяли?

Основная метрика – pass@k: задача считается решенной, если среди k попыток модели (сэмплов) есть хотя бы одна правильная. Для авторской гипотезы метрика как раз очень подходит, потому что отражает именно потенциал модели решать задачу при разумном числе попыток.

И вот что получается. При малых k RLVR-модели действительно чаще попадают в правильный ответ (то есть у них выше pass@1), но при росте k базовые модели догоняют и превосходят RLVR практически на всех наборах задач и семейств моделей.

Это значит, что эти методы не расширяют границы решаемости задач (в том числе математических и кодовых), они просто повышают эффективность семплирования уже существующих траекторий aka вероятность сразу пойти по нужному пути, и поэтому работают. Плохо ли это? Нет. Но означает, что и слишком больших надежд на RLVR возлагать не стоит: все равно все опять упирается в претрен.

* Дисклеймер: в статье речь именно про RLVR, то есть Reinforcement Learning with Verifiable Rewards. RLHF, например, сюда не относится, но вот куча других популярных алгосов, типа PPO/GRPO/Reinforce++ и тд – да.
90👍38🤔11🔥10😁3🤨2
Meta* поделились деталями о новой модели GEM, которая теперь лежит в основе их рекомендательных систем

Это гибридная архитектура на основе трансформера (вдохновенная, естественно, LLM). Заявляется, что модель настолько хороша, что уже привела к заметному росту конверсий на рекламу: +5% в Instagram и +3% в Facebook за второй квартал.

Скачки очень существенные, поэтому давайте смотреть, что у модели внутри. Главных технических фишечки тут три:

1. Входные данные делятся на две группы: последовательные признаки (истории действий пользователя, клики, просмотры и тд) и непоследовательные (локация, возраст, свойства рекламы и пр). Чтобы не сваливать их в одну кучу и не замыливать сигналы, используется так называемый InterFormer с динамическим чередованием. Сначала последовательности событий обрабатываются кастомным трансформер-блоком, затем слой объединяет эти выходы со статичными признаками через кросс-фичевые interaction-блоки, после чего цикл продолжается на следующем уровне.

2. Кроме того, нам нужно учитывать связи признаков из двух групп. Для этого работает целый отдельный компонент Wukong. Он состоит из стековых факторизационных машин, которые ищут неочевидные связи между признаками (почему пользователь повел себя так или вот так).

3. Для длинных последовательностей (то есть долгих пользовательских историй) применяется собственная пирамидальная параллельная структура. Она нужна, чтобы не столкнуться с пресловутым экспоненциальным ростом затрат при увеличении длины последовательности. Все цепочка сначала разбивается на более мелкие -> они обрабатываются -> итоги образуют следующий уровень эмбеддингов -> они снова делятся на кусочки и обрабатываются -> и так далее, пока все не схлопнется окончательно.


В итоге мы получаем: (а) масштабируемость; (б) возможность эффективно учитывать все фичи и их связи; (в) адекватное поведение модели на длинных последовательностях. Ну и судя по скачкам конверсий, работает это неплохо. Еще пишут, что планируют добавить ризонинг.

Если интересуетесь рексисами, обязательно почитайте статью полностью
46👍27🔥15🤔4😁2👌1
Внезапный факт: Anthropic может выйти в плюс гораздо раньше OpenAI

WSJ проанализировали финансовые отчеты обеих компаний и выяснили, что Anthropic, судя по всему, пройдет точку безубыточности уже в 2028. OpenAI же в 2028 все еще будет уходить в минус, причем в немаленький: по предварительным оценкам, убыток составит ~74 миллиарда долларов.

Ранее OpenAI обещали, что начнут зарабатывать в 2029, но теперь ясно, что это случится не раньше 30 года. Уж слишком много они планируют потратить на инфраструктуру (журналисты пишут об 1.4 триллионах за 8 лет).

Стратегия Anthropic другая, у них расходы растут примерно с той же скоростью, что и доходы. И кстати, 80% их выручки все еще приходится на корпоративных клиентов.
👍86🔥3120😁4👌211
Data Secrets
Ян Лекун снова раздает критику в адрес современного ИИ. На этот раз досталось роботам Большой секрет всей этой отрасли в том, что ни одна из этих компаний не имеет ни малейшего представления о том, как сделать роботов достаточно умными для того, чтобы быть…
⚡️ Ян Лекун планирует уходить из Meta и открывать собственный стартап

Об этом пишет Financial Times. По их словам, ученый уже находится на ранней стадии переговоров с инвесторами для своей новой компании.

Заниматься будет, угадайте чем? Конечно же, всевозможными world models, о которых он уже кучу лет рассказывает буквально в каждом своем интервью и выступлении.

Видимо, Лекуна все-таки не устроила новая корпоративная структура, в которой он должен подчиняться молодому зеленому Александру Вану. Хотя сам ученый пока не комментирует ситуацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
94👍47😁33🔥1063🫡2
Топ-10 неожиданных концовок собеседования
😁176🤔36👍108🔥5🗿5
SoftBank продал всю свою долю в Nvidia, чтобы подсобрать денег на финансирование OpenAI

Вчера стало известно, что 25 октября SoftBank продал все свои акции Nvidia на общую сумму 5.83 миллиарда долларов. Руководство заявило, что это никак не связано с изменением отношения к Nvidia: скорее, это стратегический шаг для «ИИ-расширения».

Помимо акций Хуанга, SoftBank также продал почти все свои акции T-mobile на 9.17 миллиардов и увеличил размер маржинального кредита под залог акций Arm.

Все эти деньги им нужны для того, чтобы… финансировать OpenAI. В декабрьском раунде компания планирует вложить в стартап 22.5 миллиарда (учитывая, что до этого уже переводили 10 миллиардов).

Кроме того, около 20 миллиардов пойдет на Stargate (тоже, по сути, OpenAI), а еще 10-11 миллиардов – на сделки с Ampere Computing и проекты по робототехнике.

По итогу, доля SoftBank в OpenAI увеличится с 4 до 11%. В компании, видимо, посчитали, что это круче, чем владеть акциями Nvidia. К тому же, здесь они принимают непосредственное участие в проектах.

Акции Nvidia на фоне новости упали аж на 3%. Но ничего, им вернется: ведь все мы знаем, куда OpenAI потратит деньги, которые получит от SoftBank 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
😁20226238🫡4👍3🤯1
Media is too big
VIEW IN TELEGRAM
Первый российский гуманоид вышел на сцену и даже успел улыбнуться, сделать два шага и попытку помахать зрителям рукой, прежде чем…

Ну в общем, смотрите до конца
😁47930🫡1716👨‍💻13👍12🗿54🤨3🔥2🏆1
История о том, как правильно проверять гипотезы

Есть такой стартап – Fireflies AI. Ребята занимаются всевозможными ИИ-заметками. Сейчас они оцениваются в 1 миллиард долларов.

Но путь к единорогу был тернист. В LinkedIn один из фаундеров рассказал, что на заре компании они с партнером сами притворялись ИИ 💡

Они заходили на встречи под именем «Fireflies», молча сидели и вручную записывали главное, а после отправляли клиентам саммари под видом того, что все это сделал ИИ-агент.

Так они провели более 100 встреч, и только потом запустили MVP настоящего продукта.

А Amazon мы за такое осуждали…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁229104🔥21👍10🤯7🤨6🗿52🤗2
Понравилось новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте

Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг. Это про способность воспринимать, понимать, рассуждать о пространстве, объектах, движении и взаимодействии предметов.

Ли пишет, что именно связка восприятие-действие (perception + action) с самого начала эволюции лежала в основе интеллекта у живых существ. Другими словами, это база, без которой настоящий интеллект существовать не может.

В общем, пока у нас не появятся реально качественные world models (привет Лекуну!), AGI нам не видать. А «реально качественные» – это значит обладающие следующими свойствами:

1. Генеративность. Модель должна уметь создавать целые связные и правдоподобные с точки зрения физики сцены или миры.

2. Мультимодальность. Тут все понятно.

3. Интерактивность. Это должен быть не пассивный генератор, а модель, которая изменяет состояние мира и может предсказать последствия, если агент совершает какое-то действие.

По описанию напоминает Genie. И да, это и должно быть что-то подобное, но все-таки концептуально более продуманное и точное. Ли пишет, что сейчас на достаточном уровне не решена даже сама постановка задачи: это должно быть что-то универсальное, типа предсказания следующего токена, но для пространства.

Почитать полностью советуем тут
🔥8335👍23😁3🗿3🤔2🤯1💯1
Запущен первый российский продуктовый бенчмарк RAG-решений: сейчас принимают заявки от разработчиков

RRNCB (Russian RAG Normative-Corporate Benchmark) создан специально для комплексной оценки RAG-продуктов на реальных бизнес-задачах и работает со всевозможными юридическими кодексами, технической документацией, ГОСТами, отчетами и пр. Сейчас полно тестов для проверки способностей отдельно LLM, но вот для оценки пайплайна ИИ-продукта целиком их просто нет, этот первый.

Прием заявок от разработчиков RAG-продуктов открыт до 21 ноября, результаты будут опубликованы в декабре.

Все будет организовано как небольшой хакатон: на открытом этапе компании получают открытую часть датасета и могут улучшать свои решения в течение двух недель. Затем проводится закрытое тестирование на данных, которые участники не видели. Для оценки используются гибридные метрики и зарубежные LLM, методология более чем прозрачная.

По итогам бенчмарка будет опубликован открытый лидерборд российских RAG-решений. Ожидаются заявки от Сбера (GigaChat), Яндекса (Нейроэксперт), МТС (Cotype), Softline, Авито, Точка Банка, Just AI и других ключевых игроков рынка.

Подать заявку и подробнее почитать о самом бенче можно вот здесь
😁36🔥14👍84🤨1🎄1
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей

На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности жалуется на то, что The New York Times покушается на безопасность пользовательских данных.

Дело в том, что некоторое время назад The New York Times предъявила OpenAI иск: якобы компания без разрешения использует журналистские материалы для обучения моделей. Классика.

Стартап, конечно, все отрицает. И поэтому теперь в рамках разбирательства издание, чтобы доказать свою правоту, требует доступ к «примерно 20 миллионам» случайно выбранных чатов юзеров за период декабрь 2022 – ноябрь 2024. Ранее, если верить OpenAI, они просили предоставить им 1.4 миллиарда разговоров, но в тот раз требование удалось отразить.

OpenAI считает запрос чрезмерным и нарушающим базовые принципы приватности. В статье заявляется, что в последнее время OpenAI вообще стала "одной из самых преследуемых организаций в мире" (в том числе из-за данных), но они намерены "до конца" сопротивляться через суд.

openai.com/index/fighting-nyt-user-privacy-invasion/
😁103👍25🤯1812🐳4👏2🤔1
OpenAI выпустили GPT-5.1

В обновленную линейку вошли две модели: GPT-5.1 Instant и GPT-5.1 Thinking.

Instant – это версия для любителей теплых разговоров. После выхода пятерки огромная масса людей жаловалась на то, что модель стала холодной и «бездушной» и ностальгировали по GPT-4o. Вот OpenAI и добавили в GPT-5 щепотку ванильности. Теперь система лучше шутит, проще воспринимается, но может отвечать и более сдержанно, если это нужно пользователю.

Thinking – это прокачанный ризонинг. Говорят, модель стала заметно лучше справляться с инструкциями и адаптироваться под сложность вопроса: быстро отвечает на простые и думает еще дольше над сложными (см график).

Старые модели еще три месяца будут доступны в разделе легаси. Новые раскатывают, как обычно, сначала на всех платных юзеров, потом на остальных.

openai.com/index/gpt-5-1/
1👍112🔥32🤯11😁98
Ваша утренняя газета, сэр ☕️

P.S. Автор оригинального твита утверждает, что это реальная пакистанская газета Dawn
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁410🔥3410👏6🕊2🎄2🤗1
Новая статья от DeepMind: учим модели видеть, как люди

Помните класическую детсткую игру "Найди лишнее"? Из нескольких картинок нужно вычеркнуть ту, которая выбивается из общего ряда, по английски называется odd-one-out. Так вот: авторы протестировали на этой игре несколько vision моделей и выяснили, что они далеко не всегда рассуждают, как люди.

Это связано с тем, что модели, даже самые мощные, все еще видят мир иначе, нежели мы. Люди группируют объекты по смыслу, а модели – чаще по визуальным/текстурным признакам. Например, в задаче <морская звезда, кот, лиса> люди выбирают морскую звезду, потому что она живет в воде, а модели – кота, потому что картинка выделяется из цветовой палитры.

Недостаток важный, потому что если модель не структурирует свой внутренний образ мира, как человек, ее решения могут быть алогичными и ненадежными.

Что сделали в DeepMind:

– Взяли большую visual модель, заморозили ее и искусственно пристроили небольшой адаптер, обученный только на датасете с человеческими ответами по odd-one-out.

– Нагенерировали с помощью этой модели гигантский датасет с миллионами решений odd-one-out.

– На основе этого большого датасета дообучали другие модели так, чтобы их внутренние представления стали ближе к человеческой логике группировки.

То есть, вроде как, модельки просто натаскали на какую-то одну детскую игру, ничего удивительного. Но оказалось, что это качественно изменило их скрытое пространство. См. третий скрин: слева модель до элаймента, справа после. Видно, как появляются четкие кластеры, соответствующие человеческой логике (например, животные, еда и тд). Красота же?

А еще такая модель оказалось более устойчивой с точки зрения изменения распределения. Например, если на картинках поменять фон, освещение или другие условия, ее ответы все еще остаются подвластными логике. В целом можно ожидать, что такая модель и генерализоваться будет быстрее обычной.

deepmind.google/blog/teaching-ai-to-see-the-world-more-like-we-do/
2127👍55🤯19🔥15👀3😁22🤔1
Data Secrets
Понравилось новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг.…
Media is too big
VIEW IN TELEGRAM
Стартап Фей-Фей Ли выпустил свой первый коммерческий продукт – модель пространственного интеллекта Marble

Ее релизнули сразу же после выхода эссе Фей-Фей о том, что пространственный интеллект – будущее ИИ (наш пост с пересказом).

Внешне моделька очень напоминает Genie: по сути, 3D генератор миров, по которому можно передвигаться.

Только у Marble фокус больше на персистентности. То есть если Genie генерирует динамическое видео, то здесь это генерация именно полноценного 3D-мира, в котором есть геометрия, объекты, ландшафт и прочее. Потом вы можете по нему передвигаться, но меняться или достраиваться он при этом не будет.

Хотя можно поменять что-нибудь по промпту, расширить какую-то часть генерации или даже объединить два мира. И кстати, на вход принимаются почти любые модальности: текст, картинки, видео и 3D-драфты.

Генерировать можно поэтапно: сначала создать 3D-скелет, и только потом добавлять стили и текстуры, подобно тому, как это делается в геймдеве.

Ну и киллер-фича, на наш взгляд: созданные миры можно экспортировать как меши, Gaussian splats или как видео.

Попробовать можно тут, дают сколько-то фри кредитов. Дальше тарифы начинаются от 20 долларов в месяц.
🔥14332👍28😁1