Data Secrets – Telegram
Data Secrets
78.5K subscribers
6.35K photos
652 videos
20 files
2.65K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
SoftBank продал всю свою долю в Nvidia, чтобы подсобрать денег на финансирование OpenAI

Вчера стало известно, что 25 октября SoftBank продал все свои акции Nvidia на общую сумму 5.83 миллиарда долларов. Руководство заявило, что это никак не связано с изменением отношения к Nvidia: скорее, это стратегический шаг для «ИИ-расширения».

Помимо акций Хуанга, SoftBank также продал почти все свои акции T-mobile на 9.17 миллиардов и увеличил размер маржинального кредита под залог акций Arm.

Все эти деньги им нужны для того, чтобы… финансировать OpenAI. В декабрьском раунде компания планирует вложить в стартап 22.5 миллиарда (учитывая, что до этого уже переводили 10 миллиардов).

Кроме того, около 20 миллиардов пойдет на Stargate (тоже, по сути, OpenAI), а еще 10-11 миллиардов – на сделки с Ampere Computing и проекты по робототехнике.

По итогу, доля SoftBank в OpenAI увеличится с 4 до 11%. В компании, видимо, посчитали, что это круче, чем владеть акциями Nvidia. К тому же, здесь они принимают непосредственное участие в проектах.

Акции Nvidia на фоне новости упали аж на 3%. Но ничего, им вернется: ведь все мы знаем, куда OpenAI потратит деньги, которые получит от SoftBank 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
😁20226238🫡4👍3🤯1
Media is too big
VIEW IN TELEGRAM
Первый российский гуманоид вышел на сцену и даже успел улыбнуться, сделать два шага и попытку помахать зрителям рукой, прежде чем…

Ну в общем, смотрите до конца
😁47930🫡1716👨‍💻13👍12🗿54🤨3🔥2🏆1
История о том, как правильно проверять гипотезы

Есть такой стартап – Fireflies AI. Ребята занимаются всевозможными ИИ-заметками. Сейчас они оцениваются в 1 миллиард долларов.

Но путь к единорогу был тернист. В LinkedIn один из фаундеров рассказал, что на заре компании они с партнером сами притворялись ИИ 💡

Они заходили на встречи под именем «Fireflies», молча сидели и вручную записывали главное, а после отправляли клиентам саммари под видом того, что все это сделал ИИ-агент.

Так они провели более 100 встреч, и только потом запустили MVP настоящего продукта.

А Amazon мы за такое осуждали…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁229104🔥21👍10🤯7🤨6🗿52🤗2
Понравилось новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте

Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг. Это про способность воспринимать, понимать, рассуждать о пространстве, объектах, движении и взаимодействии предметов.

Ли пишет, что именно связка восприятие-действие (perception + action) с самого начала эволюции лежала в основе интеллекта у живых существ. Другими словами, это база, без которой настоящий интеллект существовать не может.

В общем, пока у нас не появятся реально качественные world models (привет Лекуну!), AGI нам не видать. А «реально качественные» – это значит обладающие следующими свойствами:

1. Генеративность. Модель должна уметь создавать целые связные и правдоподобные с точки зрения физики сцены или миры.

2. Мультимодальность. Тут все понятно.

3. Интерактивность. Это должен быть не пассивный генератор, а модель, которая изменяет состояние мира и может предсказать последствия, если агент совершает какое-то действие.

По описанию напоминает Genie. И да, это и должно быть что-то подобное, но все-таки концептуально более продуманное и точное. Ли пишет, что сейчас на достаточном уровне не решена даже сама постановка задачи: это должно быть что-то универсальное, типа предсказания следующего токена, но для пространства.

Почитать полностью советуем тут
🔥8335👍23😁3🗿3🤔2🤯1💯1
Запущен первый российский продуктовый бенчмарк RAG-решений: сейчас принимают заявки от разработчиков

RRNCB (Russian RAG Normative-Corporate Benchmark) создан специально для комплексной оценки RAG-продуктов на реальных бизнес-задачах и работает со всевозможными юридическими кодексами, технической документацией, ГОСТами, отчетами и пр. Сейчас полно тестов для проверки способностей отдельно LLM, но вот для оценки пайплайна ИИ-продукта целиком их просто нет, этот первый.

Прием заявок от разработчиков RAG-продуктов открыт до 21 ноября, результаты будут опубликованы в декабре.

Все будет организовано как небольшой хакатон: на открытом этапе компании получают открытую часть датасета и могут улучшать свои решения в течение двух недель. Затем проводится закрытое тестирование на данных, которые участники не видели. Для оценки используются гибридные метрики и зарубежные LLM, методология более чем прозрачная.

По итогам бенчмарка будет опубликован открытый лидерборд российских RAG-решений. Ожидаются заявки от Сбера (GigaChat), Яндекса (Нейроэксперт), МТС (Cotype), Softline, Авито, Точка Банка, Just AI и других ключевых игроков рынка.

Подать заявку и подробнее почитать о самом бенче можно вот здесь
😁36🔥14👍84🤨1🎄1
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей

На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности жалуется на то, что The New York Times покушается на безопасность пользовательских данных.

Дело в том, что некоторое время назад The New York Times предъявила OpenAI иск: якобы компания без разрешения использует журналистские материалы для обучения моделей. Классика.

Стартап, конечно, все отрицает. И поэтому теперь в рамках разбирательства издание, чтобы доказать свою правоту, требует доступ к «примерно 20 миллионам» случайно выбранных чатов юзеров за период декабрь 2022 – ноябрь 2024. Ранее, если верить OpenAI, они просили предоставить им 1.4 миллиарда разговоров, но в тот раз требование удалось отразить.

OpenAI считает запрос чрезмерным и нарушающим базовые принципы приватности. В статье заявляется, что в последнее время OpenAI вообще стала "одной из самых преследуемых организаций в мире" (в том числе из-за данных), но они намерены "до конца" сопротивляться через суд.

openai.com/index/fighting-nyt-user-privacy-invasion/
😁103👍25🤯1812🐳4👏2🤔1
OpenAI выпустили GPT-5.1

В обновленную линейку вошли две модели: GPT-5.1 Instant и GPT-5.1 Thinking.

Instant – это версия для любителей теплых разговоров. После выхода пятерки огромная масса людей жаловалась на то, что модель стала холодной и «бездушной» и ностальгировали по GPT-4o. Вот OpenAI и добавили в GPT-5 щепотку ванильности. Теперь система лучше шутит, проще воспринимается, но может отвечать и более сдержанно, если это нужно пользователю.

Thinking – это прокачанный ризонинг. Говорят, модель стала заметно лучше справляться с инструкциями и адаптироваться под сложность вопроса: быстро отвечает на простые и думает еще дольше над сложными (см график).

Старые модели еще три месяца будут доступны в разделе легаси. Новые раскатывают, как обычно, сначала на всех платных юзеров, потом на остальных.

openai.com/index/gpt-5-1/
1👍112🔥32🤯11😁98
Ваша утренняя газета, сэр ☕️

P.S. Автор оригинального твита утверждает, что это реальная пакистанская газета Dawn
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁410🔥3410👏6🕊2🎄2🤗1
Новая статья от DeepMind: учим модели видеть, как люди

Помните класическую детсткую игру "Найди лишнее"? Из нескольких картинок нужно вычеркнуть ту, которая выбивается из общего ряда, по английски называется odd-one-out. Так вот: авторы протестировали на этой игре несколько vision моделей и выяснили, что они далеко не всегда рассуждают, как люди.

Это связано с тем, что модели, даже самые мощные, все еще видят мир иначе, нежели мы. Люди группируют объекты по смыслу, а модели – чаще по визуальным/текстурным признакам. Например, в задаче <морская звезда, кот, лиса> люди выбирают морскую звезду, потому что она живет в воде, а модели – кота, потому что картинка выделяется из цветовой палитры.

Недостаток важный, потому что если модель не структурирует свой внутренний образ мира, как человек, ее решения могут быть алогичными и ненадежными.

Что сделали в DeepMind:

– Взяли большую visual модель, заморозили ее и искусственно пристроили небольшой адаптер, обученный только на датасете с человеческими ответами по odd-one-out.

– Нагенерировали с помощью этой модели гигантский датасет с миллионами решений odd-one-out.

– На основе этого большого датасета дообучали другие модели так, чтобы их внутренние представления стали ближе к человеческой логике группировки.

То есть, вроде как, модельки просто натаскали на какую-то одну детскую игру, ничего удивительного. Но оказалось, что это качественно изменило их скрытое пространство. См. третий скрин: слева модель до элаймента, справа после. Видно, как появляются четкие кластеры, соответствующие человеческой логике (например, животные, еда и тд). Красота же?

А еще такая модель оказалось более устойчивой с точки зрения изменения распределения. Например, если на картинках поменять фон, освещение или другие условия, ее ответы все еще остаются подвластными логике. В целом можно ожидать, что такая модель и генерализоваться будет быстрее обычной.

deepmind.google/blog/teaching-ai-to-see-the-world-more-like-we-do/
2127👍55🤯19🔥15👀3😁22🤔1
Data Secrets
Понравилось новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг.…
Media is too big
VIEW IN TELEGRAM
Стартап Фей-Фей Ли выпустил свой первый коммерческий продукт – модель пространственного интеллекта Marble

Ее релизнули сразу же после выхода эссе Фей-Фей о том, что пространственный интеллект – будущее ИИ (наш пост с пересказом).

Внешне моделька очень напоминает Genie: по сути, 3D генератор миров, по которому можно передвигаться.

Только у Marble фокус больше на персистентности. То есть если Genie генерирует динамическое видео, то здесь это генерация именно полноценного 3D-мира, в котором есть геометрия, объекты, ландшафт и прочее. Потом вы можете по нему передвигаться, но меняться или достраиваться он при этом не будет.

Хотя можно поменять что-нибудь по промпту, расширить какую-то часть генерации или даже объединить два мира. И кстати, на вход принимаются почти любые модальности: текст, картинки, видео и 3D-драфты.

Генерировать можно поэтапно: сначала создать 3D-скелет, и только потом добавлять стили и текстуры, подобно тому, как это делается в геймдеве.

Ну и киллер-фича, на наш взгляд: созданные миры можно экспортировать как меши, Gaussian splats или как видео.

Попробовать можно тут, дают сколько-то фри кредитов. Дальше тарифы начинаются от 20 долларов в месяц.
🔥14332👍28😁1
ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺

К моделям уже можно обратиться двумя способами:

1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете from google.colab import ai, и затем можете:

– Просмотреть все доступные вам модели:

ai.list_models()

Сгенерировать что-нибудь:

response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)


– Или стримить ответ:

stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')


2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта.

Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.

🍯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12228🔥166😁1
Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.

По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.

Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.

Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию 😍

По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.

Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».

Вот вам и весь хваленый элаймент 🤠
Please open Telegram to view this post
VIEW IN TELEGRAM
😁201❤‍🔥34🤯2919👍15🔥72
Data Secrets
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности…
А тем временем суд все-таки обязал OpenAI предоставить The New York Times 20 миллионов чатов пользователей

Первая часть этой истории здесь. Кратко: NYT сейчас судятся с OpenAI из-за того, что ChatGPT якобы воспроизводит защищенные материалы издания. В рамках расследования они потребовали от стартапа отдать им на рассмотрение 20 миллионов случайных обезличенных пользовательских диалогов.

Стартап пытался противостоять запросу, но «будем биться за приватность пользователей до последнего» продлилось довольно недолго.

По оценке OpenAI, 99.99% логов вообще не будут относиться к делу. Они предлагали альтернативное решение с выборочной выдачей чатов, но судья посчитала, что обезличивания диалогов и охранного судебного ордера будет и так достаточно для защиты данных юзеров 🙂

OpenAI подал ходатайство о пересмотре решения, но суд пока требует выполнить приказ и передать данные в ближайшее время.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯143😁2710🫡9👏6🗿6🤨5👍4🐳1🤓1
OpenAI выпустили довольно интересную статью про интерпретируемость моделей

Сейчас модельки уже во всю помогают принимать решения в медицине, в науке, образовании и тд. Но интерпретировать их ответы мы так и не научились, к сожалению. Многие уповают на интерпретацию через CoT, но это дело очень хрупкое и ненадежное.

OpenAI утверждают: проблема в том, что мы пытаемся распутывать внутренности модели постфактум, когда это уже почти невозможно. Во время обучения модели подбирают миллиарды весов, из которых в итоге получается очень плотная сеть. В итоге поведение модели размазано по массе параметров, и структурировать эту паутину, мягко говоря, сложно.

Вместо этого они предлагают сразу обучать структурно более простую разреженную сетку.

На практике исследователи берут архитектуру, похожую на GPT-2 и ограничивают веса так, чтобы подавляющее большинство было равно нулю. То есть если в обычной плотной сети каждый нейрон связан со всеми из следующего слоя, то здесь остаются связи только с несколькими. Сеть становится более чистой и читаемой.

Это первый шаг. Такая структура сети позволяет для конкретной задачи брать и находить маленькую часть модели, отвечающую за ее решение. В статье это называется circuit. Формально, – минимальный поднабор весов, обладающий необходимостью и достаточностью: то есть если выкинуть все, кроме него, задача все еще будет решаться; а если выкинуть только его, а остальную сеть оставить – нет.

Ну а затем в этом маленьком наборе весов уже можно копаться и непосредственно анализировать поведение сети.

В статье приведен пример с простенькой задачей закрытия кавычки. Модели надо запомнить тип открывающейся кавычки и в конце последовательности поставить такую же. И вот оказывается, что делает она это по определенному логическому алгоритму, заложенному в 5 residual-каналах, двух MLP-слоях и 1 канале аттеншена. На картинке можете посмотреть, как это работает.

Представьте: если за маленькой задачкой скрывается что-то такое, то что можно найти, если посмотреть, как модель решает сложную математику или пишет код?

Короче, подход интересный. И есть даже занятный практический результат, в который нужно вдуматься: чем больше модель и чем более она разреженная, тем проще становятся схемы, реализующие одни те же способности. Makes sense.

Тем не менее, не факт, что если это работает для таких игрушечных моделек, заработает и для больших. К тому же обучать разреженные модельки только ради интерпретируемости никто не будет: слишком дорого и неэффективно.

Но вот если в OpenAI научатся извлекать что-то подобное из уже обученных dense-моделей, будет совсем другой разговор.

openai.com/index/understanding-neural-networks-through-sparse-circuits/
68👍31🔥11🤔8❤‍🔥2😁2🫡1
Дмитрий Ветров получил Yandex ML Prize 2025

Это ежегодная премия Яндекса за вклад в развитие машинного обучения. С этого года ей награждают преподавателей — тех, кто растит новое поколение AI-специалистов и двигает науку вперёд. Лауреатами стали 10 представителей ведущих вузов страны, еще трое ученых и преподавателей получили специальную награду.

Поздравляем Дмитрия Ветрова — профессора-исследователя ФКН НИУ ВШЭ, который вошёл в «Зал славы» Yandex ML Prize 2025. Респектуем за одну из самых сильных исследовательских команд по машинному обучению в России и продвижение байесовских методов.
91🗿55👍42🔥19🎉11🤨5😁4🫡32🦄2🍾1