Data Secrets – Telegram
Data Secrets
78.8K subscribers
6.44K photos
669 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
А у нас в эфире постоянная рубрика «GPT-5 решила очередную сложную математику»

В этот раз речь пойдет сразу о двух задачах.

1️⃣ Первая – «Yu Tsumura’s 554th Problem». Это задача из сборника Yu Tsumura, примерно уровня IMO. Суть – доказать тривиальность определённой группы, заданной соотношениями для двух её генераторов.

В последнее время благодаря короткой формулировке она стала своего рода тестовой для ИИ (то есть достигла ли модель уровня IMO или нет).

GPT-5 стала первой моделью, которая справилась с этой задачей. Порассуждала она при этом всего 15 минут.

Забавно, что буквально месяц назад выходила статья «No LLM Solved Yu Tsumura’s 554th Problem», в которой авторы доказывали, что современным моделям все еще не хватает способностей на подобные задачи. Это еще раз к слову о скорости прогресса.

2️⃣ Вторая – NICD-with-erasures majority optimality. Это задача из теории информации, связанная с восстановлением исходного сигнала через канал с шумом. Пара независимых участников пытается по своим частично стёртым версиям наблюдений угадать одну и ту же функцию от исходных данных, с целью максимизировать согласие.

Суть тут в том, что ученые долгое время считали, что мажоритарная функция в этой задаче является оптимальной. GPT-5 впервые доказала обратное, подобрав контрпример.

Это фундаментальная проблема в теории информации и коммуникации. Найти оптимальную функцию – значит лучше проектировать коды восстановления данных, хранить их и тд. Практическое применение огромное, и GPT-5, получается, открыла новую главу для исследований.

Вот такие новости понедельника. Оба решения, кстати, были опубликованы незавимыми математиками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍188🔥61🍓2321🤯17🤓84😁3🤨2🗿1
К слову, сегодня ждем еще один продукт от OpenAI

У них проходит DevDay 2025 в Сан-Франциско. По слухам, должны показать конструктор агентов Agent Builder. Это будет zero/low code продукт типа n8n или Zapier: платформа для простой реализации и оркестрации всяких автоматизаций и агентных рабочих процессов.

У OpenAI уже когда-то выходила библиотека Swarm с тем же функционалом, так что zero code адаптация – логичный следующий шаг.

Для несложных автоматизаций должно быть хорошо. Особенно, если добавят всяких интересных интеграций, MCP и прочего.

Стрим можно будет посмотреть в 20:00 по Мск (ссылку добавим к этому посту, как только появится)

UPD: ссылка -> https://www.youtube.com/live/hS1YqcewH0c
👌632016👍11🔥73😁2🤔1🐳1🤨1
У Anthropic новый CTO

Им стал бывший технический директор Stripe Рахул Патил. Он пришёл на место сооснователя Сэма МакКлэниша, который теперь займётся архитектурой и обучением крупных моделей в роли главного архитектора.

Патил будет отвечать за инфраструктуру, вычисления и инференс — ключевые направления для компании, особенно на фоне растущей нагрузки на Claude и гонки с OpenAI и Meta* за вычислительные мощности.

https://techcrunch.com/2025/10/02/anthropic-hires-new-cto-with-focus-on-ai-infrastructure/
👍45😁15122🤔2
Google DeepMind выпустили занятную статью, в которой проверили, насколько хорошо Veo 3 понимает мир

Google уже долгое время говорят, что их Veo – это не просто моделька для генерации прикольных видосиков, а (потенциально) полноценная world modeling система, которую хотят использовать для обучения следующего поколения моделей, агентов и роботов.

А еще, возможно, такие модели как Veo сами по себе могут стать следующим шагом в развитии ИИ. Ведь ученые вроде Лекуна очень любят повторять, что именно отсутствие понимания материального мира – основная проблема современных LLM, которая отделяет нас от AGI.

Так вот. В Google решили проверить, насколько уже сейчас текущая версия Veo понимает физику и логику нашего мира. Ее прогнали по большому сету задач, среди которых были: лабиринты, моделирование физики, визуальные задачки на ризонинг, распознавание свойств объектов и тд и тп.

Все задачки и как с ними справилась Veo можно посмотреть тут. Если кратко:

– Модель действительно способна решать широкий набор задач, для которых ее не обучали. Пример: детекция, которой напрямую не было в трейне.

Veo 3 решает задачи, требующие пошагового визуального мышления (которое авторы называют Chain-of-Frames (CoF), аналог Chain-of-Thought в LLM). Например, на лабиринтах 5 на 5 точность достигает 78% на pass@10. Для такой модельки это прямо неплохо.

– Хорошо понимает физику и может смоделировать сложные штуки типа плавучести, трения, отражений, преломлений и другого.

Вывод такой: подобные модели точно можно рассматривать как альтернативу обучению на тексте. Пока, конечно, их развитие все еще в зачатке. Но кто знает, что будет через год, два или три.

Статья
👍84🔥37185😁2🤔2🕊1
Новое с OpenAI DevDay 2025 (будет несколько постов):

1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например:

скинуть боту набросок дизайна и вызвать Figma -> агент построит готовый проект;
попросить найти квартиру и вызвать Booking -> он сам будет искать по вариантам и уточнять, что вы хотите;
вызвать Canva и описание -> получите готовую презентацию;
попросить систавить плейлист и вызвать Spotify -> агент скинет сформированный плейлист;
попросить объяснить что-то и вызвать Coursera -> вы сможете смотреть обучающие видео прямо в чате и в режиме лайв спрашивать модель о происходящем.

Самое интересное, что девелоперы скоро смогут добавлять в ChatGPT собственные приложения, пройдя необходимую проверку, и получать монетизацию (оплата и трекинг метрик через ChatGPT также поддерживается). Пока будет доступна SDK либа для разработки, так что можно практиковаться.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
185🤯39😁12👍95😎3🕊1
2. Тот самый вау-конструктор для агентов, о котором мы писали утром – Agent Builder.

Выглядит действительно привлекательно. Помимо автоматического построения воркфлоу (просто берешь и перетаскиваешь готовые блоки) есть еще галерея виджетов, готовый мега-простой механизм тестирования и много предустановленных инструментов вроде MCP и работы с файлами. Эвал и более глубокие настройки (см второй скрин) тоже доступны.

Выглядит все очень прозрачно, человек без опыта (совсем) действительно справится легко. Прикрутили даже Codex: если вам понадобится код того, что вы понастроили, его останется только скопировать.

Доступы уже раздают, проверяйте в своем аккаунте -> platform.openai.com/agent-builder
17018👍17😁2🤝2
This media is not supported in your browser
VIEW IN TELEGRAM
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того:

– Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы.

– Добавили Codex SDK. Теперь агента можно прикрутить вообще куда угодно.

Прямо на презентации Codex присоединился к системе освещения и некоторое время управлял светом и экраном. Выглядело круто.
58👍187🤯2😁1
⚡️ GPT-5 Pro и Sora-2 появятся в API

Ждем цен (которые будут, очевидно, конскими)

UPD: дождались

– GPT-5 Pro: 15$/M input, 125$/M output.

– Sora 2: 0.10$ за секунду видео в 720x1280.
Sora-2 pro за такое же разрешение – 0.30$ за секунду.
За 1024x1792 – 0.50$ за секунду.

Есть тут у нас миллионеры?
Please open Telegram to view this post
VIEW IN TELEGRAM
104🤯31👍21🔥129😁8👨‍💻1
OpenAI заключили многомиллиардную сделку с AMD

Одной Nvidia Сэму оказалось недостаточно (напоминаем, что недавно они подписали контракт на 100 миллиардов долларов), и теперь стартап будет закупать железо также и у главного конкурента Хуанга.

Начиная с первой волны в размере 1 гигаватта во второй половине 2026 года, OpenAI планирует закупить у AMD мощностей на 6 гигаватт на базе GPU Instinct MI450.

Это миллиарды долларов выручки для AMD в ближайшие годы. На самое интересное, что по итогу закупок OpenAI может (и, вероятно, будет) принадлежать огромная компании Лизы Су.

Дело в том, что в рамках сделки AMD выдала стартапу варрант на приобретение до 160 миллионов акций AMD по номинальной цене 0,01 доллар за акцию. Он разбит на несколько трачей, которые будут «открываться» по мере закупок.

То есть, если OpenAI реально закупит все обещанное железо, то им практически бесплатно достанутся 10% AMD.

Вот такое интересное соглашение. На фоне новостей акции AMD уже скакнули более чем на 25%. Это значит, что капитализация компании за сутки прибавила порядка $60-100 млрд.

Акции Nvidia, кстати, при этом упали на 2% 🤦‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
😎104🤯3630😁19👍156🔥1👀1
Data Secrets
3. Обновили Codex. Первое и главное: агент вышел из беты и стал мощнее. Кроме того: – Сделали интеграцию со Slack: теперь агент сможет читать ваши чатики с коллегами и брать из обсуждений контекст для работы. – Добавили Codex SDK. Теперь агента можно прикрутить…
Еще одна интересная деталь со вчерашней презентации, которую мало кто заметил: весь код в OpenAI теперь проверяет Codex

92% инженеров в стартапе используют агента постоянно. За счет этого количество PR в неделю увеличилось на 70% (success rate Codex около 85%). При этом 100% PR проходят ревью Codex.

ИИ проверяет код в компании, которая разрабатывает ИИ. Что может пойти не так? ☺️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2716421👍9🫡2
Нобелевскую премию по физике этого года присудили за открытие в области квантовых вычислений

Награду только что получили Джон Кларк, Мишель Деворет и Джон Мартинис. В 80-х они впервые доказали, что явления квантовой механики, обычно наблюдаемые только на микроскопическом уровне, могут проявляться в полноразмерных системах.

Они установили, что так называемое квантово-механическое туннелирование возможно на макро-уровне. В их экспериментах использовалась сверхпроводящая электрическая цепь, и ученые смогли доказать, что она способна перейти из состояния без напряжения в состояние с напряжением, проходя через барьер, что в принципе невозможно для классических объектов в физическом мире.

Это и есть квантовый переход (то есть вся система ведёт себя как единая квантовая частица, хотя содержит огромное количество электронов).

По сути, именно с этого открытия началось все развитие квантовых компьютеров, квантовых криптографических систем и тд.

Поздравляем!
1248🔥104👍3811🎉75💯2❤‍🔥1
В польском стартапе Pathway создали новую архитектуру нейросетей – Biological Dragon Hatchling

Идея тут в основном в том, чтобы соединить две линии развития ИИ: всеми любимые трансформеры и модели мозга. Уже доказано, что между мозгом и трансформером есть связь (см эту статью от DeepMind). Тем не менее, до спопобностей нашей черепушки LLMкам пока далеко: не хватает нескольких основных свойств.

В общем, заканчивая лирическое вступление: тут взяли трансформер и решили впаять в него некоторые фичи из мозга. Получилась графовая архитектура, в которой нейроны – это вершины, а синапсы – рёбра с весами. Модель работает как распределённая система из нейронов, которые общаются только с соседями.

С обучением все тоже не как обычно. Наш мозг учится по правилу Хебба: нейроны, которые активируются вместе, укрепляют связь. Тут это реализовано без изменений, то есть если активность нейронов A и B часто совпадает, вес ребра между ними увеличивается, и логическая взаимосвязь становится крепче. Если присмотреться, то похоже на какой-то аналог механизма внимания.

И еще одно. Веса тут разделены на две группы: фиксированные и динамические. Аналог долговременной и кратковременной памяти. Фиксированные веса – это базовые знания, они обновляются только во время обучения и далее не меняются. Динамические веса нам нужны для ризонинга. Каждый шаг рассуждения – это локальное обновление связей.

Немного запутанно, НО авторы сделали тензорную версию (BDH-GPU). Она эквивалентна BDH, но выражена в виде обычных матриц и векторов, так что её можно обучать, как трансформер. По сути там все то же внимание, пару блоков MLP, ReLU и немного специфичные активации. Все знакомо.

Но оказалось, что система с такой архитектурой демонтрирует очень приятные свойства:

1. Интерпретируемость. Каждая пара нейронов (i, j) имеет свой синапс и хранит его состояние, которое можно наблюдать и отслеживать. Плюс, активации моносемантичны. Один нейрон действительно отвечает за одно понятие.

2. BDH может легко объединять две модели с помощью простой конкотенации. Представьте, какой простор для масштабирования.

3. И к слову про масштабирование: BDH показывает те же scaling laws, что и GPT-2, и при одинаковом числе параметров модель достигает схожей точности на ряде задач. Это значит, что основное свойство трансформера сохранено.

Красиво получилось. Если еще выпустят на этой архитектуре что-нибудь осязаемое, цены не будет.

Код | Статья
1160👍49🔥276👏2😁22