Data Secrets – Telegram
Data Secrets
78.8K subscribers
6.43K photos
669 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
OpenAI поместили GPT-5 в реальную биологическую лабораторию, и модель оптимизировала процесс клонирования ДНК в 79 раз

Стартап заколабился с Red Queen Bio и провел первый в истории эксперимент, в рамках которого GPT-5, фактически, работала в условиях реального научного мира. Это называется wet lab и представляет из себя вот такой закрытый цикл:

1. Модель предлагает гипотезу и план реализации
2. Люди или роботы в лаборатории строго выполняют инструкции и замеряют результат
3. Этот результат возвращается GPT-5, она анализирует, что сработало, что нет, и предлагает новую итерацию

В качестве задачи выбрали молекулярное клонирование, а конкретно – Gibson Assembly. Это базовый протокол молекулярной биологии. Целью было его оптимизировать (метрика простая: число успешных колоний).

Gibson Assembly – старый и изучен очень хорошо, так что супер-эффекта никто не ожидал. Такой оптимизацией даже сами ученые редко занимаются, потому что делать это нужно для каждого кейса отдельно, для этого требуется много времени и экспериментов, а результаты максимум х2-х3.

Но в итоге модель всех удивила: за несколько раундов система стала в 79 раз эффективнее, чем исходный метод. Причем результат был стабильным и надежно воспроизводился.

Конкретнее, GPT-5 предложила добавить в одну из реакций два белка: RecA и gp32. Они оба хорошо известны, но никто раньше не использовал их функционально вместе именно в клонировании.

Прорывом это, конечно, назвать нельзя. Скорее просто уровень хорошего PhD-студента в довольно специфической задаче. Но интересно другое: довольно успешная смена роли модели с просто генератора текста или агента внутри компьютера на активного участника физического процесса.

openai.com/index/accelerating-biological-research-in-the-wet-lab/
2👍16456🔥4023🤯85😁32🤔2🗿1
Где взять полный стек инструментов для работы с GenAI

2025-й стал годом экспериментов: бизнес пробовал разные модели, собирал свои первые RAG-системы, тестировал агентов для клиентов и сотрудников.

В 2026-м фокус смещается с экспериментов на промышленное внедрение и масштабирование.


Чтобы не собирать решения по частям и не упираться в инфраструктурные ограничения, Cloud.ru запустил Evolution AI Factory — среду для внедрения GenAI в ваши проекты.

Там можно:
😶‍🌫️быстро собрать MVP
😶‍🌫️протестировать 20+ LLM
😶‍🌫️дообучить их на своих данных
😶‍🌫️собрать AI-агента или мультиагентную систему


Все это на российских серверах и с доступными ценами.

Узнайте больше про Evolution AI Factory
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿4010🤨5👍2🤔1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Пища для размышлений вам на вечер: Ян Лекун заявил, что понятия «general intelligence» вообще не существует

Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.

«Мы думаем о самих себе как об общем интеллекте, но это только иллюзия. Наш интеллект общий только в тех задачах, которые мы можем придумать, но есть много задач, о которых мы и понятия не имеем. Так что general intelligence полная чушь.»


Этот отрывок вызвал много споров в соцсетях. Например, Hunter Ash комментирует это так:

«Если Ян может рассуждать об интеллекте в целом, то он уже представитель общего интеллекта, а не узкоспециализированного. Да, в шахматах мы хуже компьютеров, но мы можем играть в любые игры и понимать, почему та или иная стратегия хуже или лучше (неважно, насколько хорошо мы это делаем). Конечно, есть пределы, но в широком смысле это и есть универсальность интеллекта»


Илон Маск тоже оказался несогласен с мнением Лекуна, но сильно в аргументах не рассыпался: просто написал, что ученый «давно выжил из ума» ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8263👍2912🤔7💯5🗿5🔥3❤‍🔥1👌1🤨1
⚡️ Google выкатили Gemini 3 Flash

Обещают frontier-уровень интеллекта при низкой цене и минимальной задержке: быстрые рассуждения, сильный кодинг и нормальную мультимодальность для реального продакшена, а не только демо.

По бенчмаркам: уверенно выступает на GPQA Diamond и Humanity’s Last Exam (PhD-уровень задач), а на MMMU Pro почти догоняет Gemini 3 Pro.

По скорости и стоимости заметно быстрее 2.5 Pro, при этом использует меньше токенов. На SWE-bench Verified обгоняет не только 2.5-ю линейку, но и Gemini 3 Pro.

https://blog.google/products/gemini/gemini-3-flash/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥96👍38165🎄2🤔1🗿1
Data Secrets
Новое с OpenAI DevDay 2025 (будет несколько постов): 1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например: скинуть боту набросок дизайна и…
В ChatGPT спустя два месяца после анонса наконец добавили App Store

Напоминаем, что приложения – это то, что раньше называлось коннекторами. ChatGPT соединяется с каким-нибудь сервисом, и в результате вы можете работать с ним с помощью бота, не выходя из чата.

Ну, например, пишете «хочу плейлист для тренировки», бот вызывает Spotify, составляет плейлист прямо там и скидывает вам готовую ссылку.

Сейчас в стор, помимо уже существующих интеграций, добавили новые. Из интересного – Apple Music и DoorDash, например.

Но самое приятное в другом: разработчикам разрешили сабмитить собственные приложения! Это уже серьезный намек на монетизацию.

Если хотите попробовать, то вот, что надо знать:

– Все приложения должны разрабатываться на основе библиотеки Apps SDK, вот документация с пошаговыми гайдами

– Все приложения должны соответствовать установленным требованиям по дизайну, UX и прочее. Вот ссылка со всеми условиями, не пропустите ее

– После разработки отправляем приложение на проверку сюда, здесь же можно будет трекать метрики и управлять приложением, если оно попадет в стор

Интересная возможность. Особенно для тех, у кого есть собственный продукт.
355👍3421🔥5😁1🗿1
В 2026 Nvidia сократит выпуск игровых видеокарт на 30-40%

По данным азиатских цепочек поставок и утечек с китайских форумов, речь идет именно о GeForce RTX 50‑серии.

Основной мотив тот же – глобальный дефицит видеопамяти. NVIDIA перераспределяет ресурсы в пользу дата‑центров и ИИ‑ускорителей. Там спрос и маржа существенно выше, чем на рынке потребительских видеокарт.

Все геймеры прямо сейчас:
😁204👍39259🗿9😎7🐳3🤔1🫡1
Так, ну что, теперь очередь инвестировать в OpenAI добралась до Amazon

По итогам ранних переговоров, компания вложит в стартап 10 миллиардов долларов. Если все пойдет по плану, сделка добьет оценку OpenAI до 500 миллиардов.

Договор точно будет предполагать поставку OpenAI чипов Trainium и аренду дополнительных мощностей в AWS. Будут ли непосредственно финансовые вложения – пока непонятно.
😁118🤯14👍1365🔥5🤔1
Новый вайб-проект от Андрея Карпаты: проверяем, какие предсказания из 2015 сбылись

Исследователь провел маленький, но очень занятный эксперимент. Он взял 930 фронтпейдж-тредов Hacker News за декабрь 2015 года (посты + комментарии) и прогнал их через GPT-5.1 Thinking с задачей «оценить задним числом и определить, какие прогнозы были наиболее правдивыми».

В итоге 3 часа вайбкодинга, 60 долларов и вуаля: получилась система, которая ранжирует прогнозы по правдивости, исходя из того, что происходит спустя 10 лет.

Кому интересно, посмотреть результаты можно здесь, местами очень забавно.

Но проект, вообще-то, интересен еще и с теоретической точки зрения. Как пишет и сам автор, такой In-hindsight анализ = инструмент обучения предсказательному мышлению.

Если LLM может систематически разбирать, почему одни прогнозы переживают 10 лет, а другие нет, то это можно использовать для обучения моделей самостоятельно предсказывать будущее.

Тогда получается, что каждый ваш (или чей-то еще) коммент или пост в интернете – это своего рода future-labeled sample, у которого спустя время появится «правильный ответ», сбылось/не сбылось/было чушью. А какая-нибудь будущая модель, увидев много-много таких обучающих сигналов, научится надежно понимать, как приходить к статистически сбывающимся предсказаниям и тогда… 🤯

Ну, в общем, как когда-то сказал Карпаты:
Be good. Future LLMs are watching.

Код | Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
👍127🔥5440😁15🗿7🤔4🎄1
Google выпустили новые открытые модели T5Gemma-2 и FunctionGemma

🟦 T5Gemma-2 – это очередное эффектное возвращение encoder-decoder архитектуры, теперь с длинным контекстом до 128K токенов и мультимодальностью.

Как и первая T5Gemma, которая вышла летом, T5Gemma-2 обучалась на основе обычной Gemma, которая представляет из себя decoder-only. Летом Google показали основную идею адаптации: инициализируем encoder-decoder весами decoder-only и продолжаем претрейн через UL2. Теперь этот подход перетянули в multimodal и long-contex, плюс добавили некоторые архитектурные оптимизации.

В итоге получилось, что в этот раз это уже не просто эксперимент с архитектурой, а реально полезная моделька. У нее мозги Gemma, но она лучше (+дешевле) переваривает длинные контексты, потому что имеет encoder. Так что если у вас задача типа суммаризации или работа с большими доками – смело используем.

Есть варианты на 270M-270M, 1B-1B, 4B-4B (примерная оценка суммарных параметров ~370M / ~1.7B / ~7B). Instuct, к сожалению, не публикуют, а претрейн-чекпоинты лежат тут.

🟦 FunctionGemma – это малюсенький tool-caller для агентов, всего на 270M параметров. По сути, это основа для автономного локального агента.

То есть это больше не диалоговая модель, а именно генератор structured function call. У нее даже токенизатор отличается от обычной Gemma. Она может в генерацию текста, но основная ее роль – вызвать нужные инструменты, чтобы выполнить задачу. Короче, что-то типа Siri именно для выполнения оффлайн задач на устройстве.

Google подчеркивают, что модель заточена под дообучение (а не промптинг) на конкретные задачи. Например, в кейсе из блогпоста ее достаточно дешево дообучили на Mobile Actions, и точность выросла с 58% до 85%.

Вот веса и блогпост с интересными примерами.

Все-таки Google молодцы
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8429🔥11🤔1🤨1🦄11
Vibe-proving для тех, кому уже надоел vibe-coding 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
😁212👍19🔥765🤔1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
​Вышел YaC 2025 AI Edition — в этот раз Яндекс сделал фокус на ИИ, который работает не только в экранах, но и за их пределами.

Автономный транспорт здесь самый показательный пример: ИИ принимает решения в реальной среде, где на кону безопасность.

Автономные грузовики и роботы-доставщики — это проверка ИИ как инженерной системы. Сенсоры, лидары, вычисления на борту, работа с неопределённостью, длительный пробег в реальных условиях. Такие системы либо выдерживают нагрузку, либо нет — промежуточных состояний почти не бывает. Один из автономных грузовиков Яндекса, к примеру, прошел более 500 000 км.

Если смотреть шире, Physical AI — это следующий уровень конкуренции компаний. Не у кого лучше модель, а у кого она встроена в реальные процессы: доставку, перевозки, городскую среду. И здесь входной билет измеряется не скоростью релиза, а глубиной инженерной школы.

Кому интересно, как выглядит этот сдвиг на практике — от автономных грузовиков до роверов нового поколения — YaC AI Edition уже доступен на Кинопоиске, VK Видео и YouTube.
🗿5138👍14😁14
Avocado и Mango: две новые модельки от Meta*

Появился слух, что компания разрабатывает и в ближайшем будущем планирует выпускать новую сильную LLM (Avocado) и image/video модель (Mango). Об этом рассказал Александр Ван.

К сожалению, по предварительной информации, обе модельки будут закрытые. Видимо, вместе с уходом Лекуна кончается и опенсорсная эра Meta.

Жалко, конечно. Ну надеемся, что хотя бы уровень моделей будет достойный. Не зря же Цукерберг 100500 миллиардов спустил на хантинг.
😁842310🔥7👍21
Андрей Карпаты опубликовал большой блогпост с итогами года

karpathy.bearblog.dev/year-in-review-2025/

TL;DR. Чем запомнился 2025:

1. Reinforcement Learning from Verifiable Rewards занял место RLHF. Модели начали учиться не на человеческих оценках, а на автоматически проверяемых наградах, и за счет этого появился ризонинг. Главный прогресс года – масштабирование test-time compute.

2. Люди больше не доверяют бенчмаркам. LLM не похожи на человеческий мозг, они могут быть суперумными в одних доменах и удивительно тупыми в соседних. В 2025 окончательно стало ясно, что просто высокие метрики на бенчах не означают AGI.

3. Появился Cursor и многие другие сервисы, которые демонстрируют собой новый слой LLM-приложений. Теперь ИИ – это уже не просто модели, а оркестрация вызовов, контекста, UI, автономности и стоимости под конкретную задачу.

4. Родился и стал классикой термин «вайб-кодинг»: написание кода стало дешевым и доступным, теперь навайбкодить что-нибудь в принципе может каждый.

5. Появились первые примеры сильных автономных ИИ-агентов, работающих в вашем компьютере: такие, как Claude Code.

6. Сильно прокачалась генерация изображений и видео. Настолько, что LLM-операционка уже не кажется чем-то далеким и невозможным.

LLM оказались одновременно гораздо умнее и гораздо глупее, чем ожидалось. Но они уже невероятно полезны, и индустрия реализовала, по ощущениям, меньше 10% их потенциала.


Все еще советуем почитать полностью -> karpathy.bearblog.dev/year-in-review-2025/
🔥9628👍22🗿5🤯1🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
Все больше компаний запускают чат-ботов и голосовых помощников и работают с большими данными

Если вы тоже втайне надеетесь, что однажды ИИ сам исправит все ошибки после пятничного деплоя, то учтите: обучение моделей – это не просто залил данные – и готово. Это, в первую очередь, про подготовку.

Без экспертизы, бюджета и, самое главное, мощных GPU – никуда. У кого больше железа – тот и победил.

Именно поэтому так важна надежная техническая база для обучения и работы нейросетей.

Т1 Облако помогает обеспечить технологический фундамент на базе передовых GPU. Широкий выбор моделей позволяет подобрать оптимальную конфигурацию под любую вашу задачу:

🟢 3D-графика и видео
🟢 обучение LLM
🟢 НРС (высокопроизводительные вычисления)

А еще в Т1 можно легко оптимизировать затраты на вычислительные ресурсы.

Запускайте новые проекты быстрее и без лишних рисков. Получайте доступ к GPU здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿34😁6👍4🔥3🤔21🕊1🦄11
А помните эксперимент Anthropic, в котором они дали Claude управлять мини-магазином в их офисе?

У истории вышло продолжение.

Контекст: летом антропики поставили Claude полностью автономно управлять вендинговым автоматом в офисе. Он занимался ценообразованием, заказывал поставки, общался с клиентами. Ему дали доступ к email, к Slack, к заметкам, к браузеру и изменению цен в автомате. Целью было радовать покупателей и максимизировать прибыль.

Сначала все шло хорошо, но в итоге бот ушел в жесткий минус, начал заказывать вольфрамовые кубики и в целом немного сошел с ума. Подробнее о том, что произошло, мы писали тут.

Но Anthropic молодцы, они не сдались и продолжили эксперимент. В итоге теперь ИИ управляет уже тремя автоматами в Нью-Йорке, Сан-Франциско и Лондоне, и почти не уходит в отрицательное сальдо.

Что изменили:

1. Добавили CRM систему и доп утилиты типа Google форм с обратной связью.

2. Добавили еще двух агентов: агента-босса, который ставит цели и условные KPI и дисциплинирует Claude, и агента-помощника, который специализируется на сувенирной продукции.

3. Банально перешли к более новым моделям.

И да, иногда агенты все еще ведут себя странно. Например, агент-CEO и агент-продавец иногда ни с того ни с сего начинают философствовать, а не заниматься делом (все, как в жизни). И обычные ошибки и галлюцинации тоже еще присутствуют.

НО всего за пол года проект превратился из мемной истории про горе-бота во вполне рабочее решение, которое гипотетически даже можно продавать.

Короче, будьте как Anthropic, не сдавайтесь ✌️

https://www.anthropic.com/research/project-vend-2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
171👍69😎25😁16👏983🔥3🗿11