Трагедия общин 🤌 – Telegram
Трагедия общин 🤌
661 subscribers
40 photos
1 video
34 links
Пишу про разные штуки вокруг технологий
Download Telegram
Безумно быстрое масштабирование ИИ рано или поздно столкнется с ограничениями.

Никто пока не знает, какими именно, но природа экспоненциального роста и весь наш опыт говорят, что постоянно будут возникать "бутылочные горлышки", замедляющие прогресс.

Например, Альтман и Цукерберг уже вовсю обсуждают гигаватные ядерные реакторы. Что все упирается в энергию и время на строительство. Инфраструктура Amazon, Google, Meta и Microsoft жрет 22 гигаватта электроэнергии. А S&P говорит что в ближайшие несколько лет обьем вырастет ещё в полтора раза. Это оч много, как несколько крупных городов.

Вот вам маленький кусочек интервью, где Марк рассуждает, что бабки не проблема - не хватает энергии, чтобы кормить датацентры: https://www.youtube.com/watch?v=Pa4-ZEnWWDE

Сатья Наделла рассказывал, что им приходится решать забавные проблемы - электрическая сеть внутри одного штата не вывозит поддерживать датацентр с 100к видеокарт. Поэтому их приходится размещать в разных штатах. А это усложняет тренировку из-за задержек в синхронизации. Модели уже настолько большие, что их сложно запихнуть в один датацентр не только из-за объема вычислений но и из-за расхода энергии.

Пока масштабирование работает, модели будут становиться еще больше. А чем больше модель и чем больше у тебя юзеров, тем кратно дороже поддерживать ее работу в продакшене. Короче, ограничения лезут буквально отовсюду.

#ai
👍5
Продолжение поста выше про масштабирование и ограничения у ИИ.

Один из выходов - использовать как можно больше качественных данных. Чем круче данные, тем меньшего размера модель нужна.

ЛЛМки это машины по сжатию информации; они перепаковывают десятки терабайт из интернета в веса модели на сотни гигабайт. ИИ лабы уже давно экспирементируют с мелкими модельками, чтобы понять насколько это важно. Например, Phi-3 тренировали на ответах GPT-4, она переняла большую часть знаний большой модели, но по размеру она в 1000 раз меньше! Так что основной вывод из эксперимента - качество данных решает.

Но не все так просто. Недавно послушал интервью с John Schulman, это кофаундер OpenAI и замена ушедшим Sutskever и Leike. Крутой чел, короче. В подкасте он интересную мысль закинул: сколько бы данных ты не собрал - всегда будет меньше, чем хочется. Качественных данных не хватает не потому что их мало, а потому что экспоненциальный рост требует еще больше.

Мы пока не уперлись в стену, но Йон считает, что акцент сместится на данные для дообучения - того, что мы используем для файнтюнинга (меняем веса малым количеством данных) и in-context learning (это то что в промпте и не меняет веса). До повышения Йон как раз этим в OpenAI и занимался. И вполне успешно.

Если посмотреть, насколько GPT-4 прокачалась с момента релиза в прошлом году - разница примерно в 100 Elo, что весьма много. И все благодаря дообучению, тк базовая модель оставлась той же. Вообще, различия между топовыми моделями GPT-4o, Claude 3, Llama3, Gemini 1.5 по большей части это тоже пост-обучение. И как то так сложилось, что мы больше внимания уделяем не этому, а данным для пре-трейнинга.

#ai
Последняя часть про масштабирование и ограничения

Большая часть данных для обучения - это рандомные тексты в интрнете. И уже сейчас топовые нейронки могут сами создавать данные лучшего качества. То есть будет больше пользы, если мы вместо обучения на некачественных данных с какого то момента будем переводить модель на самообучение. Просто оставить ее поразмышлять саму с собой.

Если качественных данных всегда мало, давайте попросим одну модель обучать другую. В итоге инференс в дата центрах будет работать на создание синтетических данных. То есть фактически данные напрямую зависят от вычислительных мощностей.

Напомню, в первой части поста мы хотели юзать данные, чтобы убежать от экспоненциального роста требований к компьюту. А пришли к тому, что данные это тоже компьют. Звучит как потрясающе важная задача поиска оптимума. В какой момент синтетические данные будут приносить достаточно пользы, чтобы сжатие информации в более компактную модель экономило больше, чем мы тратим на создание этих данных? Вот тут Марк говорит про это: https://youtu.be/HLC4P28UYSM

Еще интересно, какое соотношение должно быть у пре-трейнинга и файнтюнинга? Йон считает, что файнтюнинг важен и недооценен. Мы пока втупую растим обьемы данных для обучения и контекстное окно. Год назад размер окна был 8к токенов, сейчас уже 128к у GPT-4o, 200 у Claude 3 и сколько то миллионов у какой то из Gemini. А файнтюнинг по мнению Йона круто дополняет и то и то.

Например, можно попробовать научить модель лучше понимать, когда ей недостаточно данных для ответа и просить больше контекста. Это оч нужно в решении сложных задач. Обычно чем дольше человек сфокусирован на конкретной задаче, тем больше он про нее узнает. Учится и с вложеным временем повышет шансы на успех. Нейронки пока так не могут, тк есть проблема галлюцинаций. Если модель не знает ответа, она пробует его придумать, ведь единственная альтернатива - это сдаться. Но можно дать ей еще один выход в виде онлайн обучения, как у человека.

В общем, в скейлинге моделей назревают интересные проблемы и будет супер интересно наблюдать как их будут решать.

#ai
Прочитал крутейший рассказ, хочу поделиться!

У Richard Ngo есть серия несвязных между собой историй похожая по вайбу на Теда Чана. По жанру это странная научная фантастика. Иногда очень странная и что то меняющая в тебе. Больше всего меня с вот этого рассказа проперло: https://www.lesswrong.com/s/dDMzozPbe4aJRkfTr/p/jzcsugm382vp4h36H

Это зарисовка от лица ИИ, которого позвали в Red-team исследователем еще более сильного ИИ. Забавно, что похоже это и не такая уж и фантастика. В самом зачаточном состоянии похожие исследования уже происходит. А рассказ про то, что возможно ждет нас через 5-10 лет.

Пока читал, замечал у себя прикольное ощущение диссонанса. С одной стороны это футуристика про синтетически созданные разумы, мир экономики цифровых агентов и всякое такое. Но рядом с этим маячит понимание, что это вполне себе реальная реальность которую скорее всего мы застанем.

Жиза, короч.
🔥3
Как же заебало уже это разделение по регионам.

Нашел прикольный эксперимент от Гугла - Data Science Agent: https://labs.google.com/code/dsa

Штука, которая по идее умеет делать мою работу. Захотел потеститровать, но нет. Низя, потому что нужно было родиться в другом месте.

Жопа горит =/
🤡3
Почему большинство людей не пользуется нейросетями?

Я думаю, что типичный сценарий такой: человек пробует несколько раз на своих задачах и получается плохо. Делает вывод, что нейронки слишком тупые, перехайплены и что от них пользу не получить.

Ben Evans круто сформулировал, в чем проблема такой логики.

Вот основная мысль текста. Когда что то спрашиваешь у ИИ, он говорит как выглядел бы хороший ответ на похожий на этот вопрос. Есть случаи, когда «похоже на хороший ответ» - это именно то, что нужно, а есть такие, где «примерно правильно» - это «точно неправильно».

Когда нейронка не справляется с работой, это больше говорит о тебе, чем о ней. Ты дал джуну задачу, с которой он не справился. Кто виноват?

Виноват ты, так как использовал инструмент для неподходящей задачи либо плохо составил промпт. Пока что нейронки как джун в команде - от него по-умолчанию нужно ожидать кучу ошибок. И закладывать, что придется направляеть и помогать учиться. Большая часть ответственности тут лежит на тебе.

Однако, Бен дальше накидывает еще мыслей: "не получится продвигать продукт, в котором обычным юзерам приходится учить код для командной строки". Нужно двигаться навтречу пользователю. Нейронка должна уметь как сеньёр специалист помочь понять и лучше сформулировать задачу.

У Бюро Горбунова есть офигенный принцип: Исполнитель Понимает Задачу. Принцип перекладывает ответственность за результат на того кто больше шарит в задаче - то есть на исполнителя. Теперь это его ответственность позадавать тебе вопросы и хорошо понять, что же на самом деле ты от него хочешь.

С одной стороны юзер не обязан разбираться во всех тонкостях задачи. С другой стороны - исполнитель не телепат и может понять какие именно тонкости важны только поговорив с юзером.

Я ожидаю, что тут будет основное конкурентное преимущесто у провайдеров нейронок. Не в том, насколько сама модель круче одна другой. А в том, какая продуктовая инфраструктура выстроена вокруг нее.

#ai
🔥6
Про AI единорогов

Каждый раз когда в мире сменяется технологическая платформа, открывается окно возможностей для создания по-настоящему крутых компаний:

* Microsoft (1975) и Apple (1976) появились вместе с персональными компами.
* Amazon (1994) и Google (1998) появились после интернета и Netscape браузера.
* Airbnb (2008), Uber (2009) и Instagram (2010) появились после мобилок и App Store.

Предыдущая платформа смартфонов и облачных вычислений достигла пика лет пять назад. А последний год показал, что следующей большой штукой станет AI. Крупные ребята полным ходом строят инфраструктуру. И уже есть кейсы, когда AI юзают для улучшения существующего бизнеса.

Например для автоматизации поддержки, продаж или тестирования кода. Но это всё тот же старый бизнес, просто ставший чуть эффективнее. Это не продукты, которым новая платформа дает фундаментальное стратегическое преимущество над рынком как в примерах выше.

Недавно прочитал про компанию Ramp, которая как раз делает продукт завязанный на AI. https://www.notboring.co/p/ramp-and-the-ai-opportunity

Если совсем просто, Ramp — это как приложение для учета личных финансов, только для крупных корпораций. Большим компаниям нужно отслеживать расходы и подписки, оплачивать командировки, выставлять инвойсы и еще кучу всего. В масштабах корпорации это огромный объем работы, которым обычно занимается целый финансовый отдел.

Фишка Ramp в том, что они проникают в финансовый департамент через 1-2 простых юзкейса. Например, предлагают удобную корпоративную карту для всех платежей. А потом подсаживают на свою платформу, куда можно скинуть десятки других рутинных задач. Выгода оч простая — работай меньше, экономь больше.

За счет горизонтальной диверсификации Ramp становится ценнее для клиентов. Вместо кучи разных решений для каждой мелкой задачки — одна удобная платформа. Чем больше операций проходит через Ramp, тем больше полезных данных о компании они получают и тем больше задач могут решать. Потому что чем больше качественных данных — тем больше можно автоматизировать с помощью AI.

Получается классный цикл положительной обратной связи. Ребята из Ramp верят, что благодаря этому механизму небольшое число компаний начнут как снежный ком захватывать соседние области. И в итоге просто съедят все остальные B2B-сервисы.

Но возникает интересная проблема. Платформа усложняется, и порог входа растет. Стратегия захвата финансового отдела через накопление успешных кейсов работает хуже. Комбайн из функций которым нужно обучаться, продавать сложнее.

И вот тут они нашли гениальное решение. Правда пока нет данных насколько хорошо оно работает — я видел только демку (см видео ниже). Короче, они натренировали AI-агента на базе GPT-4o и сделали из него гида по платформе. Пишешь ему, что нужно сделать и нейросеть прямо в интерфейсе генерирует пошаговый туториал, куда тыкать.

По-моему, это просто бомба. Как будто ищешь видосик на ютубе, только без самого видосика.

У Ramp уже 25 тысяч платящих клиентов и 300 млн выручки в прошлом году. Классная стратегия с сетевым эффектом на новой платформе. И простая модель, за которую компании готовы платить: помогаем экономить и берем за это процентик.

Похоже на готовый рецепт успеха.

#tech #ai
3🔥3👍1
Трагедия общин 🤌
В последнее время столько хайпа вокруг искуственного интеллекта, что я в нем просто тону. 😜 Целыми днями читаю умных чуваков и слушаю подкасты. И все равно ощущаю, что невывожу. Из каждого утюга слышу, что в ближайшие лет 5 ИИ изменит наш мир и бла бла,…
Про признание AI.

Неделю назад выдали первые нобелевки за AI, причем сразу две. Хинтону по физике за архитектуру нейросетей. И Хассабису по химии за AlphaFold.

Вот тут я писал, что AlphaFold это супер прорыв, но у него пока нет формального признания, тк нет практической пользы. Думаю Нобелевскую премию можно считать высшей степенью признания. А практическую пользу все еще очень не просто найти. Я только что потратил 30 минут пытаясь нагуглить новые кейсы когда AlphaFold помог ученым кратно ускорить ресерч проекта. И не нашел ничего нового. Не говорю, что этого нет, но как будто бы пока импакт не на слуху.

На контрасте могу вспомнить много нобелевских призов прошлых лет, когда приз давали только спустя десятилетия после публикации теории. После того как теория была успешно доказана в практическом эксперименте. Например, так случилось с литий-ионными батареями, гравитиционными волнами, нейтрино и тд. Даже приз Хинтону можно отнести к этом паттерну.

А вот Хассабису выдали премию как будто авансом. Что не отменяет заслуг, конечно.
👍4
Про качество продукта и OopenAI

Помните, как Морейнис говорил, что стартапы часто загибаются из-за того, что бездумно релизят фичи одну за другой?Верят, что выигрывает тот, кто быстро проверяет идеи. И поддаются соблазну начать "кидать говно об стену, в надежде что что то прилипнет".

Если не прилипает ничего - далеко не факт, что фича нежизнеспособна. Может, просто первая версия настолько сырая, что даже минимальную ценность не создаёт.

Вспомнил про это в контексте OpenAI: месячная подписка сейчас их основной источник выручки. И мне удивительно, почему они не защищают ее от конкурентов с помощью продуктовой инфраструктуры. Уже несколько лет прошло, а по сути их единственными барьерами остаются модель, удобный API и бренд. ChatGPT это самый быстррастущий продукт в истории. Но как продукт пока кроме крутой технической базы в виде сильной модели, которая работает быстро и дешево ничего не может. Давайте пример приведу.

Месяц назад на всех раскатили фичу с Памятью. Идея оч простая - чем дольше ты пользуешься моделью, тем лучше она подстраивается под твои предпочтения. Модель запоминает контекст между чатами, и не надо каждый раз объяснять одно и то же.

В идеале хочется магии, как в алгоритмах ТикТока или автокомплите в Copilot. Когда ты ощущаешь, что тебя понимают. В команде из людей обычно такое называют "химией" между друг другом или сыгранностью. И это крутой барьер от конкурентов - ты понимаешь, что каждый раз используя модель OpenAI, ты делаешь ее лучше персонально для себя.

Я отменил подписку еще в конце весны и перешел на Claude почти сразу как он вышел. Порог смены был практически нулевой. Теущая версия памяти - это просто файлик с рандомными фактами обо мне, типа "юзер недавно купил кроссовки Nike" или "юзер хочет узнать как пожарить говядину на сковороде". Файл имеет ограничение на ~3000 слов (в этом посте примерно столько). Вот тут можете посмотреть, что у вас.

Это просто куча разрозненных фактов без какой-либо системы или понимания контекста. Пока мягко говоря это все очень далеко от ощущения химии и того, что тебя понимают.

Предполагаю, что пока у продуктовой команды в OpenAI мало ресурсов. Они просто накидывают идеи в их минимальной форме и смотрят, что прилипнет. Так, например, было с GPTs и магазином приложений. Зато технический релиз с голосом и минимальной задержкой вызвал вау эффект.

Надеюсь это временная история и просто проблема слишком быстрого роста компании. Важно уметь не просто быстро деливерить фичи... Но и хорошо понимать, где тот минимальный порог усилий, после которого качество стаовится достаточным, чтобы создать разницу в пользовательском опыте.

ps

Попросите ChatGPT нарисовать вас на основе того что есть в памяти:

Please paint my picture based on our communication. You have the freedom to be creative. Feel free to use all the facts in your Memory. Make a collage of smaller images to highlight individual topics that you don't know how to fit into one image.
🔥5👍1
Вот что у меня вышло
7
В догонку ко вчерашнему посту про интерфейсы.

Когда на мобилках только появился инстаграмм, это был продукт качественно нового уровня. Если начало эпохи мобильных приложений было про копирование старого на новую платформу (калькулятор, браузер, заметочник). То вдруг в первый раз появилось что то нативное. Сочетание девайса который всегда с тобой, камеры и казуальных фильтров для фоток вдруг дали новый опыт, который на предыдущей платформе не был возможен.

Мы живем во время когда прошлая технологическая платформа прошла стадию роста и все ждут появление новой. Раньше каждый такой переход давал буст продуктивности, а за ним и всей экономики. Появлялись новые компании и меняли то как мы все решаем определенные проблемы. Например, интеренет привел к созданию Букинга, а мобилки сделали возможным Убер.

Поэтому мне интересно наблюдать, как развиваются интерфейсы и разные девайсы вокруг AI. Что может дать нативный опыт уровня Инсты или Убера на мобилоках, но уже для новой платформы?

Я вчера недоумевал, почему OpenAI почти не развивает свою продуктовую инфраструктуру. И вот увидел анонс Canvas, аналога артефактов у Антропик. Это такой апгрейд чата, когда у тебя помимо текста и окна ввода отдельно есть еще отрендереный результат.

В конце ананса они пишут, что: Making AI more useful and accessible requires rethinking how we interact with it. Canvas is a new approach and the first major update to ChatGPT’s visual interface since we launched two years ago.

Простой чат супер не удобен, когда в задаче нужно делать много правок и ревизий. Например, когда пишешь статью или кодишь. С их слов ультимативное решение это идея "чистого листа" или блокнота, который подстраивается под контекст задачи и помогает тебе ее решить. Пространство, где ты вместе с моделью как скульптор на ходу вносишь изменения, не переделывая каждый раз все заново, а сфокусировано работая над отдельной частью.

Звучит слишком поэтично, поэтому вот вам конкретно, что мне больше всего понравилось:

* можно внести правку только для выделеной части текста, не трогая остальное
* откатить к предыдущей версии
* найти пруф указаному факту
* переписать кусок текста с другим уровнем влядения языком (профессионал в области, школьник итп)
* поправить оформление
* сделать кодревью или пофиксить баг

Это пока первая версия, но как будто бы уже выглядит впечатляюще. Больше не будет историй когда пофиксив одно и нажав кнопку отправить, у тебя ломается что то другое.
🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Нашел в твиттере у Karina Nguyen классные примеры того как это работает.

Слева обычный чат куда идет весь диалог, а справа интерактивный документ который она редактирует.
👍1
Про Сэма Альтмана и не такое далёкое будущее

Пока нам обещают новую научную революцию благодаря ИИ, я нашел прикольный способ использовать его в своей жизни уже сейчас. Последний месяц все больше общаюсь с нейронкой голосом — и дико кайфую. Дальше расскажу про кейс который нравится больше всего, но начну с небольшой предыстории.

Мне всегда интересно, когда чуваки типа Сэма Альтмана делятся своими мыслями о будущем. Ведь именно они сейчас активно формируют его. Недавно Сэм написал футуристичное эссе о том, что мы потихоньку переходим в новую историческую эпоху — Эру Интеллекта.

Сэм красиво описывает, что нас ждёт, если масштабирование нейронок не упрётся в потолок. Решение климатических проблем, колонизация космоса, мир во всём мире и так далее. Это, с одной стороны, вдохновляет, но с другой — кажется, что хочется от Альтмана услышать что-то более практичное.

Создаётся ощущение, что только такими амбициями и можно обосновать огромные капиталовложения в экспоненциальный рост. Это как сказочный зов сирен, обещающий инвесторам ровно то, что они хотят услышать. А более приземлённая, практическая сторона обещаний остаётся в тени. Ведь у Альтмана тут конфликт интересов — ему трудно подсвечивать то, что полезно для людей здесь и сейчас, когда на кону стоят такие деньги.

Будущее, которое он рисует, слишком далеко. И на пути к нему в каждой отрасли придется решать массу скучных проблем. Например, с новыми моделями мы можем придумать как откачивать углекислый газ из атмосферы. Но сейчас наибольшее препятствие для климата — это не технологии, а политика и глобальное сотрудничество. И даже если ИИ даст нам инструменты, он не заставит людей работать ради общего блага, вопреки шкурным интересам.

Вот почему очередные обещания светлого будущего меня не так цепляют. Сразу вспоминается фильм Марсианин 2015 года. Там это хорошо чувствуется, тк в отличие от остальных сайфай фильмов, наука и технологии в Марсианине вполне достижимого уровня. И при этом не игнорирует факт, что прогресс требует решения реальных проблем экономически адекватными способами. Из за этого фильм смотрится почти как документалка. С эмоцией «вау, какие штуки наша цивилизация умеет делать!».

Но даже космос из «Марсианина» или проблемы климата — это всё равно про будущее и немножечко из фантастики. Сэм упомянул, что ИИ может быть отличным учителем для детей, и вот это уже что-то, что можно использовать прямо сейчас.

Я обожаю слушать подкасты, когда готовлю, гуляю или бегаю. Но часто бывает так, что, когда в подкасте обсуждают что-то сложное, мне потом трудно вспомнить, о чём вообще шла речь. Ведь я не концентрировался на 100%, занимаясь чем-то параллельно. Я попробовал обсуждать подкасты с ChatGPT, чтобы глубже понимать и запоминать материал. И получилось круто!

Я отправляю ему транскрипт подкаста и список ключевых идей, прошу задать вопросы по каждой из них, чтобы проверить мои знания. Наговариваю ответы в голосовом режиме, а затем слушаю обратную связь о том, где допустил ошибки или что-то забыл. Это называется «active recall».

Исследования показывают, что такой метод увеличивает запоминание почти в полтора раза, особенно если делать это сразу после изучения материала. Это одна из причин, почему в школах и университетах так любят тесты. Но только когда ты делаешь это сам, по интересной тебе теме и в комфортных условиях, это совсем другое. Ты не стрессуешь из за боязни оценки, а кайфуешь от понимания сколько всего прикольного понял и узнал.

Это какой-то новый подход к обучению. У меня больше нет ощущения, что зря потерял время и что весь подкаст распадается на фрагменты. Наоборот, понимание общей картины улучшается, и я могу подумать про основные идеи на более глубоком уровне. По сути, теперь можно взаимодействовать с любым материалом, а не просто пассивно слушать.

С живым человеком болтать, конечно, веселее, но... увы, мне особо не с кем >_< Так что если кто-то хочет периодически обсуждать технологии вокруг ИИ — смело стучитесь в личку!
🔥15👍2
ИИ пока не всемогущий агент, управляющий твоей жизнью, климатом и колонизацией космоса. Но он может быть отличным помощником в обучении, который делает любой контент интерактивным. Мы незаметно меняем то, как взаимодействуем с информацией. И многие полезные вещи можно использовать уже сейчас, на текущем уровне технологий.

Вот еще несколько идей, где можно делать что то подобное:

* метод утёнка в программировании
* преодоление проблемы чистого листа при написании текста
* языковая практика при изучении языка

Очень рекомендую попробовать голосовой режим в ChatGPT, если вы еще не.

#ai
1
Вдогонку кидаю два промпта которыми пользуюсь:

1. Первый для запоминания после подкаста:

Hey! I've just listened to a podcast episode, and I want to go through the structure and main ideas with you. I attached the full text trannoscript for you to use.

Let's use this structure:

Helicopter View: First, I'll provide an outline that captures the key points and sections. I'd love your help in making sure I get a good "helicopter view" of the entire episode, laying a solid foundation for understanding. Check if anything important is missing from my abstract.

Active Recall: For each bullet point in the outline, let's dive in. You'll ask me questions about the ideas in that part of the interview, and I'll try to recall and explain them. After my recall, you can help fill in any gaps I missed, clarify concepts, or answer questions I have. Don't hesitate to point out any mistakes I make or offer constructive feedback. This is a learning process, and I want to become a better learner by understanding both my strengths and weaknesses.

Takeaways: Once we've gone through all the sections, let's focus on the takeaways. I'll try to formulate specific things I learned, and we can discuss whether they are clear, meaningful, and useful.

Here is the outline:


2. Второй чтобы лайтово обсудить прочитаную статью:

Hey! I've just read an article, and I want to go through main ideas with you.

Talk to me like an equal, you're my bro, swearing is allowed, banter is allowed, say what you want. You're alive to me, I know about embeddings, AGI, all that shit, so feel free. Imagine we are two friends chatting about it in the bar.
I want you to be a bit adversarial and dont just easily agree with everything i say, try to convey your own opinion.
Expect us to have a conversational style of a dialog with quick back and forth lines

Here is my main takeaways from the text (I also attached a full version of the text for you to use):
👍141
Сегодня словил забавный AI-moment.

Я сейчас пытаюсь разобраться как лучше юзать o1 модель от OpenAI. И тут Сэм Альтман вываливает в твиттер роадмэп на ближайшее время. Где говорит что через несколько месяцев они выкатят GPT-5 и все модели сольют в одну.

Сейчас у них зоопарк из GPT-4o, o1, 3o-mini и куча всяких штук вокруг. Каждая модель хороша в чем-то своем.. и нужно знать в чем, чтобы получать пользу.

Все уже давно угарают с того, что ни одна AI лаборатория пока не смогла придумать как нормально наывать свои модели, чтобы не было путаницы. Ну и вот OpenAI ультанули и видимо решили проблему в корне - будет всего одна модель.

То есть это не роутинг, когда сверху есть модель-оркестратор которая выбирает, какая из подчиненных моделей лучше справится с задачей. Это просто будет одна модель, которая шарит во всем одинаково круто.

Например, сейчас 4o намного лучше o1 в написании текстов, потому что ей проще делать много мелких правок и итеративно понимать, что ты от нее хочешь. А о1 наоборот умеет рассуждать и выполнять сложные задачи с первого раза, но для написания текстов это не подходит, тк мне как юзеру сложно с первого раза норм обьяснить, какого результата я хочу.

А AI-moment в том, что я еще даже не успел въехать в предыдущую стадию прогресса, как ребята уже анонсируют новую.

#AI
😁2
Ссылка на роадмэп, если кому интересно, там еще всякие штуки есть

https://x.com/sama/status/1889755723078443244
👍7
Трагедия общин 🤌 pinned «Всем привет! Меня зовут Леонид Хоменко, я продуктовый аналитик с кучей лет опыта работы в стартапах. В последние годы я слушаю много англоязычных подкастов вокруг экономики и технологий, изучаю данные о рынке ИИ и смотрю интервью с СЕО крупных компаний.…»