Трагедия общин 🤌 – Telegram
Трагедия общин 🤌
661 subscribers
40 photos
1 video
34 links
Пишу про разные штуки вокруг технологий
Download Telegram
Хочу порассуждать про конкуренцию вокруг AI.

Байрам Аннаков как то высказывал идею, что у крупных технологических компаний высоченные барьеры в виде данных и ресурсов на вычислительные мощности. И поэтому подорвать их лидерство на рынке очень сложно.

Но в этом году опенсорс коммьюнити смогли научиться делать модели с 90% качества лидеров. Я решил поподробнее разобраться почему данные и датацентры так важны. И по прежнему ли это так? Ведь опенсорс тратит на создание своих моделей в сотни раз меньше ресурсов!

В итоге вышел большой и связный пост: https://vas3k.club/post/22008.

В нем описываю, какие барьеры все еще защищают бигтех компании. А еще расскажу как так вышло, что опенсорс смог быстро стать значимым. И как это связано с Марком Цукербергом и кринжевыми танцами Билла Гейтса 30 лет назад 😁

Apple, Microsoft, Google, Amazon и Meta большую часть моей сознательной жизни сильно влияли на то как эта жизнь проходит. И вот наступило время, когда это может поменяться.
🔥2👍1
Уже около пяти лет послеживаю за новостями биотеха. Это чрезвычайно медленная и зарегулированая область, где от сообщений что какое-то открытие перевернет мир до практически применимых вещей проходят десятилетия.

Но похоже скоро попрёт. Этой весной уже несколько раз читал про успешное применение генной терапии на людях. В 20 году за CRISPR (метод редактирования генов) дали Нобелевскую премию по химии. В прошлом году наконец одобрили клиническое применение на людях. А вот недавно появился кейс лечения редкой наследственной болезни - дистрофии сетчатки. Эта штука приводит к серьезной потере зрения в раннем возрасте, до уровня когда ты видишь только очертания объектов.

У 11 живых людей модифицировали небольшой участок ДНК в одном глазу и за несколько месяцев они начали частично видеть. Без каких-либо серьезных краткосрочных последствий для организма. У этого вида болезни раньше не было ни одного одобренного FDA способа лечения.

Болезни и смерть - это полная хуета. И такие новости дают надежду что у нас с вами получится дожить до момента, когда медицина выйдет на "longevity escape velocity". В переводе - скорость ускользания от старения. То есть развитие медицины и превентивного здравоохранения будут увеличивать продолжительность жизни быстрее, чем мы старееи и собираем болячки.

Раньше подобное встречалось только в научной фантастике, например в Видоизмененном углероде. А теперь вот можно начинать надеяться, что и в реальности такое станет возможным.
Держим кулачки!

#biotech
🔥61👍1
В последнее время столько хайпа вокруг искуственного интеллекта, что я в нем просто тону. 😜 Целыми днями читаю умных чуваков и слушаю подкасты. И все равно ощущаю, что невывожу.

Из каждого утюга слышу, что в ближайшие лет 5 ИИ изменит наш мир и бла бла, что вышла новая модель и бла бла бла...

Как понять, что из новостей реально важно, а про что мы забудем через неделю?

Я настолько впечатлился этим вопросом, что последние два месяца писал большущий пост на английском, где попробовал на него ответить. Пост про то, что полезного из технологий уже есть сейчас и чего нам не хватает, чтобы построить светлый мир будущего.

Думаю что у меня довольно уникальный подход. Я взял за основу оч плотно набитый информацией подкаст с Демисом Хассабисом, собрал из него связную историю и добавил много контекста и своих мыслей вокруг. Демис по факту руководит всем АИ направлением в Гугле. А интервью у него брал Дваркеш - кмк сейчас это топ 1 интервьювер в тех секторе. У них невероятно интересный разговор получился с кучей мяса по теме.

Короче, я прям выложился, когда писал это все. Мне будет очень приятно, если вы прочитаете:

https://open.substack.com/pub/commonstragedy/p/ai-revolution-how-artificial-general?r=2h3052&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true

Enjoy!
🔥8👍1🫡1
Биотех это не только про лекарства. Расскажу вам про картоху!

Почему картоха это важно?

Потому что агро система на Земле уже сегодня невывозит спроса на еду. Около миллиарда людей недоедает. А население планеты продолжает расти и по оценкам ООН, через 25 лет нам нужно будет в полтора раза больше еды, чем мы можем производить. Особенно в регионах, где из за природных условий сложно что то выращивать.

Люди с этим уже давно борятся, в основном с помощью селекции.
Это когда ты перекрестным опылением скрещиваешь топовые растения друг с другом и потом отбираешь из их потомства растения с нужными свойствами. Например, оставляешь только самые вкусненькие, жароустойчивые и урожайные. И вуаля, всего через 10 лет пересаживаний и борьбы с рандомом у тебя новое растение!

Кайф, да? Десять сука лет.

Это все из за того что гены у растений передаются так же как и у нас - по половине от мамы и от папы. Но у растений больше хромосом, так что получается много возможных комбо. В итоге ты в каждом поколении получаешь большой разброс в качестве растений.

Короче, чуваки из https://ohalo.com/ решили эту проблему. Они отредактировали у картошки гены, отвечающие за передачу только половины информации от родителей. Теперь при скрещивании потомкам передаются вообще все гены. И получаются послностью одинаковые семена, а не случайный набор.

Сейчас каждый год тратятся миллиарды долларов, чтобы улучшить урожайность на несколько процентов. А эти ребята показали буст в полтора-два раза на разных растениях! Технологию назвали Boosted Breeding.

Это классный кейс, тренда про уход от рандома к контролируемому созданию того что тебе нужно. Практическая биология потихоньку становится точной инженерной наукой, как строительство мостов.

#biotech
🔥3
Безумно быстрое масштабирование ИИ рано или поздно столкнется с ограничениями.

Никто пока не знает, какими именно, но природа экспоненциального роста и весь наш опыт говорят, что постоянно будут возникать "бутылочные горлышки", замедляющие прогресс.

Например, Альтман и Цукерберг уже вовсю обсуждают гигаватные ядерные реакторы. Что все упирается в энергию и время на строительство. Инфраструктура Amazon, Google, Meta и Microsoft жрет 22 гигаватта электроэнергии. А S&P говорит что в ближайшие несколько лет обьем вырастет ещё в полтора раза. Это оч много, как несколько крупных городов.

Вот вам маленький кусочек интервью, где Марк рассуждает, что бабки не проблема - не хватает энергии, чтобы кормить датацентры: https://www.youtube.com/watch?v=Pa4-ZEnWWDE

Сатья Наделла рассказывал, что им приходится решать забавные проблемы - электрическая сеть внутри одного штата не вывозит поддерживать датацентр с 100к видеокарт. Поэтому их приходится размещать в разных штатах. А это усложняет тренировку из-за задержек в синхронизации. Модели уже настолько большие, что их сложно запихнуть в один датацентр не только из-за объема вычислений но и из-за расхода энергии.

Пока масштабирование работает, модели будут становиться еще больше. А чем больше модель и чем больше у тебя юзеров, тем кратно дороже поддерживать ее работу в продакшене. Короче, ограничения лезут буквально отовсюду.

#ai
👍5
Продолжение поста выше про масштабирование и ограничения у ИИ.

Один из выходов - использовать как можно больше качественных данных. Чем круче данные, тем меньшего размера модель нужна.

ЛЛМки это машины по сжатию информации; они перепаковывают десятки терабайт из интернета в веса модели на сотни гигабайт. ИИ лабы уже давно экспирементируют с мелкими модельками, чтобы понять насколько это важно. Например, Phi-3 тренировали на ответах GPT-4, она переняла большую часть знаний большой модели, но по размеру она в 1000 раз меньше! Так что основной вывод из эксперимента - качество данных решает.

Но не все так просто. Недавно послушал интервью с John Schulman, это кофаундер OpenAI и замена ушедшим Sutskever и Leike. Крутой чел, короче. В подкасте он интересную мысль закинул: сколько бы данных ты не собрал - всегда будет меньше, чем хочется. Качественных данных не хватает не потому что их мало, а потому что экспоненциальный рост требует еще больше.

Мы пока не уперлись в стену, но Йон считает, что акцент сместится на данные для дообучения - того, что мы используем для файнтюнинга (меняем веса малым количеством данных) и in-context learning (это то что в промпте и не меняет веса). До повышения Йон как раз этим в OpenAI и занимался. И вполне успешно.

Если посмотреть, насколько GPT-4 прокачалась с момента релиза в прошлом году - разница примерно в 100 Elo, что весьма много. И все благодаря дообучению, тк базовая модель оставлась той же. Вообще, различия между топовыми моделями GPT-4o, Claude 3, Llama3, Gemini 1.5 по большей части это тоже пост-обучение. И как то так сложилось, что мы больше внимания уделяем не этому, а данным для пре-трейнинга.

#ai
Последняя часть про масштабирование и ограничения

Большая часть данных для обучения - это рандомные тексты в интрнете. И уже сейчас топовые нейронки могут сами создавать данные лучшего качества. То есть будет больше пользы, если мы вместо обучения на некачественных данных с какого то момента будем переводить модель на самообучение. Просто оставить ее поразмышлять саму с собой.

Если качественных данных всегда мало, давайте попросим одну модель обучать другую. В итоге инференс в дата центрах будет работать на создание синтетических данных. То есть фактически данные напрямую зависят от вычислительных мощностей.

Напомню, в первой части поста мы хотели юзать данные, чтобы убежать от экспоненциального роста требований к компьюту. А пришли к тому, что данные это тоже компьют. Звучит как потрясающе важная задача поиска оптимума. В какой момент синтетические данные будут приносить достаточно пользы, чтобы сжатие информации в более компактную модель экономило больше, чем мы тратим на создание этих данных? Вот тут Марк говорит про это: https://youtu.be/HLC4P28UYSM

Еще интересно, какое соотношение должно быть у пре-трейнинга и файнтюнинга? Йон считает, что файнтюнинг важен и недооценен. Мы пока втупую растим обьемы данных для обучения и контекстное окно. Год назад размер окна был 8к токенов, сейчас уже 128к у GPT-4o, 200 у Claude 3 и сколько то миллионов у какой то из Gemini. А файнтюнинг по мнению Йона круто дополняет и то и то.

Например, можно попробовать научить модель лучше понимать, когда ей недостаточно данных для ответа и просить больше контекста. Это оч нужно в решении сложных задач. Обычно чем дольше человек сфокусирован на конкретной задаче, тем больше он про нее узнает. Учится и с вложеным временем повышет шансы на успех. Нейронки пока так не могут, тк есть проблема галлюцинаций. Если модель не знает ответа, она пробует его придумать, ведь единственная альтернатива - это сдаться. Но можно дать ей еще один выход в виде онлайн обучения, как у человека.

В общем, в скейлинге моделей назревают интересные проблемы и будет супер интересно наблюдать как их будут решать.

#ai
Прочитал крутейший рассказ, хочу поделиться!

У Richard Ngo есть серия несвязных между собой историй похожая по вайбу на Теда Чана. По жанру это странная научная фантастика. Иногда очень странная и что то меняющая в тебе. Больше всего меня с вот этого рассказа проперло: https://www.lesswrong.com/s/dDMzozPbe4aJRkfTr/p/jzcsugm382vp4h36H

Это зарисовка от лица ИИ, которого позвали в Red-team исследователем еще более сильного ИИ. Забавно, что похоже это и не такая уж и фантастика. В самом зачаточном состоянии похожие исследования уже происходит. А рассказ про то, что возможно ждет нас через 5-10 лет.

Пока читал, замечал у себя прикольное ощущение диссонанса. С одной стороны это футуристика про синтетически созданные разумы, мир экономики цифровых агентов и всякое такое. Но рядом с этим маячит понимание, что это вполне себе реальная реальность которую скорее всего мы застанем.

Жиза, короч.
🔥3
Как же заебало уже это разделение по регионам.

Нашел прикольный эксперимент от Гугла - Data Science Agent: https://labs.google.com/code/dsa

Штука, которая по идее умеет делать мою работу. Захотел потеститровать, но нет. Низя, потому что нужно было родиться в другом месте.

Жопа горит =/
🤡3
Почему большинство людей не пользуется нейросетями?

Я думаю, что типичный сценарий такой: человек пробует несколько раз на своих задачах и получается плохо. Делает вывод, что нейронки слишком тупые, перехайплены и что от них пользу не получить.

Ben Evans круто сформулировал, в чем проблема такой логики.

Вот основная мысль текста. Когда что то спрашиваешь у ИИ, он говорит как выглядел бы хороший ответ на похожий на этот вопрос. Есть случаи, когда «похоже на хороший ответ» - это именно то, что нужно, а есть такие, где «примерно правильно» - это «точно неправильно».

Когда нейронка не справляется с работой, это больше говорит о тебе, чем о ней. Ты дал джуну задачу, с которой он не справился. Кто виноват?

Виноват ты, так как использовал инструмент для неподходящей задачи либо плохо составил промпт. Пока что нейронки как джун в команде - от него по-умолчанию нужно ожидать кучу ошибок. И закладывать, что придется направляеть и помогать учиться. Большая часть ответственности тут лежит на тебе.

Однако, Бен дальше накидывает еще мыслей: "не получится продвигать продукт, в котором обычным юзерам приходится учить код для командной строки". Нужно двигаться навтречу пользователю. Нейронка должна уметь как сеньёр специалист помочь понять и лучше сформулировать задачу.

У Бюро Горбунова есть офигенный принцип: Исполнитель Понимает Задачу. Принцип перекладывает ответственность за результат на того кто больше шарит в задаче - то есть на исполнителя. Теперь это его ответственность позадавать тебе вопросы и хорошо понять, что же на самом деле ты от него хочешь.

С одной стороны юзер не обязан разбираться во всех тонкостях задачи. С другой стороны - исполнитель не телепат и может понять какие именно тонкости важны только поговорив с юзером.

Я ожидаю, что тут будет основное конкурентное преимущесто у провайдеров нейронок. Не в том, насколько сама модель круче одна другой. А в том, какая продуктовая инфраструктура выстроена вокруг нее.

#ai
🔥6
Про AI единорогов

Каждый раз когда в мире сменяется технологическая платформа, открывается окно возможностей для создания по-настоящему крутых компаний:

* Microsoft (1975) и Apple (1976) появились вместе с персональными компами.
* Amazon (1994) и Google (1998) появились после интернета и Netscape браузера.
* Airbnb (2008), Uber (2009) и Instagram (2010) появились после мобилок и App Store.

Предыдущая платформа смартфонов и облачных вычислений достигла пика лет пять назад. А последний год показал, что следующей большой штукой станет AI. Крупные ребята полным ходом строят инфраструктуру. И уже есть кейсы, когда AI юзают для улучшения существующего бизнеса.

Например для автоматизации поддержки, продаж или тестирования кода. Но это всё тот же старый бизнес, просто ставший чуть эффективнее. Это не продукты, которым новая платформа дает фундаментальное стратегическое преимущество над рынком как в примерах выше.

Недавно прочитал про компанию Ramp, которая как раз делает продукт завязанный на AI. https://www.notboring.co/p/ramp-and-the-ai-opportunity

Если совсем просто, Ramp — это как приложение для учета личных финансов, только для крупных корпораций. Большим компаниям нужно отслеживать расходы и подписки, оплачивать командировки, выставлять инвойсы и еще кучу всего. В масштабах корпорации это огромный объем работы, которым обычно занимается целый финансовый отдел.

Фишка Ramp в том, что они проникают в финансовый департамент через 1-2 простых юзкейса. Например, предлагают удобную корпоративную карту для всех платежей. А потом подсаживают на свою платформу, куда можно скинуть десятки других рутинных задач. Выгода оч простая — работай меньше, экономь больше.

За счет горизонтальной диверсификации Ramp становится ценнее для клиентов. Вместо кучи разных решений для каждой мелкой задачки — одна удобная платформа. Чем больше операций проходит через Ramp, тем больше полезных данных о компании они получают и тем больше задач могут решать. Потому что чем больше качественных данных — тем больше можно автоматизировать с помощью AI.

Получается классный цикл положительной обратной связи. Ребята из Ramp верят, что благодаря этому механизму небольшое число компаний начнут как снежный ком захватывать соседние области. И в итоге просто съедят все остальные B2B-сервисы.

Но возникает интересная проблема. Платформа усложняется, и порог входа растет. Стратегия захвата финансового отдела через накопление успешных кейсов работает хуже. Комбайн из функций которым нужно обучаться, продавать сложнее.

И вот тут они нашли гениальное решение. Правда пока нет данных насколько хорошо оно работает — я видел только демку (см видео ниже). Короче, они натренировали AI-агента на базе GPT-4o и сделали из него гида по платформе. Пишешь ему, что нужно сделать и нейросеть прямо в интерфейсе генерирует пошаговый туториал, куда тыкать.

По-моему, это просто бомба. Как будто ищешь видосик на ютубе, только без самого видосика.

У Ramp уже 25 тысяч платящих клиентов и 300 млн выручки в прошлом году. Классная стратегия с сетевым эффектом на новой платформе. И простая модель, за которую компании готовы платить: помогаем экономить и берем за это процентик.

Похоже на готовый рецепт успеха.

#tech #ai
3🔥3👍1
Трагедия общин 🤌
В последнее время столько хайпа вокруг искуственного интеллекта, что я в нем просто тону. 😜 Целыми днями читаю умных чуваков и слушаю подкасты. И все равно ощущаю, что невывожу. Из каждого утюга слышу, что в ближайшие лет 5 ИИ изменит наш мир и бла бла,…
Про признание AI.

Неделю назад выдали первые нобелевки за AI, причем сразу две. Хинтону по физике за архитектуру нейросетей. И Хассабису по химии за AlphaFold.

Вот тут я писал, что AlphaFold это супер прорыв, но у него пока нет формального признания, тк нет практической пользы. Думаю Нобелевскую премию можно считать высшей степенью признания. А практическую пользу все еще очень не просто найти. Я только что потратил 30 минут пытаясь нагуглить новые кейсы когда AlphaFold помог ученым кратно ускорить ресерч проекта. И не нашел ничего нового. Не говорю, что этого нет, но как будто бы пока импакт не на слуху.

На контрасте могу вспомнить много нобелевских призов прошлых лет, когда приз давали только спустя десятилетия после публикации теории. После того как теория была успешно доказана в практическом эксперименте. Например, так случилось с литий-ионными батареями, гравитиционными волнами, нейтрино и тд. Даже приз Хинтону можно отнести к этом паттерну.

А вот Хассабису выдали премию как будто авансом. Что не отменяет заслуг, конечно.
👍4
Про качество продукта и OopenAI

Помните, как Морейнис говорил, что стартапы часто загибаются из-за того, что бездумно релизят фичи одну за другой?Верят, что выигрывает тот, кто быстро проверяет идеи. И поддаются соблазну начать "кидать говно об стену, в надежде что что то прилипнет".

Если не прилипает ничего - далеко не факт, что фича нежизнеспособна. Может, просто первая версия настолько сырая, что даже минимальную ценность не создаёт.

Вспомнил про это в контексте OpenAI: месячная подписка сейчас их основной источник выручки. И мне удивительно, почему они не защищают ее от конкурентов с помощью продуктовой инфраструктуры. Уже несколько лет прошло, а по сути их единственными барьерами остаются модель, удобный API и бренд. ChatGPT это самый быстррастущий продукт в истории. Но как продукт пока кроме крутой технической базы в виде сильной модели, которая работает быстро и дешево ничего не может. Давайте пример приведу.

Месяц назад на всех раскатили фичу с Памятью. Идея оч простая - чем дольше ты пользуешься моделью, тем лучше она подстраивается под твои предпочтения. Модель запоминает контекст между чатами, и не надо каждый раз объяснять одно и то же.

В идеале хочется магии, как в алгоритмах ТикТока или автокомплите в Copilot. Когда ты ощущаешь, что тебя понимают. В команде из людей обычно такое называют "химией" между друг другом или сыгранностью. И это крутой барьер от конкурентов - ты понимаешь, что каждый раз используя модель OpenAI, ты делаешь ее лучше персонально для себя.

Я отменил подписку еще в конце весны и перешел на Claude почти сразу как он вышел. Порог смены был практически нулевой. Теущая версия памяти - это просто файлик с рандомными фактами обо мне, типа "юзер недавно купил кроссовки Nike" или "юзер хочет узнать как пожарить говядину на сковороде". Файл имеет ограничение на ~3000 слов (в этом посте примерно столько). Вот тут можете посмотреть, что у вас.

Это просто куча разрозненных фактов без какой-либо системы или понимания контекста. Пока мягко говоря это все очень далеко от ощущения химии и того, что тебя понимают.

Предполагаю, что пока у продуктовой команды в OpenAI мало ресурсов. Они просто накидывают идеи в их минимальной форме и смотрят, что прилипнет. Так, например, было с GPTs и магазином приложений. Зато технический релиз с голосом и минимальной задержкой вызвал вау эффект.

Надеюсь это временная история и просто проблема слишком быстрого роста компании. Важно уметь не просто быстро деливерить фичи... Но и хорошо понимать, где тот минимальный порог усилий, после которого качество стаовится достаточным, чтобы создать разницу в пользовательском опыте.

ps

Попросите ChatGPT нарисовать вас на основе того что есть в памяти:

Please paint my picture based on our communication. You have the freedom to be creative. Feel free to use all the facts in your Memory. Make a collage of smaller images to highlight individual topics that you don't know how to fit into one image.
🔥5👍1