В общем, я думаю, что Марк просто в обиде на Apple за App Tracking Transparency, который усложнил трекинг IDFA и уронил рекламную выручку, поэтому в этом выпуске и в недавнем обращении про изменение модерации потыкал новой администрации США, явно намекая, что антимонопольщикам нужно сильнее насесть на Apple. А мне Цукербергу хочется напомнить, что выигрывать борьбу лучше, возвышаясь над конкурентом за счет собственных достижений, а не принижая его, как обиженный популист.
👍27❤2👏2🗿2
Есть одна очень распространенная и опасная манипуляция — petitio principii. Можно даже не заметить, как тебе внушат какой-то тезис, и он в голове закрепится как аксиома. В моем случае это были «опасность монополий» и «важность anti-trust» регуляций, и конкретным примером, подтверждающим это, был кейс принудительного разделения Standard Oil Джона Рокфеллера в начале прошлого века. Я в этой теме не разбирался и всегда воспринимал за истину негативные коннотации как компании, так и данного персонажа.
Но, как оказалось, я глубоко ошибался. На праздниках решил ознакомиться с историей этой «монополии» и выяснил для себя следующее:
1. Компания росла не за счёт хищнических практик, а благодаря инновациям в производстве и логистике, что позволяло ей предлагать керосин по гораздо более низким ценам. За время существования Standard Oil цены на керосин упали на 90%, что сделало его более доступным для обычных американцев.
2. К моменту разделения компания уже не была монополией — её доля рынка упала с 90% до 60%, и конкуренты активно развивались. Более того, компания никогда не поднимала цены выше рыночных, что опровергает тезис о зловредном монополистическом поведении.
3. Кампания против Standard Oil была во многом организована конкурентами через подконтрольные СМИ и политиков на фоне роста популистских настроений в США в конце XIX – начале XX века, когда крупные корпорации, такие как Standard Oil, стали символом «капиталистической несправедливости». Журналисты-разоблачители вроде Иды Тарбелл имели личные счёты с компанией (её отец владел бизнесом, который не выдержал конкуренции со Standard Oil), а многие политики получали финансирование от конкурентов Рокфеллера.
4. Этот кейс стал прецедентом для дальнейшего государственного вмешательства в экономику под предлогом борьбы с монополиями, хотя реальные факты говорят о том, что Standard Oil была примером эффективной компании, которая росла за счёт лучшего сервиса и более низких цен.
5. После разделения компании цены на энергоносители существенно выросли из-за потери эффекта масштаба — множество мелких компаний не могли достичь той же операционной эффективности, что и единая крупная организация. Это негативно повлияло не только на конечных потребителей, но и замедлило развитие других секторов экономики, зависящих от доступного топлива.
А знаете, где рынок застрял в моно-/олигопольном состоянии и где почти невозможна конкуренция? Это банковский сектор и рынок здравоохранения в США:
- Из-за регуляций банковской деятельности порог входа почти нереально преодолеть для новых игроков, поэтому никаких вам дизраптов и необанков.
- Медицина в США, в целом, в представлении не нуждается и, по сути, является картельным сговором больниц, страховых компаний и государства, где не могут появиться новые эффективные игроки, потому что банально не получат от государства право на оказание медицинских услуг.
Думаю, указывать на то, что объединяет эти два случая, не нужно 😉
Ещё я, кажется, понял, какой кейс послужил вдохновением для Айн Рэнд при создании образа Хэнка Риардена и сюжетных линий «Atlas Shrugged» — та же история успешного промышленника, которого преследуют за его достижения под предлогом «общественного блага».
P. S. Если что, я не говорю, что не нужно бороться с монополиями, монополии хорошо, регуляции не нужны и тд. Речь о том, что кейс Standard Oil не является, по сути, хорошим примером, а наоборот демонстрирует обратное.
Но, как оказалось, я глубоко ошибался. На праздниках решил ознакомиться с историей этой «монополии» и выяснил для себя следующее:
1. Компания росла не за счёт хищнических практик, а благодаря инновациям в производстве и логистике, что позволяло ей предлагать керосин по гораздо более низким ценам. За время существования Standard Oil цены на керосин упали на 90%, что сделало его более доступным для обычных американцев.
2. К моменту разделения компания уже не была монополией — её доля рынка упала с 90% до 60%, и конкуренты активно развивались. Более того, компания никогда не поднимала цены выше рыночных, что опровергает тезис о зловредном монополистическом поведении.
3. Кампания против Standard Oil была во многом организована конкурентами через подконтрольные СМИ и политиков на фоне роста популистских настроений в США в конце XIX – начале XX века, когда крупные корпорации, такие как Standard Oil, стали символом «капиталистической несправедливости». Журналисты-разоблачители вроде Иды Тарбелл имели личные счёты с компанией (её отец владел бизнесом, который не выдержал конкуренции со Standard Oil), а многие политики получали финансирование от конкурентов Рокфеллера.
4. Этот кейс стал прецедентом для дальнейшего государственного вмешательства в экономику под предлогом борьбы с монополиями, хотя реальные факты говорят о том, что Standard Oil была примером эффективной компании, которая росла за счёт лучшего сервиса и более низких цен.
5. После разделения компании цены на энергоносители существенно выросли из-за потери эффекта масштаба — множество мелких компаний не могли достичь той же операционной эффективности, что и единая крупная организация. Это негативно повлияло не только на конечных потребителей, но и замедлило развитие других секторов экономики, зависящих от доступного топлива.
А знаете, где рынок застрял в моно-/олигопольном состоянии и где почти невозможна конкуренция? Это банковский сектор и рынок здравоохранения в США:
- Из-за регуляций банковской деятельности порог входа почти нереально преодолеть для новых игроков, поэтому никаких вам дизраптов и необанков.
- Медицина в США, в целом, в представлении не нуждается и, по сути, является картельным сговором больниц, страховых компаний и государства, где не могут появиться новые эффективные игроки, потому что банально не получат от государства право на оказание медицинских услуг.
Думаю, указывать на то, что объединяет эти два случая, не нужно 😉
Ещё я, кажется, понял, какой кейс послужил вдохновением для Айн Рэнд при создании образа Хэнка Риардена и сюжетных линий «Atlas Shrugged» — та же история успешного промышленника, которого преследуют за его достижения под предлогом «общественного блага».
P. S. Если что, я не говорю, что не нужно бороться с монополиями, монополии хорошо, регуляции не нужны и тд. Речь о том, что кейс Standard Oil не является, по сути, хорошим примером, а наоборот демонстрирует обратное.
👍28❤4👏2🤔1🤬1
Уверен, жители Нью-Джерси будут думать, что это автоботы летят на землю.
https://news.1rj.ru/str/starbasepost/1832
https://news.1rj.ru/str/starbasepost/1832
Telegram
Техасский Вестник
Обломки Starship S33 входят в атмосферу после взрыва корабля во время выхода на орбиту.
F 🫡🫡🫡
F 🫡🫡🫡
😁23
Forwarded from partially unsupervised
Недавно влез в две похожие дискуссии про то, как злой AI украдет всю работу у программистов, когда LLM окончательно начнут писать код лучше нас (хаха, the bar is too low).
TL;DR: думаю, что сильно волноваться не надо.
1. Software engineering больше, чем просто писать код или даже возиться с инфрой (see also).
2. "Не надо бежать быстрее медведя, надо бежать быстрее геолога". Точнее, быстрее луддитов, который даже copilot не освоили и не хотят (see also).
3. Наконец, серьезный аргумент. Допустим, умные инструменты увеличат нашу производительность на порядок, скептики задаются вопросом, нужно ли миру на порядок больше софта. Но правильный вопрос звучит скорее как "нужно ли миру в X раз больше софта, если его стоимость снизится в X раз?".
Кажется, что да - есть длинный хвост задач, которые пока не решаются по экономическим причинам. В любом бэклоге хватает идей формата «вообще перспективно, но риски большие / expected value ниже, чем у альтернативных фичей». Не говоря уже о всякой мелочи, которая сейчас делается в экселе; а должна автоматизироваться - например, вносить налоговый вычет для купленного мной ноутбука должен AI agent, а пока что это делает специально обученный человек, тыкающий мышкой, копируя номер инвойса в декларацию. Женя @j_links подсказал, что эти мои диванные рассуждения вообще-то называются парадоксом Джевонса.
При всем этом, конечно, индустрия не может не измениться, старые карьерные пути инвалидируются, но будут какие-то новые. What a time to be alive!
TL;DR: думаю, что сильно волноваться не надо.
1. Software engineering больше, чем просто писать код или даже возиться с инфрой (see also).
2. "Не надо бежать быстрее медведя, надо бежать быстрее геолога". Точнее, быстрее луддитов, который даже copilot не освоили и не хотят (see also).
3. Наконец, серьезный аргумент. Допустим, умные инструменты увеличат нашу производительность на порядок, скептики задаются вопросом, нужно ли миру на порядок больше софта. Но правильный вопрос звучит скорее как "нужно ли миру в X раз больше софта, если его стоимость снизится в X раз?".
Кажется, что да - есть длинный хвост задач, которые пока не решаются по экономическим причинам. В любом бэклоге хватает идей формата «вообще перспективно, но риски большие / expected value ниже, чем у альтернативных фичей». Не говоря уже о всякой мелочи, которая сейчас делается в экселе; а должна автоматизироваться - например, вносить налоговый вычет для купленного мной ноутбука должен AI agent, а пока что это делает специально обученный человек, тыкающий мышкой, копируя номер инвойса в декларацию. Женя @j_links подсказал, что эти мои диванные рассуждения вообще-то называются парадоксом Джевонса.
При всем этом, конечно, индустрия не может не измениться, старые карьерные пути инвалидируются, но будут какие-то новые. What a time to be alive!
💯14🔥2
Смотря на происходящее в мире, так и хочется спросить у Фукуямы: «Что с лицом?»
😁14💯2
DeepSeek это, DeepSeek то…
Ничего удивительного и неожиданного. Я уже говорил, что именно так оно и будет. В следующих постах напишу еще.
Удивляет меня другое — Дени Вильнёв не номинирован на «Оскар» за вторую «Дюну». Как можно было такой монументальный и шедевральный фильм так опрокинуть? Обидно и за Циммера, которого не номинировали, так как у киноакадемии есть порог оригинальности саундтрека, а Ханс во второй части использовал саундтрек из первой части чуть больше этого порога. Вот так великие произведения и проходят мимо признания киноакадемии. Надеюсь, хотя бы A24 с его «Бруталистом» не оставят без внимания.
Ничего удивительного и неожиданного. Я уже говорил, что именно так оно и будет. В следующих постах напишу еще.
Удивляет меня другое — Дени Вильнёв не номинирован на «Оскар» за вторую «Дюну». Как можно было такой монументальный и шедевральный фильм так опрокинуть? Обидно и за Циммера, которого не номинировали, так как у киноакадемии есть порог оригинальности саундтрека, а Ханс во второй части использовал саундтрек из первой части чуть больше этого порога. Вот так великие произведения и проходят мимо признания киноакадемии. Надеюсь, хотя бы A24 с его «Бруталистом» не оставят без внимания.
❤16👍4😁3
Че ты, Сама, плаки плаки или нормалдаки?
https://www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data
Забавно, когда сами OAI скрапят датку налево направо, а потом такие «оу, кража данных!», когда их обошли конкуренты.
Кстати, есть клевая теория, почему RL в R1 завелся именно сейчас, хотя его много раз пробовали и ранее. Прост все эти цепочки запрос-ответ полились в интернет с оценкой хорошо/плохо от пользователей и это позволило сходиться RL. Вот вам и сетевые эффекты.
https://www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data
Забавно, когда сами OAI скрапят датку налево направо, а потом такие «оу, кража данных!», когда их обошли конкуренты.
Кстати, есть клевая теория, почему RL в R1 завелся именно сейчас, хотя его много раз пробовали и ранее. Прост все эти цепочки запрос-ответ полились в интернет с оценкой хорошо/плохо от пользователей и это позволило сходиться RL. Вот вам и сетевые эффекты.
Bloomberg.com
Microsoft Probing If DeepSeek-Linked Group Improperly Obtained OpenAI Data
Microsoft Corp. and OpenAI are investigating whether data output from OpenAI’s technology was obtained in an unauthorized manner by a group linked to Chinese artificial intelligence startup DeepSeek, according to people familiar with the matter.
🔥13❤1👍1
Фундаментальные силы роста и защиты продукта
Часто пишу про moats, силы и методы защиты бизнеса и кратко уже рассказывал про это. Прежде чем переходить к анализу, к примеру, ситуации с OpenAI и DeepSeek, думаю, стоит фундаментально разобраться с тем, что это такое, поэтому написал заметку.
https://telegra.ph/Fundamentalnye-sily-rosta-i-zashchity-produkta-01-29
Часто пишу про moats, силы и методы защиты бизнеса и кратко уже рассказывал про это. Прежде чем переходить к анализу, к примеру, ситуации с OpenAI и DeepSeek, думаю, стоит фундаментально разобраться с тем, что это такое, поэтому написал заметку.
https://telegra.ph/Fundamentalnye-sily-rosta-i-zashchity-produkta-01-29
Telegraph
Фундаментальные силы роста и защиты продукта
Начнем с основ. Каждый успешный продукт должен включать следующие ключевые элементы: Рынок потребителей с определённой потребностью Product/Market Fit — продукт, который решает эту потребность и создаёт ценность для потребителей. Монетизация — превращение…
1🔥18👍5❤1
Чтобы вы понимали, как хорошо обстоят дела с психотерапией в РФ. Если на популярных сервисах поиска терапевта (не буду указывать пальцем) поставить в фильтрах «КПТ», то тысяча доступных специалистов резко превращаются в десятку. А о том, что какое-нибудь МКТ или EMDR большинству даже как слово не знакомо, говорить вовсе не приходится 🤷♂️
❤9😱3💯2
Следите за руками. Сначала обещаешь бороться с инфляцией, потом вводишь тарифы, цены на импортные товары растут на 25%, местные подтягиваются «импортозамещают» и поднимают цены на 10%-15% и все равно дешевле тарифицированных конкурентов на 10%-15%. Итог: инфляция
👏15😁3😎2😢1
Сережа Тихомиров написал топовый разбор ситуации с продактами в рф в трех частях: 1, 2, 3.
В целом, ситуация с продактами в РФ всегда была не очень радужной, и я тут согласен с первопричиной — отсутствие фундаментального образования, которое важно в виду крайне сложной роли. Сеньера найти было сложно: их мало, спрос высокий, конкуренция за кадр зашкаливает, а их еще часто легко на Head of/CPO берут, так как больше некого. Мидлы по факту часто были джунами с завышенными запросами. Сейчас ситуация вовсе плачевная.
В целом, ситуация с продактами в РФ всегда была не очень радужной, и я тут согласен с первопричиной — отсутствие фундаментального образования, которое важно в виду крайне сложной роли. Сеньера найти было сложно: их мало, спрос высокий, конкуренция за кадр зашкаливает, а их еще часто легко на Head of/CPO берут, так как больше некого. Мидлы по факту часто были джунами с завышенными запросами. Сейчас ситуация вовсе плачевная.
Telegram
Борода продакта
На днях натолкнулся на ежегодный отчет ФРИИ "Результаты исследования продуктовых компетенций в крупных корпорациях 2024" https://news.1rj.ru/str/chiefinnovationchannel/1292
Два самых интересных тезиса:
1) На рынке происходит «вымывание» продуктовой экспертизы уровня…
Два самых интересных тезиса:
1) На рынке происходит «вымывание» продуктовой экспертизы уровня…
😢6💯4👍2❤1😁1
Записки C3PO
Тут Duolingo выкатила хэндбук про свою культуру. Красивое! https://blog.duolingo.com/handbook/
К слову, о Duolingo. Лучшее, что случилось в интернете за последнее время, это не релиз дипсика, дипресерча и подобное, а рекламная компания с дохлой совой. Ор выше гор
https://x.com/duolingo/status/1889328809054224698?s=46
https://x.com/duolingo/status/1890423938057977963?s=46
https://x.com/duolingo/status/1889328809054224698?s=46
https://x.com/duolingo/status/1890423938057977963?s=46
X (formerly Twitter)
Duolingo (@duolingo) on X
an important message from Duolingo
💯9❤6😁3👍2
Пока валяюсь тут вторую неделю с каким-то странным вирусом, писать что-то сложное и осмысленное не получается. Зато было много времени, чтобы, как обезьянка, казуально тыкать в AI-новинки, поэтому поделюсь впечатлениями:
- OpenAI плохо умеют в продукт и UX. Модели у них крутые, ресурсов много, но у чуваков до сих пор нет закладок для чатов. Все эти инструменты типа проектов и холста как будто выкатили в сыром виде, как и Sora и Active Voice Mode. Технология есть, но толку мало. Продвинутые модели большинство этих тулов не поддерживают. Самих моделей стало столько, что чёрт ногу сломит. Я всё ещё не понимаю, почему плачу 200 баксов в месяц и вынужден так страдать. Особенно печально это на фоне того, какой крутой UX у Claude и Perplexity. В целом, это подводка к моему будущему посту про оценку перспектив OpenAI.
- Deep Research от OpenAI при этом для меня game changer и уже за неделю успел окупить подписку. Причём я пробовал разные темы для ресерча, и даже там, где круто шарю, он умудрялся удивлять. Часто результат его работы – это очень крутая готовая статья даже с примитивным промтом. Посмотрите на примеры: пример 1, пример 2, пример 3.
- Deep Research от Perplexity полная шляпа. В целом, ребята шипят много фич, делают классный UX, но у них явные проблемы. Говорят, что индекс у них всё-таки не свой, только половина юзеров Pro, а половина этой половины – халявщики с триалов, бесплатных промо и рефералок. В целом, ребята понимают, что moats у них слабые, поэтому щупают разные ниши и запускают свой браузер, чтобы в перспективе перейти на end-to-end решение конечных задач юзера в режиме оператора. Со своим браузером это сильно проще, так как логины, история и вот это всё. Напишу подробнее про это отдельно.
- Deep Research от Grok при этом показал себя очень достойно. Учитывая доступность модели, это впечатляющий уровень, особенно по сравнению с крайне слабым аналогом от Perplexity.
- Я в полном восторге от Sonnet 3.7. Уни-модель, где можно управлять степенью рассуждений – восторг! UX, как всегда, на высоте, всё удобно, все тулы поддерживаются. С кодом работает лучше всех, отлично справляется с любыми документами и саммаризацией. Если бы не Deep Research, то я бы полностью перелез на Claude. Антропики в очередной раз показали, что такое делать классный технологичный продукт. И это всё ещё лучшее соотношение Value/Money.
- С утра немного потыкал в ChatGPT 4.5. Модель, как многие отмечают, стала сильно человечнее, с текстом, как будто, работает лучше всех из неризонеров, у меня ни разу не сгаллюцинировала. Немного потестил её в креативных задачах, где другие модели показывали себя плохо – и 4.5 справилась сильно лучше. Я ожидал, конечно, от релиза гораздо большего, особенно после Sonnet 3.7, но понимание того, что 4.5 сделала такой большой шаг после 4о и приблизилась к ризонерам, даёт надежду, что ризонеры поверх 4.5 будут вообще космос! Но есть сомнения. Цена – ахтунг, но думаю, найдётся куча задач, где новая модель будет перформить лучше за счёт своего размера или человечности, и цена будет окупаться, а дешевизна китайцев и других конкурентов не будет иметь смысла, так как они тупо не справляются с задачами. В целом, ждём GPT-5 и нормальный уни-режим с управлением степенью рассуждений, как в Claude. А отсутствие вау-результатов всё ещё говорит о том, что OpenAI moats are overrated!
- OpenAI плохо умеют в продукт и UX. Модели у них крутые, ресурсов много, но у чуваков до сих пор нет закладок для чатов. Все эти инструменты типа проектов и холста как будто выкатили в сыром виде, как и Sora и Active Voice Mode. Технология есть, но толку мало. Продвинутые модели большинство этих тулов не поддерживают. Самих моделей стало столько, что чёрт ногу сломит. Я всё ещё не понимаю, почему плачу 200 баксов в месяц и вынужден так страдать. Особенно печально это на фоне того, какой крутой UX у Claude и Perplexity. В целом, это подводка к моему будущему посту про оценку перспектив OpenAI.
- Deep Research от OpenAI при этом для меня game changer и уже за неделю успел окупить подписку. Причём я пробовал разные темы для ресерча, и даже там, где круто шарю, он умудрялся удивлять. Часто результат его работы – это очень крутая готовая статья даже с примитивным промтом. Посмотрите на примеры: пример 1, пример 2, пример 3.
- Deep Research от Perplexity полная шляпа. В целом, ребята шипят много фич, делают классный UX, но у них явные проблемы. Говорят, что индекс у них всё-таки не свой, только половина юзеров Pro, а половина этой половины – халявщики с триалов, бесплатных промо и рефералок. В целом, ребята понимают, что moats у них слабые, поэтому щупают разные ниши и запускают свой браузер, чтобы в перспективе перейти на end-to-end решение конечных задач юзера в режиме оператора. Со своим браузером это сильно проще, так как логины, история и вот это всё. Напишу подробнее про это отдельно.
- Deep Research от Grok при этом показал себя очень достойно. Учитывая доступность модели, это впечатляющий уровень, особенно по сравнению с крайне слабым аналогом от Perplexity.
- Я в полном восторге от Sonnet 3.7. Уни-модель, где можно управлять степенью рассуждений – восторг! UX, как всегда, на высоте, всё удобно, все тулы поддерживаются. С кодом работает лучше всех, отлично справляется с любыми документами и саммаризацией. Если бы не Deep Research, то я бы полностью перелез на Claude. Антропики в очередной раз показали, что такое делать классный технологичный продукт. И это всё ещё лучшее соотношение Value/Money.
- С утра немного потыкал в ChatGPT 4.5. Модель, как многие отмечают, стала сильно человечнее, с текстом, как будто, работает лучше всех из неризонеров, у меня ни разу не сгаллюцинировала. Немного потестил её в креативных задачах, где другие модели показывали себя плохо – и 4.5 справилась сильно лучше. Я ожидал, конечно, от релиза гораздо большего, особенно после Sonnet 3.7, но понимание того, что 4.5 сделала такой большой шаг после 4о и приблизилась к ризонерам, даёт надежду, что ризонеры поверх 4.5 будут вообще космос! Но есть сомнения. Цена – ахтунг, но думаю, найдётся куча задач, где новая модель будет перформить лучше за счёт своего размера или человечности, и цена будет окупаться, а дешевизна китайцев и других конкурентов не будет иметь смысла, так как они тупо не справляются с задачами. В целом, ждём GPT-5 и нормальный уни-режим с управлением степенью рассуждений, как в Claude. А отсутствие вау-результатов всё ещё говорит о том, что OpenAI moats are overrated!
❤52👍27🔥4😁3
Недавно Perplexity анонсировал запуск собственного браузера, вызвав закономерный вопрос: зачем? Ведь позиции Chrome настолько сильны, что никому ещё не удавалось их потеснить.
Чтобы понять задумку Perplexity, нужно разобраться, как изменился рынок поиска после появления ChatGPT. Традиционный поиск изначально состоял в том, чтобы предоставить пользователю список сайтов по его запросу. Затем поисковые системы начали добавлять быстрые ответы в сниппеты и различные виджеты, интегрировать возможности шопинга и другие сервисы, стремясь максимально сократить путь пользователя к нужному ответу.
Появление ChatGPT резко ускорило трансформацию рынка. LLM сразу дают готовый ответ, но сталкиваются с тремя ключевыми проблемами:
- Галлюцинации.
- Ограничения по объёму хранящихся знаний.
- Сложности обновления информации.
Чтобы преодолеть эти проблемы, появились гибридные решения, совмещающие поисковую выдачу с генерацией ответов через LLM (например, Bing GPT и Perplexity). Они представляют собой усовершенствованный «умный» сниппет с возможностью диалога, однако полностью устранить проблему галлюцинаций не удалось.
Казалось, такие решения должны были подорвать рынок и создать дилемму инноватора для Google: поиск, предоставляющий мгновенные ответы без необходимости переходить на сайты, подрывает рекламную модель компании. В этом и заключается сильная позиция Perplexity — отсюда и высокая, растущая капитализация компании.
Однако глобального дизрапта не произошло. Почему?
Запросы условно делятся на две категории:
- Информационные: запросы с целью получения прямого ответа (например, «Какое население Земли?»).
- Запросы, направленные на решение конкретной задачи (найти репетитора, забронировать отель, купить одежду).
В информационных запросах большинство вопросов легко покрываются текущими возможностями поисковиков (быстрые ответы, виджеты и т.п.). Один из самых популярных информационных запросов — банально о погоде. Преимущество классических поисковиков здесь очевидно: скорость ответа. Пока Perplexity ещё собирает данные, Google уже отдаёт результат, достаточный для большинства пользователей. Ценность Perplexity проявляется лишь в более сложных запросах из «длинного хвоста», которых значительно меньше.
Во втором типе запросов подход Perplexity с саммаризацией не только не помогает, но и усложняет задачу. Здесь требуется не ответ, а конкретное действие или услуга. Именно поэтому компания начала интегрировать возможности покупок и бронирования непосредственно в приложение, но пока это лишь простейшие кейсы.
Помните статью Sequoia о том, что рынок агентов Gen AI — это по сути рынок услуг? Чтобы качественно работать с запросами вокруг задач, нужна уже не просто информация, а полноценная услуга. Это значит, что масштабироваться нужно именно на предоставление конечной услуги пользователю. Perplexity уже представила своего ассистента на Android, но его возможности ограничены интеграцией через API. В то же время OpenAI пытается решить эту задачу запуском облачного оператора с виртуальным браузером, что получается дорого.
Perplexity выбрали иной путь. Локальный браузер, в котором пользователь уже авторизован на необходимых сайтах, обладает персонализацией и позволяет вмешаться в процесс вручную, если автоматизированные инструменты не справляются. Использовать чужой браузер - слабые moats, поэтому создание собственного браузера выглядит логичным шагом. Он позволит охватить весь спектр запросов пользователя: от простых информационных до комплексных, требующих интерактивного участия, создав единое окно входа, где AI будет решать, как решать запрос пользователя.
От Google здесь снова есть контр-позиционирование, так как основная точка взаимодействия в Chrome — это поисковая строка, а значит поисковая реклама, что будет мешать сделать концептуально AI-based браузер, дающий готовые ответы из-за всё той же дилеммы инноватора.
Основой вопрос — а сможет ли Perplexity переключать юзеров на свой браузер за счет своего Value Added или нет?
Чтобы понять задумку Perplexity, нужно разобраться, как изменился рынок поиска после появления ChatGPT. Традиционный поиск изначально состоял в том, чтобы предоставить пользователю список сайтов по его запросу. Затем поисковые системы начали добавлять быстрые ответы в сниппеты и различные виджеты, интегрировать возможности шопинга и другие сервисы, стремясь максимально сократить путь пользователя к нужному ответу.
Появление ChatGPT резко ускорило трансформацию рынка. LLM сразу дают готовый ответ, но сталкиваются с тремя ключевыми проблемами:
- Галлюцинации.
- Ограничения по объёму хранящихся знаний.
- Сложности обновления информации.
Чтобы преодолеть эти проблемы, появились гибридные решения, совмещающие поисковую выдачу с генерацией ответов через LLM (например, Bing GPT и Perplexity). Они представляют собой усовершенствованный «умный» сниппет с возможностью диалога, однако полностью устранить проблему галлюцинаций не удалось.
Казалось, такие решения должны были подорвать рынок и создать дилемму инноватора для Google: поиск, предоставляющий мгновенные ответы без необходимости переходить на сайты, подрывает рекламную модель компании. В этом и заключается сильная позиция Perplexity — отсюда и высокая, растущая капитализация компании.
Однако глобального дизрапта не произошло. Почему?
Запросы условно делятся на две категории:
- Информационные: запросы с целью получения прямого ответа (например, «Какое население Земли?»).
- Запросы, направленные на решение конкретной задачи (найти репетитора, забронировать отель, купить одежду).
В информационных запросах большинство вопросов легко покрываются текущими возможностями поисковиков (быстрые ответы, виджеты и т.п.). Один из самых популярных информационных запросов — банально о погоде. Преимущество классических поисковиков здесь очевидно: скорость ответа. Пока Perplexity ещё собирает данные, Google уже отдаёт результат, достаточный для большинства пользователей. Ценность Perplexity проявляется лишь в более сложных запросах из «длинного хвоста», которых значительно меньше.
Во втором типе запросов подход Perplexity с саммаризацией не только не помогает, но и усложняет задачу. Здесь требуется не ответ, а конкретное действие или услуга. Именно поэтому компания начала интегрировать возможности покупок и бронирования непосредственно в приложение, но пока это лишь простейшие кейсы.
Помните статью Sequoia о том, что рынок агентов Gen AI — это по сути рынок услуг? Чтобы качественно работать с запросами вокруг задач, нужна уже не просто информация, а полноценная услуга. Это значит, что масштабироваться нужно именно на предоставление конечной услуги пользователю. Perplexity уже представила своего ассистента на Android, но его возможности ограничены интеграцией через API. В то же время OpenAI пытается решить эту задачу запуском облачного оператора с виртуальным браузером, что получается дорого.
Perplexity выбрали иной путь. Локальный браузер, в котором пользователь уже авторизован на необходимых сайтах, обладает персонализацией и позволяет вмешаться в процесс вручную, если автоматизированные инструменты не справляются. Использовать чужой браузер - слабые moats, поэтому создание собственного браузера выглядит логичным шагом. Он позволит охватить весь спектр запросов пользователя: от простых информационных до комплексных, требующих интерактивного участия, создав единое окно входа, где AI будет решать, как решать запрос пользователя.
От Google здесь снова есть контр-позиционирование, так как основная точка взаимодействия в Chrome — это поисковая строка, а значит поисковая реклама, что будет мешать сделать концептуально AI-based браузер, дающий готовые ответы из-за всё той же дилеммы инноватора.
Основой вопрос — а сможет ли Perplexity переключать юзеров на свой браузер за счет своего Value Added или нет?
❤22🔥7👍4🤔1
Тут у Андрюхи Карпатого вышел видос про практическое применение LLM, которое может быть полезно тем, кто не имеет технических навыков, и хотел поглубже погрузиться в тему.
В предыдущем он рассказывал про базовые вещи о LLM: что это такое и как они работают.
В предыдущем он рассказывал про базовые вещи о LLM: что это такое и как они работают.
YouTube
How I use LLMs
The example-driven, practical walkthrough of Large Language Models and their growing list of related features, as a new entry to my general audience series on LLMs. In this more practical followup, I take you through the many ways I use LLMs in my own life.…
👍18🔥6😁1
Forwarded from [30/100] Витя Тарнавский
Проблема поискового оркестратора в Perplexity
Когда человек приходит в поиск с вопросом про погоду, он ожидает быстрый ответ. Не нужно разворачивать всю мощь лучших в мире LLM, парсить на лету 200 источников, делать три слоя реранкинга и ещё черт знает что. Это займет кучу времени.
Искусство понять сложность запроса, правильно выбрать из систем разной сложности и профиля, и собрать правильный каскад из систем - это задача оркестрации запроса. Она же - задача роутинга, она же - задача метапоиска. Одна из самых интересных задач в IT-инженерии.
CEO Perplexity Aravind Srinivas рассказывает в подкасте что самая сложная задача которую они сейчас решают это именно проблема оркестрации и создания правильного набора систем за оркестратором. С его слов, кто решит эту проблему в новом LLM-мире, сможет построить следующий Google.
Я помню свой разговор с одним из основателей ABBYY. Он рассказывал что их ключевой ноу-хау это не сами OCR-модели, а как раз правильный каскад из моделей. Лёгкая модель определяющая задачу, дальше в зависимости от результата выбор из путей, и так до 50 разных моделей в каскаде.
В текущих AI-системах вроде ChatGPT эта проблема тоже плохо решена. Пользователю самому приходится решать "достаточно ли моя задача сложная для o3 или можно в 4o сходить". Это, конечно, неудобно.
Кстати, рекомендую и конкретный подкаст, и всю серию подкастов How to Build Future от Y Combinator
Когда человек приходит в поиск с вопросом про погоду, он ожидает быстрый ответ. Не нужно разворачивать всю мощь лучших в мире LLM, парсить на лету 200 источников, делать три слоя реранкинга и ещё черт знает что. Это займет кучу времени.
Искусство понять сложность запроса, правильно выбрать из систем разной сложности и профиля, и собрать правильный каскад из систем - это задача оркестрации запроса. Она же - задача роутинга, она же - задача метапоиска. Одна из самых интересных задач в IT-инженерии.
CEO Perplexity Aravind Srinivas рассказывает в подкасте что самая сложная задача которую они сейчас решают это именно проблема оркестрации и создания правильного набора систем за оркестратором. С его слов, кто решит эту проблему в новом LLM-мире, сможет построить следующий Google.
Я помню свой разговор с одним из основателей ABBYY. Он рассказывал что их ключевой ноу-хау это не сами OCR-модели, а как раз правильный каскад из моделей. Лёгкая модель определяющая задачу, дальше в зависимости от результата выбор из путей, и так до 50 разных моделей в каскаде.
В текущих AI-системах вроде ChatGPT эта проблема тоже плохо решена. Пользователю самому приходится решать "достаточно ли моя задача сложная для o3 или можно в 4o сходить". Это, конечно, неудобно.
Кстати, рекомендую и конкретный подкаст, и всю серию подкастов How to Build Future от Y Combinator
50👍27❤11🔥3
Не могу не поделиться недавним великолепием от Hulu - Paradise. Шикарное шоу, которое умудряется держать в напряжении весь сезон, каждую серию - плот твисты, эскалация и экспериментальная концепция. Формат напомнил Lost, где персонажи и повествование раскрывается через флешбеки, а сами герои отлично сделаны и катают на качелях отношения к себе на протяжении всего сюжета. В сериале нет интриги ради интриги, на все вопросы под конец сезона будут ответы, при этом желание ждать и смотреть второй сезон никуда не исчезает. Давно такого не было!
7-ая серия вовсе великая, которая просто размазывает своим эмоциональным катарсисом и градиентом. Это очень близко к уровню амплитуды какого-нибудь Интерстеллара, Прибытия или второй Дюны.
Самое забавное, что даже самый минимальный намек на сюжет будет являться адским спойлером, поэтому бегом смотреть! (И да, без спойлеров в комментах, если смотрели!)
7-ая серия вовсе великая, которая просто размазывает своим эмоциональным катарсисом и градиентом. Это очень близко к уровню амплитуды какого-нибудь Интерстеллара, Прибытия или второй Дюны.
Самое забавное, что даже самый минимальный намек на сюжет будет являться адским спойлером, поэтому бегом смотреть! (И да, без спойлеров в комментах, если смотрели!)
🔥18👍6❤4💯1
Срезонировал пост Карпатого про evaluation-кризис LLM'ок.
TLDR:
- Cтарые метрики устарели, а новые ненадёжны.
- Модели переобучаются под существующие бенчмарки, снижая их объективность.
- В настоящее время невозможно точно определить реальное качество современных языковых моделей.
Я бы ещё добавил, что даже если выбросить проблему оверфита и train on test, почти все бенчи — это среднее от разных тестов. В каких-то кейсах одна модель лучше, а в других — другая. На арене то же самое — среднее от субъективной оценки кучи разных людей, чьё качество не без основания вызывает сомнения.
Насколько эти оценки репрезентативны для реальных и лично ваших юзкейсов? В какую часть распределения лично вы и ваши юзкейсы попадут?
К примеру, в кодинге у меня Sonnet даже в версии 3.5 был часто лучше всего того, что я пробовал. После выхода 3.7 это стабильно, и если он не вывозит, то остальные тоже не вывозят. На бенчмарках это не всегда отражается. К примеру, на некоторых бенчах разные версии o1 и o3 аутперформят и Sonnet, и DeepSeek, и прочее, но в моих кейсах вообще не так, если сравнить с R1 и Sonnet 3.7. Про value/money молчу.
Поэтому, ИМХО, нужно пробовать всё в разных юзкейсах и выбирать под себя из личных задач, соотнося value/money/speed/ux.
Мой личный набор сейчас такой:
- Claude Sonnet 3.7 — основной «терминал» в general-кейсах. Если мне не нравится результат, то пробую альтернативу, чаще в виде DeepSeek R1 (который у Perplexity, так как DeepSeek на их родной платформе мне часто не отвечает) и o1/o3. Происходит это нечасто.
- Для написания и редактирования текста/документов/постов — Notion AI, так как я и так почти всё в Notion веду, а UX связки с AI там топ, а под капотом что-то от Антропиков. После выхода GPT 4.5 стал часто юзать её в связке с Canvas, так как тексты могут получаться сильно более естественными, а не типичными нейросетевыми.
- Кодинг — Cursor + Sonnet 3.7. Очень редко, но переключаюсь на R1
- Поиск — Perplexity + R1
- Deep Research — тут детище OpenAI с отрывом даёт лучший результат. Минус один — цена.
- Superwhisper — гейм-ченджер для меня, который позволяет 80% юзкейсов работы за компом закрывать, просто диктуя свои хотелки
Есть ощущение, что если бы Антропики завезли свой дип ресерч, то продукты OpenAI вовсе исчезли бы из моего арсенала.
Значит ли это, что у вас будет так же? Нет — у вас свои кейсы и свой набор задач. К тому же у каждого свое восприятие, из-за которого результаты работы моделей могут восприниматься по-разному. В этом много субъективного.
TLDR:
- Cтарые метрики устарели, а новые ненадёжны.
- Модели переобучаются под существующие бенчмарки, снижая их объективность.
- В настоящее время невозможно точно определить реальное качество современных языковых моделей.
Я бы ещё добавил, что даже если выбросить проблему оверфита и train on test, почти все бенчи — это среднее от разных тестов. В каких-то кейсах одна модель лучше, а в других — другая. На арене то же самое — среднее от субъективной оценки кучи разных людей, чьё качество не без основания вызывает сомнения.
Насколько эти оценки репрезентативны для реальных и лично ваших юзкейсов? В какую часть распределения лично вы и ваши юзкейсы попадут?
К примеру, в кодинге у меня Sonnet даже в версии 3.5 был часто лучше всего того, что я пробовал. После выхода 3.7 это стабильно, и если он не вывозит, то остальные тоже не вывозят. На бенчмарках это не всегда отражается. К примеру, на некоторых бенчах разные версии o1 и o3 аутперформят и Sonnet, и DeepSeek, и прочее, но в моих кейсах вообще не так, если сравнить с R1 и Sonnet 3.7. Про value/money молчу.
Поэтому, ИМХО, нужно пробовать всё в разных юзкейсах и выбирать под себя из личных задач, соотнося value/money/speed/ux.
Мой личный набор сейчас такой:
- Claude Sonnet 3.7 — основной «терминал» в general-кейсах. Если мне не нравится результат, то пробую альтернативу, чаще в виде DeepSeek R1 (который у Perplexity, так как DeepSeek на их родной платформе мне часто не отвечает) и o1/o3. Происходит это нечасто.
- Для написания и редактирования текста/документов/постов — Notion AI, так как я и так почти всё в Notion веду, а UX связки с AI там топ, а под капотом что-то от Антропиков. После выхода GPT 4.5 стал часто юзать её в связке с Canvas, так как тексты могут получаться сильно более естественными, а не типичными нейросетевыми.
- Кодинг — Cursor + Sonnet 3.7. Очень редко, но переключаюсь на R1
- Поиск — Perplexity + R1
- Deep Research — тут детище OpenAI с отрывом даёт лучший результат. Минус один — цена.
- Superwhisper — гейм-ченджер для меня, который позволяет 80% юзкейсов работы за компом закрывать, просто диктуя свои хотелки
Есть ощущение, что если бы Антропики завезли свой дип ресерч, то продукты OpenAI вовсе исчезли бы из моего арсенала.
Значит ли это, что у вас будет так же? Нет — у вас свои кейсы и свой набор задач. К тому же у каждого свое восприятие, из-за которого результаты работы моделей могут восприниматься по-разному. В этом много субъективного.
X (formerly Twitter)
Andrej Karpathy (@karpathy) on X
@TheZvi My reaction is that there is an evaluation crisis. I don't really know what metrics to look at right now.
MMLU was a good and useful for a few years but that's long over.
SWE-Bench Verified (real, practical, verified problems) I really like and is…
MMLU was a good and useful for a few years but that's long over.
SWE-Bench Verified (real, practical, verified problems) I really like and is…
👍43❤16🔥2😁1
Forwarded from Product Trends | Настя Московченко
Как расти retention low-frequency продуктов?
Low-frequency продукты — это продукты с транзакциями реже, чем раз в 3 месяца. К ним относятся недвижимость, автомобили, предметы искусства, путешествия.
За 8+ лет работы продактом я поняла, что наиболее сложные и интересные задачи возникают в low-frequency маркетплейсах. Последнее время я работала на рынке с низкой частотой покупок и получила ценные инсайты, которые особенно актуальны для рынков, где одна транзакция может составлять стоимость квартиры.
Для построения стратегий роста для таких продуктов существует ICED Theory — фреймворк, специально разработанный для управления retention в low-frequency продуктах. Это особенно ценно, учитывая, что большинство продуктовых моделей ориентированы на high-frequency продукты типа TikTok или Facebook.
Основная проблема low-frequency маркетплейсов:
Представьте маркетплейс недвижимости, подобный Zillow. Ваш пользователь может посещать платформу раз в год или реже, что приводит к серьезным вызовам для его удержания.
Ключевые вызовы low-frequency маркетплейсов:
🟣 Сложность двустороннего рынка делает всё в 2 раза сложнее (нужно удерживать и продавцов, и покупателей)
🟣 Забывание бренда между транзакциями
🟣 Данных для оптимизации катастрофически мало
🟣 Сложность создания устойчивого бизнеса из-за низкой частоты покупок
🟣 CAC часто превышает первую транзакцию (а до второй еще дожить надо!)
🟣 Отсутствие сетевого эффекта из-за разорванных циклов рекомендаций
ICED фреймворк — находка для решения этих проблем:
I — Infrequency (Управление частотой):
- Необходимо создавать "мостики" между основными транзакциями (Zillow шлет уведомления об изменении цен на дома в районе).
- Важно развивать смежные сервисы (например, растить смежные вертикали)
- Дробить одну большую транзакцию на несколько шагов с промежуточной ценностью
C — Control (Контроль пользовательского опыта):
- Верификация продавцов и товаров критична для дорогих покупок
- Сильные гарантии — ключ к доверию при редких транзакциях
- Максимальная прозрачность процесса (от просмотра до постпродажного обслуживания)
E — Engagement (Вовлечение):
- Контентная стратегия решает всё! (Посмотрите, как LinkedIn использует UGC)
- Email/push коммуникация с микро-ценностью (тренды, советы, аналитика)
- Комьюнити-строительство для создания эмоциональной привязанности к платформе
D — Distinctiveness (Отличительность):
- В low-frequency категориях бренд важнее, чем все остальное!
- Уникальное позиционирование на рынке
- Инновации в customer journey (VR-визуализация для недвижимости)
Примеры продуктов:
1️⃣ LinkedIn: Трансформация из low-frequency сайта поиска работы в high-frequency контентную платформу:
- Начинал как агрегатор профилей (2004)
- Добавил раздел вакансий (2008-2009)
- Внедрил UGC-контент, радикально увеличив частоту взаимодействий
2️⃣ Zillow: Увеличение частоты взаимодействия через смежные сценарии:
- Внедрили Zestimate (оценка стоимости недвижимости)
- Пользователи периодически проверяют стоимость своего жилья даже не планируя покупку
- Это значительно повысило органический трафик и узнаваемость бренда
3️⃣ Airbnb: В период ковида
- Добавили онлайн-впечатления во время пандемии
- Поддерживают уникальность (60% органического + 30% прямого трафика)
- Усилили УТП и значительно отличаются от стандартизированных предложений вроде Expedia (у которой 45% платного трафика!)
Для Low-Frequency Marketplace главная задача — не искусственно увеличить частоту открытий приложения, а:
- Выжать максимум из каждого редкого взаимодействия
- Занять место в голове пользователя между покупками
- Стать настолько distinctive, чтобы ваш бренд первым всплывал в момент возникновения потребности
Есть те, кто работает с low-frequency продуктом? Какой из этих четырех компонентов ICED кажется вам самым сложным для внедрения?
Low-frequency продукты — это продукты с транзакциями реже, чем раз в 3 месяца. К ним относятся недвижимость, автомобили, предметы искусства, путешествия.
За 8+ лет работы продактом я поняла, что наиболее сложные и интересные задачи возникают в low-frequency маркетплейсах. Последнее время я работала на рынке с низкой частотой покупок и получила ценные инсайты, которые особенно актуальны для рынков, где одна транзакция может составлять стоимость квартиры.
Для построения стратегий роста для таких продуктов существует ICED Theory — фреймворк, специально разработанный для управления retention в low-frequency продуктах. Это особенно ценно, учитывая, что большинство продуктовых моделей ориентированы на high-frequency продукты типа TikTok или Facebook.
Основная проблема low-frequency маркетплейсов:
Представьте маркетплейс недвижимости, подобный Zillow. Ваш пользователь может посещать платформу раз в год или реже, что приводит к серьезным вызовам для его удержания.
Ключевые вызовы low-frequency маркетплейсов:
ICED фреймворк — находка для решения этих проблем:
I — Infrequency (Управление частотой):
- Необходимо создавать "мостики" между основными транзакциями (Zillow шлет уведомления об изменении цен на дома в районе).
- Важно развивать смежные сервисы (например, растить смежные вертикали)
- Дробить одну большую транзакцию на несколько шагов с промежуточной ценностью
C — Control (Контроль пользовательского опыта):
- Верификация продавцов и товаров критична для дорогих покупок
- Сильные гарантии — ключ к доверию при редких транзакциях
- Максимальная прозрачность процесса (от просмотра до постпродажного обслуживания)
E — Engagement (Вовлечение):
- Контентная стратегия решает всё! (Посмотрите, как LinkedIn использует UGC)
- Email/push коммуникация с микро-ценностью (тренды, советы, аналитика)
- Комьюнити-строительство для создания эмоциональной привязанности к платформе
D — Distinctiveness (Отличительность):
- В low-frequency категориях бренд важнее, чем все остальное!
- Уникальное позиционирование на рынке
- Инновации в customer journey (VR-визуализация для недвижимости)
Примеры продуктов:
- Начинал как агрегатор профилей (2004)
- Добавил раздел вакансий (2008-2009)
- Внедрил UGC-контент, радикально увеличив частоту взаимодействий
- Внедрили Zestimate (оценка стоимости недвижимости)
- Пользователи периодически проверяют стоимость своего жилья даже не планируя покупку
- Это значительно повысило органический трафик и узнаваемость бренда
- Добавили онлайн-впечатления во время пандемии
- Поддерживают уникальность (60% органического + 30% прямого трафика)
- Усилили УТП и значительно отличаются от стандартизированных предложений вроде Expedia (у которой 45% платного трафика!)
Для Low-Frequency Marketplace главная задача — не искусственно увеличить частоту открытий приложения, а:
- Выжать максимум из каждого редкого взаимодействия
- Занять место в голове пользователя между покупками
- Стать настолько distinctive, чтобы ваш бренд первым всплывал в момент возникновения потребности
Есть те, кто работает с low-frequency продуктом? Какой из этих четырех компонентов ICED кажется вам самым сложным для внедрения?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18❤9