Абсолютно великая, на мой взгляд, реклама Claude от Anthropic. Давно такого кайфа не испытывал. Что-то в духе старого Apple
https://youtu.be/FDNkDBNR7AM?si=c_KB0zjr61uY7zj1
https://youtu.be/FDNkDBNR7AM?si=c_KB0zjr61uY7zj1
YouTube
Keep thinking with Claude
There's never been a better time to be a problem solver.
Claude is the AI collaborator that helps you think deeper—whether you're coding, creating, or reimagining what’s possible.
Keep thinking.
https://claude.com
Claude is the AI collaborator that helps you think deeper—whether you're coding, creating, or reimagining what’s possible.
Keep thinking.
https://claude.com
🔥45😁2
Записки C3PO
Меня размотал ИИ https://poke.com
В общем, он мне предложил подписку за 50 баксов, но я поторговался и смог сбить до 5. Но есть нюанс…
😁76🔥8❤1
Я часто угорал в комментах силоошной в духе «вот когда согласует квантовую механику и теорию гравитации, тогда и поговорим».
Тут оказывается Дойтч и Сама согласились, что это хороший бенч для AGI
https://x.com/slow_developer/status/1971323826332930336?s=46
Тут оказывается Дойтч и Сама согласились, что это хороший бенч для AGI
https://x.com/slow_developer/status/1971323826332930336?s=46
X (formerly Twitter)
Haider. (@slow_developer) on X
Sam Altman proposed a future AGI test:
if a model like "GPT-8" solved quantum gravity and could explain the reasoning behind its discovery
would that qualify as AGI?
David Deutsch agreed that it would qualify as AGI, making it a potential benchmark
if a model like "GPT-8" solved quantum gravity and could explain the reasoning behind its discovery
would that qualify as AGI?
David Deutsch agreed that it would qualify as AGI, making it a potential benchmark
😁30🔥2
Играюсь сегодня с Sora 2. Получается, конечно, адская дичь пока. Фокс ту, фокс ту, факел, факел.
😁33
Наткнулся тут на статью в HBR про важность софт скилов. Срезонировало, ибо по сути такой подход при найме и развитии использовал всегда: базовый фундамент > специализированные навыки.
В статье авторы анализируют данные по 70 миллионам карьерных переходов в США и приходят к выводу, что для долгосрочного успеха и адаптивности важнее не узкоспециализированные, а фундаментальные навыки. К ним относятся умение работать в команде, математическое мышление, адаптивность, коммуникация и навыки решения проблем.
Основные тезисы:
- Фундамент определяет потолок: сотрудники с сильной базой быстрее осваивают новые сложные навыки, со временем получают более высокую зарплату и легче продвигаются на продвинутые роли. Это как в драфте NBA: команды часто выбирают не самых результативных игроков, а тех, у кого есть потенциал, основанный на скорости, ловкости и понимании игры.
- Узкие навыки быстро устаревают: "период полураспада" технических навыков сократился с 10 лет в 80-х до примерно 4 лет сегодня, и продолжает падать. Вспомните Adobe Flash или Hadoop - когда-то востребованные технологии, которые быстро потеряли актуальность. Люди, которые смогли переключиться на новые технологии, сделали это благодаря своей способности к обучению и решению корневых проблем, а не заученным фреймворкам.
- Социальные навыки - это клей: в современной рабочей среде, состоящей из кросс-функциональных и удаленных команд, особенно важны социальные навыки: коммуникация, эмпатия, умение разрешать конфликты. Исследования показывают, что с 1980 года количество ролей, требующих высокого уровня социального взаимодействия, постоянно растет, и именно такие роли получают самые высокие премии к зарплате. Google, к примеру, в своем исследовании Project Oxygen выяснил, что лучшие менеджеры - это в первую очередь хорошие коучи и коммуникаторы.
Это отлично ложится на мой опыт. Например, превратить хорошего Software Engineer в Machine Learning Engineer часто проще, чем ML Researcher'а. У SWE уже есть мощнейший фундамент: системное мышление, навыки декомпозиции, решения проблем, опыт работы в команде и с продакшн левел кодом. Ему нужно лишь развить специфичные для ML скилы и знания. У исследователя может быть глубокое знание математики и моделей, но ему может не хватать инженерной культуры, что для роли MLE критично.
И этот же подход применим не только к найму, но и к собственному развитию. Вместо того чтобы гоняться за очередным хайповым, но узким навыком, который может устареть через пару лет, а сейчас и того раньше, гораздо выгоднее вкладываться в свой «фундамент»: умение решать проблемы, критическое, открытое и системное мышление, коммуникацию и способность быстро учиться. Именно это делает вас адаптивным и ценным специалистом в долгосрочной перспективе, готовым к любым изменениям на рынке.
В статье авторы анализируют данные по 70 миллионам карьерных переходов в США и приходят к выводу, что для долгосрочного успеха и адаптивности важнее не узкоспециализированные, а фундаментальные навыки. К ним относятся умение работать в команде, математическое мышление, адаптивность, коммуникация и навыки решения проблем.
Основные тезисы:
- Фундамент определяет потолок: сотрудники с сильной базой быстрее осваивают новые сложные навыки, со временем получают более высокую зарплату и легче продвигаются на продвинутые роли. Это как в драфте NBA: команды часто выбирают не самых результативных игроков, а тех, у кого есть потенциал, основанный на скорости, ловкости и понимании игры.
- Узкие навыки быстро устаревают: "период полураспада" технических навыков сократился с 10 лет в 80-х до примерно 4 лет сегодня, и продолжает падать. Вспомните Adobe Flash или Hadoop - когда-то востребованные технологии, которые быстро потеряли актуальность. Люди, которые смогли переключиться на новые технологии, сделали это благодаря своей способности к обучению и решению корневых проблем, а не заученным фреймворкам.
- Социальные навыки - это клей: в современной рабочей среде, состоящей из кросс-функциональных и удаленных команд, особенно важны социальные навыки: коммуникация, эмпатия, умение разрешать конфликты. Исследования показывают, что с 1980 года количество ролей, требующих высокого уровня социального взаимодействия, постоянно растет, и именно такие роли получают самые высокие премии к зарплате. Google, к примеру, в своем исследовании Project Oxygen выяснил, что лучшие менеджеры - это в первую очередь хорошие коучи и коммуникаторы.
Это отлично ложится на мой опыт. Например, превратить хорошего Software Engineer в Machine Learning Engineer часто проще, чем ML Researcher'а. У SWE уже есть мощнейший фундамент: системное мышление, навыки декомпозиции, решения проблем, опыт работы в команде и с продакшн левел кодом. Ему нужно лишь развить специфичные для ML скилы и знания. У исследователя может быть глубокое знание математики и моделей, но ему может не хватать инженерной культуры, что для роли MLE критично.
И этот же подход применим не только к найму, но и к собственному развитию. Вместо того чтобы гоняться за очередным хайповым, но узким навыком, который может устареть через пару лет, а сейчас и того раньше, гораздо выгоднее вкладываться в свой «фундамент»: умение решать проблемы, критическое, открытое и системное мышление, коммуникацию и способность быстро учиться. Именно это делает вас адаптивным и ценным специалистом в долгосрочной перспективе, готовым к любым изменениям на рынке.
👍38❤11🔥7💯2
This media is not supported in your browser
VIEW IN TELEGRAM
Слили запись сегодняшнего митинга по стратегии
😁57
Forwarded from Радиорубка Лихачёва
Ходит денежка по кругу. Триллионный план инвестиций в AI-индустрии
Все инвестируют друг в друга, накачивая капитализацию. Что-то напоминает, да?
Bloomberg опубликовал материал про денежные потоки в AI-экосистеме. И, главное, визуализировал, как эта схема выглядит — получился мем про план эвакуации при пожаре: просто круг со стрелочками и паника «А-а-а-а-а!».
Вот как работает накачка:
— OpenAI за $500 миллиардов закупает GPU у Nvidia
— Nvidia инвестирует обратно в OpenAI до $100 миллиардов
— OpenAI заключает облачный контракт с Oracle на $300 миллиардов
— Oracle покупает чипы у Nvidia на десятки миллиардов
— OpenAI договаривается с AMD о GPU мощностью на 6 ГВт, а AMD получает опцион на покупку 160 миллионов акций OpenAI
— Microsoft инвестирует в OpenAI, OpenAI арендует мощности у Microsoft
— А ещё есть правительство США, которое получает 10% в Intel и 15% в экспорте Nvidia в Китай, Nebius Воложа, Mistral, xAI…
И так по кругу. Каждая сделка увеличивает капитализацию всех участников, создавая иллюзию бешеного роста рынка.
Прикол в том, что уже ОЧЕНЬ сильно напоминает классические схемы манипуляции рынком. Когда компании инвестируют друг в друга не столько ради реальной выгоды, сколько ради накачки оценок перед инвесторами.
Основной посыл — никогда ещё столько денег не тратилось на технологии без доказанной способности приносить прибыль.
Все инвестируют друг в друга, накачивая капитализацию. Что-то напоминает, да?
Bloomberg опубликовал материал про денежные потоки в AI-экосистеме. И, главное, визуализировал, как эта схема выглядит — получился мем про план эвакуации при пожаре: просто круг со стрелочками и паника «А-а-а-а-а!».
Вот как работает накачка:
— OpenAI за $500 миллиардов закупает GPU у Nvidia
— Nvidia инвестирует обратно в OpenAI до $100 миллиардов
— OpenAI заключает облачный контракт с Oracle на $300 миллиардов
— Oracle покупает чипы у Nvidia на десятки миллиардов
— OpenAI договаривается с AMD о GPU мощностью на 6 ГВт, а AMD получает опцион на покупку 160 миллионов акций OpenAI
— Microsoft инвестирует в OpenAI, OpenAI арендует мощности у Microsoft
— А ещё есть правительство США, которое получает 10% в Intel и 15% в экспорте Nvidia в Китай, Nebius Воложа, Mistral, xAI…
И так по кругу. Каждая сделка увеличивает капитализацию всех участников, создавая иллюзию бешеного роста рынка.
Прикол в том, что уже ОЧЕНЬ сильно напоминает классические схемы манипуляции рынком. Когда компании инвестируют друг в друга не столько ради реальной выгоды, сколько ради накачки оценок перед инвесторами.
Основной посыл — никогда ещё столько денег не тратилось на технологии без доказанной способности приносить прибыль.
Альтман «способен обрушить мировую экономику на десятилетие или привести нас всех в землю обетованную», — написала Стейси Расгон, аналитик Bernstein Research, в заметке для инвесторов на этой неделе. «Прямо сейчас мы не знаем, что за карты у него в руке».
🔥16❤5👍5🤯4🤔2😁1
Недавно общался с коллегой, и он задал интересный вопрос: есть ли какой-то один вопрос, который помогает сразу понять, хороший перед тобой продакт или плохой.
Такого вопроса-убийцы я не придумал. Но в ходе разговора осознал, что есть отличный «разрезающий пас», отделяющий одних от других - посмотреть, как человек мыслит о будущем. Плохой продакт говорит о будущем фактами. Хороший - гипотезами.
Эта разница в мышлении - ключевая. Плохой продакт верит, что его работа - это составить красивый план и следовать ему. Он приносит роадмап, где на год вперед расписаны фичи, и продает его как набор будущих фактов. Это успокаивает бизнес, создает ощущение предсказуемости, но по сути является профанацией. Это попытка натянуть детерминированность на хаотичную по своей природе реальность.
Хороший продакт, наоборот, принимает неопределенность. Он строит свою работу вокруг гипотез, про которые я уже не раз писал. У него есть четкая структура: есть наблюдение/феномен, из него рождается предположение, которое превращается в эксперимент с ожидаемым результатом. Это не план по захвату мира, а план по обучению.
И вот этот маркер - факты против гипотез - сразу вскрывает, кто перед тобой. Один пытается продать уверенность там, где её нет. Другой - принимает неопределенность и оптимизирует процесс под скорость обучения.
Такого вопроса-убийцы я не придумал. Но в ходе разговора осознал, что есть отличный «разрезающий пас», отделяющий одних от других - посмотреть, как человек мыслит о будущем. Плохой продакт говорит о будущем фактами. Хороший - гипотезами.
Эта разница в мышлении - ключевая. Плохой продакт верит, что его работа - это составить красивый план и следовать ему. Он приносит роадмап, где на год вперед расписаны фичи, и продает его как набор будущих фактов. Это успокаивает бизнес, создает ощущение предсказуемости, но по сути является профанацией. Это попытка натянуть детерминированность на хаотичную по своей природе реальность.
Хороший продакт, наоборот, принимает неопределенность. Он строит свою работу вокруг гипотез, про которые я уже не раз писал. У него есть четкая структура: есть наблюдение/феномен, из него рождается предположение, которое превращается в эксперимент с ожидаемым результатом. Это не план по захвату мира, а план по обучению.
И вот этот маркер - факты против гипотез - сразу вскрывает, кто перед тобой. Один пытается продать уверенность там, где её нет. Другой - принимает неопределенность и оптимизирует процесс под скорость обучения.
4👍41❤28🤔1
Forwarded from Strategic move: стратегия, продукт и AI (Julia Bilinkis)
В прошлых постах мы посмотрели, как работают цепочки создания ценности. В этом я напишу про интересный феномен, достойный научной статьи: пример того, как цепочки создания ценности могут «сворачиваться в петлю», и почему анализ стратегических позиций в цепочке критически важен.
В классической цепочке создания ценности капитал и добавленная ценность движутся по линии:
инвесторы → производители → посредники → конечные пользователи.
Но есть феномен, который называют круговым финансированием, и именно это мы сейчас видим на рынке AI: капитал ходит по кругу между крупными игроками, которые одновременно инвестируют друг в друга и являются друг другу клиентами. Ну или короче компании покупают у себя самих, создавая видимость бурного роста.
Когда Microsoft одновременно крупнейший клиент, инвестор и облачный оператор для OpenAI, невозможно чётко определить, где в цепочке создаётся ценность, а где просто перераспределяются инвестиции. Или Nvidia - не просто поставщик. Она инвестирует в OpenAI, продаёт OpenAI чипы.
Что мы в итоге имеем: когда стратегические позиции выстраиваются на внутреннем контуре, а не на внешнем рынке, цепочка становится хрупкой: любое падение реального спроса разрушает весь круг финансирования. Дальше возможны два сценария:
1. реальный спрос догоняет инвестиции - экосистема устаканивается;
2. или пузырь лопается, как в 2000-м, когда обнаруживается, что «внешнего» рынка недостаточно, чтобы поддерживать такую архитектуру.
Еще раз это не мошенничество - это типичная схема экосистемного кросс-субсидирования. Но для она может маскировать реальный рыночный спрос, особенно если такие внутренние потоки велики. Наши любимые экосистемы зачастую так и работают, раздувая свои финансовые показатели.
В классической цепочке создания ценности капитал и добавленная ценность движутся по линии:
инвесторы → производители → посредники → конечные пользователи.
Но есть феномен, который называют круговым финансированием, и именно это мы сейчас видим на рынке AI: капитал ходит по кругу между крупными игроками, которые одновременно инвестируют друг в друга и являются друг другу клиентами. Ну или короче компании покупают у себя самих, создавая видимость бурного роста.
Когда Microsoft одновременно крупнейший клиент, инвестор и облачный оператор для OpenAI, невозможно чётко определить, где в цепочке создаётся ценность, а где просто перераспределяются инвестиции. Или Nvidia - не просто поставщик. Она инвестирует в OpenAI, продаёт OpenAI чипы.
Что мы в итоге имеем: когда стратегические позиции выстраиваются на внутреннем контуре, а не на внешнем рынке, цепочка становится хрупкой: любое падение реального спроса разрушает весь круг финансирования. Дальше возможны два сценария:
1. реальный спрос догоняет инвестиции - экосистема устаканивается;
2. или пузырь лопается, как в 2000-м, когда обнаруживается, что «внешнего» рынка недостаточно, чтобы поддерживать такую архитектуру.
Еще раз это не мошенничество - это типичная схема экосистемного кросс-субсидирования. Но для она может маскировать реальный рыночный спрос, особенно если такие внутренние потоки велики. Наши любимые экосистемы зачастую так и работают, раздувая свои финансовые показатели.
❤16👍6💯3🔥1
К слову о том, что развитие LLM уткнулось в потолок. Новый Haiku 4.5 от Anthropic на бенче кодинга выдает результаты лучше, чем у Sonnet 4, которые вышел всего полгода назад и считался SOTA в кодинге, но стоит в несколько раз дешевле и в несколько раз быстрее работает. А теперь представьте, что текущий уровень GPT-5 через несколько лет влезет в айфон для локального инференса
👍29
Forwarded from RationalAnswer | Павел Комаровский
Андрей Карпатый у Дваркеша Пателя, и нейровещества для нейроторчков
Новое интервью с топовым AI-чуваком, такое мы смотрим! Говорит, «до нормальных умненьких AI-агентов нам еще лет десять, уж поверьте мне – деду, который в индустрии 15 лет, и всяких обещаний успел наслушаться».
Но вообще, мне там вот какой момент показался забавным: Карпатый говорит, что обучение с подкреплением – это «ужасный способ учиться»; просто все остальные доступные нам сейчас варианты обучения нейронок еще хуже. Дескать, при RL (reinforcement learning) происходит «всасывание обучения через соломинку».
Грубо говоря, чтобы научиться решать какую-либо задачу таким макаром, нейронке надо сначала вслепую попробовать порешать ее сотней разных способов. И те способы, что случайно привели к правильному решению, вознаграждаются в форме усиления тех весов (условно, нейронных связей), которые участвовали в «успешных» способах. Но при этом поощряются вообще все совершенные действия в рамках давшего результат способа – даже какие-то глупые случайные метания, которые реально ничего полезного в себе не несут.
Люди учатся совсем не так: они делают гораздо меньше попыток, но зато потом сильно вдумчивее разбирают результат – пытаются понять, что конкретно реально сыграло роль в успехе, а что нет.
Так вот, для тренировки моделей так тоже иногда пытаются сделать – каким-то образом поощрять их не только за финальное решение, но и за промежуточные «правильные» шаги. Правда, делать это силами людей – практически неподъемная задача (слишком дорого). Поэтому… да, вы угадали: исследователи пытаются заставить одни языковые модели разбирать решения других, и оценивать их по шагам.
Но там возникает другая проблема: очень часто «обучающаяся» модель находится хитрые лайфхаки, как ей обмануть «модель-учителя» – и заставить ее поощрять не шаги к правильному решению, а какую-то бессмыслицу. К примеру, случайно выясняется, что у модели-оценщика есть какой-то странный кинк на последовательность букв «dhdhdhdh»: каждый раз, когда она ее видит в решении, она дичайше кайфует и сразу ставит за это наивысшую оценку. Видя это, модель-ученик начинает все свои «решения» писать исключительно в формате «dhdhdhdhdhdhdhdhdhdh» (думаю, не стоит уточнять, что реально решить поставленную задачу это не помогает вообще никак).
Мне кажется, здесь есть забавная аналогия с веществами для людей. В чистом виде химические соединения в такой концентрации, от которой «торчат» люди, в природе не встречаются – вот люди и не эволюционировали, чтобы иметь возможность противостоять им. Так что, когда люди занюхивают какой-нибудь пресловутый порошочек – их «функция вознаграждения» приходит в экстаз и просит еще и еще такого же.
Получается, с нейронками происходит примерно то же самое: в огромном корпусе текстов, на которых они тренировались, никогда не встречалась эта бессмысленная последовательность «dhdhdhdh». Но по некой случайности веса модели сложились так, что она (без всякого глубокого смысла) кайфует именно от этих символов в этой последовательности. И когда модель внезапно встречает эту штуку в своей жизни – она уходит в неконтролируемый запой и трясущимися руками пытается потребить как можно больше именно этой наркоты.
В общем, ждем появления нейроройзмана, который будет пристегивать LLM к нейробатареям…
Новое интервью с топовым AI-чуваком, такое мы смотрим! Говорит, «до нормальных умненьких AI-агентов нам еще лет десять, уж поверьте мне – деду, который в индустрии 15 лет, и всяких обещаний успел наслушаться».
Но вообще, мне там вот какой момент показался забавным: Карпатый говорит, что обучение с подкреплением – это «ужасный способ учиться»; просто все остальные доступные нам сейчас варианты обучения нейронок еще хуже. Дескать, при RL (reinforcement learning) происходит «всасывание обучения через соломинку».
Грубо говоря, чтобы научиться решать какую-либо задачу таким макаром, нейронке надо сначала вслепую попробовать порешать ее сотней разных способов. И те способы, что случайно привели к правильному решению, вознаграждаются в форме усиления тех весов (условно, нейронных связей), которые участвовали в «успешных» способах. Но при этом поощряются вообще все совершенные действия в рамках давшего результат способа – даже какие-то глупые случайные метания, которые реально ничего полезного в себе не несут.
Люди учатся совсем не так: они делают гораздо меньше попыток, но зато потом сильно вдумчивее разбирают результат – пытаются понять, что конкретно реально сыграло роль в успехе, а что нет.
Так вот, для тренировки моделей так тоже иногда пытаются сделать – каким-то образом поощрять их не только за финальное решение, но и за промежуточные «правильные» шаги. Правда, делать это силами людей – практически неподъемная задача (слишком дорого). Поэтому… да, вы угадали: исследователи пытаются заставить одни языковые модели разбирать решения других, и оценивать их по шагам.
Но там возникает другая проблема: очень часто «обучающаяся» модель находится хитрые лайфхаки, как ей обмануть «модель-учителя» – и заставить ее поощрять не шаги к правильному решению, а какую-то бессмыслицу. К примеру, случайно выясняется, что у модели-оценщика есть какой-то странный кинк на последовательность букв «dhdhdhdh»: каждый раз, когда она ее видит в решении, она дичайше кайфует и сразу ставит за это наивысшую оценку. Видя это, модель-ученик начинает все свои «решения» писать исключительно в формате «dhdhdhdhdhdhdhdhdhdh» (думаю, не стоит уточнять, что реально решить поставленную задачу это не помогает вообще никак).
Мне кажется, здесь есть забавная аналогия с веществами для людей. В чистом виде химические соединения в такой концентрации, от которой «торчат» люди, в природе не встречаются – вот люди и не эволюционировали, чтобы иметь возможность противостоять им. Так что, когда люди занюхивают какой-нибудь пресловутый порошочек – их «функция вознаграждения» приходит в экстаз и просит еще и еще такого же.
Получается, с нейронками происходит примерно то же самое: в огромном корпусе текстов, на которых они тренировались, никогда не встречалась эта бессмысленная последовательность «dhdhdhdh». Но по некой случайности веса модели сложились так, что она (без всякого глубокого смысла) кайфует именно от этих символов в этой последовательности. И когда модель внезапно встречает эту штуку в своей жизни – она уходит в неконтролируемый запой и трясущимися руками пытается потребить как можно больше именно этой наркоты.
В общем, ждем появления нейроройзмана, который будет пристегивать LLM к нейробатареям…
Dwarkesh
Andrej Karpathy — AGI is still a decade away
"The problems are tractable, but they're still difficult”
🔥35👍7❤6😁3
Клод с приходом соннет 4.5 стабильно называет меня Адамом Овсесяном, хотя я ему уже везде указал свою настояющую фамилию. Что-то, походу, какие-то веса зацепились за мое армавирское прошлое
😁64
Недооцененный, на мой взгляд, инструмент культурных изменений.
Но есть нюансы:
- такое можно делать, когда культурная перестройка идет полным ходом, чтобы не выглядело все обманом и привело к разочарованию новых кадров и дискредитации репутации.
- как следствие, у новых ребят должна быть поддержка и тулы для применения нового культурного кода. И наоборот: отсутствие жестких барьеров, иначе смотрите пункт 1.
https://news.1rj.ru/str/leadgr/2131
Но есть нюансы:
- такое можно делать, когда культурная перестройка идет полным ходом, чтобы не выглядело все обманом и привело к разочарованию новых кадров и дискредитации репутации.
- как следствие, у новых ребят должна быть поддержка и тулы для применения нового культурного кода. И наоборот: отсутствие жестких барьеров, иначе смотрите пункт 1.
https://news.1rj.ru/str/leadgr/2131
Telegram
Teamlead Good Reads – ежедневные советы про менеджмент людей и команд
Про самосбывающиеся пророчества
Обычно про самосбывающиеся пророчества говорят в негативном контексте. Например, команда, которая не верит в успех продукта, вряд ли на самом деле его увидит.
Но этот механизм можно использовать и в обратном направлении –…
Обычно про самосбывающиеся пророчества говорят в негативном контексте. Например, команда, которая не верит в успех продукта, вряд ли на самом деле его увидит.
Но этот механизм можно использовать и в обратном направлении –…
❤6👍2
Forwarded from Strategic move: стратегия, продукт и AI (Julia Bilinkis)
Завтра выступаю тут c темой Как внедрить AI в бизнес и не потратить деньги впустую
👍10❤3💯1
Forwarded from Аня Подображных [Будни продакта]
Много времени сейчас уделяю развитию команды (да и себя тоже). Сделали с Адамом карту скиллов для продактов на разных грейдах, чтобы было понятно, как развиваться.
Логика такая:
- Есть обязательные скиллы (Product Fundamentals), которые нужны всем продактам: гипотезы, стратегия, системное мышление, работа со стейкходерами. И ML-скиллы для тех, кто развивает ML-продукты (хотяя думаю, и они скоро будут нужны всем)
- Есть НЕобязательные скиллы, которы зависят от типа выполняемой работы: Core Product Work / Growth / Monetization / Efficiency. Быть крутаном во всех этих областях не нужно — важно качать те, которые вы реально используете в работе. Например, если вы занимаетесь core-работой, критично разбираться в исследованиях и UX, понимать пользователей и превращать их потребности в решения. Важно владеть аналитикой, чтобы измерять влияние фич на метрики, и понимать технический стек для реализации решений. А вот глубокое знание монетизации и маркетинга не критично — в этом типе работы фокус на создании ценности, а не на привлечении или её монетизации
Внутри карты: скиллы, способ их оценки, минимальные требования на разных грейдах и материалы, которые помогут прокачаться. Лайк, шер (ну вы поняли): https://annapodobrazhnykh.notion.site/Skills-Map-Product-Manager-2960ae565f1180a49b65cdf17c7bea79?source=copy_link
Логика такая:
- Есть обязательные скиллы (Product Fundamentals), которые нужны всем продактам: гипотезы, стратегия, системное мышление, работа со стейкходерами. И ML-скиллы для тех, кто развивает ML-продукты (хотяя думаю, и они скоро будут нужны всем)
- Есть НЕобязательные скиллы, которы зависят от типа выполняемой работы: Core Product Work / Growth / Monetization / Efficiency. Быть крутаном во всех этих областях не нужно — важно качать те, которые вы реально используете в работе. Например, если вы занимаетесь core-работой, критично разбираться в исследованиях и UX, понимать пользователей и превращать их потребности в решения. Важно владеть аналитикой, чтобы измерять влияние фич на метрики, и понимать технический стек для реализации решений. А вот глубокое знание монетизации и маркетинга не критично — в этом типе работы фокус на создании ценности, а не на привлечении или её монетизации
Внутри карты: скиллы, способ их оценки, минимальные требования на разных грейдах и материалы, которые помогут прокачаться. Лайк, шер (ну вы поняли): https://annapodobrazhnykh.notion.site/Skills-Map-Product-Manager-2960ae565f1180a49b65cdf17c7bea79?source=copy_link
🔥21❤9😁1
Все любят кидаться термином "дилемма инноватора" (я тоже!). Звучит очень красиво на питчах инвесторам, когда рассказываешь, как твой AI-стартап сейчас убьет Google. Но, как обычно, есть нюанс, который превращает эту красивую теорию в тыкву.
Сама по себе дилемма не гарантирует вам победу. Это просто окно возможностей, которое когда то закроется. На мой взгляд, есть всего два варианта, как этим окном можно реально воспользоваться:
1. Ваши конкуренты - это классические Kodak, Nokia, Blackberry или Blockbuster. Они сидят на горе кэша, игнорируют дизрапт, считают вас игрушкой и не видят угрозы. Вы успеваете вырасти и захватить рынок, пока они осознают, что произошло, но к этому моменту уже слишком поздно.
2. Ваши конкуренты не игнорят (что в современном мире происходит гораздо чаще). Они видят угрозу, у них есть ресурсы, и они начинают быстро адаптироваться. И вот тут ваша задача - не просто сделать продукт, а найти масштабируемые каналы дистрибуции и обрасти устойчивыми и долгосрочными moats (сетевые эффекты, экономика масштаба, switching cost, бренд) быстрее, чем они разрешат свою дилемму.
Если вы не попадаете ни в один из этих двух сценариев - это верная смерть. Конкурент просто переедет вас своим масштабом, как только адаптирует технологию, а вы останетесь красивой, но мертвой строчкой в истории.
Google, как раз, пример последнего случая. Они прекрасно понимают к чему идет все и достаточно агрессивно действуют.
Так что "дилемма инноватора" - это не гарантия, а просто фора на старте, которой надо суметь воспользоваться. По сути, это частный случай контр-позиционирования (писал тут), который работает в начале, но не обеспечивает долгосрочный "ров".
Сама по себе дилемма не гарантирует вам победу. Это просто окно возможностей, которое когда то закроется. На мой взгляд, есть всего два варианта, как этим окном можно реально воспользоваться:
1. Ваши конкуренты - это классические Kodak, Nokia, Blackberry или Blockbuster. Они сидят на горе кэша, игнорируют дизрапт, считают вас игрушкой и не видят угрозы. Вы успеваете вырасти и захватить рынок, пока они осознают, что произошло, но к этому моменту уже слишком поздно.
2. Ваши конкуренты не игнорят (что в современном мире происходит гораздо чаще). Они видят угрозу, у них есть ресурсы, и они начинают быстро адаптироваться. И вот тут ваша задача - не просто сделать продукт, а найти масштабируемые каналы дистрибуции и обрасти устойчивыми и долгосрочными moats (сетевые эффекты, экономика масштаба, switching cost, бренд) быстрее, чем они разрешат свою дилемму.
Если вы не попадаете ни в один из этих двух сценариев - это верная смерть. Конкурент просто переедет вас своим масштабом, как только адаптирует технологию, а вы останетесь красивой, но мертвой строчкой в истории.
Google, как раз, пример последнего случая. Они прекрасно понимают к чему идет все и достаточно агрессивно действуют.
Так что "дилемма инноватора" - это не гарантия, а просто фора на старте, которой надо суметь воспользоваться. По сути, это частный случай контр-позиционирования (писал тут), который работает в начале, но не обеспечивает долгосрочный "ров".
👍21❤8🔥1