ML for Value / Ваня Максимов – Telegram
ML for Value / Ваня Максимов
5.59K subscribers
191 photos
1 video
1 file
119 links
Путь от ML-модели до Value для компании | RecSys, Search, LLM, Pricing и CLTV

Ваня Максимов, @Ivan_maksimov
Head of AI | Recsys, search, llm @Y.Market, ex-WB, ex-Delivery Club

Консультирую компании, Веду курсы
Публикую релевантную рекламу
Download Telegram
Прикольные товары или Serendipity

Считается, что пользователям стоит рекомендовать необычные товары, которые их «удивят» (придумали даже термин serendipity). Это в теории растит удовлетворенность сервисом и заставляет раз за разом возвращаться - растет retention и выручка в долгосроке

Есть разные вариации метрики serendipity. Например, можно считать «необычным» товар, если мы его рекомендуем юзеру Х, товар ему релевантен, при этом всем остальным его рекомендуем редко

Но иногда попадаются настоящие товары-шедевры. Как думаете, какой метрикой можно отловить подобную «необычную» рекомендацию? 😅
😁30👍32😱2
Как собрать красные флаги на собесах

🚩Fake it till you make it: Расскажите, как строили NLP-модели с нуля, даже если не помните разницу BERT и GPT

🚩Никому не важны результаты в денежных метриках - просто расскажите, с какими библиотеками вы работали

🚩Включите достижения команды, отдела и Илона Маска в ваши личные - в какой-то мере вы же с ними связаны!)

🚩Для стажеров: Обязательно пишите время обучения на доп курсе, как отдельное место работы. Ваш pet-проект / GitHub никто не посмотрит, а вот полгода учебы на курсе - это ж, считай, год опыта работы 📈

🚩На вопрос "Как бы вы сделали поиск?" сразу расскажите про GPT и RAG: кому нужны эти полнотекстовые бейзлайны и bm25?

🚩Не забудьте добавить, что продакты и бизнес-заказчики ничего не понимают в ML, поэтому вы делали все проекты без них

P.S. К сожалению, все кейсы реальные. Будьте бдительны)

#career
тг-канал @ml4value
Please open Telegram to view this post
VIEW IN TELEGRAM
😁45😱12🥱7🤝4🤡3
Когда знал, что #recsys - горячая тема, но не подозревал, насколько...
😁36🔥8
➡️ Навигация по каналу v2

На связи Ваня Максимов @Ivan_maksimov - Head of RecSys R&D в Wildberries, 8+ лет в DS

Пишу алгоритмы рекомендаций тех самых кроссовок nike на WB, которые дешевле оригинала в 2 раза.. но почти такие же качественные 😇
Если посерьезнее, то исследую и внедряю новые алгоритмы рекомендаций товаров на WB. До этого построил с нуля все рекомендации в Delivery Club

Еще активно зарабатывал деньги для компаний классическим ML: оптимизация промо-акций, автоматический заказ товаров на склады, планирование смен курьеров. Ну и конечно А/В тестировал все это дело! Довелось даже построить 2 платформы А/В: в Delivery Club и Лавке

В канале пишу о том, как преодолеть путь от ML модели до реального Value для бизнеса. И какие грабли я собрал на этом пути

👍 Самые залайканные / обсуждаемые посты с хэштегами
- 13 способов ускорить АВ тест или “не CUPED-ом единым” #ab
- Отсортируй товары “по популярности” - делов на 30 минут! Стой, а почему 3 спринта? #recsys
- 70% фейлят ML system design собеседование #hiring #system_design
- Что тебя ждет при переходе team lead —> head of ML #career
- Серия про оптимизацию цен на товары #pricing
- Серия постов о метриках регрессии: от RMSE до WAPE и SMAPE #timeseries
- Какая трансформация фичи влияет на перформанс CatBoost? Спойлер: log(x) - влияет!

💡Написать мне: @Ivan_maksimov
Можно позвать меня рассказать что-то интересное на конференции или в вашей компании, обсудить занятную ml-задачу, или проконсультироваться на счет ml-проекта
👍41🔥32😱41
Запрос про спрос

На прошлой неделе словил вьетнамский флешбек: однажды из-за моей ошибки в алгоритме списали фуру мяса в Ростове 🥩

А вспомнил я про это, потому что меня аж 4 раза спросили про задачу восстановления спроса. Или как считать спрос на товар, если его не было в наличии весь день? Это немного необычная задача backcasting - восстановление данных в прошлом:

Вчера к 12 дня продали 1 штуку товара - товар кончился. Какой был бы спрос за вчера, если бы товар был в наличии весь день?

99% решений этой задачи заканчиваются примерно так:
Товар продавался с 8 утра до 12, а не было его с 13 до 23. Получается он был в наличии 4 часа из 16 = 25% времени (этот показатель в ритейле называют OSA - on shelf availability). Раз за 25% дня продали 1 штуку товара, то за весь день продали бы 1 / 0.25 = 4 штуки.
Профит, задача решена!

Общая формула спроса = sales / OSA

Логика c OSA проста и элегантна, но у нее есть 3 проблемы - давайте разбираться

1. Сезонность внутри дня
Расчет выше неявно предполагает, что спрос равномерно распределен внутри дня. Но это не так:
- Есть "часы пик" в районе обеда и вечером
- Некоторые товары чаще продаются утром (кофе)

Поэтому надо знать распределение спроса внутри дня и взвешивать формулу на него. Обычно вес добавляют к OSA: 1 час наличия кофе утром имеет бОльший вес, чем 1 час вечером
Общая формула спроса = sales / weigted_OSA

2. Чертов Пуассон

Все было бы хорошо, если бы спрос не был распределен по Пуассону - с длииииным хвостом продаж при низком мат ожидании
В нашем же примере про 1 продажу с 8 до 12 утра есть немаленький риск (спойлер - его можно посчитать!), что мат ожидание спроса за день = 1, но эта 1 штука просто случайно выпала на первую половину дня. И мы резко завысили спрос за день в 4 раза. Глобально формула выше всегда в среднем завышает спрос. Чем меньше средние продажи товара, тем больше ошибка

Казалось бы, может и не так страшно? Товар же непопулярный. Но непопулярных товаров много (пусть 50%). И если вы для 50% товаров завышаете спрос в несколько раз - это крупная проблема. Крупная, как фура с мясом: да-да, в Ростове ее списали ровно из-за этого…
Но проблема решаемая! Об этом и 3-ей проблеме в следующей серии

To be continued..

Канал @ml4value
#timeseries
👍66🔥245🥱3
📱 RecSys каналы, обьединяйтесь!

Собрали папку с самыми интересными и полезными каналами, в которых пишут про RecSys

Часть каналов делают обзоры статей по RecSys, другие - пишут про новости, новинки индустрии и многое другое

➡️ Присоединяйтесь, чтобы не пропустить ничего важного!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥9🥴31
Пост про спрос ч.2

В первой части я разобрал проблему с сезонностью внутри дни и закинул удочку про распределение Пуассона.

2. Чертов Пуассон - продолжение
Напомню, в чем основная проблема: Если за 1/4 дня продали 1 штуку товара и он кончился - это не означает, что за весь день продали бы 4 штуки. Из-за длинного хвоста распределния Пуассона эта 1 штука могла быть продана просто случайно

Чтобы это побороть можно использовать среднее спроса за последние несколько дней и ограничивать восстановленный спрос, скажем, средним +2 std. На практике работают и дугие эвристики - предлагаю вам их придумать самим:)

Общая формула спроса = MIN(sales / weigted_OSA; avg_demand + 2 std)

3. Корреляция спроса и OSA (доступность товаров на полке)
На уровне отдельного товара не сложно придумать логику восстановления спроса из продаж. Проблемы начинаются, когда мы ее применили на всех видах того же мяса по отдельности, а в сумме по категории получаем что-то странное. Например, если вы забудете про ту фишку с Пуассоном, то на уровне товара проблем может быть и не видно. Но на уровне категории в периоды со спадом досутпности товаров (OSA) во всей категории можно увидеть рост спроса = положительная корреляция спроса и OSA

Это крупная проблема, которая может ломать всю логику заказа товаров в больших масштабах. Поэтому проверяйте, что на уровне категорий нет корреляции наполняемости (OSA) и спроса. Корреляции не должно быть из определения спроса: Спрос - обьем продаж при 100% наполняемости

FAQ
Почему нельзя обучать прогноз спроса только на днях с наполняемоcтью (OSA) = 100%?
- Можно, но только осторожно. Такой подход неизбежно ведет к проблемам из-за пропусков во временном ряду: классические методы ARIMA / Prophet плохо с ними работают, агрегаты за N дней плохо считаются, можно накосячить с внутринедельной сезонностью

Почему нельзя просто восстанавливать спрос значением прошлого дня?
- Восстановить можно, но тогда вы потеряете "особую" динамику спроса. Товар ведь заканчивается не случайно: началось промо, праздник, настала жара, что-то еще. Без знания настоящего таргета спроса в прошлом будет довольно сложно выучить эти зависимости в модели


Правильно определить таргет (спрос) в прошлом - чуть ли не половина успеха в прогноза спроса на будущее. Так что будьте внимательны 😉

Канал @ml4value
#timeseries
👍244🔥4😁1
Как растить деньги и ронять продуктовые метрики 😐

Не первый раз сталкиваюсь с тем, что метрики денег и метрики продукта смотрят в разные стороны

Представьте, что вы улучшаете Поиск. У него есть продуктовая метрика «поисковой релевантности» - насколько найденный товар соответствует поисковому запросу. Ее можно посчитать через асессоров (и еще парой способов)

С точки зрения поисковой релевантности на запрос «Книга Гарри Поттер» очевидно нужно выдавать книги о Гарри Поттере. И чем точнее мы их находим, тем больше денег зарабатываем. Или нет? 💣

Представьте, что топ-4 результата поиска - и правда книги о Гарри. А потом частенько попадаются игрушки/диски/постеры из вселенной Поттера. И люди из запроса про книгу покупают детские игрушки! Деньги растут, а поисковая релевантность нервно курит в сторонке 🥲

Похожий кейс, когда с ~10 позиции появляются книги других серий, которые похожи на Поттериану

Следующим постом напишу, как я считаю, нужно решать такие кейсы. А что думаете вы? Пишите в комменты ⬇️
#metrics
3👍42🔥1751
Как растить деньги и ронять менять продуктовые метрики ч.2

Дилемма денег и продукта обычно появляется из такой логики: в АВ красить выручку всей компании мы не можем (нет таких сильных изменений). Поэтому придумаем продуктовую прокси-метрику, которая коррелирует с деньгами

Если чуть преувеличить, то принимается решение «давайте решать проблемы пользователя - деньги сами придут». А они не приходят 🥲

Тут фишка в том, что хорошие прокси-метрики денег придумать даже один раз сложно, при этом они еще и эволюционировать должны!

Вот кто б заранее знал, что зумеры будут искать мероприятия в тик токе? Или что в «утилитарном» поиске Гугла люди могут искать вдохновение (этот рынок как раз отжал Pinterest у Гугл)

В нашем кейсе с игрушками Гарри и книгами других серий по запросу «Книга Гарри Поттер» я бы предложил за целевые брать около-дегежные метрики страницы поиска: конверсию в клик/заказ и средний чек. И пробовать подбирать для них несколько прокси: точная текстовая релевантность поиска, попадание в широкую категорию поискового запроса, разнообразие и тп

В продукте это может выглядеть так (и вы много где это встретите):
- Первые 10 позиций идет обычная поисковая выдача. А чем дальше, тем больше exploration/discovery
- Горизонтальный блок с результатами query expansion (поиск по более широкому запросу): в целом похожие фэнтези книги
- Еще 5 позиций из поисковой выдачи
- Горизонтальный блок сопутствующих товаров: игрушки Гарри
- Еще 10 позиций
- Блок в целом популярных товаров (если за 25 позиций ничего не нашлось, то дальше вряд ли листают)

Такие дела 😇
#metrics
10👍14🔥65🐳3
Немного о личном

Завершаю летний сезон победой на теннисном турнире Amatour masters и 28 строчкой в рейтинге полу-про в России 🎾 🏆

Чтобы попасть в топ-30, я выиграл всего лишь 55% геймов! Для сравнения (немножко нечестного, но все же) легенда тенниса и долгое время 1-ая ракетка мира Роджер Федерер выиграл 58% геймов в своей карьере

В общем, помните, что даже если вы допускаете просто кучу неудач, то вы все равно можете быть топ-1. Учитесь на ошибках и не унывайте!)

Ну а еще, вся жизнь - это numbers game, где +1% успешности может кратно улучшить ваши позиции

P.S. Вот бы мне +3% выигранных геймов, чтобы сравняться с Федерером 😇
#personal
🔥7019🏆14👍75
Где искать работу зарубежом?

Международные стартапы с русскоговорящими фаундерами или командами – один из эффективных способов получить оффер за рубежом сейчас.

Вакансии именно в таких компаниях собирают ребята в канале Dev & ML Jobs за рубежом, а также делятся прямыми контактами HR для отклика.
Как результат – уже десятки читателей получили офферы в Neon, InDrive, 1inch, Wheely и др.

Несколько актуальных вакансий:
Data Scientist в Easybrain (Кипр, помогают с релокацией)
Senior ML Engineer в Fluently AI, $5000 - $10 000 в месяц (remote)
Data Scientist (Finance Infrastructure) в MoonPay (Португалия, Испания, Польша)
Middle ML Engineer в Mayflower (Кипр, помогают с релокацией)

💙Подписывайтесь и развивайте карьеру в будущем единороге!

Реклама Dev & ML Jobs за рубежом
👍11💅6🔥52👌2
Сегодня я на конфе E-Code

Планирую послушать все про рекомендации и поиск) Если хотите встретиться - напишите в комменты: давайте попробуем пересечься 🙃
👍23🔥4😱2👎1
Мой топ-10 проблем с рекомендательными системами. Часть 1/4: Junior

По следам классного поста о топ-10 моделях в рек системах. Когда вы их выучите и внедрите, то 100% столкнетесь с проблемами
То, какие проблемы вы заметите и качественно решите, часто и определяет уровень синьерности. Поехали!

Проблемы уровня Junior
Их обычно заметно невооруженным взглядом. Их достаточно часто могут определить даже далекие от рексис люди, посмотрев визуально рекомендации для себя

1. Нерелевантные аспекты
Непопадание в пол, ценовой сегмент или не учет явных интересов пользователя
Классика жанра, встречается практически во всех моделях

Решается очень по-разному: обучением отдельных моделей под сегменты пользователей, фичами в ранжирующем бустинге, костылями на проде - придется быть креативным 😇

2. Почти дубли + Низкое разнообразие
99% моделей оценивают некий скор релевантности товара пользователю. Часто очень похожие товары примерно одинаково релевантны, поэтому могут забить весь топ рекомендаций. Например, разные версии айфонов

Решается продуктово склейкой почти одинаковых товаров в одну карточку товара и на уровне ранжирования учетом разнообразия через DPP / MMR. Есть и более современные подходы: наиболее близки к этой теме multi-interest learning, listwise ranking

3. Кликбейт
Принимает разные формы:
- Слишком дешевые товары
- Слишком дорогие товары (золотой айфон за 1 млн)
- Кричащие заголовки / картинки (Напиток для похудения за 3 дня, курсы по ML с нуля до миддла за 3 месяца )
- Фрод продавцов или создателей контента (Фейковые отзывы, самовыкупы, циклические короткие видео)
- И еще добрая сотня вариантов

В основном борятся с кликбейтом аккуратным выбором таргета (вместо кликов использовать только долгие клики, например) и фильтрацией отдельных товаров/продавцов/тем по рейтингу, CTR и продуктовым свойствам

А как бы вы решали эти 3 проблемы?)
#recsys
👍53🔥119👎2
Мой топ-10 проблем с рекомендательными системами. Часть 2/4: Middle
Рекомендации уже неплохие, но нет вау-эффекта. От продакта на этом этапе можно услышать "мы рекомендуем очевидное", "я уже видел подобное Х дней назад"

1. Рекомендательный пузырь
Возникает часто из-за таргета с фокусом на "жирные" действия: заказы товаров, лайк в соц сети, досмотр видео на 80+%
Люди склонны совершать такие жирные действия со знакомым контентом (то, что они уже видели). Решают эту проблему многими путями, самые популярные:
- Аккуратно добавлять в таргет "дискаверийные" действия: длинные клики, например
- Насильно подмешивать в финальную выдачу слабо-персонализированный контент: популярное в городе пользователя, трендовые товары
- Продуктово делать врезки с отдельными категориями
- Фильтровать уже купленные/показанные товары

Менее очевидная причина - Feedback loop: пользователь лайкает то, что мы ему показываем - модель на этом учится и продолжает показывать то же самое
Имхо, переоцененная история. В большинстве сервисов рекомендации - совсем не основной источник кликов/заказов, все же поиск в этом аспекте доминирует. Поэтому просто обучайтесь на всех данных сервиса (не только кликах, заказах из рекомендаций) - и все будет в порядке 😉
Если все же такая проблема есть (например, ваш сервис - ютуб), то можно выделять слоты в ленте с около-случайными рекомендациями и обучатсья на них

2. В рекомендациях нет необычных товаров: нет вау-эффекта (serendipity)
Хотелось бы, чтобы рекомендации помогали человеку увидеть то, что он сам вряд ли бы смог найти за 1-2 поисковых запроса. Это дает вау-эффект, в теории растит удовлетворенность рекомендациями и ретеншен

Чтобы добиться такого эффекта, нужно технически побороть хотя бы popularity bias
- Добавлять в таргет бОльший вес непопулярным товарам
- Умно сэмплить негативы при обучении модели
- Тестировать хитрые лоссы (cosine contrastive loss, например)
- Брать не топ-N товаров из рекомендательного алгоритма (обычно кандидато-генератора), а сэмплить их из всех товаров пропорционально скору модели
#recsys
🔥38👍13🤔52
Итоги года ML4Value

Год был очень насыщенный: Много нового узнал, кучу статей читал, работу менял, во все возможные поездки ездил, и внезапно написал постов на канале больше, чем в прошлом году:)

Как всегда детальные итоги года подвожу с запозданием - поэтому держите пока итоги от TGStat 🚀

Сделать свою картинку можно через @TGStat_Bot по запросу "2024 @username"
👍98🔥5👎3
Что там с рынком IT-вакансий в 2025?

Со всех сторон слышны новости о сокращениях (Самолет, Vk, МТС, Сбер, Альфа и не только). Казалось бы, сейчас сотни кандидатов выйдут на рынок + онлайн-школы выпустят еще пару тысяч -- и да здравствует кровавый океан, где компании диктуют условия, и найм совершается за 1 месяц? Не тут-то было

Если вы сами искали кандидатов за последние полгода, то знаете, что поиск наоборот стал дольше / найма меньше. Но и зарплаты ничуть не снизились. В общем, какой-то парадокс. Далее будет сугубое имхо из анализа рынка и сплетен / новостей от знакомых - все, как мы любим 😊

На рынке джуниор-миддл
Спрос (кол-во вакансий) падает, а предложение (число кандидатов) растет -- по идее, должна снижаться зарплата для уравновешивания рынка. Но зарплаты снижать не вариант: конкуренция со стороны гос it, зарубежа. Также в отдельной команде может быть единственная вакансия за полгода, а не 3-4, как раньше. Поэтому важно найти "идеального" кандидата

Поэтому идет шринкфляция навыков. Помните молоко по той же цене, но за 900 мл вместо литра? Тут то же самое.
Шринкфляция навыков — на вакансию junior ищут кандидата с навыками middle-

В общем, тут советов 2:
- Прокачивайте свои навыки. Теперь недостаточно знать только pandas и catboost даже для стажировки(
- Расширяйте воронку поиска = подавайтесь на бОльшее число вакансий. Только не забывайте все же смотреть на релевантность ваших навыков роли, составлять приличное резюме и сопроводительное -- про конверсию воронки тоже надо помнить

P.S. Год учебы на курсах вписать в качестве года "работы" в резюме - ред флаг 🚩
А вот приличный (!) пет проект за опыт работы - вполне вариант

На рынке синьор и выше
Тут ситуация, когда и вакансий мало, но и кандидатов тоже мало! За идеальный мэтч готовы платить много (вакансия синьера от 700k). Поэтому тут рынок превратился в executive search с очень точечным наймом, проверкой бэкграунда и буквально "охотой" за крутыми сотрудниками

Тут вы меня может и не просили советов, но куда ж без них)
- Качайте личный бренд, чтобы быть узнаваемым внутри своей компании и на рынке
- Выступление на конференциях, статьи на Хабре, тг-каналы теперь must have. Но опять же, помните про качество: стать узнаваемым с плохой стороны сотрудником - не очень удачная идея)

Embrace yourself, IT winter has come 🥶
#career
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥50👍15🤯83😁2
Инсайты с Data елки 🌲

На прошлых выходных ходил на Data елку в VK. В этом году по ощущениям бОльшая часть конфы была про RecSys и LLM: немало интересных докладов и кулуарных разговоров. Вот что мне запомнилось больше всего

1. VK RecSys Challenge: однозначного лидера в моделях RecSys все еще нет
Среди победителей на достаточно большом датасете VK.клипов есть решения на траснформерных нейронках, классических MLP и даже просто бустингах. В общем, успех зависел скорее от того, насколько качественно вы умеете варить мл-алгоритм, чем от самого алгоритма. Ну а на среднего размера датасетах консенсусно рулят EASE + бустинги

2. Foundational models в рекомендациях 💡
Нейросети в рекомендациях все больше идут в сторону Foundational models = единая модель для всех типов действий, которая используется везде (лента перс рекомендаций, поиск, похожие) и предвидит будущее предсказывает будущие действия пользователей

3. LLM файнтюнят все, но используют активно в проде не только лишь все
Все файнтюнят open-source LLM (в основном llama) на своих данных - внедряют в основном для автоматизации поддержки. Но для подавляющего большинства задач все еще рулят BERT-ы. Кстати, с времен RoBERTa вышло много апгрейдов - почитайте про вышедший месяц назад modernBERT

4. Ставка на LLM-агенты в 2024 году не оправдалась 🥷
Все еще крайне мало успешных внедрений в бизнес. Но посмотрим, что нам сулит 2025 год, уже есть подающие надежды кейсы

В общем, в интересное время живем - продолжаю активно наблюдать за областями RecSys и LLM/NLP, и даже в некоторой степени их трогать)
#recsys #articles_review
🔥3111👍9
Моя первая работа

Мало кто знает, но мое первое место работы случилось ~9 лет назад в рисерче в антифроде (хоть я тогда и не знал этого термина). Да не в обычном, а в антифроде банков. На дворе 2016 год, идет охота на ведьм недобросоветсные банки. ЦБ отзывает лицензии у ~100 банков в год. Всех очевидных мошенников уже закрыли - хочется знать, как найти более хитрые недобросовестные банки для проверок? Тут на помощь приходит ML - прогнозируем будущую вероятность дефолта банка. Обычно за месяц до дефолта банк просто мега-хорош по фин отчетности, а после - хоп, и "дыра" в фин балансе на пару ярдов. То есть банки подделывают/играются с фин отчетностью (фродят)

Сфера с токи зрения ML очень академическая, во всех статьях используют лог-регрессию на вероятность дефолта. Ну и конечно с анализа этих статей я и начал. Тут же нашел там просто к-к-комбо из красных флагов

🚩 В 99% статей метрики качества считаются на трейне (прям как у некоторых llm сейчас 😅)
🚩 В качестве метрики используют ROC-AUC, хотя тут явно нужно что-то вроде precision/recall или даже precision/recall at X
🚩 На инференсе порог вероятности для дефолта... 50%. Его просто никто не подбирал

Из зеленых флагов - есть действительно занятные фичи фрода. Ну что ж, засучим рукава, и попробуем повторить результаты статей с нормальными ml-метриками на train/val/test split по времени и прочими уже стандартами в 2025 г

Выяснилось, что практически для всех статей test precision = recall = 0 🧐

Вооружаемся регуляризацией, балансировкой классов, катбустом и фича инжинирингом - получаем на тесте уже что-то приличное.
Для "быстрой ручной проверки" с высоким порогом вероятности будущего дефолта precision ~87% при recall ~23%.
Для "вдумчивой ручной проверки" и среднего порога precision ~30%, recall ~70%

Дополнительно смотрим на feature importance: все супер, в топе много фичей, которые экономически обоснованы и появляются часто в достойных статьях. Из занятного, >50% feature importance давали фичи
- ликвидности активов (как быстро банк может продать активы)
- доля ритейл-компаний в кредитном портфеле (да, комерсам давать было деньги опасно)
- доля выданных кредитов, которая плохо обеспечена активами банка (выдают кредиты всем подряд)
- обьем зарубежных операций VS активы (отмывание денег)

Интересно, что доля банка на рынке не так сильно влияла на вероятность дефолта. Еще и некоторым топовым банкам модель выдавала вероятность дефолта сильно больше 0%. Но потом все встало на свои места: началась санация (отзыв лицензии) одного из топ-5 банков "Открытие". Занятно, что по модельке его вероятность дефолта =20% за полгода до начала санации и ~70% за 2 мес. В общем, случилось довольно интересное приложение науки к реальности 👨‍🔬

А какие необычные места работы были у вас в начале карьеры?
Пишите в комменты: по моему опыту, часто это годные куллстори 🔽
#personal
👍64👏5🤓41
Топ-10 проблем с рекомендациями: Уровень Senior 🍅

На этом уровне уже понимаешь, что качество рекомендаций измеряется не метриками рекомендаций (про них раз , два ) 😅
А метриками покупателей, продавцов и бизнеса. И главная проблема: научиться рекомендациями растить именно эти метрики, а не что-то еще. Далее буду очень краток, иначе все не влезет в один пост

Метрики покупателей
«Хочу удобно и быстро выбрать товар по хорошей цене»
- Факт выбора: конверсия из показа рек в покупку/корзину
- Быстро: время на совершение покупки. В доставке измеряют даже click2eat - время от открытия приложения до начала ужина 🍴
- Удобно: мерить сложно. Неплохо начать хотя бы с использования фильтров/подсказок + рост конверсии за ними vs без них
- По хорошей цене: можно мерить цену покупки vs рынок
- Это все может не отражать «счастье покупателя». Не верьте до конца метрикам выше и тем более NPS. Тут поможет Retention

Метрики продавцов
«Хочу продать как можно больше по максимально возможной цене и получить прибыль»
- Продать побольше: доля продавцов с > N продаж в неделю. Обычно если сервис несет мало заказов продавцу, то он легко может и уйти с этого сервиса
- Приятность цены для продавца и прибыль вы скорее всего не измерите. Но если с ним все Ок, то продавец останется с вами (Retention) и будет активничать на платформе (Доля продавцов с новым ассортиментом, отвечающих на отзывы, … - включите фантазию)

P.S. Продавцами могут быть не только продавцы товаров, но и продавцы своих услуг (мастер на час, курьер, …). Тут вы можете знать больше о их заработке через ваш продукт - можете считать их метрики прибыльности

Метрики бизнеса
«Хотим захватить рынок -> Вырастить капитализацию -> Получить побольше прибыли -> Удержать прибыльную нишу» 🎯

В общем-то это все реальные цели, которые могут быть у бизнеса. Счастье покупателей, сделать мир лучше, eco friendly - это может декларироваться целью, только если ведет к реальным целям

Захватить рынок - DAU, MAU, Retention. Кто-то любит мерить долю рынка не в людях, а в обороте денег - тогда мерим Выручку/GMV

Вырастить капитализацию - обычно это рост Выручки при прибыльности > X%. Часто > -Х%. Да-да, вспомните убыточные десятилетиями uber и amazon

Прибыль - собственно, прибыль и ее составляющие. Не забудьте в составляющих рекламную выручку, затраты на доставку, возвраты и кучу всего еще ☺️

Удержать прибыльную нишу - Retention пользователей в этой нише. Классный пример - Apple. 20% от обьема продаж на рынке смартфонов/ноутов дают им порядка 50% прибыли этого рынка

——————————————-
После осознания и расчета настоящих метрик рекомендаций начинается долгий и болезненный путь поиска связи оффлайн мл-метрик с ними. Путь этот можно пройти разными тропками:
- Строить корреляции и регрессии на оффлайн данных
- Пробовать найти взаимосвязи через множество АВ
- Внедрять RL
- Разделить продукт на разные по целевым метрикам рекомендательные блоки и развивать их почти независимо
- Построить стройную логику и просто верить ей

Выбирайте ваш путь сами, но помните: «просто верить» ведет в бездну разочарования ☝️
#recsys
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39🔥96