Forwarded from Bohdan Shtepan 🇺🇦
Что быстро пришло в голову:
The Making of a Manager: What to Do When Everyone Looks to You.
Легкое чтиво и, по сути, автобиография одного из первых сотрудников Фейсбука, которая выросла с рядового дизайнера-интерна в топ-менеджеры. Эту книжку часто рекомендуют для подготовки к бихейву. Но здесь нет никаких рецептов или откровений. Даже конфликтные ситуации покрыты весьма поверхностно. Но, тем не менее, книжка хорошая.
Software Engineering at Google: Lessons Learned from Programming Over Time.
Прочел эту книжку по рекомендации одного из участников этого сообщества. Книжка очень хорошо описывает множество разных процессов в Гугле, но актуально и для любой большой технологической компании. После более 5 лет работы в аутсорсе/аутстафе и прочтения этой книжки я решил для себя, что назад в аутсорс - ни ногой.
Own Your Tech Career: Soft Skills for Technologists.
Легкая книжка с простыми истинами о том, как рости как специалист в своей сфере. Наверное, для многих эта книжка не будет глубоким откровением, но поможет систематизировать определенные навыки и упростит отношение ко многим вещам.
The Making of a Manager: What to Do When Everyone Looks to You.
Легкое чтиво и, по сути, автобиография одного из первых сотрудников Фейсбука, которая выросла с рядового дизайнера-интерна в топ-менеджеры. Эту книжку часто рекомендуют для подготовки к бихейву. Но здесь нет никаких рецептов или откровений. Даже конфликтные ситуации покрыты весьма поверхностно. Но, тем не менее, книжка хорошая.
Software Engineering at Google: Lessons Learned from Programming Over Time.
Прочел эту книжку по рекомендации одного из участников этого сообщества. Книжка очень хорошо описывает множество разных процессов в Гугле, но актуально и для любой большой технологической компании. После более 5 лет работы в аутсорсе/аутстафе и прочтения этой книжки я решил для себя, что назад в аутсорс - ни ногой.
Own Your Tech Career: Soft Skills for Technologists.
Легкая книжка с простыми истинами о том, как рости как специалист в своей сфере. Наверное, для многих эта книжка не будет глубоким откровением, но поможет систематизировать определенные навыки и упростит отношение ко многим вещам.
Forwarded from Slava
Привет!
1. Канал Gergely Orosz (Pragmatic Engineer) - https://youtube.com/c/mrgergelyorosz - тут больше в общем про разработку/менеджерство, но есть и видео специально по бихейву
2. Dan Croitor https://youtube.com/c/DanCroitor - чисто бихейв
3. Meta https://youtube.com/channel/UCEHFikgnRuLd1HYKTLrae9Q - тут совсем немного видео, не специфично про бихейв но больше про прохождение интервью в целом. Мне оч зашло "Don't get down-leveled or how to tell a good story".
1. Канал Gergely Orosz (Pragmatic Engineer) - https://youtube.com/c/mrgergelyorosz - тут больше в общем про разработку/менеджерство, но есть и видео специально по бихейву
2. Dan Croitor https://youtube.com/c/DanCroitor - чисто бихейв
3. Meta https://youtube.com/channel/UCEHFikgnRuLd1HYKTLrae9Q - тут совсем немного видео, не специфично про бихейв но больше про прохождение интервью в целом. Мне оч зашло "Don't get down-leveled or how to tell a good story".
YouTube
A Life Engineered
Meaningful work is the cornerstone to a fulfilling life.
Forwarded from Anton Eryomin
https://youtu.be/0Z9RW_hhUT4?t=507
довольно классно показаны различные варианты ответов на один и тот же вопрос в зависимости от уровня
довольно классно показаны различные варианты ответов на один и тот же вопрос в зависимости от уровня
YouTube
Most Tech Interview Prep is GARBAGE. (From a Principal Engineer at Amazon)
Most software engineering prep videos on YouTube are only good for entry-level jobs. You deserve more than that. Let me share my mental model for how to successfully prep for a senior, staff or principal role at a FAANG company.
NEWSLETTER - Sign up to my…
NEWSLETTER - Sign up to my…
Forwarded from Machine Learning REPA (RU) (Mikhail Rozhkov)
Всем привет! Сегодня день большого анонса! Команда Iterative.ai выпустила новый open source инструмент MLEM!
https://mlem.ai/
Этот крутой тул был невозможен без @mike0sv и @agusch1n ! Большой им респект!
Пока все материалы на английском, но думаю скоро появится что-нибудь на русском. Если хотите поддержать проект, небольшой гайд:
- ⭐️ the repo
- ✍️ Check out the blog post
- 🎬 Watch the video and like it!
- Like/share/comment posts on Twitter (the repo one with dog giphy is most important)
- Like/share/comment posts on LinkedIn (the repo one with dog giphy is most important)
- Go to HackerNews and look for it to upvote
- Join us tomorrow for the Release Party Meetup
- We also got a GREAT article in Tech Crunch! Please share!
https://mlem.ai/
Этот крутой тул был невозможен без @mike0sv и @agusch1n ! Большой им респект!
Пока все материалы на английском, но думаю скоро появится что-нибудь на русском. Если хотите поддержать проект, небольшой гайд:
- ⭐️ the repo
- ✍️ Check out the blog post
- 🎬 Watch the video and like it!
- Like/share/comment posts on Twitter (the repo one with dog giphy is most important)
- Like/share/comment posts on LinkedIn (the repo one with dog giphy is most important)
- Go to HackerNews and look for it to upvote
- Join us tomorrow for the Release Party Meetup
- We also got a GREAT article in Tech Crunch! Please share!
Simplifying Machine Learning Model Deployment
Ship, deploy and serve ML models faster
#interview #algo
Интересные лекции по dynamic programming
https://m.youtube.com/watch?v=iKj-xI4enLw&feature=youtu.be
Интересные лекции по dynamic programming
https://m.youtube.com/watch?v=iKj-xI4enLw&feature=youtu.be
Forwarded from Ilya
DP это применение мемоизации (https://en.wikipedia.org/wiki/Memoization). Давайте выберем какой-нибудь язык где легко добавить мемоизацию, например Питон, и возьмем задачу на DP, например https://leetcode.com/problems/coin-change/ . Тогда есть наивный, экспоненциальный алгоритм
def coinChange(self, coins: List[int], amount: int) -> int:
def fewest(val):
if not val:
return 0
if val < 0:
return inf
return min(fewest(val - c) for c in coins) + 1
return clamp_inf(fewest(amount))
а есть элитный, решающий задачу за О(М ⨉ N) time O(N) space алгоритм dynamic programming (найдите на картинке одно отличие)
def coinChange(self, coins: List[int], amount: int) -> int:
@cache
def fewest(val):
if not val:
return 0
if val < 0:
return inf
return min(fewest(val - c) for c in coins) + 1
return clamp_inf(fewest(amount))
(где clamp_inf определена для удобства как return v if v != inf else -1)
Поэтому надо научиться решать задачи экспоненциально, а потом оптимизировать.
Вот тут есть похожий подход к этой задаче на C++ и упоминание какой-то серии лекций, возможно она будет полезной https://leetcode.com/problems/coin-change/discuss/1371738/C%2B%2B-Recursion-greater-DP-Memoization-greater-DP-Tabulation
def coinChange(self, coins: List[int], amount: int) -> int:
def fewest(val):
if not val:
return 0
if val < 0:
return inf
return min(fewest(val - c) for c in coins) + 1
return clamp_inf(fewest(amount))
а есть элитный, решающий задачу за О(М ⨉ N) time O(N) space алгоритм dynamic programming (найдите на картинке одно отличие)
def coinChange(self, coins: List[int], amount: int) -> int:
@cache
def fewest(val):
if not val:
return 0
if val < 0:
return inf
return min(fewest(val - c) for c in coins) + 1
return clamp_inf(fewest(amount))
(где clamp_inf определена для удобства как return v if v != inf else -1)
Поэтому надо научиться решать задачи экспоненциально, а потом оптимизировать.
Вот тут есть похожий подход к этой задаче на C++ и упоминание какой-то серии лекций, возможно она будет полезной https://leetcode.com/problems/coin-change/discuss/1371738/C%2B%2B-Recursion-greater-DP-Memoization-greater-DP-Tabulation
#ml
Ребята варят ML и написали про тестирование ML систем
https://telegra.ph/Testirovanie-ML-sistem-06-02
Ребята варят ML и написали про тестирование ML систем
https://telegra.ph/Testirovanie-ML-sistem-06-02
Telegraph
Тестирование ML-систем
Коллега вчера запостил в канал для шаринга знаний пару статей про тестирование ML-систем (раз и два). Тема мне крайней близкая и интересная - вот, например, моё выступление на митапе LeanDS про тестирование новых версий ML-систем, а вот видосик с прошлого…
#ml #dl
Determined.ai
всем советую и сам пользовался. и self-hosted, и внутри как хочешь ресурсы аллоцируешь, и эксперименты логгируешь, и модель реджистри делаешь, прям вах какая красота. а для визуализаций обычный такой тензоборд, но атвоматом поднимается
upd. еще у них есть слэк и там всё можно спрашивать. как я понял, за банкет платит HPE, который их купил и развивает опенсорс
MLFlow - медленно и некрасиво (зато бесплатно)
Neptune - быстро и красиво
W&B - быстро, красиво и дорого шо пипец
Determined.ai
всем советую и сам пользовался. и self-hosted, и внутри как хочешь ресурсы аллоцируешь, и эксперименты логгируешь, и модель реджистри делаешь, прям вах какая красота. а для визуализаций обычный такой тензоборд, но атвоматом поднимается
upd. еще у них есть слэк и там всё можно спрашивать. как я понял, за банкет платит HPE, который их купил и развивает опенсорс
MLFlow - медленно и некрасиво (зато бесплатно)
Neptune - быстро и красиво
W&B - быстро, красиво и дорого шо пипец
#mlops
Airflow – это оркестратор/шедулер для пайплайнов обработки данных. Типичный пайплайн: раз в сутки налить одни логи, потом другие логи, потом третьи логи, затем перелить это куда-то ещё, затем обучить модель и сохранить её куда-то. И здесь не должно быть капитальной разницы между как-нибудь бустингом и prophet.
В вашем случае ничего не сказано про регулярность запуска. Если нужно сделать предсказания для каждой из колонок только один раз, то airflow не нужен. У него основная цель – более-менее удобно запускать и мониторить регулярные задачи: в динамике смотреть, что когда падало, что сколько времени выполнялось и т.д.
Airflow – это оркестратор/шедулер для пайплайнов обработки данных. Типичный пайплайн: раз в сутки налить одни логи, потом другие логи, потом третьи логи, затем перелить это куда-то ещё, затем обучить модель и сохранить её куда-то. И здесь не должно быть капитальной разницы между как-нибудь бустингом и prophet.
В вашем случае ничего не сказано про регулярность запуска. Если нужно сделать предсказания для каждой из колонок только один раз, то airflow не нужен. У него основная цель – более-менее удобно запускать и мониторить регулярные задачи: в динамике смотреть, что когда падало, что сколько времени выполнялось и т.д.
Forwarded from Start Career in DS
Про прогноз спроса в ритейле 🛒
Одна из самых важных и денежных задач в ритейле - предсказание спроса. Именно проекты связанные со спросом часто бывают ключевыми в работе DS команд крупнейших игроков рынка.
Причём спрос как таковой можно прогнозировать как для первостепенной цели - автопополнения распределительных центров/торговых точек, так и для косвенных. К примеру, можно построить зависимость спроса от цен (фактически, усложнённую эластичность) и таким образом управлять ценообразованием, чтобы максимизировать ожидаемую выручку. Либо же строить зависимость спроса от ассортимента и формировать ассортимент, который будет максимизировать спрос.
Подборка материалов, которые помогут разобраться в теме:
1. Прогноз спроса для промо акций в Магните: часть 1 (более бизнесовая) и часть 2 (более техническая). Ребята выиграли несколько премий в этом году, так что знают о чём говорят 🙂
2. Доклад про предсказание спроса от ребят из Rubbles и х5. Есть ещё один от Саши Фонарёва, более подробный. Оба скорее бизнесовые.
3. #кудажебезвалеры Валерий Бабушкин про предсказание спроса в х5 (но обратите внимание что видео от 2020 года, часть инфы устарела). Тут есть.и про признаки, и про построение непосредственно моделей.
4. Евгений Бурнаев: Топологический анализ временных рядов для прогнозирования спроса
5. Топовый вебинар Богдана Печёнкина по ценообразованию (тут есть модели спроса и целый блок про признаки)
6. Доклад Максима Гончарова про управление ассортиментом на основе моделей спроса
7. Учебное соревнование по прогнозу продаж на Kaggle. А ещё есть соренование от Walmart и от Favorita.
Здесь в ноутбуках можно найти примеры применения различных подходов.
За помощь в создании подборки большое спасибо Максиму
Одна из самых важных и денежных задач в ритейле - предсказание спроса. Именно проекты связанные со спросом часто бывают ключевыми в работе DS команд крупнейших игроков рынка.
Причём спрос как таковой можно прогнозировать как для первостепенной цели - автопополнения распределительных центров/торговых точек, так и для косвенных. К примеру, можно построить зависимость спроса от цен (фактически, усложнённую эластичность) и таким образом управлять ценообразованием, чтобы максимизировать ожидаемую выручку. Либо же строить зависимость спроса от ассортимента и формировать ассортимент, который будет максимизировать спрос.
Подборка материалов, которые помогут разобраться в теме:
1. Прогноз спроса для промо акций в Магните: часть 1 (более бизнесовая) и часть 2 (более техническая). Ребята выиграли несколько премий в этом году, так что знают о чём говорят 🙂
2. Доклад про предсказание спроса от ребят из Rubbles и х5. Есть ещё один от Саши Фонарёва, более подробный. Оба скорее бизнесовые.
3. #кудажебезвалеры Валерий Бабушкин про предсказание спроса в х5 (но обратите внимание что видео от 2020 года, часть инфы устарела). Тут есть.и про признаки, и про построение непосредственно моделей.
4. Евгений Бурнаев: Топологический анализ временных рядов для прогнозирования спроса
5. Топовый вебинар Богдана Печёнкина по ценообразованию (тут есть модели спроса и целый блок про признаки)
6. Доклад Максима Гончарова про управление ассортиментом на основе моделей спроса
7. Учебное соревнование по прогнозу продаж на Kaggle. А ещё есть соренование от Walmart и от Favorita.
Здесь в ноутбуках можно найти примеры применения различных подходов.
За помощь в создании подборки большое спасибо Максиму
Хабр
Магнитная аномалия: как предсказать продажи промо в ритейле
Привет, Хабр! Меня зовут Андрей Ткаченко, я руковожу направлением прогнозирования промо в «Магните». Наша команда запускает цикл статей: мы приоткроем дверь в мир процессов, технологий и...
Forwarded from Записки Ппилифа (Ppilif Ulyankin)
Вчера у меня прошёл последний семинар по машинному обучению на ФКН в этом сезоне. Семинарить у самого Жени Соколова было большой честью.
Коли курсера закрыта, курсы ещё не особо куда-то переехали, а на дворе лето — лучшее время для самообразования, держите плейлисты с видосами с курса.
лекции МО-1 лекции МО-2 мои семинары репозиторий
Знать всё невозможно. Поэтому в течение курса я узнал что-то, что не знал раньше. Хочу поделиться с вами самыми крупными открытиями. Некоторые из них довольно стыдные:
- Я очень мало знал про обучение эмбеддингов на графах. Семинарист Ильдус сделал про это богоподобный конспект [ru] и тетрадку в питоне.
- Я вообще ничего не знал про differential privacy и то, как можно добавить эту штуку в свои модели.
пост 1 [en] пост 2 [en] статья от apple [en]
- У нас был классный семинар про бустинг с ручными задачками [ru]. Кажется, что я перешёл в его понимании на какой-то качественно новый уровень.
- Я ничего не знал про uplift-моделирование и никогда не встречался с ним на практике. Узнал чуть больше из обзорной статьи [en]
- Я вообще ничего не знал о спектральной кластеризации. Ни разу не слышал о таком методе, а он есть даже в sklearn.
лекция [ru] семинар [ru] туториал [en]
- Я никогда не уважал ядра и SVM. После курса стал относиться к ним немного получше.
Коли курсера закрыта, курсы ещё не особо куда-то переехали, а на дворе лето — лучшее время для самообразования, держите плейлисты с видосами с курса.
лекции МО-1 лекции МО-2 мои семинары репозиторий
Знать всё невозможно. Поэтому в течение курса я узнал что-то, что не знал раньше. Хочу поделиться с вами самыми крупными открытиями. Некоторые из них довольно стыдные:
- Я очень мало знал про обучение эмбеддингов на графах. Семинарист Ильдус сделал про это богоподобный конспект [ru] и тетрадку в питоне.
- Я вообще ничего не знал про differential privacy и то, как можно добавить эту штуку в свои модели.
пост 1 [en] пост 2 [en] статья от apple [en]
- У нас был классный семинар про бустинг с ручными задачками [ru]. Кажется, что я перешёл в его понимании на какой-то качественно новый уровень.
- Я ничего не знал про uplift-моделирование и никогда не встречался с ним на практике. Узнал чуть больше из обзорной статьи [en]
- Я вообще ничего не знал о спектральной кластеризации. Ни разу не слышал о таком методе, а он есть даже в sklearn.
лекция [ru] семинар [ru] туториал [en]
- Я никогда не уважал ядра и SVM. После курса стал относиться к ним немного получше.