Big Ledovsky | блог DS лида – Telegram
Big Ledovsky | блог DS лида
1.7K subscribers
200 photos
16 videos
4 files
167 links
Привет! Я Саша Ледовский, DS инженер и менеджер в Авито

DS, карьера, менеджмент, лайфстайл

Для связи: @aledovsky
Download Telegram
Вчера от Авито проводили мероприятие-вечеринку для DS тимлидов и менеджеров. Было много друзей и знакомых, много с кем познакомился впервые.

Сразу хочу извиниться, что кого-то не позвали. Собирать гостей на ивенты без открытой регистрации дело не самое простое.

Душевный получился вечер. Одной из наших целей было создавать сильное комьюнити вокруг нас, и я считаю это удалось.

#lifestyle@big_ledovsky
🔥2311👍7
Потестировал Shopping Research в ChatGPT

На мой взгляд получилось ужасно. Причем именно с точки зрения продуктового флоу

🔸 Сперва даешь задачу на поиск какой-то вещи. Я попросил подобрать мне телефон на Андроиде

🔸 Проходишь небольшой опрос. Ответов на большинство вопросов я не знал. Например, что для меня важнее - основная камера или камера для селфи

🔸 Затем начинается tiktok. Смотришь ленту телефонов и нажимаешь нравится/не нравится

🔸 Затем ChatGPT выдает портянку с описанием нескольких моделей, которые по его мнению подходят тебе больше всего

Ключевая проблема - текущая реализация не помогает разобраться, что тебе нужно

Я использую ChatGPT для выбора вещей в трех сценариях: попросить сравнить набор моделей, попросить гайд на что смотреть при выборе вещи и попросить аналоги определенной модели.

Новый функционал пока не выглядит улучшением. Зато дает ссылки на магазины))
👍52
Всем привет! Я Саша, DS-менеджер в Авито. Знакомые из других компаний часто задают мне такой вопрос: что значит «DS-менеджер»? Раскрываю карты.

Какие у него обязанности
DS-менеджер — это руководитель нескольких команд. Что он делает, можно посмотреть в матрице компетенций.

Ключевые вещи: формирование стратегии, архитектурного видения, выстраивание процессов и бОльший по сравнению с тимлидом горизонт планирования. Ну и конечно работа с руководителями — тимлидами.

На что я трачу своё время
Объяснить структуру рабочего дня по матрице компетенций сложно. Для себя я делю время по характеру деятельности. В таком виде, мне кажется, вам будет понятнее. Цифры ниже основаны на моих личных заметках за последние недели.

👉 Операционная работа: 2 часа в день. В основном статусы, дейли, 1-1, собеседования. Всё, чтобы поддерживать эффективную работу команды. Бывают периоды, когда много собеседований, но это случается эпизодически.

👉 Экспертная работа: 2.5 часа в день. Пишу документы, стратегии, веду консультации, провожу ревью кода, прорабатываю архитектуру решений.

👉 Техническая работа: 1 час в день. Всегда стараюсь чуть-чуть работать руками. Чаще всего это тестирование чужой работы или вспомогательные задачи.

👉 Занятость: 2.5 часа в день. Переписки, решение проблем, организационные вопросы, ответы на запросы.

Бонус: как не потонуть в менеджерской рутине
Операционную работу фиксируем в необходимом разумном количестве. Занятость снижаем, насколько можно. Экспертную работу увеличиваем. Техническую не забрасываем.

Повторюсь, что вышеописанное — личный опыт. На холивар и просто с вопросами приглашаю в комментарии! 👇
👍12🔥7👌32
Рефлексия по LLM

Сейчас много работаю с LLM. Они обрабатывают сырые текстовые данные и заменяют ручную разметку во многих местах.

Осознал, что LLM - это easy to start, hard to master. Решить задачу как-то на небольшом объеме данных может каждый. А дальше возникают тонкости.

Абсолютно невозможно разобраться в современном многообразии моделей. Качество оценить сложно. Быстро упираешься в производительность.

Пока стратегия, которую я выбрал - попытаться разобраться в семействе моделей одного производителя, OpenAI. Не из-за качества работы, а просто потому, что мне нравится их документация.

Ее так много, словно это не LLM, а самолет. Кто не видел, посмотрите сколько новых инструкций выходит каждый месяц.

Если считаете, что OpenAI фигня и нужно пользоваться чем-то другим - напишите!

#tech@big_ledovsky
🔥10👍6🤯1
Обучение на тестовых данных - новый вид искусства

Андрей Карпати в итогах года аргументированно объяснил ровно то, о чем я интуитивно писал в прошлом посте.

Публичным бенчмаркам LLM-ок нельзя доверять, когда вы выбираете модель для своей задачи. Нужно делать свои тесты.

Все исследователи LLM специально тюнят свои сети под бенчмарки - типа решать ЕГЭ. Чтобы занимать первые строчки в рейтингах.
👍63🔥3💯2
Я не знал как работают GPU

По работе потребовалось разобраться с GPU инфраструктурой. С одной стороны нужно было запланировать железо. С другой понять как работает большое количество разных уже существующих сервисов и развернутся ли они у меня.

А я в GPU откровенно плаваю. В смысле, я умел torch.cuda.is_available и model.to(device), но что там происходит внутри - вообще туман. До этого у меня все онлайн модели работали на CPU, и жил я вполне себе замечательно. Теперь нехватка знаний начала сказываться.

Я пошел искать курсы по программированию на CUDA, чтобы освоить базу. Сперва попробовал freecodecamp, понял что шляпа, пошел дальше. В итоге не нашел ничего лучше, чем курс Caltech CS179 GPU Programming, в котором даже нет видео лекций.

И оказалось, что курс просто потрясающий. Я уже потратил на него 8 часов. Разобрался как на самом деле работает видеокарта (озарение, шок контент 🧠). Написал собственноручно код на C, который применяет сглаживающий фильтр на звуковую дорожку. Долго мерил прирост производительности с разными настройками на своей H100.

Вау, не ожидал, что будет так круто
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44👍86
Что происходит

Я перестал любить посты с итогами года. Не хочу вас грузить. Вместо этого будет побольше постов с лайфстайл контентом.

В субботу долетел до Грузии. Поехал на Смену, как 2 года назад. Писал про нее пост. Хочу подчерпнуть творческого вдохновения от Тбилиси и комьюнити, с которым у меня много общего.

Последние два фото еще из Мск - адвент календарь tasty coffee, который мне подарил брат. Хочу похвастаться им 😌, потому что он стал виральным. Мне очень зашел его дизайн. Не буду выкидывать коробку, буду в нее класть новые дрип пакеты.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥229🎅5👍4🍾2
Прочитал на праздниках потрясающую обзорную статью State of LLMs 2025 от одного из авторов, на которого я подписан в LI.

Она что ли уложила в одну систему то обилие новостей и хайпа, которые влетали из новостных каналов. Про актуальные модели, про open source, про текущую школу мысли в области.

Не буду пересказывать, но хочу поделиться одной мыслью, точнее даже цифрами.

Обучение DeepSeek V3 стоило около 5 млн долларов. Это не 50, и не 500. DeepSeek R1 , который привлек много внимания, обучался на основе V3 и вообще стоил всего 250 тысяч долларов.

Это вам просто для ориентира. Делать свои претрейны вполне себе посильно многим компаниям. Вопрос нужно ли. Но посильно.

#tech@big_ledovsky
👍177
Посоветуйте технических блогеров? 🤔

В этом году я решил выделять больше времени на чтение по теме ML. Больше всего меня интересуют англоязычные технические блоги: обычные, линкедины, ютубы итд.

При этом я все-таки инженер, а не рисерчер. Интересен скорее прикладной материал, чем разбор статей.

Кое-какой список авторов набирался, но я хотел бы его расширить.

Кого стоит почитать?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Ответ на пост Дани - Можно ли отказаться от университета в пользу занятий с AI? https://news.1rj.ru/str/DS_avitotech/224

Сейчас будет мысль ооочень изделка 😃 Она посетила меня сегодня утром и очень кстати подошла к этому посту.

Я люблю слушать и смотреть youtube. Я замечаю, что моим любимым блогерам, очень успешным блогерам, приходится делать контент как на конвеере. Они часто повторяют свои мысли. Они искусственно ищут новую тему.

Почему бы им не снять несколько насыщенных видео, чтобы все их смотрели, стать великими и остановиться? Как с книгами в прошлом.

К сожалению, нам нужна каденция. Чтобы нашим вниманием регулярно завладевали. Чтобы нас заставляли учиться. Также со спортом, когда мы ходим заниматься в группы или с тренером.

Но если не учитывать нашу неорганизованность, то вот хороший пример - курс калтеха по gpu programming, который я к данному моменту прошел наполовину, и который уже принес мне бенефиты в работе. Завел на днях один очень непростой нейросетевой сервис.

На курсе я использовал pdf-ки, делал домашки и использовал Claude 💎. И я уверен, что мой опыт был лучше, чем у обычного студента, который учился очно, если он не сидел с AI как я.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4🤔31
Как размышление прикручивают к маленьким моделям

Если бы LLM были дешевле и быстрее, то половину продового ML можно было бы выключать 🤪. Поэтому нам с вами нужно пристально смотреть на тренды в оптимизации и поиске более дешевых решений. Направление мысли сейчас совсем поменялось.

В линкедине один блогер запостил статью, где исследователь из Samsung перенесла механизм размышлений (reasoning), который впервые изначально появился у больших LLM, на небольшой 7M энкодер. Т.е. модель в 1000 раз меньше небольшой LLM.

Размышления, кто не знает, это когда модель специально обучают решать задачу по шагам. Подход, который значительно повысил способность моделей писать код и решать математические задачи.

На вход модель берет входной запрос и выход с предыдущей итерации. И так ее прогоняют несколько раз. Между итерациями модель обменивается состояниями последнего слоя, а не токенами 🧠. То, что в традиционном ризонинге LLM обменивается информацией между шагами словами, выглядит мягко говоря неестественно .

#tech@big_ledovsky
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76🤓1