Дратути Антон – Telegram
Дратути Антон
4.11K subscribers
171 photos
30 videos
215 links
Мемы и личные размышления про управление, код, ml и здравый смысл.

Сейчас руковожу командой OCR in VLM в Яндексе.

Автор: @toshiknoscript
Download Telegram
Perforator — наконец-то в опенсорсе!

Одним прекрасным вечером я пытался понять, как нам снять профиль у сервиса в рантайме, для того, чтобы понять узкие места для оптимизации ресурсов. Я начал искать по интранету, чего у нас такое есть и нашёл ещё тогда никому не известный perforator. С тех пор мы с ним друзья.

Я видел, как всё больше и больше этот инструмент влезает к нам в инфраструктуру и позволяет делать важные выводы о производительности сервисов. Однажды это стало возможным делать без каких-либо приседаний: любой человек мог натыкать себе сервис и посмотреть, как у этого сервиса дела.

А потом большие запуски, рассказы на всю компанию и вот сегодня — релиз в опенсорс. Я очень рад за ребят, большой фундаментальный труд! Спасибо им большое!

P.S. Ребята в статье расскажут лучше меня, что это вообще такое: https://habr.com/ru/companies/yandex/articles/875070/
🔥27🌭4👍3👾31
Channel photo updated
Channel name was changed to «Дратути Антон»
Привет! Меня зовут Антон Клочков — и ко мне можно на ты! Сейчас руковожу R&D командой в Яндексе. Про нас лучше всего расскажет этот лендинг!

В прошлом — ML инженер в области компьютерного зрения. Поделал всякое (детекторы, классификаторы, сегментаторы, SLAMы) для всякого: gpu-poor девайсов (например, rpi), gpu-rich серверов. Реализовал фичи как для себя, так и для миллионов пользователей по всему миру. Во всей деятельности меня привлекала прежде всего инженерная сторона вопроса.

Люблю говорить про оптимизации и ускорения, находить странности в языках программирования, а также высказываться на интересующие меня топики.

В этом блоге вы можете почитать душные посты про разработку, непонятные мысли про управление, и даже очень понятные мемы, к которым питаю слабость!
1025🔥9👾6💩4
Дратути Антон pinned «Привет! Меня зовут Антон Клочков — и ко мне можно на ты! Сейчас руковожу R&D командой в Яндексе. Про нас лучше всего расскажет этот лендинг! В прошлом — ML инженер в области компьютерного зрения. Поделал всякое (детекторы, классификаторы, сегментаторы, SLAMы)…»
Дратути Антон
Готовлю для вас пост по итогам моей недельной поездки на родину! А пока, надеюсь, что фоточки донесут немного вайба до вас☺️
Про итоги

А теперь, наконец-то — про итоги поездки.

Я весьма классно пообщался с бабушкой. Это было невероятно, потому что весь день можно было общаться, а вчером-ночью поработать!

Меня просто закормили холодцами, пирогами, борщами и всем тем, чем любят потчевать внуков их бабушки 😁!

Я подзарядился воздухом и атмосферой абсолютного спокойствия. Замедлился настолько маскимально, насколько это возможно в современном мире. Этого правда очень сильно не хватало.

Кроме того, я немного работал. Когда я общался с ребятами по зуму — все положительно отзывались о ковре, который был не фоном, а настоящим!

После этого я подумал, что пора произвести редизайн канала. И вот оно случилось 😂!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍63💯3
Forwarded from Банкста
This media is not supported in your browser
VIEW IN TELEGRAM
Коротко об успехах Deepseek. @banksta
18🤡6🔥3😢3
MLE шатает Produnction — В С Ё

Антон поменял канал — ИЗМЕНИЛ название и аватарку. Люди негодуют и не понимают КАКОГО ХРЕНА?

😶😶😶 😶😶😶😶😶😶

Антон продолжит деятельность канала под новым названием. Почему это произошло уже разобрали в этом посте.

P.S. Протите котика 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9😁7🤡5🤣41💔1😭1
Комментаторы в интернете нашли логотип для полноценного релиза o3 от OpenAi
33🤡5
Forwarded from AbstractDL
DeepSeek-R1 для чайников

Ну и наделала же DeepSeek шуму. Мне пришлось целый хабропост написать 😁

TLDR: мало слов про сравнение с ChatGPT и метрики, много слов про технические детали обучения, датасеты, GRPO и якобы эмерджентный «Aha! moment».
🔥6👍5🤡53🌭1
How to Scale Your Model

По наводке @epsiloncorrect делюсь вам прекрасным чтивом о том, как делать вычисления эффективными на разных масштабах для разных размеров ваших моделек: https://jax-ml.github.io/scaling-book/.

Естественно, я не успел так быстро всё прочитать, но там ещё много чего нужно осознать на самом деле. Правда полистал и посмотрел. В гайде есть классные картинки, интересные задачки на размять мозги, много (на первый взгляд) реально полезных выводов и выкладок.

Меня в целом настолько поразил контент, что обязательно выделю время изучить весь материал, хоть это и не так просто в последнее время. 😊

Зачем вам это? Отвечу словами из гайда, с которыми я очень солидарен:
Three or four years ago, I don’t think most ML researchers would have needed to understand any of this. But today even “small” models run so close to hardware limits that doing novel research requires you to think about efficiency at scale. A 20% win on benchmarks is irrelevant if it comes at a 20% cost to roofline efficiency. Promising model architectures routinely fail either because they can’t run efficiently at scale or because no one puts in the work to make them do so.
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍63🤡3🔥2
Особый вклад в найм

Вчера была совершенно неожиданная для меня тусовка, которую устроила компания для тех, кто очень много приносит пользы в процессе найма. И это так классно, что за такую штуку, которую ты просто считаешь своей работой, к тебе приходят и говорят — спасибо 😍!

Нам подарили классную джинсовку и подложили карточку, что сейчас вы можете наблюдать на фотографии.

Что же я такого сделал для найма? Если честно — просто делал свою работу. Собеседования — это очень интересное занятие, на мой вкус. Мне кажется, очень сложно найти такое место, где можно услышать сотню разных (и правильных!) мнений по тому или иному вопросу.

Ну и на самом деле я успел пообщаться уже с большим количеством людей: кто-то только начал свой путь, а кто-то уже тёртый калач, кто-то просит советов, а у кого-то ты во время собеседования и сам учишься.

С другой стороны — это дело трудозатратное. К собеседованию нужно готовиться, потом его нужно оценить и дать внятный фидбек. Это всё занимает времени, но оно того стоит. Я очень рад, что часть людей, которая прошла через меня, уже работает в компании, а с кем-то мы работаем даже бок-о-бок!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2616👍5🤡4🤣1
Structured Output в LLMках

Скорее всего все уже знают про то, что с помощью LLMок можно генерить не просто какой-то текст, а даже структурированную информацию (например, json) 🌿. Этакий llm json mode.

Мне стало интересно, как это работает на самом деле (привет Коннор) под капотом, поэтому решил погуглить чего есть для json. Итак, что я нагуглил:

1. https://blog.dottxt.co/coalescence.html
Спойлер: по сути, мы ограничиваем генерацию стейт-машиной. Из-за этого модель жестко ограничена только тем, что заложили в грамматику этой стейт-машины. Приходится напрягаться и подчиняться.

2. https://github.com/noamgat/lm-format-enforcer#how-does-it-work
Спойлер: строят префиксное дерево для токенизатора и парсер для схемки json. Потом ходят двумя указателями (по одному в каждом дереве) и ходят туда, куда могут пойти сразу оба.

У первого способа есть проблема холодного старта и нужно построить стейт-машину, что дольше, чем строить деревья. Но если всё же словарь огромный, то деревья становятся жирнючими и долгими (в построении) 👨‍🦳, поэтому дешевле стейт-машину завозить.

Вендоры же стараются просто заюзать подобные подходы и либы, просто оптимизируя узкие места (например, стейт-машину) 🤯.

Вопросики 😍: может кто-то еще знает каких-то подробностей, как оно работает? Может быть еще какие-то либы, примеры, алгоритмы?
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥4🤡3
Сгенерировал пару мемов с помощью @AIMemeArenaBot на основе текстов из прошлых постов.

Мой мир просто: 🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👾4🤡32👍1😍1
This media is not supported in your browser
VIEW IN TELEGRAM
лучшее

спасибо за подгон Мишане (@tut_pro_art) — сгенерировали с помощью @AIMemeArenaBot
13🤡4💯4🔥2
Заметки про руководство — делегирование

Важная задача тимлида — уметь делегировать 😁. Каждый день ты сталкиваешься с огромным числом потоков информации и задач. Часть из них нужно отфильтровать и донести, что мы это делать не будем; что-то придется делать лично (например, решить что-то со смежниками), но большую часть нужно делегировать.

Конечно, ты можешь перформить как боженька, но на всё тебя не хватит 👨‍🦳. Невозможно контролировать абсолютно всё (правда про систему контроля можно отдельный пост писать, потому что она нужна). А ещё нужно растить людей, давать им свободу, зону ответственности. И тут давайте остановочку.

Да, в моменте может быть трудно: и задачка непонятная, и объяснить сложно, а ещё хрен знает человек вообще сможет затащить или нет. НО! Пусть учится, пусть развивается 🧠 — это win-win стратегия для вас обоих. Тут главное человечку помогать (но не перегибать, а то придём к феномену "обратного делегирования"). Конечно, это при условии, если человеку подходит такой трек работы. Ключевое — помогать. Делегирование — это не сбрасывание неудобных задач.

На эту тему еще есть классный видос от Фёдора Борщёва, есть спорный момент про "делегировать всё" — звучит слишком радикально, потому что так просто не бывает (или, может, я чего-то не понимаю?). Но если брать суть — рекомендую.

Закончить заметку хочу словами Миши Трошева:
Задача руководителя — собрать команду из людей, которые умеют решать какие-то задачи лучше самого руководителя, в том числе руководить. Илон Маск и Стив Джобс не сами создали Теслу и Айфон, это сделали огромные команды под их руководством.


К слову, делегирование — это навык не только руководителей. Менторство младших коллег, работа со стажёром — здесь тоже возникают места, когда нужно делегировать.

Как у вас с делегированием? Было сложно начать?

P.S. Ребят, хочу начать вести какие-то постоянные рубрики. Это первый пост из серии "заметки про руководство". Надеюсь, будет как-то полезно, ну или хотя бы интересно 😍.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥128🤡3💯1👾1
Памятка на завтра
25🤣185🤡5😁4
91🤣22🤡5👍1💩1🗿1
Улыбайтесь чаще, друзья 😁

Команда Умной Камеры (ребята, привет!) встроило себе небольшую классную пасхалочку, чтобы сделать жизнь пользователей чуточку приятнее. Вы можете открыть и попробовать сами сгенерировать себе комплимент!

Под капотом — VLM! Казалось бы ничего такого, но технически не самая простая задача. Когда-нибудь про это расскажем.

Ссылка на новость — воть.
Красивый я — на фотографии 😍
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24💅6💯4🤡3👍2👾1