Джун-рыбак
Сидел я дома и собирал в свой рыболовный ящик (который давеча заказал) все рыбаловные снасти, также купленные недавно👨🦳 . И тут я подумал, что между рыбаками и разработчиками есть чего-то общее. Ну так, в порядке бреда.
Итак, наш новоиспеченный джун-девелопер. Установит себе кучу софта, который не будет использовать, налепит самых продвинутых инструментов, которыми не знает, как пользоваться. Зато выглядит капец как круто, хацкеры из кино держат его пиво😀 . Естественно, чтобы поменять строку в большом файле, он напишет код на каком-нибудь модном языке и потратит несколько часов на отладку. А потом оно еще возможно и не заработает из-за какого-нибудь OOM 😊 .
Джун-рыбак. Купит себе ящик откровенного барахла, которое посоветовали в интернете мега ультовые рыбаки-продажники💸 . Естественно купит самую дубовую леску, крючки, которые погнутся при первой же серьезной поклёвке. При этом компании, производившие это всё дело, очень на хайпе, выглядит всё очень дико-дорого. И катушку сразу человечек купит себе какую-нибудь мультипликаторную, ибо видел в интернете, что на таких снастях огромных карпов и марлинов ловят. При этом естественно пойдем ловить в лучшем случае карасиков (против ничего не имею, хорошая рыба), а получится водоросли 👨🦳 .
И вот интересно же, что всё это кажется дико неуклюже и глупо, мол надо поступать разумнее и т.д. Но вот именно так и получаешь свой опыт. Когда наступаешь сам на эти грабли. Когда получаешь бороду на своей удочке, или утечку памяти в коде. При этом интересно, как много у человека энергии, чтобы все эти дела проворачивать и не отчаиваться.
Люблю быть джуном🤨 . Джуном-рыбаком.
Сидел я дома и собирал в свой рыболовный ящик (который давеча заказал) все рыбаловные снасти, также купленные недавно
Итак, наш новоиспеченный джун-девелопер. Установит себе кучу софта, который не будет использовать, налепит самых продвинутых инструментов, которыми не знает, как пользоваться. Зато выглядит капец как круто, хацкеры из кино держат его пиво
Джун-рыбак. Купит себе ящик откровенного барахла, которое посоветовали в интернете мега ультовые рыбаки-продажники
И вот интересно же, что всё это кажется дико неуклюже и глупо, мол надо поступать разумнее и т.д. Но вот именно так и получаешь свой опыт. Когда наступаешь сам на эти грабли. Когда получаешь бороду на своей удочке, или утечку памяти в коде. При этом интересно, как много у человека энергии, чтобы все эти дела проворачивать и не отчаиваться.
Люблю быть джуном
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥3👍2🤡1
Forwarded from AbstractDL
Your Transformer is Secretly Linear
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
nn.Linear(), а модель будет работать, будто бы ничего не поменялось!Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
🤯12🔥6🎉1
Древнейших технологий пост
Уже прошло, пожалуй, 2 года с написания этого поста и всё могло поменяться как в лучшую, так и худшую сторону. Но пройти мимо не смог, как статья промелькнула в ленте X😀 .
Ребята из компании M вместе с Google заколлабились для того, чтобы посмотреть оптимальные стратегии распределённого обучения для больших моделей и не очень. Оказывается всё не так просто, и про всё это можно прочитать в посте😊 .
Вообще, я восхищаюсь людьми, которые оптимизирует перф. Ну это правда великое дело. Нужно держать и знать очень многое, чтобы грамотно подобрать конфигурацию системы. Ну вот например:
Ну это ничоси, еще и про сеть нужно знать🤔 ! А еще скорее всего, про шину памяти, про регистры процессора и про кучу разных штук, вообще никак не связанных с GPU, но влияющих на процесс. И это правда работа очень большой команды 😍 . Здорово, когда люди публикуют такие интересные инсайты, потому что не часто такое встречается, но часто в практике такое нужно.
Уже прошло, пожалуй, 2 года с написания этого поста и всё могло поменяться как в лучшую, так и худшую сторону. Но пройти мимо не смог, как статья промелькнула в ленте X
Ребята из компании M вместе с Google заколлабились для того, чтобы посмотреть оптимальные стратегии распределённого обучения для больших моделей и не очень. Оказывается всё не так просто, и про всё это можно прочитать в посте
Вообще, я восхищаюсь людьми, которые оптимизирует перф. Ну это правда великое дело. Нужно держать и знать очень многое, чтобы грамотно подобрать конфигурацию системы. Ну вот например:
All experiments show a considerable throughput dip when switching from 8 GPUs to 16 GPUs. This is because the cross-machine communication needs to travel through 100 Gbps Ethernet for 16 GPUs
Ну это ничоси, еще и про сеть нужно знать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Про мультимодальность
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову😀 .
Я почти каждый день задаюсь вопросом: как оно работает? Ну т.е. окей, T9 нормально обучили — LLMку получили, но как это всё дело учитывает другие модальности🤔 ?
Мне приходит на ум концепция, что язык — это универсальный инструмент для передачи информации. Да, с помощью языка кодировать любой сигнал получится супер долго и объемно, но всё же возможно. Нам никто не запрещает запустить триллионы LLMок, чтобы они генерировали 0 и 1. Да, это бессмысленно, но возможно👨🦳 .
Всё, что нарисовано — человек может описать. Всё, что звучит — человек может описать. И так далее. Таким образом, получается что обучая LLMки просто на корпусах текста, мы учим их каким-то образом понимать этот мир😊 .
Складывается ощущение, что наш мозг устроен похожим образом. Мы набираем в мозг огромную базу: картинок, звуков, ощущений, эмоций, запахов и прочих сигналов. Но всё это воедино связывается языком. Мы не передаем друг другу картинки, наши тактильные ощущения, и т.д. Звук является лишь способом кодировки языка, ровно как и картинки в случае языка жестов. Для нас ничего не значат звуки от произнесения "шоколадка" пока мы не займемся патерн матчингом с инфой из внутренней БД. И это удивительно🤔 !
Ну и важно понимать, что язык — это форма сигнала. В реальности в нашем мозгу нет никаких слов, ровно как и в слоях атеншена — там просто сигналы🥴 .
Обучая LLMку языку, мы наделяем её знаниями об этом мире. А дальше надо научить её взаимодействовать с этими самыми БД. То, как именно кладется туда информация из разных истоников — это вопрос хороший, которым как раз-таки как будто занимаются все, кто строит мультимодальные сетки😍 .
Опять же, мои рассуждения ничем не подкреплены, кроме внутренней интуиции. Так что можете считать в порядке бреда сумасшедшего👨⚕️ !
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову
Я почти каждый день задаюсь вопросом: как оно работает? Ну т.е. окей, T9 нормально обучили — LLMку получили, но как это всё дело учитывает другие модальности
Мне приходит на ум концепция, что язык — это универсальный инструмент для передачи информации. Да, с помощью языка кодировать любой сигнал получится супер долго и объемно, но всё же возможно. Нам никто не запрещает запустить триллионы LLMок, чтобы они генерировали 0 и 1. Да, это бессмысленно, но возможно
Всё, что нарисовано — человек может описать. Всё, что звучит — человек может описать. И так далее. Таким образом, получается что обучая LLMки просто на корпусах текста, мы учим их каким-то образом понимать этот мир
Складывается ощущение, что наш мозг устроен похожим образом. Мы набираем в мозг огромную базу: картинок, звуков, ощущений, эмоций, запахов и прочих сигналов. Но всё это воедино связывается языком. Мы не передаем друг другу картинки, наши тактильные ощущения, и т.д. Звук является лишь способом кодировки языка, ровно как и картинки в случае языка жестов. Для нас ничего не значат звуки от произнесения "шоколадка" пока мы не займемся патерн матчингом с инфой из внутренней БД. И это удивительно
Ну и важно понимать, что язык — это форма сигнала. В реальности в нашем мозгу нет никаких слов, ровно как и в слоях атеншена — там просто сигналы
Обучая LLMку языку, мы наделяем её знаниями об этом мире. А дальше надо научить её взаимодействовать с этими самыми БД. То, как именно кладется туда информация из разных истоников — это вопрос хороший, которым как раз-таки как будто занимаются все, кто строит мультимодальные сетки
Опять же, мои рассуждения ничем не подкреплены, кроме внутренней интуиции. Так что можете считать в порядке бреда сумасшедшего
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🤯5❤3🤡1🤝1
Surya
Каждый раз, когда мне говорят, что нечего делать в качестве pet-проекта, уже и так всё сделано, я отвечаю — сделайте то, что есть, но по другому, мб у вас получится круто😍 ?
И да, иногда получается! Я тут наткнулся в твиттере на одну реализацию OCR c поддержкой как обычных, так и некоторых advanced фичей🤔 :
— Text layout;
— Text ordering (что, кстати, очень полезно для формирование данных для LLM и VLM).
Я слышал про этот проект ещё в феврале, но в нём как будто бы в нём не было последней фичи, которая прям зацепила взгляд, потому что мало где это сделано хорошо.
Автор сразу пишет, что работает на документориентированных картинках, так что работу на world-wide доменах не ждите😀 .
Код написан так себе👨🦳 , но очень удивляет, как человек построил за полгода (даже меньше), неплохой такой baseline OCR! А baseline, как вы знаете, всегда так себе пишется. А потом еще продом становится, но это совсем другая история.
На выходных постараюсь потрогать на своей рабочей станции, вы можете уже сейчас: https://github.com/VikParuchuri/surya/tree/master
Каждый раз, когда мне говорят, что нечего делать в качестве pet-проекта, уже и так всё сделано, я отвечаю — сделайте то, что есть, но по другому, мб у вас получится круто
И да, иногда получается! Я тут наткнулся в твиттере на одну реализацию OCR c поддержкой как обычных, так и некоторых advanced фичей
— Text layout;
— Text ordering (что, кстати, очень полезно для формирование данных для LLM и VLM).
Я слышал про этот проект ещё в феврале, но в нём как будто бы в нём не было последней фичи, которая прям зацепила взгляд, потому что мало где это сделано хорошо.
Автор сразу пишет, что работает на документориентированных картинках, так что работу на world-wide доменах не ждите
Код написан так себе
На выходных постараюсь потрогать на своей рабочей станции, вы можете уже сейчас: https://github.com/VikParuchuri/surya/tree/master
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - datalab-to/surya: OCR, layout analysis, reading order, table recognition in 90+ languages
OCR, layout analysis, reading order, table recognition in 90+ languages - datalab-to/surya
🔥2🌭2
Forwarded from Борис опять
# Startup Stock Options: the Shortest Complete Guide for Employees
Мой новый лонгрид про то, что сотруднику нужно знать про опционы в стартапах.
Каждый раз, когда мне предлагали опционы, никто не мог ответить мне на простые вопросы. Это хорошее предложение? Какие шансы заработать, какие шансы всё потерять? Сколько это в деньгах?
Я написал этот гайд как короткое руководство по опционам с целью ответить на вопросы, которые интересуют сотрудника. Несмотря на краткость гайд достаточно полный, чтобы обрисовать основные механизмы, частые практики и ошибки. Его стоит воспринимать как источник правильных вопросов работодателю. Если вы фаундер, то текст может быть быстрым ликбезом для сотрудников.
Всё разбирается на конкретных примерах.
Текст заверен моим другом Васей Кондыревым, ex VC Baring Vostok, фаундером telemetree.io и автором телеграм канала.
Гайд покрывает: основы опционов, как работают экзиты, варианты развития событий которые стоит знать, налоги, размытие долей, статистику выживания стартапов, насколько вам нужно быть везучим, чтобы хорошо заработать и, конечно же, чудесное многообразие способов всё потерять.
Этот лонгрид на английском, но в ближайшее время ожидайте его переводы на разных площадках.
Мой новый лонгрид про то, что сотруднику нужно знать про опционы в стартапах.
Каждый раз, когда мне предлагали опционы, никто не мог ответить мне на простые вопросы. Это хорошее предложение? Какие шансы заработать, какие шансы всё потерять? Сколько это в деньгах?
Я написал этот гайд как короткое руководство по опционам с целью ответить на вопросы, которые интересуют сотрудника. Несмотря на краткость гайд достаточно полный, чтобы обрисовать основные механизмы, частые практики и ошибки. Его стоит воспринимать как источник правильных вопросов работодателю. Если вы фаундер, то текст может быть быстрым ликбезом для сотрудников.
Всё разбирается на конкретных примерах.
Текст заверен моим другом Васей Кондыревым, ex VC Baring Vostok, фаундером telemetree.io и автором телеграм канала.
Гайд покрывает: основы опционов, как работают экзиты, варианты развития событий которые стоит знать, налоги, размытие долей, статистику выживания стартапов, насколько вам нужно быть везучим, чтобы хорошо заработать и, конечно же, чудесное многообразие способов всё потерять.
Этот лонгрид на английском, но в ближайшее время ожидайте его переводы на разных площадках.
Substack
Startup Stock Options: the Shortest Complete Guide for Employees
Answering the really important questions
❤10
Про мультимодальность дальше
Коли уж мы говорили в одном из предыдущих постов про мультимодальность, давайте теперь поговорим про определённый её вид — VLM😍 . Почему про них — да потому я ими сам занимаюсь.
Сразу скажу, я не знаю, как устроена работа мультимодальности в ChatGPT, Gemini и прочих проприетарных сетках — я не сиолошная, не всё вижу😀 .
Самый распространённый вариант устройства VLM модели — это LLaVA-like архитектура🤔 . Берётся картиночный энкодер, например, из CLIP. Через него пропускается картинка и получаются всеми нам знакомые фичамапы.
Теперь хотелось бы замапить фичи из картиночного пространства в llm-like. Для этого делают projection слой, который по классике состоит из пару MLP слоёв. Так получаются картиночные токены.
Эти токены конкатенируют вместе с токенами промпта и засылают в LLMку, чтобы она дала генеративный ответ😊 .
И в целом это всё. Дальше open-source уже издевается с этим как может. Кто-то добавляет несколько энкодеров, кто-то разрезает картинку на патчи, кто-то пытается ужать количество картиночных токенов, но не потерять качество, и т.д.
В общем каждую компоненту можно модифицировать и считать профит. Но больше всего экспериментов с данными, потому что как ни странно, они решают🤔 , ну и со схемами обучений.
Если вам интересна тема и вы бы хотел погрузиться в неё чуть глубже, нашел для вас интересный ресурс. Там вполне неплохой сборник статей для начала.
Если вы хотите с этим работать — приходите ко мне в команду. Подробнее здесь.
Коли уж мы говорили в одном из предыдущих постов про мультимодальность, давайте теперь поговорим про определённый её вид — VLM
Сразу скажу, я не знаю, как устроена работа мультимодальности в ChatGPT, Gemini и прочих проприетарных сетках — я не сиолошная, не всё вижу
Самый распространённый вариант устройства VLM модели — это LLaVA-like архитектура
Теперь хотелось бы замапить фичи из картиночного пространства в llm-like. Для этого делают projection слой, который по классике состоит из пару MLP слоёв. Так получаются картиночные токены.
Эти токены конкатенируют вместе с токенами промпта и засылают в LLMку, чтобы она дала генеративный ответ
И в целом это всё. Дальше open-source уже издевается с этим как может. Кто-то добавляет несколько энкодеров, кто-то разрезает картинку на патчи, кто-то пытается ужать количество картиночных токенов, но не потерять качество, и т.д.
В общем каждую компоненту можно модифицировать и считать профит. Но больше всего экспериментов с данными, потому что как ни странно, они решают
Если вам интересна тема и вы бы хотел погрузиться в неё чуть глубже, нашел для вас интересный ресурс. Там вполне неплохой сборник статей для начала.
Если вы хотите с этим работать — приходите ко мне в команду. Подробнее здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
MLE шатает Produnction
Про мультимодальность
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову…
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову…
👍6🔥6
Forwarded from Георгий
Не могу не поделиться тогда своим докладом с последнего феста https://youtu.be/1NW9Eu06oto?t=5035
Тоже 20-ти минутное плотное введение во все штуки
Тоже 20-ти минутное плотное введение во все штуки
YouTube
Data Fest 2024, день 9: офлайн в Москве 2 июня в гостях у Яндекса
Завершаем программу Data Fest 2024 с целым днём секций в Московском офисе Яндекса!
Трансляция идёт только из главного зала Экстрополис. Сегодня в заключении программы Феста:
1. 12:00 — 14:10, секция Advanced LLM
...небольшой перерыв...
2. 14:30 — 16:30,…
Трансляция идёт только из главного зала Экстрополис. Сегодня в заключении программы Феста:
1. 12:00 — 14:10, секция Advanced LLM
...небольшой перерыв...
2. 14:30 — 16:30,…
🔥6
Forwarded from BOGDANISSSIMO
Мечтает ли GPT-4o о сегментации картинок...?
Рассказал на Habr найденный способ как заставить GPT-4o работать с детекцией объектов на картинке и выдавать координаты (bounding boxes), с которыми можно работать.
Внутри много деталей о том, с какими препятствиями и нюансами мы сталкиваемся в Vibe AI при парсинге сообщений со скриншотов переписки.
Приятного прочтения, буду благодарен вашей обратной связи, лайкам, репостам❤️
Рассказал на Habr найденный способ как заставить GPT-4o работать с детекцией объектов на картинке и выдавать координаты (bounding boxes), с которыми можно работать.
Внутри много деталей о том, с какими препятствиями и нюансами мы сталкиваемся в Vibe AI при парсинге сообщений со скриншотов переписки.
Приятного прочтения, буду благодарен вашей обратной связи, лайкам, репостам
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Мечтает ли GPT-4o о сегментации картинок...?
Всем привет, Меня зовут Богдан Печёнкин. Многие Меня знают как соавтора Симулятора DS на Karpov.Courses. Сейчас Я фаундер стартапа Vibe AI – это AI Dating Copilot для парней и девушек, который...
🥴7
CUDA-ядра на питоне
Нашел в твиттере прикольный блог-пост для самых маленьких в области написания CUDA-ядер: https://hyhieu.github.io/blog/easy_pybind
Автор сделал пакет на питоне, который делает шаблонную структуру, чтобы тестировать CUDA-ядра на питончике. В целом, удобно. Пакет — оверкилл, конечно, но в целом делает рутину чуточку проще.
Нашел в твиттере прикольный блог-пост для самых маленьких в области написания CUDA-ядер: https://hyhieu.github.io/blog/easy_pybind
Автор сделал пакет на питоне, который делает шаблонную структуру, чтобы тестировать CUDA-ядра на питончике. В целом, удобно. Пакет — оверкилл, конечно, но в целом делает рутину чуточку проще.
🔥5❤1
Как GPT4o кодирует картинки?
Тут вышло интересное чтиво🤔 , где автор пытается построить предположения о том, как OpenAI кодирует картинки в токены: https://readhacker.news/s/69f5F
TL;DR: берем фичамапы разных разрешений (aka pyramid features) и трансформируем их в 170 токенов, дополнительно присыпая спец-токенами.
Прикольная догадка, интересные экспериметны. Но мой взгляд зацепился за предложения про OCR (еще бы, а как иначе):
В целом, оно может показаться и так, а может так и есть, но тогда не понятно, какая тут экономика😊 :
— Ни в каких расчетах невозможно найти предлога, что как-то используется внеший источник OCR;
— Если брать результаты OCR, то в среднем там очень много токенов. Не думаю, что Sam настолько щедрый;
— Open-source тоже умеет в OCR и неплохо. Почему GPT-4o не может? Загадка.
А вы как думаете, пользуют ли внешний OCR в OpenAI?
Тут вышло интересное чтиво
TL;DR: берем фичамапы разных разрешений (aka pyramid features) и трансформируем их в 170 токенов, дополнительно присыпая спец-токенами.
Прикольная догадка, интересные экспериметны. Но мой взгляд зацепился за предложения про OCR (еще бы, а как иначе):
I have a simple theory to explain that: I think OpenAI is running Tesseract (or their own in-house OCR) and feeding the identified text into the transformer alongside the image data. I mean, that’s what I would do.
В целом, оно может показаться и так, а может так и есть, но тогда не понятно, какая тут экономика
— Ни в каких расчетах невозможно найти предлога, что как-то используется внеший источник OCR;
— Если брать результаты OCR, то в среднем там очень много токенов. Не думаю, что Sam настолько щедрый;
— Open-source тоже умеет в OCR и неплохо. Почему GPT-4o не может? Загадка.
А вы как думаете, пользуют ли внешний OCR в OpenAI?
Please open Telegram to view this post
VIEW IN TELEGRAM
🏆4
Forwarded from Борис опять
Меня удивляет постоянство профессиональных комиков. Комик, который держит бар, где я выступал, ведет по пять шоу в неделю. Каждый раз он разогревает зал, импровизирует на ходу и делает всё это смешно. Я ещё ни разу не видел, чтобы ему не удалось рассмешить людей. То есть независимо от того, что у тебя происходит в жизни, расстался ли ты с девушкой или ушел в запой, тебе надо каждый день смешить людей.
Я подумал, что в IT на уровне начиная с senior похожая история. Независимо от того, что у меня происходит в жизни, каждый день я прихожу на работу и ничего не делаю.
Я подумал, что в IT на уровне начиная с senior похожая история. Независимо от того, что у меня происходит в жизни, каждый день я прихожу на работу и ничего не делаю.
😁23❤2🤡1
Про тимлидов
Наткнулся на пару видео про тимилидов😀 . Можете включить на 2х и послушать, некоторые вещи я бы даже записал.
Кто такой teamlead? Стоит ли идти в тимлиды ради зарплаты — Евгений Антонов в формате подкаста рассуждает про различные аспекты роли тимлида. Ролик понравился разнообразием живых кейсов, с некоторыми из которых я встречался на своей практике. С Женей я даже пару раз пересекался по работе, его подход к решению межкомандных задач понравился.
Самый шерстяной волчара: тимлид с технической ролью и без — доклад Анастасии Абрашитовой про то, обязательна ли техническая роль тимлиду, а если нет, то как её делегировать. Спойлер: рассматриваются три схемы, которые я бы взял на заметку в зависимости от ситуации.
Наткнулся на пару видео про тимилидов
Кто такой teamlead? Стоит ли идти в тимлиды ради зарплаты — Евгений Антонов в формате подкаста рассуждает про различные аспекты роли тимлида. Ролик понравился разнообразием живых кейсов, с некоторыми из которых я встречался на своей практике. С Женей я даже пару раз пересекался по работе, его подход к решению межкомандных задач понравился.
Самый шерстяной волчара: тимлид с технической ролью и без — доклад Анастасии Абрашитовой про то, обязательна ли техническая роль тимлиду, а если нет, то как её делегировать. Спойлер: рассматриваются три схемы, которые я бы взял на заметку в зависимости от ситуации.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔4👍3👾1
This media is not supported in your browser
VIEW IN TELEGRAM
«Ирония судьбы или с тяжёлой таской»
😁14🤣3🤝2❤1🔥1🤡1