🔝Курсы в айтишечке💻
Тинькофф запустил забавную штуку. Сервис по сравнению и подбору курсов в АйТи. Обещают только честные отзывы и справедливую оценку.
Жду когда рейтинг XYZ обвалится до 2.0 😬
https://journal.tinkoff.ru/sravnyator/it-courses/
Тинькофф запустил забавную штуку. Сервис по сравнению и подбору курсов в АйТи. Обещают только честные отзывы и справедливую оценку.
Жду когда рейтинг XYZ обвалится до 2.0 😬
https://journal.tinkoff.ru/sravnyator/it-courses/
Сравнятор
Сравнятор: агрегатор отзывов на онлайн-курсы
Отзовик курсов в сфере IT. Выберите онлайн-школу, направление или IT-курс по программированию и почитайте реальные проверенные отзывы учеников об обучении. Сравните курсы и выберите подходящий.
STACK MORE LAYERS
⚡️Yolov5 TensorRT Jetson ☄️ В общем, недавно я купил Nvidia Jetson Nano, это такой маленький компьютер похожий на Raspberry PI, но с маленькой видеокарточкой. В качестве упражнения сделал небольшой проектик, который позволяет без лишней боли портировать Yolov5…
Следите за вашими почтовыми ящиками.
Только что обнаружил на почте письмо, что я со своим репозеторием выиграл соревнование от Ultralytics по экспорту YoloV5 на nvidia jetson.
Ну что сказать, делал я эту бибилиотечку с любовью! Так что если будете юзать джетсон, велкам.
Просили ответить до 18го, а уже 20е 🙂
Надеюсь они еще не передумали
Только что обнаружил на почте письмо, что я со своим репозеторием выиграл соревнование от Ultralytics по экспорту YoloV5 на nvidia jetson.
Ну что сказать, делал я эту бибилиотечку с любовью! Так что если будете юзать джетсон, велкам.
Просили ответить до 18го, а уже 20е 🙂
Надеюсь они еще не передумали
🔥1
🥤Яндекс Кружка🏆
Неожиданно раньше пришли результаты контеста Яндекс Cup по трекам ML. С удивлением обнаружил, что я попал в призовые и получу не только футболку!
Интересные замечания по поводу контеста в этом году. Трек ML в отличие от прошлого года был разбит на категории - рекомендательные системы, компутер вижн, распознавание речи.
Что логичную учитывая то, что область ML развивается и специалисты становятся более нишевыми. Поэтому шанс ухватить приз выше.
Как-то так получается, что в соревнования я зачастую заплетаю за неделю до дедлайна и удивительным образом это позволяет даже иногда попасть в топ.
Я учавствовал в треке распознавания речи. Задачей было определение 37 команд для Алисы в различных шумовых условиях. Причём были очень сложные семплы, где человек далеко не сразу поймёт что было сказано. В целом задача была интересная и в процессе было сделано некоторое количество трюков и хитростей при обучении. Даже пришлось один раз вспомнить математику!
Но одна деталь не даёт мне покоя. Человек, который занял первое место, выбил топ скор буквально на следующий день соревнования. Кажется что без жульничества или ликов здесь не обошлось, т.к. при обучении моделек я видел явный потолок, который можно преодолеть только ансамблированием моделей, а получить топ ансамбль на следующий день - сомнительная перспектива.
Кстати, fun fact. Поскольку я ушёл из большой компании в маленький, но гордый стартап, уже не получается использовать рабочие мощности для соревнований, когда они простаивают, здесь ничего не может простаивать просто так! Поэтому все решения делались только силами Google Colab.
Для тех кто хочет делать так же, советую купить Colab Pro+, он хоть и стоит $50🥴, но в отличие от Про и бесплатной подписки — не гасит машинки, если у вас закрыт браузер, плюс есть не нулевой шанс получить в распоряжение A100 с 40 гб на борту. А для того, чтобы не потерять все ваши метрики и чекпоинты — используйте wandb.ai он очень легко дружит с колабом.
Неожиданно раньше пришли результаты контеста Яндекс Cup по трекам ML. С удивлением обнаружил, что я попал в призовые и получу не только футболку!
Интересные замечания по поводу контеста в этом году. Трек ML в отличие от прошлого года был разбит на категории - рекомендательные системы, компутер вижн, распознавание речи.
Что логичную учитывая то, что область ML развивается и специалисты становятся более нишевыми. Поэтому шанс ухватить приз выше.
Как-то так получается, что в соревнования я зачастую заплетаю за неделю до дедлайна и удивительным образом это позволяет даже иногда попасть в топ.
Я учавствовал в треке распознавания речи. Задачей было определение 37 команд для Алисы в различных шумовых условиях. Причём были очень сложные семплы, где человек далеко не сразу поймёт что было сказано. В целом задача была интересная и в процессе было сделано некоторое количество трюков и хитростей при обучении. Даже пришлось один раз вспомнить математику!
Но одна деталь не даёт мне покоя. Человек, который занял первое место, выбил топ скор буквально на следующий день соревнования. Кажется что без жульничества или ликов здесь не обошлось, т.к. при обучении моделек я видел явный потолок, который можно преодолеть только ансамблированием моделей, а получить топ ансамбль на следующий день - сомнительная перспектива.
Кстати, fun fact. Поскольку я ушёл из большой компании в маленький, но гордый стартап, уже не получается использовать рабочие мощности для соревнований, когда они простаивают, здесь ничего не может простаивать просто так! Поэтому все решения делались только силами Google Colab.
Для тех кто хочет делать так же, советую купить Colab Pro+, он хоть и стоит $50🥴, но в отличие от Про и бесплатной подписки — не гасит машинки, если у вас закрыт браузер, плюс есть не нулевой шанс получить в распоряжение A100 с 40 гб на борту. А для того, чтобы не потерять все ваши метрики и чекпоинты — используйте wandb.ai он очень легко дружит с колабом.
Forwarded from Vladislav Kramarenko
Тогда вот моё первое место по ASR которое не сильно отличается от базового, Так как сильно вырвался вперёд, особо ничего не делал.
Forwarded from Vladislav Kramarenko
Только немного поигрался с одномерными свертками над сырым звуком и более лёгкими двумерными сверки над мелспектрограммами. Хотел ещё прикрутить полноценную распозновалку, но поленился
🎮 Зачем вам Gaming PC 🕹
Зашел на AWS, чтобы завести там машинку для еще одного эксперимента, и решил найти интересующий меня образ для обучения от Nvidia, и с удивлением обнаружил, что Nvidia предоставляет образ для cloud gaming в AWS!
Если вы настоящий гик, вместо того чтобы покупать себе игровой комп, вы просто пишете себе ansible сценарий для автоматической аренды машинки, разворачивания на ней этого образа и установки стима с играми. Вуаля, ваш персональный мощный компуктер готов к использованию.
Зашел на AWS, чтобы завести там машинку для еще одного эксперимента, и решил найти интересующий меня образ для обучения от Nvidia, и с удивлением обнаружил, что Nvidia предоставляет образ для cloud gaming в AWS!
Если вы настоящий гик, вместо того чтобы покупать себе игровой комп, вы просто пишете себе ansible сценарий для автоматической аренды машинки, разворачивания на ней этого образа и установки стима с играми. Вуаля, ваш персональный мощный компуктер готов к использованию.
🕸VSCode WEB👨💻
Не знаю как вы, но я не пользуюсь IDE.
Раньше я не пользовался IDE по причине того, что мой дряхленький ноутбук с алиэкспреса не мог потянуть что-то уровня pycharm, а если даже и запустит, то батарейка испарится в момент. Поэтому я пользовался быстрым и крутым Sublime Text.
Шло время, Sublime не обновлялся, а я потихоньку переходил на Atom. Новый редактор кода от гитхаба. Все в нем было хорошо, кроме скорости, поскольку он был написан на JS + Electron скорость открытия и редактирования больших файлов давала о себе знать.
Но Atom подкупал наличием плагинов на любой вкус.
Позднее после нахваливания vscode я перешел на него, и какой же это все таки отличный инструмент получился! Легкий, быстрый, куча плагинов и умеет в remote доступ куда угодно.
Но кажется мы подходим к новой вехе развития сред разработки, ведь vscode доступен прямо из вашего бразуера по ссылке vscode.dev
Интересный момент заключается в том, что это настоящий редактор, который запускается прямо в браузере, без всяких бекендов. К сожалению пока никакой из моих плагинов не работает -- соответсвенно не могу подключиться к удаленным машинкам. Но уже можно юзать виртуалки на Github Code Space. Кто знает, может мы скоро перейдем с ноутбуков на айпеды.
Не знаю как вы, но я не пользуюсь IDE.
Раньше я не пользовался IDE по причине того, что мой дряхленький ноутбук с алиэкспреса не мог потянуть что-то уровня pycharm, а если даже и запустит, то батарейка испарится в момент. Поэтому я пользовался быстрым и крутым Sublime Text.
Шло время, Sublime не обновлялся, а я потихоньку переходил на Atom. Новый редактор кода от гитхаба. Все в нем было хорошо, кроме скорости, поскольку он был написан на JS + Electron скорость открытия и редактирования больших файлов давала о себе знать.
Но Atom подкупал наличием плагинов на любой вкус.
Позднее после нахваливания vscode я перешел на него, и какой же это все таки отличный инструмент получился! Легкий, быстрый, куча плагинов и умеет в remote доступ куда угодно.
Но кажется мы подходим к новой вехе развития сред разработки, ведь vscode доступен прямо из вашего бразуера по ссылке vscode.dev
Интересный момент заключается в том, что это настоящий редактор, который запускается прямо в браузере, без всяких бекендов. К сожалению пока никакой из моих плагинов не работает -- соответсвенно не могу подключиться к удаленным машинкам. Но уже можно юзать виртуалки на Github Code Space. Кто знает, может мы скоро перейдем с ноутбуков на айпеды.
Почти настоящая IDE на iPad.
Это чем-то напоминает идею тонких клиентов. Если вы знаете или даже помните что такое MSX - это японские учебные компьютеры, которые поставлялись в ссср. Школьники работали за терминалами-клиентами, которые умели только посылать данные и отображать их на экране, а все вычисления происходили на компьютере учителя. Так и программировали.
Это чем-то напоминает идею тонких клиентов. Если вы знаете или даже помните что такое MSX - это японские учебные компьютеры, которые поставлялись в ссср. Школьники работали за терминалами-клиентами, которые умели только посылать данные и отображать их на экране, а все вычисления происходили на компьютере учителя. Так и программировали.
💻 Хочу клавиатуру
Хочу компактную, удобную стильную клавиатуру без излишетсв.
Мне не нравятся геймерские варианты с радужной подсветкой, magic keyboard слишком заезженно.
Хочется такую, чтобы смотря на нее глаз радовался, руки были счастливы и люди интересовались что это за клавиатурка такая.
Может у кого есть интересные варианты?
⌨Хочу компактную, удобную стильную клавиатуру без излишетсв.
Мне не нравятся геймерские варианты с радужной подсветкой, magic keyboard слишком заезженно.
Хочется такую, чтобы смотря на нее глаз радовался, руки были счастливы и люди интересовались что это за клавиатурка такая.
Может у кого есть интересные варианты?
STACK MORE LAYERS
🥤Яндекс Кружка🏆 Неожиданно раньше пришли результаты контеста Яндекс Cup по трекам ML. С удивлением обнаружил, что я попал в призовые и получу не только футболку! Интересные замечания по поводу контеста в этом году. Трек ML в отличие от прошлого года был…
Интересный факт про Яндекс Cup. Оказывается за пятое место ничего не полагается, а спутал я это из-за плохой верстки сайта.
На главной странице показаны призы для первых вторых и так далее мест: https://yandex.ru/cup/
Но это справедливо для всех треков, кроме ml, там призы распределяются только среди первых мест. Что можно узнать, перейдя в эту секцию
https://yandex.ru/cup/ml/
Запутали, так запутали 🤷♂️
На главной странице показаны призы для первых вторых и так далее мест: https://yandex.ru/cup/
Но это справедливо для всех треков, кроме ml, там призы распределяются только среди первых мест. Что можно узнать, перейдя в эту секцию
https://yandex.ru/cup/ml/
Запутали, так запутали 🤷♂️
Yandex Cup — чемпионат по программированию
Попробуйте свои силы в решении нестандартных задач
Есть вещи, про которые разработчики могут говорить вечно, это клавиатуры, тракторы и оптимальное количество мониторов.
Клавиатуру я уже заказал, трактор пока ждет своего часа, а вот с монитором вопрос не решен.
Ultrwide? Изогнутый? С кранштейном или с подставкой?
Расскажите про свой опыт, что лучше взять сейчас
Клавиатуру я уже заказал, трактор пока ждет своего часа, а вот с монитором вопрос не решен.
Ultrwide? Изогнутый? С кранштейном или с подставкой?
Расскажите про свой опыт, что лучше взять сейчас
🚀AI Jorney 💻
Канал на время превратился в доску почета.
Поэтому немного продолжу ее.
🎉 1 Место в треке Code2Code translation на AI Jorney
В этом году Сбер сделал призовой фонд больше чем когда либо.
Я учавствовал в задаче Fusion Brain, где было необходимо обучить мульти-таск модель, которая способна решать сразу несколько задач из разных категорий - NLP, CV, CV+NLP
За первое место можно было получить до 3х млн рублей в зависимости от скора.
Я же, обладая не большим ресурсом времени, решил решать только одну подзадачу - перевод кода из java в python. За первое место подзадаче тоже полагались призы, но поменьше.
Канал на время превратился в доску почета.
Поэтому немного продолжу ее.
🎉 1 Место в треке Code2Code translation на AI Jorney
В этом году Сбер сделал призовой фонд больше чем когда либо.
Я учавствовал в задаче Fusion Brain, где было необходимо обучить мульти-таск модель, которая способна решать сразу несколько задач из разных категорий - NLP, CV, CV+NLP
За первое место можно было получить до 3х млн рублей в зависимости от скора.
Я же, обладая не большим ресурсом времени, решил решать только одну подзадачу - перевод кода из java в python. За первое место подзадаче тоже полагались призы, но поменьше.
Мое финальное решение оказалось по сути компиляцией работы фейсбука по переводу кода в код с большой пачкой эвристик над сгенерированным кодом. Эвристики в данном случае решали финальный исход и чем лучше они были, тем лучше результат.
По сути это была больше инженерная работа, чем работа DL специалиста, поэтому на решение я совсем не надеялся, заслал и забыл.
Но простое решение далеко не всегда плохое 🤷♂️
Учавствуйте в соревнованиях!
По сути это была больше инженерная работа, чем работа DL специалиста, поэтому на решение я совсем не надеялся, заслал и забыл.
Но простое решение далеко не всегда плохое 🤷♂️
Учавствуйте в соревнованиях!
Кстати, помимо Code2Code я пытался решать задачу ZeroShot object detection.
Для этого я использовал подход поиска BBox'ов из FasterRCNN с классификатором CLIP поверх.
https://openai.com/blog/clip/
Скора это не дало, т.к. для клипа сложно подобрать идеальный трешхолд, чтобы избешать miss detection.
Но какие красивые черрипики!
Для этого я использовал подход поиска BBox'ов из FasterRCNN с классификатором CLIP поверх.
https://openai.com/blog/clip/
Скора это не дало, т.к. для клипа сложно подобрать идеальный трешхолд, чтобы избешать miss detection.
Но какие красивые черрипики!
🏎 Pytorch Cuda Graphs ⚡️
К новостям обновлений Pytorch.
Обычно вычисления в пайторч происходят следующим образом: у нас есть какой-то код на питоне, который контролирует порядок операций, аля перемножения матриц, сверток и прочего. Каждая такая операция представляет из себя один или несколько cuda kernels, это такая маленькая функция которая может выполняться параллельно на множестве ядер видеокарты.
Проблема здесь заключается в том, что в угоду того, чтобы вам было удобно дебагать и получать результаты работы вашей модели, процесс вычислений контроллируется именно на CPU, а значит после каждого выполнения kernel'а управление программой возвращается процессору, в то время пока GPU простаивает, в связи с чем мы теряем в производительности.
На одной маленькой видеокарте это может быть совсем незаметно, но когда мы говорим о больших кластерах, то эти задержи преобретают колосальные масштабы. Ведь при обучении на множестве гпу нам необходима синхронизация между гпу/машинами, а такого рода задержки усугубляют весь процесс, ведь вся система движется с максимальной скоростью самого слабого звена (в нашем случае процессора, на который может влиять множество факторов, от текущей загрузки, до температуры и конфигураций троттлинга)
Cuda Graphs решает эту проблему - давайте вместо того, чтобы передавать управление cpu каждый раз, возвращая результат работы, мы построим конвеер прямо на видеокарте, на котором все будет считаться быстро, без задержек, а уже результат передавать обратно после расчета всего графа.
Звучит круто, и так оно и есть! Ребята смогли ускорить обучение Mask RCNN в 1.75 раза.
Но, конечно мы жертвуем гибкостью, никаких вам динамических шейпов или условий по среди модели, все четко и статично.
Подробнее и с примерами кода читать тут:
https://pytorch.org/blog/accelerating-pytorch-with-cuda-graphs/
К новостям обновлений Pytorch.
Обычно вычисления в пайторч происходят следующим образом: у нас есть какой-то код на питоне, который контролирует порядок операций, аля перемножения матриц, сверток и прочего. Каждая такая операция представляет из себя один или несколько cuda kernels, это такая маленькая функция которая может выполняться параллельно на множестве ядер видеокарты.
Проблема здесь заключается в том, что в угоду того, чтобы вам было удобно дебагать и получать результаты работы вашей модели, процесс вычислений контроллируется именно на CPU, а значит после каждого выполнения kernel'а управление программой возвращается процессору, в то время пока GPU простаивает, в связи с чем мы теряем в производительности.
На одной маленькой видеокарте это может быть совсем незаметно, но когда мы говорим о больших кластерах, то эти задержи преобретают колосальные масштабы. Ведь при обучении на множестве гпу нам необходима синхронизация между гпу/машинами, а такого рода задержки усугубляют весь процесс, ведь вся система движется с максимальной скоростью самого слабого звена (в нашем случае процессора, на который может влиять множество факторов, от текущей загрузки, до температуры и конфигураций троттлинга)
Cuda Graphs решает эту проблему - давайте вместо того, чтобы передавать управление cpu каждый раз, возвращая результат работы, мы построим конвеер прямо на видеокарте, на котором все будет считаться быстро, без задержек, а уже результат передавать обратно после расчета всего графа.
Звучит круто, и так оно и есть! Ребята смогли ускорить обучение Mask RCNN в 1.75 раза.
Но, конечно мы жертвуем гибкостью, никаких вам динамических шейпов или условий по среди модели, все четко и статично.
Подробнее и с примерами кода читать тут:
https://pytorch.org/blog/accelerating-pytorch-with-cuda-graphs/
This media is not supported in your browser
VIEW IN TELEGRAM
✈️ Telegram Contest 🌆
Летом проходил контест от телеграма и мы решили принять в нем участие.
Сделали красивое приложение, ну вы только посмотрите на демку!
Были уверены в своей победе, но!
ПРОЕ...проиграли
А подвох здесь прост. Результатов мы ждали 5 месяцев, за это время сервер успел упасть, а я даже и не заметил.
Как иронично, что упал он 11 сентября.
Летом проходил контест от телеграма и мы решили принять в нем участие.
Сделали красивое приложение, ну вы только посмотрите на демку!
Были уверены в своей победе, но!
ПРОЕ...проиграли
А подвох здесь прост. Результатов мы ждали 5 месяцев, за это время сервер успел упасть, а я даже и не заметил.
Как иронично, что упал он 11 сентября.