ML-легушька – Telegram
ML-легушька
3.46K subscribers
1.39K photos
162 videos
6 files
91 links
Гений, стартапер, плейбой, филантроп
Для связи: @MLfroge
Download Telegram
Сегодня мы раскатили мою модель в яндексе в тестовом режиме и она нашла свое первое ДТП!!!
💯35😍13🔥7😭2👍1
Митинг в хуавее перенесли на пятницу, и я почти наладил себе режим сна (уснул в половину первого и проснулся в 9:30), поэтому впервые за очень много месяцев приготовил себе завтрак дома
😍18👍4🔥43🤮2
#доброеутро
Уснул в 00:30, проснулся в 9:30 и ещё час валялся в кровати, так как теорию колец и полей отменили. Встал, закинул вещи стираться, набрал себе ванну. Полежал в ванне, приятно. Встал и сделал завтрак-обед (следующий полноценный приём пищи только в ~19, а на физру голодным не хочется). Это был салат филадельфия (как ролл но оно все перемешано), суп с лососем и шпинатом и вот такой бутербродик (выглядит не так эстетично, но это очень вкусно). Теперь еду на пары, а после них открывается хакатон по цифровой фармакологии, будем со своими хорошими знакомыми пробовать что-то занять :) Всем хорошей пятницы
🔥325🌭1
Хакатон начался, а у нас вырубили электричество в квартире. Решаем из пивной)))
😁32🍾10❤‍🔥4🔥3👍2
22😁3😢1
ML-легушька
Почему в листья деревьев решений не могут вставлять KNN? Если лист разделился не полностью. Это же будет иметь лучший перфоманс в ряде случаев, и будет помогать бороться с переобучением
Один хороший человек это имплементировал, и это действительно в части задач дало хороший буст
Скоро будет новый пост на эту тему, там будет про interpretable ML и с кучей матеши
🔥18🤯1
Про хакатон: я участвовал в команде с очень крутым млщиком, но у которого не было такой мат.базы как у меня, поэтому я скорее генерировал какие-то идеи, а он их реализовывали. Сам что-то тоже пописал, но не очень много, ибо свои дела были.
В целом я доволен - подольше пообщался с пакетами и разными приёмами для хемоинформатики, проверил всякие гипотезы про кодирование графов на практике, вспомнил как учить трансформеры.
Сам хакатон был организован очень странно, с точки зрения критериев оценки, там немалую часть занимает парсинг. Ну и договор об отчуждении права интеллектуальной собственности тоже пахнет не очень))
🤩10🌭4❤‍🔥2👍1🔥1
Почему для сегментации временных рядов нельзя просто посчитать в скользящем окне моменты выборки с 2ого по 10ый условно и впихнуть в катбуст? 🤔🤔🤔
Это же буквально сегментация пространства распределений
🤔8💩1
ML-легушька
Почему для сегментации временных рядов нельзя просто посчитать в скользящем окне моменты выборки с 2ого по 10ый условно и впихнуть в катбуст? 🤔🤔🤔 Это же буквально сегментация пространства распределений
Пояснение: тут я имел в виду немного специфичную сегментацию рядов, которая возникает у меня в задаче в хуавее и во многих других, уверен.
В каждом сегменте тут поведение "ряда" описывается некоторым распределением с неизвестными параметрами и само распределение тоже неизвестно, то есть соседние точки у нас ± i.i.d. Наша задача - научиться понимать, в какой момент распределение меняет свои параметры, и среди этих изменений параметров с помощью ML вытянуть, что эти изменения соответствуют конкретному "событию", порождающему такие параметры
👍4
Я в шцпм!
🔥35👍4🤔21
ML-легушька
Про хакатон: я участвовал в команде с очень крутым млщиком, но у которого не было такой мат.базы как у меня, поэтому я скорее генерировал какие-то идеи, а он их реализовывали. Сам что-то тоже пописал, но не очень много, ибо свои дела были. В целом я доволен…
Ура, из 72 команд мы попали в 27, которые получат сертификат участника.
Может быть там просто у остальных по каким-то обязательным критериям непроход, но все равно приятно
👍163
Среда мои чуваки!
🔥345👎1
ML-легушька
Я в шцпм!
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда: https://github.com/Kutuz4/codaim_bot_template . Там нет комментариев, ибо я разберу все на лекции, но бот достаточно простой, при этом использует немалую часть инструментов аиограмма - работу с медиа, клавиатуры, машину состояний. Можете потыкать-разобраться
🔥16
😭15
Пришёл оффер в тинькофф. Надо думать, что же с ним теперь делать)
🔥36👍20
ML-легушька
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда:…
Сегодня был самый жёсткий день смены для меня.
Утром я вёл лекцию, по архитектурам CNN и задачам комп.зрения, потом был семинар по запуску сегментации и детекции. Потом был мини-семинар про разработку тг-ботов, для которого я и делал шаблон. Затем был часик отдыха, полтора часа помогал одной команде дебажить и объяснял матешу, часовая преподская планерка и затем проектная работа у детей.
На ней я консультировал + рассказал про метрики, это супер важный кусок который почему-то упустили на лекциях + интересующимся много рассказывал про оптимизацию и матешу. Ещё глубже разобрался в работе зеркального спуска и даже кое-что интересное придумал, про связь его шага и софтмакса.
И затем час рофлили и общались с другими преподами. Короче круто!
🔥302👍1
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11)
Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет интерпретацию с точки зрения топологии нейронных сетей?
❤‍🔥10🔥51
ML-легушька
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11) Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет…
Если смотреть то, что пишет Википедия про софтмакс, то есть следующая информация:
Введём argmax не как скалярную функцию, а как векторную, то есть выдающую вектор из (0, 0, 0,..., 1, 0,...), где 1 стоит на позиции максимального элемента. Тогда softmax будет являться очень хорошей гладкой аппроксимацией такого argmax. Но тут нет никакой связи с проекциями и дивергенцией Брэгмана, как это происходит в зеркальном спуске
❤‍🔥7
🔥416👍5🙏5😁2
❤‍🔥25🤮5👎3💩3😁2