Про хакатон: я участвовал в команде с очень крутым млщиком, но у которого не было такой мат.базы как у меня, поэтому я скорее генерировал какие-то идеи, а он их реализовывали. Сам что-то тоже пописал, но не очень много, ибо свои дела были.
В целом я доволен - подольше пообщался с пакетами и разными приёмами для хемоинформатики, проверил всякие гипотезы про кодирование графов на практике, вспомнил как учить трансформеры.
Сам хакатон был организован очень странно, с точки зрения критериев оценки, там немалую часть занимает парсинг. Ну и договор об отчуждении права интеллектуальной собственности тоже пахнет не очень))
В целом я доволен - подольше пообщался с пакетами и разными приёмами для хемоинформатики, проверил всякие гипотезы про кодирование графов на практике, вспомнил как учить трансформеры.
Сам хакатон был организован очень странно, с точки зрения критериев оценки, там немалую часть занимает парсинг. Ну и договор об отчуждении права интеллектуальной собственности тоже пахнет не очень))
🤩10🌭4❤🔥2👍1🔥1
Почему для сегментации временных рядов нельзя просто посчитать в скользящем окне моменты выборки с 2ого по 10ый условно и впихнуть в катбуст? 🤔🤔🤔
Это же буквально сегментация пространства распределений
Это же буквально сегментация пространства распределений
🤔8💩1
ML-легушька
Почему для сегментации временных рядов нельзя просто посчитать в скользящем окне моменты выборки с 2ого по 10ый условно и впихнуть в катбуст? 🤔🤔🤔 Это же буквально сегментация пространства распределений
Пояснение: тут я имел в виду немного специфичную сегментацию рядов, которая возникает у меня в задаче в хуавее и во многих других, уверен.
В каждом сегменте тут поведение "ряда" описывается некоторым распределением с неизвестными параметрами и само распределение тоже неизвестно, то есть соседние точки у нас ± i.i.d. Наша задача - научиться понимать, в какой момент распределение меняет свои параметры, и среди этих изменений параметров с помощью ML вытянуть, что эти изменения соответствуют конкретному "событию", порождающему такие параметры
В каждом сегменте тут поведение "ряда" описывается некоторым распределением с неизвестными параметрами и само распределение тоже неизвестно, то есть соседние точки у нас ± i.i.d. Наша задача - научиться понимать, в какой момент распределение меняет свои параметры, и среди этих изменений параметров с помощью ML вытянуть, что эти изменения соответствуют конкретному "событию", порождающему такие параметры
👍4
ML-легушька
Про хакатон: я участвовал в команде с очень крутым млщиком, но у которого не было такой мат.базы как у меня, поэтому я скорее генерировал какие-то идеи, а он их реализовывали. Сам что-то тоже пописал, но не очень много, ибо свои дела были. В целом я доволен…
Ура, из 72 команд мы попали в 27, которые получат сертификат участника.
Может быть там просто у остальных по каким-то обязательным критериям непроход, но все равно приятно
Может быть там просто у остальных по каким-то обязательным критериям непроход, но все равно приятно
👍16❤3
ML-легушька
Я в шцпм!
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда: https://github.com/Kutuz4/codaim_bot_template . Там нет комментариев, ибо я разберу все на лекции, но бот достаточно простой, при этом использует немалую часть инструментов аиограмма - работу с медиа, клавиатуры, машину состояний. Можете потыкать-разобраться
GitHub
GitHub - Kutuz4/codaim_bot_template: Telegram bot template for кодиим.цпм.рф
Telegram bot template for кодиим.цпм.рф. Contribute to Kutuz4/codaim_bot_template development by creating an account on GitHub.
🔥16
ML-легушька
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда:…
Сегодня был самый жёсткий день смены для меня.
Утром я вёл лекцию, по архитектурам CNN и задачам комп.зрения, потом был семинар по запуску сегментации и детекции. Потом был мини-семинар про разработку тг-ботов, для которого я и делал шаблон. Затем был часик отдыха, полтора часа помогал одной команде дебажить и объяснял матешу, часовая преподская планерка и затем проектная работа у детей.
На ней я консультировал + рассказал про метрики, это супер важный кусок который почему-то упустили на лекциях + интересующимся много рассказывал про оптимизацию и матешу. Ещё глубже разобрался в работе зеркального спуска и даже кое-что интересное придумал, про связь его шага и софтмакса.
И затем час рофлили и общались с другими преподами. Короче круто!
Утром я вёл лекцию, по архитектурам CNN и задачам комп.зрения, потом был семинар по запуску сегментации и детекции. Потом был мини-семинар про разработку тг-ботов, для которого я и делал шаблон. Затем был часик отдыха, полтора часа помогал одной команде дебажить и объяснял матешу, часовая преподская планерка и затем проектная работа у детей.
На ней я консультировал + рассказал про метрики, это супер важный кусок который почему-то упустили на лекциях + интересующимся много рассказывал про оптимизацию и матешу. Ещё глубже разобрался в работе зеркального спуска и даже кое-что интересное придумал, про связь его шага и софтмакса.
И затем час рофлили и общались с другими преподами. Короче круто!
🔥30❤2👍1
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11)
Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет интерпретацию с точки зрения топологии нейронных сетей?
Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет интерпретацию с точки зрения топологии нейронных сетей?
❤🔥10🔥5❤1
ML-легушька
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11) Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет…
Хорошие посты в 3 25 ночи..
Надо будет про это дело у научника спросить
Надо будет про это дело у научника спросить
❤🔥7🔥3
ML-легушька
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11) Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет…
Если смотреть то, что пишет Википедия про софтмакс, то есть следующая информация:
Введём argmax не как скалярную функцию, а как векторную, то есть выдающую вектор из (0, 0, 0,..., 1, 0,...), где 1 стоит на позиции максимального элемента. Тогда softmax будет являться очень хорошей гладкой аппроксимацией такого argmax. Но тут нет никакой связи с проекциями и дивергенцией Брэгмана, как это происходит в зеркальном спуске
Введём argmax не как скалярную функцию, а как векторную, то есть выдающую вектор из (0, 0, 0,..., 1, 0,...), где 1 стоит на позиции максимального элемента. Тогда softmax будет являться очень хорошей гладкой аппроксимацией такого argmax. Но тут нет никакой связи с проекциями и дивергенцией Брэгмана, как это происходит в зеркальном спуске
❤🔥7
Вставлять на каждом слайде по аниме-девочке это божественно)
🥰25🤮9👎6🤡3❤🔥2
Это удивительно, но у меня кажется появилась репутация человека, которого можно попросить накинуть идею для стартапа на какую-то тему/без темы и он придумает. Ибо что-то часто в последнее время такие разгоны происходят
👍31🤣1
Меня добавили в эту папочку, и там собрано реально очень много полезных каналов
Forwarded from Денис Айвазов. Технарские метафоры
Бизнес и стартапы, наука и технологии, саморазвитие и аналитика. Об этом и о многом другом пишу не только я, но и другие студенты, выпускники и преподаватели Физтеха - одного из лучших вузов РФ!
Добавив в 1 клик подборку каналов по ссылке: https://news.1rj.ru/str/addlist/0N37mbH9xM8yZjFi, вы:
●Прокачаетесь в анализе данных с Data Feeling Саши Миленкина;
●Разовьетесь в инвестициях и станете богаче вместе с Запаренными Инвесторами МФТИ (в мае пройдет лекция Н.В. Зубаревич. Регистрация будет на канале);
●Узнаете о последних новостях из мира крипты и AI от лондонского безработного и Forbes 30 до 30 Дани Охлопкова;
●Узнаете, как понять жизнь и стать счастливым через софт скиллы и метафоры в канале Дениса Айвазова;
●Поймёте, как сочетаются мир, покой и прогресс вместе с Уютно, технологии и Дима.
●Познакомитесь ещё со множеством интересных и полезных каналов, которые я и сам активно читаю и очень рекомендую!
Добавляйте подборку и развивайтесь с удовольствием!🔥
PS: если ссылка не работает, обновите телеграм
P.P.S. От нерелевантных отписаться всегда успеете, но редко за одно действие можно получить СТОЛЬКО пользы!
Добавив в 1 клик подборку каналов по ссылке: https://news.1rj.ru/str/addlist/0N37mbH9xM8yZjFi, вы:
●Прокачаетесь в анализе данных с Data Feeling Саши Миленкина;
●Разовьетесь в инвестициях и станете богаче вместе с Запаренными Инвесторами МФТИ (в мае пройдет лекция Н.В. Зубаревич. Регистрация будет на канале);
●Узнаете о последних новостях из мира крипты и AI от лондонского безработного и Forbes 30 до 30 Дани Охлопкова;
●Узнаете, как понять жизнь и стать счастливым через софт скиллы и метафоры в канале Дениса Айвазова;
●Поймёте, как сочетаются мир, покой и прогресс вместе с Уютно, технологии и Дима.
●Познакомитесь ещё со множеством интересных и полезных каналов, которые я и сам активно читаю и очень рекомендую!
Добавляйте подборку и развивайтесь с удовольствием!🔥
PS: если ссылка не работает, обновите телеграм
P.P.S. От нерелевантных отписаться всегда успеете, но редко за одно действие можно получить СТОЛЬКО пользы!
💩10👌3❤🔥2👍1