ML-легушька
Я в шцпм!
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда: https://github.com/Kutuz4/codaim_bot_template . Там нет комментариев, ибо я разберу все на лекции, но бот достаточно простой, при этом использует немалую часть инструментов аиограмма - работу с медиа, клавиатуры, машину состояний. Можете потыкать-разобраться
GitHub
GitHub - Kutuz4/codaim_bot_template: Telegram bot template for кодиим.цпм.рф
Telegram bot template for кодиим.цпм.рф. Contribute to Kutuz4/codaim_bot_template development by creating an account on GitHub.
🔥16
ML-легушька
Для детей было необходимо сделать "шаблон" проекта - простенький, которому они могут следовать. Их проекты должны выглядеть в основном как телеграм бот + нейронка для классификации/детекции, встроенная в него. Если кому-то интересно, то выкладываю и сюда:…
Сегодня был самый жёсткий день смены для меня.
Утром я вёл лекцию, по архитектурам CNN и задачам комп.зрения, потом был семинар по запуску сегментации и детекции. Потом был мини-семинар про разработку тг-ботов, для которого я и делал шаблон. Затем был часик отдыха, полтора часа помогал одной команде дебажить и объяснял матешу, часовая преподская планерка и затем проектная работа у детей.
На ней я консультировал + рассказал про метрики, это супер важный кусок который почему-то упустили на лекциях + интересующимся много рассказывал про оптимизацию и матешу. Ещё глубже разобрался в работе зеркального спуска и даже кое-что интересное придумал, про связь его шага и софтмакса.
И затем час рофлили и общались с другими преподами. Короче круто!
Утром я вёл лекцию, по архитектурам CNN и задачам комп.зрения, потом был семинар по запуску сегментации и детекции. Потом был мини-семинар про разработку тг-ботов, для которого я и делал шаблон. Затем был часик отдыха, полтора часа помогал одной команде дебажить и объяснял матешу, часовая преподская планерка и затем проектная работа у детей.
На ней я консультировал + рассказал про метрики, это супер важный кусок который почему-то упустили на лекциях + интересующимся много рассказывал про оптимизацию и матешу. Ещё глубже разобрался в работе зеркального спуска и даже кое-что интересное придумал, про связь его шага и софтмакса.
И затем час рофлили и общались с другими преподами. Короче круто!
🔥30❤2👍1
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11)
Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет интерпретацию с точки зрения топологии нейронных сетей?
Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет интерпретацию с точки зрения топологии нейронных сетей?
❤🔥10🔥5❤1
ML-легушька
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11) Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет…
Хорошие посты в 3 25 ночи..
Надо будет про это дело у научника спросить
Надо будет про это дело у научника спросить
❤🔥7🔥3
ML-легушька
Про связь шага ЗС и софтмакса (см определение 1.8 и пример 1.11) Фактически, софтмакс - шаг зеркального спуска, где мы стартуем из (1/n, 1/n, 1/n...), с шагом 1, а субградиент функции - наши логиты предсказаний, взятые с минусом. Интересно, какую это имеет…
Если смотреть то, что пишет Википедия про софтмакс, то есть следующая информация:
Введём argmax не как скалярную функцию, а как векторную, то есть выдающую вектор из (0, 0, 0,..., 1, 0,...), где 1 стоит на позиции максимального элемента. Тогда softmax будет являться очень хорошей гладкой аппроксимацией такого argmax. Но тут нет никакой связи с проекциями и дивергенцией Брэгмана, как это происходит в зеркальном спуске
Введём argmax не как скалярную функцию, а как векторную, то есть выдающую вектор из (0, 0, 0,..., 1, 0,...), где 1 стоит на позиции максимального элемента. Тогда softmax будет являться очень хорошей гладкой аппроксимацией такого argmax. Но тут нет никакой связи с проекциями и дивергенцией Брэгмана, как это происходит в зеркальном спуске
❤🔥7
Вставлять на каждом слайде по аниме-девочке это божественно)
🥰25🤮9👎6🤡3❤🔥2
Это удивительно, но у меня кажется появилась репутация человека, которого можно попросить накинуть идею для стартапа на какую-то тему/без темы и он придумает. Ибо что-то часто в последнее время такие разгоны происходят
👍31🤣1
Меня добавили в эту папочку, и там собрано реально очень много полезных каналов
Forwarded from Денис Айвазов. Технарские метафоры
Бизнес и стартапы, наука и технологии, саморазвитие и аналитика. Об этом и о многом другом пишу не только я, но и другие студенты, выпускники и преподаватели Физтеха - одного из лучших вузов РФ!
Добавив в 1 клик подборку каналов по ссылке: https://news.1rj.ru/str/addlist/0N37mbH9xM8yZjFi, вы:
●Прокачаетесь в анализе данных с Data Feeling Саши Миленкина;
●Разовьетесь в инвестициях и станете богаче вместе с Запаренными Инвесторами МФТИ (в мае пройдет лекция Н.В. Зубаревич. Регистрация будет на канале);
●Узнаете о последних новостях из мира крипты и AI от лондонского безработного и Forbes 30 до 30 Дани Охлопкова;
●Узнаете, как понять жизнь и стать счастливым через софт скиллы и метафоры в канале Дениса Айвазова;
●Поймёте, как сочетаются мир, покой и прогресс вместе с Уютно, технологии и Дима.
●Познакомитесь ещё со множеством интересных и полезных каналов, которые я и сам активно читаю и очень рекомендую!
Добавляйте подборку и развивайтесь с удовольствием!🔥
PS: если ссылка не работает, обновите телеграм
P.P.S. От нерелевантных отписаться всегда успеете, но редко за одно действие можно получить СТОЛЬКО пользы!
Добавив в 1 клик подборку каналов по ссылке: https://news.1rj.ru/str/addlist/0N37mbH9xM8yZjFi, вы:
●Прокачаетесь в анализе данных с Data Feeling Саши Миленкина;
●Разовьетесь в инвестициях и станете богаче вместе с Запаренными Инвесторами МФТИ (в мае пройдет лекция Н.В. Зубаревич. Регистрация будет на канале);
●Узнаете о последних новостях из мира крипты и AI от лондонского безработного и Forbes 30 до 30 Дани Охлопкова;
●Узнаете, как понять жизнь и стать счастливым через софт скиллы и метафоры в канале Дениса Айвазова;
●Поймёте, как сочетаются мир, покой и прогресс вместе с Уютно, технологии и Дима.
●Познакомитесь ещё со множеством интересных и полезных каналов, которые я и сам активно читаю и очень рекомендую!
Добавляйте подборку и развивайтесь с удовольствием!🔥
PS: если ссылка не работает, обновите телеграм
P.P.S. От нерелевантных отписаться всегда успеете, но редко за одно действие можно получить СТОЛЬКО пользы!
💩10👌3❤🔥2👍1
ML-легушька
https://ssopt.org Летняя школа по оптимизации, Гасников советует обратить на неё внимание
Сегодня дедлайн подачи заявок!
Стоит (серьезный)
На сайте мат.практикума МФТИ есть запись моего выступления, там я рассказывал про то, как работают многорукие бандиты с тяжелыми хвостами и как эту проблему помогает решать градиентный клиппинг. Я немного затупил на моменте прокс.функции и дивергенции Брэгмана, сейчас такой ошибки уже бы не допустил))) Но достаточно познавательно вышло в любом случае. Там также рассказывается, в качестве вводной информации, про метод зеркального спуска, который зачастую не затрагивается в классическом курсе оптимизации, и при этом является крайне полезным инструментом как для решения задач, так и для их интерпретации.
Вот ссылка: https://disk.yandex.ru/i/PmVmr5YjQtPS7w
На сайте мат.практикума МФТИ есть запись моего выступления, там я рассказывал про то, как работают многорукие бандиты с тяжелыми хвостами и как эту проблему помогает решать градиентный клиппинг. Я немного затупил на моменте прокс.функции и дивергенции Брэгмана, сейчас такой ошибки уже бы не допустил))) Но достаточно познавательно вышло в любом случае. Там также рассказывается, в качестве вводной информации, про метод зеркального спуска, который зачастую не затрагивается в классическом курсе оптимизации, и при этом является крайне полезным инструментом как для решения задач, так и для их интерпретации.
Вот ссылка: https://disk.yandex.ru/i/PmVmr5YjQtPS7w
🔥34😍5❤🔥4👍4🤡2