ML-легушька – Telegram
ML-легушька
3.45K subscribers
1.39K photos
162 videos
6 files
91 links
Гений, стартапер, плейбой, филантроп
Для связи: @MLfroge
Download Telegram
ML-легушька
Идет первая лекция "Машинное обучение и теория игр" от МИАН им.Стеклова. Вы кстати тоже можете присоединяться/смотреть в записи при желании! Но пока что все очень примитивно объясняется, я бы даже сказал гуманитарно, и такие приколы из теории игр знает каждый…
Окей ладно, становится круто. Мы будем много заниматься RL как сказал препод, и мы все эти методы будем прогать. Можно будет сделать репу на гитхабе, которую показывать как пример кода🧐
👏11🤡2👎1
Эти строки у вашего парня в коде говорят о глубокой депрессии
🔥21👎2🤡2🤔1
Мне сегодня снилось что я работаю в Wunderfund 🚬
🤡22🔥6👎2👍1
Сегодня никто не пошёл со мной ботать в яшку, все заняты :(
По воскресеньям, когда я там сижу работаю, я зову друзей/знакомых посидеть поботать. Они получают рабочую атмосферу, чай и прочее, ну и мы общаемся в процессе. А сегодня вообще все оказались заняты :(
😢24🤮3🤡3
Женюсь на агрессивной лягушке
😢6🤡32😈2💩1
🤮4👍21🤡1
32🤮1🤡1
Комфортно???
Это вам анонс оценки на регрет из моей статьи про стохастических многоруких бандитов. А знаете в чем самый кайф? Это верхняя оценка, и она отличается от нижней на числовой множитель! То есть асимптотически мы получили оптимальный алгоритм для бандитов, у которых даже нет дисперсии
Upd. Перепроверил на вольфраме, чуть налажал, но в итоге оценка ещё красивее вышла
👍21🤡8🔥5👎3🤩1
ML-легушька
Комфортно??? Это вам анонс оценки на регрет из моей статьи про стохастических многоруких бандитов. А знаете в чем самый кайф? Это верхняя оценка, и она отличается от нижней на числовой множитель! То есть асимптотически мы получили оптимальный алгоритм для…
Я надеюсь что мой товарищ по работе как можно быстрее аккуратно и правильно оформит свою часть, потому что если мы выпустим это раньше других, то войдем в историю. Потому что это достижение нижних оценок, в максимально общей постановке. Это окончательно закрывает проблему стохастических многоруких бандитов с тяжёлыми хвостами, если не считать эвристик для улучшения константы
🔥38🙏5💩2🤡1
Фактор-топология.
Фактор-топология топологического пространства X по отношению ~ - топологическое пространство, введенное естественным образом на множестве классов эквивалентности в X относительно отношения ~ (фактор-множестве).
Если по-простому, то мы отождествляем некоторые точки пространства одной и той же точке, и смотрим, какая топологическая структура получается.
Пример 1: если X - n-мерное линейное пространство, то мы можем положить два вектора "эквивалентными", если один получается из другого умножением на положительное число, то есть растяжением. Тогда, мы можем "факторизовать" пространство X по этому отношению, и получить топологически n-мерную сферу.
Пример 2: факторизация диска по его границе. Пусть у нас есть n-мерный шар, тогда давайте мы склеим все точки на его границе (то есть "поверхности"), и посмотрим что будет. Это тоже получится отношение эквивалентности (точки внутри переходят в себя, точки на границе - эквивалентны). Это можно очень легко представить в двумерном случае. Вообразите, что вы делаете хинкали. Вы кладёте кусочек теста на стол и раскатываете по столу, это наш двумерный шар. Кладёте туда кусочек мяса, а после этого заворачиваете хинкали. А как вы их заворачиваете? Так, чтобы точки по краю "сомкнулись" в одну. Произошла факторизация кусочка теста по его границе, и получилась сфера. Также работает и в многомерном пространстве - шар в n-мерном пространстве, склеенный по его границе, переходит в границу шара n+1 размерности.
P.S. Критика, вопросы и комментарии приветствуются
P.P.S. Топология прекрасна тем, что даёт математический аппарат в тех вещах, которые раньше я представлял только визуально/интуитивно. Например, если мы считаем, что без изменений среды, в которой стоят роутер и устройство, мы можем применять линейную интерполяцию между соседними CSI-матрицами, то мы предполагаем выпуклость множества возможных матриц. А если мы хотим сконструировать признаки, вытаскивающие уникальные свойства путей переотражения, то мы должны сделать их независимыми от расстояния между устройствами, то есть независимыми от домножения на число. Получается, что топология CSI матриц, профакторизованная по этому соотношению, локально ведёт себя схоже со сферой!
👏14🤡3🤯2💩2🔥1
Интересно, а если зачать ребёнка в офисе Яндекса, он получит пожизненный яндекс.плюс, или там станцию бесплатную?
🤡29😁9🤩2🤮21
🔥27👍21💩1🤡1
Меня накрыл какой-то тильт в плане хождения на пары. На большей части из них я чувствую что просто время впустую трачу. Единственные реально интересные пары это топология, на все 100%, дискран и матан на 50%, и все.. Теорвер тоже думаю будет таким, но не сейчас (хотя благодаря изучению оптов я уже немалую часть modern/полезных вещей в теорвере знаю). Короче тильт)
🔥23😢4🤡31🥴1
До 15 марта открыт приём заявок на стажировку центра когнитивного моделирования МФТИ. Как я понял, они занимаются всяким продвинутым RL для нейронных сетей и не только.
https://cogmodel-mipt.ru/internship
😍6🤮4👍2💩21
Сейчас вайб просто поехать в другой город на эти выходные спонтанно. Кто со мной?
🔥18👍2💩2👎1🤡1
🔥33💩5🤡2