finitely presented – Telegram
😐2🐳1
Уже завтра стартует 3rd Workshop on Topological Methods in Data Analysis

This three-day workshop includes introductions into the powerful data analysis machinery of persistent homology and to machine learning techniques. A particular focus is laid on synergies between TDA and machine learning, where fruitful applications have been recently emerging. In addition, participants will have the opportunity to give short presentations on their own TDA-related work.

https://tda.mathi.uni-heidelberg.de/
🍌2👍1
Если кто-то вдруг не знал, то уже больше года я со своими друзьями делаю в Воронеже какую-то математическую активность. В прошлом году мы делали семинары и всякие доклады, а неделю назад к нам приехал Андрей Рябичев и рассказал всякие приколы из маломерной топологии.
В общем, вышло классно.

https://vk.com/mathdeath?w=wall-177384512_362
👍3❤‍🔥1
Сегодня буду делать доклад про Римановы многообразия на Гейдельбергском семинаре по Riemannian Geometric Statistics. В прошлый раз, год назад, на похожем семинаре я рассказывал про UMAP, это кажется был мой первый доклад на английском, да и один из первых вообще, который прошел довольно неплохо.

Посмотрим, как получится в этот раз (я почти ничего про Римановы многообразия не знаю, и презентацию еще не сделал 🫣)
👏21
Ну в общем как-то рассказал, вышло в целом неплохо, правда по ощущению я просто протататорил свои слайды, особенно в начале. Замедлился только в конце, потому что в конце некоторые вещи я так и не разобрал до конца. Честно говорил о том, что не понимаю какие-то вещи, и тогда я получал разъясняющие комментарии, но за исключением этого, никто ничего не говорил 😫
👍4😢2🏆1
Forwarded from космостас
Итак, обещал рассказать про участие в соревновании вместе с @snop_off

📎 Задача была от Иннополиса. Необходимы было предсказать класс урожайности(культуру), исходя о данных об индексе NDVI за сезон, а также используя данные о географии полей.

🎉 Призы получали первые 15 участников, мы вытянули на паблик лидерборде 20 место, нам совсем чуть-чуть оставалось до 15-шки, однако мы не использовали грамотную кросс-валидацию для составления прогнозов и улетели на привате на 52-53 места соответственно. Всего участников было 236.

В целом результат достойный, что на привате, что на паблике, однако мы могли бы выступить лучше, поэтому вынесли несколько уроков.

На этом мы не закончили, разгребем дела и в следующем сезоне попробуем пофармить чемпионаты по ML 💪
🔥6
космостас
Итак, обещал рассказать про участие в соревновании вместе с @snop_off 📎 Задача была от Иннополиса. Необходимы было предсказать класс урожайности(культуру), исходя о данных об индексе NDVI за сезон, а также используя данные о географии полей. 🎉 Призы получали…
На самом деле, мы очень поздно начали — за неделю до конца соревнования.
Я успел попробовать поделать различные топологические признаки из устойчивых гомологий, но, не успел настроить для них поиск параметров. Впрочем, многое, не успели сделать, но зато получили хороший опыт (а я еще и узнал про разные современные приколы типо Optuna) 😮‍💨😶‍🌫️
🔥3
Если вы вдруг хотели прослушать курс по алгебраической топологии (например, чтобы вкатиться в топологический анализ данных 😋), the electronic Computational Homotopy Theory (eCHT) online research community устроит в весеннем семестре бесплатный онлайн-курс по 2 и 3 главе Хатчера.

In Winter 2023, we will offer an online graduate course on introductory algebraic topology. This course could be well-suited to some students, especially if their institutions are not offering introductory algebraic topology this year. Our target audience includes first-year PhD students with interests in algebra, geometry, or topology; and masters students who are preparing to enter a PhD program soon. We are also open to enrolling advanced undergraduate students under certain circumstances.

Курс начнется 18 января и будет идти до мая, домашки и всякие проекты are included 🤓

https://s.wayne.edu/echt/echt-courses/algebraic-topology-homology-and-cohomology-winter-2023/

UPD: а еще там есть курс по К-теории, также в весеннем семестре
👍4
Я тут наткнулся на литералли гем среди мешапов — Exetra Beatz. Его старые мешапы мне не зашли, но то, что он сейчас делает, прям огонь. В рамках санкций от музыкальных лейблов, это должно быть на всех площадках, но пока это только на саундклауде
Объективный и неподкупный список лучших ремиксов следующий:
- Luciano & CIVO — Verliebt
- Pashanim & Dante YN — Switch Lanes
- Luciano & Centrall Cee — Pain
- Makko & T-low — Nachts wach
- Pashanim & Luciano — Tbh
Forwarded from ML-легушька (Николай Кутузов)
👍3😁1🤬1
4
В декабре я успешно сдал курс Математика больших данных. Нужно было либо решить всякие стохастические задачки, либо сделать проект. Я выбрал второе, и сейчас я про это расскажу.

Проект заключался в реализации алгоритма малорангового восстановления матрицы. Вообще, это довольно полезная штука: например, чтобы Кинопоиск мог предложить вам какой-то фильм, ему нужно знать, как вы оценивали другие, уже просмотренные фильмы. Из оценок можно сформировать матрицу (пользователи, фильмы), где на пересечении строки с пользователем A и фильмом B будет стоять оценка, которую пользователь A выставил фильму B. Это будет очень большая и жутко разреженная матрица, ведь каждый пользователь мог просмотреть лишь малое число от всех фильмов, которые есть у Кинопоиска.
Ну вот, если вдруг мы хотим предлагать пользователю какие-то фильмы, которые ему наверное понравятся, нам бы хотелось заранее знать, какую оценку он мог бы поставить фильму, который он еще не смотрел. Но как это сделать?

Хорошая новость заключается в том, что, хоть матрица (пользователи, фильмы) и большая, но скорее всего она малоранговая: вероятно, существует какой-то небольшой набор фильмов, оценки которых будут давать оценки всем другим фильмам. Как это понимать?
Об этом можно думать так: все фильмы можно разбить по жанрам: детективы, комедии, хорроры. Если пользователю A нравятся детективы (например, всем просмотренным детективам он выставил высокую оценку), но не нравятся хорроры (аналогично, всем просмотренным хоррорам он выставил низкую оценку), то вполне вероятно, что какому-то другому детективу он также выставит высокую оценку, а значит и предлагать ему надо какой-то детектив. В этом и заключается малоранговость матрицы (пользователи, фильмы): можно найти небольшое число фильмов (скажем, по одному ключевому фильму в каждом жанре), пользовательские оценки которых будут определять оценки других фильмов.

Допустим, это так. Выходит, чтобы приблизить нашу исходную матрицу (пользователи, фильмы), нам нужно искать среди матриц такого же размера, но у которых маленький ранг (например, ранг k). Это как-то облегчает нашу участь? О да: множество матриц фиксированного размера и фиксированного ранга, на самом деле, являются гладким многообразием! Более того, оно погружено в Евклидово пространство, а значит можно наследовать риманову метрику с объемлющего пространства на наше многообразие. А тогда мы можем заниматься всякой гладкой оптимизацией, ведь у нас теперь есть возможность посчитать градиент.

Рассмотрим такую функцию f(index; A) = A[index], которая по заданным индексам и матрице возвращает значения матрицы в этих индексах. Пусть index будет теперь означать индексы исходной матрицы (пользователи, фильмы), в которых стоят оценки. Тогда, можно рассмотреть квадратичную функцию ошибки на многообразии матриц фиксированного ранга:
(f(index; (пользователи, фильмы)) - f(index; A))**2
Ее мы можем минимизировать тем же градиентным спуском, и тогда мы получим приближение нашей исходной матрицы. То есть у нас получится найти такую матрицу A, у которой на пересечении известных оценок будут, собственно, эти самые оценки, а для тех фильмов, оценки которых мы еще не знаем, мы получим какое-то приближение.
Но мы ведь этого и хотели! Теперь мы примерно знаем, что конкретный пользователь может поставить фильму, который он еще не смотрел — надо просто глянуть на нужную ячейку в матрице A. Ну и дальше уже думать, предлагать ли фильм или нет.

Вообщем, просмотреть все детали и код можно в этой тетрадке.
👍4🔥21
Биг бой 🤓
3🔥3🥴1
Я тут решил устроить reading seminar по geometric deep learning: хоть книга и небольшая, читать ее вместе полезнее и веселее.
Если это еще кого-то заинтересовала, то ссылочка вот.
👍31🤡1
Что за лев этот тигр 😮‍💨😮‍💨

Кстати его статья Topology of deep neural networks на самом деле оч крутая: оказывается, когда fully-connected нейроночка пытается отличить, скажем, кошечек от собачек на картинке, то она упрощает топологию пространства картинок с кошечками и пространства картинок с собачками до такой степени, что эти два пространства легко друг от друга отделить, хоть и сперва эти два пространства могли быть очень сложно устроены. Во дела 😲🤓
🔥1🌭1
Forwarded from Empty Set of Ideas
https://oimo.io/works/life/

Можно позумить бесконечную игру жизнь в игре жизнь в игре жизнь...

Забавно, конечно, достаточно легкого изменения на одном из уровней, чтобы все последующие обратились в прах, а предыдущие остались сохранны
🔥2🐳2
🤭😁🤭😁🤭
5❤‍🔥1
Я слева 👹
👍8
А я тем временем сдавал TOEFL, удалось набрать 99/120 баллов 🤨

Экзамен длился почти 4 часа, и уж точно не был самым простым. Но и сложным, в общем, назвать его было бы неправильным.

Я хотел набрать 100 баллов, но не хватило совсем чуть-чуть. Меньше всего набрал в Speaking, может быть, мой плохой встроенный в ноутбук микрофон подвел меня, может быть заветный 1 балл я бы добрал, будь микрофон получше. А может и нет.

Но и 99 баллов — это тоже неплохой результат, учитывая, что я почти не готовился к тесту. Я писал тест 20 марта, регистрировался на него 18 марта, и времени на подготовку толком и не было. Все, что я в итоге сделал — это прослушал курс TOEFL: Test Preparation на edX, который дал мне представление о структуре экзамена.

В общем, первый опыт сдачи международного экзамена оказался неплохим
🔥10👍3