Конспект курса ШАД по теории глубинного обучения.
В конспекте рассматриваются следующие темы:
— Инициализация нейронных сетей
(кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?);
— Поверхность функции потерь
(почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?);
— Обобщающая способность
(почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?);
— NTK-теория
(какова связь нейронных сетей с ядровыми методами и что она даёт?).
https://arxiv.org/abs/2012.05760
В конспекте рассматриваются следующие темы:
— Инициализация нейронных сетей
(кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?);
— Поверхность функции потерь
(почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?);
— Обобщающая способность
(почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?);
— NTK-теория
(какова связь нейронных сетей с ядровыми методами и что она даёт?).
https://arxiv.org/abs/2012.05760
Инструменты для парсинга сайтов: расширения для браузеров, облачные сервисы и библиотеки
https://bit.ly/3jv1aSW
https://bit.ly/3jv1aSW
JavaScript плагины в открытом доступе для звуковых эффектов, работы с текстом и поиска ошибок в коде
https://bit.ly/3mc4MMN
https://bit.ly/3mc4MMN
Книга Нассима Талеба "Статистические последствия тяжелых хвостов: преасимптотика, эпистемология и приложения" на Arxiv-е
https://bit.ly/3xRhrXB
https://bit.ly/3xRhrXB
П. Брюс, Э. Брюс «Практическая статистика для специалистов Data Science»: данная книга подойдет тем, кто уже имеет начальные знания в статистике
https://bit.ly/3mr9mqi
https://bit.ly/3mr9mqi