Успейте стать лучшим специалистом по распределенным данным, чтобы претендовать на работу с Big Data в крупнейших IT-компаниях.
Займите сейчас место на онлайн-курсе «Промышленный ML на больших данных». За 5 месяцев вы на практике освоите все необходимые знания из областей Data Science и Data Engineer.
Пройдите вступительный тест, чтобы присоединиться к группе https://otus.pw/YFiw/
Это промо пост
Займите сейчас место на онлайн-курсе «Промышленный ML на больших данных». За 5 месяцев вы на практике освоите все необходимые знания из областей Data Science и Data Engineer.
Пройдите вступительный тест, чтобы присоединиться к группе https://otus.pw/YFiw/
Это промо пост
#top@datamining.team
ТОП 5 постов за июль
1. Гайд: как перебрать строки в Pandas DataFrame в 280 раз быстрее
https://bit.ly/3i0aMFC
2. Опыт собеседования Data Scientist в Uber
https://bit.ly/3rr0KQY
3. Получение котировок акций с помощью Python
https://habr.com/ru/post/487644/
4. Парень измерил свой пульс во время защиты диссертации.
https://redd.it/ntvmey
5. Гайд, как ускорить исполнение программы в 30 раз на Python
https://bit.ly/3B4OYAi
ТОП 5 постов за июль
1. Гайд: как перебрать строки в Pandas DataFrame в 280 раз быстрее
https://bit.ly/3i0aMFC
2. Опыт собеседования Data Scientist в Uber
https://bit.ly/3rr0KQY
3. Получение котировок акций с помощью Python
https://habr.com/ru/post/487644/
4. Парень измерил свой пульс во время защиты диссертации.
https://redd.it/ntvmey
5. Гайд, как ускорить исполнение программы в 30 раз на Python
https://bit.ly/3B4OYAi
Конспект курса ШАД по теории глубинного обучения.
В конспекте рассматриваются следующие темы:
— Инициализация нейронных сетей
(кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?);
— Поверхность функции потерь
(почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?);
— Обобщающая способность
(почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?);
— NTK-теория
(какова связь нейронных сетей с ядровыми методами и что она даёт?).
https://arxiv.org/abs/2012.05760
В конспекте рассматриваются следующие темы:
— Инициализация нейронных сетей
(кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?);
— Поверхность функции потерь
(почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?);
— Обобщающая способность
(почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?);
— NTK-теория
(какова связь нейронных сетей с ядровыми методами и что она даёт?).
https://arxiv.org/abs/2012.05760