Machine Learning Research – Telegram
Machine Learning Research
954 subscribers
61 photos
7 videos
2 files
1.05K links
Download Telegram
Как начинающему Data Engineer повысить свою эффективность? Начните прокачивать навыки 12 ноября с демо-занятия «Знакомство с Ni-Fi». Вместе с Егором Матешуком вы рассмотрите Ni-Fi и роль data ingestion инструментов в целом при построении систем обработки данных. Решите простую задачку по построению пайплайна для загрузки файлов в хранилище данных с использованием Ni-Fi.

Демо-урок входит в программу онлайн-курса «Data Engineer». Для записи на вебинар, пройдите вступительный тест https://otus.pw/SUl7/
Yandex.Cloud и AI Community впервые запускает онлайн-соревнование по анализу данных Yet Another Data Challenge. https://bit.ly/3mcgCmj

Развиваешься в ML-разработке и Data Science?
Новичок или есть опыт в Python?
Регистрируйся - участвуй - выигрывай призы!

Этот конкурс для тебя, если тебе интересно:
🟡 проверить свои навыки и получить опыт решения интересной задачи по генеративному ML;
🟡 пообщаться с опытными экспертами из Yandex.Cloud в чате и на вебинарах соревнования;
🟡 создать свою первую генеративную мелодию;
🟡 предложить идею по развитию первой отечественной среды для разработки ML, помогающей быстрее и дешевле создавать ML-решения;

Призы конкурса:
🏆 1 место: MacBook Air 13 дюймов, 512 Гб + грант на DataSphere 150 000 руб;
🏆 2 место: Apple iPhone 12 Pro 6,1 дюйма + грант на DataSphere 100 000 руб;
🏆 3 место: Apple Watch Series 6 размер + грант на DataSphere 50 000 руб;

🏆 Топ-10 участников - награждаются Yandex Станцией Мини;
🏆 200 активных участников получают футболки Yandex.Cloud.

https://bit.ly/3mcgCmj
💥Регистрируйся и участвуй!
Онлайн-конкурс по анализу данных Yet Another Data Challenge
https://bit.ly/3mcgCmj
#книга
Сергей Иванов (один из моих лучших аспирантов) написал очень симпатичный конспект по теме "Обучение с подкреплением". Вроде как на русском языке это самое полное и интересное издание на эту тему:
https://github.com/FortsAndMills/RL-Theory-book/
#образование
Хороший курс для начинающих по DL:
“Методы обработки и анализа больших данных”
(читался для МИЭТ). Автор - доктор технических наук Роман Соловьёв, известен на Kaggle под ником ZFTurbo (победами на кегле и на других платформах). Очень приятно читает, все лекции продуманы, примеры из своей практики. Правда, курс маленький и не все темы раскрыты достаточно подробно. Где-то, наверное, есть ещё ноутбуки автора (примеры показанные на лекции очень хорошо написаны).
https://youtube.com/playlist?list=PLMyPRULSXkaWaJrQOWCBw0nVVVydPsPPj
Forwarded from DL in NLP (nlpcontroller_bot)
Наткнулся на мини-библиотеку для машинного перевода.
Всё, что она умеет, это использовать несколько предобученных моделей, но в этой простоте и вся красота. Поддерживается более 150 языков, включая русский, также есть автодетекция языка. Делает всё локально и позволяет выбирать между несколькими моделями и тюнить beam size.

Для установки: pip install easynmt

Для использования:

from easynmt import EasyNMT 
model = EasyNMT('opus-mt')
model.translate('переведи мне это предложение', target_lang='en')
Forwarded from Gradient Dude
#beginners_guide
Learn About Transformers: A Recipe

A blogpost summarizing key study material to learn about the Transformer models (theory + code).
Tasty!
Forwarded from Maša Ponomareva
Привет!
Посмотрите на картинку, на ней семантический скетч глагола. Сможете догадаться, какого? Семантический скетч отражает сочетаемость слова в корпусе, для человека хорошо построенные скетчи являются вполне репрезентативными, а так ли это для машины? Мы приглашаем вас поучаствовать в дорожке Диалога (да, их в этом году очень много), которая называется SemSketches. В рамках дорожки участникам предстоит угадывать по слову в контексте, к какому семантическому скетчу оно относится. Задача экспериментальная и новая, большая свобода для идей и интересные данные. Очень ждем участников!

Чат в телеграме
Гитхаб соревнования (подробности, данные, таймлайн там)
Forwarded from DL in NLP (nlpcontroller_bot)
Update Frequently, Update Fast: Retraining Semantic Parsing Systems in a Fraction of Time
Lialin et al. [UMass Lowell, Google]
https://arxiv.org/abs/2010.07865

Основная NLU компонена Google Assistant, Alexa и других ассистентов – это модель семантического парсинга, которая переводит фразы на естественном языке в команды. В проде, датасеты для таких систем часто обновляются. Например, в редкие интенты/слоты могут докинуть примеров. Но при каждой такой итерации приходится перетренировывать модель, что может занимать недели.

В этой статье предлагается использовать continual learning для решения этой проблемы. Вместо того, чтоы каждый раз учить новую модель, старая фантюнится немного хитрым методом. Главная сложность заключается в том, чтобы модель не потеряла в качестве на старом датасете. Для этого используется комбинация двух простых методов: sampling из старых данных и специальный вид регуляризации – EWC.

Экспериенты показывают, что такой простой подход позволяет сократить время на тренировку иногда в десятки раз, при этом качество финальной модели выходит такое же, как если бы она тренировалась с нуля.
Forwarded from Data Science News (Andrey)
T-SNE (t-distributed stochastic neighbor embedding) – это техника уменьшения размерности для визуализации данных, которая была опубликована в 2008 году. В отличие от PCA (сохранение максимальной вариативности) и MDS (сохранение расстояний), t-SNE предназначена для анализа кластеризации данных. T-SNE своего рода незаменимый инструмент в разведочном анализе. Основные параметры это perplexity и количество компонент. Если с компонентами всё понятно, то вот с perplexity есть тонкие моменты. Более подробно об этом, с интерактивными примерами, можно посмотреть здесь
Forwarded from Data Science News (Andrey)
Практический курс "введение в статистику и машинное обучение" от Стэнфорда. Регрессия, методы классификации, выборки, SVM, кластеризация, деревья решений. Хорошо и на примерах разобраны такие статистические инструменты как LDA/QDA, PCR, PCA. По каждому разделу есть лабы на R.