Fine-Tune Wav2Vec2 for English ASR with 🤗 Transformers
https://huggingface.co/blog/fine-tune-wav2vec2-english
https://huggingface.co/blog/fine-tune-wav2vec2-english
huggingface.co
Fine-Tune Wav2Vec2 for English ASR in Hugging Face with 🤗 Transformers
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
The Partnership: Amazon SageMaker and Hugging Face
https://huggingface.co/blog/the-partnership-amazon-sagemaker-and-hugging-face
https://huggingface.co/blog/the-partnership-amazon-sagemaker-and-hugging-face
huggingface.co
The Partnership: Amazon SageMaker and Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Forwarded from Small Data Science for Russian Adventurers
#обзор
Куча полезных ссылок по т.н. эквивариантным сетям.
https://github.com/Chen-Cai-OSU/awesome-equivariant-network
Куча полезных ссылок по т.н. эквивариантным сетям.
https://github.com/Chen-Cai-OSU/awesome-equivariant-network
GitHub
GitHub - Chen-Cai-OSU/awesome-equivariant-network: Paper list for equivariant neural network
Paper list for equivariant neural network. Contribute to Chen-Cai-OSU/awesome-equivariant-network development by creating an account on GitHub.
Forwarded from DL in NLP (nlpcontroller_bot)
Update Frequently, Update Fast: Retraining Semantic Parsing Systems in a Fraction of Time
Lialin et al. [UMass Lowell, Google]
https://arxiv.org/abs/2010.07865
Основная NLU компонена Google Assistant, Alexa и других ассистентов – это модель семантического парсинга, которая переводит фразы на естественном языке в команды. В проде, датасеты для таких систем часто обновляются. Например, в редкие интенты/слоты могут докинуть примеров. Но при каждой такой итерации приходится перетренировывать модель, что может занимать недели.
В этой статье предлагается использовать continual learning для решения этой проблемы. Вместо того, чтоы каждый раз учить новую модель, старая фантюнится немного хитрым методом. Главная сложность заключается в том, чтобы модель не потеряла в качестве на старом датасете. Для этого используется комбинация двух простых методов: sampling из старых данных и специальный вид регуляризации – EWC.
Экспериенты показывают, что такой простой подход позволяет сократить время на тренировку иногда в десятки раз, при этом качество финальной модели выходит такое же, как если бы она тренировалась с нуля.
Lialin et al. [UMass Lowell, Google]
https://arxiv.org/abs/2010.07865
Основная NLU компонена Google Assistant, Alexa и других ассистентов – это модель семантического парсинга, которая переводит фразы на естественном языке в команды. В проде, датасеты для таких систем часто обновляются. Например, в редкие интенты/слоты могут докинуть примеров. Но при каждой такой итерации приходится перетренировывать модель, что может занимать недели.
В этой статье предлагается использовать continual learning для решения этой проблемы. Вместо того, чтоы каждый раз учить новую модель, старая фантюнится немного хитрым методом. Главная сложность заключается в том, чтобы модель не потеряла в качестве на старом датасете. Для этого используется комбинация двух простых методов: sampling из старых данных и специальный вид регуляризации – EWC.
Экспериенты показывают, что такой простой подход позволяет сократить время на тренировку иногда в десятки раз, при этом качество финальной модели выходит такое же, как если бы она тренировалась с нуля.
Forwarded from Data Science News (Andrey)
T-SNE (t-distributed stochastic neighbor embedding) – это техника уменьшения размерности для визуализации данных, которая была опубликована в 2008 году. В отличие от PCA (сохранение максимальной вариативности) и MDS (сохранение расстояний), t-SNE предназначена для анализа кластеризации данных. T-SNE своего рода незаменимый инструмент в разведочном анализе. Основные параметры это perplexity и количество компонент. Если с компонентами всё понятно, то вот с perplexity есть тонкие моменты. Более подробно об этом, с интерактивными примерами, можно посмотреть здесь
Forwarded from Data Science News (Andrey)
Практический курс "введение в статистику и машинное обучение" от Стэнфорда. Регрессия, методы классификации, выборки, SVM, кластеризация, деревья решений. Хорошо и на примерах разобраны такие статистические инструменты как LDA/QDA, PCR, PCA. По каждому разделу есть лабы на R.
Forwarded from Хроники ботки (Aleksei Shestov 𓆏)
AutoML это алгоритмы, которые подбирают алгоритм, параметры и их комбинации специально для конкретного датасета. То есть такая замена дата саентиста. Сбербанк выпустил свой опенсорсный автомл фреймворк на питоне, призываю все пользоваться, шарить и распространять :) Александр Рыжков, Дмитрий Симаков и их коллеги разрабатывают автомл в Сбере, они уже делали доклад в декабре
https://www.youtube.com/watch?v=ci8uqgWFJGg&list=PLYeFZ_T6PUrILcK5rKHlb9PdBp-ySitUN,
а сейчас можно посмотреть участие автомл в каггл соревнование и его выигрыш относительно других автомл
https://www.kaggle.com/alexryzhkov/tps-april-21-lightautoml-starter (не жалейте ваши апвоуты этому ноутбуку на каггле :)
Проект в опенсорсе - https://github.com/sberbank-ai-lab/LightAutoML
И бенчмарки: https://github.com/sberbank-ai-lab/automlbenchmark/tree/lightautoml
https://www.youtube.com/watch?v=ci8uqgWFJGg&list=PLYeFZ_T6PUrILcK5rKHlb9PdBp-ySitUN,
а сейчас можно посмотреть участие автомл в каггл соревнование и его выигрыш относительно других автомл
https://www.kaggle.com/alexryzhkov/tps-april-21-lightautoml-starter (не жалейте ваши апвоуты этому ноутбуку на каггле :)
Проект в опенсорсе - https://github.com/sberbank-ai-lab/LightAutoML
И бенчмарки: https://github.com/sberbank-ai-lab/automlbenchmark/tree/lightautoml
YouTube
Александр Рыжков, Дмитрий Симаков - АвтоМЛ LightAutoML (или коротко LAMA)
LightAutoML (или коротко LAMA) - новая библиотека для автоматизации построения ML моделей. Мы расскажем, для решения каких задач создавался наш LightAutoML, чем он выделяется на фоне конкурентов и какую пользу способен принести пользователям и бизнесу.
…
…
Forwarded from DL in NLP (Vlad Lialin)
Давно у нас не было постов вида "держите кучу ссылок"
1. Applied PyTorch 101 от Abhishek Thakur — самые основы пайторча начиная с тензоров и заканчивая даталоадерами (будут ещё видео). Выглядит неплохо, буду советовать студентам.
1. Language Interpretability Tool — тулза для визуализации и интерпретации трансформеров, кроме этого позволяет анализировать ошибки модели и прочие вещи. Выглядит куда более проработанной чем всё, что я видел раньше (демо, гитхаб)
1. NLP In Video Games — мне очень нравится эта идея в принципе, тк она может позволить упростить какие-то моменты геймдева, но NLP всё-таки ещё сыроват. Несмотря на это можно уже посмотреть на первые попытки что-то такое сделать.
1. What Will it Take to Fix Benchmarking in Natural Language Understanding? — рассуждения на тему того, почему текущие бенчмарки плохи и как делать более хорошие.
1. torchtyping — попытка решить проблему документации шейпов тензоров, а заодно и проверять это всё на лету. Надо будет попробовать.
1. MLOps: жизненный цикл ML-моделей — как известно, обучение моделек это 5% работы, в этом выступлении обсуждают остальные 95%.
1. Why Do Local Methods Solve Nonconvex Problems — современный обзор текущей теории обучения в диплёрнинге или попытки ответить на вопрос почему в нейросетках почти все локальные минимумы близки к глобальному.
1. Applied PyTorch 101 от Abhishek Thakur — самые основы пайторча начиная с тензоров и заканчивая даталоадерами (будут ещё видео). Выглядит неплохо, буду советовать студентам.
1. Language Interpretability Tool — тулза для визуализации и интерпретации трансформеров, кроме этого позволяет анализировать ошибки модели и прочие вещи. Выглядит куда более проработанной чем всё, что я видел раньше (демо, гитхаб)
1. NLP In Video Games — мне очень нравится эта идея в принципе, тк она может позволить упростить какие-то моменты геймдева, но NLP всё-таки ещё сыроват. Несмотря на это можно уже посмотреть на первые попытки что-то такое сделать.
1. What Will it Take to Fix Benchmarking in Natural Language Understanding? — рассуждения на тему того, почему текущие бенчмарки плохи и как делать более хорошие.
1. torchtyping — попытка решить проблему документации шейпов тензоров, а заодно и проверять это всё на лету. Надо будет попробовать.
1. MLOps: жизненный цикл ML-моделей — как известно, обучение моделек это 5% работы, в этом выступлении обсуждают остальные 95%.
1. Why Do Local Methods Solve Nonconvex Problems — современный обзор текущей теории обучения в диплёрнинге или попытки ответить на вопрос почему в нейросетках почти все локальные минимумы близки к глобальному.
YouTube
PyTorch 101: An Applied Tutorial
Tool for visualizing attention in the Transformer model
https://github.com/jessevig/bertviz
https://github.com/jessevig/bertviz
GitHub
GitHub - jessevig/bertviz: BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.)
BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.) - GitHub - jessevig/bertviz: BertViz: Visualize Attention in NLP Models (BERT, GPT2, BART, etc.)
Forwarded from Small Data Science for Russian Adventurers
Bigbookofr
Welcome :)
Forwarded from Хабр Разработка
Тихая революция и новый дикий запад в ComputerVision http://amp.gs/6f7J
Хабр
Тихая революция и новый дикий запад в ComputerVision
Казалось бы, революция с Computer Vision уже была. В 2012 году выстрелили алгоритмы основанные на сверточных нейронных сетях . Года с 2014 они дошли до продакшна, а года с 2016 заполонили все . Но, в...
Forwarded from Parsing Conf
Parsing Conf
—————————————————————————
Дата: 27 апреля
Время: 20-00 по Москве
—————————————————————————
1. @ziflex. "Библиотека ferret. Обзор. Рассказ автора"
2. @Bundleman. "Еще одна архитектура системы мониторинга цен и место библиотеки ferret в ней"
3. @roman_kucev. "Как собрать датасет для аутентификации человека по лицу через Толоку."
Мероприятие бесплатное
Онлайн
—————————————————————————
Дата: 27 апреля
Время: 20-00 по Москве
—————————————————————————
1. @ziflex. "Библиотека ferret. Обзор. Рассказ автора"
2. @Bundleman. "Еще одна архитектура системы мониторинга цен и место библиотеки ferret в ней"
3. @roman_kucev. "Как собрать датасет для аутентификации человека по лицу через Толоку."
Мероприятие бесплатное
Онлайн
Forwarded from DL in NLP (nlpcontroller_bot)
Samsung Innovation Campus - AI Lectorium
youtube.com/playlist?list=PLJEYfuHbcEIB-DdeoWaQ6Bzt0903kbmWK
Внезапно обнаружил много лекций от московского Samsung AI Center. Уроверь скорее advanced и ожидает, что вы уже хорошо знакомы с нейростеками. По большей части лекции ближе по тематике к CV, но есть и более общие темы: например о том, как ускорять инференс и ставить эксперименты. Ещё очень хочу выделить лекцию про GAN, где они рассматриваются достаточно абстрактно и не присязаны сильно к изображениям — получилось просто 🔥.
Кстати у них в конце плейлиста видно запланированную на 28 апреля лекцию по суммаризации текста, так что можно ожидать больше NLP.
youtube.com/playlist?list=PLJEYfuHbcEIB-DdeoWaQ6Bzt0903kbmWK
Внезапно обнаружил много лекций от московского Samsung AI Center. Уроверь скорее advanced и ожидает, что вы уже хорошо знакомы с нейростеками. По большей части лекции ближе по тематике к CV, но есть и более общие темы: например о том, как ускорять инференс и ставить эксперименты. Ещё очень хочу выделить лекцию про GAN, где они рассматриваются достаточно абстрактно и не присязаны сильно к изображениям — получилось просто 🔥.
Кстати у них в конце плейлиста видно запланированную на 28 апреля лекцию по суммаризации текста, так что можно ожидать больше NLP.
Постеры с PYTORCH ECOSYSTEM DAY 2021
https://pytorch.org/ecosystem/pted/2021
https://pytorch.org/ecosystem/pted/2021
PyTorch
Ecosystem Day 2021
Обнаружение объектов с помощью YOLO и Weights & Biases
https://wandb.ai/authors/sat_2/reports/-YOLO-Weights-Biases--Vmlldzo3MTIyNTE
https://wandb.ai/authors/sat_2/reports/-YOLO-Weights-Biases--Vmlldzo3MTIyNTE
W&B
Обнаружение объектов с помощью YOLO и Weights & Biases
W&B интегрирован с YOLOv5. Вот что вам нужно знать: от визуализации наборов данных до регистрации прогресса обучения в режиме реального времени, до возобновления аварийных запусков на любом устройстве:.
Курс от Hugging Face о том, как пользоваться их либой и экосистемой в целом
https://huggingface.co/course/chapter1
https://huggingface.co/course/chapter1
huggingface.co
Introduction - Hugging Face LLM Course
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
8 июля пройдет пятый ежегодный международный саммит Machines Can See, который организует компания VisionLabs. Он объединит ведущих мировых специалистов в сфере компьютерного зрения и машинного обучения для обсуждения технологических трендов и обмена опытом.
В этом году главной темой мероприятия стали human-centric технологии, спикерами научного трека саммита выступят:
- Дима Дамен, Бристольский университет
- Доктор Эфстратиос Гаввес, Амстердамский университет
- Бернард Ганем, научно-технологический университет имени короля Абдаллы
- Ира Кемельмахер-Шлизерман, Вашингтонский университет; UW Reality Lab; Google
- Крис Китани, университет Карнеги-Меллона
Также все желающие смогут принять участие в международном онлайн-соревновании и идеатоне.
Саммит впервые пройдет в гибридном формате: офлайн и онлайн. В Москве участники встретятся на площадке Omega Rooftop. Для онлайн-зрителей будет доступна прямая трансляция и возможность задать спикерам вопросы в чате.
Участие бесплатное, зарегистрироваться и выбрать удобный формат участия можно на сайте machinescansee.com
В этом году главной темой мероприятия стали human-centric технологии, спикерами научного трека саммита выступят:
- Дима Дамен, Бристольский университет
- Доктор Эфстратиос Гаввес, Амстердамский университет
- Бернард Ганем, научно-технологический университет имени короля Абдаллы
- Ира Кемельмахер-Шлизерман, Вашингтонский университет; UW Reality Lab; Google
- Крис Китани, университет Карнеги-Меллона
Также все желающие смогут принять участие в международном онлайн-соревновании и идеатоне.
Саммит впервые пройдет в гибридном формате: офлайн и онлайн. В Москве участники встретятся на площадке Omega Rooftop. Для онлайн-зрителей будет доступна прямая трансляция и возможность задать спикерам вопросы в чате.
Участие бесплатное, зарегистрироваться и выбрать удобный формат участия можно на сайте machinescansee.com