Forwarded from Iva
Запись вебинара с Ильей Куликовым на ютубе.
YouTube
Обучение и декодирование с авторегрессионными нейронными языковыми моделями. Илья Куликов
Нейронные авторегрессионные языковые модели представляют собой стандартный подход при решении многих задач обработки естественного языка таких как машинный перевод или моделирование диалога. В данном подходе моделирования последовательностей существуют неизбежные…
Завтра, 11 мая в 15:00 по Москве, состоится вебинар
"Избыточный риск стабильных обучающих алгоритмов".
Спикер: Егор Клочков, Кембриджский Университет, Кембридж, Великобритания.
Егор о вебинаре
Наиболее точные из известных оценок обобщения с высокой вероятностью для равномерно устойчивых алгоритмов (Фельдман, Вондрак, NeurIPS 2018, COLT, 2019), (Буске, Клочков, Животовский, COLT, 2020) содержат неизбежный член ошибки выборки порядка Θ (1 / √n). Применительно к оценкам избыточного риска это приводит к неоптимальным результатам в нескольких стандартных задачах выпуклой оптимизации. Мы поговорим о том как этого члена можно избежать, если выполняется так называемое условие Бернштейна, и оценки избыточного риска порядка O (1 / n) станут возможны благодаря равномерной устойчивости. Используя этот результат, мы покажем оценки избыточного риска порядка O (log n / n) для сильно выпуклых и липшицевых потерь, действительную для любого эмпирического метода минимизации риска. Это решает вопрос поставленный Шалев-Шварцем, Шамиром, Сребро и Шридхарана (COLT, 2009). Доклад основан на совместной работе с Никитой Животовским и Оливье Буске.
➡️Регистрация
"Избыточный риск стабильных обучающих алгоритмов".
Спикер: Егор Клочков, Кембриджский Университет, Кембридж, Великобритания.
Егор о вебинаре
Наиболее точные из известных оценок обобщения с высокой вероятностью для равномерно устойчивых алгоритмов (Фельдман, Вондрак, NeurIPS 2018, COLT, 2019), (Буске, Клочков, Животовский, COLT, 2020) содержат неизбежный член ошибки выборки порядка Θ (1 / √n). Применительно к оценкам избыточного риска это приводит к неоптимальным результатам в нескольких стандартных задачах выпуклой оптимизации. Мы поговорим о том как этого члена можно избежать, если выполняется так называемое условие Бернштейна, и оценки избыточного риска порядка O (1 / n) станут возможны благодаря равномерной устойчивости. Используя этот результат, мы покажем оценки избыточного риска порядка O (log n / n) для сильно выпуклых и липшицевых потерь, действительную для любого эмпирического метода минимизации риска. Это решает вопрос поставленный Шалев-Шварцем, Шамиром, Сребро и Шридхарана (COLT, 2009). Доклад основан на совместной работе с Никитой Животовским и Оливье Буске.
➡️Регистрация
Pro AI
Завтра, 11 мая в 15:00 по Москве, состоится вебинар "Избыточный риск стабильных обучающих алгоритмов". Спикер: Егор Клочков, Кембриджский Университет, Кембридж, Великобритания. Егор о вебинаре Наиболее точные из известных оценок обобщения с высокой вероятностью…
Все знают, что SVM придумал Владимир Вапник с коллегами. Меньше людей знает, что Вапник основными своими работами считает работы по статистической теории машинного обучения. Как раз ее традиционно много критиковали за то, что оценки скорости сходимости алгоритмов, которые она дает, заметно медленнее, чем они на самом деле сходятся. Еще меньше людей знают, что в последние несколько лет происходит быстрое продвижение в этой области, и новые оценки скорости сходимости намного интереснее. Наверное, самые интересные оценки скорости сходимости получены в последнее время Егором Клочковым из Кембриджа, который и будет про это рассказывать на очередном вебинаре НТР и Высшей ИТ-школы ТГУ сегодня, 11 мая, в 15:00 МСК.
Регистрация на вебинар тут.
Регистрация на вебинар тут.
Для тех, кто вчера не смог присоединиться к вебинару, уже выложили запись выступления Егора Клочкова на youtube. :)
YouTube
Избыточный риск стабильных обучающих алгоритмов. Егор Клочков
Наиболее точные из известных оценок обобщения с высокой вероятностью для равномерно устойчивых алгоритмов (Фельдман, Вондрак, NeurIPS 2018, COLT, 2019), (Буске, Клочков, Животовский, COLT, 2020) содержат неизбежный член ошибки выборки порядка Θ (1 / √n).…
🔥18 мая Дмитрий Ветров из НИУ ВШЭ выступит со второй частью доклада и расскажет о перспективах ансамблирования нейросетей. Начало в 14:00 по Москве.
Дмитрий о вебинаре
Во второй части доклада мы поговорим о том, что может являться причиной разрыва между предсказаниями теории и эмпирически наблюдаемыми результатами. Затем мы обсудим различные подходы к ансамблированию нейронных сетей и сравним их с точки зрения качества оценки неопределенности собственного прогноза. В заключении мы обсудим интересные закономерности, возникающие в попытке ответить на вопрос что лучше - обучить одну большую или много маленьких нейросетей.
➡️Регистрация.
Напомню, что в апреле Дмитрий выступил у нас с темой "Необычные свойства функции потерь в глубинном обучении". Освежить в памяти содержание доклада можно здесь :)
Дмитрий о вебинаре
Во второй части доклада мы поговорим о том, что может являться причиной разрыва между предсказаниями теории и эмпирически наблюдаемыми результатами. Затем мы обсудим различные подходы к ансамблированию нейронных сетей и сравним их с точки зрения качества оценки неопределенности собственного прогноза. В заключении мы обсудим интересные закономерности, возникающие в попытке ответить на вопрос что лучше - обучить одну большую или много маленьких нейросетей.
➡️Регистрация.
Напомню, что в апреле Дмитрий выступил у нас с темой "Необычные свойства функции потерь в глубинном обучении". Освежить в памяти содержание доклада можно здесь :)
Запись вебинара с Дмитрием Ветровым о перспективах ансамблирования нейросетей.
YouTube
Перспективы ансамблирования нейросетей, Дмитрий Ветров, НИУ ВШЭ. 2 часть
Во второй части доклада мы поговорим о том, что может являться причиной разрыва между предсказаниями теории и эмпирически наблюдаемыми результатами. Затем мы обсудим различные подходы к ансамблированию нейронных сетей и сравним их с точки зрения качества…
А сегодня в 13:00 (МСК) Марина Фомичева из Университета Шеффилда в Великобритании расскажет о автоматической оценке качества машинного перевода без использования реферальных значений.
Марина о вебинаре
Большинство современных подходов к автоматической оценке систем генерации естественного языка (NLG) рассматривают оцениваемую модель как черный ящик. В этом выступлении я представлю альтернативный подход, в котором мы заглядывает внутрь модели, чтобы получить представление о качестве сгенерированных выходных данных, на примере нейронного машинного перевода (MT). Благодаря использованию последних достижений в области оценки неопределенности для нейронных сетей, мы предлагаем метод, который не требует дополнительных ресурсов или данных для обучения и в то же время обеспечивает точность, сопоставимую со специализированными системами оценки качества перевода.
➡️Регистрация
Марина о вебинаре
Большинство современных подходов к автоматической оценке систем генерации естественного языка (NLG) рассматривают оцениваемую модель как черный ящик. В этом выступлении я представлю альтернативный подход, в котором мы заглядывает внутрь модели, чтобы получить представление о качестве сгенерированных выходных данных, на примере нейронного машинного перевода (MT). Благодаря использованию последних достижений в области оценки неопределенности для нейронных сетей, мы предлагаем метод, который не требует дополнительных ресурсов или данных для обучения и в то же время обеспечивает точность, сопоставимую со специализированными системами оценки качества перевода.
➡️Регистрация
Zoom Video
Welcome! You are invited to join a webinar: Автоматическая оценка качества машинного перевода без использования реферальных значений.…
Спикер: Марина Фомичева, Университет Шеффилда, Шеффилд, Великобритания
Вебинар от 25 мая с Мариной Фомичевой уже на ютуб.
YouTube
Автоматическая оценка качества машинного перевода без использования реферальных значений
Спикер: Марина Фомичева, Университет Шеффилда, Шеффилд, Великобритания
О вебинаре
Большинство современных подходов к автоматической оценке систем генерации естественного языка (NLG) рассматривают оцениваемую модель как черный ящик. В этом выступлении Марина…
О вебинаре
Большинство современных подходов к автоматической оценке систем генерации естественного языка (NLG) рассматривают оцениваемую модель как черный ящик. В этом выступлении Марина…
29 апреля 2020 года НТР и Высшая IT-школа ТГУ провели первый научно-технический вебинар. Первые вебинары имели формат закрытого мероприятия, который позволял спикерам рассказывать про свои успехи в профессиональной деятельности перед небольшой аудиторией слушателей.
26 мая 2020 года НТР впервые опубликовала вебинар в открытом доступе. С этого момента мы стали приглашать спикеров с разных уголков планеты, которые готовы рассказать о своей работе перед большим количеством слушателей.
Сегодня мы хотим показать краткую статистику за год.
✅29 вебинаров
✅30 спикеров
✅15 спикеров проживают в России
✅9 спикеров из Северной Америки, 6 - из Европы
✅500 зарегистрировавшихся слушателей
✅около 200 подписчиков в Telegram-канале и около 150 в YouTube-канале
✅Дмитрий Ветров - самый популярный спикер по количеству слушателей вебинара и зрителям YouTube-канала. На первый вебинар Дмитрия “Необычные свойства функции потерь в глубинном обучении” 13.04.21 подключилось 100 слушателей. А запись вебинара на YouTube просмотрело более 600 пользователей за 1 месяц.
✅Национальный политехнический институт г.Мехико и Томский Государственный Университет - самые популярные ВУЗы среди спикеров.
✅НТР - самая популярная компания среди спикеров.
Мы благодарим всех причастных: организаторов, спикеров и слушателей. Двигаемся дальше!
26 мая 2020 года НТР впервые опубликовала вебинар в открытом доступе. С этого момента мы стали приглашать спикеров с разных уголков планеты, которые готовы рассказать о своей работе перед большим количеством слушателей.
Сегодня мы хотим показать краткую статистику за год.
✅29 вебинаров
✅30 спикеров
✅15 спикеров проживают в России
✅9 спикеров из Северной Америки, 6 - из Европы
✅500 зарегистрировавшихся слушателей
✅около 200 подписчиков в Telegram-канале и около 150 в YouTube-канале
✅Дмитрий Ветров - самый популярный спикер по количеству слушателей вебинара и зрителям YouTube-канала. На первый вебинар Дмитрия “Необычные свойства функции потерь в глубинном обучении” 13.04.21 подключилось 100 слушателей. А запись вебинара на YouTube просмотрело более 600 пользователей за 1 месяц.
✅Национальный политехнический институт г.Мехико и Томский Государственный Университет - самые популярные ВУЗы среди спикеров.
✅НТР - самая популярная компания среди спикеров.
Мы благодарим всех причастных: организаторов, спикеров и слушателей. Двигаемся дальше!
