Pro AI – Telegram
Channel created
Channel photo updated
Завтра, 11 мая в 15:00 по Москве, состоится вебинар
"Избыточный риск стабильных обучающих алгоритмов".

Спикер: Егор Клочков, Кембриджский Университет, Кембридж, Великобритания.

Егор о вебинаре
Наиболее точные из известных оценок обобщения с высокой вероятностью для равномерно устойчивых алгоритмов (Фельдман, Вондрак, NeurIPS 2018, COLT, 2019), (Буске, Клочков, Животовский, COLT, 2020) содержат неизбежный член ошибки выборки порядка Θ (1 / √n). Применительно к оценкам избыточного риска это приводит к неоптимальным результатам в нескольких стандартных задачах выпуклой оптимизации. Мы поговорим о том как этого члена можно избежать, если выполняется так называемое условие Бернштейна, и оценки избыточного риска порядка O (1 / n) станут возможны благодаря равномерной устойчивости. Используя этот результат, мы покажем оценки избыточного риска порядка O (log n / n) для сильно выпуклых и липшицевых потерь, действительную для любого эмпирического метода минимизации риска. Это решает вопрос поставленный Шалев-Шварцем, Шамиром, Сребро и Шридхарана (COLT, 2009). Доклад основан на совместной работе с Никитой Животовским и Оливье Буске.

➡️Регистрация
Pro AI
Завтра, 11 мая в 15:00 по Москве, состоится вебинар "Избыточный риск стабильных обучающих алгоритмов". Спикер: Егор Клочков, Кембриджский Университет, Кембридж, Великобритания. Егор о вебинаре Наиболее точные из известных оценок обобщения с высокой вероятностью…
Все знают, что SVM придумал Владимир Вапник с коллегами. Меньше людей знает, что Вапник основными своими работами считает работы по статистической теории машинного обучения. Как раз ее традиционно много критиковали за то, что оценки скорости сходимости алгоритмов, которые она дает, заметно медленнее, чем они на самом деле сходятся. Еще меньше людей знают, что в последние несколько лет происходит быстрое продвижение в этой области, и новые оценки скорости сходимости намного интереснее. Наверное, самые интересные оценки скорости сходимости получены в последнее время Егором Клочковым из Кембриджа, который и будет про это рассказывать на очередном вебинаре НТР и Высшей ИТ-школы ТГУ сегодня, 11 мая, в 15:00 МСК.

Регистрация на вебинар тут.
🔥18 мая Дмитрий Ветров из НИУ ВШЭ выступит со второй частью доклада и расскажет о перспективах ансамблирования нейросетей. Начало в 14:00 по Москве.

Дмитрий о вебинаре
Во второй части доклада мы поговорим о том, что может являться причиной разрыва между предсказаниями теории и эмпирически наблюдаемыми результатами. Затем мы обсудим различные подходы к ансамблированию нейронных сетей и сравним их с точки зрения качества оценки неопределенности собственного прогноза. В заключении мы обсудим интересные закономерности, возникающие в попытке ответить на вопрос что лучше - обучить одну большую или много маленьких нейросетей.

➡️Регистрация.

Напомню, что в апреле Дмитрий выступил у нас с темой "Необычные свойства функции потерь в глубинном обучении". Освежить в памяти содержание доклада можно здесь :)
А сегодня в 13:00 (МСК) Марина Фомичева из Университета Шеффилда в Великобритании расскажет о автоматической оценке качества машинного перевода без использования реферальных значений.

Марина о вебинаре
Большинство современных подходов к автоматической оценке систем генерации естественного языка (NLG) рассматривают оцениваемую модель как черный ящик. В этом выступлении я представлю альтернативный подход, в котором мы заглядывает внутрь модели, чтобы получить представление о качестве сгенерированных выходных данных, на примере нейронного машинного перевода (MT). Благодаря использованию последних достижений в области оценки неопределенности для нейронных сетей, мы предлагаем метод, который не требует дополнительных ресурсов или данных для обучения и в то же время обеспечивает точность, сопоставимую со специализированными системами оценки качества перевода.

➡️Регистрация