В следующий вторник Павел Коршунов выступит с докладом “Распознавание дипфейков: люди против машин”.
Спикер: Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария.
Когда и во сколько: 19 октября 2021, 14:00 МСК.
Павел о вебинаре
Практически каждый может сейчас сгенерировать реалистичный дипфейк. Уже существует много методов для распознавания дипфейков, но до сих пор непонятно насколько реалистичны дипфейки для обычного человека и справляются ли алгоритмы лучше с их распознаванием. В контексте этого вебинара, мы сравним насколько люди, из результатов субъективного исследования 60-ти человек, лучше или хуже определяют дипфейки по сравнению с двумя моделями распознавания дипфейков.
Публикации по теме:
1. P. Korshunov and S. Marcel, "Subjective and objective evaluation of deepfake videos", ICASSP 2021.
https://publications.idiap.ch/index.php/publications/show/4543
2. A. Jain, P. Korshunov and S. Marcel, "Improving Generalization of Deepfake Detection by Training for Attribution", MMSP 2021.
https://publications.idiap.ch/index.php/publications/show/4635
3. P. Korshunov and S. Marcel, "Vulnerability assessment and detection of Deepfake videos", IJCB 2019
https://publications.idiap.ch/index.php/publications/show/4122
➡️Регистрация
Спикер: Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария.
Когда и во сколько: 19 октября 2021, 14:00 МСК.
Павел о вебинаре
Практически каждый может сейчас сгенерировать реалистичный дипфейк. Уже существует много методов для распознавания дипфейков, но до сих пор непонятно насколько реалистичны дипфейки для обычного человека и справляются ли алгоритмы лучше с их распознаванием. В контексте этого вебинара, мы сравним насколько люди, из результатов субъективного исследования 60-ти человек, лучше или хуже определяют дипфейки по сравнению с двумя моделями распознавания дипфейков.
Публикации по теме:
1. P. Korshunov and S. Marcel, "Subjective and objective evaluation of deepfake videos", ICASSP 2021.
https://publications.idiap.ch/index.php/publications/show/4543
2. A. Jain, P. Korshunov and S. Marcel, "Improving Generalization of Deepfake Detection by Training for Attribution", MMSP 2021.
https://publications.idiap.ch/index.php/publications/show/4635
3. P. Korshunov and S. Marcel, "Vulnerability assessment and detection of Deepfake videos", IJCB 2019
https://publications.idiap.ch/index.php/publications/show/4122
➡️Регистрация
Вебинар Павла Коршунова про распознавание дипфейков начнется через 10 минут!
https://us02web.zoom.us/webinar/register/2016215990886/WN_-LznlRyJTeGz4GLJlcdHrg
https://us02web.zoom.us/webinar/register/2016215990886/WN_-LznlRyJTeGz4GLJlcdHrg
В следующий вторник Лидия Пивоварова выступит с докладом “Автоматическое определение изменения значений слов”.
Спикер: Лидия Пивоварова, Университет Хельсинки, Хельсинки, Финляндия.
Когда и во сколько: 26 октября 2021, 12:00 МСК.
Лидия о вебинаре:
В докладе будет представлен обзор недавних работ по автоматическому диахроническому анализу языка, в первую очередь по выявлению слов, изменивших свои значения. Представленные в докладе методы базируются на различных принципах: дистрибутивных векторных моделях и грамматических признаках слов. Также будут затронуты возможные приложения диахронического анализа за пределами лингвистики.
➡️Регистрация
Спикер: Лидия Пивоварова, Университет Хельсинки, Хельсинки, Финляндия.
Когда и во сколько: 26 октября 2021, 12:00 МСК.
Лидия о вебинаре:
В докладе будет представлен обзор недавних работ по автоматическому диахроническому анализу языка, в первую очередь по выявлению слов, изменивших свои значения. Представленные в докладе методы базируются на различных принципах: дистрибутивных векторных моделях и грамматических признаках слов. Также будут затронуты возможные приложения диахронического анализа за пределами лингвистики.
➡️Регистрация
🎥Запись вебинара с Павлом Коршуновым о распознавании дипфейков.
YouTube
Распознавание дипфейков: люди против машин
Спикер: Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария.
Практически каждый может сейчас сгенерировать реалистичный дипфейк. Уже существует много методов для распознавания дипфейков, но до сих пор непонятно насколько реалистичны дипфейки…
Практически каждый может сейчас сгенерировать реалистичный дипфейк. Уже существует много методов для распознавания дипфейков, но до сих пор непонятно насколько реалистичны дипфейки…
🎥Доклад Лидии Пивоваровой.
YouTube
Автоматическое определение изменения значений слов
Спикерка: Лидия Пивоварова, Университет Хельсинки, Хельсинки, Финляндия.
В докладе представлен обзор недавних работ по автоматическому диахроническому анализу языка, в первую очередь по выявлению слов, изменивших свои значения. Представленные в докладе методы…
В докладе представлен обзор недавних работ по автоматическому диахроническому анализу языка, в первую очередь по выявлению слов, изменивших свои значения. Представленные в докладе методы…
В следующий вторник пройдет вебинар на тему “IGLU: Interactive Grounded Language Understanding in a Collaborative Environment”.
Спикерка: Юлия Киселёва, Microsoft Research, Redmond, Вашингтон, США.
Когда и во сколько: 2 ноября в 18:00 (МСК).
Язык вебинара: английский.
Юлия о вебинаре
Human intelligence has the remarkable ability to quickly adapt to new tasks and environments. Starting from a very young age, humans acquire new skills and learn how to solve new tasks either by imitating the behavior of others or by following provided natural language instructions. To facilitate research in this direction, we propose \emph{IGLU: Interactive Grounded Language Understanding in a Collaborative Environment}. The primary goal of the competition is to approach the problem of how to build interactive agents that learn to solve a task while provided with grounded natural language instructions in a collaborative environment.
➡️Регистрация
📚Материалы: https://arxiv.org/abs/2110.06536
Спикерка: Юлия Киселёва, Microsoft Research, Redmond, Вашингтон, США.
Когда и во сколько: 2 ноября в 18:00 (МСК).
Язык вебинара: английский.
Юлия о вебинаре
Human intelligence has the remarkable ability to quickly adapt to new tasks and environments. Starting from a very young age, humans acquire new skills and learn how to solve new tasks either by imitating the behavior of others or by following provided natural language instructions. To facilitate research in this direction, we propose \emph{IGLU: Interactive Grounded Language Understanding in a Collaborative Environment}. The primary goal of the competition is to approach the problem of how to build interactive agents that learn to solve a task while provided with grounded natural language instructions in a collaborative environment.
➡️Регистрация
📚Материалы: https://arxiv.org/abs/2110.06536
🎥Выступление Юлии Киселевой 2 ноября.
YouTube
IGLU: Interactive Grounded Language Understanding in a Collaborative Environment
Спикерка: Юлия Киселёва, Microsoft Research, Redmond, Вашингтон, США.
Human intelligence has the remarkable ability to quickly adapt to new tasks and environments. Starting from a very young age, humans acquire new skills and learn how to solve new tasks…
Human intelligence has the remarkable ability to quickly adapt to new tasks and environments. Starting from a very young age, humans acquire new skills and learn how to solve new tasks…
Уже завтра пройдет вебинар “Оффлайн обучение RL агентов по демонстрациям и неразмеченным данным”.
Спикер: Александр Новиков, DeepMind, Лондон, Великобритания.
Когда и во сколько: 9 ноября в 17:00 (МСК).
Александр о вебинаре
Behavior cloning (BC) хорошо справляется с задачей imitation learning так как делает возможным обучение политики оффлайн и без доступа к ревордам, с помощью обучения с учителем на демонстрациях решения целевой задачи. Однако на практике часто доступно лишь небольшое число демонстраций высокого качества (и их не хватает для обучения с помощью BC), но дополнительно имеется большой корпус траекторий смешанного качества которые не могут быть напрямую использованы для BC обучения. Такие траектории могут быть получены с помощью записи демонстраций людей которые решают другую задачу, траекторий простых политик основанных на правилах, или траекторий других RL агентов исполняющихся на той же среде / роботе.
В данном докладе я разберу несколько трюков позволяющих эффективно использовать такие данные для обучения оффлайн RL агентов. Основная идея заключается в том, чтобы сначала выучить реворд функцию контрастируя демонстрации и неразмеченные данные, затем аннотировать все данные обученной реворд функцией и наконец обучить агента с помощью оффлайн RL методов.
➡Регистрация
Спикер: Александр Новиков, DeepMind, Лондон, Великобритания.
Когда и во сколько: 9 ноября в 17:00 (МСК).
Александр о вебинаре
Behavior cloning (BC) хорошо справляется с задачей imitation learning так как делает возможным обучение политики оффлайн и без доступа к ревордам, с помощью обучения с учителем на демонстрациях решения целевой задачи. Однако на практике часто доступно лишь небольшое число демонстраций высокого качества (и их не хватает для обучения с помощью BC), но дополнительно имеется большой корпус траекторий смешанного качества которые не могут быть напрямую использованы для BC обучения. Такие траектории могут быть получены с помощью записи демонстраций людей которые решают другую задачу, траекторий простых политик основанных на правилах, или траекторий других RL агентов исполняющихся на той же среде / роботе.
В данном докладе я разберу несколько трюков позволяющих эффективно использовать такие данные для обучения оффлайн RL агентов. Основная идея заключается в том, чтобы сначала выучить реворд функцию контрастируя демонстрации и неразмеченные данные, затем аннотировать все данные обученной реворд функцией и наконец обучить агента с помощью оффлайн RL методов.
➡Регистрация
Zoom Video Communications
Welcome! You are invited to join a webinar: Оффлайн обучение RL агентов по демонстрациям и неразмеченным данным. After registering…
Спикер: Александр Новиков, DeepMind, Лондон, Великобритания
Pro AI
Уже завтра пройдет вебинар “Оффлайн обучение RL агентов по демонстрациям и неразмеченным данным”. Спикер: Александр Новиков, DeepMind, Лондон, Великобритания. Когда и во сколько: 9 ноября в 17:00 (МСК). Александр о вебинаре Behavior cloning (BC) хорошо…
🎥Запись вебинара с Александром Новиковым из DeepMind.
YouTube
Оффлайн обучение RL агентов по демонстрациям и неразмеченным данным
Спикер: Александр Новиков, DeepMind, Лондон, Великобритания.
Behavior cloning (BC) хорошо справляется с задачей imitation learning так как делает возможным обучение политики оффлайн и без доступа к ревордам, с помощью обучения с учителем на демонстрациях…
Behavior cloning (BC) хорошо справляется с задачей imitation learning так как делает возможным обучение политики оффлайн и без доступа к ревордам, с помощью обучения с учителем на демонстрациях…
16 ноября состоится вебинар «Надежность систем обработки естественного языка»
Спикерка: Екатерина Филиппова, Google Research Berlin, Берлин, Германия.
Когда и во сколько: 16 ноября 14:00 (MCK)
❗️Важно: записи вебинара и презентации не будет.
Екатерина о работе:
В докладе речь пойдет о необходимости повышения надежности систем обработки естественного языка. Определив надежность и то, как она связана с доверием (пользователей), я приведу примеры того, как эти определения можно применить в области языковых технологий. После этого я приведу примеры из недавних публикаций моих коллег, направленных на то, чтобы лучше понять используемые в наши дни модели и их слабые стороны и сделать их менее подверженными разнообразным рискам.
➡Регистрация
Спикерка: Екатерина Филиппова, Google Research Berlin, Берлин, Германия.
Когда и во сколько: 16 ноября 14:00 (MCK)
❗️Важно: записи вебинара и презентации не будет.
Екатерина о работе:
В докладе речь пойдет о необходимости повышения надежности систем обработки естественного языка. Определив надежность и то, как она связана с доверием (пользователей), я приведу примеры того, как эти определения можно применить в области языковых технологий. После этого я приведу примеры из недавних публикаций моих коллег, направленных на то, чтобы лучше понять используемые в наши дни модели и их слабые стороны и сделать их менее подверженными разнообразным рискам.
➡Регистрация
Zoom Video Communications
Welcome! You are invited to join a webinar: Надежность систем обработки естественного языка. After registering, you will receive…
Спикер: Екатерина Филиппова, Google Research Berlin, Берлин, Германия
Уже завтра Юрий Землянский выступит с темой «Полупараметрические методы извлечения и представления знаний из текста».
Спикер: Юрий Землянский, Южно-Калифорнийский университет, Лос-Анджелес, Калифорния, США.
Когда и во сколько: 23 ноября в 18:00 (MCK).
О вебинаре
Некоторые задачи обработки естественного языка требуют использования информации из разрозненных мест в тексте. Современные методы на основе модели Transformer могут одновременно обрабатывать ввод только ограниченного размера. Это затрудняет их использование в задачах с большим объемом ввода, такие как ответы на вопросы по книгам или Википедии. Мы решаем эту проблему с помощью полупараметрического метода извлечения и представления информации из текста. Наш метод представляет знания с помощью «Таблицы Упоминаний», которая содержит многомерную кодировку для каждого упоминания именованной сущности в тексте. Мы интегрируем таблицу упоминаний в Transformer модель, что позволяет нам комбинировать и использовать информация из по множества разрозненных источников в тексте. Мы применяем нашу модель на задачах с вопросами по целым книгам (https://aclanthology.org/2021.naacl-main.408) или с вопросами по всей Википедии (https://arxiv.org/abs/2110.06176 ).
➡Регистрация
📚Дополнительная информация:
Личный сайт — https://urikz.github.io
Статьи по докладу — ReadTwice (https://aclanthology.org/2021.naacl-main.408) и MentionMemory (https://arxiv.org/abs/2110.06176).
Спикер: Юрий Землянский, Южно-Калифорнийский университет, Лос-Анджелес, Калифорния, США.
Когда и во сколько: 23 ноября в 18:00 (MCK).
О вебинаре
Некоторые задачи обработки естественного языка требуют использования информации из разрозненных мест в тексте. Современные методы на основе модели Transformer могут одновременно обрабатывать ввод только ограниченного размера. Это затрудняет их использование в задачах с большим объемом ввода, такие как ответы на вопросы по книгам или Википедии. Мы решаем эту проблему с помощью полупараметрического метода извлечения и представления информации из текста. Наш метод представляет знания с помощью «Таблицы Упоминаний», которая содержит многомерную кодировку для каждого упоминания именованной сущности в тексте. Мы интегрируем таблицу упоминаний в Transformer модель, что позволяет нам комбинировать и использовать информация из по множества разрозненных источников в тексте. Мы применяем нашу модель на задачах с вопросами по целым книгам (https://aclanthology.org/2021.naacl-main.408) или с вопросами по всей Википедии (https://arxiv.org/abs/2110.06176 ).
➡Регистрация
📚Дополнительная информация:
Личный сайт — https://urikz.github.io
Статьи по докладу — ReadTwice (https://aclanthology.org/2021.naacl-main.408) и MentionMemory (https://arxiv.org/abs/2110.06176).
🎥Полупараметрические методы извлечения и представления знаний из текста
YouTube
Полупараметрические методы извлечения и представления знаний из текста
Спикер: Юрий Землянский, Южно-Калифорнийский университет, Лос-Анджелес, Калифорния, США.
Некоторые задачи обработки естественного языка требуют использования информации из разрозненных мест в тексте. Современные методы на основе модели Transformer могут…
Некоторые задачи обработки естественного языка требуют использования информации из разрозненных мест в тексте. Современные методы на основе модели Transformer могут…
Уже сегодня состоится вебинар на тему «Обучение машинному синтезу путем автоматического чтения миллионов научных публикаций».
Спикерка: Оля Кононова, Ройвант Саенсес, Нью-Йорк, США.
Когда и во сколько: 30 ноября в 16:00 (МСК).
О вебинаре
На вебинаре мы будем обсуждать проект, над которым я работала в докторантуре Калифорнийского университета в Беркли. Мы построили автоматизированный конвейер анализа текста, который обрабатывает научные публикации и извлекает из них информацию о синтезе материалов. Применяя этот конвейер к ~ 5 млн статей, мы собрали набор данных из ~ 70 тыс. реакций синтеза керамики, принадлежащих к различным типам. Мы использовали этот набор данных для исследования условий синтеза распространенных классов материалов.
➡Регистрация
📚Дополнительно:
Kononova et al. «Opportunities and challenges of text mining in materials research», iScience 24, 2021, https://doi.org/10.1016/j.isci.2021.102155
Kononova et al. «Text-mined dataset of inorganic materials synthesis recipes», Sci. Data 6, 2019, https://www.nature.com/articles/s41597-019-0224-1
Спикерка: Оля Кононова, Ройвант Саенсес, Нью-Йорк, США.
Когда и во сколько: 30 ноября в 16:00 (МСК).
О вебинаре
На вебинаре мы будем обсуждать проект, над которым я работала в докторантуре Калифорнийского университета в Беркли. Мы построили автоматизированный конвейер анализа текста, который обрабатывает научные публикации и извлекает из них информацию о синтезе материалов. Применяя этот конвейер к ~ 5 млн статей, мы собрали набор данных из ~ 70 тыс. реакций синтеза керамики, принадлежащих к различным типам. Мы использовали этот набор данных для исследования условий синтеза распространенных классов материалов.
➡Регистрация
📚Дополнительно:
Kononova et al. «Opportunities and challenges of text mining in materials research», iScience 24, 2021, https://doi.org/10.1016/j.isci.2021.102155
Kononova et al. «Text-mined dataset of inorganic materials synthesis recipes», Sci. Data 6, 2019, https://www.nature.com/articles/s41597-019-0224-1
Начинаем вебинар, присоединяйтесь!
Когда: 7 декабря 2021, 12:00 (MCK).
Спикер: Максим Панов, Сколтех, Москва, Россия
Тема: Оценка неопределенности: может ли ваша нейронная сеть оценить степень уверенность в своих прогнозах?
О вебинаре
Нейронные сети показывают очень хорошие результаты практически во всех приложениях машинного обучения. Однако нейронные сети часто делают очень уверенные прогнозы для данных, которые лежат вне выборки, или данных на границе между классами. Во многих приложениях это неприемлемо, и поэтому способность оценить степень уверенности в предсказании является крайне важной и востребованной. Однако оценка неопределенности для нейронных сетей является нетривиальной задачей, и существующие подходы демонстрируют не очень высокое качество и зачастую требуют значительных вычислительных ресурсов. На очередном научно-техническом вебинаре, который проводит НТР совместно с Высшей IT-школой ТГУ, Максим Панов из Сколтеха расскажет о существующих подходах к оценке неопределенности, включая методы калибровки моделей, методы построения ансамблей и байесовские нейронные сети. Особое внимание будет уделено современным численно эффективным подходам на основе одной нейронной сети, не требующим построения ансамбля и существенного изменения процедуры обучения.
➡Регистрация
Когда: 7 декабря 2021, 12:00 (MCK).
Спикер: Максим Панов, Сколтех, Москва, Россия
Тема: Оценка неопределенности: может ли ваша нейронная сеть оценить степень уверенность в своих прогнозах?
О вебинаре
Нейронные сети показывают очень хорошие результаты практически во всех приложениях машинного обучения. Однако нейронные сети часто делают очень уверенные прогнозы для данных, которые лежат вне выборки, или данных на границе между классами. Во многих приложениях это неприемлемо, и поэтому способность оценить степень уверенности в предсказании является крайне важной и востребованной. Однако оценка неопределенности для нейронных сетей является нетривиальной задачей, и существующие подходы демонстрируют не очень высокое качество и зачастую требуют значительных вычислительных ресурсов. На очередном научно-техническом вебинаре, который проводит НТР совместно с Высшей IT-школой ТГУ, Максим Панов из Сколтеха расскажет о существующих подходах к оценке неопределенности, включая методы калибровки моделей, методы построения ансамблей и байесовские нейронные сети. Особое внимание будет уделено современным численно эффективным подходам на основе одной нейронной сети, не требующим построения ансамбля и существенного изменения процедуры обучения.
➡Регистрация
🎥Запись вебинара с Максимом Пановым из Сколтеха.
YouTube
Оценка неопределенности: может ли ваша нейронная сеть оценить степень уверенность в своих прогнозах?
Спикер: Максим Панов, Сколтех, Москва, Россия.
Нейронные сети показывают очень хорошие результаты практически во всех приложениях машинного обучения. Однако нейронные сети часто делают очень уверенные прогнозы для данных, которые лежат вне выборки, или данных…
Нейронные сети показывают очень хорошие результаты практически во всех приложениях машинного обучения. Однако нейронные сети часто делают очень уверенные прогнозы для данных, которые лежат вне выборки, или данных…
14 декабря Людмила Прохоренкова выступит с докладом «Теоретический подход к выбору метрик качества в задачах классификации и кластеризации».
Спикерка: Людмила Прохоренкова, Яндекс, Москва, Россия.
Когда и во сколько: 14 декабря в 18:00 (МСК)
О вебинаре
Для сравнения алгоритмов обычно используются метрики качества. Например, в задаче классификации можно использовать точность, F-меру и другие метрики. Возникает вопрос – как выбрать метрику качества для данной задачи? Другими словами, можем ли мы как-то сравнивать между собой метрики? Мы подходим к этому вопросу с теоретической точки зрения – формируем список свойств, которыми должна обладать хорошая метрика, и теоретически проверяем эти свойства для популярных метрик. Помимо этого, мы получаем ряд интересных результатов. Например, мы доказываем, что не может существовать метрики, которая удовлетворяет всем свойствам сразу. Но если отказаться от одного из свойств, то можно предложить целое семейство метрик, которые удовлетворяют всем оставшимся свойствам. Доклад основан на статьях «Systematic analysis of cluster similarity indices: How to validate validation measures» (ICML 2021) и «Good Classification Measures and How to Find Them» (NeurIPS 2021).
➡Регистрация
Спикерка: Людмила Прохоренкова, Яндекс, Москва, Россия.
Когда и во сколько: 14 декабря в 18:00 (МСК)
О вебинаре
Для сравнения алгоритмов обычно используются метрики качества. Например, в задаче классификации можно использовать точность, F-меру и другие метрики. Возникает вопрос – как выбрать метрику качества для данной задачи? Другими словами, можем ли мы как-то сравнивать между собой метрики? Мы подходим к этому вопросу с теоретической точки зрения – формируем список свойств, которыми должна обладать хорошая метрика, и теоретически проверяем эти свойства для популярных метрик. Помимо этого, мы получаем ряд интересных результатов. Например, мы доказываем, что не может существовать метрики, которая удовлетворяет всем свойствам сразу. Но если отказаться от одного из свойств, то можно предложить целое семейство метрик, которые удовлетворяют всем оставшимся свойствам. Доклад основан на статьях «Systematic analysis of cluster similarity indices: How to validate validation measures» (ICML 2021) и «Good Classification Measures and How to Find Them» (NeurIPS 2021).
➡Регистрация
21 декабря состоится вебинар «Анализ временных рядов: систематизация подходов».
Спикер: Юрий Яхно, Orion Innovation, Нижний Новгород, Россия.
Когда и во сколько: 21 декабря, 12:00 MCK
Юрий о работе:
Для анализа временных рядов до сих пор используется множество разных подходов, среди которых нет одного доминирующего, в отличие, например, от большинства задач обработки изображений или текста. Некоторые из этих подходов много лет развивались независимо в отдельных доменах, таких как эконометрика или моделирование физических процессов, а некоторые появились только с приходом машинного обучения в индустрию. На этом вебинаре я хочу рассказать об известных мне подходах, наметить их систематизацию, а главное получить обратную связь от сообщества. Если вы интересуетесь временными рядами, приходите поговорить!
➡Регистрация
💥После этого вебинара берём паузу на новогодние каникулы💥
Спикер: Юрий Яхно, Orion Innovation, Нижний Новгород, Россия.
Когда и во сколько: 21 декабря, 12:00 MCK
Юрий о работе:
Для анализа временных рядов до сих пор используется множество разных подходов, среди которых нет одного доминирующего, в отличие, например, от большинства задач обработки изображений или текста. Некоторые из этих подходов много лет развивались независимо в отдельных доменах, таких как эконометрика или моделирование физических процессов, а некоторые появились только с приходом машинного обучения в индустрию. На этом вебинаре я хочу рассказать об известных мне подходах, наметить их систематизацию, а главное получить обратную связь от сообщества. Если вы интересуетесь временными рядами, приходите поговорить!
➡Регистрация
💥После этого вебинара берём паузу на новогодние каникулы💥
🎥Выступление Людмилы Прохоренковой 14 декабря.
YouTube
Теоретический подход к выбору метрик качества в задачах классификации и кластеризации
Спикерка: Людмила Прохоренкова, Яндекс, Москва, Россия.
Для сравнения алгоритмов обычно используются метрики качества. Например, в задаче классификации можно использовать точность, F-меру и другие метрики. Возникает вопрос – как выбрать метрику качества…
Для сравнения алгоритмов обычно используются метрики качества. Например, в задаче классификации можно использовать точность, F-меру и другие метрики. Возникает вопрос – как выбрать метрику качества…
🎥Анализ временных рядов: систематизация подходов
YouTube
Анализ временных рядов: систематизация подходов
Спикер: Юрий Яхно, Orion Innovation, Нижний Новгород, Россия.
Для анализа временных рядов до сих пор используется множество разных подходов, среди которых нет одного доминирующего, в отличие, например, от большинства задач обработки изображений или текста.…
Для анализа временных рядов до сих пор используется множество разных подходов, среди которых нет одного доминирующего, в отличие, например, от большинства задач обработки изображений или текста.…
Вовзращаемся после праздников в рабочую колею и двигаемся дальше!
Уже завтра пройдет вебинар «Аппроксимации нейронными сетями минимального размера: экзотические режимы и сверхвыразительные активации».
Спикер: Дмитрий Яроцкий, Сколтех, Москва, Россия.
Когда: 11 января в 16:00 МСК.
О вебинаре
Я расскажу про некоторые «экзотические» режимы, возникающие при теоретических исследованиях аппроксимаций функций нейронными сетями минимального размера. Классическая теория предсказывает вполне определенные степенные зависимости между сложностью модели и точностью аппроксимаций функций данного класса гладкости при условии непрерывной зависимости параметров модели от аппроксимируемой функции.
Оказывается, что эти зависимости могут нарушаться, если в качестве модели использовать очень глубокие и узкие нейронные сети и не требовать упомянутой непрерывности. Этот эффект имеет место при обычных функциях активации, например ReLU. Кроме того, существуют определенные «сверхвыразительные» наборы функций активации, которые теоретически позволяют аппроксимировать любую непрерывную функцию с любой точностью одной сетью с фиксированным числом нейронов (не зависящим от точности). Этот результат тесно связан с теоремой Комогорова(-Арнольда) о представлении функций многих переменных. Примером сверхвыразительного наборя является {sin, arcsin}. При этом, обычно применяемые на практике функции активации не являются сверхвыразительными.
➡Регистрация
Уже завтра пройдет вебинар «Аппроксимации нейронными сетями минимального размера: экзотические режимы и сверхвыразительные активации».
Спикер: Дмитрий Яроцкий, Сколтех, Москва, Россия.
Когда: 11 января в 16:00 МСК.
О вебинаре
Я расскажу про некоторые «экзотические» режимы, возникающие при теоретических исследованиях аппроксимаций функций нейронными сетями минимального размера. Классическая теория предсказывает вполне определенные степенные зависимости между сложностью модели и точностью аппроксимаций функций данного класса гладкости при условии непрерывной зависимости параметров модели от аппроксимируемой функции.
Оказывается, что эти зависимости могут нарушаться, если в качестве модели использовать очень глубокие и узкие нейронные сети и не требовать упомянутой непрерывности. Этот эффект имеет место при обычных функциях активации, например ReLU. Кроме того, существуют определенные «сверхвыразительные» наборы функций активации, которые теоретически позволяют аппроксимировать любую непрерывную функцию с любой точностью одной сетью с фиксированным числом нейронов (не зависящим от точности). Этот результат тесно связан с теоремой Комогорова(-Арнольда) о представлении функций многих переменных. Примером сверхвыразительного наборя является {sin, arcsin}. При этом, обычно применяемые на практике функции активации не являются сверхвыразительными.
➡Регистрация