Всем привет,
На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых систем, применяемые подходы и способ разработки multiskill ассистента на платформе Dream.
Когда: 12 июля 2022, 17:00 MCK (21:00 по Томску)
Спикер: Мария Молчанова, DeepPavlov, Москва, Россия
Тема: Обзор методов и платформ для разработки диалоговых систем
➡️Сайт
➡️Регистрация
На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых систем, применяемые подходы и способ разработки multiskill ассистента на платформе Dream.
Когда: 12 июля 2022, 17:00 MCK (21:00 по Томску)
Спикер: Мария Молчанова, DeepPavlov, Москва, Россия
Тема: Обзор методов и платформ для разработки диалоговых систем
➡️Сайт
➡️Регистрация
🔥3
Pro AI
Всем привет, На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых…
Видеозапись: https://youtu.be/27chgvhnk_s
YouTube
Обзор методов и платформ для разработки диалоговых систем
Научно-технический вебинар «Обзор методов и платформ для разработки диалоговых систем»
Организатор: IT-компания НТР и Высшая IT-школа Томского Государственного Университета
Спикер:
Мария Молчанова, DeepPavlov, Москва, Россия
Спикер о работе:
В докладе…
Организатор: IT-компания НТР и Высшая IT-школа Томского Государственного Университета
Спикер:
Мария Молчанова, DeepPavlov, Москва, Россия
Спикер о работе:
В докладе…
🔥3
Всем привет,
Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN.
Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении. Сдвиги вдоль этих векторов приводят к интерпретируемым изменениям на самом изображении, например, можно менять цвет волос, добавлять очки и т. д. Я расскажу про две наши статьи, в которых мы рассмотрели как линейные, так и нелинейные сдвиги в латентном пространстве GAN.
Когда: сегодня 26 июля, 13:00 MCK (17:00 по Томску)
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Тема: Манипуляции изображений при помощи сетей GAN
Сайт
Регистрация
Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN.
Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении. Сдвиги вдоль этих векторов приводят к интерпретируемым изменениям на самом изображении, например, можно менять цвет волос, добавлять очки и т. д. Я расскажу про две наши статьи, в которых мы рассмотрели как линейные, так и нелинейные сдвиги в латентном пространстве GAN.
Когда: сегодня 26 июля, 13:00 MCK (17:00 по Томску)
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Тема: Манипуляции изображений при помощи сетей GAN
Сайт
Регистрация
Zoom Video Communications
Welcome! You are invited to join a webinar: Манипуляции изображений при помощи сетей GAN. After registering, you will receive a…
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Pro AI
Всем привет, Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN. Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически…
Видеозапись вчерашнего вебинара с Лейлой Мирвахабовой уже доступна на YouTube-канале.
Дополнительные материалы от Лейлы можно найти здесь.
Дополнительные материалы от Лейлы можно найти здесь.
YouTube
Манипуляции изображений при помощи сетей GAN
26 июля 2022 Лейла Мирвахабова из Сколтех провела научно-технический вебинар «Манипуляции изображений при помощи сетей GAN».
Лейла о работе:
Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении.…
Лейла о работе:
Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении.…
👍7
Всем привет,
В августе мы делаем запланированный перерыв в проведении научно-технических вебинаров. А также уже активно готовимся к вебинарам, которые пройдут осенью.
Предположительная дата следующего вебинара - 6 сентября.
Напоминаем, что мы готовы рассматривать кандидатуры на роль спикеров. Если у Вас есть интересный материал, то можете написать мне в личных сообщениях Telegram (@heabyfik) или на почту rrafikova@ntr.ai.
Не забывайте, что на YouTube-канале можно найти видеозаписи предыдущих вебинаров.
Всем отличного августа!☀️
В августе мы делаем запланированный перерыв в проведении научно-технических вебинаров. А также уже активно готовимся к вебинарам, которые пройдут осенью.
Предположительная дата следующего вебинара - 6 сентября.
Напоминаем, что мы готовы рассматривать кандидатуры на роль спикеров. Если у Вас есть интересный материал, то можете написать мне в личных сообщениях Telegram (@heabyfik) или на почту rrafikova@ntr.ai.
Не забывайте, что на YouTube-канале можно найти видеозаписи предыдущих вебинаров.
Всем отличного августа!☀️
👍8👏1
Всем привет,
Завтра состоится вебинар НТР&HITs ТГУ, где Дмитрий Зубарев из IBM Research - Алмаден рассмотрит рекомендации экспериментов по открытию полимеров и нейросимволическому обучению с подкреплением
Когда: 20 сентября 2022, 16:00 MCK
Спикер: Дмитрий Зубарев, исследовательский центр Алмаден, IBM Research - Алмаден, Сан-Хосе, Калифорния, США
➡️Сайт
➡️Регистрация
Завтра состоится вебинар НТР&HITs ТГУ, где Дмитрий Зубарев из IBM Research - Алмаден рассмотрит рекомендации экспериментов по открытию полимеров и нейросимволическому обучению с подкреплением
Когда: 20 сентября 2022, 16:00 MCK
Спикер: Дмитрий Зубарев, исследовательский центр Алмаден, IBM Research - Алмаден, Сан-Хосе, Калифорния, США
➡️Сайт
➡️Регистрация
👍6
Всем привет,
Завтра состоится вебинар с участием Анастасии Ремизовой из Федеральной политехнической школы Лозанны, Швейцария. Анастасия рассмотрит Трехмерную реконструкцию тела человека с использованием SMPL модели.
В этом докладе Анастасия расскажет про модель SMPL (Skinned Multi-Person Linear Model). Эта модель представляет телосложение и позу человека как набор параметров в низкоразмерном пространстве, которые затем можно отобразить в 3D-сетку человеческого тела.
На вебинаре рассмотрим, как работает эта модель и как она может быть использована в задачах реконструкции тела человека.
Когда: завтра 27 сентября 2022, 16:00 MCK
Спикер: Анастасия Ремизова, Федеральная политехническая школа Лозанны, Швейцария
➡️Сайт
➡️Регистрация
Завтра состоится вебинар с участием Анастасии Ремизовой из Федеральной политехнической школы Лозанны, Швейцария. Анастасия рассмотрит Трехмерную реконструкцию тела человека с использованием SMPL модели.
В этом докладе Анастасия расскажет про модель SMPL (Skinned Multi-Person Linear Model). Эта модель представляет телосложение и позу человека как набор параметров в низкоразмерном пространстве, которые затем можно отобразить в 3D-сетку человеческого тела.
На вебинаре рассмотрим, как работает эта модель и как она может быть использована в задачах реконструкции тела человека.
Когда: завтра 27 сентября 2022, 16:00 MCK
Спикер: Анастасия Ремизова, Федеральная политехническая школа Лозанны, Швейцария
➡️Сайт
➡️Регистрация
👍3
Сегодня вебинар проведет генеральный директор НТР Николай Михайловский с темой "Об обучении языковых моделей, основанных на грамматиках связей, без учителя"
Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK
Николай о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой. Он является проявлением более фундаментальных статистических характеристик текста, которые, видимо, связаны с иерархическим устройством человеческой коммуникации. Из этого следуют фундаментальные же выводы о характеристиках языковых моделей (иерархичность контекстов), которые пока что можно обсуждать в гуманитарном их аспекте.
Интересно, что многие классические работы по вычислительной лингвистике 90-х годов игнорируют свойства контекстности, и безоглядное использование их результатов приводит к ошибкам. Такие проблемы, например, встречаются, при попытках обучать языковые модели, основанные на грамматиках связей, без учителя.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F44AnOJCT1WFpbdjE5iUKg
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-ob-obuchenii-yazykovyh-modelej-osnovannyh-na-grammatikah-svyazej-bez-uchitelya/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/channel/UCi8TSxLIp-hb8lnYpU7XUmw
Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK
Николай о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой. Он является проявлением более фундаментальных статистических характеристик текста, которые, видимо, связаны с иерархическим устройством человеческой коммуникации. Из этого следуют фундаментальные же выводы о характеристиках языковых моделей (иерархичность контекстов), которые пока что можно обсуждать в гуманитарном их аспекте.
Интересно, что многие классические работы по вычислительной лингвистике 90-х годов игнорируют свойства контекстности, и безоглядное использование их результатов приводит к ошибкам. Такие проблемы, например, встречаются, при попытках обучать языковые модели, основанные на грамматиках связей, без учителя.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F44AnOJCT1WFpbdjE5iUKg
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-ob-obuchenii-yazykovyh-modelej-osnovannyh-na-grammatikah-svyazej-bez-uchitelya/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/channel/UCi8TSxLIp-hb8lnYpU7XUmw
🔥7👍1
Pro AI
Сегодня вебинар проведет генеральный директор НТР Николай Михайловский с темой "Об обучении языковых моделей, основанных на грамматиках связей, без учителя" Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK Николай о вебинаре: Закон Ципфа хорошо знаком…
Видеозапись вчерашнего вебинара Николая Михайловского, НТР, на тему "Об обучении языковых моделей, основанных на грамматиках связей, без учителя".
Приятного просмотра!
Приятного просмотра!
YouTube
Об обучении языковых моделей, основанных на грамматиках связей, без учителя
Николай Михайловский, генеральный директор НТР, провел научно-технический вебинар на тему "Об обучении языковых моделей, основанных на грамматиках связей, без учителя".
Спикер о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой.…
Спикер о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой.…
👍2🔥1
Завтра состоится вебинар на тему «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»
Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Женисбек о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает, что запоминание редких/атипичных примеров неизбежно при обучении на естественных данных.
Несмотря на то, что современные глубокие нейронные сети имеют возможность запоминать (почти) всю обучающую выборку, при обучении с SGD они этого не делают. Напротив, они доброкачественно переобучаются, то есть делают точные прогнозы на новых данных, несмотря на идеальную подгонку к обучающей выборке.
Грубо говоря, все это происходит из-за неявной предвзятости к простоте: SGD предпочитает более простые и надежные модели и использует возможности нейронной сети для запоминания, чтобы подгоняться к нетипичным/редким примерам только в случае необходимости.
В то же время специалисты по машинному обучению (особенно в области обработки естественного языка) придумали, как использовать эту возможность для более эффективного обучения: модели, дополненные поиском по хранилищу данных (kNN-LM, RETRO) явно запоминают (часть) обучающей выборки в хранилище и, таким образом, пытаются (частично) снять нагрузку запоминания с нейронной сети. Насколько мне известно, в настоящее время нет теоретического анализа доброкачественного переобучения в таких моделях.
В своем выступлении я предложу несколько возможных исследовательских вопросов, касающихся доброкачественной переобучения в моделях, снабженных поиском по хранилищу, для дальнейшего обсуждения с участниками вебинара.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_TO0nR8adT6-44zlMxhqpnw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-dobrokachestvennoe-pereobuchenie-v-modelyah-dopolnennyh-poiskom-po-hranilishhu/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/@NTRLabs.Webinar
Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Женисбек о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает, что запоминание редких/атипичных примеров неизбежно при обучении на естественных данных.
Несмотря на то, что современные глубокие нейронные сети имеют возможность запоминать (почти) всю обучающую выборку, при обучении с SGD они этого не делают. Напротив, они доброкачественно переобучаются, то есть делают точные прогнозы на новых данных, несмотря на идеальную подгонку к обучающей выборке.
Грубо говоря, все это происходит из-за неявной предвзятости к простоте: SGD предпочитает более простые и надежные модели и использует возможности нейронной сети для запоминания, чтобы подгоняться к нетипичным/редким примерам только в случае необходимости.
В то же время специалисты по машинному обучению (особенно в области обработки естественного языка) придумали, как использовать эту возможность для более эффективного обучения: модели, дополненные поиском по хранилищу данных (kNN-LM, RETRO) явно запоминают (часть) обучающей выборки в хранилище и, таким образом, пытаются (частично) снять нагрузку запоминания с нейронной сети. Насколько мне известно, в настоящее время нет теоретического анализа доброкачественного переобучения в таких моделях.
В своем выступлении я предложу несколько возможных исследовательских вопросов, касающихся доброкачественной переобучения в моделях, снабженных поиском по хранилищу, для дальнейшего обсуждения с участниками вебинара.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_TO0nR8adT6-44zlMxhqpnw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-dobrokachestvennoe-pereobuchenie-v-modelyah-dopolnennyh-poiskom-po-hranilishhu/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/@NTRLabs.Webinar
Zoom
Welcome! You are invited to join a webinar: Доброкачественное переобучение в моделях, дополненных поиском по хранилищу. After registering…
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
🔥8
Pro AI
Завтра состоится вебинар на тему «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу» Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан Женисбек о вебинаре:…
➡️Видеозапись вебинара Женисбека Ассылбекова: на тему «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»
YouTube
Доброкачественное переобучение в моделях, дополненных поиском по хранилищу
Спикер
Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Тема
Научно-технический вебинар «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»
Спикер о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает…
Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Тема
Научно-технический вебинар «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»
Спикер о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает…
👍10
Всем привет,
Приглашаем на научно-технический вебинар "О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1"
Спикер: Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия
Когда и во сколько: завтра 15 ноября 2022, 15:30 MCK (19:30 по Томску)
Спикер о вебинаре:
В докладе пойдет речь о семействах замкнутых множеств (известных как семейства Мура) для случая, когда все одноэлементные множества семейства замкнуты. Задача порождения таких семейств для объектно-признаковых или транзакционных данных хорошо известна в майнинге данных как поиск частых (замкнутых) множеств товаров (Frequent Itemset Mining).
В частности, нами приводится количество таких строгих (включающих пустое множество) и нестрогих семейств для 6 элементов (признаков). Мы также приводим количество таких неэквивалентных семейств Мура относительно всех перестановок базового множества вплоть до n = 6. Поиск в OEIS и существующей литературе показал совпадение найденных чисел (с учетом изоморфизма семейств) с числом решеток на основе объединения множеств, полученным Д.М. Дэвисом (последовательность OEIS A235604, до n=5), и c |L_n| (без учета изоморфизма) – числом атомистических решеток на n атомах, найденным С. Мейпс (до n=6), соответственно. Нами установлено взаимно-однозначные соответствия между этими тремя типами решеток на основе соответствий Галуа и анализа формальных понятий (Formal Concept Analysis).
Кратко обсуждаются два использованных перечислительных алгоритма, а также дополнительные результаты их работы наибольший размер семейства множеств без пересечений для n=6, наша гипотеза для n=7, верхняя граница числа атомистических решеток L_n и некоторые структурные свойства L_n, основанные на теории экстремальных решеток.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_9ppXnwllTm2_6aQNveBbKQ
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-o-kriptomorfizme-mezhdu-reshetkami-podmnozhestv-devisa-atomisticheskimi-reshetkami-sistemami-zamknutyh-mnozhestv-pri-vypolnenii-aksiomy-otdelimosti-t1/
--
Youtube: https://www.youtube.com/@NTRLabs.Webinar
Приглашаем на научно-технический вебинар "О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1"
Спикер: Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия
Когда и во сколько: завтра 15 ноября 2022, 15:30 MCK (19:30 по Томску)
Спикер о вебинаре:
В докладе пойдет речь о семействах замкнутых множеств (известных как семейства Мура) для случая, когда все одноэлементные множества семейства замкнуты. Задача порождения таких семейств для объектно-признаковых или транзакционных данных хорошо известна в майнинге данных как поиск частых (замкнутых) множеств товаров (Frequent Itemset Mining).
В частности, нами приводится количество таких строгих (включающих пустое множество) и нестрогих семейств для 6 элементов (признаков). Мы также приводим количество таких неэквивалентных семейств Мура относительно всех перестановок базового множества вплоть до n = 6. Поиск в OEIS и существующей литературе показал совпадение найденных чисел (с учетом изоморфизма семейств) с числом решеток на основе объединения множеств, полученным Д.М. Дэвисом (последовательность OEIS A235604, до n=5), и c |L_n| (без учета изоморфизма) – числом атомистических решеток на n атомах, найденным С. Мейпс (до n=6), соответственно. Нами установлено взаимно-однозначные соответствия между этими тремя типами решеток на основе соответствий Галуа и анализа формальных понятий (Formal Concept Analysis).
Кратко обсуждаются два использованных перечислительных алгоритма, а также дополнительные результаты их работы наибольший размер семейства множеств без пересечений для n=6, наша гипотеза для n=7, верхняя граница числа атомистических решеток L_n и некоторые структурные свойства L_n, основанные на теории экстремальных решеток.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_9ppXnwllTm2_6aQNveBbKQ
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-o-kriptomorfizme-mezhdu-reshetkami-podmnozhestv-devisa-atomisticheskimi-reshetkami-sistemami-zamknutyh-mnozhestv-pri-vypolnenii-aksiomy-otdelimosti-t1/
--
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥4👍1
Pro AI
Всем привет, Приглашаем на научно-технический вебинар "О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1" Спикер: Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия Когда…
Видеозапись выступления Дмитрия Игнатова из ВШЭ о криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1: https://youtu.be/fxM6YnpP-bs
YouTube
Дмитрий Игнатов, Высшая Школа Экономики, на научно-техническом вебинаре НТР
О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1.
Спикер
Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия
Спикер о работе:
В докладе пойдет речь о семействах замкнутых…
Спикер
Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия
Спикер о работе:
В докладе пойдет речь о семействах замкнутых…
🔥3
Всем привет,
Завтра пройдет вебинар НТР "Внутренняя мотивация для мультиагентного обучения с подкреплением"
👨💻Спикер: Влад Большаков, НТР, Россия.
🕑Когда и во сколько: 20 декабря 2022, 18:00 MCK
🗣️Влад о вебинаре:
Задачи с редкими вознаграждениями являются актуальной проблемой в обучении с подкреплением (Reinforcement Learning, RL). Решение таких задач требует эффективных методов исследования, которые часто основаны на использовании принципов внутренней мотивации (Intrinsic Motivation, IM).
Помимо этого существует множество таких задач в контексте мультиагентного обучения с подкреплением (Multi-Agent RL, MARL), где сложности двух этих доменов накладываются друг на друга, ещё больше осложняя решение проблемы.
Мы рассмотрим некоторые подходы в IM, а также их расширение на MARL, которые могут оказаться эффективными в решении подобных задач.
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_iR_OaYHJSZWbsJHosIIW-Q
➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-vnutrennyaya-motivacziya-dlya-multiagentnogo-obucheniya-s-podkrepleniem/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
Завтра пройдет вебинар НТР "Внутренняя мотивация для мультиагентного обучения с подкреплением"
👨💻Спикер: Влад Большаков, НТР, Россия.
🕑Когда и во сколько: 20 декабря 2022, 18:00 MCK
🗣️Влад о вебинаре:
Задачи с редкими вознаграждениями являются актуальной проблемой в обучении с подкреплением (Reinforcement Learning, RL). Решение таких задач требует эффективных методов исследования, которые часто основаны на использовании принципов внутренней мотивации (Intrinsic Motivation, IM).
Помимо этого существует множество таких задач в контексте мультиагентного обучения с подкреплением (Multi-Agent RL, MARL), где сложности двух этих доменов накладываются друг на друга, ещё больше осложняя решение проблемы.
Мы рассмотрим некоторые подходы в IM, а также их расширение на MARL, которые могут оказаться эффективными в решении подобных задач.
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_iR_OaYHJSZWbsJHosIIW-Q
➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-vnutrennyaya-motivacziya-dlya-multiagentnogo-obucheniya-s-podkrepleniem/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
👍2🤔1
Всем ❄️предновогодний❄️ привет,
Завтра состоится вебинар "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя"
🎅Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США.
🕑Когда и во сколько: 27 декабря 2022, 17:00 MCK
🗣️Арман о вебинаре:
Oбучение модели машинного обучения с частичным привлечением учителя применимо когда разметка дана лишь для небольшого количества данных. Наиболее широко распространенный подход для решения таких задач использует регуляризацию на основе графа схожести, который побуждает cхoжие точки иметь похожие прогнозы.
Несмотря на то что, этот подход был очень успешно применён для разных моделей (например нейронные сети, SVM и т.д.), он остается неприменимым к деревьям решений, для которых оптимизационная задача намного труднее.
Мы предлагаем новый подход на основе переформулировки задачи, требующей итеративного решения двух более простых задач:
1) решение разреженной линейной системы;
2) стандартное обучение дерева. Что касается второй части, потенциально может быть применен любой алгоритм обучения дерева. Тем не менее, недавно предложенная нами метод TAO имеет уникальные свойства, которые делают общую структуру высокоэффективной и масштабируемой даже с очень небольшим количеством помеченных данных.
➕Дополнительные материалы: https://openreview.net/forum?id=cZ41U927n8m
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F3Wn3LQ4SL6Zqt_sggNTWQ
➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-metody-pokoordinatnogo-spuska-dlya-obucheniya-derevev-resheniya-s-chastichnym-privlecheniem-uchitelya/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
Завтра состоится вебинар "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя"
🎅Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США.
🕑Когда и во сколько: 27 декабря 2022, 17:00 MCK
🗣️Арман о вебинаре:
Oбучение модели машинного обучения с частичным привлечением учителя применимо когда разметка дана лишь для небольшого количества данных. Наиболее широко распространенный подход для решения таких задач использует регуляризацию на основе графа схожести, который побуждает cхoжие точки иметь похожие прогнозы.
Несмотря на то что, этот подход был очень успешно применён для разных моделей (например нейронные сети, SVM и т.д.), он остается неприменимым к деревьям решений, для которых оптимизационная задача намного труднее.
Мы предлагаем новый подход на основе переформулировки задачи, требующей итеративного решения двух более простых задач:
1) решение разреженной линейной системы;
2) стандартное обучение дерева. Что касается второй части, потенциально может быть применен любой алгоритм обучения дерева. Тем не менее, недавно предложенная нами метод TAO имеет уникальные свойства, которые делают общую структуру высокоэффективной и масштабируемой даже с очень небольшим количеством помеченных данных.
➕Дополнительные материалы: https://openreview.net/forum?id=cZ41U927n8m
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F3Wn3LQ4SL6Zqt_sggNTWQ
➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-metody-pokoordinatnogo-spuska-dlya-obucheniya-derevev-resheniya-s-chastichnym-privlecheniem-uchitelya/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
OpenReview
Semi-Supervised Learning with Decision Trees: Graph Laplacian Tree...
A novel alternating optimization algorithm to learn accurate and interpretable trees in semi-supervised setting
🔥3
Pro AI
Всем ❄️предновогодний❄️ привет, Завтра состоится вебинар "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя" 🎅Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США. 🕑Когда и во сколько:…
➡️Видеозапись вебинара "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя" от Армана Жармагамбетова.
https://youtu.be/NQJ6PFbaH-g
https://youtu.be/NQJ6PFbaH-g
YouTube
Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя
Научно-технический вебинар НТР от 27 декабря 2022 "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя"
Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США.
Арман о вебинаре:
Oбучение…
Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США.
Арман о вебинаре:
Oбучение…
🔥6
Встречаемся завтра на вебинаре "Трансферное обучение для обнаружения оскорбительного словоупотребления"
🗣️Спикер: Tulika Bose, LORIA, INRIA, CNRS, Université de Lorraine, Nancy, France
🕰️Когда и во сколько: завтра 17 января 2023, 16:00 MCK
📢Спикер о вебинаре:
Распространение социальных сетей, несмотря на множество преимуществ, привело к увеличению распространения оскорбительного словоупотребления.
Модели глубокого обучения для обнаружения оскорбительного словоупотребления продемонстрировали высокий уровень производительности на стандартных наборах данных, но намного хуже себя ведут вдалеке от обучающего распределения.
Хуже того, они требуют значительного количества дорогостоящих размеченных данных для обучения.
Поэтому настоятельно нужна эффективная передача знаний c существующих наборов данных оскорбительного словоупотребления, которые могут иметь различные распределения, на малоресурсные ситуации.
В этом докладе я расскажу о некоторых подходах к трансферному обучению для обнаружения оскорбительного словоупотребления, включая адаптацию к предметной области, для улучшения передачи знаний в межкорпусных сценариях, которые я исследовала во время написания диссертации.
❗Примечание: Язык мероприятия-английский
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_alyn-IXHQHyVttoVLzqoSw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-transfer-learning-for-abusive-language-detection/
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🗣️Спикер: Tulika Bose, LORIA, INRIA, CNRS, Université de Lorraine, Nancy, France
🕰️Когда и во сколько: завтра 17 января 2023, 16:00 MCK
📢Спикер о вебинаре:
Распространение социальных сетей, несмотря на множество преимуществ, привело к увеличению распространения оскорбительного словоупотребления.
Модели глубокого обучения для обнаружения оскорбительного словоупотребления продемонстрировали высокий уровень производительности на стандартных наборах данных, но намного хуже себя ведут вдалеке от обучающего распределения.
Хуже того, они требуют значительного количества дорогостоящих размеченных данных для обучения.
Поэтому настоятельно нужна эффективная передача знаний c существующих наборов данных оскорбительного словоупотребления, которые могут иметь различные распределения, на малоресурсные ситуации.
В этом докладе я расскажу о некоторых подходах к трансферному обучению для обнаружения оскорбительного словоупотребления, включая адаптацию к предметной области, для улучшения передачи знаний в межкорпусных сценариях, которые я исследовала во время написания диссертации.
❗Примечание: Язык мероприятия-английский
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_alyn-IXHQHyVttoVLzqoSw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-transfer-learning-for-abusive-language-detection/
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥5
Pro AI
Встречаемся завтра на вебинаре "Трансферное обучение для обнаружения оскорбительного словоупотребления" 🗣️Спикер: Tulika Bose, LORIA, INRIA, CNRS, Université de Lorraine, Nancy, France 🕰️Когда и во сколько: завтра 17 января 2023, 16:00 MCK 📢Спикер о…
Видеозапись: https://youtu.be/vAconxmcYXU
YouTube
Transfer Learning for Abusive Language Detection
Transfer Learning for Abusive Language Detection
Speaker about the webinar:
The proliferation of social media, despite its multitude of benefits, has led to the increased spread of abusive language.
Deep learning models for detecting abusive language have…
Speaker about the webinar:
The proliferation of social media, despite its multitude of benefits, has led to the increased spread of abusive language.
Deep learning models for detecting abusive language have…
👍3
Ждем завтра на вебинаре "Сертифицированная устойчивость: основы и вызовы"
🗣️Спикер: Александр Петюшко, Nuro, Маунтин Вью, Калифорния, США
🕰️Когда и во сколько: 24 января 2023, 18:00 MCK
📢Спикер о вебинаре:
Уже более 10 лет активно развивается такое направление в машинном обучении, как состязательные атаки на нейросетевые модели (в основном, решающие задачи компьютерного зрения). В связи с этим, как противовес разрабатываются методы защиты моделей от состязательных атак, будучи в основном эмпирическими попытками. Тем не менее, ряд подходов предоставляет теоретические гарантии защиты под общим названием сертифицированной устойчивости. В данном докладе будут представлены как классические методы предоставления гарантий устойчивости и работы по их улучшению, так и принципиальные проблемы, а также предложены подходы по их преодолению.
❗Примечание: Язык мероприятия-английский
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_tMiLfk5AQr6JJ667iGDlww
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-certified-robustness-fundamentals-and-challenges/
--
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🗣️Спикер: Александр Петюшко, Nuro, Маунтин Вью, Калифорния, США
🕰️Когда и во сколько: 24 января 2023, 18:00 MCK
📢Спикер о вебинаре:
Уже более 10 лет активно развивается такое направление в машинном обучении, как состязательные атаки на нейросетевые модели (в основном, решающие задачи компьютерного зрения). В связи с этим, как противовес разрабатываются методы защиты моделей от состязательных атак, будучи в основном эмпирическими попытками. Тем не менее, ряд подходов предоставляет теоретические гарантии защиты под общим названием сертифицированной устойчивости. В данном докладе будут представлены как классические методы предоставления гарантий устойчивости и работы по их улучшению, так и принципиальные проблемы, а также предложены подходы по их преодолению.
❗Примечание: Язык мероприятия-английский
✅Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_tMiLfk5AQr6JJ667iGDlww
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-certified-robustness-fundamentals-and-challenges/
--
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥4
Видеозапись прошедшего вебинара Александр Петюшко, Nuro, Маунтин Вью, Калифорния, США, "Сертифицированная устойчивость: основы и вызовы"
https://youtu.be/N40xcQBIXDg
https://youtu.be/N40xcQBIXDg
YouTube
Certified Robustness: Fundamentals and Challenges. Aleksandr Petiushko, Nuro, USA
Speaker about the webinar:
Adversarial attacks on neural net models (usually solving computer vision tasks) have been an active machine learning research topic for more than 10 years. To mitigate the devastating effect of adversarial examples the methods…
Adversarial attacks on neural net models (usually solving computer vision tasks) have been an active machine learning research topic for more than 10 years. To mitigate the devastating effect of adversarial examples the methods…
🔥2
⚡️Завтра 3 февраля в 17.00 Николай Михайловский, генеральный директор НТР, выступит на вебинаре «Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами».
🗣Николай о вебинаре:
В последние годы появились неожиданно мощные языковые модели, опирающиеся на идеи статистического описания языка и дистрибутивной семантики. Взять ту же ChatGPT.
При этом мы удивительно мало знаем о статистических и дистрибутивных свойствах языка, а именно они определяют эффективность использования тех или иных языковых моделей.
Мой доклад - одна из попыток привлечь внимание лингвистов и математиков к этой тематике.
📌Для получения ссылки на Zoom-конференцию, пожалуйста, заполните регистрационную форму.
Организаторы: Проект "Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами"
🗣Николай о вебинаре:
В последние годы появились неожиданно мощные языковые модели, опирающиеся на идеи статистического описания языка и дистрибутивной семантики. Взять ту же ChatGPT.
При этом мы удивительно мало знаем о статистических и дистрибутивных свойствах языка, а именно они определяют эффективность использования тех или иных языковых моделей.
Мой доклад - одна из попыток привлечь внимание лингвистов и математиков к этой тематике.
📌Для получения ссылки на Zoom-конференцию, пожалуйста, заполните регистрационную форму.
Организаторы: Проект "Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами"
Google Docs
Доклад "Текст как большие данные" (3 февраля, 17:00)
Регистрация на доклад в рамках нового проекта "Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами". Если Вы уже получили ссылку на zoom-конференцию по электронной почте, в заполнении этой формы нет необходимости.
🔥4👍2🤔1