Pro AI – Telegram
Всем привет,

На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых систем, применяемые подходы и способ разработки multiskill ассистента на платформе Dream.

Когда: 12 июля 2022, 17:00 MCK (21:00 по Томску)
Спикер: Мария Молчанова, DeepPavlov, Москва, Россия
Тема: Обзор методов и платформ для разработки диалоговых систем
➡️Сайт
➡️Регистрация
🔥3
Всем привет,

Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN.

Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении. Сдвиги вдоль этих векторов приводят к интерпретируемым изменениям на самом изображении, например, можно менять цвет волос, добавлять очки и т. д. Я расскажу про две наши статьи, в которых мы рассмотрели как линейные, так и нелинейные сдвиги в латентном пространстве GAN.

Когда: сегодня 26 июля, 13:00 MCK (17:00 по Томску)
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Тема: Манипуляции изображений при помощи сетей GAN
Сайт
Регистрация
Всем привет,

В августе мы делаем запланированный перерыв в проведении научно-технических вебинаров. А также уже активно готовимся к вебинарам, которые пройдут осенью.

Предположительная дата следующего вебинара - 6 сентября.

Напоминаем, что мы готовы рассматривать кандидатуры на роль спикеров. Если у Вас есть интересный материал, то можете написать мне в личных сообщениях Telegram (@heabyfik) или на почту rrafikova@ntr.ai.

Не забывайте, что на YouTube-канале можно найти видеозаписи предыдущих вебинаров.

Всем отличного августа!☀️
👍8👏1
Всем привет,

Завтра состоится вебинар НТР&HITs ТГУ, где Дмитрий Зубарев из IBM Research - Алмаден рассмотрит рекомендации экспериментов по открытию полимеров и нейросимволическому обучению с подкреплением

Когда: 20 сентября 2022, 16:00 MCK
Спикер: Дмитрий Зубарев, исследовательский центр Алмаден, IBM Research - Алмаден, Сан-Хосе, Калифорния, США
➡️Сайт
➡️Регистрация
👍6
Всем привет,

Завтра состоится вебинар с участием Анастасии Ремизовой из Федеральной политехнической школы Лозанны, Швейцария. Анастасия рассмотрит Трехмерную реконструкцию тела человека с использованием SMPL модели.

В этом докладе Анастасия расскажет про модель SMPL (Skinned Multi-Person Linear Model). Эта модель представляет телосложение и позу человека как набор параметров в низкоразмерном пространстве, которые затем можно отобразить в 3D-сетку человеческого тела.
На вебинаре рассмотрим, как работает эта модель и как она может быть использована в задачах реконструкции тела человека.


Когда: завтра 27 сентября 2022, 16:00 MCK
Спикер: Анастасия Ремизова, Федеральная политехническая школа Лозанны, Швейцария
➡️Сайт
➡️Регистрация
👍3
Сегодня вебинар проведет генеральный директор НТР Николай Михайловский с темой "Об обучении языковых моделей, основанных на грамматиках связей, без учителя"

Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK

Николай о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой. Он является проявлением более фундаментальных статистических характеристик текста, которые, видимо, связаны с иерархическим устройством человеческой коммуникации. Из этого следуют фундаментальные же выводы о характеристиках языковых моделей (иерархичность контекстов), которые пока что можно обсуждать в гуманитарном их аспекте.
Интересно, что многие классические работы по вычислительной лингвистике 90-х годов игнорируют свойства контекстности, и безоглядное использование их результатов приводит к ошибкам. Такие проблемы, например, встречаются, при попытках обучать языковые модели, основанные на грамматиках связей, без учителя.

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F44AnOJCT1WFpbdjE5iUKg

Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-ob-obuchenii-yazykovyh-modelej-osnovannyh-na-grammatikah-svyazej-bez-uchitelya/

Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/channel/UCi8TSxLIp-hb8lnYpU7XUmw
🔥7👍1
Завтра состоится вебинар на тему «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»

Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK

Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан

Женисбек о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает, что запоминание редких/атипичных примеров неизбежно при обучении на естественных данных.
Несмотря на то, что современные глубокие нейронные сети имеют возможность запоминать (почти) всю обучающую выборку, при обучении с SGD они этого не делают. Напротив, они доброкачественно переобучаются, то есть делают точные прогнозы на новых данных, несмотря на идеальную подгонку к обучающей выборке.
Грубо говоря, все это происходит из-за неявной предвзятости к простоте: SGD предпочитает более простые и надежные модели и использует возможности нейронной сети для запоминания, чтобы подгоняться к нетипичным/редким примерам только в случае необходимости.
В то же время специалисты по машинному обучению (особенно в области обработки естественного языка) придумали, как использовать эту возможность для более эффективного обучения: модели, дополненные поиском по хранилищу данных (kNN-LM, RETRO) явно запоминают (часть) обучающей выборки в хранилище и, таким образом, пытаются (частично) снять нагрузку запоминания с нейронной сети. Насколько мне известно, в настоящее время нет теоретического анализа доброкачественного переобучения в таких моделях.
В своем выступлении я предложу несколько возможных исследовательских вопросов, касающихся доброкачественной переобучения в моделях, снабженных поиском по хранилищу, для дальнейшего обсуждения с участниками вебинара.

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_TO0nR8adT6-44zlMxhqpnw

Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-dobrokachestvennoe-pereobuchenie-v-modelyah-dopolnennyh-poiskom-po-hranilishhu/

Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/@NTRLabs.Webinar
🔥8
Всем привет,

Приглашаем на научно-технический вебинар "О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1"

Спикер:
Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия

Когда и во сколько:
завтра 15 ноября 2022, 15:30 MCK (19:30 по Томску)

Спикер о вебинаре:

В докладе пойдет речь о семействах замкнутых множеств (известных как семейства Мура) для случая, когда все одноэлементные множества семейства замкнуты. Задача порождения таких семейств для объектно-признаковых или транзакционных данных хорошо известна в майнинге данных как поиск частых (замкнутых) множеств товаров (Frequent Itemset Mining).
В частности, нами приводится количество таких строгих (включающих пустое множество) и нестрогих семейств для 6 элементов (признаков). Мы также приводим количество таких неэквивалентных семейств Мура относительно всех перестановок базового множества вплоть до n = 6. Поиск в OEIS и существующей литературе показал совпадение найденных чисел (с учетом изоморфизма семейств) с числом решеток на основе объединения множеств, полученным Д.М. Дэвисом (последовательность OEIS A235604, до n=5), и c |L_n| (без учета изоморфизма) – числом атомистических решеток на n атомах, найденным С. Мейпс (до n=6), соответственно. Нами установлено взаимно-однозначные соответствия между этими тремя типами решеток на основе соответствий Галуа и анализа формальных понятий (Formal Concept Analysis).
Кратко обсуждаются два использованных перечислительных алгоритма, а также дополнительные результаты их работы наибольший размер семейства множеств без пересечений для n=6, наша гипотеза для n=7, верхняя граница числа атомистических решеток L_n и некоторые структурные свойства L_n, основанные на теории экстремальных решеток.

Регистрация на вебинар:
https://ntrlab.zoom.us/webinar/register/2016215990886/WN_9ppXnwllTm2_6aQNveBbKQ

Страница вебинара на сайте НТР:
https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-o-kriptomorfizme-mezhdu-reshetkami-podmnozhestv-devisa-atomisticheskimi-reshetkami-sistemami-zamknutyh-mnozhestv-pri-vypolnenii-aksiomy-otdelimosti-t1/

--

Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥4👍1
Pro AI
Всем привет, Приглашаем на научно-технический вебинар "О криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1" Спикер: Дмитрий Игнатов, НИУ ВШЭ, Москва, Россия Когда…
Видеозапись выступления Дмитрия Игнатова из ВШЭ о криптоморфизме между решетками подмножеств Дэвиса, атомистическими решетками, системами замкнутых множеств при выполнении аксиомы отделимости T1: https://youtu.be/fxM6YnpP-bs
🔥3
Всем привет,

Завтра пройдет вебинар НТР "Внутренняя мотивация для мультиагентного обучения с подкреплением"

👨‍💻Спикер: Влад Большаков, НТР, Россия.

🕑Когда и во сколько: 20 декабря 2022, 18:00 MCK

🗣️Влад о вебинаре:
Задачи с редкими вознаграждениями являются актуальной проблемой в обучении с подкреплением (Reinforcement Learning, RL). Решение таких задач требует эффективных методов исследования, которые часто основаны на использовании принципов внутренней мотивации (Intrinsic Motivation, IM).
Помимо этого существует множество таких задач в контексте мультиагентного обучения с подкреплением (Multi-Agent RL, MARL), где сложности двух этих доменов накладываются друг на друга, ещё больше осложняя решение проблемы.
Мы рассмотрим некоторые подходы в IM, а также их расширение на MARL, которые могут оказаться эффективными в решении подобных задач.

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_iR_OaYHJSZWbsJHosIIW-Q

➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-vnutrennyaya-motivacziya-dlya-multiagentnogo-obucheniya-s-podkrepleniem/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
👍2🤔1
Всем ❄️предновогодний❄️ привет,

Завтра состоится вебинар "Методы покоординатного спуска для обучения деревьев решения с частичным привлечением учителя"

🎅Спикер: Арман Жармагамбетов, Калифорнийский университет в Мерседе, Калифорния, США.

🕑Когда и во сколько: 27 декабря 2022, 17:00 MCK

🗣️Арман о вебинаре:
Oбучение модели машинного обучения с частичным привлечением учителя применимо когда разметка дана лишь для небольшого количества данных. Наиболее широко распространенный подход для решения таких задач использует регуляризацию на основе графа схожести, который побуждает cхoжие точки иметь похожие прогнозы.
Несмотря на то что, этот подход был очень успешно применён для разных моделей (например нейронные сети, SVM и т.д.), он остается неприменимым к деревьям решений, для которых оптимизационная задача намного труднее.
Мы предлагаем новый подход на основе переформулировки задачи, требующей итеративного решения двух более простых задач:
1) решение разреженной линейной системы;
2) стандартное обучение дерева. Что касается второй части, потенциально может быть применен любой алгоритм обучения дерева. Тем не менее, недавно предложенная нами метод TAO имеет уникальные свойства, которые делают общую структуру высокоэффективной и масштабируемой даже с очень небольшим количеством помеченных данных.

Дополнительные материалы: https://openreview.net/forum?id=cZ41U927n8m

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F3Wn3LQ4SL6Zqt_sggNTWQ

➡️Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-metody-pokoordinatnogo-spuska-dlya-obucheniya-derevev-resheniya-s-chastichnym-privlecheniem-uchitelya/
--
🎥Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥3
Встречаемся завтра на вебинаре "Трансферное обучение для обнаружения оскорбительного словоупотребления"

🗣️Спикер: Tulika Bose, LORIA, INRIA, CNRS, Université de Lorraine, Nancy, France

🕰️Когда и во сколько: завтра 17 января 2023, 16:00 MCK

📢Спикер о вебинаре:
Распространение социальных сетей, несмотря на множество преимуществ, привело к увеличению распространения оскорбительного словоупотребления.
Модели глубокого обучения для обнаружения оскорбительного словоупотребления продемонстрировали высокий уровень производительности на стандартных наборах данных, но намного хуже себя ведут вдалеке от обучающего распределения.
Хуже того, они требуют значительного количества дорогостоящих размеченных данных для обучения.
Поэтому настоятельно нужна эффективная передача знаний c существующих наборов данных оскорбительного словоупотребления, которые могут иметь различные распределения, на малоресурсные ситуации.
В этом докладе я расскажу о некоторых подходах к трансферному обучению для обнаружения оскорбительного словоупотребления, включая адаптацию к предметной области, для улучшения передачи знаний в межкорпусных сценариях, которые я исследовала во время написания диссертации.

Примечание: Язык мероприятия-английский

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_alyn-IXHQHyVttoVLzqoSw

Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-transfer-learning-for-abusive-language-detection/

Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥5
Ждем завтра на вебинаре "Сертифицированная устойчивость: основы и вызовы"

🗣️Спикер: Александр Петюшко, Nuro, Маунтин Вью, Калифорния, США

🕰️Когда и во сколько: 24 января 2023, 18:00 MCK

📢Спикер о вебинаре:
Уже более 10 лет активно развивается такое направление в машинном обучении, как состязательные атаки на нейросетевые модели (в основном, решающие задачи компьютерного зрения). В связи с этим, как противовес разрабатываются методы защиты моделей от состязательных атак, будучи в основном эмпирическими попытками. Тем не менее, ряд подходов предоставляет теоретические гарантии защиты под общим названием сертифицированной устойчивости. В данном докладе будут представлены как классические методы предоставления гарантий устойчивости и работы по их улучшению, так и принципиальные проблемы, а также предложены подходы по их преодолению.

Примечание: Язык мероприятия-английский

Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_tMiLfk5AQr6JJ667iGDlww

Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-certified-robustness-fundamentals-and-challenges/
--
Youtube: https://www.youtube.com/@NTRLabs.Webinar
🔥4
Видеозапись прошедшего вебинара Александр Петюшко, Nuro, Маунтин Вью, Калифорния, США, "Сертифицированная устойчивость: основы и вызовы"

https://youtu.be/N40xcQBIXDg
🔥2
⚡️Завтра 3 февраля в 17.00 Николай Михайловский, генеральный директор НТР, выступит на вебинаре «Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами».

🗣Николай о вебинаре:
В последние годы появились неожиданно мощные языковые модели, опирающиеся на идеи статистического описания языка и дистрибутивной семантики. Взять ту же ChatGPT.
При этом мы удивительно мало знаем о статистических и дистрибутивных свойствах языка, а именно они определяют эффективность использования тех или иных языковых моделей.
Мой доклад - одна из попыток привлечь внимание лингвистов и математиков к этой тематике.

📌Для получения ссылки на Zoom-конференцию, пожалуйста, заполните регистрационную форму.

Организаторы: Проект "Текст как Big Data: моделирование конвергентных процессов в языке и речи цифровыми методами"
🔥4👍2🤔1