Self-supervised learning (самообучение) - основа машинного обучения во многих областях. Вычислительную лингвистику невозможно представить без языковых моделей. В изображениях, видео и распознавании речи обучение представлений на неразмеченных данных - тоже привлекательная опция, потому что неразмеченных данных обычно больше, чем размеченных, и они более полно описывают мир.
Алексей Зайцев из Сколтеха расскажет на очередном нашем вебинаре о том, как можно описать основные подходы в этой области и для каких еще модальностей можно и нужно применять самообучение.
Когда: 17 мая, 16:00 MCK
Спикер: Алексей Зайцев, Сколтех, Москва, Россия
Тема: Самообучение для последовательных данных
👉Регистрация
Алексей Зайцев из Сколтеха расскажет на очередном нашем вебинаре о том, как можно описать основные подходы в этой области и для каких еще модальностей можно и нужно применять самообучение.
Когда: 17 мая, 16:00 MCK
Спикер: Алексей Зайцев, Сколтех, Москва, Россия
Тема: Самообучение для последовательных данных
👉Регистрация
Pro AI
Self-supervised learning (самообучение) - основа машинного обучения во многих областях. Вычислительную лингвистику невозможно представить без языковых моделей. В изображениях, видео и распознавании речи обучение представлений на неразмеченных данных - тоже…
Видеозапись вебинара про самообучение для последовательных данных: https://youtu.be/ueGOCobdLVg
YouTube
Самообучение для последовательных данных
Алексей Зайцев, Сколтех, Москва, Россия
Обучение представлений на неразмеченных данных — привлекательная опция, потому что неразмеченных данных обычно больше, чем размеченных, и они более полно описывают мир.
Основной фокус исследований в этой области был…
Обучение представлений на неразмеченных данных — привлекательная опция, потому что неразмеченных данных обычно больше, чем размеченных, и они более полно описывают мир.
Основной фокус исследований в этой области был…
🔥3
Михаил_Белкин_Чему_учит_глубокое_обучение_docx.pdf
3.3 MB
Текстовый вариант вебинара Михаила Белкина «Чему учит глубокое обучение?».
Google-документ или PDF
Приятного чтения:)
Google-документ или PDF
Приятного чтения:)
🔥3
Существует множество подходов, которые используют GANы и вариационные автоэнкодеры для генерации гридов месторождений, но они используют "конвенциональные" свертки, поэтому данные имеют обычную (прямоугольную) форму. На очередном научно-техническом вебинаре НТР&HITs ТГУ Роман Выгон опишет новый подход к использованию вариационных автоэнкодеров с графовыми свёртками. Такой подход позволяет эффективно работать с трех- и, потенциально, многомерными областями сложной формы.
Когда: 31 мая 2022, 12:00 MCK (16:00 по Томску)
Спикер: Роман Выгон, НТР, Россия
Тема: Использование графовых свёрток и генеративного глубокого обучения для адаптации геологических моделей
➡️Сайт
➡️Регистрация
Когда: 31 мая 2022, 12:00 MCK (16:00 по Томску)
Спикер: Роман Выгон, НТР, Россия
Тема: Использование графовых свёрток и генеративного глубокого обучения для адаптации геологических моделей
➡️Сайт
➡️Регистрация
👍3
Вебинар начнется через 10 минут!
Спикер: Роман Выгон, НТР, Россия
Тема: Использование графовых свёрток и генеративного глубокого обучения для адаптации геологических моделей
➡️Регистрация
Спикер: Роман Выгон, НТР, Россия
Тема: Использование графовых свёрток и генеративного глубокого обучения для адаптации геологических моделей
➡️Регистрация
Всем привет!
Вчера Влад Большаков из НТР выступил на внутренней встрече компании с темой "Введение в обучение с подкреплением".
Делимся с вами ссылочкой на видео:)
Вчера Влад Большаков из НТР выступил на внутренней встрече компании с темой "Введение в обучение с подкреплением".
Делимся с вами ссылочкой на видео:)
👍5❤1
Алексей_Тихонов_Текст_стиль_+_контент_+_структура_docx.pdf
5 MB
Публикуем расшифровку вебинара Алексея Тихонова "Текст: стиль+контент+структура".
Google-документ и PDF.
Google-документ и PDF.
👍6
Всем привет!
Несмотря на то, что текстовые данные обычно представляются в виде последовательности токенов, существует множество задач вычислительной лингвистики, которые проще всего представить на основе графов. Сегодня Денис Кузнецов из DeepPavlov на научно-техническом вебинаре НТР&HITs расскажет о своих исследованиях, которые показывают, что использование графовых нейронных сетей (GNN) дает выигрыш в качестве на задачах ведения диалога. . В докладе будет проведен обзор GNN, моделей глубокого обучения для задачи Response Prediction, улучшение метрик задачи Response Prediction с использованием GNN
Когда: 14 июня 2022, 18:00 MCK (22:00 по Томску)
Спикер: Денис Кузнецов, Лаборатория нейронных систем и глубокого обучения DeepPavlov, Москва, Россия
Тема: Применение моделей глубокого обучения с графами для задач ведения диалога
Сайт
Регистрация
Несмотря на то, что текстовые данные обычно представляются в виде последовательности токенов, существует множество задач вычислительной лингвистики, которые проще всего представить на основе графов. Сегодня Денис Кузнецов из DeepPavlov на научно-техническом вебинаре НТР&HITs расскажет о своих исследованиях, которые показывают, что использование графовых нейронных сетей (GNN) дает выигрыш в качестве на задачах ведения диалога. . В докладе будет проведен обзор GNN, моделей глубокого обучения для задачи Response Prediction, улучшение метрик задачи Response Prediction с использованием GNN
Когда: 14 июня 2022, 18:00 MCK (22:00 по Томску)
Спикер: Денис Кузнецов, Лаборатория нейронных систем и глубокого обучения DeepPavlov, Москва, Россия
Тема: Применение моделей глубокого обучения с графами для задач ведения диалога
Сайт
Регистрация
👍2
Pro AI
Всем привет! Несмотря на то, что текстовые данные обычно представляются в виде последовательности токенов, существует множество задач вычислительной лингвистики, которые проще всего представить на основе графов. Сегодня Денис Кузнецов из DeepPavlov на научно…
Видеозапись уже доступна: https://youtu.be/GkyD4EfX7MA
YouTube
Применение моделей глубокого обучения с графами для задач ведения диалога
Денис Кузнецов, Лаборатория нейронных систем и глубокого обучения DeepPavlov, Москва, Россия.
В своем выступлении Денис рассказал про исследования, которые показали, что использование GNN дает выигрыш в качестве на задачах ведения диалога в домене NLP. В…
В своем выступлении Денис рассказал про исследования, которые показали, что использование GNN дает выигрыш в качестве на задачах ведения диалога в домене NLP. В…
👍6
Системы для определения дипфейков плохо генерализируются на новых базах данных или новых дипфейках.
На сегодняшнем вебинаре Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария продемонстрирует эту проблему и предложит несколько общих подходов, которые должны улучшить генерализацию моделей для определения дипфейков.
Павел рассмотрит такие подходы как: увеличение разнообразия данных при тренировке с помощью агрессивной генерации данных, тонкая настройка моделей под новые данные и переформатирование моделей под обучение для атрибуции вместо обычной бинарной классификации.
Когда: сегодня в 16:00 MCK
Спикер: Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария
Тема: Улучшение генерализации при определении дипфейков
Сайт
Регистрация
На сегодняшнем вебинаре Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария продемонстрирует эту проблему и предложит несколько общих подходов, которые должны улучшить генерализацию моделей для определения дипфейков.
Павел рассмотрит такие подходы как: увеличение разнообразия данных при тренировке с помощью агрессивной генерации данных, тонкая настройка моделей под новые данные и переформатирование моделей под обучение для атрибуции вместо обычной бинарной классификации.
Когда: сегодня в 16:00 MCK
Спикер: Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария
Тема: Улучшение генерализации при определении дипфейков
Сайт
Регистрация
👍2
Pro AI
Системы для определения дипфейков плохо генерализируются на новых базах данных или новых дипфейках. На сегодняшнем вебинаре Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария продемонстрирует эту проблему и предложит несколько общих подходов…
Видеозапись: https://youtu.be/ZockRUVLlR0
YouTube
Улучшение генерализации при определении дипфейков
Павел Коршунов, Исследовательский институт Idiap, Мартиньи, Швейцария
Системы для определения дипфейков плохо генерализируются на новых базах данных или новых дипфейках. В этом вебинаре Павел продемонстрировал эту проблему и предложил несколько общих подходов…
Системы для определения дипфейков плохо генерализируются на новых базах данных или новых дипфейках. В этом вебинаре Павел продемонстрировал эту проблему и предложил несколько общих подходов…
👍3
Всем привет,
На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых систем, применяемые подходы и способ разработки multiskill ассистента на платформе Dream.
Когда: 12 июля 2022, 17:00 MCK (21:00 по Томску)
Спикер: Мария Молчанова, DeepPavlov, Москва, Россия
Тема: Обзор методов и платформ для разработки диалоговых систем
➡️Сайт
➡️Регистрация
На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых систем, применяемые подходы и способ разработки multiskill ассистента на платформе Dream.
Когда: 12 июля 2022, 17:00 MCK (21:00 по Томску)
Спикер: Мария Молчанова, DeepPavlov, Москва, Россия
Тема: Обзор методов и платформ для разработки диалоговых систем
➡️Сайт
➡️Регистрация
🔥3
Pro AI
Всем привет, На следующей неделе состоится вебинар НТР&HITs ТГУ, где Мария Молчанова из DeepPavlov, Москва, рассмотрит виды диалоговых систем и методы их разработки. Также Мария расскажет про вызовы, с которыми сталкиваются разработчики различных типов диалоговых…
Видеозапись: https://youtu.be/27chgvhnk_s
YouTube
Обзор методов и платформ для разработки диалоговых систем
Научно-технический вебинар «Обзор методов и платформ для разработки диалоговых систем»
Организатор: IT-компания НТР и Высшая IT-школа Томского Государственного Университета
Спикер:
Мария Молчанова, DeepPavlov, Москва, Россия
Спикер о работе:
В докладе…
Организатор: IT-компания НТР и Высшая IT-школа Томского Государственного Университета
Спикер:
Мария Молчанова, DeepPavlov, Москва, Россия
Спикер о работе:
В докладе…
🔥3
Всем привет,
Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN.
Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении. Сдвиги вдоль этих векторов приводят к интерпретируемым изменениям на самом изображении, например, можно менять цвет волос, добавлять очки и т. д. Я расскажу про две наши статьи, в которых мы рассмотрели как линейные, так и нелинейные сдвиги в латентном пространстве GAN.
Когда: сегодня 26 июля, 13:00 MCK (17:00 по Томску)
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Тема: Манипуляции изображений при помощи сетей GAN
Сайт
Регистрация
Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN.
Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении. Сдвиги вдоль этих векторов приводят к интерпретируемым изменениям на самом изображении, например, можно менять цвет волос, добавлять очки и т. д. Я расскажу про две наши статьи, в которых мы рассмотрели как линейные, так и нелинейные сдвиги в латентном пространстве GAN.
Когда: сегодня 26 июля, 13:00 MCK (17:00 по Томску)
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Тема: Манипуляции изображений при помощи сетей GAN
Сайт
Регистрация
Zoom Video Communications
Welcome! You are invited to join a webinar: Манипуляции изображений при помощи сетей GAN. After registering, you will receive a…
Спикер: Лейла Мирвахабова, Сколтех, Москва, Россия
Pro AI
Всем привет, Сегодня состоится вебинар, где Лейла Мирвахабова, Сколтех, Москва, Россия, расскажет про манипуляции изображений при помощи сетей GAN. Лейла о вебинаре: Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически…
Видеозапись вчерашнего вебинара с Лейлой Мирвахабовой уже доступна на YouTube-канале.
Дополнительные материалы от Лейлы можно найти здесь.
Дополнительные материалы от Лейлы можно найти здесь.
YouTube
Манипуляции изображений при помощи сетей GAN
26 июля 2022 Лейла Мирвахабова из Сколтех провела научно-технический вебинар «Манипуляции изображений при помощи сетей GAN».
Лейла о работе:
Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении.…
Лейла о работе:
Считается, что в латентных пространствах GAN есть векторы, соответствующие семантически значимым признакам на изображении.…
👍7
Всем привет,
В августе мы делаем запланированный перерыв в проведении научно-технических вебинаров. А также уже активно готовимся к вебинарам, которые пройдут осенью.
Предположительная дата следующего вебинара - 6 сентября.
Напоминаем, что мы готовы рассматривать кандидатуры на роль спикеров. Если у Вас есть интересный материал, то можете написать мне в личных сообщениях Telegram (@heabyfik) или на почту rrafikova@ntr.ai.
Не забывайте, что на YouTube-канале можно найти видеозаписи предыдущих вебинаров.
Всем отличного августа!☀️
В августе мы делаем запланированный перерыв в проведении научно-технических вебинаров. А также уже активно готовимся к вебинарам, которые пройдут осенью.
Предположительная дата следующего вебинара - 6 сентября.
Напоминаем, что мы готовы рассматривать кандидатуры на роль спикеров. Если у Вас есть интересный материал, то можете написать мне в личных сообщениях Telegram (@heabyfik) или на почту rrafikova@ntr.ai.
Не забывайте, что на YouTube-канале можно найти видеозаписи предыдущих вебинаров.
Всем отличного августа!☀️
👍8👏1
Всем привет,
Завтра состоится вебинар НТР&HITs ТГУ, где Дмитрий Зубарев из IBM Research - Алмаден рассмотрит рекомендации экспериментов по открытию полимеров и нейросимволическому обучению с подкреплением
Когда: 20 сентября 2022, 16:00 MCK
Спикер: Дмитрий Зубарев, исследовательский центр Алмаден, IBM Research - Алмаден, Сан-Хосе, Калифорния, США
➡️Сайт
➡️Регистрация
Завтра состоится вебинар НТР&HITs ТГУ, где Дмитрий Зубарев из IBM Research - Алмаден рассмотрит рекомендации экспериментов по открытию полимеров и нейросимволическому обучению с подкреплением
Когда: 20 сентября 2022, 16:00 MCK
Спикер: Дмитрий Зубарев, исследовательский центр Алмаден, IBM Research - Алмаден, Сан-Хосе, Калифорния, США
➡️Сайт
➡️Регистрация
👍6
Всем привет,
Завтра состоится вебинар с участием Анастасии Ремизовой из Федеральной политехнической школы Лозанны, Швейцария. Анастасия рассмотрит Трехмерную реконструкцию тела человека с использованием SMPL модели.
В этом докладе Анастасия расскажет про модель SMPL (Skinned Multi-Person Linear Model). Эта модель представляет телосложение и позу человека как набор параметров в низкоразмерном пространстве, которые затем можно отобразить в 3D-сетку человеческого тела.
На вебинаре рассмотрим, как работает эта модель и как она может быть использована в задачах реконструкции тела человека.
Когда: завтра 27 сентября 2022, 16:00 MCK
Спикер: Анастасия Ремизова, Федеральная политехническая школа Лозанны, Швейцария
➡️Сайт
➡️Регистрация
Завтра состоится вебинар с участием Анастасии Ремизовой из Федеральной политехнической школы Лозанны, Швейцария. Анастасия рассмотрит Трехмерную реконструкцию тела человека с использованием SMPL модели.
В этом докладе Анастасия расскажет про модель SMPL (Skinned Multi-Person Linear Model). Эта модель представляет телосложение и позу человека как набор параметров в низкоразмерном пространстве, которые затем можно отобразить в 3D-сетку человеческого тела.
На вебинаре рассмотрим, как работает эта модель и как она может быть использована в задачах реконструкции тела человека.
Когда: завтра 27 сентября 2022, 16:00 MCK
Спикер: Анастасия Ремизова, Федеральная политехническая школа Лозанны, Швейцария
➡️Сайт
➡️Регистрация
👍3
Сегодня вебинар проведет генеральный директор НТР Николай Михайловский с темой "Об обучении языковых моделей, основанных на грамматиках связей, без учителя"
Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK
Николай о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой. Он является проявлением более фундаментальных статистических характеристик текста, которые, видимо, связаны с иерархическим устройством человеческой коммуникации. Из этого следуют фундаментальные же выводы о характеристиках языковых моделей (иерархичность контекстов), которые пока что можно обсуждать в гуманитарном их аспекте.
Интересно, что многие классические работы по вычислительной лингвистике 90-х годов игнорируют свойства контекстности, и безоглядное использование их результатов приводит к ошибкам. Такие проблемы, например, встречаются, при попытках обучать языковые модели, основанные на грамматиках связей, без учителя.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F44AnOJCT1WFpbdjE5iUKg
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-ob-obuchenii-yazykovyh-modelej-osnovannyh-na-grammatikah-svyazej-bez-uchitelya/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/channel/UCi8TSxLIp-hb8lnYpU7XUmw
Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK
Николай о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой. Он является проявлением более фундаментальных статистических характеристик текста, которые, видимо, связаны с иерархическим устройством человеческой коммуникации. Из этого следуют фундаментальные же выводы о характеристиках языковых моделей (иерархичность контекстов), которые пока что можно обсуждать в гуманитарном их аспекте.
Интересно, что многие классические работы по вычислительной лингвистике 90-х годов игнорируют свойства контекстности, и безоглядное использование их результатов приводит к ошибкам. Такие проблемы, например, встречаются, при попытках обучать языковые модели, основанные на грамматиках связей, без учителя.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_F44AnOJCT1WFpbdjE5iUKg
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-ob-obuchenii-yazykovyh-modelej-osnovannyh-na-grammatikah-svyazej-bez-uchitelya/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/channel/UCi8TSxLIp-hb8lnYpU7XUmw
🔥7👍1
Pro AI
Сегодня вебинар проведет генеральный директор НТР Николай Михайловский с темой "Об обучении языковых моделей, основанных на грамматиках связей, без учителя" Когда и во сколько: сегодня 18 октября 2022, 15:00 MCK Николай о вебинаре: Закон Ципфа хорошо знаком…
Видеозапись вчерашнего вебинара Николая Михайловского, НТР, на тему "Об обучении языковых моделей, основанных на грамматиках связей, без учителя".
Приятного просмотра!
Приятного просмотра!
YouTube
Об обучении языковых моделей, основанных на грамматиках связей, без учителя
Николай Михайловский, генеральный директор НТР, провел научно-технический вебинар на тему "Об обучении языковых моделей, основанных на грамматиках связей, без учителя".
Спикер о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой.…
Спикер о вебинаре: Закон Ципфа хорошо знаком всем, кто занимается вычислительной лингвистикой.…
👍2🔥1
Завтра состоится вебинар на тему «Доброкачественное переобучение в моделях, дополненных поиском по хранилищу»
Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Женисбек о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает, что запоминание редких/атипичных примеров неизбежно при обучении на естественных данных.
Несмотря на то, что современные глубокие нейронные сети имеют возможность запоминать (почти) всю обучающую выборку, при обучении с SGD они этого не делают. Напротив, они доброкачественно переобучаются, то есть делают точные прогнозы на новых данных, несмотря на идеальную подгонку к обучающей выборке.
Грубо говоря, все это происходит из-за неявной предвзятости к простоте: SGD предпочитает более простые и надежные модели и использует возможности нейронной сети для запоминания, чтобы подгоняться к нетипичным/редким примерам только в случае необходимости.
В то же время специалисты по машинному обучению (особенно в области обработки естественного языка) придумали, как использовать эту возможность для более эффективного обучения: модели, дополненные поиском по хранилищу данных (kNN-LM, RETRO) явно запоминают (часть) обучающей выборки в хранилище и, таким образом, пытаются (частично) снять нагрузку запоминания с нейронной сети. Насколько мне известно, в настоящее время нет теоретического анализа доброкачественного переобучения в таких моделях.
В своем выступлении я предложу несколько возможных исследовательских вопросов, касающихся доброкачественной переобучения в моделях, снабженных поиском по хранилищу, для дальнейшего обсуждения с участниками вебинара.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_TO0nR8adT6-44zlMxhqpnw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-dobrokachestvennoe-pereobuchenie-v-modelyah-dopolnennyh-poiskom-po-hranilishhu/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/@NTRLabs.Webinar
Когда и во сколько: завтра 8 ноября 2022, 13:00 MCK
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
Женисбек о вебинаре:
Теория длинного хвоста Фельдмана (STOC 2020) утверждает, что запоминание редких/атипичных примеров неизбежно при обучении на естественных данных.
Несмотря на то, что современные глубокие нейронные сети имеют возможность запоминать (почти) всю обучающую выборку, при обучении с SGD они этого не делают. Напротив, они доброкачественно переобучаются, то есть делают точные прогнозы на новых данных, несмотря на идеальную подгонку к обучающей выборке.
Грубо говоря, все это происходит из-за неявной предвзятости к простоте: SGD предпочитает более простые и надежные модели и использует возможности нейронной сети для запоминания, чтобы подгоняться к нетипичным/редким примерам только в случае необходимости.
В то же время специалисты по машинному обучению (особенно в области обработки естественного языка) придумали, как использовать эту возможность для более эффективного обучения: модели, дополненные поиском по хранилищу данных (kNN-LM, RETRO) явно запоминают (часть) обучающей выборки в хранилище и, таким образом, пытаются (частично) снять нагрузку запоминания с нейронной сети. Насколько мне известно, в настоящее время нет теоретического анализа доброкачественного переобучения в таких моделях.
В своем выступлении я предложу несколько возможных исследовательских вопросов, касающихся доброкачественной переобучения в моделях, снабженных поиском по хранилищу, для дальнейшего обсуждения с участниками вебинара.
Регистрация на вебинар: https://ntrlab.zoom.us/webinar/register/2016215990886/WN_TO0nR8adT6-44zlMxhqpnw
Страница вебинара на сайте НТР: https://ntr.ai/webinar/nauchno-tehnicheskij-vebinar-dobrokachestvennoe-pereobuchenie-v-modelyah-dopolnennyh-poiskom-po-hranilishhu/
Предыдущие вебинары доступны на YouTube-канале: https://www.youtube.com/@NTRLabs.Webinar
Zoom
Welcome! You are invited to join a webinar: Доброкачественное переобучение в моделях, дополненных поиском по хранилищу. After registering…
Спикер: Женисбек Ассылбеков, Назарбаев Университет, Нур-Султан, Казахстан
🔥8