Хорошая серия постов про то, почему сложно сделать GAN для текста. Написано так, что будет понятно всем.
https://bit.ly/2V2kElK
https://bit.ly/2V2kElK
#paperswithcode
Интересный проект с кодом на PyTorch - lossless image compression algorithm. Используя нейронные сети SReC (Super-Resolution based Compression) удачно сжимает изображения.
https://bit.ly/39XrP3Y
Интересный проект с кодом на PyTorch - lossless image compression algorithm. Используя нейронные сети SReC (Super-Resolution based Compression) удачно сжимает изображения.
https://bit.ly/39XrP3Y
Paperswithcode
Papers with Code - Lossless Image Compression through Super-Resolution
Implemented in one code library.
Перевод статьи про прогнозирование временных рядов с помощью рекуррентных нейронных сетей.
https://bit.ly/39SHC4d
https://bit.ly/39SHC4d
Репозиторий с различными статьями по классификации графов вместе с имплементацией.
https://bit.ly/2UYbrfg
https://bit.ly/2UYbrfg
Cоздатель wolframalpha говорит, что придумал новый подход к физике, и запускает проект, в котором все могут поучаствовать.
https://bit.ly/2XBpTeZ
https://bit.ly/2XBpTeZ
Любопытная статья от Microsoft
Рассуждают о нескольких проектах по улучшению deep generative models - обзор истории и новые подходы. Пишут про VAE, GAN и авторегрессионные модели. Среди прочего незаметно так заявляют о новой модели трансформера - OPTIMUS (почему никто не додумался до этого?). По факту это VAE, состоящий из BERT и GPT-2
https://bit.ly/3aa2gNh
Для тех, кто захотел загуглить Optimus ниже материалы с разбором:
Статья: https://arxiv.org/abs/2004.04092v1
Код: https://github.com/ChunyuanLI/Optimus (там же есть претренированные модели, или по крайней мере скоро будут)
Авторы предлагают тренировать VAE в качестве языковой модели. Подход не новый, но тут умудрились объединить BERT и GPT-2 в одной модели
Модель лучше GPT-2 тем, что позволяет делать "направленную" генерацию текста; лучше BERT тем, что работает лучше на некоторых задачах NLU благодаря smooth latent space structure.
Credits: @ artgor (ods user) // ods: https://bit.ly/2XDcOli
Рассуждают о нескольких проектах по улучшению deep generative models - обзор истории и новые подходы. Пишут про VAE, GAN и авторегрессионные модели. Среди прочего незаметно так заявляют о новой модели трансформера - OPTIMUS (почему никто не додумался до этого?). По факту это VAE, состоящий из BERT и GPT-2
https://bit.ly/3aa2gNh
Для тех, кто захотел загуглить Optimus ниже материалы с разбором:
Статья: https://arxiv.org/abs/2004.04092v1
Код: https://github.com/ChunyuanLI/Optimus (там же есть претренированные модели, или по крайней мере скоро будут)
Авторы предлагают тренировать VAE в качестве языковой модели. Подход не новый, но тут умудрились объединить BERT и GPT-2 в одной модели
Модель лучше GPT-2 тем, что позволяет делать "направленную" генерацию текста; лучше BERT тем, что работает лучше на некоторых задачах NLU благодаря smooth latent space structure.
Credits: @ artgor (ods user) // ods: https://bit.ly/2XDcOli
Маркетинговая модель многоканальной атрибуции на основе последовательности продаж с R.
https://bit.ly/2VERWr9
https://bit.ly/2VERWr9
10 Essential Numerical Summaries in Statistics for Data Science (Theory, Python and R).
https://bit.ly/2Vf6Nd6
https://bit.ly/2Vf6Nd6
#top@datamining.team
Команда Data Mining предлагает вам ознакомиться с ТОП-5 постами за март:
1) Coursera открыла вузам доступ к 3800 онлайн-курсов из-за коронавируса.
https://vk.com/wall-94208167_4478
2)Замечательная книга, которую рекомендуем всем, кто интересуется анализом данных.
https://vk.com/wall-94208167_4464
3)Большая подборка литературы и блогов на тему математической статистики и экспериментам.
https://vk.com/wall-94208167_4475
4)Большой список курсов по Data Science.
https://vk.com/wall-94208167_4473
5)Новое соревнование на Kaggle - CORD-19.
https://vk.com/wall-94208167_4488
Команда Data Mining предлагает вам ознакомиться с ТОП-5 постами за март:
1) Coursera открыла вузам доступ к 3800 онлайн-курсов из-за коронавируса.
https://vk.com/wall-94208167_4478
2)Замечательная книга, которую рекомендуем всем, кто интересуется анализом данных.
https://vk.com/wall-94208167_4464
3)Большая подборка литературы и блогов на тему математической статистики и экспериментам.
https://vk.com/wall-94208167_4475
4)Большой список курсов по Data Science.
https://vk.com/wall-94208167_4473
5)Новое соревнование на Kaggle - CORD-19.
https://vk.com/wall-94208167_4488
Если вы только начали знакомиться с генеративными сетями, то можем вам посоветовать обзорную статью про использование генеративных сетей в задачах компьютерного зрения.
https://theaisummer.com/gan-computer-vision/
https://theaisummer.com/gan-computer-vision/
Напоминаем вам о том, что у нашего паблика есть зеркало в Телеграмме и Фейсбуке . Можете подписаться, чтобы точно ничего не упустить!
Ссылка на Телеграмм-канал: https://teleg.run/dataminingteam
Ссылка на Фейсбук: http://facebook.com/datamining.community
Ссылка на Телеграмм-канал: https://teleg.run/dataminingteam
Ссылка на Фейсбук: http://facebook.com/datamining.community
Как определить, достаточно ли надежны системы машинного обучения для реального мира?
https://bit.ly/2RJ6lRZ
https://bit.ly/2RJ6lRZ
WaveNetEQ — это генеративная нейросеть, которая восстанавливает утерянные части аудиозаписи во время звонка. Модель основана на архитектуре WaveRNN от DeepMind. Исследователи выучили WaveNetEQ генерировать продолжение короткой аудиозаписи.
https://bit.ly/2VI3KZO
https://bit.ly/2VI3KZO
Startup Posh has created chatbots that use “conversational memory” to have more natural exchanges.
https://bit.ly/350RA2u
https://bit.ly/350RA2u