Forwarded from Evgeny Burnaev
Сколтех проведет летнюю школу по машинному обучению (онлайн). Спикеры из топовых мест: CMU, NYU, MIT, Microsoft Research и все такое. Школа рассчитана на всех: от бакалавров до PhD.
📌Дедлайн: 26 июля 2020
📌Когда: 16–21 августа 2020
📌Стоимость: бесплатно
Подробнее: https://smiles.skoltech.ru/school
📌Дедлайн: 26 июля 2020
📌Когда: 16–21 августа 2020
📌Стоимость: бесплатно
Подробнее: https://smiles.skoltech.ru/school
smiles.skoltech.ru
SMILES: ONLINE School of Machine Learning. 2021, Moscow, Russia
Forwarded from CGIT_Vines (CGIT_Vines)
This media is not supported in your browser
VIEW IN TELEGRAM
synthesia.io только что запустили первую в мире платформу для преобразования текста в видео. Так говорят создатели) :
Введите свой сценарий, нажмите «Генерировать», и ваше синтетическое видео будет готово через несколько минут, доступно на 34 языках, и 11 актеров могут прочитать текст на выбор. Само видео готовится минут 15, синтез весьма посредственный, а вот липсинк вроде даже попадает. Видео со звуком.
Кстати, и тут Ширяеву досталось)
Введите свой сценарий, нажмите «Генерировать», и ваше синтетическое видео будет готово через несколько минут, доступно на 34 языках, и 11 актеров могут прочитать текст на выбор. Само видео готовится минут 15, синтез весьма посредственный, а вот липсинк вроде даже попадает. Видео со звуком.
Кстати, и тут Ширяеву досталось)
Forwarded from CGIT_Vines (CGIT_Vines)
Очень люблю аналитику от Жеребца - кто знает, тот поймет.
Автор самого подробного разбора технологий современных движков разбирает те данные, что сейчас присутствуют в открытом доступе.
https://youtu.be/t59onwvuabk
Автор самого подробного разбора технологий современных движков разбирает те данные, что сейчас присутствуют в открытом доступе.
https://youtu.be/t59onwvuabk
YouTube
Анонс Unreal Engine 5, анализ технологии освещения Lumen
Представляю вашему вниманию предварительный анализ системы освещения Lumen, которая появится в Unreal Engine 5.
Интервью с разработчиками из Epic Games: https://www.eurogamer.net/articles/digitalfoundry-2020-unreal-engine-5-playstation-5-tech-demo-analysis…
Интервью с разработчиками из Epic Games: https://www.eurogamer.net/articles/digitalfoundry-2020-unreal-engine-5-playstation-5-tech-demo-analysis…
Forwarded from Denis Sexy IT 🤖
Я уже много раз тут писал про такую штуку как «нейронный фотошоп» – это когда нейронки обученные на разных наборах данных могут реалистично менять данные на фотографиях – менять время суток, ландшафт, эмоции, ну в общем буквально все, и самое главное, все это делается с помощью пары кликов.
Так вот, если раньше это выглядело «так себе», то теперь такой «фотошоп» выглядит ничем не хуже чем обычный фотошоп или какой-то там 3D-рендер.
То есть можно уже предположить, что это направление автоматизации сильно скажется на индустрии ретуши и 3D-рендерах каких-то проходных картинок.
Посмотрите сами, офигенно же:
https://youtu.be/0elW11wRNpg
Страница проекта:
https://taesung.me/SwappingAutoencoder/
Еще там есть режим «смешивания» стилей разных фотографий, вроде когда мы берем здание в одном стиле, и переделываем в другой, но пока оно выглядит похуже чем этот «нейрофотошоп», но тоже очень перспективно интересно самому поковырять.
Так вот, если раньше это выглядело «так себе», то теперь такой «фотошоп» выглядит ничем не хуже чем обычный фотошоп или какой-то там 3D-рендер.
То есть можно уже предположить, что это направление автоматизации сильно скажется на индустрии ретуши и 3D-рендерах каких-то проходных картинок.
Посмотрите сами, офигенно же:
https://youtu.be/0elW11wRNpg
Страница проекта:
https://taesung.me/SwappingAutoencoder/
Еще там есть режим «смешивания» стилей разных фотографий, вроде когда мы берем здание в одном стиле, и переделываем в другой, но пока оно выглядит похуже чем этот «нейрофотошоп», но тоже очень перспективно интересно самому поковырять.
YouTube
Swapping Autoencoder for Deep Image Manipulation
http://taesungp.github.io/SwappingAutoencoder
arxiv: https://arxiv.org/abs/2007.00653
Swapping Autoencoder for Deep Image Manipulation
Taesung Park, UC Berkeley and Adobe Research
Jun-Yan Zhu, Adobe Research
Oliver Wang, Adobe Research
Jingwan Lu, Adobe…
arxiv: https://arxiv.org/abs/2007.00653
Swapping Autoencoder for Deep Image Manipulation
Taesung Park, UC Berkeley and Adobe Research
Jun-Yan Zhu, Adobe Research
Oliver Wang, Adobe Research
Jingwan Lu, Adobe…
Forwarded from CGIT_Vines (Marvin Heemeyer)
Дисней безостановочно старается найти новые пути создания и удешевления процесса производства цифровой графики. В этот раз они предлагают посмотреть на новый метод разработки цифровых лиц.
В основе лежит анатомическая модель, в базе которой большое количество сканов лиц. Тут не получится слепить стремную бабулю из скайрима, потому что модель ограничена человеческой анатомией - когда вы меняете пропорции модели, меняется и форма черепа, что позволяет делать лица более реалистичными.
Так же присутствует косвенный контроль семантических признаков, таких как возраст, этническая принадлежность, пол. Это не сдвиг парадигмы, а упрощение создания одного из этапов в создании персонажей - отлично зайдет низкобюджетным студиям или как аддон для игровых движков или пакетов 3D моделирования.
https://youtu.be/qeEqQCWbj4Q
В основе лежит анатомическая модель, в базе которой большое количество сканов лиц. Тут не получится слепить стремную бабулю из скайрима, потому что модель ограничена человеческой анатомией - когда вы меняете пропорции модели, меняется и форма черепа, что позволяет делать лица более реалистичными.
Так же присутствует косвенный контроль семантических признаков, таких как возраст, этническая принадлежность, пол. Это не сдвиг парадигмы, а упрощение создания одного из этапов в создании персонажей - отлично зайдет низкобюджетным студиям или как аддон для игровых движков или пакетов 3D моделирования.
https://youtu.be/qeEqQCWbj4Q
YouTube
Interactive Sculpting of Digital Faces Using an Anatomical Modeling Paradigm
Digitally sculpting 3D human faces is a very challenging task. It typically requires either 1) highly-skilled artists using complex software packages for high quality results, or 2) highly-constrained simple interfaces for consumer-level avatar creation,…
Forwarded from Поток
Институт проблем передачи информации им. Н.А. Харкевича РАН, ИППИ РАН в сотрудничестве с Загребским университетом с 1 по 30 июля проводит международный конкурс по цветовой константности Illumination Estimation Challenge. Конкурс проходит в рамках Международной конференции по машинному зрению.
Узнать о конкурсе подробнее можно на официальном сайте http://chromaticity.iitp.ru,
а также в интервью с победителями прошлого года — командой, представлявшей ИППИ РАН: https://www.rsipvision.com/ComputerVisionNews-2020May..
Кого ждут
Приглашаются группы исследователей и отдельных энтузиастов, занимающихся вопросами цветовой константности, разработкой алгоритмов улучшения изображений, компьютерного зрения. Участие в конкурсе позволит не только продемонстрировать свой уровень компетентности в области компьютерного зрения, но и опубликовать результаты своих исследований в престижных научных журналах.
Победители получат денежный приз (до 1000 долларов), сертификат победителя и приглашение на ICMV-2020 с докладом.
Регламент
•1 июля — Начало конкурса, датасет открыт для загрузки
•30 июля — Завершение конкурса
•2 августа — Объявление результатов
•31 августа — Срок подачи статьи для публикации
•2-6 ноября — награждение победителей, которое планируется провести в рамках конференции The 13th International Conference on Machine Vision ICMV-2020 в Италии (Рим).
Номинации
•Лучшее общее решение
•Лучшее решение для двух источников света
•Лучшее решение для помещений
Регистрация
Регистрация возможна на протяжении всей активной фазы конкурса: до 30 июля. Для регистрации необходимо направить письмо на электронный адрес chroma@iitp.ru с указанием имен участников (команды) и их аффилиации, также можно заполнить Гугл-форму на сайте конкурса http://chromaticity.iitp.ru
Узнать о конкурсе подробнее можно на официальном сайте http://chromaticity.iitp.ru,
а также в интервью с победителями прошлого года — командой, представлявшей ИППИ РАН: https://www.rsipvision.com/ComputerVisionNews-2020May..
Кого ждут
Приглашаются группы исследователей и отдельных энтузиастов, занимающихся вопросами цветовой константности, разработкой алгоритмов улучшения изображений, компьютерного зрения. Участие в конкурсе позволит не только продемонстрировать свой уровень компетентности в области компьютерного зрения, но и опубликовать результаты своих исследований в престижных научных журналах.
Победители получат денежный приз (до 1000 долларов), сертификат победителя и приглашение на ICMV-2020 с докладом.
Регламент
•1 июля — Начало конкурса, датасет открыт для загрузки
•30 июля — Завершение конкурса
•2 августа — Объявление результатов
•31 августа — Срок подачи статьи для публикации
•2-6 ноября — награждение победителей, которое планируется провести в рамках конференции The 13th International Conference on Machine Vision ICMV-2020 в Италии (Рим).
Номинации
•Лучшее общее решение
•Лучшее решение для двух источников света
•Лучшее решение для помещений
Регистрация
Регистрация возможна на протяжении всей активной фазы конкурса: до 30 июля. Для регистрации необходимо направить письмо на электронный адрес chroma@iitp.ru с указанием имен участников (команды) и их аффилиации, также можно заполнить Гугл-форму на сайте конкурса http://chromaticity.iitp.ru
Forwarded from DL in NLP (Vlad Lialin)
Twitter
Kevin Lacker
GPT-3 can't quite pass a coding phone screen, but it's getting closer.