Сегодня побывал в одном из костёлов Лиссабона и обратил внимание, что там уже вовсю digital – внутри, у выхода, стоит реклама приложения «Candla» (iOS, Android) которое позволяет зажечь in-app покупкой в приложении одну диодную свечу как на устройстве в видео ниже. Приложению, кстати, уже 3 года.
Свечку ты зажигаешь не просто так: сначала нужно выбрать один из костёлов подключенных к сети девайсов или конкретного святого, перед образом которого стоит устройство, как только покупка случилась – в аппе появляется молитва которую теперь можно прочитать, и в этот же момент загорается свечка в костёле.
Цены in-app покупок такие:
1 свеча – 80 рублей;
50 свечей – 3800 рублей.
Между ними еще ряд «пакетов» для покупки разной величины, ну, как в играх – только вместо игровой валюты «свечки».
Это же уже пост-гемификация реальной жизни, да?
P.S. Обычные монетки автомат тоже принимает, за 1€ включится две 🕯
Свечку ты зажигаешь не просто так: сначала нужно выбрать один из костёлов подключенных к сети девайсов или конкретного святого, перед образом которого стоит устройство, как только покупка случилась – в аппе появляется молитва которую теперь можно прочитать, и в этот же момент загорается свечка в костёле.
Цены in-app покупок такие:
1 свеча – 80 рублей;
50 свечей – 3800 рублей.
Между ними еще ряд «пакетов» для покупки разной величины, ну, как в играх – только вместо игровой валюты «свечки».
Это же уже пост-гемификация реальной жизни, да?
P.S. Обычные монетки автомат тоже принимает, за 1€ включится две 🕯
❤1
Интересная история про очередное приложение для секстинга (это когда нюдсы скидываешь друг другу):
Крупный бельгийский интернет провайдер месяц назад выкатил приложение .comdom, смысл его довольно простой – вы скидываете кому-то нюдс, а тот кто этот нюдс получает, видит его с дорисованным копирайтом с персональными данными получателя. Ну, то есть, если нюдс утечет в интернет, то хотя бы будет понятно кто виноват и кто был получатель.
Snapchat и другие платформы тоже пытаются сделать «секстинг» безопаснее – у сообщений есть таймер на самоудаление, а скриншот не дает сделать приложение. Само, собой, это не защитит от фотографирования экрана телефона другим телефоном, .comdom в этом плане решает эту проблему.
Точнее решал, потому что группа ML-чуваков ради интереса сделала тысячи таких картинок с «искусственным» копирайтом, потом натренировала нейронку удалять эти надписи – и вжух, никаких следов копирайтов, секстинг снова небезопасен.
Как говорит одна моя подруга, твои нюдсы не утекут в сеть, если ты не включаешь в них свое лицо 🙇♂️
Тут больше деталей:
http://media.idlab.ugent.be/2019/12/05/safe-sexting-in-a-world-of-ai/
Крупный бельгийский интернет провайдер месяц назад выкатил приложение .comdom, смысл его довольно простой – вы скидываете кому-то нюдс, а тот кто этот нюдс получает, видит его с дорисованным копирайтом с персональными данными получателя. Ну, то есть, если нюдс утечет в интернет, то хотя бы будет понятно кто виноват и кто был получатель.
Snapchat и другие платформы тоже пытаются сделать «секстинг» безопаснее – у сообщений есть таймер на самоудаление, а скриншот не дает сделать приложение. Само, собой, это не защитит от фотографирования экрана телефона другим телефоном, .comdom в этом плане решает эту проблему.
Точнее решал, потому что группа ML-чуваков ради интереса сделала тысячи таких картинок с «искусственным» копирайтом, потом натренировала нейронку удалять эти надписи – и вжух, никаких следов копирайтов, секстинг снова небезопасен.
Как говорит одна моя подруга, твои нюдсы не утекут в сеть, если ты не включаешь в них свое лицо 🙇♂️
Тут больше деталей:
http://media.idlab.ugent.be/2019/12/05/safe-sexting-in-a-world-of-ai/
❤1
Забавный факт из Финляндии – наблюдатели за северными оленями красят их рога светоотражающей краской, чтобы оленей было лучше видно ночью при езде на автомобиле.
Этого вот зовут Vakke Skywaler ✨
Фотографии отсюда: https://twitter.com/kakslauttanen/status/1214874892081991680
Этого вот зовут Vakke Skywaler ✨
Фотографии отсюда: https://twitter.com/kakslauttanen/status/1214874892081991680
❤1
Forwarded from Brodetskyi. Tech, VC, Startups
В последнем фильме Скорсезе главных героев омолодили с помощью специальных технологий — 70-летние актёры уже не могут играть 40-50-летних персонажей даже в хорошем гриме. Увидел видео с посылом "смотрите, это можно было сделать с помощью бесплатной нейросети и получилось бы не хуже". Ну, как сказать. Получилось, конечно, неплохо, учитывая стоимость такой обработки. Но всё-таки для серьёзного продакшна такой подход не годится. Достаточно посмотреть сюжет Netflix о том, как делали это компьютерное омолаживание актёров и сколько деталей пришлось учесть, чтобы получился такой результат. Впечатляет. Хотя простота создания дипфейков с помощью нейросетей тоже впечатляет — посмотрите хотя бы самый известный канал с такими видео.
YouTube
The Irishman De-Aging: Netflix Millions VS. Free Software!
Click to subscribe for more videos: https://www.youtube.com/c/iFake?sub_confirmation=1
Click for more DeepFake videos: https://www.patreon.com/iFake
It took 7 days to make the footage in the video, the results could turn out even better with more training…
Click for more DeepFake videos: https://www.patreon.com/iFake
It took 7 days to make the footage in the video, the results could turn out even better with more training…
❤1
Forwarded from TJ
В США за неправильную парковку на лобовые стёкла прикрепляют блокираторы, которые не снять просто так: если тронуться с места или попытаться удалить их, то включится сирена, а полиции сообщат данные о местонахождении нарушителя.
Решение оказалось простым и гениальным: достаточно включить подогрев стёкол на 15 минут — потом снять блокиратор можно только с помощью кредитки. А если разобрать его, то можно ещё и попользоваться бесплатным интернетом: внутри устройства стоит SIM-карта с безлимитным тарифом.
https://tjournal.ru/136604
Решение оказалось простым и гениальным: достаточно включить подогрев стёкол на 15 минут — потом снять блокиратор можно только с помощью кредитки. А если разобрать его, то можно ещё и попользоваться бесплатным интернетом: внутри устройства стоит SIM-карта с безлимитным тарифом.
https://tjournal.ru/136604
❤1
Forwarded from CGIT_Vines (CGIT_Vines)
.Один из главных популяризаторов Deepfake - Hao Li, у него миллион разных регалий, в том числе он сыграл ключевую роль в появлении анимоджи на IphoneX, бывший научный руководитель ILM и много чего еще.
Тизерит свое приложение Pinscreen и алгоритмы, используемые в нем, в контексте вреда Deepfake для человечества на всемирном экономическом форуме в Давосе.
Тизерит свое приложение Pinscreen и алгоритмы, используемые в нем, в контексте вреда Deepfake для человечества на всемирном экономическом форуме в Давосе.
YouTube
Pinscreen Deepfake Live Prototype
This is a state-of-the-art demo of a real-time deepfake face swapping technology developed by Pinscreen. This demo will be exhibited at the World Economic Forum in Davos to raise awareness of the danger of deepfakes and advanced video manipulation technologies…
❤1
Forwarded from Жалкие низкочастотники
Только ленивый не написал про AI Dungeon, уже и фильм по её сценарию сняли — мне не хотелось просто в очередной раз публиковать ссылку, поэтому я решил написать чуть более развёрнуто.
Контекст: AI Dungeon — это попытка сделать интерактивную текстовую игру на базе нейросети GPT-2. Про жанр текстовых игр я уже писал в этом канале. В целом, это похоже на настольные ADnD игры, в которых роль мастера выполняет компьютер.
История проекта: первую версию Nick Walton запустил весной 2019 года на базе малой версии GPT-2. Осенью, когда OpenAI опубликовала сетку полного размера (примерно в 12 раз больше), авторы переделали игру под неё и добавили всяких штук. В декабре с ними случился хабраэффект, к ним в одночасье пришло 70К игроков, условный игрок стоит им 1 бакс в месяц, а они студенты и у них лапки. Поэтому они теперь собирают денег на Патреоне, а файл с моделью раздают через торренты. Скачав модель, можно поиграть в игру на Colab-е. Вот тут родной пост от автора, а вот тут интервью с ним.
Чем это интересно: несмотря на мощный хайп, сетки вроде GPT-2, как и другие языковые модели довольно неудобны для unsupervised генерации текстов — они практически неуправляемы, и частенько сбиваются в бред или в повторение. Заранее предсказать, будет ли генерация выглядеть осмысленной или хотя бы грамматически корректной, обычно нельзя. Поэтому большая часть публикаций типа "нейросеть ХХХ написала УУУ" обычно является классическим cherry-picking-ом. Это не хорошо, и не плохо, это такой текущий state of the art, но именно по этой причине интересно анализировать попытки обвесить такую сетку костылями, делающими её поведение более контролируемым без ручной фильтрации и премодерации.
Я на выходных поковырял их исходный код и выписал несколько интересных моментов.
* в качестве базы используют GPT-2 1.5B parameter model на tensorflow
* написали scraper, который обходит всевозможные варианты в играх на chooseyourstory.com, и таким образом напарсили 30Мб
* на этих 30Мб тюнили модель с целью приучить её к стилистике таких текстовых игр, в репозитории можно заметить также следы попыток использования труда mturkers, а также упоминания данных с сабреддита writingprompts — вероятно, пытаются с их помощью поднять качество
* доучивали на DGX-1, это заняло около 16 часов
* для борьбы с повторениями использовали штраф 1.2 к вероятностям уже использованных слов, точно как это было сделано в Salesforce CTRL model — тут я бы отметил, что на моём опыте подход unlikelihood training работает получше
* запрещают модели генерировать плохие слова из явного списка
* для "удержания смысла" в качестве префикса подают не только команду, но и историю из последних 8 вопросов-ответов — это помогает "заземлить" модель от слишком резких поворотов
* при этом полученные от пользователя команды конвертируют из инфинитива и формы первого лица во второе лицо, таким образом, вход модели выглядит как слитный текст во втором лице -- это больше похоже на то, на чём она обучалась
* в качестве дополнительного префикса при генерации каждой реплики используют краткое статическое описание персонажа и инвентаря, эти описания просто написаны вручную в конфиге -- по идее это также способствует "стабилизации нарратива"
* эти же префиксы используют для реализации save / load
* победу и смерть персонажа пытаются определять просто поиском ключевых слов в ответе модели
Весь этот набор костылей работает по прежнему далеко от идеала. Тут как обычно — если игрок хочет поверить, то он себя убедит, но в целом результат спорного качества (хотя и лучше, чем что-либо подобное до этого). Продолжаем наблюдать и экспериментировать.
Контекст: AI Dungeon — это попытка сделать интерактивную текстовую игру на базе нейросети GPT-2. Про жанр текстовых игр я уже писал в этом канале. В целом, это похоже на настольные ADnD игры, в которых роль мастера выполняет компьютер.
История проекта: первую версию Nick Walton запустил весной 2019 года на базе малой версии GPT-2. Осенью, когда OpenAI опубликовала сетку полного размера (примерно в 12 раз больше), авторы переделали игру под неё и добавили всяких штук. В декабре с ними случился хабраэффект, к ним в одночасье пришло 70К игроков, условный игрок стоит им 1 бакс в месяц, а они студенты и у них лапки. Поэтому они теперь собирают денег на Патреоне, а файл с моделью раздают через торренты. Скачав модель, можно поиграть в игру на Colab-е. Вот тут родной пост от автора, а вот тут интервью с ним.
Чем это интересно: несмотря на мощный хайп, сетки вроде GPT-2, как и другие языковые модели довольно неудобны для unsupervised генерации текстов — они практически неуправляемы, и частенько сбиваются в бред или в повторение. Заранее предсказать, будет ли генерация выглядеть осмысленной или хотя бы грамматически корректной, обычно нельзя. Поэтому большая часть публикаций типа "нейросеть ХХХ написала УУУ" обычно является классическим cherry-picking-ом. Это не хорошо, и не плохо, это такой текущий state of the art, но именно по этой причине интересно анализировать попытки обвесить такую сетку костылями, делающими её поведение более контролируемым без ручной фильтрации и премодерации.
Я на выходных поковырял их исходный код и выписал несколько интересных моментов.
* в качестве базы используют GPT-2 1.5B parameter model на tensorflow
* написали scraper, который обходит всевозможные варианты в играх на chooseyourstory.com, и таким образом напарсили 30Мб
* на этих 30Мб тюнили модель с целью приучить её к стилистике таких текстовых игр, в репозитории можно заметить также следы попыток использования труда mturkers, а также упоминания данных с сабреддита writingprompts — вероятно, пытаются с их помощью поднять качество
* доучивали на DGX-1, это заняло около 16 часов
* для борьбы с повторениями использовали штраф 1.2 к вероятностям уже использованных слов, точно как это было сделано в Salesforce CTRL model — тут я бы отметил, что на моём опыте подход unlikelihood training работает получше
* запрещают модели генерировать плохие слова из явного списка
* для "удержания смысла" в качестве префикса подают не только команду, но и историю из последних 8 вопросов-ответов — это помогает "заземлить" модель от слишком резких поворотов
* при этом полученные от пользователя команды конвертируют из инфинитива и формы первого лица во второе лицо, таким образом, вход модели выглядит как слитный текст во втором лице -- это больше похоже на то, на чём она обучалась
* в качестве дополнительного префикса при генерации каждой реплики используют краткое статическое описание персонажа и инвентаря, эти описания просто написаны вручную в конфиге -- по идее это также способствует "стабилизации нарратива"
* эти же префиксы используют для реализации save / load
* победу и смерть персонажа пытаются определять просто поиском ключевых слов в ответе модели
Весь этот набор костылей работает по прежнему далеко от идеала. Тут как обычно — если игрок хочет поверить, то он себя убедит, но в целом результат спорного качества (хотя и лучше, чем что-либо подобное до этого). Продолжаем наблюдать и экспериментировать.
❤1
Уже давно нейроночки пытаются красить ЧБ фотографии, я даже когда-то давно запускал бота который автоматом красил такие фотографии, результат был так себе.
Но с каждым годом качество такой колоризации становится лучше, на фото ниже новая версия алгоритма DeOldify, пока не выложенная в паблик, но которая уже сейчас выглядит лучше чем все, что было до этого.
По ссылке вы можете скинуть автору алгоритма ЧБ фото и он вышлет вам что получилось, кроме того можно посмотреть другие примеры:
twitter.com/citnaj/status/1219156481762713602
Ждем релиза ✨
Но с каждым годом качество такой колоризации становится лучше, на фото ниже новая версия алгоритма DeOldify, пока не выложенная в паблик, но которая уже сейчас выглядит лучше чем все, что было до этого.
По ссылке вы можете скинуть автору алгоритма ЧБ фото и он вышлет вам что получилось, кроме того можно посмотреть другие примеры:
twitter.com/citnaj/status/1219156481762713602
Ждем релиза ✨
❤1
Интересная заметка про первого официального пациента коронавируса на территории США.
Пациента поместили в специальную палату где его лечат с помощью "робота" – в кавычках, потому что я бы скорее назвал это терминалом: доктора общаются с пациентом с помощью удаленной связи, две дежурные медсестры переставляют устройство по комнате чтобы было лучше видно пациента, а из всех специализированных устройств на "роботе" только стетоскоп.
Сделано это, чтобы минимизировать контакты с вирусом со стороны персонала и увеличить количество пациентов с которыми может взаимодействовать доктор. Так госпиталь отрабатывает новый протокол по работе с опасными вирусами вроде Эболы и похожими.
Тут заметка целиком:
https://edition.cnn.com/2020/01/23/health/us-wuhan-coronavirus-doctor-interview/index.html
А тут карта заражений риалтайм:
https://coronavirus.zone
Пациента поместили в специальную палату где его лечат с помощью "робота" – в кавычках, потому что я бы скорее назвал это терминалом: доктора общаются с пациентом с помощью удаленной связи, две дежурные медсестры переставляют устройство по комнате чтобы было лучше видно пациента, а из всех специализированных устройств на "роботе" только стетоскоп.
Сделано это, чтобы минимизировать контакты с вирусом со стороны персонала и увеличить количество пациентов с которыми может взаимодействовать доктор. Так госпиталь отрабатывает новый протокол по работе с опасными вирусами вроде Эболы и похожими.
Тут заметка целиком:
https://edition.cnn.com/2020/01/23/health/us-wuhan-coronavirus-doctor-interview/index.html
А тут карта заражений риалтайм:
https://coronavirus.zone
CNN
A man diagnosed with Wuhan coronavirus near Seattle is being treated largely by a robot | CNN
The first person diagnosed with the Wuhan coronavirus in the United States is being treated by a few medical workers and a robot.
❤1
Forwarded from CGIT_Vines (CGIT_Vines)
К слову о налоге на роботов и безусловном базовом доходе.
В октябре 2018 года "Билайн" поставил на работу робота-бухгалтера "RobBee" вместо обычного человека.
Трудоемкость процесса снизилась в 4 раза, скорость увеличилась на 30%, на 90% снизил риск ошибки.
В планах на 20й год научить его создавать закупочные документы и заменить им 120 человеческих сотрудников.
Стоимость внедрения неизвестна, но что-то мне подсказывает, что окупаемость процессов в сотни раз выше по сравнению с прихотливыми людьми.
Линк
В октябре 2018 года "Билайн" поставил на работу робота-бухгалтера "RobBee" вместо обычного человека.
Трудоемкость процесса снизилась в 4 раза, скорость увеличилась на 30%, на 90% снизил риск ошибки.
В планах на 20й год научить его создавать закупочные документы и заменить им 120 человеческих сотрудников.
Стоимость внедрения неизвестна, но что-то мне подсказывает, что окупаемость процессов в сотни раз выше по сравнению с прихотливыми людьми.
Линк
vc.ru
«Билайн» рассказал об экономии 50 млн рублей чуть более чем за год благодаря замене бухгалтеров роботом RobBee — Сервисы на vc.ru
Робот окупился менее чем за год, говорят в компании.
❤1
Тут недавно поделились результатом работы прошлогодней нейронки Dain, которая позволяет добавить fps для видео.
Вот тут можно посмотреть разницу между тем что было, и как стало с помощью нейройнки – обратите внимание, как клево все работает с мультфильмами:
https://youtu.be/IK-Q3EcTnTA
А Макс Зарецкий из Завтракаста сделал чебурашку в 50 fps, все уже наверное видели:
https://youtu.be/-VELzks3a8U
Я как-то уже такое делал тут или тут, но в этот раз я не могу сам поковырять нейронку, так как у меня нет GPU от Nvidia :( Поделитесь, пожалуйста, результатами если будете ковырять.
Исходный код и инструкция как запустить:
https://sites.google.com/view/wenbobao/dain
Вот тут можно посмотреть разницу между тем что было, и как стало с помощью нейройнки – обратите внимание, как клево все работает с мультфильмами:
https://youtu.be/IK-Q3EcTnTA
А Макс Зарецкий из Завтракаста сделал чебурашку в 50 fps, все уже наверное видели:
https://youtu.be/-VELzks3a8U
Я как-то уже такое делал тут или тут, но в этот раз я не могу сам поковырять нейронку, так как у меня нет GPU от Nvidia :( Поделитесь, пожалуйста, результатами если будете ковырять.
Исходный код и инструкция как запустить:
https://sites.google.com/view/wenbobao/dain
YouTube
Turning animations to 60fps using AI!
This video is outdated, the application evolved into FrameFusion and can be found on Steam:
https://store.steampowered.com/app/1833100/FrameFusion_Motion_Interpolation
Old application:
https://grisk.itch.io/rife-app
This AI let you predict and create new…
https://store.steampowered.com/app/1833100/FrameFusion_Motion_Interpolation
Old application:
https://grisk.itch.io/rife-app
This AI let you predict and create new…
❤1
Вот пример от читателя канала @bomze с применением нескольких нейронок для обработки кусочка старого кино:
1) Первый алгоритм, Dain, добавляет fps с 6 до 24, делая видео более «гладким»;
2) Второй алгоритм, DeOldify, раскрашивает видео – скоро DeOldify обновится и качество раскрашивания станет еще лучше, я о нем писал несколько постов выше.
Алгоритмов сейчас так много, что мне кажется 2020 станет годом не только новых нейронок, но еще и крутых экспериментов с ансамблем нейронных сетей для обработки чего-то, где данные последовательно переходят из одной нейронки к другой, чтобы на выходе получился какой-то очередной кек ✨
1) Первый алгоритм, Dain, добавляет fps с 6 до 24, делая видео более «гладким»;
2) Второй алгоритм, DeOldify, раскрашивает видео – скоро DeOldify обновится и качество раскрашивания станет еще лучше, я о нем писал несколько постов выше.
Алгоритмов сейчас так много, что мне кажется 2020 станет годом не только новых нейронок, но еще и крутых экспериментов с ансамблем нейронных сетей для обработки чего-то, где данные последовательно переходят из одной нейронки к другой, чтобы на выходе получился какой-то очередной кек ✨
❤1
Недавно на Reddit один из пользователей принес вопрос в сообщество машинного обучения:
У отца пользователя диагностировали серьезное неврологическое заболевание (мотонейроонная болезнь), а значит, по прогнозам врачей, жить отцу осталось 3-5 лет, болезнь быстро прогрессирует, он уже не в состоянии передвигаться сам, постепенно будет терять возможность говорить и тп.
Вопрос пользователя заключался в том, какими способами возможно сохранить голос отца, потому что он прекрасно понимает куда все это идет и во первых ему страшно, что он сам забудет через какое-то время какой голос был у отца. Во вторых, когда отец потеряет способность говорить, он смог бы ему помочь сделав для него синтез речи его же голосом для бытовых нужд.
В комментариях много советов, самые популярные я перечислю ниже, но интересным мне показалось другое – уже сейчас в США есть ряд компаний, которые позволяют сделать "Voice banking" и "Phrace banking", верхний комментарий поста как раз от ML-инженера из такой компании.
Voice banking – это когда ML-алгоритм пытается синтезировать голос на основе исходного, вот тут есть похожий алгоритм, а не так давно так синтезировали Высоцкого.
Phrase banking – более простая, доступная, но надежная технология: человека просят начитать ряд готовых фраз про разные ситуации, в целом, это тоже может стать датасетом для Voice banking, но стоит значительно дешевле, потому что без ML.
Самые главные советы из поста можно свести к следующему – если у вас есть близкий, голос которого вы бы хотели сохранить:
1) Арендуйте студию звукозаписи на час и просто посидите пообщайтесь о чем-то, где человек бы что-то рассказал о себе.
2) Арендуйте эту же студию на час, но в этот раз, попросите человека почитать какую-то книгу которую он любит.
Этих звукозаписей будет достаточно чтобы получить голос близкого человека даже после его утраты. Самое важное в процессе сохранения голоса это качество звука, поэтому речь идет о студии звукозаписи.
Сейчас для многих, наверное, вся эта тематика кажется жутковатой, но я абсолютно уверен, что цифровые аватары близких людей будут целой индустрией – боль утраты близкого человека невыносимо сложно переживать, люди будут хвататься за любую возможность провести еще немного времени вместе.
Оригинальный тред на Reddit тут:
https://www.reddit.com/r/MachineLearning/comments/er3ng8/d_how_to_save_my_fathers_voice/
Не болейте 💖
У отца пользователя диагностировали серьезное неврологическое заболевание (мотонейроонная болезнь), а значит, по прогнозам врачей, жить отцу осталось 3-5 лет, болезнь быстро прогрессирует, он уже не в состоянии передвигаться сам, постепенно будет терять возможность говорить и тп.
Вопрос пользователя заключался в том, какими способами возможно сохранить голос отца, потому что он прекрасно понимает куда все это идет и во первых ему страшно, что он сам забудет через какое-то время какой голос был у отца. Во вторых, когда отец потеряет способность говорить, он смог бы ему помочь сделав для него синтез речи его же голосом для бытовых нужд.
В комментариях много советов, самые популярные я перечислю ниже, но интересным мне показалось другое – уже сейчас в США есть ряд компаний, которые позволяют сделать "Voice banking" и "Phrace banking", верхний комментарий поста как раз от ML-инженера из такой компании.
Voice banking – это когда ML-алгоритм пытается синтезировать голос на основе исходного, вот тут есть похожий алгоритм, а не так давно так синтезировали Высоцкого.
Phrase banking – более простая, доступная, но надежная технология: человека просят начитать ряд готовых фраз про разные ситуации, в целом, это тоже может стать датасетом для Voice banking, но стоит значительно дешевле, потому что без ML.
Самые главные советы из поста можно свести к следующему – если у вас есть близкий, голос которого вы бы хотели сохранить:
1) Арендуйте студию звукозаписи на час и просто посидите пообщайтесь о чем-то, где человек бы что-то рассказал о себе.
2) Арендуйте эту же студию на час, но в этот раз, попросите человека почитать какую-то книгу которую он любит.
Этих звукозаписей будет достаточно чтобы получить голос близкого человека даже после его утраты. Самое важное в процессе сохранения голоса это качество звука, поэтому речь идет о студии звукозаписи.
Сейчас для многих, наверное, вся эта тематика кажется жутковатой, но я абсолютно уверен, что цифровые аватары близких людей будут целой индустрией – боль утраты близкого человека невыносимо сложно переживать, люди будут хвататься за любую возможность провести еще немного времени вместе.
Оригинальный тред на Reddit тут:
https://www.reddit.com/r/MachineLearning/comments/er3ng8/d_how_to_save_my_fathers_voice/
Не болейте 💖
❤1
С каждым днём мы все дальше уходим от света божьего: тут чувак на Reddit поделился гифкой своего VR прототипа игры в фингерборд
☉ ‿ ⚆
☉ ‿ ⚆
❤1
Я редко пощу в канал вакансии которые открывает наша компания, но если тут вдруг есть Frontend-инженер на клевый новый проект или Team Lead, пожалуйста, откликнитесь 💖
Работа удаленная и с крутыми чуваками ✨
Работа удаленная и с крутыми чуваками ✨
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Клевая гифка с сайта Tesla где видно как нейронка распознает данные с камер машины для автопилотирования.
Пара чисел из описания:
Всего данные для обучения нейронок поступают с ~1 миллиона машин;
Для обработки данных используется 48 нейронок, которые суммарно тренировали около 2916 дней на GPU;
На каждом временном шаге все эти 48 нейронок выдают около 1000 направлений для движения.
Источник:
https://www.tesla.com/autopilotAI
Пара чисел из описания:
Всего данные для обучения нейронок поступают с ~1 миллиона машин;
Для обработки данных используется 48 нейронок, которые суммарно тренировали около 2916 дней на GPU;
На каждом временном шаге все эти 48 нейронок выдают около 1000 направлений для движения.
Источник:
https://www.tesla.com/autopilotAI
❤1
В выходные ковырял алгоритмы о которых писал выше и смог сделать 4k версию классики мирового кинематографа в 60 FPS, встречайте:
Прибытие поезда на вокзал Ла-Сьота, 1896 год, братья Люмьер
https://youtu.be/3RYNThid23g
Ради атмосферы добавил звука, получилось вроде сносно.
А еще я написал автору алгоритма DeOldify, если поделится новой версии, то покрашу фильм нейронками и перезалью ╰(*°▽°*)╯
P.S. Не забудьте включить 4k и 60 fps в плеере ютуба.
P.P.S. Смешно, что сначала ютуб забанил видео за нарушение копирайтов, такой мир ¯\_(ツ)_/¯
Прибытие поезда на вокзал Ла-Сьота, 1896 год, братья Люмьер
https://youtu.be/3RYNThid23g
Ради атмосферы добавил звука, получилось вроде сносно.
А еще я написал автору алгоритма DeOldify, если поделится новой версии, то покрашу фильм нейронками и перезалью ╰(*°▽°*)╯
P.S. Не забудьте включить 4k и 60 fps в плеере ютуба.
P.P.S. Смешно, что сначала ютуб забанил видео за нарушение копирайтов, такой мир ¯\_(ツ)_/¯
❤1
Кажется я попал на главную Digg с этим клипом:
https://digg.com/2020/arrival-train-la-ciotat-upscaled
Это такой сайт который упустил все полимеры и был до реддита реддитом.
Приятно ✨
https://digg.com/2020/arrival-train-la-ciotat-upscaled
Это такой сайт который упустил все полимеры и был до реддита реддитом.
Приятно ✨
digg
Someone Used Neural Networks To Upscale An 1895 Film To 4K 60 FPS, And The Result Is Really Quite Astounding
The Lumière Brothers' 1895 short "Arrival of a Train at La Ciotat" is one of the most famous film clips in history — but you've never seen it like this.
❤1