This media is not supported in your browser
VIEW IN TELEGRAM
Ну все, держите меня :D
Peppa pig -> Giger alien unreal engine RTX on
Peppa pig -> Giger alien unreal engine RTX on
Forwarded from DL in NLP (nlpcontroller_bot)
Recursively Summarizing Books with Human Feedback
Wu et al. [OpenAI]
arxiv.org/abs/2109.10862
openai.com/blog/summarizing-books
Эксперименты OpenAI с суммаризацией книг. По-моему это может быть одним из лучших бенчмарков "умности" текущих методов ML, поэтому я очень хайпаю статью.
Сама статья очень необычная сразу по нескольким причинам. С одной стороны, это OpenAI и мы ожидаем от них безумных экспериментов с почти неограниченными вычислительными ресурсами. С другой стороны, к этому проекту они привлекли ещё более дорогой ресурс — людей. Модель тренируется не один раз на заготовленном датасете по суммаризации, а итеративно улучшается с фидбеком от специальных тренированных людей. Фидбэк бывает двух видов: 1) человек пишет более правильное саммари 2) человек выбирает одно из двух саммари написанных моделью. В случае 1 понятно как улучшить модель — просто зафайнтюнить на дополнительных данных. Случай 2 веселее — тут используется великий и страшный reinforcement learning.
Теперь про сам подход. Он довольно простой. Допустим у вас есть текст размера 10K токенов, а модель может читать только 2К. Разделим текст на 5 чанков по 2К и для каждого из них сгенерируем саммари допустим размера 500 токенов. Потом сконкатим их и получим текст длины 2.5K токенов. Всё ещё слишком длинно — разделим его на два куска и пусть каждый из них сгенерит саммари по 500 токенов. Сконкатим эти результаты, получим текст 1000 токенов. Теперь можно получить из него финальное саммари.
Подход очень простой и решает кучу проблем. Во-первых такую разметку просто делать. Вы не заставляете людей суммаризировать целые книги, а лишь просите из суммаризировать чанки по 2K токенов. Куча плюсов: людям проще такое делать, машинам проще такое учить, плюс с одной книги получаете кучу разметки. В качестве инициализации для модели используют GPT-3.
В результате подход получается на удивление прикладным, итеративным и масштабируемым. Мне кажется, ровно так можно организовать работу команды занимающейся задачей суммаризации где-нибудь в индустрии.
По результатам: некоторые саммари близки по качеству к человекам, но их около 5% 🍒. В среднем скор человека ~6/7, а лучшей модели ~3.5/7. Естественно размер модели важен и 175млрд параметров дают огромный буст по сравнению с 6млрд. Внезапно RL хорошо зашёл и его использование улучшает скор с 2.5 до 3.5. Думаю он эффективен потому что доставать для него данные просто — людям нужно лишь выбрать одно из двух саммари, а не писать новое.
Как всегда в статье от OpenAI много интересных технических деталей, например как они выбрали на каких узлах дерева тренировать модель. Явно стоит того, чтобы потратить час на чтение.
Wu et al. [OpenAI]
arxiv.org/abs/2109.10862
openai.com/blog/summarizing-books
Эксперименты OpenAI с суммаризацией книг. По-моему это может быть одним из лучших бенчмарков "умности" текущих методов ML, поэтому я очень хайпаю статью.
Сама статья очень необычная сразу по нескольким причинам. С одной стороны, это OpenAI и мы ожидаем от них безумных экспериментов с почти неограниченными вычислительными ресурсами. С другой стороны, к этому проекту они привлекли ещё более дорогой ресурс — людей. Модель тренируется не один раз на заготовленном датасете по суммаризации, а итеративно улучшается с фидбеком от специальных тренированных людей. Фидбэк бывает двух видов: 1) человек пишет более правильное саммари 2) человек выбирает одно из двух саммари написанных моделью. В случае 1 понятно как улучшить модель — просто зафайнтюнить на дополнительных данных. Случай 2 веселее — тут используется великий и страшный reinforcement learning.
Теперь про сам подход. Он довольно простой. Допустим у вас есть текст размера 10K токенов, а модель может читать только 2К. Разделим текст на 5 чанков по 2К и для каждого из них сгенерируем саммари допустим размера 500 токенов. Потом сконкатим их и получим текст длины 2.5K токенов. Всё ещё слишком длинно — разделим его на два куска и пусть каждый из них сгенерит саммари по 500 токенов. Сконкатим эти результаты, получим текст 1000 токенов. Теперь можно получить из него финальное саммари.
Подход очень простой и решает кучу проблем. Во-первых такую разметку просто делать. Вы не заставляете людей суммаризировать целые книги, а лишь просите из суммаризировать чанки по 2K токенов. Куча плюсов: людям проще такое делать, машинам проще такое учить, плюс с одной книги получаете кучу разметки. В качестве инициализации для модели используют GPT-3.
В результате подход получается на удивление прикладным, итеративным и масштабируемым. Мне кажется, ровно так можно организовать работу команды занимающейся задачей суммаризации где-нибудь в индустрии.
По результатам: некоторые саммари близки по качеству к человекам, но их около 5% 🍒. В среднем скор человека ~6/7, а лучшей модели ~3.5/7. Естественно размер модели важен и 175млрд параметров дают огромный буст по сравнению с 6млрд. Внезапно RL хорошо зашёл и его использование улучшает скор с 2.5 до 3.5. Думаю он эффективен потому что доставать для него данные просто — людям нужно лишь выбрать одно из двух саммари, а не писать новое.
Как всегда в статье от OpenAI много интересных технических деталей, например как они выбрали на каких узлах дерева тренировать модель. Явно стоит того, чтобы потратить час на чтение.
Openai
Summarizing books with human feedback
Scaling human oversight of AI systems for tasks that are difficult to evaluate.
Forwarded from Технологии | Нейросети | NanoBanana
Telegraph
Как улучшить изображение нейросетью 2021: обзор новых сервисов без смс и регистрации.
Free online image upscale and enhancement. Всем Привет! Этот небольшой обзор посвящен алгоритмам появившимся в 2021 году, которые может использовать каждый без каких-либо знаний, быстро и удобно. 1.Алгоритмы для улучшения лиц: Раз код: https://github.com/yangxy/GPEN…
Forwarded from эйай ньюз
Братья и сéстры, золотой молоток U-Net вернулся к нам в новом виде! Теперь в шкуре трансформера.
Берем self-attention блоки, разбавляем их даунсэмплингами, апсэмплингами и depth-wise конволюциями. Ну, и, по классике, пробрасываем скип-конэкшены между энкодером и декодером. И вот, у нас получился U-former.
Китайцы предлагают его использовать для низкоуровневых vision задач, как то: восстановление изображений, энхансинг, деблюринг, денойзинг. Улучшения кажутся маргинальными, но я не супер эксперт в теме восстановления изображений (может я чего-то не понял?). Все равно архитектура стоит внимания.
Статья | GitHub
Берем self-attention блоки, разбавляем их даунсэмплингами, апсэмплингами и depth-wise конволюциями. Ну, и, по классике, пробрасываем скип-конэкшены между энкодером и декодером. И вот, у нас получился U-former.
Китайцы предлагают его использовать для низкоуровневых vision задач, как то: восстановление изображений, энхансинг, деблюринг, денойзинг. Улучшения кажутся маргинальными, но я не супер эксперт в теме восстановления изображений (может я чего-то не понял?). Все равно архитектура стоит внимания.
Статья | GitHub
Запилил для вас колаб с DeepStyle. Исходнику уже лет 5, а алгоритмам в его основе - и того больше.
Однако это не мешает этим вашим тиктокерам в данный момент хайповать на этом психоделе.
Данный подход лежит в основе ostagram.me и аппки, с помощью которой всех превращали в макароны пару лет назад.
Юзать просто - загружаем пачкой сначала фото, потом - образцы стилей. На выходе получаем архив с результатами.
🗒 Колаб
🐈 Гитхаб
Однако это не мешает этим вашим тиктокерам в данный момент хайповать на этом психоделе.
Данный подход лежит в основе ostagram.me и аппки, с помощью которой всех превращали в макароны пару лет назад.
Юзать просто - загружаем пачкой сначала фото, потом - образцы стилей. На выходе получаем архив с результатами.
🗒 Колаб
🐈 Гитхаб
Forwarded from AI для Всех (Artemii)
This media is not supported in your browser
VIEW IN TELEGRAM
Как написать целый абзац для статьи на английском языке, всего лишь из одного предложения на русском?
Пишем одно предложение, переводим его на английский с помощью DeepL. Подаем его на вход в GPT-J, затем перефразируем его с помощью Wordtune и проверим грамматику Grammarly.
Поздравляю - у вас есть целый абзац текста. Нейросети рулят!
#ScientificML #writing
Пишем одно предложение, переводим его на английский с помощью DeepL. Подаем его на вход в GPT-J, затем перефразируем его с помощью Wordtune и проверим грамматику Grammarly.
Поздравляю - у вас есть целый абзац текста. Нейросети рулят!
#ScientificML #writing
This media is not supported in your browser
VIEW IN TELEGRAM
9 секунд наркомании
neural-style + ebsynth
neural-style + ebsynth
Там полгода назад вышла модель для стилизации видео в 4к. В реалтайме. Модель весит 2мб.
Звучит овер заманчиво, будем посмотреть. С виду это обычная unet, только они выкинули части с апскейлом и даунскейлом и заменили на Laplacian Pyramid, сэкономив львиную долю параметров.
Основная идея состоит в том, что изображение можно разделить на низкочастотную (основа) и высокочастотную (мелкие детали) части, которые можно обработать отдельно, и потом объединить. Те, кто профессионально занимаются ретушью, понимают, о чем это. При этом низкочастотную часть можно обработать в очень низком разрешении, сэкономив на вычислениях.
Код
Доклад
Выжимка
Звучит овер заманчиво, будем посмотреть. С виду это обычная unet, только они выкинули части с апскейлом и даунскейлом и заменили на Laplacian Pyramid, сэкономив львиную долю параметров.
Основная идея состоит в том, что изображение можно разделить на низкочастотную (основа) и высокочастотную (мелкие детали) части, которые можно обработать отдельно, и потом объединить. Те, кто профессионально занимаются ретушью, понимают, о чем это. При этом низкочастотную часть можно обработать в очень низком разрешении, сэкономив на вычислениях.
Код
Доклад
Выжимка
This media is not supported in your browser
VIEW IN TELEGRAM
А вот родное видео через neural style. Да, лучше, чем ebsynth.
И дольше раз в 20. Для плавности нужно просчитать optical flow в обе стороны для каждого кадра, а потом все прогнать через нейронку. Суммарно занимает часов 6 для видео 280х512, 9сек. Судите сами 😢
Возьмём это за точку отсчёта, и посмотрим, что там с тех пор наваяли в этой области.
И дольше раз в 20. Для плавности нужно просчитать optical flow в обе стороны для каждого кадра, а потом все прогнать через нейронку. Суммарно занимает часов 6 для видео 280х512, 9сек. Судите сами 😢
Возьмём это за точку отсчёта, и посмотрим, что там с тех пор наваяли в этой области.
Forwarded from parhelia / иногда
Нашёл классный сайт - вебморду для нейросетки Hi-Fi-Gan, озвучивающей введённый текст одним из предсобранных голосов. Датасетов очень много - писатели, актёры рэперы, президенты.
Отличный инструмент для генерации вокальных безделушек заместо киношных сэмплов.
https://vo.codes/tts/
Отличный инструмент для генерации вокальных безделушек заместо киношных сэмплов.
https://vo.codes/tts/
Fakeyou
FakeYou Celebrity AI Voice and Video Generator
FakeYou lets you generate voices and videos using AI technology
Forwarded from Denis Sexy IT 🤖
Но мои результаты конечно пока все еще хуже чем выходят у программистки которая сделала этот метод генерации – результат по запросу «Киберпанк-церковь напоминающая карту таро "Смерть" в стиле Грега Рутковски»
Реально хоть в игры бери, готовые концепт-арты.
Реально хоть в игры бери, готовые концепт-арты.
Там просто кладезь, котаны. Концепт-художники, АЛЯРМА!
https://twitter.com/RiversHaveWings/status/1443948191871684617
https://twitter.com/RiversHaveWings/status/1443948191871684617
Twitter
Rivers Have Wings
"a landscape resembling The Lovers tarot card by Greg Rutkowski" (CLIP guided diffusion)
Вдохновился постом https://news.1rj.ru/str/mishin_learning/196
и тоже заапскейлил.
и тоже заапскейлил.