DeepFaceLabClient
Графический интерфейс для DeepFaceLab - той самой программы для изготовления дипфейков. Пока ещё сырой
#deepfake
Графический интерфейс для DeepFaceLab - той самой программы для изготовления дипфейков. Пока ещё сырой
#deepfake
👍4❤2
Forwarded from Нейродвиж
Media is too big
VIEW IN TELEGRAM
Современное искусство выглядит так: на ПМЭФ-2023 Сбер показал своего робота-художника, который рисует крутые картины.
Внутри Kandinsky 2.1, который используется для создания изображения-основы. Затем набросок превращается в векторный рисунок, а другой ИИ превращает все это в команды для движения манипулятора.
Ждем выставку работ робо-художника.
Внутри Kandinsky 2.1, который используется для создания изображения-основы. Затем набросок превращается в векторный рисунок, а другой ИИ превращает все это в команды для движения манипулятора.
Ждем выставку работ робо-художника.
🔥1
Forwarded from Нейродвиж
This media is not supported in your browser
VIEW IN TELEGRAM
Помянем профессию учителя: стартап Syntesis показал, как в будущем дети будут учить математику.
Никаких тебе криков, только терпеливый ИИ-учитель и крутые интерактивные задания, которые в игровой форме научат точной науке.
Можно записаться в бету или потыкать демо, оно очень крутое.
Никаких тебе криков, только терпеливый ИИ-учитель и крутые интерактивные задания, которые в игровой форме научат точной науке.
Можно записаться в бету или потыкать демо, оно очень крутое.
👍5
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это новость от AMD! Как долго я этого ждал.
AMD наконец вступила в Deep Learning игру и показывает серьезную заявку пошатнуть монополию NVIDIA на рынке AI чипов.
Сегодня они представили новую видеокарту для обучения и инференса нейронных сетей — AMD MI300X.
Эта крошка вполне может тягаться с Nvidia H100.
Вот её характеристики:
— 192 Gb VRAM на одном чипе, (против 80Gb у H100, NVL версия не в счёт)
— 5.2Tb пропускная способность памяти (против 3.35 y H100)
— Бенчмарков по скорости пока нет, но одна Mi300X легко тянет 40B языковую модель Falcon в риалтайме (см на видео). Это первая видеокарта, которая вмещает модель такого размера полность в своей памяти.
Ещё (это очень важно) AMD договорились с Pytorch Foundation о том, что их софтовый стэк ROCm и все обновления будет поддерживаться и сразу запиливаться в Pytorch 2.0. То есть теперь гонять сети на картах AMD станет также легко как и на гпу от Nvidia! Это чудесные новости!
@ai_newz
AMD наконец вступила в Deep Learning игру и показывает серьезную заявку пошатнуть монополию NVIDIA на рынке AI чипов.
Сегодня они представили новую видеокарту для обучения и инференса нейронных сетей — AMD MI300X.
Эта крошка вполне может тягаться с Nvidia H100.
Вот её характеристики:
— 192 Gb VRAM на одном чипе, (против 80Gb у H100, NVL версия не в счёт)
— 5.2Tb пропускная способность памяти (против 3.35 y H100)
— Бенчмарков по скорости пока нет, но одна Mi300X легко тянет 40B языковую модель Falcon в риалтайме (см на видео). Это первая видеокарта, которая вмещает модель такого размера полность в своей памяти.
Ещё (это очень важно) AMD договорились с Pytorch Foundation о том, что их софтовый стэк ROCm и все обновления будет поддерживаться и сразу запиливаться в Pytorch 2.0. То есть теперь гонять сети на картах AMD станет также легко как и на гпу от Nvidia! Это чудесные новости!
@ai_newz
👍2
Forwarded from ЭйАйЛера
This media is not supported in your browser
VIEW IN TELEGRAM
Colab MusicGen с простым интерфейсом, но без очереди как на HuggingFace
После появления Mubert мы все ждали новых инструментов с генерацией музыки в опенсорсе. MusicGen классный релиз, но к нему непросто добраться на HF и возможности были ограничены, вариант без интерфейса тоже нравится не всем.
Можно вставлять мелодии как референс, можно генерировать до двух минут музыки.
Сгенерировала без референта славянскую фольклорную песню о любви, по-моему здорово и достаточно качественно вышло!
Инструкция по запуску тут
За ссылку спасибо St Laurent Jr
После появления Mubert мы все ждали новых инструментов с генерацией музыки в опенсорсе. MusicGen классный релиз, но к нему непросто добраться на HF и возможности были ограничены, вариант без интерфейса тоже нравится не всем.
Можно вставлять мелодии как референс, можно генерировать до двух минут музыки.
Сгенерировала без референта славянскую фольклорную песню о любви, по-моему здорово и достаточно качественно вышло!
Инструкция по запуску тут
За ссылку спасибо St Laurent Jr
This media is not supported in your browser
VIEW IN TELEGRAM
RERENDER A VIDEO: ZERO-SHOT TEXT-GUIDED VIDEO-TO-VIDEO TRANSLATION
Недолго музыка Gen-1 играла.
Модель #video2video совместимая с ControlNet и LoRa!
Работает в два этапа: перевод ключевых кадров и полный перевод видео.
В первой части используется адаптированная диффузионная модель для генерации ключевых кадров с иерархическими межкадровыми ограничениями, применяемыми для обеспечения согласованности форм, текстур и цветов. Вторая часть распространяет ключевые кадры на другие кадры с учетом временного соответствия патчей и смешивания кадров. Наш фреймворк обеспечивает согласованность глобального стиля и локальной текстуры во времени при низких затратах (без повторного обучения или оптимизации).
Кода нет. Когда его опубликуют, станут ненужны Deforum, Warpfusion, Gen-1. Да и Gen-2 тоже.Впрочем, пророк из меня - так себе . Демо тоже нет. Но зайдите на сайт, там есть что посмотреть
#text2video #video2video
Недолго музыка Gen-1 играла.
Модель #video2video совместимая с ControlNet и LoRa!
Работает в два этапа: перевод ключевых кадров и полный перевод видео.
В первой части используется адаптированная диффузионная модель для генерации ключевых кадров с иерархическими межкадровыми ограничениями, применяемыми для обеспечения согласованности форм, текстур и цветов. Вторая часть распространяет ключевые кадры на другие кадры с учетом временного соответствия патчей и смешивания кадров. Наш фреймворк обеспечивает согласованность глобального стиля и локальной текстуры во времени при низких затратах (без повторного обучения или оптимизации).
Кода нет. Когда его опубликуют, станут ненужны Deforum, Warpfusion, Gen-1. Да и Gen-2 тоже.
#text2video #video2video
🔥3
Media is too big
VIEW IN TELEGRAM
Neural Scene Chronology
Реконструкция 3D-модели изменяющихся во времени достопримечательностей по интернет-фотографиям. На выходе фотореалистичные изображения с независимым контролем ракурса, освещения и времени, крупномасштабных достопримечательностей.
Мы предлагаем новое представление сцены с временной пошаговой функцией, который может моделировать дискретные изменения содержимого на уровне сцены в виде постоянных функций по частям с течением времени. В частности, мы представляем сцену как пространственно-временное поле яркости с встраиванием подсветки для каждого изображения, где временные изменения сцены кодируются с использованием набора изученных пошаговых функций. Мы также собираем новый набор данных из четырех сцен, которые демонстрируют различные изменения с течением времени.
Код еще не выложили
#imageto3D #image2scene
Реконструкция 3D-модели изменяющихся во времени достопримечательностей по интернет-фотографиям. На выходе фотореалистичные изображения с независимым контролем ракурса, освещения и времени, крупномасштабных достопримечательностей.
Мы предлагаем новое представление сцены с временной пошаговой функцией, который может моделировать дискретные изменения содержимого на уровне сцены в виде постоянных функций по частям с течением времени. В частности, мы представляем сцену как пространственно-временное поле яркости с встраиванием подсветки для каждого изображения, где временные изменения сцены кодируются с использованием набора изученных пошаговых функций. Мы также собираем новый набор данных из четырех сцен, которые демонстрируют различные изменения с течением времени.
Код еще не выложили
#imageto3D #image2scene
🔥1
Anything AI
инпентинг онлайн. Еще одна альтернатива фотошопу и Uncrop.
Маски, видимо, рисует SAM. При выборе объекта под замену нам предлагают три маски на выбор. Пишем промт, ждем - готово. Если что, на третьей картинке Тома Хэнкса сменил Сэмюэль Джексон. А что? Попробуйте получить из фотошопа лицо Джексона одним промтом.
#inpainting
инпентинг онлайн. Еще одна альтернатива фотошопу и Uncrop.
Маски, видимо, рисует SAM. При выборе объекта под замену нам предлагают три маски на выбор. Пишем промт, ждем - готово. Если что, на третьей картинке Тома Хэнкса сменил Сэмюэль Джексон. А что? Попробуйте получить из фотошопа лицо Джексона одним промтом.
#inpainting
Forwarded from Технологии | Нейросети | Боты
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 Adobe анонсировала Generative Recolor — первую интеграцию своего инструмента искусственного интеллекта Firefly в Illustrator, который позволяет пользователям «экспериментировать с цветами, используя простые текстовые подсказки».
- Adobe анонсировала Generative Recolor — первую интеграцию своего инструмента искусственного интеллекта Firefly в Illustrator, который позволяет пользователям «экспериментировать с цветами, используя простые текстовые подсказки».
Вы можете передать свои идеи — например, «полдень в пустыне» или «полночь в джунглях» — в Generative Recolor, и он автоматически применит соответствующие цвета к сложной векторной графике.
Generative Recolor доступен в бета-версии.
• Подробнее
- Adobe анонсировала Generative Recolor — первую интеграцию своего инструмента искусственного интеллекта Firefly в Illustrator, который позволяет пользователям «экспериментировать с цветами, используя простые текстовые подсказки».
Вы можете передать свои идеи — например, «полдень в пустыне» или «полночь в джунглях» — в Generative Recolor, и он автоматически применит соответствующие цвета к сложной векторной графике.
Generative Recolor доступен в бета-версии.
• Подробнее
👍3
Forwarded from twin3D
This media is not supported in your browser
VIEW IN TELEGRAM
Metahuman Animator официально вышел 🔥
Когда на презентации Unreal Engine продемонстрировали этот инструмент, мы отнеслись к нему со скепсисом… Самое время проверить!
Среди его возможностей:
• Захват лицевой анимации из видео, где достаточно камеры iPhone.
• Возможность вносить творческие корректировки.
• Несколько минут на обработку на локальном устройстве для получения результата.
Если всё правда, то вскоре Animator станет незаменимым в нашей работе.
P.s. Для установки необходимо обновить плагин Metahuman Creator, а также движок Unreal Engine до версии 5.2. Этим мы сейчас и займёмся 🤸
Новости 3D, аватаров и метавселенных — подписаться!
Когда на презентации Unreal Engine продемонстрировали этот инструмент, мы отнеслись к нему со скепсисом… Самое время проверить!
Среди его возможностей:
• Захват лицевой анимации из видео, где достаточно камеры iPhone.
• Возможность вносить творческие корректировки.
• Несколько минут на обработку на локальном устройстве для получения результата.
Если всё правда, то вскоре Animator станет незаменимым в нашей работе.
P.s. Для установки необходимо обновить плагин Metahuman Creator, а также движок Unreal Engine до версии 5.2. Этим мы сейчас и займёмся 🤸
Новости 3D, аватаров и метавселенных — подписаться!
👍4
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Что будет, если скормить все фотки из Гугль Мапс в NeRF?
Правильно - трушный метаверс. Трехмерный цифровой двойник.
А точнее Immersive View от Гугла, который использует ML и CV для объединения миллиардов изображений Street View и аэрофотоснимков для создания цифровой модели мира. Кроме того, он накладывает сверху полезную информацию, такую как погода, пробки и загруженность места. Immersive View позволяет просматривать внутренние помещения ресторанов, кафе и других мест, чтобы дать пользователям виртуальный вид с близкого расстояния.
Читайте подробности тут, и поглядите ролики. Это не видео, это нерфы.
Похоже, что нейрорендеринг на устройствах - это будущее.
https://ai.googleblog.com/2023/06/reconstructing-indoor-spaces-with-nerf.html
Яна, тебе понравится.
Правильно - трушный метаверс. Трехмерный цифровой двойник.
А точнее Immersive View от Гугла, который использует ML и CV для объединения миллиардов изображений Street View и аэрофотоснимков для создания цифровой модели мира. Кроме того, он накладывает сверху полезную информацию, такую как погода, пробки и загруженность места. Immersive View позволяет просматривать внутренние помещения ресторанов, кафе и других мест, чтобы дать пользователям виртуальный вид с близкого расстояния.
Читайте подробности тут, и поглядите ролики. Это не видео, это нерфы.
Похоже, что нейрорендеринг на устройствах - это будущее.
https://ai.googleblog.com/2023/06/reconstructing-indoor-spaces-with-nerf.html
Яна, тебе понравится.
🔥7
Forwarded from Derp Learning
This media is not supported in your browser
VIEW IN TELEGRAM
Произошел очередной отвал жепы башки на поприще ИИ-ассистентов!
Даем на входе видео с ютуба, скриншот из дискорда, и говорим: я вот дошел до этого шага на видео, покажи на скриншоте, куда мне кликать дальше.
Агенты ищут в видео кусок, описанный юзером, смотрят, что идет дальше, ищут нужный кусок скриншота.
Какой простор для оптимизации техподдержки, 99% работы которой сводится к совместному чтению уже существующих мануалов вместе с юзером.
Hold on to yourjobs papers, what a time to be alive intensifies
Магия, да и только!
paper
tweet
Даем на входе видео с ютуба, скриншот из дискорда, и говорим: я вот дошел до этого шага на видео, покажи на скриншоте, куда мне кликать дальше.
Агенты ищут в видео кусок, описанный юзером, смотрят, что идет дальше, ищут нужный кусок скриншота.
Какой простор для оптимизации техподдержки, 99% работы которой сводится к совместному чтению уже существующих мануалов вместе с юзером.
Hold on to your
Магия, да и только!
paper
tweet
Progressively Optimized Local Radiance Fields for Robust View Synthesis
Посильный вклад Меты и пары университетов в оптимизацию #nerf
В частности рисерчеры сфокусировались на реконструкиции сцены из одного видео, не снимавшегося специально для этих целей.
На сайте можно сравнить их результаты с другими методами
Код
Посильный вклад Меты и пары университетов в оптимизацию #nerf
В частности рисерчеры сфокусировались на реконструкиции сцены из одного видео, не снимавшегося специально для этих целей.
На сайте можно сравнить их результаты с другими методами
Код
🔥4
Мне было лениво участвовать в хайпе с красивыми QR-кодами. Дождался спейса на huggingface
Seeing the World through Your Eyes
А теперь реальный отвал башки. Восстановление сцены по отражению в глазах. Непонятно почему в их примерах в сцене нет фотографа, подозрительно. Авторы, видимо, использовали специально снятые фото. Внизу на сайте есть их попытки восстановить сцены из стилфреймов с музыкальных клипов Майли Сайрус и Леди Гаги. А, чего там, приложу Майли Сайрус для тех кто не ходит по ссылкам.
Код обещают выложить
#imageto3D #image2nerf #eye2nerf
А теперь реальный отвал башки. Восстановление сцены по отражению в глазах. Непонятно почему в их примерах в сцене нет фотографа, подозрительно. Авторы, видимо, использовали специально снятые фото. Внизу на сайте есть их попытки восстановить сцены из стилфреймов с музыкальных клипов Майли Сайрус и Леди Гаги. А, чего там, приложу Майли Сайрус для тех кто не ходит по ссылкам.
Код обещают выложить
#imageto3D #image2nerf #eye2nerf
❤1