VideoGen: A Reference-Guided Latent Diffusion Approach for High Definition Text-to-Video Generation
Генераторы видео поперли как грибы после дождя. Этот с претензией на высокое разрешение
Кода нет
Демо нет
#text2video
Генераторы видео поперли как грибы после дождя. Этот с претензией на высокое разрешение
Кода нет
Демо нет
#text2video
👍4❤1
Media is too big
VIEW IN TELEGRAM
ResFields:Residual Neural Fields for Spatiotemporal Signals
#nerf в движении
Непонятно за счет чего достигается такая точность. На видео показано три камеры с почти одинаковым ракурсом. На мой взгляд этого маловато чтобы захватить движущиеся сцены в объеме, даже с каналом глубины.
Код
Колаб. Если запустится на бесплатном аккаунте, дайте знать
#video2nerf #video2scene #novelview #rendering
#nerf в движении
Непонятно за счет чего достигается такая точность. На видео показано три камеры с почти одинаковым ракурсом. На мой взгляд этого маловато чтобы захватить движущиеся сцены в объеме, даже с каналом глубины.
Код
Колаб. Если запустится на бесплатном аккаунте, дайте знать
#video2nerf #video2scene #novelview #rendering
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Нейроперевод видео с липсинком от Heygen стал доступен. На старте дают 1 кредит, это в сумме на 1 минуту видео. Максимальный хронометраж одного видео 30 сек. И обещают накидывать 1 кредит в начале каждого расчетного периода (месяц? год? день?). И еще накидывают по кредиту за видео сгенеренное вашим реферралом.
Попробовать
#video2video #lipsync #speech2speech
Попробовать
#video2video #lipsync #speech2speech
🤯4👍2
Forwarded from ЭйАйЛера
RunwayML добавили тестовое управление камерой!
Нейронные сети, генерирующие видео сейчас — объект пристального внимания. Несмотря на то, что они позволяют делать красивые и оригинальные вещи — управляемость у них слабая, для серьезных проектов они пока не подходят.
Теперь в GEN2 можно управлять камерой, выставляя в настройках заготовленное движение: по горизонтали, по вертикали, зум или поворот вокруг оси. Результаты все еще не идеальные, но прогресс инструмента невероятный, каждые две недели они добавляют что-то новое и актуальное. В общем, Кристабаль Валенсуэла ни в чем не обманул!
Нейронные сети, генерирующие видео сейчас — объект пристального внимания. Несмотря на то, что они позволяют делать красивые и оригинальные вещи — управляемость у них слабая, для серьезных проектов они пока не подходят.
Теперь в GEN2 можно управлять камерой, выставляя в настройках заготовленное движение: по горизонтали, по вертикали, зум или поворот вокруг оси. Результаты все еще не идеальные, но прогресс инструмента невероятный, каждые две недели они добавляют что-то новое и актуальное. В общем, Кристабаль Валенсуэла ни в чем не обманул!
Forwarded from e/acc
Люди: изобрели промт «думай пошагово», улучшили производительность LLM, горды собой
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
👍3
Forwarded from Ai molodca (Dobrokotov)
This media is not supported in your browser
VIEW IN TELEGRAM
Голосовые нейронки летят, конечно, на сверзуковой.
Тестирую одну (для перевода) на винтажных мемах.
Здесь вы можете сами сделать, до двух минут бесплатно: https://labs.heygen.com/video-translate
Тестирую одну (для перевода) на винтажных мемах.
Здесь вы можете сами сделать, до двух минут бесплатно: https://labs.heygen.com/video-translate
😁7❤3
Forwarded from Эксплойт
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети для перевода видео HeyGen нашли достойное применение — с ее помощью переводят мемные видео на другие языки.
Золотая коллекция Рунета идет в массы.
@exploitex
Золотая коллекция Рунета идет в массы.
@exploitex
👍6🔥3❤2
Forwarded from Psy Eyes (Andrey Bezryadin)
Процесс работы с Simulon с помощью профессионального VFX-комплекта + ещё демки
Приложение использует ML для создания HDRI на 360° всего из одного LDR-снимка, идеально согласуя его с данными сцены. Виртуальная камера повторяет реакцию физической камеры на свет, легко синхронизируясь с информацией HDR. Можно увидеть на демо, как динамические изменения экспозиции на виртуальном VFX-комплекте точно соответствуют реальному.
В сцене с драконом автор помещает его в сцену и делает захват, который затем рендерится в облаке, чтобы получить фотореалистичное VFX-видео. Анимация также синхронизирована по таймкоду, поэтому как вы снимете сцену в камере, так она и будет выглядеть.
Причём Simulon обеспечивает корректные отражения и преломления перспективы, основанные на окружающей обстановке, придавая реалистичность таким сложным материалам как стекло.
Твиттер
Приложение использует ML для создания HDRI на 360° всего из одного LDR-снимка, идеально согласуя его с данными сцены. Виртуальная камера повторяет реакцию физической камеры на свет, легко синхронизируясь с информацией HDR. Можно увидеть на демо, как динамические изменения экспозиции на виртуальном VFX-комплекте точно соответствуют реальному.
В сцене с драконом автор помещает его в сцену и делает захват, который затем рендерится в облаке, чтобы получить фотореалистичное VFX-видео. Анимация также синхронизирована по таймкоду, поэтому как вы снимете сцену в камере, так она и будет выглядеть.
Причём Simulon обеспечивает корректные отражения и преломления перспективы, основанные на окружающей обстановке, придавая реалистичность таким сложным материалам как стекло.
Твиттер
👍4
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Только Runway выкатили возможность управлять камерой в генерациях, как Pika тут же выпустили такую же фичу! Чувствуете как атмосфера нагнетается, котаны?
Подробнее о фиче: камера управляется параметром
* Zoom: приближаем/удаляем камеру через
* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью
* Поворот: вертим камеру по часовой стрелке или против часовой через
Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра
Другие обновления:
*
* Автоматический канал "upvotes" больше не доступен.
PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.
Дискорд Pika
Пост с остальными параметрами для генерации
Подробнее о фиче: камера управляется параметром
-camera и работает с ОДНИМ из следующих типов движения:* Zoom: приближаем/удаляем камеру через
-camera zoom in/out.* Панорамирование: двигаем камеру вверх/вниз/влево/вправо с помощью
-camera pan up/down/left/right. Можно комбинировать два не конфликтующих направления, например, -camera pan up right.* Поворот: вертим камеру по часовой стрелке или против часовой через
-camera rotate clockwise/counterclockwise/anticlockwise или сокращения cw/ccw/acw.Интенсивность движения камеры по-прежнему можно регулировать с помощью параметра
-motion XX задавая от 1 до 4.Другие обновления:
*
-fps теперь по умолчанию стоит 24.* Автоматический канал "upvotes" больше не доступен.
PS: anti-clockwise говорят в Британии, а counterclockwise говорят в Америке.... Теперь ты знаешь как генерить, заправляясь чайком.
Дискорд Pika
Пост с остальными параметрами для генерации
Fooocus 2.0.0
Анонсировано большое обновление Fooocus.
- мультистиль
- генерации v2 превосходят v1 по результатам в 87 случаях из 100
- лучшее понимание текста
#tools
Анонсировано большое обновление Fooocus.
- мультистиль
- генерации v2 превосходят v1 по результатам в 87 случаях из 100
- лучшее понимание текста
#tools
🔥7
https://www.youtube.com/watch?v=r5HLlNwOEoc
А вот и туториал который я обещал
Бесплатный доступ к API кончится 15 сентября, я вас предупредил
А вот и туториал который я обещал
Бесплатный доступ к API кончится 15 сентября, я вас предупредил
YouTube
Экспериментальная реставрация мультфильма | Туториал
Ссылки:
Телеграм канал: https://news.1rj.ru/str/GreenNeuralRobots
Boosty: https://boosty.to/neuronaut
Vectorizer.ai
тг пост: https://news.1rj.ru/str/GreenNeuralRobots/2581
Inkscape https://inkscape.org/
Track Anything https://huggingface.co/spaces/VIPLab/Track-Anything…
Телеграм канал: https://news.1rj.ru/str/GreenNeuralRobots
Boosty: https://boosty.to/neuronaut
Vectorizer.ai
тг пост: https://news.1rj.ru/str/GreenNeuralRobots/2581
Inkscape https://inkscape.org/
Track Anything https://huggingface.co/spaces/VIPLab/Track-Anything…
👍7
Forwarded from AI для Всех (Artemii)
👃 У нейросетей появился нюх
Ученые из Google исследовали, как можно научить искусственный интеллект предсказывать запах вещества по его молекулярной структуре. Эта фундаментальная проблема в области цифрового обоняния долгое время оставалась нерешенной.
Для создания модели авторы использовали графовые нейронные сети – специальный тип нейросетей, хорошо работающий с графовыми данными. Молекулы очень удобно представлять в виде графов, где атомы – вершины, а связи – ребра. Такая структура позволяет эффективно анализировать особенности молекулы.
Модель обучалась на наборе из 5000 молекул с соответствующими запаховыми дескрипторами типа "цветочный", "фруктовый" и т.д. Затем ее проверили на 400 ранее не встречавшихся молекулах.
Результаты показали, что нейросеть описывает запахи новых веществ не хуже, чем средний человек! Более того, модель лучше справляется с задачей, чем предыдущие подходы на основе традиционных химических дескрипторов.
Полученная нейросетью "карта запахов" переносится и на другие задачи в области обоняния - например, определение схожести запахов разных веществ. Таким образом, исследователи создали универсальное средство для изучения мира запахов.
В будущем подобные модели могут использоваться для автоматического предсказания запаха еще не синтезированных молекул. Это поможет ускорить открытие новых ароматов и душистых веществ без дорогостоящего экспериментального тестирования.
📰 Статья
Подпишись на @nn_for_science
Ученые из Google исследовали, как можно научить искусственный интеллект предсказывать запах вещества по его молекулярной структуре. Эта фундаментальная проблема в области цифрового обоняния долгое время оставалась нерешенной.
Для создания модели авторы использовали графовые нейронные сети – специальный тип нейросетей, хорошо работающий с графовыми данными. Молекулы очень удобно представлять в виде графов, где атомы – вершины, а связи – ребра. Такая структура позволяет эффективно анализировать особенности молекулы.
Модель обучалась на наборе из 5000 молекул с соответствующими запаховыми дескрипторами типа "цветочный", "фруктовый" и т.д. Затем ее проверили на 400 ранее не встречавшихся молекулах.
Результаты показали, что нейросеть описывает запахи новых веществ не хуже, чем средний человек! Более того, модель лучше справляется с задачей, чем предыдущие подходы на основе традиционных химических дескрипторов.
Полученная нейросетью "карта запахов" переносится и на другие задачи в области обоняния - например, определение схожести запахов разных веществ. Таким образом, исследователи создали универсальное средство для изучения мира запахов.
В будущем подобные модели могут использоваться для автоматического предсказания запаха еще не синтезированных молекул. Это поможет ускорить открытие новых ароматов и душистых веществ без дорогостоящего экспериментального тестирования.
📰 Статья
Подпишись на @nn_for_science
👍6