ReVersion : Diffusion-BasedRelation Inversion from Images
А тут про взаимодействия в 2D.
По нескольким образцам нейросеть выучивает в каких отношениях состоят объекты на изображении (взаимное расположение, способ взаимодействия и т д.), после чего можно генерировать другие объекты в таких же отношениях.
Код
Демо
#image2image
А тут про взаимодействия в 2D.
По нескольким образцам нейросеть выучивает в каких отношениях состоят объекты на изображении (взаимное расположение, способ взаимодействия и т д.), после чего можно генерировать другие объекты в таких же отношениях.
Код
Демо
#image2image
👍1
BoostPixels
Занятный генератор flat-lay фотографий (не знаю как это называется у русских фотографов) по заданному логотипу
#image2image
Занятный генератор flat-lay фотографий (не знаю как это называется у русских фотографов) по заданному логотипу
#image2image
🔥4
INVE: Interactive Neural Video Editing
Редактор видео в реальном времени.
Трек плывет, но для тиктока сойдет.
Для блогеров бомба. Видимо, туда эту тулзу и интегрируют в будущем. Разработака Adobe research, так что ждем в мобильном Премьере или как там оно называется.
Кода нет
#video2video
Редактор видео в реальном времени.
Трек плывет, но для тиктока сойдет.
Для блогеров бомба. Видимо, туда эту тулзу и интегрируют в будущем. Разработака Adobe research, так что ждем в мобильном Премьере или как там оно называется.
Кода нет
#video2video
This media is not supported in your browser
VIEW IN TELEGRAM
CoTracker: It is Better to Track Together
Трекер группы точек.
Обратите внимание как он продолжает отслеживать точки даже когда они уже перекрыты другими объектами.
Я бы нашел применение такому инструменту в композе.
Код
Колаб
#tracking #opticalflow
Трекер группы точек.
Обратите внимание как он продолжает отслеживать точки даже когда они уже перекрыты другими объектами.
Я бы нашел применение такому инструменту в композе.
Код
Колаб
#tracking #opticalflow
👍3❤2
Forwarded from AI для Всех
🦙 Llama-2
Это очень важно: вышла Llama-v2 у которой открытый исходный код и лицензия, разрешающая коммерческое использование!
Это изменит ландшафт рынка LLM.
Llama-v2 доступна на Microsoft Azure и будет доступна на AWS, Hugging Face и других провайдерах.
Доступны предварительно обученные и зафайнтюненые модели с параметрами 7B, 13B и 70B.
Сайт Llama-2
Документ Llama-2
Это очень важно: вышла Llama-v2 у которой открытый исходный код и лицензия, разрешающая коммерческое использование!
Это изменит ландшафт рынка LLM.
Llama-v2 доступна на Microsoft Azure и будет доступна на AWS, Hugging Face и других провайдерах.
Доступны предварительно обученные и зафайнтюненые модели с параметрами 7B, 13B и 70B.
Сайт Llama-2
Документ Llama-2
👍4
Появилось расширение AnimateDiff для Automatic1111 webui.
Для установки скопировать ссылку на гитхаб расширения и установить через вкладку установки по ссылке.
Гитхаб
#text2video #image2video
Для установки скопировать ссылку на гитхаб расширения и установить через вкладку установки по ссылке.
Гитхаб
#text2video #image2video
Media is too big
VIEW IN TELEGRAM
Neural Video Depth Stabilizer (NVDS)
Фреймворк для генерации согласованной во времени карты глубины для видео. Если вы когда-нибудь пробовали генерировать карты глубины для видео, вы знаете что модели, обученные предсказывать глубину для отдельно взятой картинки, просто неспособны выдать консистентную генерацию глубины для видео. От кадра к кадру у вас будет фликер и свистопляска. Вот эту проблему решает NVDS.
Вот бы нам еще видео-контролнетов для нормалей, кэнни, референс, позы и т д. Мечтаю уже.
В проекте замешан Adobe research, но моделью обещают поделиться для исследовательских целей.
[UPDATE]
Гитхаб
#depth #depth2video #video2depth
Фреймворк для генерации согласованной во времени карты глубины для видео. Если вы когда-нибудь пробовали генерировать карты глубины для видео, вы знаете что модели, обученные предсказывать глубину для отдельно взятой картинки, просто неспособны выдать консистентную генерацию глубины для видео. От кадра к кадру у вас будет фликер и свистопляска. Вот эту проблему решает NVDS.
Вот бы нам еще видео-контролнетов для нормалей, кэнни, референс, позы и т д. Мечтаю уже.
В проекте замешан Adobe research, но моделью обещают поделиться для исследовательских целей.
[UPDATE]
Гитхаб
#depth #depth2video #video2depth
❤1
presize.io
Инструмент пакетной обработки изображение наподобие birme.net
Только тут можно еще индивидуально задавать масштаб.
Может быть полезен при подготовке датасетов для дообучения SD
реддит
#tools
Инструмент пакетной обработки изображение наподобие birme.net
Только тут можно еще индивидуально задавать масштаб.
Может быть полезен при подготовке датасетов для дообучения SD
реддит
#tools
👍2
AI для Всех
🦙 Llama-2 Это очень важно: вышла Llama-v2 у которой открытый исходный код и лицензия, разрешающая коммерческое использование! Это изменит ландшафт рынка LLM. Llama-v2 доступна на Microsoft Azure и будет доступна на AWS, Hugging Face и других провайдерах.…
На huggingface уже доступны модели llama-2 7B.
На replicate есть демо llama-2 13B
GGML
GPTQ
Демо
#LLM #chatbot
На replicate есть демо llama-2 13B
GGML
GPTQ
Демо
#LLM #chatbot
huggingface.co
TheBloke/Llama-2-7B-GGML · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Еще одна демка Llama-2 7B, 13B и 70B на lambdalabs. Русских там не любят, открывается через VPN.
Как переключать 7B, 13B и 70B модели - непонятно. Если разберетесь - пишите.
Демо
Твит автора
Как переключать 7B, 13B и 70B модели - непонятно. Если разберетесь - пишите.
Демо
Твит автора
👍2
Media is too big
VIEW IN TELEGRAM
DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity Human-centric Rendering
Репозиторий нейрорендера человеков. Так написано на сайте, как иначе это назвать я не знаю, потому что непонятно что именно предоставят пользователю. API? Код? Модель? Даже непонятно замешаны ли в деле nerf'ы. Но неработающая пока кнопка Download на сайте присутствует.
А по сути можно ожидать высококачественый движок рендера/анимации. Они снимали актеров 60 камерами разрешением до 4К. Умеют генерить новые позы, ракурсы, движения, натягивать все это на новых персонажей.
#humanavatar #humananimation #novelview #rendering
Репозиторий нейрорендера человеков. Так написано на сайте, как иначе это назвать я не знаю, потому что непонятно что именно предоставят пользователю. API? Код? Модель? Даже непонятно замешаны ли в деле nerf'ы. Но неработающая пока кнопка Download на сайте присутствует.
А по сути можно ожидать высококачественый движок рендера/анимации. Они снимали актеров 60 камерами разрешением до 4К. Умеют генерить новые позы, ракурсы, движения, натягивать все это на новых персонажей.
#humanavatar #humananimation #novelview #rendering
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 ruGPT-3.5. Открытая русскоязычная LLM от Сбера
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
🔥10👍2🤯1
Forwarded from Сиолошная
В GPT-4 добавили фичу, слухи про которую ходили давно — предзаписанные инструкции/роли, которые модель должна выполнять и отыгрывать. И можно задать желаемый формат ответов (например, всегда отвечать стихами на французском, почему нет?)
Нужно включить в настройках
Settings → Beta features → opt into Custom instructions
Затем перезагрузить страницу, в и меню слева (где настройки) у вас появится отдельная кнопка.
Источник
Нужно включить в настройках
Settings → Beta features → opt into Custom instructions
Затем перезагрузить страницу, в и меню слева (где настройки) у вас появится отдельная кнопка.
Источник
👍3