Вот ComfyUI докатился и до 3dsMax. С опозданием в годик-другой, но нам не привыкать :D
В плагин tyFlow встроили поддержку ComfyUI по аналогии с тем, как это сделано было для krita, blender и иже с ними.
Сложно назвать это новинкой, но проекция текстуры во вьюпорте работает без бубна - и на том спасибо.
youtube
@derplearning
В плагин tyFlow встроили поддержку ComfyUI по аналогии с тем, как это сделано было для krita, blender и иже с ними.
Сложно назвать это новинкой, но проекция текстуры во вьюпорте работает без бубна - и на том спасибо.
youtube
@derplearning
YouTube
tyFlow v1.111 - tyDiffusion
tyFlow v1.111 marks the first official release of tyDiffusion, tyFlow's integration of Stable Diffusion (AI image/animation generation) in 3ds Max.
https://pro.tyflow.com
https://pro.tyflow.com
🔥12❤1
Forwarded from Блог о Data Science 💻 (Tagir [БОЛЕЮ])
This media is not supported in your browser
VIEW IN TELEGRAM
Вы когда-нибудь хотели обучить модель проходить змейку? Я — нет, а вот некий Bones-ai в двух проектах показал, как это работает. С помощью генетического алгоритма модель достигает идеальных результатов в змейке, а видео к посту — наглядная визуализация процесса обучения
В архитектуре нейросети используется 24 инпута. Эти инпуты предоставляют информацию о состоянии окружающей среды и самой змейки, что позволяет модели принимать решения о следующем движении
Обучение модели занимает около 30 минут и осуществляется через генетический алгоритм, который эволюционирует популяцию из 1000 агентов, каждый из которых представляет уникальную конфигурацию весов нейросети:
Если хотите подробнее ознакомиться с проектом, то здесь можно найти его первую версию, здесь — вторую, а вот тут находится тред на Reddit, где автор отвечает на вопросы
Рассказывайте в комментариях, что вы думаете о таких проектах? Как вы думаете, для чего автору это нужно?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥9❤3
Forwarded from r/ретранслятор
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs выпустили нейросеть Voice Isolator, которая может удалить все посторонние звуки и шумы с вашего аудио, создавая эффект студийной записи.
Ну и главное – сервис доступен бесплатно, так что пользуйтесь. Ссылка
r/#singularity
Ну и главное – сервис доступен бесплатно, так что пользуйтесь. Ссылка
r/#singularity
🔥51👍7😁3
Forwarded from r/ретранслятор
This media is not supported in your browser
VIEW IN TELEGRAM
Работа британского художника Тима Льюиса, который создаёт уникальные кинетические скульптуры.
Теперь хочется себе этого кота
r/#BeAmazed
Теперь хочется себе этого кота
r/#BeAmazed
❤50👍6🔥4
Forwarded from Love. Death. Transformers.
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла 4o у нас дома, стриминг аудио в обе стороны, перебивает и только английский.
Играться тут
Анонс
La République est maniaque, опять ребята из Франции
Играться тут
Анонс
La République est maniaque, опять ребята из Франции
😁20👍1
Forwarded from эйай ньюз
Нас ждет абсолютно новый геймдев. Зацените, что делают ребята, которые сидят на жестких гауссиан сплатах.
Одна картинка и целый мир готов. В целом генерация таких 3D сцен — это не новость, но вот в риалтайме еще никому не удавалось. На генерацию одной полной сцены уходит 10 секунд на A6000 GPU. Это, конечно, не ультра скорость, но учтите, что даже в играх никто не рендерит во все 360. Можно считать, что это просто мир прогружается, а потом спокойно бегать.
Картинка номер 2 в общем-то вполне наглядно объясняет принцип работы. Здесь у нас солянка из добротных быстрых гауссиан сплатов, карт глубины и аутпейнтинга.
Берут изначальную картинку, из нее извлекают карту глубины, как в обычном контролнете при аутпейнтинге генерируют мир вокруг изначальной картинки. Но с тем отличием, что карту глубины как бы упрощают и берут ограниченное количество "глубин" в целях оптимизации. Тренируют салаты по картинке.
Наслаждаемся и ходим по новоиспеченной сцене.
А если к этому еще и прикрутить PhysDreamer ой-ой-йой... (это который позволяет физически взаимодействовать со сплатами)
Когда там уже нейрорендер станет мейнстримом? Где мой риалтайм сгенерированный мир в 120 fps или ещё лучше как в нашей статье 1000fps?
Ветка про Gaussian Splatting:
- 3D Gaussian Splatting ликбез
- NerfStudio, ну а вдруг пригодится,
- мерджим картинки,
- Infinite Realities
- PhysDreamer
Project page, там даже есть демо, правда, заранее сгенерированное, просто погулять. Но сам рендеринг сцены прямо в браузере, придется немного подождать.
Бумага
Код (скоро)
@ai_newz
Одна картинка и целый мир готов. В целом генерация таких 3D сцен — это не новость, но вот в риалтайме еще никому не удавалось. На генерацию одной полной сцены уходит 10 секунд на A6000 GPU. Это, конечно, не ультра скорость, но учтите, что даже в играх никто не рендерит во все 360. Можно считать, что это просто мир прогружается, а потом спокойно бегать.
Картинка номер 2 в общем-то вполне наглядно объясняет принцип работы. Здесь у нас солянка из добротных быстрых гауссиан сплатов, карт глубины и аутпейнтинга.
Берут изначальную картинку, из нее извлекают карту глубины, как в обычном контролнете при аутпейнтинге генерируют мир вокруг изначальной картинки. Но с тем отличием, что карту глубины как бы упрощают и берут ограниченное количество "глубин" в целях оптимизации. Тренируют салаты по картинке.
Наслаждаемся и ходим по новоиспеченной сцене.
А если к этому еще и прикрутить PhysDreamer ой-ой-йой... (это который позволяет физически взаимодействовать со сплатами)
Когда там уже нейрорендер станет мейнстримом? Где мой риалтайм сгенерированный мир в 120 fps или ещё лучше как в нашей статье 1000fps?
Ветка про Gaussian Splatting:
- 3D Gaussian Splatting ликбез
- NerfStudio, ну а вдруг пригодится,
- мерджим картинки,
- Infinite Realities
- PhysDreamer
Project page, там даже есть демо, правда, заранее сгенерированное, просто погулять. Но сам рендеринг сцены прямо в браузере, придется немного подождать.
Бумага
Код (скоро)
@ai_newz
👍28🔥12❤3🤣2
Forwarded from Dankest Memes // Данкест Мемс
This media is not supported in your browser
VIEW IN TELEGRAM
👍26❤7🤩7😁2
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
На случай, если вы вдруг искали возможность сделать липсинг для видео или фото (для сгенерированных тоже подойдет).
Можете попробовать этот тутор для ComfuUI через LivePortait.
Линки, где качать и как устанавливать, есть в описании к видосу.
Тут
Можете попробовать этот тутор для ComfuUI через LivePortait.
Линки, где качать и как устанавливать, есть в описании к видосу.
Тут
😁31🔥12❤6👍6
Forwarded from Sickipedia
😁24💯4😎2
This media is not supported in your browser
VIEW IN TELEGRAM
WestWorld intensifies, kurwa!
Ну что, зловещая долина, посоны? Анатомически корректные аниматронные руки от поляков из clonerobotics
by CloneRobotics
Ну что, зловещая долина, посоны? Анатомически корректные аниматронные руки от поляков из clonerobotics
by CloneRobotics
❤20👍7🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
gpu.cpp - a lightweight library that makes portable GPU compute with C++ simple
Тем временем парни из answer.ai (ex fast.ai) упоролись и выкатили gpu-agnostic фреймворк на WebGPU для С++.
Теперь один и тот же код можно крутить на всем, где есть Vulkan, Metal, или DirectX.
При этом тащить 100500гб CUDA для hello world больше не надо.
/ Ну и маководы снова в деле! :D
git
x-уит
answer.ai
@derplearning
Тем временем парни из answer.ai (ex fast.ai) упоролись и выкатили gpu-agnostic фреймворк на WebGPU для С++.
Теперь один и тот же код можно крутить на всем, где есть Vulkan, Metal, или DirectX.
При этом тащить 100500гб CUDA для hello world больше не надо.
/ Ну и маководы снова в деле! :D
git
x-уит
answer.ai
@derplearning
🔥38🤩1