#courses
Computer Graphics at Carnegie Mellon University
https://youtu.be/yJ5eY3EIImA
WEBSITE
LECTURES
CODE
Computer Graphics at Carnegie Mellon University
https://youtu.be/yJ5eY3EIImA
These are some of the images, 3D models, and animations created by students in Carnegie Mellon's introductory Computer Graphics class (15-462, Fall 2020). Students didn't simply make these images—they wrote all the code to generate them from scratch, in one semester!The course lectures and assignments are free to follow online:
WEBSITE
LECTURES
CODE
YouTube
Computer Graphics - Student Creations! (CMU 15-462/662)
These are some of the images, 3D models, and animations created by students in Carnegie Mellon's introductory Computer Graphics class (15-462, Fall 2020). Students didn't simply make these images—they wrote all the code to generate them from scratch, in…
Forwarded from TechSparks
И вот ещё про нейросеть и творчество; на этот раз отличный проект от Гугла.
Есть такая особенность восприятия, которой отличались многие творческие люди: воздействие на один орган чувств вызывает не только его отклик, но и отклик других сенсорных систем. И тогда цвета можно слышать, у звуков появляются запахи и так далее. Называется это явление синестезия.
Синестетиком был, например, Кандинский: он слышал музыку картин.
Google Arts & Culture вместе с Центром Помпиду попробовали научить нейросеть «слышать» картину Кандинского.
https://blog.google/outreach-initiatives/arts-culture/discover-artist-who-could-hear-colors/
А сам интерактивный эксперимент — вот, интересно потыкать самостоятельно :)
https://artsandculture.google.com/experiment/sgF5ivv105ukhA
Есть такая особенность восприятия, которой отличались многие творческие люди: воздействие на один орган чувств вызывает не только его отклик, но и отклик других сенсорных систем. И тогда цвета можно слышать, у звуков появляются запахи и так далее. Называется это явление синестезия.
Синестетиком был, например, Кандинский: он слышал музыку картин.
Google Arts & Culture вместе с Центром Помпиду попробовали научить нейросеть «слышать» картину Кандинского.
https://blog.google/outreach-initiatives/arts-culture/discover-artist-who-could-hear-colors/
А сам интерактивный эксперимент — вот, интересно потыкать самостоятельно :)
https://artsandculture.google.com/experiment/sgF5ivv105ukhA
Google
Discover the artist who could hear colors
Learn about the father of modern art through "Sounds like Kandinsky" - a project created by Centre Pompidou and Google Arts & Culture.
https://twitter.com/AlexandreDevaux/status/1359862766664884231
Перенос в 3д девушки из видео — красивый пример того что можно сделать с PifuHD или с depth estimation в AR.
#3d
Перенос в 3д девушки из видео — красивый пример того что можно сделать с PifuHD или с depth estimation в AR.
#3d
Twitter
Alexandre Devaux
Getting closer to #minorityreport using #AR and #AI 😀 I coded an experiment that uses #pifuhd to generate a depth map for human and render movies as hologram through #WebXR
Forwarded from Лаборатория ИИ (UnrealNeural)
This media is not supported in your browser
VIEW IN TELEGRAM
Shelf-Supervised Mesh Prediction in the Wild
Forwarded from 3D ML / World Models
Пожалуй, всем исследователям знаком ресурс https://arxiv.org/ - место размещение электронных препринтов научных статей.
Мы будем периодически освещать новинки в области 3DML с этого ресурса. Начнем с топ 5 интересных работ, вышедших сегодня:
- A-NeRF: Surface-free Human 3D Pose Refinement via Neural Rendering хороший пример решение задачи перерисовки тела на основе нейронного рендеринга
- A Survey on Synchronous Augmented, Virtual and Mixed Reality обзорная статья, в который систематически выделяется связь между различными видами реальностей
- HyperPocket: Generative Point Cloud Completion статья о дополнении облака точек на основе GAN моделей
- A fully automated method for 3D individual tooth identification and segmentation in dental CBCT о применении 3DML в медицине: сегментируем и детектируем зубы на объемных снимках
- Modeling 3D Surface Manifolds with a Locally Conditioned Atlas о совмещении идей автоэнкодеров и локальных атласов из дифференциальной геометрии для моделирования облаков точек
Мы будем периодически освещать новинки в области 3DML с этого ресурса. Начнем с топ 5 интересных работ, вышедших сегодня:
- A-NeRF: Surface-free Human 3D Pose Refinement via Neural Rendering хороший пример решение задачи перерисовки тела на основе нейронного рендеринга
- A Survey on Synchronous Augmented, Virtual and Mixed Reality обзорная статья, в который систематически выделяется связь между различными видами реальностей
- HyperPocket: Generative Point Cloud Completion статья о дополнении облака точек на основе GAN моделей
- A fully automated method for 3D individual tooth identification and segmentation in dental CBCT о применении 3DML в медицине: сегментируем и детектируем зубы на объемных снимках
- Modeling 3D Surface Manifolds with a Locally Conditioned Atlas о совмещении идей автоэнкодеров и локальных атласов из дифференциальной геометрии для моделирования облаков точек
[DeepMind]
Introducing NFNets, a family of image classification models that are:
* SOTA on ImageNet (86.5% top-1 w/o extra data)
* Up to 8.7x faster to train than EfficientNets to a given accuracy
*Normalizer-free (no BatchNorm!)
Paper
Code
YC review
PS:
Предлагаются NF-ResNets, NF-Regnets
Надеюсь будет без NF-Regrets. 😏
Introducing NFNets, a family of image classification models that are:
* SOTA on ImageNet (86.5% top-1 w/o extra data)
* Up to 8.7x faster to train than EfficientNets to a given accuracy
*Normalizer-free (no BatchNorm!)
Paper
Code
YC review
PS:
Предлагаются NF-ResNets, NF-Regnets
Надеюсь будет без NF-Regrets. 😏
Dust3D
https://dust3d.org/
- github
- 10minutes_every_day — list of models made in 10 minutes in dust3d
- autoremesher from the same team
Auto UV unwrapping, auto rigging with PBR Material support, pose and motion authoring all in one. 3D Modeling in a blink.
#tools #art
https://dust3d.org/
- github
- 10minutes_every_day — list of models made in 10 minutes in dust3d
- autoremesher from the same team
Auto UV unwrapping, auto rigging with PBR Material support, pose and motion authoring all in one. 3D Modeling in a blink.
Free and open source. And it's cross-Platform, no matter you are on Windows, Linux, or MacOS, the same experience you'll get. With Dust3D, you'll see yourself finish a game asset in a blink! Dust3D also supports export your model as FBX and glTF format, so that you can then import the files into softwares like Unreal Engine, Unity, and Godot for further development.https://youtu.be/2sLjZoJGmko
#tools #art
https://github.com/orpatashnik/StyleCLIP
Редактирование фотографии с помощью текстового описания.
Интересно как будет выглядеть результат запросов, не описывающих внешность напрямую вроде "работник банка" или "успешный молодой человек".
Источник
#clip
Редактирование фотографии с помощью текстового описания.
Интересно как будет выглядеть результат запросов, не описывающих внешность напрямую вроде "работник банка" или "успешный молодой человек".
Источник
#clip
This media is not supported in your browser
VIEW IN TELEGRAM
SRFlow
Official SRFlow training code: Super-Resolution using Normalizing Flow in PyTorch
* code
* "Why I Stopped Using GAN" — Medium post
* paper
Advantages of Conditional Normalizing Flow over GAN approaches
Sampling: SRFlow outputs many different images for a single input.
Stable Training: SRFlow has much fewer hyperparameters than GAN approaches, and we did not encounter training stability issues.
Convergence: While GANs cannot converge, conditional Normalizing Flows converge monotonic and stable.
Higher Consistency: When downsampling the super-resolution, one obtains almost the exact input.
+ You can train it on a single GPU.
#gan #srflow #super_resolution
Official SRFlow training code: Super-Resolution using Normalizing Flow in PyTorch
* code
* "Why I Stopped Using GAN" — Medium post
* paper
Advantages of Conditional Normalizing Flow over GAN approaches
Sampling: SRFlow outputs many different images for a single input.
Stable Training: SRFlow has much fewer hyperparameters than GAN approaches, and we did not encounter training stability issues.
Convergence: While GANs cannot converge, conditional Normalizing Flows converge monotonic and stable.
Higher Consistency: When downsampling the super-resolution, one obtains almost the exact input.
+ You can train it on a single GPU.
#gan #srflow #super_resolution
Forwarded from 👻 🕊️
https://twitter.com/eps696/status/1362262010763821056?s=21
^ Новый колаб от Вадима Эпштейна. Lucid + CLIP
^ Новый колаб от Вадима Эпштейна. Lucid + CLIP
Twitter
vadim epstein
one more clip-based text2image generator https://t.co/6aDgckSLlR training images as fft sets (as in lucid/lucent library) - very fast convergence - full hd and more - highly detailed textures (a la early deepdream)
https://x6ud.github.io/
Поисковик рефов животных, соответствующих ориентации 3д модели черепа (тут могла бы быть любая 3д модель).
Проект только зарождается и пока что матчер фото — ориентация_модели захардкожен в json.
Но идея интересная для художников должно быть.
#art
Поисковик рефов животных, соответствующих ориентации 3д модели черепа (тут могла бы быть любая 3д модель).
Проект только зарождается и пока что матчер фото — ориентация_модели захардкожен в json.
Но идея интересная для художников должно быть.
#art
https://youtu.be/jH-6-ZIgmKY
Очень круто выглядит возможность поговорить с NPC в VR за счет распознавания речи и GPT-3, но думает персонаж долго, конечно.
Очень круто выглядит возможность поговорить с NPC в VR за счет распознавания речи и GPT-3, но думает персонаж долго, конечно.
YouTube
OpenAI GPT-3 Powered NPCs: A Must-Watch Glimpse Of The Future (Modbox)
The developer of Modbox linked together Windows speech recognition, OpenAI's GPT-3 AI, and Replica's natural speech synthesis for a unique demo: arguably the first AI NPC.
There is an uncomfortably long delay between asking a question and getting a response.…
There is an uncomfortably long delay between asking a question and getting a response.…
https://twitter.com/metasemantic/status/1362838686287728646
Color palette generation from text denoscription
And here people discuss how would they generate new color palettes.
#clip
Color palette generation from text denoscription
And here people discuss how would they generate new color palettes.
#clip
Twitter
Travis Hoppe
The basic idea is to use @OpenAI's CLIP model to first encode all colors and use a text sentence to guide the palette generation. 2/ This⛰️ palette generated from "a snow capped mountain"