Media is too big
VIEW IN TELEGRAM
Vidu
Видеогенератор от китайцев, сопоставимый с Sora
Есть только статья на китайском 🇨🇳
#text2video #news
Видеогенератор от китайцев, сопоставимый с Sora
Есть только статья на китайском 🇨🇳
#text2video #news
👍17😁1🥴1
PuLID: Pure and Lightning ID Customization via Contrastive Alignment
Персонализация по одному или нескольким образцам. Типа качественная и быстрая.
Но без уважения
Код
Демо
#personalization #text2image #image2image
Персонализация по одному или нескольким образцам. Типа качественная и быстрая.
Но без уважения
Код
Демо
#personalization #text2image #image2image
😁13❤4
StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation
Генератор комиксов и видео. Да, такая вот штука создана при участии ByteDance.
Может создавать набор персонажей, сохраняет их черты.
Видео 10 секунд и длиннее.
Код ждем
Демо ждем
#text2image #comics #image2video
Генератор комиксов и видео. Да, такая вот штука создана при участии ByteDance.
Может создавать набор персонажей, сохраняет их черты.
Видео 10 секунд и длиннее.
Код ждем
Демо ждем
#text2image #comics #image2video
👍10🔥5
Держите последние достижения в области рилтам-рендера больших сцен гауссианами.
A Hierarchical 3D Gaussian Representation for Real-Time Rendering of Very Large Datasets
Код обещают в июне-июле
—————————-
Level of Gaussians (LOG): Real-Time View Synthesis for Large Scenes with Millions of Square Meters
Код
#gaussian #realtime #rendering #novelview #optimization
A Hierarchical 3D Gaussian Representation for Real-Time Rendering of Very Large Datasets
Код обещают в июне-июле
—————————-
Level of Gaussians (LOG): Real-Time View Synthesis for Large Scenes with Millions of Square Meters
Код
#gaussian #realtime #rendering #novelview #optimization
👍12🔥3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Lightplane: Highly-Scalable Components for Neural 3D Fields
Модель для генерации и рендера #nerf
Сокращает потребление памяти на рендере в 1000 раз по сравнению с Autograd и Instant-NGP, сохраняя скорость рендера
Код
#optimization #rendering
Модель для генерации и рендера #nerf
Сокращает потребление памяти на рендере в 1000 раз по сравнению с Autograd и Instant-NGP, сохраняя скорость рендера
Код
#optimization #rendering
🔥10
Forwarded from Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15🤔4👍2🎃1