Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.45K photos
3.72K videos
41 files
4.76K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
Media is too big
VIEW IN TELEGRAM
Vidu

Видеогенератор от китайцев, сопоставимый с Sora

Есть только статья на китайском 🇨🇳

#text2video #news
👍17😁1🥴1
PuLID: Pure and Lightning ID Customization via Contrastive Alignment

Персонализация по одному или нескольким образцам. Типа качественная и быстрая.
Но без уважения

Код
Демо

#personalization #text2image #image2image
😁134
StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation

Генератор комиксов и видео. Да, такая вот штука создана при участии ByteDance.

Может создавать набор персонажей, сохраняет их черты.
Видео 10 секунд и длиннее.

Код ждем
Демо ждем

#text2image #comics #image2video
👍10🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Lightplane: Highly-Scalable Components for Neural 3D Fields

Модель для генерации и рендера #nerf
Сокращает потребление памяти на рендере в 1000 раз по сравнению с Autograd и Instant-NGP, сохраняя скорость рендера

Код

#optimization #rendering
🔥10
Forwarded from Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️

В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.

А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.

KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.

Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.

И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.

Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15🤔4👍2🎃1