Нейросетевые мемы – Telegram
Нейросетевые мемы
3.16K subscribers
5.22K photos
1.02K videos
9 files
788 links
По всем вопросам писать https://news.1rj.ru/str/kostyanchik_94
Download Telegram
Forwarded from Psy Eyes (Andrey Bezryadin)
Продвижения в стане масштабных сцен из сплатов.

Level Of Gaussians (LoG): обрабатываем многокилометровые территории с высоты птичьего полёта и повышаем детализацию по мере приближения камеры к объектам (метод level of detail (LOD)). Мы тут уже были год назад, только с тогда использовались тяжелые и малоэффективные нерфы, а сейчас на сплатах обещают, что всё должно завестись на одной 4090.

Вместе с этим Inria, институт стоящий за появлением сплатов, представили наземный метод рендера огромных локаций в реальном времени с высокой детализацией — Hierarchical 3D Gaussians (H3DGS). Впрочем, воздушные снимки скормить тоже никто не мешает.

Куски сцен формируются в иерархию для улучшения визуального качества, а подход efficient Level-of-Detail (LOD) отвечает за количество деталей в месте куда направлена камера и плавными переходами между ними. По железу не сказано, но пишут, что на простом и доступном риге можно обработать сцену из десятков тысяч фотографий, длиной в несколько километров и продолжительностью до 1 часа.

Кода пока нет, но есть две бумаги. На релизе сплатов тоже код был не сразу, так что ожидаем.

Подрубаем это в Video2Game и начинаем играть в GTA по улицам Тулы.

Кстати Infinite Realities для своей 4D системы получили лицензию от Inria.

Сайт LOG
Сайт H3DGS
Подробнее про сплаты
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел Steerable Motion 1.4

Steerable Motion - это продвинутая интерполяцию между вашими входными картинками.
Теперь более управляемый, детальный и плавный!

🥳 Если вы любили интерполяцию с GAN архитектурой, то теперь эти перетекания доступны с вашими входными картинками в том порядке, в котором вы сами хотите. Да ещё и в качестве от HD до 4K в зависимости от мощности GPU.

💎 Так же поддерживает неограниченное количество картинок на вход для интерполяции. При этом при 100 картинках максимум будет использоваться 12.5 GB видеопамяти.

Инструмент создаётся усилиями opensource коммьюнити AnimateDiff и Banodoco.
🔤Тут прям вайбы Vqgan+clip коммьюнити и Deforum🔤

Доступен в ComfyUI
И в opensource инструменте для AI анимации Dough
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21
Forwarded from Сиолошная
Первое официальное музыкальное видео, сделанное с помощью OpenAI Sora:
Washed Out - The Hardest Part

Автор утверждает, что почти никакой постобработки нет, лишь самый минимум — зато сам ролик склеен из 55 отдельных кусочков (выходит по 4.4 секунды в среднем). А раньше всплыло, что одно из демо-видео, Air Head, оказывается сильно редактировалось — модель всё хотела нарисовать человека с головой, а не пустым местом (полная история тут).

Немного полистал комментарии, а там сразу:
— Раньше я был большим поклонником каждого альбома, слушал на рипите, покупал винил и т. д. Но я больше не могу поддерживать Washed Out. ИИ — это не просто инструмент для создания искусства, это замена художника. Я надеюсь, что Эрнест [музыкант], как творческий профессионал, это поймет. Я читал интервью, в котором он говорил, что у него было «видение» этой концепции видео в течение многих лет, но, по моему мнению, оно терпит неудачу - реальные актеры прониклись бы работой гораздо больше. Я просто не знаю… если это неизбежное будущее, думаю, я просто перевернусь и умру.

🕺 слушаем, танцуем и думаем о будущем 💃 делитесь в комментах 👇, кто где сколько голов и пальцев на руках насчитал
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍2
Forwarded from Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️

В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.

А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.

KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.

Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.

И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.

Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯6👍2🥰1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
У SORA робко появляются инструменты управления для изменения отдельных частей видео. Скромно, в верном направлении, но пока недостаточно.

На примере видно, что персонаж меняется по запросу, но также изменения присутствуют и в окружении. Это и есть пока нерешенная проблема.
🤯3
Появилась демка адаптера материалов ZeST
Го тестить

Демо

#material #image2image
🤔3🏆1
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите на что способна связка из Stable Diffusion 1.5 + ControlNet + TripoSR + three.js. Видео ускорено. Автор обещает скоро открыть исходники.

Кажется, лет через 5 локации для игр будут делать тупо с помощью текста в строку с промптом.
🔥14
Forwarded from Нейронное искусство (Daniil)
👍18🔥52❤‍🔥1
Мэд в прошлой жизни, в XIX веке (Шарж на Оноре де Бальзака)
🤣21🙈2