Forwarded from Сиолошная
Первое официальное музыкальное видео, сделанное с помощью OpenAI Sora:
Washed Out - The Hardest Part
Автор утверждает, что почти никакой постобработки нет, лишь самый минимум — зато сам ролик склеен из 55 отдельных кусочков (выходит по 4.4 секунды в среднем). А раньше всплыло, что одно из демо-видео, Air Head, оказывается сильно редактировалось — модель всё хотела нарисовать человека с головой, а не пустым местом (полная история тут).
Немного полистал комментарии, а там сразу:
— Раньше я был большим поклонником каждого альбома, слушал на рипите, покупал винил и т. д. Но я больше не могу поддерживать Washed Out. ИИ — это не просто инструмент для создания искусства, это замена художника. Я надеюсь, что Эрнест [музыкант], как творческий профессионал, это поймет. Я читал интервью, в котором он говорил, что у него было «видение» этой концепции видео в течение многих лет, но, по моему мнению, оно терпит неудачу - реальные актеры прониклись бы работой гораздо больше. Я просто не знаю… если это неизбежное будущее, думаю, я просто перевернусь и умру.
🕺 слушаем, танцуем и думаем о будущем 💃 делитесь в комментах 👇, кто где сколько голов и пальцев на руках насчитал
Washed Out - The Hardest Part
Автор утверждает, что почти никакой постобработки нет, лишь самый минимум — зато сам ролик склеен из 55 отдельных кусочков (выходит по 4.4 секунды в среднем). А раньше всплыло, что одно из демо-видео, Air Head, оказывается сильно редактировалось — модель всё хотела нарисовать человека с головой, а не пустым местом (полная история тут).
Немного полистал комментарии, а там сразу:
— Раньше я был большим поклонником каждого альбома, слушал на рипите, покупал винил и т. д. Но я больше не могу поддерживать Washed Out. ИИ — это не просто инструмент для создания искусства, это замена художника. Я надеюсь, что Эрнест [музыкант], как творческий профессионал, это поймет. Я читал интервью, в котором он говорил, что у него было «видение» этой концепции видео в течение многих лет, но, по моему мнению, оно терпит неудачу - реальные актеры прониклись бы работой гораздо больше. Я просто не знаю… если это неизбежное будущее, думаю, я просто перевернусь и умру.
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Washed Out - The Hardest Part (Official Video)
"The Hardest Part" by Washed Out
From the album, 'Notes from a Quiet Life,' out June 28th on Sub Pop Records
Pre-Order: https://merch.ambientinks.com/collections/washedout
Stream: https://music.subpop.com/washedout_notesfromaquietlife
Director/Editor:…
From the album, 'Notes from a Quiet Life,' out June 28th on Sub Pop Records
Pre-Order: https://merch.ambientinks.com/collections/washedout
Stream: https://music.subpop.com/washedout_notesfromaquietlife
Director/Editor:…
🔥4👍2
Forwarded from Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯6👍2🥰1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
У SORA робко появляются инструменты управления для изменения отдельных частей видео. Скромно, в верном направлении, но пока недостаточно.
На примере видно, что персонаж меняется по запросу, но также изменения присутствуют и в окружении. Это и есть пока нерешенная проблема.
На примере видно, что персонаж меняется по запросу, но также изменения присутствуют и в окружении. Это и есть пока нерешенная проблема.
🤯3
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите на что способна связка из Stable Diffusion 1.5 + ControlNet + TripoSR + three.js. Видео ускорено. Автор обещает скоро открыть исходники.
Кажется, лет через 5 локации для игр будут делать тупо с помощью текста в строку с промптом.
Кажется, лет через 5 локации для игр будут делать тупо с помощью текста в строку с промптом.
🔥14
Forwarded from эйай ньюз
Сначала не обратил внимания на эту программулину. Но теперь очевидно, насколько это мощный инструмент.
IC Light выкатили обновление, которое позволяет матчить освещение двух картинок.
i.e. поместить предмет на фон и сделать так, чтобы свет на этот предмет падал в соответствии с освещением фоновой картинки.
Можно долго рассказывать про то, как на протяжении веков фотошоперы мучились и страдали от того, что не могли скомпозить две картинки из-за не совпадающего освещения. Но теперь вот вопрос решился ;)
Демо на обнимающем лице (пока без фоновой картинки)
GitHub
@ai_newz
IC Light выкатили обновление, которое позволяет матчить освещение двух картинок.
i.e. поместить предмет на фон и сделать так, чтобы свет на этот предмет падал в соответствии с освещением фоновой картинки.
Можно долго рассказывать про то, как на протяжении веков фотошоперы мучились и страдали от того, что не могли скомпозить две картинки из-за не совпадающего освещения. Но теперь вот вопрос решился ;)
Демо на обнимающем лице (пока без фоновой картинки)
GitHub
@ai_newz
❤13👍2🔥1