ReplaceAnything as you want: Ultra-high quality content replacement
Заменятор чего угодно на изображении от Alibaba.
Код будет здесь
Демо
#image2image #inpainting
Заменятор чего угодно на изображении от Alibaba.
Код будет здесь
Демо
#image2image #inpainting
👍2🔥1
Нейронавт | Нейросети в творчестве
ReplaceAnything as you want: Ultra-high quality content replacement Заменятор чего угодно на изображении от Alibaba. Код будет здесь Демо #image2image #inpainting
Это должен был быть Dr Evon Musk, но китайская нейросетка упорно рисует азиата
😁12
Moore-AnimateAnyone
Неофициальная имплементация AnimateAnyone, справляется явно хуже оригинала, но оригинальный код авторы так и не показали
Код
#image2video #humananimation #characteranimation #pose2video
Неофициальная имплементация AnimateAnyone, справляется явно хуже оригинала, но оригинальный код авторы так и не показали
Код
#image2video #humananimation #characteranimation #pose2video
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Rodin Gen-1
Генерация 3D объектов по тексту и блокам в реальном времени.
Работает на наборе 3D-ControlNet'ов
Авторы планируют сделать крупнейший 3D генератор общедоступным
твиттер
#imageto3D #tetxtto3D #text2scene #realtime
Генерация 3D объектов по тексту и блокам в реальном времени.
Работает на наборе 3D-ControlNet'ов
Авторы планируют сделать крупнейший 3D генератор общедоступным
твиттер
#imageto3D #tetxtto3D #text2scene #realtime
🔥17
Semantic hearing
В Университете Вашингтона сконструировали наушники, которые позволяют слышать лишь то что хотите, отсекая нежелательные источники звука
Статья [ENG]
#news #audio2audio #segmentation
В Университете Вашингтона сконструировали наушники, которые позволяют слышать лишь то что хотите, отсекая нежелательные источники звука
Статья [ENG]
#news #audio2audio #segmentation
👍6🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
DDColor: Towards Photo-Realistic Image Colorization via Dual Decoders
Естественная колоризация изображений, заявлено превосходство над всеми существующими конкурентами
Код
Колаб
#colorize #image2image
Естественная колоризация изображений, заявлено превосходство над всеми существующими конкурентами
Код
Колаб
#colorize #image2image
👍4🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
TRIPS: Trilinear Point Splatting for Real-Time Radiance Field Rendering
Соединение идей гауссиан и ADOP для быстрого рендера 3D сцен без потери деталей
Кода нет
#gaussian #rendering #realtime
Соединение идей гауссиан и ADOP для быстрого рендера 3D сцен без потери деталей
Кода нет
#gaussian #rendering #realtime
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Resemble Enhance: Open Source Speech Super Resolution AI Model
Наконец достойный опенсорсный конкурент чистки звука Nvidia Broadcast/Adobe enhance
Код
Демо
Колаб
#audio2audio #audiodenoise #audioenhance
Наконец достойный опенсорсный конкурент чистки звука Nvidia Broadcast/Adobe enhance
Код
Демо
Колаб
#audio2audio #audiodenoise #audioenhance
👍12❤1
This media is not supported in your browser
VIEW IN TELEGRAM
PhotoMaker: Customizing Realistic Human Photos via Stacked ID Embedding
Редактирование изображений от Tencent. Замена лиц, стилизация, реконтекстуализация, изменение возраста, смешивание персонажей.
Цензуры пока нет, поэтому весь хайп лишь вокруг NSFW
Код
Демо реализм
Демо стилизация
#image2image
Редактирование изображений от Tencent. Замена лиц, стилизация, реконтекстуализация, изменение возраста, смешивание персонажей.
Цензуры пока нет, поэтому весь хайп лишь вокруг NSFW
Код
Демо реализм
Демо стилизация
#image2image
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
MAGNeT: Masked Audio Generation using a Single Non-Autoregressive Transformer
Генератор музыки/звука от Еврейского Университета Иерусалима
Код
Демо
Колаб
#text2music #text2audio
Генератор музыки/звука от Еврейского Университета Иерусалима
Код
Демо
Колаб
#text2music #text2audio
👍4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Motionshop
Замена персонажа на видео на 3D аватар от Alibaba
Есть демо, но только с китайской учеткой
#video2video #chracterswap
Замена персонажа на видео на 3D аватар от Alibaba
Есть демо, но только с китайской учеткой
#video2video #chracterswap
🔥5❤2😱1
Forwarded from Сиолошная
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных примерах можно было тестировать методы борьбы с подобными уязвимостями. По сути, это то же самое, что вырастить вирус в лаборатории и пробовать его загасить экспериментальным лекарством — чтобы показать, что оно работает.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные😢
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха💀 ), а затем отдать её на «лоботомию» или тестирование Safety. Как пример, исследователи Anthropic делают:
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😱5❤1
InstantID : Zero-shot Identity-Preserving Generation in Seconds
Генератор изображений с заданным персонажем по одной референсной картинке.
Можно задавать стиль, смешивать/интерполировать персонажей, задавать позу и т. п.
Код ждем
#text2image #image2image #stylization #personalization
Генератор изображений с заданным персонажем по одной референсной картинке.
Можно задавать стиль, смешивать/интерполировать персонажей, задавать позу и т. п.
Код ждем
#text2image #image2image #stylization #personalization
👍11
This media is not supported in your browser
VIEW IN TELEGRAM
Katalist
Генератор раскадровок с постоянством персонажа, стиля и сцены
Записаться в вейтлист
#text2image #storyboard #text2story
Генератор раскадровок с постоянством персонажа, стиля и сцены
Записаться в вейтлист
#text2image #storyboard #text2story
🔥16🤔2❤1👍1