This media is not supported in your browser
VIEW IN TELEGRAM
Resemble Enhance: Open Source Speech Super Resolution AI Model
Наконец достойный опенсорсный конкурент чистки звука Nvidia Broadcast/Adobe enhance
Код
Демо
Колаб
#audio2audio #audiodenoise #audioenhance
Наконец достойный опенсорсный конкурент чистки звука Nvidia Broadcast/Adobe enhance
Код
Демо
Колаб
#audio2audio #audiodenoise #audioenhance
👍12❤1
This media is not supported in your browser
VIEW IN TELEGRAM
PhotoMaker: Customizing Realistic Human Photos via Stacked ID Embedding
Редактирование изображений от Tencent. Замена лиц, стилизация, реконтекстуализация, изменение возраста, смешивание персонажей.
Цензуры пока нет, поэтому весь хайп лишь вокруг NSFW
Код
Демо реализм
Демо стилизация
#image2image
Редактирование изображений от Tencent. Замена лиц, стилизация, реконтекстуализация, изменение возраста, смешивание персонажей.
Цензуры пока нет, поэтому весь хайп лишь вокруг NSFW
Код
Демо реализм
Демо стилизация
#image2image
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
MAGNeT: Masked Audio Generation using a Single Non-Autoregressive Transformer
Генератор музыки/звука от Еврейского Университета Иерусалима
Код
Демо
Колаб
#text2music #text2audio
Генератор музыки/звука от Еврейского Университета Иерусалима
Код
Демо
Колаб
#text2music #text2audio
👍4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Motionshop
Замена персонажа на видео на 3D аватар от Alibaba
Есть демо, но только с китайской учеткой
#video2video #chracterswap
Замена персонажа на видео на 3D аватар от Alibaba
Есть демо, но только с китайской учеткой
#video2video #chracterswap
🔥5❤2😱1
Forwarded from Сиолошная
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных примерах можно было тестировать методы борьбы с подобными уязвимостями. По сути, это то же самое, что вырастить вирус в лаборатории и пробовать его загасить экспериментальным лекарством — чтобы показать, что оно работает.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные😢
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха💀 ), а затем отдать её на «лоботомию» или тестирование Safety. Как пример, исследователи Anthropic делают:
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😱5❤1
InstantID : Zero-shot Identity-Preserving Generation in Seconds
Генератор изображений с заданным персонажем по одной референсной картинке.
Можно задавать стиль, смешивать/интерполировать персонажей, задавать позу и т. п.
Код ждем
#text2image #image2image #stylization #personalization
Генератор изображений с заданным персонажем по одной референсной картинке.
Можно задавать стиль, смешивать/интерполировать персонажей, задавать позу и т. п.
Код ждем
#text2image #image2image #stylization #personalization
👍11
This media is not supported in your browser
VIEW IN TELEGRAM
Katalist
Генератор раскадровок с постоянством персонажа, стиля и сцены
Записаться в вейтлист
#text2image #storyboard #text2story
Генератор раскадровок с постоянством персонажа, стиля и сцены
Записаться в вейтлист
#text2image #storyboard #text2story
🔥16🤔2❤1👍1
Forwarded from Градиент обреченный (Sergei Averkiev)
Недавно у стартапа Mistral появилась доступная по API модель mistral-medium. И на лидерборде чат-арены она аж вторая после GPT-4, т.е. выше Claude и Gemini.
По деталям пока не понятно, пишут, что это внутренний прототип. Также есть модели small и tiny.
Потыкал в medium, на английском отвечает вообще отлично, на русском тоже порадовала. Изредка сбивается в грамматике и ставит английские слова, но по смыслу прям очень круто. По цене что-то около рубля за 1000 токенов.
Для тех кто кочет попробовать, вот API ключma0MkyaBYfAebJlXuvfGhS4L6l7cVwHG .
Выставил там месячный лимит на пару евро, надеюсь, что он у них правильно работает)
По деталям пока не понятно, пишут, что это внутренний прототип. Также есть модели small и tiny.
Потыкал в medium, на английском отвечает вообще отлично, на русском тоже порадовала. Изредка сбивается в грамматике и ставит английские слова, но по смыслу прям очень круто. По цене что-то около рубля за 1000 токенов.
Для тех кто кочет попробовать, вот API ключ
Выставил там месячный лимит на пару евро, надеюсь, что он у них правильно работает)
👍7🔥3💯1
Forwarded from CG дневничок (Sergey Frolov)
Новый скандал на просторах VFX-пустоши.
Framestore (одна из топовых студий), несколько дней назад опубликовали новую вакансию "Generative AI Artist", кандидат должен был работать в Stable Diffusion, ComfyUI, Automatic1111, Midjourney, Dalle и Runway.
Комментарии под постом разделились: некоторые считают, что художники и искусственный интеллект должны работать вместе, чтобы максимизировать результат, но большинство считает, что это ужасная идея, отчасти из-за проблем с авторским правом, и Framestore следует просто нанять традиционного художника.
Комментарий от студии:
Студия добавила, что использует AI для содействия творчеству людей, помогая командам художников быстрее достигать результата. Они считают, что AI может "помочь работе художников, позволяя им делать больше того, что они любят".
Вакансию удалили.
Напомню, что в июне Marvel пытались использовать AI-генерацию для титров "Секретного вторжения", что из этого вышло можно глянуть здесь. Но тогда тоже разгорелся скандал, что скайнет забирает работу у мешков с костями.
Что касается моего мнения по этой теме — да вообще похуй. Я сам использую нейросети для упрощения и ускорения работы, только динозавры могут протестовать против AI. Давайте тогда отключим ротобраш и runway, эти штуки у индусов забирают рисовые пиалки.
Framestore (одна из топовых студий), несколько дней назад опубликовали новую вакансию "Generative AI Artist", кандидат должен был работать в Stable Diffusion, ComfyUI, Automatic1111, Midjourney, Dalle и Runway.
Комментарии под постом разделились: некоторые считают, что художники и искусственный интеллект должны работать вместе, чтобы максимизировать результат, но большинство считает, что это ужасная идея, отчасти из-за проблем с авторским правом, и Framestore следует просто нанять традиционного художника.
Комментарий от студии:
Вчера одно из наших объявлений о вакансиях для AI-художника вызвало некоторое беспокойство в нашем сообществе. Новый сотрудник будет работать в сотрудничестве с иллюстратором над проектом. Сначала мы закажем работу у классического художника, а потом используем различные методы VFX, включая AI, чтобы доработать изображение. Частично это будет сделано путем анимации определенных ключевых кадров, а также обучения частных моделей и расширений
Студия добавила, что использует AI для содействия творчеству людей, помогая командам художников быстрее достигать результата. Они считают, что AI может "помочь работе художников, позволяя им делать больше того, что они любят".
Вакансию удалили.
Напомню, что в июне Marvel пытались использовать AI-генерацию для титров "Секретного вторжения", что из этого вышло можно глянуть здесь. Но тогда тоже разгорелся скандал, что скайнет забирает работу у мешков с костями.
Что касается моего мнения по этой теме — да вообще похуй. Я сам использую нейросети для упрощения и ускорения работы, только динозавры могут протестовать против AI. Давайте тогда отключим ротобраш и runway, эти штуки у индусов забирают рисовые пиалки.
👏17👍1
This media is not supported in your browser
VIEW IN TELEGRAM
ZeroShape: Regression-based Zero-shot Shape Reconstruction
Реконструкция 3D объекта по одному изображению, превосходит конкурентов по скорости генерации и стоимости обучения. Реконструирует только геометрию, без текстур.
Код
Демо
#imageto3D
Реконструкция 3D объекта по одному изображению, превосходит конкурентов по скорости генерации и стоимости обучения. Реконструирует только геометрию, без текстур.
Код
Демо
#imageto3D
🔥5❤2
Media is too big
VIEW IN TELEGRAM
UniVG: Towards UNIfied-modal Video Generation
Генератор видео по тексту от Baidu. Заявлена генерация сложных сцен и превосходство над опенсорсными решениями при оценке на людях. По закрытым нейронкам соответствует Gen2.Что-то мне подсказывает, что это не надолго, где-то на пороге должен быть Gen3
Кода нет
#text2video
Генератор видео по тексту от Baidu. Заявлена генерация сложных сцен и превосходство над опенсорсными решениями при оценке на людях. По закрытым нейронкам соответствует Gen2.
Кода нет
#text2video
❤5
This media is not supported in your browser
VIEW IN TELEGRAM
VideoCrafter2 : Overcoming Data Limitationsfor High-Quality Video Diffusion Models
Что я говорил? Все пилят новые версии. Вот и Tencent выкатил обновку VideoCrafter.
Код
Демо
#text2video
Что я говорил? Все пилят новые версии. Вот и Tencent выкатил обновку VideoCrafter.
Код
Демо
#text2video
❤6👍1
This media is not supported in your browser
VIEW IN TELEGRAM
TextureDreamer: Image-guided Texture Synthesis through Geometry-aware Diffusion
Текстуровщик мечты от Meta. По фото с нескольких ракурсов грабит с объекта детальные текстуры. Но это еще не все. После этого он может натянуть их на чуть ли не рандомный объект и зарелайтить. Магия?
Кода нет, мы и так знаем что это для VR
#image2texture #relighting #texture
Текстуровщик мечты от Meta. По фото с нескольких ракурсов грабит с объекта детальные текстуры. Но это еще не все. После этого он может натянуть их на чуть ли не рандомный объект и зарелайтить. Магия?
Кода нет, мы и так знаем что это для VR
#image2texture #relighting #texture
🔥11❤2👍1
GARField: Group Anything with Radiance Fields
Извлекает ассеты разного уровня из #nerf сцены. Затем на них можно испытать симуляцию динамики - см на сайте.
Гарфилд прикручивается в nerfstudio
#simulation #dynamics #tools
Извлекает ассеты разного уровня из #nerf сцены. Затем на них можно испытать симуляцию динамики - см на сайте.
Гарфилд прикручивается в nerfstudio
#simulation #dynamics #tools
🔥5🎃2