Forwarded from Denis Sexy IT 🤖
Давно порываюсь вам написать про ТГ-сетки которые про ML-пишут и что им не стоит верить, вот пример ⬆︎
Что на самом деле происходит с этой новой моделью
1. Пару дней твиттерский показал свою новую языковую 70B-модель которая с рекордами прошла все бенчмарки (по его утверждению это был файнтюн Llama 3.1 70b ) и что такая же 400b будет вот-вот
2. Модель начала вируситься, ее начали качать и оказалось, что она толком не работает потому что там внутри немного битый конфиг ее запуска (это если простыми словами)
3. Автор перезалил модель, сказал что все починил и все работает — но теперь оказалось что нужно использовать только специальный системный промпт чтобы она работала
4. Сообщество начало тестировать, разобрало модель по кусочкам и оказалось, что это файнтюн Llama 70b 3.0, а не 3.1. И причем не файнтюн модели целиком, а просто Lora-адаптер вмерженного в модель (тренируют кусочек модели который замещает часть модели)
5. Автор сказал, я вообще не помню что я там использовал — толи 3.0 толи 3.1, что такое Lora я не знаю, это не важно все — мы тут сейчас все заново поставим тренироваться, уже поставили точнее (зачем перетренивать модель которая по метрикам побила все бенчмарки пару дней назад мы не узнаем)
6. Параллельно с этим, появилась веб-версия этой модели о которой пишет Бекдор — и ее API дали сегодня протестировать сторонней организации, она неплохо справилась и подтвердила что результаты высокие (но модель доступна только по API)
7. Пару часов назад автор публикует новую версию модели Reflection 70b e3 и сразу пишет, что с ней что-то не так: «Веса залились, но мы все еще проверяем, чтобы убедиться, что они правильные, прежде чем мы собираемся закончить день» – зачем заливать модель до тестов? Ответа нет
8. Люди тестирующие веб версию Reflection 70b, обратили внимание, что она очень похожа на Sonnet 3.5 — буквально токен в токен отдает ответы такие же ответы
Буду держать вас в курсе нашей высокотехнологичной драмы – возможно, чел правда что-то натренил, но пока мы не знаем что.
Ну и для нейронок лучше читать проверенные ML-каналы, сейчас такое время, что все экспертами в АИ стали (я даже не про свой, я их часто сюда репощу)
Что на самом деле происходит с этой новой моделью
Reflection-70B:1. Пару дней твиттерский показал свою новую языковую 70B-модель которая с рекордами прошла все бенчмарки (по его утверждению это был файнтюн Llama 3.1 70b ) и что такая же 400b будет вот-вот
2. Модель начала вируситься, ее начали качать и оказалось, что она толком не работает потому что там внутри немного битый конфиг ее запуска (это если простыми словами)
3. Автор перезалил модель, сказал что все починил и все работает — но теперь оказалось что нужно использовать только специальный системный промпт чтобы она работала
4. Сообщество начало тестировать, разобрало модель по кусочкам и оказалось, что это файнтюн Llama 70b 3.0, а не 3.1. И причем не файнтюн модели целиком, а просто Lora-адаптер вмерженного в модель (тренируют кусочек модели который замещает часть модели)
5. Автор сказал, я вообще не помню что я там использовал — толи 3.0 толи 3.1, что такое Lora я не знаю, это не важно все — мы тут сейчас все заново поставим тренироваться, уже поставили точнее (зачем перетренивать модель которая по метрикам побила все бенчмарки пару дней назад мы не узнаем)
6. Параллельно с этим, появилась веб-версия этой модели о которой пишет Бекдор — и ее API дали сегодня протестировать сторонней организации, она неплохо справилась и подтвердила что результаты высокие (но модель доступна только по API)
7. Пару часов назад автор публикует новую версию модели Reflection 70b e3 и сразу пишет, что с ней что-то не так: «Веса залились, но мы все еще проверяем, чтобы убедиться, что они правильные, прежде чем мы собираемся закончить день» – зачем заливать модель до тестов? Ответа нет
8. Люди тестирующие веб версию Reflection 70b, обратили внимание, что она очень похожа на Sonnet 3.5 — буквально токен в токен отдает ответы такие же ответы
<играет цирковая музыка, вы находитесь здесь>
Буду держать вас в курсе нашей высокотехнологичной драмы – возможно, чел правда что-то натренил, но пока мы не знаем что.
Ну и для нейронок лучше читать проверенные ML-каналы, сейчас такое время, что все экспертами в АИ стали (я даже не про свой, я их часто сюда репощу)
🥴14🎃1
GST: Precise 3D Human Body from a Single Image with Gaussian Splatting Transformers
Реконструкция полной позы/формы человека вместе с одеждой и рендер новых ракурсов. Под капотом гауссианы.
На вход нужно всего лишь одно фото
Рендер выглядит максимально шакально. Зато хвастаются скоростью 50 кадров в секунду.
Код ждем завтра
#image2pose #gaussian #novelview #realtime #imageto3d
Реконструкция полной позы/формы человека вместе с одеждой и рендер новых ракурсов. Под капотом гауссианы.
На вход нужно всего лишь одно фото
Рендер выглядит максимально шакально. Зато хвастаются скоростью 50 кадров в секунду.
Код ждем завтра
#image2pose #gaussian #novelview #realtime #imageto3d
😁6👍1👎1🔥1
This media is not supported in the widget
VIEW IN TELEGRAM
👎33❤6🤡6
StableNormal: Reducing Diffusion Variance for Stable and Sharp Normal
Генератор нормалей по изображению. Должен быть крутой. У меня к сожалению галерея сравнений не прогружается чтобы посмотреть.
Код
Демо
#image2normal #video2normal
Генератор нормалей по изображению. Должен быть крутой. У меня к сожалению галерея сравнений не прогружается чтобы посмотреть.
Код
Демо
#image2normal #video2normal
🔥10👍3🤯2
StableDelight
Устранение отражений на текстурированных поверхностях. На гитхабе заявлен рилтайм, а в демоспейсе что-то не рилтайм.
Вдохновлено предыдущей работой авторов - StableNormal
Код
Демо
#reflectionremoval #image2image #realtime
Устранение отражений на текстурированных поверхностях. На гитхабе заявлен рилтайм, а в демоспейсе что-то не рилтайм.
Вдохновлено предыдущей работой авторов - StableNormal
Код
Демо
#reflectionremoval #image2image #realtime
❤7👎1🤯1
Media is too big
VIEW IN TELEGRAM
Adobe Firefly Video Model
Adobe показали генератор видео с уже знакомым нам названием Firefly. Мало того что умеет генерить по тексту и по картинке, он умеет и более сложные вещи. Например, генерировать эффекты для наложения (привет контролнет). Не просто продлевать исходное видео, а создавать продолжение новым шотом с новым ракурсом/детальностью/объектом съемки. Короче, много интересного за ваши деньги.
Качество на уровне топовых видеогенераторов.
Максимальный хронометраж 5 секунд.
Записаться в вейтлист
#text2video #image2video
Adobe показали генератор видео с уже знакомым нам названием Firefly. Мало того что умеет генерить по тексту и по картинке, он умеет и более сложные вещи. Например, генерировать эффекты для наложения (привет контролнет). Не просто продлевать исходное видео, а создавать продолжение новым шотом с новым ракурсом/детальностью/объектом съемки. Короче, много интересного за ваши деньги.
Качество на уровне топовых видеогенераторов.
Максимальный хронометраж 5 секунд.
Записаться в вейтлист
#text2video #image2video
🔥11❤4👍4👎1
DomoAI upscaler
Апскейлер картинок и видео
Со свидетелем справился очень хорошо.
Видео - не нравится. Шарпит и тени заваливает, получается ненужный контраст. А детали где?
На старте дают 15 кредитов.
Апскейл картинки до 2К стоит 2кредита, до 4К - 6 кредитов
Апскейл 3 секунд видео до 2К стоит 10 кредитов. 5 секунд - 15 кредитов.
Короче, если нужно один раз что-то заапскейлить. Или плати
#upscale
Апскейлер картинок и видео
Со свидетелем справился очень хорошо.
Видео - не нравится. Шарпит и тени заваливает, получается ненужный контраст. А детали где?
На старте дают 15 кредитов.
Апскейл картинки до 2К стоит 2кредита, до 4К - 6 кредитов
Апскейл 3 секунд видео до 2К стоит 10 кредитов. 5 секунд - 15 кредитов.
Короче, если нужно один раз что-то заапскейлить. Или плати
#upscale
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Vchitect
Новый видеогенератор по картинке и по тексту от авторов VEnhancer - улучшайзера сгенерированного видео. Кстати, он тоже обновился
Vchitect позволяет генерить в любом соотношении сторон.
5-20 секунд видео разрешением до 720*480 (помним про VEnhancer).
С лицами беда у него.
На VBench немного уступает Gen-3, Kling и CogVideoX-5B-SAT
Гитхаб (что там с репозиторием - непонятно)
Демо ждем
#text2video #image2video
Новый видеогенератор по картинке и по тексту от авторов VEnhancer - улучшайзера сгенерированного видео. Кстати, он тоже обновился
Vchitect позволяет генерить в любом соотношении сторон.
5-20 секунд видео разрешением до 720*480 (помним про VEnhancer).
С лицами беда у него.
На VBench немного уступает Gen-3, Kling и CogVideoX-5B-SAT
Гитхаб (что там с репозиторием - непонятно)
Демо ждем
#text2video #image2video
👍14❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Dynamic Gaussian Marbles for Novel View Synthesis of Casual Monocular Videos
Позволяет смотреть любое видео с нового ракурса за счет отслеживания точек в пространстве. Под капотом гауссианы
Код
#novelview #gaussian
Позволяет смотреть любое видео с нового ракурса за счет отслеживания точек в пространстве. Под капотом гауссианы
Код
#novelview #gaussian
👍7
This media is not supported in your browser
VIEW IN TELEGRAM
GauFace: Instant Facial Gaussians Translator for Relightable and Interactable Facial Rendering
Эффективный рендер и анимация лиц на гауссианах.
30 кадров в секунду 1440p на Snapdragon 8 Gen 2.
Целятся в мобильные и VR платформы
Код ждем
#humanavatar #facialanimation #headanimation #headavatar #gaussian
Эффективный рендер и анимация лиц на гауссианах.
30 кадров в секунду 1440p на Snapdragon 8 Gen 2.
Целятся в мобильные и VR платформы
Код ждем
#humanavatar #facialanimation #headanimation #headavatar #gaussian
👀5
PuLID-FLUX-v0.9.0
Прикрутили персонализатор PuLID к #Flux
Гитхаб
Демо
ComfyUI (пока без флюкса)
#personalization #text2image #image2image
Прикрутили персонализатор PuLID к #Flux
Гитхаб
Демо
ComfyUI (пока без флюкса)
#personalization #text2image #image2image
🔥16👍1
FLUX.1-dev-Controlnet-Inpainting-Alpha
Контролнет для инпейнтинга #Flux
Альфа версия, еще в процессе тренировки
Рекомендуемое значение controlnet_conditioning_scale составляет 0,9 - 0,95
P.S. кто такие alimama?
#controlnet #inpainting
Контролнет для инпейнтинга #Flux
Альфа версия, еще в процессе тренировки
Рекомендуемое значение controlnet_conditioning_scale составляет 0,9 - 0,95
P.S. кто такие alimama?
#controlnet #inpainting
🔥16❤1