Forwarded from эйай ньюз
🎙У некоторых уже появился доступ к аудио фичам в новом мультимодальном ChatGPT.
Он и на русском, и на иврите, и на китайском, и на пачке других языков могёт. OpenAI насобирали очень качественный голосовой датасет для тренировки.
Волосы двигаются на голове от осознания того, что ведёшь разговор с LLM, которая говорит так реалистично (особенно на первом видео). Как-то Siri и Google Assistant так реально не ощущались, да они и тупые в целом (пока).
Аудио доступно только в приложении ChatGPT на мобильниках. Для этого нужно его активировать в настройках аппки.
Интересно, откуда американский акцент на русском языке во втором видео? Байес датасета или так нативнее в контексте изучения языка иностранцем 🤔
@ai_newz
Он и на русском, и на иврите, и на китайском, и на пачке других языков могёт. OpenAI насобирали очень качественный голосовой датасет для тренировки.
Волосы двигаются на голове от осознания того, что ведёшь разговор с LLM, которая говорит так реалистично (особенно на первом видео). Как-то Siri и Google Assistant так реально не ощущались, да они и тупые в целом (пока).
Аудио доступно только в приложении ChatGPT на мобильниках. Для этого нужно его активировать в настройках аппки.
Интересно, откуда американский акцент на русском языке во втором видео? Байес датасета или так нативнее в контексте изучения языка иностранцем 🤔
@ai_newz
🔥18👍10
Media is too big
VIEW IN TELEGRAM
Decaf Mocap
А вот это уже похоже на что-то серьезное, в отличие от мамкиных нейромокапов.
Во-первых, это институт Макса Планка, во-вторых - это Valeo.ai, которые занимаются компьютерным зрением для автономных автомобилей, работая с огромным количеством датчиков.
На итоге - трехмерное восстановление 3D-движения рук и лица вместе с деформациями по одному видео с одной камеры!!!
Внутри вариационный автокодер, обеспечивающий предварительную оценку глубины лица и рук, и модули, управляющие 3D-слежением путем оценки контактов и деформаций.
https://vcai.mpi-inf.mpg.de/projects/Decaf/
Внутри детали и большое видео с объяснениями.
А вот это уже похоже на что-то серьезное, в отличие от мамкиных нейромокапов.
Во-первых, это институт Макса Планка, во-вторых - это Valeo.ai, которые занимаются компьютерным зрением для автономных автомобилей, работая с огромным количеством датчиков.
На итоге - трехмерное восстановление 3D-движения рук и лица вместе с деформациями по одному видео с одной камеры!!!
Внутри вариационный автокодер, обеспечивающий предварительную оценку глубины лица и рук, и модули, управляющие 3D-слежением путем оценки контактов и деформаций.
https://vcai.mpi-inf.mpg.de/projects/Decaf/
Внутри детали и большое видео с объяснениями.
🔥31
Давно не было про Метаверсищще.
Я сам не продвинутый пользователь Роблокса, но глядя на то, как близлежащие дети сбиваются в стаи и рубятся в Роблокс, я всегда считал Роблокс одним из годных воплощений Метаверса, в котором есть, что делать, в отличие от влажных мечт Марка.
А тут вот интернетик принес такую новость: «Яндекс Маркет открыл школу в Roblox, в ней есть теннисный корт, баскетбольная площадка, фонтан, фотозона, школьный автобус и магазин с внутриигровыми предметами от маркетплейса».
Потом посмотрел, что в этом пространстве уже выпустили даже мерч нейросетки YandexGPT, который можно накрафтить, просто погоняв в игрушки. Выигрываешь 50 раз, получаешь читы, активируешь их в мерч-шопе - получаешь толстовку или худи. Мерч виртуальный, выиграл, надел и ну флексить, причем не только в яндекс-зоне, но и по всему Роблоксу.
Глянул первую попавшуюся статистику: 70% активных пользователей - дети и подростки до 17 лет. Вот им уж точно зайдут такие дофаминовые механики.
Не уверен, что у каждой компании будет свой Роблокс-мирок, но для тех кто целит в определенные аудитории, это может быть 3Д-альтернативой тик-токам и инстам.
Но взрослых туда будет загнать сложновато, имхо. Но возможно я просто староват и делаю сверх-обобщения.
Я сам не продвинутый пользователь Роблокса, но глядя на то, как близлежащие дети сбиваются в стаи и рубятся в Роблокс, я всегда считал Роблокс одним из годных воплощений Метаверса, в котором есть, что делать, в отличие от влажных мечт Марка.
А тут вот интернетик принес такую новость: «Яндекс Маркет открыл школу в Roblox, в ней есть теннисный корт, баскетбольная площадка, фонтан, фотозона, школьный автобус и магазин с внутриигровыми предметами от маркетплейса».
Потом посмотрел, что в этом пространстве уже выпустили даже мерч нейросетки YandexGPT, который можно накрафтить, просто погоняв в игрушки. Выигрываешь 50 раз, получаешь читы, активируешь их в мерч-шопе - получаешь толстовку или худи. Мерч виртуальный, выиграл, надел и ну флексить, причем не только в яндекс-зоне, но и по всему Роблоксу.
Глянул первую попавшуюся статистику: 70% активных пользователей - дети и подростки до 17 лет. Вот им уж точно зайдут такие дофаминовые механики.
Не уверен, что у каждой компании будет свой Роблокс-мирок, но для тех кто целит в определенные аудитории, это может быть 3Д-альтернативой тик-токам и инстам.
Но взрослых туда будет загнать сложновато, имхо. Но возможно я просто староват и делаю сверх-обобщения.
🔥20👎7👍6❤1
Stable Diffusion SDXL - одна картинка в секунду. Бесплатно. Без регистрации.
Не шутка. Не реклама.
Просто добрый Гугл взял свои недавно анонсированные TPU v5e и портировал Stable Diffusion на них.
А потом собрал на HuggingFace веб-морду для доступа к
Fast Stable Diffusion XL on TPU v5e.
Получился бесплатный дико быстрый генератор картинок на SDXL.
Крутится все это в облаке Гугла с нечеловеческой скоростью.
Я пробовал утром, я пробовал вечером - в среднем 4 картинки за 2-4 секунды. В 1024х1024.
Это быстрее, чем на A100 или еще где-то.
Для гиков: вот тут подробности, как портировали, как обгоняли, как подрезали.
Для всех:
1. Еще утром был только позитивный и негативный промпт и Guidance Scale. Сейчас подвезли стили. Похоже они занимаются проектом.
2. Еще утром модель прекрасно понимала nude и naked, сейчас уже ругается "изыди и зайди с другим промптом".
3. Мне трудно оценить на глаз разницу с ванильной SDXL. Кажется, что модель в процессе оптимизации потеряла толику точности(кватизация?), но, вероятно, это желание найти подвох.
4. В NSFW модель неохотно исполняет (есть трюкидля этого), причем там похоже есть защита не только в промпте, но и в самой пост-генерации - модель как будто специально ломает анатомию, как только видит сама у себя обнаженку.
5. Абстрактные дела, илюстрация и всякая анимещщина идут на ура, как в обычной SDXL.
6. Конечно нет (пока) никаких рулек и фиксов. Лица порой портит, разрешение квадратное, управлять можно только стилями.
7. Знает знаменитостей. Лица сразу правятся.
В общем давай-те оттестируем такой бесплатный подарок. Навалите туда своих промптов и расскажите, что получилось.
Как-то все это очень сладко, чтобы быть правдой - SDXL, в облаке, бесплатно, быстро, на тензорных ядрах от гугла. И никакой Нвидии посередине.
В чем подвох?
Я тут соорудил галерейку для не вошедшего в шапку, там nsfw, частицы и прочая хтонь, порожденная бездумным жмаканием на кнопку "Еще красиво". Будет 100 лайков, запощу.
Жмакаем сюда:
https://huggingface.co/spaces/google/sdxl
Не шутка. Не реклама.
Просто добрый Гугл взял свои недавно анонсированные TPU v5e и портировал Stable Diffusion на них.
А потом собрал на HuggingFace веб-морду для доступа к
Fast Stable Diffusion XL on TPU v5e.
Получился бесплатный дико быстрый генератор картинок на SDXL.
Крутится все это в облаке Гугла с нечеловеческой скоростью.
Я пробовал утром, я пробовал вечером - в среднем 4 картинки за 2-4 секунды. В 1024х1024.
Это быстрее, чем на A100 или еще где-то.
Для гиков: вот тут подробности, как портировали, как обгоняли, как подрезали.
Для всех:
1. Еще утром был только позитивный и негативный промпт и Guidance Scale. Сейчас подвезли стили. Похоже они занимаются проектом.
2. Еще утром модель прекрасно понимала nude и naked, сейчас уже ругается "изыди и зайди с другим промптом".
3. Мне трудно оценить на глаз разницу с ванильной SDXL. Кажется, что модель в процессе оптимизации потеряла толику точности(кватизация?), но, вероятно, это желание найти подвох.
4. В NSFW модель неохотно исполняет (есть трюкидля этого), причем там похоже есть защита не только в промпте, но и в самой пост-генерации - модель как будто специально ломает анатомию, как только видит сама у себя обнаженку.
5. Абстрактные дела, илюстрация и всякая анимещщина идут на ура, как в обычной SDXL.
6. Конечно нет (пока) никаких рулек и фиксов. Лица порой портит, разрешение квадратное, управлять можно только стилями.
7. Знает знаменитостей. Лица сразу правятся.
В общем давай-те оттестируем такой бесплатный подарок. Навалите туда своих промптов и расскажите, что получилось.
Как-то все это очень сладко, чтобы быть правдой - SDXL, в облаке, бесплатно, быстро, на тензорных ядрах от гугла. И никакой Нвидии посередине.
В чем подвох?
Я тут соорудил галерейку для не вошедшего в шапку, там nsfw, частицы и прочая хтонь, порожденная бездумным жмаканием на кнопку "Еще красиво". Будет 100 лайков, запощу.
Жмакаем сюда:
https://huggingface.co/spaces/google/sdxl
👍118🔥21
Также возникает вопрос. Вот народ плачет, колется, но продолжает покупать дорогие игровые карты Нвидия, забивая микроскопом гвозди генерации картинок.
В предыдущем посте пример того, что генерация может работать на гораздо более простых чипах TPU. Сделанных специально для этого.
Вот были же Асиксы для майнинга?
Стоит ли ожидать специальных карт, свистков, боксов именно для генеративных моделей. Или рынок слишком мал, овчинка выделки не стоит и никто не будет морочится с массовыми TPU?
Картиночки из Fast Stable Diffusion XL on Google TPU v5e.
В предыдущем посте пример того, что генерация может работать на гораздо более простых чипах TPU. Сделанных специально для этого.
Вот были же Асиксы для майнинга?
Стоит ли ожидать специальных карт, свистков, боксов именно для генеративных моделей. Или рынок слишком мал, овчинка выделки не стоит и никто не будет морочится с массовыми TPU?
Картиночки из Fast Stable Diffusion XL on Google TPU v5e.
🔥13👍3