Forwarded from Psy Eyes (Andrey Bezryadin)
Инпейтинг прямо в NeRF. Сцена рендерится с позиции камеры, а цвета берутся отталкиваясь от соседних видов.
Сайт — Бумага
Разработчик сделал рабочую копию операционной системы Саманты из фильма «Она». Преобразование голоса в текстовый промт через Whisper —> генерация текстового ответа через GPT 3.5 —> озвучка ответа в реальном-времени через Elevenlabs. То есть, от фильма до реальности мы добрались за 10 лет.
Автор
Другой чувак связал свой Quest Pro с повседневными вещами: прослушивание музыки, просмотр погоды, регулировка штор, и прочее в режиме MR. Уже не кино. Но котана тебе всё-равно надо будет в реале.
Автор
ECON: создание по одному фото 3D модели человека. Работает даже с группой людей в сложных позах.
Сайт — Colab — Гитхаб — Плагин для Blender — Гайд
Paint-by-Skech: делаешь набросок, что изменить на картинке и получаешь несколько вариантов одежды, фонов, итд.
Бумага — Гитхаб
FaceLit: тоже создание 3D по фото, но с возможностью играться с освещением.
Сайт — Бумага — Гитхаб
Сравнение 4 автономных генеративных AI агентов: “Westworld” simulation, Camel, BabyAGI, AutoGPT.
Пост + Бумага, как научить модель самостоятельно дебажить код
Сайт — Бумага
Разработчик сделал рабочую копию операционной системы Саманты из фильма «Она». Преобразование голоса в текстовый промт через Whisper —> генерация текстового ответа через GPT 3.5 —> озвучка ответа в реальном-времени через Elevenlabs. То есть, от фильма до реальности мы добрались за 10 лет.
Автор
Другой чувак связал свой Quest Pro с повседневными вещами: прослушивание музыки, просмотр погоды, регулировка штор, и прочее в режиме MR. Уже не кино. Но котана тебе всё-равно надо будет в реале.
Автор
ECON: создание по одному фото 3D модели человека. Работает даже с группой людей в сложных позах.
Сайт — Colab — Гитхаб — Плагин для Blender — Гайд
Paint-by-Skech: делаешь набросок, что изменить на картинке и получаешь несколько вариантов одежды, фонов, итд.
Бумага — Гитхаб
FaceLit: тоже создание 3D по фото, но с возможностью играться с освещением.
Сайт — Бумага — Гитхаб
Сравнение 4 автономных генеративных AI агентов: “Westworld” simulation, Camel, BabyAGI, AutoGPT.
Пост + Бумага, как научить модель самостоятельно дебажить код
👍5🔥2
Forwarded from TURBINSKIY (АРТ, нейросети / искусственный интеллект, EUC)
This media is not supported in your browser
VIEW IN TELEGRAM
Разговор с NPC, в которого вселился ChatGPT. Показывает какими могут быть будущие РПГ игры с мудрыми персонажами, у которых мы берем квесты для выполнения заданий
👍
👍
👍16❤🔥1
Forwarded from Gamers Club
Вторая подборка стримеров в виде персонажей Fortnite 🙃
В эту часть вошли такие стримеры как: Olyashaa, Juice, Deepins02, F1ashko и DreadzTV. Первую часть подборки можно посмотреть тут.
💻 Благодарим Константина за помощь в создании нейро-артов!
В эту часть вошли такие стримеры как: Olyashaa, Juice, Deepins02, F1ashko и DreadzTV. Первую часть подборки можно посмотреть тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16💩8👍5
Иногда хочется заморозить себя как Картман в серии южного парка про nintendo wii. Как же это может изменить мир. Скорее бы.
Forwarded from эйай ньюз
Scaling Transformer to 1M tokens and beyond with RMT
Парни из DeepPavlov (привет, если читаете!) на днях выпустили тех-репорт, где соорудили Recurrent Memory Transformer, который способен держать контекст в 1M токенов!
Чтобы вы понимали, ChatGPT сейчас имеет контекст в 32k токенов. А 1 миллион токенов - это несколько книг приличного размера. Теперь модель сможет держать гораздо больше информации "в голове", и например, написать эссе по целому роману, вместо того чтобы работать на маленьких отрывках.
Принцип работы похож на рекурентную сеть, где трансформер постепенно поедает куски контекста, при этом сжимая инфу из каждого куска и обновляя свое внутреннее состояние. В результате такой компресси финальный результат получается слегка хуже чем при работе с маленькими контекстами. Ну, и работает это медленно, ведь все равно придется прогнать все 1M токенов через сеть.
Однако, это интересный результат, который, вероятно, через несколько месяцев доработают и оптимизируют.
Код для BERT
Статья
@ai_newz
Парни из DeepPavlov (привет, если читаете!) на днях выпустили тех-репорт, где соорудили Recurrent Memory Transformer, который способен держать контекст в 1M токенов!
Чтобы вы понимали, ChatGPT сейчас имеет контекст в 32k токенов. А 1 миллион токенов - это несколько книг приличного размера. Теперь модель сможет держать гораздо больше информации "в голове", и например, написать эссе по целому роману, вместо того чтобы работать на маленьких отрывках.
Принцип работы похож на рекурентную сеть, где трансформер постепенно поедает куски контекста, при этом сжимая инфу из каждого куска и обновляя свое внутреннее состояние. В результате такой компресси финальный результат получается слегка хуже чем при работе с маленькими контекстами. Ну, и работает это медленно, ведь все равно придется прогнать все 1M токенов через сеть.
Однако, это интересный результат, который, вероятно, через несколько месяцев доработают и оптимизируют.
Код для BERT
Статья
@ai_newz
👍8🔥1
Forwarded from TURBINSKIY (АРТ, нейросети / искусственный интеллект, EUC)
Штука для установки нейросетей в 1 клик. Больше не нужно смотреть туториалы по установкам где полоскают мозг.
https://civitai.com/models/27574/super-easy-ai-installer-tool
👌
https://civitai.com/models/27574/super-easy-ai-installer-tool
👌
👍3