Forwarded from Gamers Club
Вторая подборка стримеров в виде персонажей Fortnite 🙃
В эту часть вошли такие стримеры как: Olyashaa, Juice, Deepins02, F1ashko и DreadzTV. Первую часть подборки можно посмотреть тут.
💻 Благодарим Константина за помощь в создании нейро-артов!
В эту часть вошли такие стримеры как: Olyashaa, Juice, Deepins02, F1ashko и DreadzTV. Первую часть подборки можно посмотреть тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16💩8👍5
Иногда хочется заморозить себя как Картман в серии южного парка про nintendo wii. Как же это может изменить мир. Скорее бы.
Forwarded from эйай ньюз
Scaling Transformer to 1M tokens and beyond with RMT
Парни из DeepPavlov (привет, если читаете!) на днях выпустили тех-репорт, где соорудили Recurrent Memory Transformer, который способен держать контекст в 1M токенов!
Чтобы вы понимали, ChatGPT сейчас имеет контекст в 32k токенов. А 1 миллион токенов - это несколько книг приличного размера. Теперь модель сможет держать гораздо больше информации "в голове", и например, написать эссе по целому роману, вместо того чтобы работать на маленьких отрывках.
Принцип работы похож на рекурентную сеть, где трансформер постепенно поедает куски контекста, при этом сжимая инфу из каждого куска и обновляя свое внутреннее состояние. В результате такой компресси финальный результат получается слегка хуже чем при работе с маленькими контекстами. Ну, и работает это медленно, ведь все равно придется прогнать все 1M токенов через сеть.
Однако, это интересный результат, который, вероятно, через несколько месяцев доработают и оптимизируют.
Код для BERT
Статья
@ai_newz
Парни из DeepPavlov (привет, если читаете!) на днях выпустили тех-репорт, где соорудили Recurrent Memory Transformer, который способен держать контекст в 1M токенов!
Чтобы вы понимали, ChatGPT сейчас имеет контекст в 32k токенов. А 1 миллион токенов - это несколько книг приличного размера. Теперь модель сможет держать гораздо больше информации "в голове", и например, написать эссе по целому роману, вместо того чтобы работать на маленьких отрывках.
Принцип работы похож на рекурентную сеть, где трансформер постепенно поедает куски контекста, при этом сжимая инфу из каждого куска и обновляя свое внутреннее состояние. В результате такой компресси финальный результат получается слегка хуже чем при работе с маленькими контекстами. Ну, и работает это медленно, ведь все равно придется прогнать все 1M токенов через сеть.
Однако, это интересный результат, который, вероятно, через несколько месяцев доработают и оптимизируют.
Код для BERT
Статья
@ai_newz
👍8🔥1
Forwarded from TURBINSKIY (АРТ, нейросети / искусственный интеллект, EUC)
Штука для установки нейросетей в 1 клик. Больше не нужно смотреть туториалы по установкам где полоскают мозг.
https://civitai.com/models/27574/super-easy-ai-installer-tool
👌
https://civitai.com/models/27574/super-easy-ai-installer-tool
👌
👍3
Forwarded from 4chan
This media is not supported in your browser
VIEW IN TELEGRAM
Певцы ртом уже не нужны, нейросеть воскресила Фреди Меркури и заставила его спеть Beliver - Imagine Dragons
💩8👍6🤯2❤1
Forwarded from Stable Diffusion | Text2img
Media is too big
VIEW IN TELEGRAM
Новый клип Disturbed - Unstoppable, без StableDiffusion не обошлось 🤘
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Forwarded from Эксплойт
Полезная памятка для быстрого составления эффективных промтов в ChatGPT.
Сохраняем и пользуемся.
@exploitex
Сохраняем и пользуемся.
@exploitex
👍6
Сделал лору ЗАЗ 968 и погенерил её в киберпанке. Ну и сайберМурка заодно)) https://civitai.com/models/52135/zaz968a-zaporozhec
🔥22🥰1🍌1