Forwarded from я обучала одну модель
Невероятно крутая статья, не похожая вообще ни на что, что я до этого видела – Generative Agents: Interactive Simulacra of Human Behavior
https://arxiv.org/pdf/2304.03442.pdf
Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей
У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection
Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего
UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/
и довольно подробный тред о статье
https://arxiv.org/pdf/2304.03442.pdf
Если кратко, то игру по типу Симс населили 25 персонажами, каждый со своим описанием личности, со своими воспоминаниями и со своими целями. Все действия персонажей и взаимодействия друг с другом происходили через генерацию LLM. В итоге персонажи очень быстро стали имитировать довольно сложное человеческое поведение – например, вместе организовали вечеринку в честь дня Святого Валентина, раздвали приглашения и назначали свидании. Более того, их действия, согласно оценкам размечиков, были более human, чем поведение людей, которых попросили играть за этих персонажей
У авторов очень прикольная идея с использованием контекста модели: все действия и наблюдения за окружающим миром сохраняются, далее из этой памяти достаются какие-то релевантные воспоминания. Их используют, чтобы генерить следующее действие / реплику в разговоре, и еще для модель просят над ними порефлексировать, чтобы сформулировать более долгосрочные планы. Так что персонаж может в observation, planning, and reflection
Кажется что это вообще бомба для всяких отыгрываний тех или иных агентов в чатах и может быть так будут выглядеть NPC будущего
UPD: забыла приложить также отличное демо – https://reverie.herokuapp.com/arXiv_Demo/
и довольно подробный тред о статье
❤37👍3
А ведь могли бы сделать так, чтоб ChatGPT на всякие запрещённые вопросы отвечала не пастой про политику безопасности, а просто: "doesn't look like anything to me"
❤18🔥6👍4😁3
Forwarded from Ai molodca (Dobrokotov)
This media is not supported in your browser
VIEW IN TELEGRAM
Будет висеть недолго, поэтому кто на местности, жду ваших фоточек — Красноармейская 84.
Из нейросетей здесь — только изображение на щите и слоган.
Из нейросетей здесь — только изображение на щите и слоган.
🔥13😁5👍3❤1
Media is too big
VIEW IN TELEGRAM
jimLeeDCComicsMarvel_offset lora + face controlnet
coming in v0.11
#stablediffusion #warpfusion
Vid by @Frau_haku
coming in v0.11
#stablediffusion #warpfusion
Vid by @Frau_haku
🔥13
Forwarded from Stable Diffusion | Text2img
ControlNet версии 1.1 - предварительный релиз.
Товарищ lllyasviel продолжает докручивать свой великолепнейший алгоритм по контролю над SD. Поставить его можно уже сейчас, но только отдельным интерфейсом отсюда. Сам релиз и его имплементация к автоматику планируется в ближайшие несколько дней.
Итак, по новшествам.
— Итого, теперь будет 14 моделей (11 готовы, две экспериментальных и 1 в процессе).
— Естественно, все старые модели ещё больше улучшены.
— Новые модельки: Soft Edge (наподобие Scribble, но более "мягкий" в линиях), Lineart и Аниме Lineart (раскрашивать мангу/рисунки теперь можно будет на высшем уровне), Shuffle (перемешивает цвета в картинке), Instruct Pix2Pix (аналогично весам инструкций), а так же Инпаинтая модель (для перерисовки части рисунка контролнета) и незавершённая Tile-модель (повышение разрешения части рисунка).
— Модель ОпенПоз теперь включает руки и лицо по умолчанию, из коробки.
Товарищ lllyasviel продолжает докручивать свой великолепнейший алгоритм по контролю над SD. Поставить его можно уже сейчас, но только отдельным интерфейсом отсюда. Сам релиз и его имплементация к автоматику планируется в ближайшие несколько дней.
Итак, по новшествам.
— Итого, теперь будет 14 моделей (11 готовы, две экспериментальных и 1 в процессе).
— Естественно, все старые модели ещё больше улучшены.
— Новые модельки: Soft Edge (наподобие Scribble, но более "мягкий" в линиях), Lineart и Аниме Lineart (раскрашивать мангу/рисунки теперь можно будет на высшем уровне), Shuffle (перемешивает цвета в картинке), Instruct Pix2Pix (аналогично весам инструкций), а так же Инпаинтая модель (для перерисовки части рисунка контролнета) и незавершённая Tile-модель (повышение разрешения части рисунка).
— Модель ОпенПоз теперь включает руки и лицо по умолчанию, из коробки.
🔥18❤2👍1