Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.47K photos
3.73K videos
41 files
4.77K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
Пара новостей про LLM

localllm - решение от Google для запуска квантованных языковых моделей "локально" на процессоре и в Workstations — среде разработки Google Cloud. Полезно например если вне хватает GPU для обучения языковых моделей.

Chat with RTX - приложение от NVIDIA для создания персонализированнх чатботов локально на своем железе. Работает на RTX 3000 или 4000 серии, минимум 8 GB VRAM, 16GB RAM, Windows 11

#news #tools #LLM
👍7
Вакансия от моей родной студии.
Лучшая студия VFX в Питере, рекомендую.
Нейронавт

🚀 GreenFX приветствует таланты в мире компьютерной графики! 🚀

Мы – передовая студия визуальных эффектов в сердце Санкт-Петербурга, рядом с м. Пушкинская, и сейчас в поиске нового звездного игрока в нашу команду!

Ищем: Энтузиаста генеративных нейросетей и мастера дипфейка. Если ты владеешь GAN, VAE, autoencoder, умеешь творить чудеса в DeepFaceLab и свободно жонглируешь Python или C++, тебе к нам!

Твоя миссия:
Воплощать в жизнь невероятно реалистичные синтетические изображения.
Улучшать наши процессы, внедряя последние инновации в генеративных нейросетях и дипфейке.
Поддерживать нашу команду свежими идеями и решениями, оставаясь на переднем крае технологического прогресса.

Мы предлагаем:
Полную занятость с гибким графиком в комфортабельном офисе, где каждый день – это возможность для творчества и инноваций.
Дружелюбный коллектив, где царит атмосфера взаимопомощи и совместного роста.
Инвестиции в твое профессиональное развитие и карьерный рост.
Конкурентоспособную заработную плату, соответствующую твоим навыкам и опыту.

Присоединяйся к GreenFX! Отправляй резюме, портфолио и примеры работ с генеративными нейросетями и дипфейком на job@greenfx.ru. В теме письма не забудь указать "Вакансия специалист по нейросетям". Давай создавать будущее визуальных эффектов вместе!

Стань частью команды, где твой талант будет цениться и где ты сможешь оставить свой след в индустрии компьютерной графики!

#вакансия
👍411
#оффтоп

Продажники озверели с новыми технологиями.
Звонят одновременно с двух разных номеров с одним и тем же предложением. Сбрасываешь один звонок - на другом тот же самый голос, та же самая "Юлия". По 3-4 раза в день долбят.
Forwarded from Сиолошная
Наконец-то выпустили — вот официальный анонс от OpenAI.

В нём в целом ничего интересного, всё так же, как в сливах:
— по ходу ваших чатов ChatGPT запоминает события и факты; вы можете сами дать команду «запомнить X»;
— знания переносятся между чатами;
— есть отдельный тип анонимного чата: он не появляется в истории, и данные из него не попадают в память. Режим можно включить навсегда (то есть не использовать долговременную память);
— все частички памяти можно посмотреть и вручную удалить в настройках (см. картинку).

А главное и необычное: память будет доступна в GPTs, то есть теперь создатели отдельных ботов смогут переносить информацию о вас между чатами. Как пример — BooksGPT, где модель сначала даёт рекомендацию, а после прочтения спрашивает мнение, запоминает фидбек и учитывает перед следующим предложением.

Фича выкатывается медленно, на малую группу пользователей (в том числе и бесплатных — 3.5 тоже поумнеет!). Проверьте настойки, вдруг выбрали именно вас!

Plot twist: ChatGPT теперь помнит, сколько чаевых ему пообещали. Ты на счётчике, дружок 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31
🥰🥰🥰
Всех влюбленных с праздником!
Картинка от нашего подписчика.

Ну, признавайтесь, чем вы там своих пассий поздравляете, и чем они вас? накидывайте ваниль в комменты🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
6
Команда GigaChat отчиталась о том, что их детище успешно сдало экзамен на врача

GigaChat прошел экзамен, необходимый для получения квалификации «врач-лечебник». Экзамен у AI принимала комиссия профессоров Института медицинского образования НМИЦ им. В.А. Алмазова.

Предвижу волну хейта. Если тут есть кто-то из команды GigaChat, добро пожаловать в коменты, отстаивать свои достижения.

#news #LLM #chatbot #assistant
🤡8👍3💩2🌚1
Boximator: Generating Rich and Controllable Motions for Video Synthesis

Ой что делается. Неужели контроль движения на анимации по кратинке! От Bytedance/Tiktok. Можно анимировать столько объектов сколько хочешь.

Кода нет, Демо обещают через 2-3 месяца.

Но. Можно запросить генерацию по почте wangjiawei.424@bytedance.com
по прилагаемой инструкции

#image2video
5🔥2😱2
World Model on Million-Length Video And Language With RingAttention

Вот вы говорите Gemini, GPT-4. А могут они так?

LWM способнен обрабатывать и понимать длинные текстовые документы и видео длиной более 1 млн лексем.

Выложены 7B модели.

Гитхаб


#llm #vlm #chatbot
🤯7👍5🔥1
Sora

Забудьте все чтобы видели до сих пор по части генерации видео.
OpenAI показали как надо. Еще видны косяки, но это на голову выше всего что было до сих пор

Sora понимает не только текстовый промт, но и то как вещи ведут себя физическом мире.

Sora сейчас в закрытом доступе для ограниченного круга тестеров, художников и журналистов.

Можете попробовать написать Сэму Альтману в твиттер, он генерит видео по запросам

#text2video
14🔥11👀5👎1
Сэм Альтман
мы хотели бы показать вам, на что способен Сора, пожалуйста, присылайте описания видео, которые вы хотели бы увидеть, и мы начнем их делать!

DogeDesigner
"Парень, превращающий некоммерческую компанию с открытым исходным кодом в прибыльную компанию с закрытым исходным кодом"

твиттер

#humor
😁40🌚4👍1
Media is too big
VIEW IN TELEGRAM
HuggingFace выкатили ноутбуки в gradio

Не колабом единым

- Используйте любую комбинацию текстовых, графических или звуковых моделей в одном пространстве и даже объединяйте модели в цепочку.

- Экспериментируйте с моделями, используя встроенный пользовательский интерфейс ноутбука, который представляет собой знакомый, интуитивно понятный интерфейс для мультимодального взаимодействия.

- Делитесь результатами работы с пространством с друзьями по URL-адресу, которым можно поделиться.

- Загрузите конфигурацию space (подсказки и настройки модели) в виде файла aiconfig JSON и используйте его в своем приложении через AIConfig SDK.

#tools #news
👍7
Stable Cascade

Stability AI выпустили новую модель генерации изображений на основе архитектуры Würstchen
Быстрее и лучше SDXL.
Поддержка Лора, контролнет

Успели уже потестить пока я был в анабиозе? Хвастайтесь в чате

Гитхаб
Колаб
Однокликовый инсталлятор
Расширение для A1111/Forge
Веса

#text2image
👍5🤷‍♂2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Теперь немного диванных мыслей. И ссылка на новую статью, которая вышла в процессе написания поста.

Если у кого-то есть надежда типа "а мы вот умеем из картинок видео делать, а не только из текста", то нет. Надежды. GPT-V пережует любую картинку на входе, превратит ее промпт, удобрит с помощью GPT-4, сам найдет динамику и предложит вам десяток вариантов операторской работы с этой картинкой (вышла статья - подтвердили эту фичу).

Интересно будет посмотреть на варианты контроля движения кроме текстовых промптов. Судя по Далле3 OpenAI не сильно упираются в продуктовые фичи и всякие контролнеты, так что моушен брашей можно и не дождаться.

Цензура наверняка будет лютой. На видео примерах - никаких людей. Так что у части стартапов затеплилась надежда. Говорящие головы будут жить какое-то время. А дух дипфейка будет жутко пугать OpenAI.

Судя по примерам, в обучении использовалось много синтетики. Типа видео из игровых движков. Поглядите на пролеты камеры, особенно в городских локациях. Это касается некоторых примеров. На других этого нет.

Одна минута of high definition video - это как вообще?. Там где любые видео-генераторы разрывает в клочья после 8 секунд, тут ОДНА МИНУТА.

А еще уже вышла статья. И там примеры за гранью нравственности.

Оно умеет продолжать видео по времени назад и вперед.

"Как и в DALL-E 3, мы также используем GPT для превращения коротких подсказок пользователя в длинные подробные подписи, которые отправляются в видеомодель. Это позволяет Sora генерировать высококачественные видеоролики, которые точно следуют подсказкам пользователя."

Video-to-video editing

В общем оно умеет все и даже картинки в 2048х2048

Sora is also capable of generating images. We do this by arranging patches of Gaussian noise in a spatial grid with a temporal extent of one frame. The model can generate images of variable sizes—up to 2048x2048 resolution.
https://openai.com/research/video-generation-models-as-world-simulators

Надо поспать, или это все уже сон?
👍61
This media is not supported in your browser
VIEW IN TELEGRAM
А знаете что?

Это ж если ты застрял на труднопроходимой миссии, можно будет сгенерить себе видеогайд по прохождению. А можно будет включить ИИ-ассистента который поможет пройти особо ацкого босса

На видео - сгенерированное Sora видео геймплея в майнкрафт

#оффтоп #sora
🔥3🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
HeadStudio: Text to Animatable Head Avatarswith 3D Gaussian Splatting

Говорящие головы с мимикой на гауссианах.
Прибитые гвоздями глаза при активной мимике выглядят устрашающе.

Код ждем

#text2video #talkinghead #humanavatar #gaussian
😁4