Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.45K photos
3.72K videos
41 files
4.76K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за аниматоров.
Горячие шведские парни из Моторики не торопясь перезимовали, вышли из спячки, засетапили дискорд и открыли набор в бету своего софта для создания ИИ-анимаций.
Раздел About Us выглядит немного устрашающе.
Раздел записи в бету (https://www.motorica.ai/mogen) - еще более устрашающе.
В Дискорде аж 25 участников.
Но может там секретный ИИ, который пожрал все мокапы мира и теперь выдает движения на любой вкус.
Если кто-то уже зарегался, пишите, что и как.
https://www.motorica.ai/
Media is too big
VIEW IN TELEGRAM
Что-то новенькое
Расширение под Chrome для управления Stable Diffusion через midi контроллер

реддит
👍1🔥1
Это не те нейросети к которым мы привыкли
Forwarded from QWERTY
Нейронные сети из нанопроволоки «обладают» краткосрочной и долгосрочной памятью

Сети из нанопроволоки — это тип нанотехнологий, обычно изготавливаемых из крошечных серебряных проводов с высокой проводимостью. Невидимые невооруженным глазом частицы, покрытые пластиковым материалом, разбросаны беспорядочно, чтобы сформировать сетку. Такие провода благодаря своим свойствам имитируют физические свойства мозга: сеть нейронов, связанных при помощи синапсов.

Ученые из Австралии обнаружили способность сети из нанопроволоки выполнять сложные когнитивные задачи, характерные для нервной системы. Анализ показал, что сети, имитирующие физическую структуру мозга, могут обучаться и запоминать данные.

Для тестирования своей сети ученые использовали тест для оценки памяти в нейрофизиологии и психологии. Испытуемую показывают серию изображений или называют предметы, а он должен указать, когда тот или иной предмет встречался n-шагов назад. Большинство людей могут распознать то же изображение, которое появилось семь шагов назад.

Сеть из нанопроволоки смогла запоминать желаемую конечную точку в электрической цепи на семь шагов назад. Под внешним воздействием наносеть «обучалась» и ее память «укреплялась»: сеть запоминала пути, предложенные ученым и со временем сформировавшаяся связь не уменьшалась. Это напоминает работу синаптической сети, отмечают ученые, одни связи усиливаются, другие — ослабевают и в результате в процессе обучения формируются устойчивые связи.
🔥2
Forwarded from Dreams and Robots
Итак, свершилось. Я только что выложил мой набор инструментов для работы со Stable Diffusion из Гудини в открытый доступ. Для всех, даром, и пусть никто не уйдёт обиженным. Все, что нужно знать, в видео.

Нагенерируйте мне красоты!

https://www.youtube.com/watch?v=Un_b8cvzxcw
🔥2🤯21
This media is not supported in your browser
VIEW IN TELEGRAM
Opera представила предварительную версию браузера One.

Самые главные новшества — это интегрированный #ChatGPT и автоматическая группировка вкладок по темам. Конечно, дизайн полностью новый со множеством анимаций.

Сейчас доступна бета для разработчиков, а в этом году обещают выкатить полную версию для всех.
This media is not supported in your browser
VIEW IN TELEGRAM
Еще одна интеграция.
#ChatGPT теперь интегрирован в Minecraft.

Нейросеть внедряется в любое животное или существо и становится вашим кубическим другом-ассистентом.

Говорят, можно уговорить крипера не разрушать ваши строения
Track-Anything
Наконец подъехал крутой инструмент для сегментации видео на основе того же SAM.
Умеет выделять объекты, отслеживать их, а также может делать инпейнтинг.

Код
Демо

#segmentation #video2mask #inpainting
👍2
Forwarded from Сиолошная
Наш любимый HuggingFace 🤗 запускает свой ответ ChatGPT: HuggingChat 💬

В основе лежит затюненнаяя OpenAssistant фейсбучная LLAMA на 30B параметров, про которую я писал раньше. Она, кстати, уже доступна 3 дня как - прям самая большая и мощная, ага!

Доступно тут в привычном интерфейсе https://huggingface.co/chat/

На скриншоте - пример ответа модели на запрос создать игру "Змейка".

UPD: веб-приложение легло под натиском запросов, подождём (ну или можно запускать локально, хе-хе)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31
Йо, кто хотел заработать на ии-картинках?
🔥1
Forwarded from PHYGITAL+ART (Oleg Yusupov CEO PHYGITAL+)
AI Creator: работа / вакансия

Мы ищем AI художника - пользователя Phygital+, который любит создавать обучающие материалы и хочет стать (или уже является) известным контент-мейкером

Описание требований

Кому интересно - пишите сюда или авторам канала либо на почту team@phygitalism.com
Stability AI запускает API для увеличения изображений

Компания Stability AI объявила о выпуске своего революционного API для увеличения изображений, который позволяет пользователям увеличивать размер любого изображения без ущерба для его резкости и детализации. Этот инновационный инструмент на базе ИИ станет ценным дополнением к набору API для создания и редактирования изображений.

API увеличения изображения использует две современные модели с открытым исходным кодом, Real-ESRGAN и Stable Diffusion 4x Upscaler. Теперь пользователи могут легко увеличивать изображения, независимо от того, созданы они с использованием Stability AI или нет, получая исключительные результаты.

Документация

#upscale #superresolution
1
Forwarded from neuroae (Michael Ivanov)
This media is not supported in your browser
VIEW IN TELEGRAM
Короткое промо и демонстрация основных функций первого доступного скрипта для работы со Stable Diffusion под After Effects.

Основные функции
- txt2img с использованием controlnet (покадрово и анимация)
- interrogate
- Препроцессинг изображений (получаем canny и depth прям из Афтера!)
- скрипты для копирования промптов из файлов

Сам скрипт в описании канала.
👍2
Stable Diffusion прикрутили к Maya

AOV'ы из Арнольда отправляются прямиком в Controlnet
Forwarded from Stable Diffusion | Text2img
Предрелизнулась новая модель text2image - DeepFloyd (IF) от одного из подразделений наших любимых StabilityAI. Это бесплатная модель с открытым исходным кодом по новому подходит к генерациям. Сначала создаётся база будущей картинки - размером 64x64 пикселей. Затем, при помощи двух разных СуперСкалеров, картинка увеличивается сначала до 256х256, а после - до 1024х1024. Естественно, на каждом из этапов модель дополнительно регулируется слоями UNet, что бы базовая картинка и промт не "потерялись". Разработчики заявляют об отличной фотореалистичности и детализированности "из коробки", плюс беспрецедентное следование вашему текстовому запросу - 6.66 FID-очков по датасету COCO, если вам это о чём-нибудь говорит. (мне это мало что говорит, но разработчики счастливы от такой цифры, говорят что лучше всех аналогов на текущий момент 🥸). Так же эта модель отлично генерирует текст и, опять же по заявлениям разработчиков, благодаря обновлённому подходу в генерациях избавлена от "детских болячек" прошлых нейросетей - очень плохих рук и сливания деталей в общую кучу. В общем, нужно проверять на практике, но предрелизные картинки, которые выкладывали авторы с начала текущего года - действительно неплохи.
По системным требованиям. К сожалению новая технология требует "новых" ресурсов. Пока (я подчеркнул, да), системные требования видны на картинке 3. Да, 24 гигабайта для картинки 1024х1024. С небольшими вывертами это всё входит в 16 гигабайт бесплатного коллаба, блог об этом. Надеемся на сообщество и разработчиков - что бы завезли побольше оптимизаций, для домашнего использования моделей.
Код модели здесь.
Модели (веса) будут тут (они уже выложены, но пока скрыты от обычных пользователей).
Демка, что бы всё попробовать будет здесь.
🔥3👍2
Forwarded from Техно Фил
This media is not supported in your browser
VIEW IN TELEGRAM
Это Фредди Меркьюри поёт песню Imagine Dragons.

Вот нейронка. А вот подробная инструкция на YouTube, как сделать так же.
2
This media is not supported in your browser
VIEW IN TELEGRAM
Революция в сегментации продолжается.
На этот раз в ход пошла карта глубины
SAD: Segment Any RGBD

Уже есть пара спейсов потыркать на HF:

Демо1
Демо2

Код

#segmentation
👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Gen-1 теперь поддерживает генерацию 15 секундных видео

🥳 Пока Gen-2 в бета тесте, на сайте runwayML теперь доступна генерация 15 секундных видео по референс видео. Напомню, что раньше в Gen-1 можно было генерировать только 5 секунд генераций.

Пойду скормлю пару генерации из блендера
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1