Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.45K photos
3.71K videos
41 files
4.76K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
Forwarded from AI для Всех
Нейроморфные чипы NeuRRAM: энергоэффективные нейросети теперь реальность

Когда Лекун говорит о NeuralAI и создании цифровых органоидов, имитирующих биологические органы, это звучит как научная фантастика.

А когда в Nature выходит статья о новых нейроморфных чипах и решение МЛ задач на приборе размером с ноготок (1 кв см), дух захватывает, как в детстве на качелях.

NeuRRAM - это один из самых передовых чипов для нейроморфных вычислений, потому что:
- Использует аналоговую память для хранения и обработки больших данных;
- Поддерживает разнообразные и сложные задачи ИИ с довольно высокой точностью (например, классификация изображений 99% на MNIST; 85,7% на CIFAR-10, распознавание голосовых команд 84.7% на датасете от Google);
- Экономит до 1000 раз больше энергии, чем традиционные компьютеры (сейчас ИИ - серьезная нагрузка на окружающую среду);
- Спроектирован с учетом потребностей на всех уровнях от алгоритмов до устройств;

Секрет энергоэффективности в отсутвии энергозатратного перемещения данных: он хранит веса моделей в плотных, аналоговых и неволатильных устройствах RRAM и выполняет вычисления непосредственно на чипе. Микросхема также поддерживает параллелизм данных, отображая слой в модели нейронной сети на несколько ядер для параллельного вывода.

Прорыв в том, что NeuRRAM может работать на маленьких устройствах: часы, VR-шлемы, наушники и прочие edge девайсы.
В общем, может изменить будущее вычислений и ИИ. И где-то подвинуть NVIDIA🥇🤔🥈

@GingerSpacetail
📖Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Batch Face Swap

Затестил
расширение для автоматика, а точнее скрипт. Он берет все картинки из заданной папки, находит на них лица и заменяет в соответствии с промптом.

Есть у меня чекпойнт натрененный на мое лицо. Чего добру пропадать, зря что ли тренил? Мама, я в телевизоре картине.

Расширение можно установить из автоматика на вкладке available. Или вручную по ссылке выше

#faceswap #image2image #neuronaut_art
😁3👍1
Только сегодня задавал вопрос куда ещё прикрутят chatgpt. И вот ответ. Пока разные группы ресерчеров изобретают отдельные #textto3D и #imageto3D генераторы, в NVIDIA пошли другим путём.

Прикрутили chatgpt в Omniverse. Ну и там возможностей открывается море, не говоря о уже существующих там ИИнструментах. Вот небольшой список расширений, уже доступных, как я понял, в AI ToyBox. И среди них расширение для разработки ИИ-расширений.

Что касается chatgpt, то через него можно отдавать команды человеческим языком, можно искать 3d модели в базе, но тоже обычным человеческим языком. Подробно процесс описан в статье
Самый простой способ запустить альтернативу GPT-4 локально у себя на компьютере без GPU.

❗️Все что вы скачиваете из интернета, вы скачиваете на свой страх и риск.

Загружаем файл koboldcpp.exe с GitHub

Идем сюда и выбираем подходящую нам модель формата ggml:

LLaMA — исходная слитая модель от Meta. Не обучена и практически без цензуры;
Alpaca — самая привлекательная модель, дотренированная на данных с инструкциями версия LLaMA. Рекомендуем GPT4xAlpaca;
Vicuna — та же LLaMA, но тренировали ее на диалогах с ChatGPT. Максимально на него похожа, в том числе цензурой.

Учтите, что у моделей разное количество параметров (7B, 13B и т.д.) — чем их больше, тем лучше, но чат-бот будет отвечать дольше, возрастет и нагрузка на процессор и ОЗУ. Загружаем понравившуюся модель.

Запускаем koboldcpp.exe и в появившимся окне указываем путь к загруженной модели (желательно без кириллицы).

Спустя некоторое время в командной строке появится адрес «http://localhost:5001/» — открываем в браузере и наслаждаемся
This media is not supported in your browser
VIEW IN TELEGRAM
Не по теме канала, но волшебно.
Настоящий 3D дисплей

Дисплей voxon работает во многом подобно 3D-принтеру. Мы берем 3D-данные и разбиваем их на сотни слоев. Затем эти слои проецируются по одному на специально разработанный высокоскоростной экран с возвратно-поступательным движением. Благодаря “постоянству зрения” человеческий глаз объединяет изображения воедино, и в результате получается истинное 3D-изображение, которое можно рассматривать так же, как если бы вы рассматривали реальный объект, под любым углом и без специальных эффектов, головного убора или очков.

https://voxon.co/
🔥8👍2
This media is not supported in your browser
VIEW IN TELEGRAM
vid2vid-zero
Простой, но эффективный метод редактирования видео без дообучения. На основе Stablediffusion

Код
Демо

#video2vido
🤔2
Media is too big
VIEW IN TELEGRAM
Отреставрировано нейросетями

С Днем космонавтики!

https://news.1rj.ru/str/qwerty_live
3
Forwarded from DLStories
Написали уже много кто, но напишу и я. Новость дня — OpenAI запустил Bug Bounty Program. Смысл такой: вы находите баги в сервисах OpenAI, а вам за это платят реальными деньгами.

Когда это выложили, показалось, что теперь можно искать баги в ответах ChatGPT (ой она меня оскорбила/выдала неверную инфу о телескопе/сгенерила код для взлома Пентагона/начала галлюционировать) и получать за каждый по $200+. Но это не так. Деньги дают за поиск уязвимостей в инфраструктуре по типу "DROP TABLE USERS..."
Например:
- безопасность интерфейса ChatGPT и плагинов, работающих на его основе. Проблемы с аутентификацией/регистрацией/платежами, утечка данных и т.п.;
- провека того, что нельзя получить доступ к конфиденциальной информация OpenAI через third-party, т.е, через компании-пертнеры вроде Notion, Confluence и т.п.;
- проверка утечек API-ключей партнеров в открытый доступ в интернет.

А если хочется поджейлбрейкать ChatGPT, то фидбек о нежелательном поведении модели можно посылать сюда. Правда, денег не дадут)

Полные условия Bug Bounty Program читайте тут. Тут же можно отправить свою найденную уязвимость.
Можете попробовать прогнать видео через Segment Anything. Хотелось бы маску получить отдельно от оригинала. Да и настроек в демо с гулькин нос. Но это пока. Скоро любое видео можно будет автоматом распилить на маски

Демо Segment-Anything-Video на huggingface

#video2mask #video2video #segmentation