Derp Learning – Telegram
Derp Learning
13K subscribers
3.17K photos
915 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Доброе утро!
Мне часто приходится вырезать людей (с фона), поэтому запилил и для вас колаб с U-2-Net.
Колаб обрабатывает картинки пачками в один клик, сохраняет результат + альфа канал отдельно. Все как мы любим!
Исходник тут
#colab
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видос нашим Jojo, на этот раз более однородный во времени.
Forwarded from Dev Meme / devmeme
Meme text:
I am a full stack engineer which means if you give me one more task my stack will overflow
This media is not supported in your browser
VIEW IN TELEGRAM
Штош, куда же без тиктоков.
face2comics vs Bella Poarch.
This media is not supported in your browser
VIEW IN TELEGRAM
И с видосами в полный рост справляется тоже неплохо.
Forwarded from La Qeque
Forwarded from Dev Meme / devmeme
Forwarded from AI Comics
Natalie Dormer
Forwarded from AI Comics
Lucy Lawless x Xena
Королева воинов и мимики :D
Forwarded from нёрд хаб
This media is not supported in your browser
VIEW IN TELEGRAM
#AR
Отличное применение распознавания объектов, в детстве такого не хватало https://brickit.app/. Пока только на айфоне
Forwarded from CGIT_Vines (CGIT_Vines)
На столько точно, что даже жалею о не взятых инвестициях под это.
Forwarded from Заработайте со мной 💰SCAM (Nikita Kolmogorov)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AI Comics
Ура! Нас 300! Держите набор открыток в честь микроюбилея
Новая нейронка, которая генерит рисунки по текстовом описанию. В отличие от миллионов других подобных моделей, работает с векторными штрихами, а не пикселями.
Колаб на английском - https://colab.research.google.com/github/kvfrans/clipdraw/blob/main/clipdraw.ipynb
Бумага - https://arxiv.org/abs/2106.14843
Forwarded from Технологии | Нейросети | NanoBanana
This media is not supported in your browser
VIEW IN TELEGRAM

Meet GitHub Copilot - your AI pair programmer.

GitHub Copilot работает на Codex, новой системе искусственного интеллекта, созданной OpenAI.
Twitter
copilot.github.com
Пилю андроид аппку для создания стикеров из фото.
Результат эксперимента на знакомой модели такой: https://news.1rj.ru/str/addstickers/Diexa

Работает так:
1) Загружаем фото из галереи
2) Конвертим в комикс
3) Загружаем в телегу

Телега иногда козлит и не загружает одни и те же стикеры, но в другом порядке. Может позже починят.
Forwarded from эйай ньюз
​​DeepMind опубликовал статью, где они представляют новую архитектуру - Perceiver.
Главная идея и мотивация — учиться на данных любой модальности (картинки, аудио, видео, точки, и т.д.) без использования каких-либо предположений о структуре этих данных знаний, таких как, например, локально гладкая 2D-структура картинок, которая повсеместно эксплойтится конволюционными нейронными сетями.

Предлагаемая модель Perceiver — это хитрый трансформер, который имеет несколько преимуществ перед существующими архитектурами:

➞ 1) Он может работать со входными последовательностями огромной длины (> 100k входов). Это достигается за счет использования Cross Atention блока, который принимает входные данные как ключи (K) и как значения (V), а вместо запросов (Q) использует гораздо меньшее число (512, если быть точным) скрытых векторов. Интуитивно это можно представить как этакий ботлнек на основе self-attention. На вход N векторов (где N может быть очень большим), а на выходе получаем ровно 512 (что является гиперпараметром).

➞ 2) Из-за описанного выше Cross Atention блока, который выступает в роли ботлнека, мы можем сделать Perceiver очень глубоким. Все потому что каждый последующий self-attention блок будет работать со входами длины 512, а не N. Поэтому даже квадратичная по сложности от длины входа наивная реализация self-attention'а будет быстро работать и не будет выжирать всю память.

➞ 3) Архитектура не опирается ни на какие структурные предположения о данных. Она настолько универсальная, что может применяться к различным модальностям почти без изменений (если не считать positional encoding). Можно запускать на картинках - Perciever бьет базовый ViT-B, хотя вообще не содержит ни одной конволюции и на вход берет тупо 50 тыщ пикселей (для картинки 224x224). Также Perciever отлично работает на аудио, видео, на комбинации аудио+видео, и на облаках 3D точек.

Сама статья довольно хорошо написана, можете в ней почитать подробности.