Forwarded from Dev Meme / devmeme
Meme text:
I am a full stack engineer which means if you give me one more task my stack will overflow
I am a full stack engineer which means if you give me one more task my stack will overflow
This media is not supported in your browser
VIEW IN TELEGRAM
Штош, куда же без тиктоков.
face2comics vs Bella Poarch.
face2comics vs Bella Poarch.
This media is not supported in your browser
VIEW IN TELEGRAM
И с видосами в полный рост справляется тоже неплохо.
Forwarded from нёрд хаб
This media is not supported in your browser
VIEW IN TELEGRAM
#AR
Отличное применение распознавания объектов, в детстве такого не хватало https://brickit.app/. Пока только на айфоне
Отличное применение распознавания объектов, в детстве такого не хватало https://brickit.app/. Пока только на айфоне
Forwarded from CGIT_Vines (CGIT_Vines)
На столько точно, что даже жалею о не взятых инвестициях под это.
Forwarded from Заработайте со мной 💰 [SCAM] (Nikita Kolmogorov)
Please open Telegram to view this post
VIEW IN TELEGRAM
Новая нейронка, которая генерит рисунки по текстовом описанию. В отличие от миллионов других подобных моделей, работает с векторными штрихами, а не пикселями.
Колаб на английском - https://colab.research.google.com/github/kvfrans/clipdraw/blob/main/clipdraw.ipynb
Бумага - https://arxiv.org/abs/2106.14843
Колаб на английском - https://colab.research.google.com/github/kvfrans/clipdraw/blob/main/clipdraw.ipynb
Бумага - https://arxiv.org/abs/2106.14843
Forwarded from Технологии | Нейросети | NanoBanana
This media is not supported in your browser
VIEW IN TELEGRAM
⚡⚡⚡
Meet GitHub Copilot - your AI pair programmer.
GitHub Copilot работает на Codex, новой системе искусственного интеллекта, созданной OpenAI.
Twitter
copilot.github.com
Meet GitHub Copilot - your AI pair programmer.
GitHub Copilot работает на Codex, новой системе искусственного интеллекта, созданной OpenAI.
copilot.github.com
Пилю андроид аппку для создания стикеров из фото.
Результат эксперимента на знакомой модели такой: https://news.1rj.ru/str/addstickers/Diexa
Работает так:
1) Загружаем фото из галереи
2) Конвертим в комикс
3) Загружаем в телегу
Телега иногда козлит и не загружает одни и те же стикеры, но в другом порядке. Может позже починят.
Результат эксперимента на знакомой модели такой: https://news.1rj.ru/str/addstickers/Diexa
Работает так:
1) Загружаем фото из галереи
2) Конвертим в комикс
3) Загружаем в телегу
Телега иногда козлит и не загружает одни и те же стикеры, но в другом порядке. Может позже починят.
Forwarded from эйай ньюз
DeepMind опубликовал статью, где они представляют новую архитектуру - Perceiver.
Главная идея и мотивация — учиться на данных любой модальности (картинки, аудио, видео, точки, и т.д.) без использования каких-либо предположений о структуре этих данных знаний, таких как, например, локально гладкая 2D-структура картинок, которая повсеместно эксплойтится конволюционными нейронными сетями.
Предлагаемая модель Perceiver — это хитрый трансформер, который имеет несколько преимуществ перед существующими архитектурами:
➞ 1) Он может работать со входными последовательностями огромной длины (> 100k входов). Это достигается за счет использования Cross Atention блока, который принимает входные данные как ключи (K) и как значения (V), а вместо запросов (Q) использует гораздо меньшее число (512, если быть точным) скрытых векторов. Интуитивно это можно представить как этакий ботлнек на основе self-attention. На вход N векторов (где N может быть очень большим), а на выходе получаем ровно 512 (что является гиперпараметром).
➞ 2) Из-за описанного выше Cross Atention блока, который выступает в роли ботлнека, мы можем сделать Perceiver очень глубоким. Все потому что каждый последующий self-attention блок будет работать со входами длины 512, а не N. Поэтому даже квадратичная по сложности от длины входа наивная реализация self-attention'а будет быстро работать и не будет выжирать всю память.
➞ 3) Архитектура не опирается ни на какие структурные предположения о данных. Она настолько универсальная, что может применяться к различным модальностям почти без изменений (если не считать positional encoding). Можно запускать на картинках - Perciever бьет базовый ViT-B, хотя вообще не содержит ни одной конволюции и на вход берет тупо 50 тыщ пикселей (для картинки 224x224). Также Perciever отлично работает на аудио, видео, на комбинации аудио+видео, и на облаках 3D точек.
Сама статья довольно хорошо написана, можете в ней почитать подробности.
Главная идея и мотивация — учиться на данных любой модальности (картинки, аудио, видео, точки, и т.д.) без использования каких-либо предположений о структуре этих данных знаний, таких как, например, локально гладкая 2D-структура картинок, которая повсеместно эксплойтится конволюционными нейронными сетями.
Предлагаемая модель Perceiver — это хитрый трансформер, который имеет несколько преимуществ перед существующими архитектурами:
➞ 1) Он может работать со входными последовательностями огромной длины (> 100k входов). Это достигается за счет использования Cross Atention блока, который принимает входные данные как ключи (K) и как значения (V), а вместо запросов (Q) использует гораздо меньшее число (512, если быть точным) скрытых векторов. Интуитивно это можно представить как этакий ботлнек на основе self-attention. На вход N векторов (где N может быть очень большим), а на выходе получаем ровно 512 (что является гиперпараметром).
➞ 2) Из-за описанного выше Cross Atention блока, который выступает в роли ботлнека, мы можем сделать Perceiver очень глубоким. Все потому что каждый последующий self-attention блок будет работать со входами длины 512, а не N. Поэтому даже квадратичная по сложности от длины входа наивная реализация self-attention'а будет быстро работать и не будет выжирать всю память.
➞ 3) Архитектура не опирается ни на какие структурные предположения о данных. Она настолько универсальная, что может применяться к различным модальностям почти без изменений (если не считать positional encoding). Можно запускать на картинках - Perciever бьет базовый ViT-B, хотя вообще не содержит ни одной конволюции и на вход берет тупо 50 тыщ пикселей (для картинки 224x224). Также Perciever отлично работает на аудио, видео, на комбинации аудио+видео, и на облаках 3D точек.
Сама статья довольно хорошо написана, можете в ней почитать подробности.
Forwarded from Denis Sexy IT 🤖
Лол, тут оказалось что старейшая гидроэлектростанция в США построенная в 1897 году майнит биткоины используя энергию которую генерирует, потому что это выгоднее чем просто продавать электричество напрямую:
https://www.tomshardware.com/news/restored-hydroelectric-plant-will-mine-bitcoin
Мне нравится как сложность оборудования для майнинга постепенно вышла на уровень владения электростанций, скажи это кому-то 10 лет назад, покрутили бы пальцем у виска. На фото эта гидроэлектростанция.
https://www.tomshardware.com/news/restored-hydroelectric-plant-will-mine-bitcoin
Мне нравится как сложность оборудования для майнинга постепенно вышла на уровень владения электростанций, скажи это кому-то 10 лет назад, покрутили бы пальцем у виска. На фото эта гидроэлектростанция.
Forwarded from эйай ньюз
Блог Lilian Weng (ресерчер из OpenAI) - один из моих любимых технических блогов. У нее очень емкие статьи-обзоры по различными темам в области AI.
Недавно у Лилиан вышла очередной блогпост о Диффузионных моделях (Diffusion Models). Если коротко, то диффузионные модели - это новый тип генеративных моделей, которые достаточно гибки, чтобы выучить любое произвольно сложное распределение данных, и в то же время поддаются аналитической оценке выученного распределения. Недавно было показано, что диффузионные модели могут генерировать высококачественные изображения и по своим характеристикам не уступают SOTA GAN. Существенный минус этих моделей на данный момент — это то, что они довольно медленные.
Я уже писал об этих моделях в мае, но чтобы более досконально разобраться в них, советую почитать блогпост от Лилиан.
Недавно у Лилиан вышла очередной блогпост о Диффузионных моделях (Diffusion Models). Если коротко, то диффузионные модели - это новый тип генеративных моделей, которые достаточно гибки, чтобы выучить любое произвольно сложное распределение данных, и в то же время поддаются аналитической оценке выученного распределения. Недавно было показано, что диффузионные модели могут генерировать высококачественные изображения и по своим характеристикам не уступают SOTA GAN. Существенный минус этих моделей на данный момент — это то, что они довольно медленные.
Я уже писал об этих моделях в мае, но чтобы более досконально разобраться в них, советую почитать блогпост от Лилиан.