Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
Веселье в самом разгаре: Screenshot-2-code
Посылаете ссыль или скриншот сайта/приложения, который нужно скопировать и тебе для него генерится HTML/Tailwind CSS.
GPT-4 Vision понимает содержимое и генерит код, а DALLE 3 ваяет схожие изображения. Последний можно отключить, если планируется использовать SDXL или что ещё.
Править код можно самому там же в редакторе и превью результатов наблюдать в реальном времени. Также можно дать AI инструкцию по генерации, чтобы он сразу менял код под твой проект.
Для работы нужен API ключ OpenAI. Можете зарегать там аккаунт и вам дадут $5 кредитов на халяву. Потестите на сколько этого хватит. А там глядишь кто и выпустит халявную версию на ламе или чём ещё.
Я год назад говорил, что такое будет через пару лет. Однако мы уже здесь. Как говорится "Ни у кого нет преимущества".
Демо
Гитхаб
Посылаете ссыль или скриншот сайта/приложения, который нужно скопировать и тебе для него генерится HTML/Tailwind CSS.
GPT-4 Vision понимает содержимое и генерит код, а DALLE 3 ваяет схожие изображения. Последний можно отключить, если планируется использовать SDXL или что ещё.
Править код можно самому там же в редакторе и превью результатов наблюдать в реальном времени. Также можно дать AI инструкцию по генерации, чтобы он сразу менял код под твой проект.
Для работы нужен API ключ OpenAI. Можете зарегать там аккаунт и вам дадут $5 кредитов на халяву. Потестите на сколько этого хватит. А там глядишь кто и выпустит халявную версию на ламе или чём ещё.
Я год назад говорил, что такое будет через пару лет. Однако мы уже здесь. Как говорится "Ни у кого нет преимущества".
Демо
Гитхаб
👍4
Forwarded from тоже моушн
This media is not supported in your browser
VIEW IN TELEGRAM
обработка в стейбле потихоньку подбирается к реалтайму. а виной всему LCM, который лихо ускоряет генерацию без потери качества
Олег Чомп записал мега полезный гайд о том как используя ComfyUI и Touchdesigner обрабатывать любой видео сигнал на лету
я и сам сейчас в работе активно использую патч Олега для комфи, так что рекомендую!
оригинальный пост
гайд на ютуб
lora LCM
патч для Тача
@тоже_моушн
Олег Чомп записал мега полезный гайд о том как используя ComfyUI и Touchdesigner обрабатывать любой видео сигнал на лету
я и сам сейчас в работе активно использую патч Олега для комфи, так что рекомендую!
оригинальный пост
гайд на ютуб
lora LCM
патч для Тача
@тоже_моушн
Forwarded from AI для Всех (Artemii)
This media is not supported in your browser
VIEW IN TELEGRAM
Рисуем вместе с нейронкой в реальном времени
Бывает, нужно быстро сделать зарисовку идеи или просто хочется порисовать. К несчастью, в художественом плане у меня руки-крюки и вместо красивостей, обычно получается абстрактный экспрессионизм. Сегодня я обнаружил рабочий workflow, благодаря которому скетч не стыдно будет показать кому угодно.
Есть такая опенсорсная рисовалка - tldraw, к ней есть плагин Draw-Fast. Этот плагин позволяет использовать все возможности tldraw для того, что бы в реальном времени управлять процессом генерации картинки, на обычном ноутбуке!
Процесс такой: клонируем репозиторий Draw-Fast и устанавливаем tldraw с этим плагином.
Затем в текстовом поле пишем какую каринку мы хотим получить (можно редактировать на ходу) и рисуем. Этот процесс создаёт уникальное ощущение совместного творчества, отличное от индивидуальной работы или использования Dall-E.
Еще более пошаговая инструкция для Mac/Linux:
Для запуска без установки - смотри сюда
Бывает, нужно быстро сделать зарисовку идеи или просто хочется порисовать. К несчастью, в художественом плане у меня руки-крюки и вместо красивостей, обычно получается абстрактный экспрессионизм. Сегодня я обнаружил рабочий workflow, благодаря которому скетч не стыдно будет показать кому угодно.
Есть такая опенсорсная рисовалка - tldraw, к ней есть плагин Draw-Fast. Этот плагин позволяет использовать все возможности tldraw для того, что бы в реальном времени управлять процессом генерации картинки, на обычном ноутбуке!
Процесс такой: клонируем репозиторий Draw-Fast и устанавливаем tldraw с этим плагином.
Затем в текстовом поле пишем какую каринку мы хотим получить (можно редактировать на ходу) и рисуем. Этот процесс создаёт уникальное ощущение совместного творчества, отличное от индивидуальной работы или использования Dall-E.
Еще более пошаговая инструкция для Mac/Linux:
# 1. Открываем терминал (Terminal)
# 2. Клонируем репозиторий:
git clone https://github.com/tldraw/draw-fast
# 3. Заходим в папку с приложением
cd draw-fast
# 4. Устанавливаем и запускаем приложение
npm install
npm run dev
# Если нет npm устанавливаем его
brew install npm
# 5. Переходим по ссылке из терминала
http://localhost:3000
# 6. Играемся
Для запуска без установки - смотри сюда
👍7
Forwarded from Зашкваркетинг
На полках уже начали появляться товары с нейросетевым артом
Если раньше китайцы просто неправильный текст на английском писали, то теперь просто не будут проверять за нейронкой
Если раньше китайцы просто неправильный текст на английском писали, то теперь просто не будут проверять за нейронкой
🤣28👍2🥰2
Forwarded from эйай ньюз
Мои друзья из Stability AI зарелизили новый метод дистилляции для SDXL.
Показывают, что из дистиллированной SD-XL (ADD-XL) теперь можно семплить за 4 шага без существенной потери в качестве.
Судя по метрикам - это новая сота. Может работать и за один шаг семплера, но тогда генерирует меньше деталей и картинка выходит чуть более замыленная.
Это гибрид GAN-а и диффузии.
Тренировка основана на классическом методе дистилляции, но с дискриминатором! Когда число шагов снижается до одного, дискриминатор сильно добрасывает, ведь он не позволяет генерить полную кашу (это было уже показано в нескольких статьях в этом году).
1. Студент и учитель инициализируется весами SD-XL. Далее между предиктами студента и учителя накладывается L2 лосс. Любопытно, что учитель делает только 1 шаг, но начинает с зашумленного предикта студента, а не из случайного шума.
2. В качестве дискриминатора берутся фичи из ViT-S, натренированного в self-supervised режиме с помощью DINOv2. Затем эти фичи подают в тренируемую голову, которая выдает "Real" или "Fake". Тут важно именно брать сильный претренированный энкодер фичей, типа DINOv2.
Картиночки выглядят хорошо, но ниже 4х шагов - уже не то пальто.
Тренировочный код не выложили, и, кажется, его ждать не стоит.
Статья
Код и веса
Демо на ClipDrop (1 шаг)
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Нейронавт | Нейросети в творчестве
This media is not supported in your browser
VIEW IN TELEGRAM
А вот пример от сотрудника Satbility AI как локально запустить SDXL Turbo на ComfyUI
инструкция
#text2image #realtime
инструкция
#text2image #realtime
Forwarded from Psy Eyes (Andrey Bezryadin)
Ускоряем разработку с помощью Make Real от tldraw.
Следом за релизом GPT-4V появился проект Make Real на основе доски для скетчей tldraw. Он работает как через сайт makereal.tldraw.com, так и локально. Можно даже гонять в коопе с коллегами через Yjs в P2P режиме.
Суть: делаешь набросок прототипа с текстовым описанием --> выделяешь мышкой и жмёшь в углу Make Real --> GPT-4V сгенерит в новом фрейме прототип, который по двойному нажатию становится интерактивным. В углу этого фрейма есть кнопка для копирования кода и ссылки, чтобы потестить в новом окне или поделиться с кем. Нужно внести правки? Прерисовываешь/пишешь что нужно изменить + выделяешь ранее сгенерённый фрейм = по нажатию Make Real получишь новую версию с правками. По факту можно быстро собрать MVP и легко делиться им.
Например, вот вам кликабельный iPod, а здесь доска на которой он рисовался (можно форкнуть).
Есть вариант ещё проще: на Excalidraw описать текстом, что ты хочешь получить и тебе сгенерится схема, которую можно заскриншотить --> вбросить в tldraw --> получить рабочий прототип.
Полученный код можно дропнуть ChatGPT или скажем нейронке натренированной на коде, чтобы она переписала его нужным образом если что. Однако для упрощения кто-то уже запилил плагин для VS Code: рисуешь прототип и тебе генерится код в нужном языке.
Так как код Tldraw открыт сообщество уже прицепило модель LCM для генерации в реальном времени, и это открыло интересные возможности. Эта версия называется Drawfast и доступна на drawfast.tldraw.com, а также на гитхабе. Для дополнительного ускорения генерации используется API от Fal.ai. Теперь с релизом SDXL Turbo быть может генерации будут ещё шустрее.
Можно собрать и простенькие игры, datavis приколюхи, своё пианино, генератор иконок, и не только.
Сейчас нужен ключ OpenAI для доступа к GPT-4V. Но так как проект опенсорсный, и открытых альтернатив становится всё больше, возможно скоро и без ключа запашет.
Я сам уже который день из Make Real не вылезаю и дико кайфую.
Больше примеров и деталей в посте на DTF
Следом за релизом GPT-4V появился проект Make Real на основе доски для скетчей tldraw. Он работает как через сайт makereal.tldraw.com, так и локально. Можно даже гонять в коопе с коллегами через Yjs в P2P режиме.
Суть: делаешь набросок прототипа с текстовым описанием --> выделяешь мышкой и жмёшь в углу Make Real --> GPT-4V сгенерит в новом фрейме прототип, который по двойному нажатию становится интерактивным. В углу этого фрейма есть кнопка для копирования кода и ссылки, чтобы потестить в новом окне или поделиться с кем. Нужно внести правки? Прерисовываешь/пишешь что нужно изменить + выделяешь ранее сгенерённый фрейм = по нажатию Make Real получишь новую версию с правками. По факту можно быстро собрать MVP и легко делиться им.
Например, вот вам кликабельный iPod, а здесь доска на которой он рисовался (можно форкнуть).
Есть вариант ещё проще: на Excalidraw описать текстом, что ты хочешь получить и тебе сгенерится схема, которую можно заскриншотить --> вбросить в tldraw --> получить рабочий прототип.
Полученный код можно дропнуть ChatGPT или скажем нейронке натренированной на коде, чтобы она переписала его нужным образом если что. Однако для упрощения кто-то уже запилил плагин для VS Code: рисуешь прототип и тебе генерится код в нужном языке.
Так как код Tldraw открыт сообщество уже прицепило модель LCM для генерации в реальном времени, и это открыло интересные возможности. Эта версия называется Drawfast и доступна на drawfast.tldraw.com, а также на гитхабе. Для дополнительного ускорения генерации используется API от Fal.ai. Теперь с релизом SDXL Turbo быть может генерации будут ещё шустрее.
Можно собрать и простенькие игры, datavis приколюхи, своё пианино, генератор иконок, и не только.
Сейчас нужен ключ OpenAI для доступа к GPT-4V. Но так как проект опенсорсный, и открытых альтернатив становится всё больше, возможно скоро и без ключа запашет.
Я сам уже который день из Make Real не вылезаю и дико кайфую.
Больше примеров и деталей в посте на DTF