Метаверсище и ИИще – Telegram
Метаверсище и ИИще
46.8K subscribers
5.93K photos
4.35K videos
45 files
6.82K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
На что я трачу свои кредиты в Stable Diffusion
На ресерч. Все-таки я ни разу не художник, как собака, все понимаю про пиксели, но нарисовать ничего не могу, зато программист в прошлой жизни, поэтому вот это вот "а если в соломорезку засунуть рельсу" до сих пор в крови.
Меня по молодости (очень) часто называли большим лебовским (был реально похож), однажды даже два иностранца пристали в москве на тверской "джефф, что ты делаешь в москве".
Также году так в 2008м на рейсе сингапурцев стюарт шепотом спросил "а почему ричард брэнсон летит эконом-классом".
Но вот С Дэвидом Гилмором еще никто не сравнивал.

Держите нецелевое использование коллаба из поста выше - загружаете свою фотку в него, а нейросеть вам говорит, на кого вы похожи. А потом генерите, для острастки, по подсказке картинку.
Вот что мне наванговало по фото:
a man holding a microphone and a medal around his neck, a hologram by David Gilmour Blythe, featured on cg society, naturalism, shallow depth of field, reimagined by industrial light and magic, depth of field

Ну, за пинк флойд!
👍20
На что я трачу свои кредиты в Stable Diffusion
И про кредиты.
Народ вот жалуется, что кредиты тают.
С меня берут ровно 1 кредит за одну картинку при дефолтных настройках Steps. Логинюсь дискордом, который был у меня в бете SD.
И я точно докуплю, чтобы иметь тысячу. Ибо это удовольствие почище подписки на нетфликс, а вклад проекта в науку и культуру тоже сильно отличается от нетфликс.
Ну и с ИИ надо дружить, истину вам говорю.
👍24
Надо прекращать писать про SD и MJ ибо подписчики начинают приподварчивать, а метаверсик и вовсе скукожился в углу, забытый мной всуе.
Но на дворе происходит такой экшен, что я не могу не говорить об этом.
Обещаю написать лонгрид про то, как ИИ крадет наши души и авторские права, а пока вот такие новости:
Все уже написали, что Stable Diffusion вышла в опен-сорс, что опубликованы веса и пр.
Что это значит для простого народа?
Для непростого народа, это значит, что вы можете развести все это хозяйство для генерации картинок у себя на компьютере или дачном датацентре, важно взять видеокарту с 8гб памяти на борту (пишут про 4-6, но любой новый релиз может задрать эту планку). И ну генерить локально, платя кредиты за электричество.
А для простого народа это значит, что все эти шикарные алгоритмы от Stable Diffusion могут быть встроены в другие генераторы.
Что, например, и случилось - в Midjourney уже встроили кое-что оттуда.
Достаточно в настройках выбрать /settings, а потом MJ Beta - это оно и есть.
Думаю, что в Далле уже тоже колдуют над этим, изучая веса и кишки Stable Diffusion.
Равно как и остальная рыба помельче типа Wombo и других.
И это шикарный подарок от Stability AI всему миру и пример того, как работает open source.
А ребятки из Open AI и Google сейчас нервно закуривают овальные сигареты и думают, переобуваться или нет...

Кстати, вы уже сейчас можете зайти наhttps://huggingface.co/spaces/stabilityai/stable-diffusion
И генерить там изображения без регистрации, смс и дискордов и кредитов.
Вопрос в том, что это будет долго. У меня проскочила одна генерация за 10 секунд, а вторая ушла в ночь и не вернулась. Ибо за датацентр надо платить. Поэтому я покупаю кредиты у SD и с удовольствем поддерживаю проект.
🔥19👍6
Давайте поговорим о наших правах.

И речь пойдет не только о правах цепляющихся за жизнь художников, но буквально про всех.
Вот смотрите, мы все восхищаемся (или ругаем) машинным переводом. А как он был получен?
Взяли корпуса переведенных текстов и ну учить ИИ.
В этих переводах зашит труд переводчиков и корректоров.
Они давали согласие на использование своего труда?
Ну ок, часть (но не все) переводчиков подписали счета-фактуры и передали права на перевод работодателю. А работодатель соглашался на то, что эти тексты, правообладателем которых он является, будут использованы для обучения ИИ?
В общем переводчиков и корректоров поимели первыми. Как мы обсудили с Даней Криворучко.
Потом пришли большие языковые модели и пожрали текстовый интернет.
И вот эти все мамкины блоггеры, типа меня, использующие разные стили написания и донесения мыслей, они давали согласие на использование их интеллектуальной собственности, зашитой в их убогие тексты?
Давайте-те ка еще расширим горизонт мышления.
Вот мы часто жмем галочку "даю согласие на использование моих персональных данных".
Но, камон, в условиях грядущего метаверса мы исторгаем из себя огромный поток данных ежесекундно, посты, коменты, маршруты в такси, лавина данных с телефона, фотки, голосовые сообщения, фитнес трекеры, да, блин, наши морды на камерах наблюдения. Это все архиперсональные данные.
Льются в сеть, с горло ИИ. Который урчит, учится, хрипит "ещё".
Вся эта наша эмоционально-интеллектуальная собственность идет на стол ИИ.
Который потом соберет кредиты на собственное обучение и пойдет дальше учиться за наш счет.
Вы на такое подписывались?

Давайте также поговорим о деривативах.
Вот вы нагенерили шедевральных картинок в Midjourney в дискорде. Там явно есть часть вашей интеллектуальной собственности (зашитой в подсказку). Но эта картинка тоже идет на корм ИИ. Вы на это подписывались? Ну хорошо, вы согласны, но вас об этом кто-то спрашивал?

Как я уже писал, ИИ лихо удаляет вотермарки и с картинок, и с аудиофайлов.

Похоже он лихо удаляет само понятие интеллектуальной собственности. Которое явно нуждается в пересмотре. Это он еще до патентных троллей не добрался.

А сейчас, когда поток ИИ-генератива хлынул на NFT-маркетплейсы, понятие прав и интеллектуальной собственности вообще может размыться до неузнаваемости.

Кого будут судить адвокаты? ИИ? Open Source? За кем будут бегать приставы? За дискорд-пользователями и номерами метамасков?

В общем похоже естественно-интеллектуальная собственность плавно перетекает и сливается с искусственно-интеллектуальной собственностью. А переводчики, корректоры, писатели, художники и десятки других креаторов смотрят, как результат действия их кожаных нейросетей "творчески" переосмысливается ИИ.

Коллективный Интеллект? Нет, не так.

Коллективная интеллектуальная собственность на средства производства.
🔥33👍3👎1
В продолжении дискуссии от правах и обязанностях ИИ нашел интересный проект Dalle2NFT.
Если у вас есть доступ к Далле2, то вы можете в один клик сминтить полученные картинки на ОпенСи(эфир).
Чем отличается от правого клика мышкой и сохранения с последующим ручным минтом?

Тем, что в нфт запекается все метаданные из Далле2, включая промпт, айди изображения, метод генерации, автор и прочая мета.
Картинка минтится один раз и навсегда, со всей метадатой. Любая копия картинки будет подделкой не имеющей этих метаданных.
Чувствуете аромат новых нормальных авторских прав на блокчейне, куда зашиваются сведения из недр ИИ?

Идея настолько на поверхности, что я удивлен, что вижу это впервые.

Может кто-то уже также сделал такое же для других генерилок?

Я видел, конечно, у Wombo кнопку Mint to NFT, но там тупой минт картинки, без всей этой метадаты, являющейся по сути сертификатом о происхождении.

Ну и по идее такая штука должна появится в Миджорни или SD, а вот OpenAI вряд ли пойдет сам на такую территорию.

https://dalle2nft.com/
👍17🔥5
Продолжим разговор про авторство, со-творчество, поиск вдохновения, роялти и степень участия ИИ в создании искусства. И про то, что нейросети творят в талантливых руках.

Смотрите, что пишет Паша Мунтян:
"Это не творчество ИИ, это реальное со-творчество человека и нейронной сети. Объединение мысли, посыла, настроения, чувства и состояния с удобным, простым и открытым к экспериментам инструментом.

Кто скажет, что ЭТО не искусство, пусть первый бросит в меня камень. Это новое искусство, просто время ускоряется и даже творческие процессы не отстают. Новый мир, ты прекрасен!"

И поглядите, что он пишет на холсте с помощью ИИ:
https://news.1rj.ru/str/PavelMuntyanPosts/340
👍18🔥3
Ну и закроем гештальт про авторские права вот такой вот сентенцией.

Смотрите, тут в пылу дискуссий в коментариях возникла мысль, что хорошо бы токенизировать подсказки, чтобы, например, Грег Рутковский, которого так часто поминают в промптах, получал свою микроскопическую (но помноженную на частоту упоминания) роялти. Ибо его интеллектуальная собственность, скормленная ИИ в виде картинок из интернета нуждается в каком-то "обозначении".

Мысль интересная. Очень хорошо бьется с идеей того, что внимание - новая валюта. А частота упоминания в промптах - это новое нормальное признание и успех.

А теперь давайте глянем вот под таким углом. Наши кожаные нейросети учатся схожим образом. Ходим, смотрим на работы других, читаем тексты других, что-то там в башке перерабатываем. Насмотренность. Начитанность. Потом выдаем свои убогие мысли, тесты и картинки. Мы же не собираемся отчислять Грегу Рутковскому за то, что смотрели на его картинки и загружали их в свою нейросеть. Я же не буду вычислять долю Довлатова в моих несмешных шутках, хотя его влияние неоспоримо. Никто же не будет токенизировать свои мысли по поводу "хорошо бы сделать в духе...".

А чем ИИ хуже, ваших кожаных нейросетей? Тем, что он лучше? Быстрее? Разнообразнее генерит лавину контента, на которую у вас ушли бы жизни?

Он хуже тем, что насмотрелся на наше кожаное творчество в ТАКИХ объемах, что его насмотренность (по сравнению с вашей) теперь размером с галактику. И кожаным мешкам обидно и хочется, чтобы он поделился. Что по-человечески вполне понятно. Только вот "по-человечески" уже немного в прошлом.
👍26🔥6
Forwarded from Технологии | Нейросети | NanoBanana
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили с курочкой и Цоем.

- Представьте что вы сидите в плацкарте с Киану Ривзом под песню Цоя.

Сделано на движке unreal engine 5.

• Автор
🔥44👍21
Ну чтож. За порнхаб. Не чокаясь.

Пишете свои влажные фантазии, сетка генерит вам контент. Пока только картинки.

Честно говоря, я не понимаю, почему основной двигатель прогресса так долго расчехляется.

Код и веса уже в сети. Деньги на сервера не вопрос. Аудитория - не вопрос.

Почему энтузиасты уже собирают на коленке ИИ-порно, а гиганты молчат?

Вот держите сайт. Картинок, как вы понимаете не будет.

Автор не стал оставлять текстовую подсказку, а использовал более привычные пользователям порнхаба теги и категории. Собираешь модель мечты из тегов, ИИ тебе генерит картинку влажной мечты.

Как пишут на Ycombinator: Следующий шаг: адаптивная порнолента в стиле TikTok, которая узнает, что именно вам нравится, и начинает генерировать порно, адаптированное к вашим извращениям и предпочтениям.

Именно то, о чем я уже лет пять твержу. Контент, от которого нельзя отказаться.

Вот вам ворох ссылок, изучайте, собирайте, только не залипайте в порно-матрице, вы мне еще нужны для чтения моих дурацких постов.
https://pornpen.ai/
https://news.ycombinator.com/item?id=32572770
https://www.reddit.com/r/pornpen/

P.S. Похоже вы положили сервера, пользуйтесь поиском по чужим генерациям.

Ну ок, в коментах пару картинок. Не фейсбук жеж.
🔥21👍1
Ну и раз пошла тема порно, то вот вам интересные факты про NSFW-фильтры.

Многие жалуются, что некоторые картинки из MJ или SD получаются заблюренными (а кредиты сожранными). Да, это работает NSFW-фильтр, который определяет всякое непотребство уже после вашей генерации и просто блокирует показ картинки.

Таким фильтрам уже много лет. На заре интернета, изможденные и возбужденные индусы глазами отслеживали все это безобразие и потом удаляли картинки руками. Потом на помощь пришли детекторы непотребства, а потом подтянулись нейросетки, которые с этой задачей справлялись на ура. Ибо данных для обучения было хоть отбавляй. С тех пор отслеживание непристойных картинок на совести ИИ.
Yahoo даже сделала опенсорсным код этого нейрофильтра, все кому надо было оградить своих посетителей от культурного шока, могли встроить его на свои сервера.
Вот ссылка на код: https://github.com/yahoo/open_nsfw
И пост в блоге яху: https://yahooeng.tumblr.com/post/151148689421/open-sourcing-a-deep-learning-solution-for

Один смышленый малый, Gabriel Goh еще в 2016 году взял протоГАНы(DGN) и стал генерить картинки, наблюдая, как срабатывает фильтр от yahoo. У фильтра даже была градация: 0 - безопасная картинка, 1 - чистопорно.
А потом он применил трюк с генератором и дискриминатором и научил сетку генерить картинку с нужным значением порносхожести.
Более того, он научился брать тематику, например, "пляж" или даже "музей" и генерить картинку музея, на которой фильтр срабатывал, как ужаленный, выдавая чистую единицу.
Я не могу запостить картинки тут, идите по ссылке, это достойно просмотра - что надо замешать в картинку условного музея, чтобы получить срабатывание фильтра.
Конечно, в 2016 году ганы были похожи на рисование детей в садике, и картинки там выглядят так себе.
Но.
Подумайте о том, что сейчас генеративный арт совершает культурную революцию (ну ок, многое меняет).
И есть алгоритм, который может замешивать в абстрактные картинки некие паттерны, которые заставляют срабатывать NSFW-фильтры. Фильтры обучены на кожаных датасетах, то есть явно отображают способность этих визуальных паттернов влиять на биохимию кожаных мешков.

Ну и недалек тот день, когда отдел ресерча в обобщеном порхабе обучит условный stable diffusion генерить абстрактные узоры или домешивать паттерны в картинки с котиками, которые будут заставлять вас ерзать на стуле. При этом на экране никакого порно, но какие-то странные узоры, от которых верещат NSFW-фильтры.

Воздействие формой без содержания. То, о чем грезили кожаные художники блуждая в темноте сотни лет, и то, чему ИИ обучается влёт.

Статья по ссылке - перевод с японского (Oct, 2016). Найдете оригиналы на англ, кидайте в коменты.
Там же в коментах, картинки из статьи.
👍4
Кстати, если вы устали от промпт-шаманства и не очень готовы тратить деньги на кредиты для генераций, то есть и другие решения.

Например: https://neural.love/ai-art-generator

Он, в отличие от других, не требует «промпт инженеринга»; то есть вам достаточно написать «кошка», выбрать категорию модели, и вы получите самую лучшую нейронную кошку.

Есть категории: картина, космос, аниме, фэнтези, татуировки скетчи, текстуры (для геймдева и 3D людей), природа, крипота, киберпанк, стимпанк. Категории будут добавляться.

Прямо на сайте можно улучшить результат апскейлом (увеличить, уменьшить блюр и тп), для этого есть кнопка Enhance

Картинки генерятся с лицензией CC0, можете печатать, продавать, делать NFT, коммерция и тп.

БЕСПЛАТНО.

В чем подвох, спросите вы.

Скорость.


Сервера не резиновые и это не openAI. Поэтому генерации будут занимать несколько минут.

Да, можно доплатить за скорость, и это отличный free to play механизм, который позволяет оценить насколько все это подходит под ваши нужды.

И пример того, как быстро коды с гитхаба и бумаги из интернета становятся готовыми решениями.
🔥12👍2
Тому, кто дружен с ИИ есть поблажки.

Тому, кто обратил в ИИ-веру много мешков, полагаются послабления в NSFW-фильтрах. Поэтому на моем аккаунте картинки не блюрятся.

Сандра Баллок в душе. Как есть.
👍14
This media is not supported in your browser
VIEW IN TELEGRAM
Помните я спрашивал, а можно ли использовать Stable Diffusion или Midjourney через API или лайфхаки, чтобы брать строку со своего сайта и генерить картинку?

Смотрите, как Stable Diffusion прикручивают к Фигме!
Там явно, через API.

По скетчам или гайдам генерятся варианты дизайна.

Новый нормальный продуктовый дизайн. Выглядит настолько сладко, что у меня, пожалуй больше нет коvментариев. Ожидаю, что такая фича появится буквально везде. От Фотошопа и Криты до Блендора. В том смысле open sourc-у и апи в руки.

https://twitter.com/bearbig/status/1562542432688156673
P.S. Лишь бы не было как с #kaedim. Но тут вроде быстрая отрисовка и не похоже на индусов под капотом.

И послушайте внимательно, там в конце говорится, что ребята выкатат плагин для фигма-сообщества, когда он будет APPROVED.


Спасибо за наводку @PHYGITALART
👍19🔥61👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Оставим немного в покое графику.
Вот вам пример того, чем питается ИИ.

Один смышленый малый программку Googerteller, которая пищит(скорее постукивает, что метафорично) сигналы каждый раз, когда ваш браузер(и возможно не только) отправляет какие-то данные в Google.

На видео показана работа на сайте с вакансиями Нидерландов. Каждый ваш клик и чих вызывает отправку данных в Гугль. Причем говорят, что не только в Хроме.
Подумайте о том, что не только данныеданные идут в гугль, а все ваше поведение, клик-почерк, так сказать, и патерны взаимодействия с экраном идут на стол к ИИ.

Приватность, говорите? Защита персональных данных?

Посмотрите видео с постукиваниями.
👍12
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите, что творят ребята их Antilatency!

Какая-то миллиметровая точность посадки дронов. С учетом того, как растет рынок доставки дронами и как будут расти требования к доставке, это прямо завтрашний день.
Еще немного деталей.

Система слежения обрабатывает все данные изображения на борту, не записывая и не передавая реальную картину окружающей среды, это в вопросу конфиденциальности. Тут была шутка про закладки, но я ее убрал.

Трекер вместе с Raspberry Pi весит всего 80 грамм и потребляет 4,25 Вт, это делает его идеальным для данного случая использования.

Инфракрасные маркеры - это просто источник инфракрасного света (850 нм) без какой-либо модуляции или управления со стороны дрона. На посадочной площадке нет радиоприемников и антенн, что делает систему не только надежной и простой в настройке, но и не подверженной радиопомехам.

Также ребята раздают DevKits в своем дискорде и разместили весь код на гитхабе.

Поглядите полное видео по ссылке:
Там же ссылки на гитхаб, дискорд и проект.
https://www.youtube.com/watch?v=T4TEdzSLyi0

И это не реклама, Андрея и Петра знаю очень давно, катали в Дахабе много раз.

Во всем, что касается трекеров, сенсоров, позиционирования и отслеживания, Антилатенси это просто топ. Причем с обвязкой, экосистемой и поддержкой разрабов.
🔥20👍2
Если захотите увидеться, забегайте на огонек.
Буду визионерствовать и футуроложствовать в отличной компании старых друзей.
Искусственный интеллект, метаверс, нфт, генеративный контент, эволюция игр, социальные сети, Илон Маск, будущее образования и многое другое. Правила жизни в новом мире от ведущих кипрских футурологов.
В баре на берегу моря.
https://news.1rj.ru/str/paphoshub/531
🔥14👍5
А вот это сильно.
Ответ Гуглу от Stable Diffusion или новый нормальный поиск по картинкам.
Вбиваете в поиск "Илон Маск" или "неведомая хрень" и получаете список текстовых подсказок, которые использовались пользователями Stable Diffusion с этими фразами.
И не только подсказок, но и картинок!
Понравилась картинка? Копируете промпт и пляшете от готового варианта.
Ну или забираете в работу то, что другие нагенерили, пока юристы ломают голову, где чьи права...

Ну и кстати, залипательно до жути, почти как игра с Midjourney или Stable Diffusion. Ничто как не завораживает, как смотреть на то, как другие работали.

Попробуйте!
https://lexica.art/
👍22🔥4
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Куда катится мир, мем "как нарисовать сову" потерял свою идею, а следующие поколения навсегда утеряют его смысл.

Инструменты, завязанные на мой любимый Artbreeder + StableDiffusion, позволяют вам рисовать сову с навыками инфузории.

Вариант того, как будут выглядеть инструменты в ближайшем будущем.
🔥32👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Отвлечемся немного от генерации картинок жестким когнитивным диссонансом.
Похоже Цук покусал Снуп Догга - последний наделал анимационных аватаров и ну петь детские песни. В DoggyLand-е. Так и до Снуп-метаверса недалеко.
Я ничего не имею против детских песен и выглядит все очень органично и гуманистично.
Если бы не Snoop Dogg.
Мегапереобувание левел 80.
Держите полное видео.
https://youtu.be/qpiW-3ScgbM
👍7🔥3
Отвлечемся немного от генерации картинок другими картинками.

Жестокие ученые взяли и стали кормить пауков наркотиками, а потом смотреть, как изменилась их паутина. В 1995 году это сделали в NASA, чтобы увидеть, как различные вещества, включая кофеин, влияют на структуру паутины.
А в 1948 году швейцарский фармаколог Питер Н. Витт проводил аналогичные исследования воздействия лекарств на пауков. Витт подвергал пауков воздействию ряда психоактивных веществ, включая амфетамин, мескалин, стрихнин, ЛСД и кофеин, и обнаружил, что наркотики влияют на размер и форму сети, а не на время ее создания.

Трактовать это можно по разному: от "убираем лишнее и ненужное" и "красота как она есть" до "потери функциональности" и "повышения токсичности".
В любом случае кофе явно хуже всего остального.

А теперь интересно поразмышлять, как мы воздействуем на ИИ, подмешивая ему в промпт те или иные вещества в виде текстовых подсказок.
Вчера постил про поисковик по картинкам, сгенеренным в Stable Diffusion - https://lexica.art/
Просто забейте туда: fractals crystals, чтобы посмотреть, как меняется генерация при подмешивании фрактальных кристаллов.
И поглядите, куда вас приведут кожаные грезы, промотайте вниз немного.
Дивные кристаллы однако.
Спасибо Вите Осыке за картинку.
👍20🔥1