Ну и немного абстракций вам в голову.
Тут вот подписчики соорудили частицы в Dalle3, я взял промпт и немного модифицировал.
Погонял в Бинге. Получилось красиво, но как бы постоянно одно и то же.
А так как управления сидом или стилем нет, что пришлось просто жать Create в надежде на вариации.
Но мелкие детали прорисовывает классно.
Получилось нарядно.
Тут вот подписчики соорудили частицы в Dalle3, я взял промпт и немного модифицировал.
Погонял в Бинге. Получилось красиво, но как бы постоянно одно и то же.
А так как управления сидом или стилем нет, что пришлось просто жать Create в надежде на вариации.
Но мелкие детали прорисовывает классно.
Abstract 3d render, flowing particles, smooth and blobs, mesmerizing magic hypnotizing motion, colored vivid metal and glass, futuristic, steel, iridescent, bokeh, dof, specular, bloom, chromatic aberration, refraction, halationПоэтому я опять-таки забрал промпт и пошел в свой любимый Фооокус, тем более, что там теперь есть новая галка. Щас расскажу.
Получилось нарядно.
🔥17👍1
А в последнем апдейте Fooocus-MRE появилась галка "Прогнать через все стили.
Я долго ныл на гитхабе и разработчик-таки сделал ея.
В общем я взял частицы из предыдущего поста и прогнал через имеющиеся 208 стилей Фокуса.
Разнообразный. На одном сиде.
Чтобы удобно было это как-то запостить, я пришел в chatGPT и спросил "I need python code which reads list of image names in current folder and make html code for show these images as simple gallery".
Положил отрыжку из chatGPT в папку с картинками, получил html и забросил на сайт, вот ссылка, можете позалипать.
https://cgevent.ru/imgs/blobs/z.html
Также немного взрывает мозг, что кубики на картинке в шапке - это стиль Майнкрафт, а шарики - Это стиль Game Mario. Стили есть в именах файлов.
Еще больше залипания на разных сидах тут:
https://cgevent.ru/imgs/blobs2/z.html
Соорудить такое в Dalle3 на 30 минут и бесплатно будет сложно пока.
Я долго ныл на гитхабе и разработчик-таки сделал ея.
В общем я взял частицы из предыдущего поста и прогнал через имеющиеся 208 стилей Фокуса.
Abstract 3d render, flowing particles, smooth and blobs, mesmerizing magic hypnotizing motion, colored vivid metal and glass, futuristic, steel, iridescent, bokeh, dof, specular, bloom, chromatic aberration, refraction, halationМестами получился взрыв мозга.
Разнообразный. На одном сиде.
Чтобы удобно было это как-то запостить, я пришел в chatGPT и спросил "I need python code which reads list of image names in current folder and make html code for show these images as simple gallery".
Положил отрыжку из chatGPT в папку с картинками, получил html и забросил на сайт, вот ссылка, можете позалипать.
https://cgevent.ru/imgs/blobs/z.html
Также немного взрывает мозг, что кубики на картинке в шапке - это стиль Майнкрафт, а шарики - Это стиль Game Mario. Стили есть в именах файлов.
Еще больше залипания на разных сидах тут:
https://cgevent.ru/imgs/blobs2/z.html
Соорудить такое в Dalle3 на 30 минут и бесплатно будет сложно пока.
🔥28👍1
Титанический труд!
Сравнение Midjourney и Dalle3 на огромном количестве примеров.
С комментариями автора.
Респект!
https://atachkina.com/dalle3
Сравнение Midjourney и Dalle3 на огромном количестве примеров.
С комментариями автора.
Респект!
https://atachkina.com/dalle3
👍41🔥25
Чтение мыслей по поводу чтения.
Про то, что добровольцев присовывают в фМРТ и дают им слушать музыку, смотреть картинки и даже видео, а потом пытаются реконструировать увиденное-услышанное, я уже писал.
Тут же эксперимент немного более "тонкий" и связанный с вопросом о том, как мы "мыслим на языке".
Теперь добровольцев присовывают в фМРТ и просят их читать книжки. То есть воздействуют на мозг не "прямыми" сигналами типа картинок и звука, а как бы "вторичными", пропущенными, через генерацию образов, возникающих в голове во время чтения. То есть, чтение порождает картинки в голове(ну или у кого как, назовем это триггеры-ассоциации в голове), а исследователи пытаются ухватить эти порожденные чтением сигналы.
"Когда мы думаем о словах или фразах, в голове активизируются участки мозга, контролирующие речь. Используя фМРТ-сканирование людей во время чтения и последующего обдумывания, исследователи обучили программу декодирования составлять карту речи и мышления каждого человека, что позволило ей распознавать сигналы мозга и переводить их в слова или фразы. Испытуемые читали в течение 16 часов, а программа-декодер отображала каждый образ мозга и ассоциировала его со словом или фразой."
Получилась карта связей, которая включала три подмножества активированного мозга: речевой, ассоциативный и префронтальный. Сложность заключалась в том, что каждый участок мозга при анализе дешифратором выдавал разные последовательности слов. Предполагается, что это связано с тем, что слов гораздо больше, чем возможных изображений мозга, в результате чего дешифратор выдает наилучшую оценку на основе 16-часового набора данных по чтению.
Например, дешифратору была предложена следующая фраза: "Я нарисовал для тебя эту карту, и ты действительно находишься в полутора милях от дома". Левая префронтальная кора выдает следующую последовательность: "номер на карте и выяснить, как далеко им пришлось проехать, чтобы добраться до адреса", в то время как правая префронтальная кора выдает "просто посмотреть, сколько времени это займет, поэтому я проехал вниз по холму и к банку".
Исследователи быстро обнаружили, что точные переводы встречаются редко, поэтому они стремились к тому, чтобы дешифровщик смог передать как минимум основной смысл предложения. В большинстве случаев дешифровщик хорошо передавал общий смысл, заложенный в текст.
В статье напрямую обсуждаются невербальные коммуникации, то бишь аналоги телепатии. И это прям бодрит.
Ну и есть повод поумничать, и вспомнить Тютчева и «Мысль изрече́нная есть ложь...». Которую мы измеряем в фМРТ.
А также поразмыслить о том, как же здорово языковые (и дифузионные) модели имитируют кожаное мышление, сжимая информацию подобно джипегу (хотя бы в процессе токенизации), а при распаковке остается общий смысл, но детали могут теряться. Или вообще искажаться.
И у каждого в голове свой JPEG этого мира, пропущенный через язык, на котором мы думаем, с довольно сильной(огромной) степенью сжатия.
https://www.forbes.com/sites/williamhaseltine/2023/08/16/translating-thoughts-into-words-advances-in-brain-machine-communication/amp/
Про то, что добровольцев присовывают в фМРТ и дают им слушать музыку, смотреть картинки и даже видео, а потом пытаются реконструировать увиденное-услышанное, я уже писал.
Тут же эксперимент немного более "тонкий" и связанный с вопросом о том, как мы "мыслим на языке".
Теперь добровольцев присовывают в фМРТ и просят их читать книжки. То есть воздействуют на мозг не "прямыми" сигналами типа картинок и звука, а как бы "вторичными", пропущенными, через генерацию образов, возникающих в голове во время чтения. То есть, чтение порождает картинки в голове(ну или у кого как, назовем это триггеры-ассоциации в голове), а исследователи пытаются ухватить эти порожденные чтением сигналы.
"Когда мы думаем о словах или фразах, в голове активизируются участки мозга, контролирующие речь. Используя фМРТ-сканирование людей во время чтения и последующего обдумывания, исследователи обучили программу декодирования составлять карту речи и мышления каждого человека, что позволило ей распознавать сигналы мозга и переводить их в слова или фразы. Испытуемые читали в течение 16 часов, а программа-декодер отображала каждый образ мозга и ассоциировала его со словом или фразой."
Получилась карта связей, которая включала три подмножества активированного мозга: речевой, ассоциативный и префронтальный. Сложность заключалась в том, что каждый участок мозга при анализе дешифратором выдавал разные последовательности слов. Предполагается, что это связано с тем, что слов гораздо больше, чем возможных изображений мозга, в результате чего дешифратор выдает наилучшую оценку на основе 16-часового набора данных по чтению.
Например, дешифратору была предложена следующая фраза: "Я нарисовал для тебя эту карту, и ты действительно находишься в полутора милях от дома". Левая префронтальная кора выдает следующую последовательность: "номер на карте и выяснить, как далеко им пришлось проехать, чтобы добраться до адреса", в то время как правая префронтальная кора выдает "просто посмотреть, сколько времени это займет, поэтому я проехал вниз по холму и к банку".
Исследователи быстро обнаружили, что точные переводы встречаются редко, поэтому они стремились к тому, чтобы дешифровщик смог передать как минимум основной смысл предложения. В большинстве случаев дешифровщик хорошо передавал общий смысл, заложенный в текст.
В статье напрямую обсуждаются невербальные коммуникации, то бишь аналоги телепатии. И это прям бодрит.
Ну и есть повод поумничать, и вспомнить Тютчева и «Мысль изрече́нная есть ложь...». Которую мы измеряем в фМРТ.
А также поразмыслить о том, как же здорово языковые (и дифузионные) модели имитируют кожаное мышление, сжимая информацию подобно джипегу (хотя бы в процессе токенизации), а при распаковке остается общий смысл, но детали могут теряться. Или вообще искажаться.
И у каждого в голове свой JPEG этого мира, пропущенный через язык, на котором мы думаем, с довольно сильной
https://www.forbes.com/sites/williamhaseltine/2023/08/16/translating-thoughts-into-words-advances-in-brain-machine-communication/amp/
Forbes
Translating Thoughts Into Words: Advances In Brain-Machine Communication
This story is part of a series on the current A new brain-computer interface decoder enables researchers to construct continuous language using only MRI brain scans.
👍33🔥6