Бесплатный Kaiber все.
Мы решили временно отключить все бесплатные пользовательские творения на нашей платформе. Это решение было непростым, но необходимо обеспечить качество продукта мирового класса ценой вирусного роста. Определение приоритетов для нашей небольшой команды имеет решающее значение, и мы ценим ваше терпение.
Мы столкнулись с 10-кратным увеличением числа злоупотреблений бесплатной пробной версией и мошеннических рассылок спама по платежам, что побудило нас принять меры. Мы обнаружили мошенников, которые создавали видео, притворяющихся реальными пользователями, и это негативно сказалось на пользовательском опыте платных пользователей, отнимая драгоценное время графического процессора (что означает более длительное время ожидания и более медленную генерацию видео).
Мы предпринимаем шаги, чтобы повысить планку обнаружения мошенничества в Kaiber, и как можно скорее внедрим PayPal. Мы также приняли другие меры, которые не можем раскрывать публично, для защиты нашей платформы. и т д
Мы решили временно отключить все бесплатные пользовательские творения на нашей платформе. Это решение было непростым, но необходимо обеспечить качество продукта мирового класса ценой вирусного роста. Определение приоритетов для нашей небольшой команды имеет решающее значение, и мы ценим ваше терпение.
Мы столкнулись с 10-кратным увеличением числа злоупотреблений бесплатной пробной версией и мошеннических рассылок спама по платежам, что побудило нас принять меры. Мы обнаружили мошенников, которые создавали видео, притворяющихся реальными пользователями, и это негативно сказалось на пользовательском опыте платных пользователей, отнимая драгоценное время графического процессора (что означает более длительное время ожидания и более медленную генерацию видео).
Мы предпринимаем шаги, чтобы повысить планку обнаружения мошенничества в Kaiber, и как можно скорее внедрим PayPal. Мы также приняли другие меры, которые не можем раскрывать публично, для защиты нашей платформы. и т д
🔥1
Forwarded from Нейровижн | ChatGPT, IT, Дизайн
This media is not supported in your browser
VIEW IN TELEGRAM
Революционный редактор изображений от «flydog»
Здесь можно использовать готовые 3D модели в связке с текстовым запросом, рисовать кистью будущую генерацию, вырезать и встраивать объекты или текст в окружение.
— Бесплатная версия на ПК уже доступна, а через пару дней выйдет плагин для Photoshop.
@seeneuro
Здесь можно использовать готовые 3D модели в связке с текстовым запросом, рисовать кистью будущую генерацию, вырезать и встраивать объекты или текст в окружение.
— Бесплатная версия на ПК уже доступна, а через пару дней выйдет плагин для Photoshop.
@seeneuro
👍1
В Midjourney V5.1 встроили новую ИИ-цензуру промптов, которая срабатывает не только на отдельные слова, а на фразы и целые промпты
Например,
Юзеры на реддите грозятся не продлевать больше подписку на MJ
Люди с подпиской, поделитесь своими впечатлениями?
Например,
"Женщина расчесывает волосы щеткой перед соседним двором, в то время как по соседству полыхает огромный пожар, повсюду пожарные машины, дома в огне..." - такой промпт не прошел цензуру.Юзеры на реддите грозятся не продлевать больше подписку на MJ
Люди с подпиской, поделитесь своими впечатлениями?
Reddit
From the midjourney community on Reddit: RIP Midjourney! New V5.1 has A.I. promptblocker9000 moderation system.
Posted by Farker4life - 1,554 votes and 786 comments
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
В ближайшем будущем каждый пиксель будет не отрендерён, а сгенерирован.
На будущем Siggraph Nvidia представит около 20 исследовательских работ. Конечно, большая часть будет посвящена нейронкам.
Пара моментов мне показалась очень интересными. Это нейронное сжатие текстур до 16 раз. Текстуры будут оставаться невероятно чёткими при меньшем занимаемом объёме. Сейчас, как известно, именно текстуры занимают большую часть дистрибутива.
Далее это нейронная физика для волос (пока для волос), работающая на предсказании движений: каждый волосок больше не рассчитывается отдельно, что тоже ускорит просчёт и добавит реализма.
И третье – это визуализация сложных, многослойных кинематографичного качества материалов в реальном времени.
На будущем Siggraph Nvidia представит около 20 исследовательских работ. Конечно, большая часть будет посвящена нейронкам.
Пара моментов мне показалась очень интересными. Это нейронное сжатие текстур до 16 раз. Текстуры будут оставаться невероятно чёткими при меньшем занимаемом объёме. Сейчас, как известно, именно текстуры занимают большую часть дистрибутива.
Далее это нейронная физика для волос (пока для волос), работающая на предсказании движений: каждый волосок больше не рассчитывается отдельно, что тоже ускорит просчёт и добавит реализма.
И третье – это визуализация сложных, многослойных кинематографичного качества материалов в реальном времени.
Forwarded from Syncrets
Буквально через пару дней после того, как препринт из реплая стал статьёй в Nature Neuroscience, швейцарским исследователям удалось проникнуть в «сознание» мыши, которая смотрела фильм, расшифровать сигналы ее мозга и воссоздать увиденный ею ролик.
Группа учёных из Федеральной политехнической школы Лозанны (EPFL) создала инструмент, способный декодировать сигналы мозга грызуна в режиме реального времени, в итоге воссоздавая визуальный нарратив, разворачивающийся перед глазами мыши.
Алгоритм машинного обучения, получивший название CEBRA, был обучен ассоциировать нейронную активность с определенными кадрами видео. Затем CEBRA смог предсказать и собрать клип, который показывали мыши — чёрно-белый фильм 60-х годов, в котором мужчина бежит к машине и открывает багажник. На отдельном экране отображалась интерпретация CEBRA визуального опыта мыши, которая показала поразительно похожую реконструкцию, хотя и с некоторыми сбоями.
В исследовании, опубликованном вчера в журнале Nature, подробно описано, как учёные отслеживали и документировали активность мозга грызунов с помощью электродов, вставленных в область зрительной коры, а также оптогенетических зондов (генномодифицированные нейроны в их мозге светились зеленым цветом при возбуждении и передаче информации).
Обучение CEBRA включало в себя сами фильмы, которые смотрели мыши, и данные активности их мозгов, что позволило алгоритму выстроить нейронные корреляты конкретных кадров фильма. Затем алгоритму была показана новая активность, с которой он раньше не сталкивался, от мыши, которая смотрела слегка отличный видеоряд. На основе этого CEBRA смог предсказать, какой кадр смотрела мышь в режиме реального времени, и исследователи превратили эти данные в собственный фильм.
Это не первый случай, когда исследователи декодируют сигналы мозга для создания изображений. В прошлом месяце PetaPixel сообщил об исследователях из Университета Осаки (Япония), которые в марте смогли восстановить высокоточные изображения высокого разрешения на основе активности мозга с помощью Stable Diffusion.
А ещё в августе прошлого года Университет Радбоуда в Нидерландах разработал технологию, которая может переводить мозговые волны человека в фотографические изображения.
За наводку спасибо подписчику
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Predict what a mouse sees by decoding brain signals
A research team from EPFL has developed a novel machine-learning algorithm that can reveal the hidden structure in data recorded from the brain, predicting complex information such as what mice see.
DOI: https://doi.org/10.1038/s41586-023-06031-6
Altmetric:…
DOI: https://doi.org/10.1038/s41586-023-06031-6
Altmetric:…
😱4❤2👍1
Media is too big
VIEW IN TELEGRAM
EVA3D: Compositional 3D Human Generationfrom 2D Image Collections
генератор анимируемых персонажей из набора картинок. К нему еще прикрутили Stable Diffusion, так что он теперь и картинки сам придумывает.
Фичи:
- строгий контроль позы/формы
- анимация
- интерполяция через латентное пространство
Код
Колаб
Демо
#imageto3D #image2avatar #image2video #3Davatar
генератор анимируемых персонажей из набора картинок. К нему еще прикрутили Stable Diffusion, так что он теперь и картинки сам придумывает.
Фичи:
- строгий контроль позы/формы
- анимация
- интерполяция через латентное пространство
Код
Колаб
Демо
#imageto3D #image2avatar #image2video #3Davatar
👍3
Media is too big
VIEW IN TELEGRAM
Live 3D Portrait:Real-Time Radiance Fields for Single-Image Portrait View Synthesis
Одна из новинок NVIDIA, показанных на SIGGRAPH 2023 - генератор 3D-голов по одному входному изображению. Работает в реальном времени, пишут про 24 кадра в секунду на потребительском железе. Если на вход прикрутить генератор 2D-говорящих голов, можно получить 3D-говорящую голову. Пишут про демо, но оно, видимо, не публичное. Кода нет
#imageto3D #face2video #image2avatar #talkinghead
Одна из новинок NVIDIA, показанных на SIGGRAPH 2023 - генератор 3D-голов по одному входному изображению. Работает в реальном времени, пишут про 24 кадра в секунду на потребительском железе. Если на вход прикрутить генератор 2D-говорящих голов, можно получить 3D-говорящую голову. Пишут про демо, но оно, видимо, не публичное. Кода нет
#imageto3D #face2video #image2avatar #talkinghead
👍3
Hugging Face совместно с ServiceNow собрали и выложили свою собственную модель, которая умеет то, что делает GitHub CoPilot — подсказывать код, по сути писать 80% кода без всяких программистов. Только в отличие от CoPilot это не платная услуга, а доступный всем опенсорс код и веса модели.
их примерах чуть хуже CoPilot, но начало положено.
https://huggingface.co/bigcode/starcoder
#coding #LLM #GPT #NLP
их примерах чуть хуже CoPilot, но начало положено.
https://huggingface.co/bigcode/starcoder
#coding #LLM #GPT #NLP
huggingface.co
bigcode/starcoder · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Forwarded from Dreams and Robots
Я записал второй урок про работу со Stable Houdini, рассказал про новые ноды и подробно описал процесс работы над конкретной задачей.
https://www.youtube.com/watch?v=1-kPfLz-Uy4
#stablehoudini #stablediffusion
https://www.youtube.com/watch?v=1-kPfLz-Uy4
#stablehoudini #stablediffusion
YouTube
Stable Houdini для дизайнеров
Скачать ассеты:
https://github.com/stassius/StableHoudini
Сказать "Спасибо":
https://www.donationalerts.com/r/houdinirus
Урок про установку Stable Houdini:
https://www.youtube.com/watch?v=Un_b8cvzxcw
Наш телеграм-канал про нейросети:
https://news.1rj.ru/str/dreamsrobots…
https://github.com/stassius/StableHoudini
Сказать "Спасибо":
https://www.donationalerts.com/r/houdinirus
Урок про установку Stable Houdini:
https://www.youtube.com/watch?v=Un_b8cvzxcw
Наш телеграм-канал про нейросети:
https://news.1rj.ru/str/dreamsrobots…
🔥4
Forwarded from я обучала одну модель
Another day another model, на этот раз от Mosaic
Почему может быть интересно:
- Выпустили модель MPT-7B-StoryWriter-65k+, с контекстным окном 65k токенов для написания длинных историй (учили на книжках). Кажется самый большой контекст, который есть в опенсорсе сейчас
- Выпустили MPT-7B-Instruct, которая следуюет инструкциям и отвечает в краткой форме. Учили на датасетах Dolly и HH-RLHF от Anthropic
- Last but not least выпустили MPT-7B-Chat, который учили на ShareGPT-Vicuna (это пошернные переписки пользователей с ChatGPT), Alpaca и снова HH-RLHF
Еще из приятного:
- Foundation model MPT-7B (от которой тюнили все остальное) учили на 1T токенов, как и LLaMA
- У всего этого снова божеская лицензия, позволяющая коммерческое использование
- Выложили код для тренировки с FlashAttention
- Поддерживают сервинг из коробки через FasterTransformer (вау!)
hf: https://huggingface.co/mosaicml/mpt-7b
демо для чата: https://huggingface.co/spaces/mosaicml/mpt-7b-chat
Почему может быть интересно:
- Выпустили модель MPT-7B-StoryWriter-65k+, с контекстным окном 65k токенов для написания длинных историй (учили на книжках). Кажется самый большой контекст, который есть в опенсорсе сейчас
- Выпустили MPT-7B-Instruct, которая следуюет инструкциям и отвечает в краткой форме. Учили на датасетах Dolly и HH-RLHF от Anthropic
- Last but not least выпустили MPT-7B-Chat, который учили на ShareGPT-Vicuna (это пошернные переписки пользователей с ChatGPT), Alpaca и снова HH-RLHF
Еще из приятного:
- Foundation model MPT-7B (от которой тюнили все остальное) учили на 1T токенов, как и LLaMA
- У всего этого снова божеская лицензия, позволяющая коммерческое использование
- Выложили код для тренировки с FlashAttention
- Поддерживают сервинг из коробки через FasterTransformer (вау!)
hf: https://huggingface.co/mosaicml/mpt-7b
демо для чата: https://huggingface.co/spaces/mosaicml/mpt-7b-chat
👍2
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🪴 Nvidia показала нейросеть NeuralVDB, которая генерирует невероятно детализированную графику. Система в реальном времени определяет, как свет отражается от разных материалов и сразу применяет это на 3D-моделях.
Реалистично воспроизводится керамика, отпечатки пальцев, пятна и пыль. Производительность увеличивается в 10 раз, а детализация аж в 16 раз. Не беспокойтесь о нагрузке на видеокарту — обещают, что объем памяти требуется в 100 раз меньше, чем нужно было прежде. Фантастика!
#AI | Not Boring Tech
Реалистично воспроизводится керамика, отпечатки пальцев, пятна и пыль. Производительность увеличивается в 10 раз, а детализация аж в 16 раз. Не беспокойтесь о нагрузке на видеокарту — обещают, что объем памяти требуется в 100 раз меньше, чем нужно было прежде. Фантастика!
#AI | Not Boring Tech
❤3
Forwarded from Sergeii
Тут зарелизили AudioGPT (demo на hugging )
"Understanding and Generating Speech, Music, Sound, and Talking Head"
Text-to-Speech
Text-to-Sing
Text-to-Audio
Audio Inpainting
Image-to-Audio
Sound Detection
Target Sound Detection
Sound Extraction
Talking Head Synthesis
upd: связка из разных моделей, часть не работает.
"Understanding and Generating Speech, Music, Sound, and Talking Head"
Text-to-Speech
Text-to-Sing
Text-to-Audio
Audio Inpainting
Image-to-Audio
Sound Detection
Target Sound Detection
Sound Extraction
Talking Head Synthesis
upd: связка из разных моделей, часть не работает.
Ну надо же, пришел инвайт в Uizard Autodesigner
Кто записывался в вейтлист - проверьте почту
Кто записывался в вейтлист - проверьте почту
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Для тех, кто работает с видео.
Про Eleven Labs мы уже все слышали.
Теперь держите Twelve Labs https://twelvelabs.io/
У них есть Video Understanding Engine.
Вы загружаете свои видосы, а платформа пережевывает их и создает ембеддинги. Потом вы можете просто текстом искать любую информацию в ваших видосах: текст на видео, объекты, разговор, лого.
Там еще очень много чего внутри - это целая среда разработки, позволяющая создавать ИИ-описания и "понимания" ваших видосов.
Про Eleven Labs мы уже все слышали.
Теперь держите Twelve Labs https://twelvelabs.io/
У них есть Video Understanding Engine.
Вы загружаете свои видосы, а платформа пережевывает их и создает ембеддинги. Потом вы можете просто текстом искать любую информацию в ваших видосах: текст на видео, объекты, разговор, лого.
Там еще очень много чего внутри - это целая среда разработки, позволяющая создавать ИИ-описания и "понимания" ваших видосов.
www.twelvelabs.io
TwelveLabs | Home
Recognized by leading researchers as the most performant AI for video understanding; surpassing benchmarks from cloud majors and open-source models.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Houdini + AI = Shiba
Я тут хотел выпить за Худини-Артистов, но понял, что благодаря ИИ, их скорее станет больше (насчет их качества не уверен, однако). Ибо теперь можно обучаться Худини просто беседуя с ИИ.
В общем chatGPT прикрутили к Худини. И как!
Shiba — ИИ, который может:
- Анализировать файлы .hip Houdini и давать полезные предложения по улучшению
- Искать в Интернете полезные ресурсы, связанные с вашей сценой
- Указывать на любые потенциальные будущие проблемы, с которыми могут столкнуться пользователи ассета.
Shiba также может:
• Создавать новые сцены Houdini на основе промпта!!!.
• Писать скрипты VEX и Python-код с гораздо более низким уровнем косяков, чем обычные альтернативы.
• Отвечать на вопросы о различных темах VFX и компьютерной графики.
https://www.linkedin.com/posts/aaron-smith-tv_if-you-want-to-smooth-out-houdinis-learning-activity-7057256306889351168-tRlh/
Я тут хотел выпить за Худини-Артистов, но понял, что благодаря ИИ, их скорее станет больше (насчет их качества не уверен, однако). Ибо теперь можно обучаться Худини просто беседуя с ИИ.
В общем chatGPT прикрутили к Худини. И как!
Shiba — ИИ, который может:
- Анализировать файлы .hip Houdini и давать полезные предложения по улучшению
- Искать в Интернете полезные ресурсы, связанные с вашей сценой
- Указывать на любые потенциальные будущие проблемы, с которыми могут столкнуться пользователи ассета.
Shiba также может:
• Создавать новые сцены Houdini на основе промпта!!!.
• Писать скрипты VEX и Python-код с гораздо более низким уровнем косяков, чем обычные альтернативы.
• Отвечать на вопросы о различных темах VFX и компьютерной графики.
https://www.linkedin.com/posts/aaron-smith-tv_if-you-want-to-smooth-out-houdinis-learning-activity-7057256306889351168-tRlh/
This media is not supported in your browser
VIEW IN TELEGRAM
Stable Diffusion + Segment Anything
Софт/сервис для инпейнтинга на основе SAM и SD
Онлайн
Гитхаб
Реддит
#inpainting
Софт/сервис для инпейнтинга на основе SAM и SD
Онлайн
Гитхаб
Реддит
#inpainting
🔥3
Multi-Space Neural Radiance Fields (MS-NeRF)
Мультипространственный #nerf.
Решает проблему с отображением мнимых пространств, создаваемых в отражениях.
Кода пока нет
Мультипространственный #nerf.
Решает проблему с отображением мнимых пространств, создаваемых в отражениях.
Кода пока нет
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
ImageBind: первая AI-модель, способная связывать данные из 6 модальностей одновременно от Meta AI. Теперь текст, изображения, карты глубины, карты температур, аудио и IMU сигналы живут в одном пространстве. Мы на шаг ближе к тому, что машины смогут связывать объединять и анализировать информацию с разных сенсоров, прямо как это делает человек.
Ждем, когда прикрутят к SD.
Блог
Код
Демо
Ждем, когда прикрутят к SD.
Блог
Код
Демо
🔥1