This media is not supported in your browser
VIEW IN TELEGRAM
- Более плавная анимация
- Меньше артефактов
- улучшено движение камер и спецэффектов
Важное дополнение у Kling.com есть баг с невозможностью отмены подписки так что советую привязывать виртуальную карту которую не жалко. Например турецкую ininal, потом можно просто удалить ее и завести новую на новенький аккаунт со скидкой $25 вместо $81
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Suno v4 стала бесплатной
Компания добавила бесплатный бета тест на нейросеть и улучшила недоработки прошлой модели.
– Более четкий звук;
– Улучшенные тексты песен;
– Более динамичные структуры композиций.
Компания добавила бесплатный бета тест на нейросеть и улучшила недоработки прошлой модели.
– Более четкий звук;
– Улучшенные тексты песен;
– Более динамичные структуры композиций.
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Яркий пример сложных сцен между kling 1.5 и 1.6
Реально стало лучше и консистентнее 🫠
Реально стало лучше и консистентнее 🫠
Последний день анонсов Open ai:
https://www.youtube.com/live/SKBG1sqdyIU
https://www.youtube.com/live/SKBG1sqdyIU
YouTube
OpenAI o3 and o3-mini—12 Days of OpenAI: Day 12
Sam Altman, Mark Chen, Hongyu Ren, and special guest Greg Kamradt, President of ARC Prize Foundation, introduce and discuss OpenAI o3, o3-mini, along with a call for safety testing and a new alignment strategy for o-series models.
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Последний день анонсов Open ai: https://www.youtube.com/live/SKBG1sqdyIU
Анонсировали новую мощную модель о3
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Анонсировали новую мощную модель о3
Показали новые модели o3 и o3-mini
— Почему o3, а не o2? Название o2 уже занято другим брендом, поэтому пришлось пропустить эту цифру.
— Тесты и запуск: Пока модели доступны только в Public Safety Tests. Это значит, что учёные смогут их протестировать, а вот мы — нет. Придётся подождать, чтобы попытаться их «сломать».
— Уровень знаний: o3 показывает результаты на уровне доктора наук (и даже лучше) в некоторых бенчмарках.
— ARC-бенчмарк:
o3 прошла этот сложный тест с результатом 87.5%. Это один из ключевых бенчмарков для оценки потенциальных AGI, где проверяют логику, решение задач и уровень IQ. Для сравнения:
Люди в среднем набирают ~85%,
Предыдущий лучший результат моделей был ~50%.
Короче говоря, o3 установила новую планку.
— Гибкость использования: o3 работает как o1: можно выбирать режимы, где модель дольше обдумывает ответ (он получается качественнее, но обходится дороже). Пользователь сам решает, какой «пресет думания» ему нужен.
Будет интересно посмотреть, как эти модели покажут себя в реальной жизни. 👀
— Почему o3, а не o2? Название o2 уже занято другим брендом, поэтому пришлось пропустить эту цифру.
— Тесты и запуск: Пока модели доступны только в Public Safety Tests. Это значит, что учёные смогут их протестировать, а вот мы — нет. Придётся подождать, чтобы попытаться их «сломать».
— Уровень знаний: o3 показывает результаты на уровне доктора наук (и даже лучше) в некоторых бенчмарках.
— ARC-бенчмарк:
o3 прошла этот сложный тест с результатом 87.5%. Это один из ключевых бенчмарков для оценки потенциальных AGI, где проверяют логику, решение задач и уровень IQ. Для сравнения:
Люди в среднем набирают ~85%,
Предыдущий лучший результат моделей был ~50%.
Короче говоря, o3 установила новую планку.
— Гибкость использования: o3 работает как o1: можно выбирать режимы, где модель дольше обдумывает ответ (он получается качественнее, но обходится дороже). Пользователь сам решает, какой «пресет думания» ему нужен.
Будет интересно посмотреть, как эти модели покажут себя в реальной жизни. 👀
👌1🌚1
🔥 Потестил нейронку Mmaudio
💡 Экономия времени на максималках: закидываешь видео – на выходе получаешь готовый ролик с крутым саунд-дизайном.
🎧 Результат – будто работал целый отдел звукорежиссёров, а ты просто нажал пару кнопок.
📹 Тестировал сам – это реально меняет подход к работе с видео. Теперь не нужно тратить часы на подбор звуков, только на подбор круток 😅
GitHub Репозиторий
И устанавливаем в ComfiUi
Так же приложил Workflow
Работает от 8gpu
💡 Экономия времени на максималках: закидываешь видео – на выходе получаешь готовый ролик с крутым саунд-дизайном.
🎧 Результат – будто работал целый отдел звукорежиссёров, а ты просто нажал пару кнопок.
📹 Тестировал сам – это реально меняет подход к работе с видео. Теперь не нужно тратить часы на подбор звуков, только на подбор круток 😅
GitHub Репозиторий
И устанавливаем в ComfiUi
Так же приложил Workflow
Работает от 8gpu
GitHub
GitHub - hkchengrex/MMAudio: [CVPR 2025] MMAudio: Taming Multimodal Joint Training for High-Quality Video-to-Audio Synthesis
[CVPR 2025] MMAudio: Taming Multimodal Joint Training for High-Quality Video-to-Audio Synthesis - hkchengrex/MMAudio
🔥1
Media is too big
VIEW IN TELEGRAM
🎥 Мой опыт с InVideo AI
Решил попробовать InVideo AI для описания своей вселенной Xen. Взял текст, закинул в редактор, и буквально через минуту получил ролик. Причём не просто нарезку из стоковых видео, а что-то с подобием сценария, озвучкой, монтажем и даже саунд-дизайном. Получилось неожиданно прикольно.
Ещё заметил, что там есть функция генерации кадров, но она уже за деньги. Планирую опробовать, как только обновятся лимиты на турецкой карте. Посмотрим, на что это способно.
В целом, если нужно быстро собрать что-то адекватное из базовых материалов, InVideo AI справляется отлично.
Решил попробовать InVideo AI для описания своей вселенной Xen. Взял текст, закинул в редактор, и буквально через минуту получил ролик. Причём не просто нарезку из стоковых видео, а что-то с подобием сценария, озвучкой, монтажем и даже саунд-дизайном. Получилось неожиданно прикольно.
Ещё заметил, что там есть функция генерации кадров, но она уже за деньги. Планирую опробовать, как только обновятся лимиты на турецкой карте. Посмотрим, на что это способно.
В целом, если нужно быстро собрать что-то адекватное из базовых материалов, InVideo AI справляется отлично.
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Sora стала безлимитной в честь Нового года
Теперь нейросеть работает без ограничений для подписчиков Plus. Акция продлится до конца новогодних праздников.
Тут нужен американский vpn sora.com
⚡️ Видео-генератор Pika 2.0 бесплатен
В течение следующих 4 дней вы можете создавать неограниченное количество видео на pika.art
Теперь нейросеть работает без ограничений для подписчиков Plus. Акция продлится до конца новогодних праздников.
Тут нужен американский vpn sora.com
⚡️ Видео-генератор Pika 2.0 бесплатен
В течение следующих 4 дней вы можете создавать неограниченное количество видео на pika.art
Media is too big
VIEW IN TELEGRAM
🎥 LongVolCap: между Gaussing Splats и Spatial Video от Apple
Если вы любите новинки 3D-технологий, то LongVolCap точно вас зацепит. Эта разработка объединяет лучшее от Gaussing Splats и пространственных видео от Apple. Но добавляет свою магию — долговременный захват движений и возможность буквально "зайти" внутрь сцены.
🔍 Почему это круто:
Мягкость и объём. Реалистичные текстуры и переходы, как в Gaussing Splats, но с трекингом движений.
Эффект присутствия. Напоминает Spatial Video, только тут добавлены динамика и глубина анализа.
Без заморочек. Только RGB-камера, никаких маркеров и студийных условий.
💡 Где это использовать?
1️⃣ Виртуальная реальность. Виртуальные миры становятся реальными как никогда.
2️⃣ Обучение и наука. Анатомия, механика, физика — всё наглядно.
3️⃣ Ну и порно, куда же без него. Кажется, эта технология может поднять "индустрию" на совершенно новый уровень.
Вот можно подробнее ознакомиться : тут
Если вы любите новинки 3D-технологий, то LongVolCap точно вас зацепит. Эта разработка объединяет лучшее от Gaussing Splats и пространственных видео от Apple. Но добавляет свою магию — долговременный захват движений и возможность буквально "зайти" внутрь сцены.
🔍 Почему это круто:
Мягкость и объём. Реалистичные текстуры и переходы, как в Gaussing Splats, но с трекингом движений.
Эффект присутствия. Напоминает Spatial Video, только тут добавлены динамика и глубина анализа.
Без заморочек. Только RGB-камера, никаких маркеров и студийных условий.
💡 Где это использовать?
1️⃣ Виртуальная реальность. Виртуальные миры становятся реальными как никогда.
2️⃣ Обучение и наука. Анатомия, механика, физика — всё наглядно.
3️⃣ Ну и порно, куда же без него. Кажется, эта технология может поднять "индустрию" на совершенно новый уровень.
Вот можно подробнее ознакомиться : тут
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Wonderland: Навигация по 3D-сценам из одного изображения
Snap Research представили Wonderland — уникальную технологию, которая позволяет исследовать 3D-сцены, созданные всего из одного 2D-изображения.
🔍 Что делает Wonderland особенной?
Навигация с помощью камеры: свободно перемещайтесь по сгенерированному миру, рассматривая его с любого ракурса.
Создание сцены за один шаг: изображение превращается в полноценную 3D-сцену практически мгновенно.
Высокая детализация: каждая сцена выглядит максимально реалистично и проработана до мельчайших деталей.
По сравнению с недавно представленной технологией от World Labs, Wonderland выигрывает в качестве визуализации, предлагая более детализированные и реалистичные сцены. Также навигация с помощью камеры намного гибче, позволяя исследовать пространство без каких-либо ограничений.
Вот можно подробнее ознакомиться : тут
Snap Research представили Wonderland — уникальную технологию, которая позволяет исследовать 3D-сцены, созданные всего из одного 2D-изображения.
🔍 Что делает Wonderland особенной?
Навигация с помощью камеры: свободно перемещайтесь по сгенерированному миру, рассматривая его с любого ракурса.
Создание сцены за один шаг: изображение превращается в полноценную 3D-сцену практически мгновенно.
Высокая детализация: каждая сцена выглядит максимально реалистично и проработана до мельчайших деталей.
По сравнению с недавно представленной технологией от World Labs, Wonderland выигрывает в качестве визуализации, предлагая более детализированные и реалистичные сцены. Также навигация с помощью камеры намного гибче, позволяя исследовать пространство без каких-либо ограничений.
Вот можно подробнее ознакомиться : тут
🍓2
This media is not supported in your browser
VIEW IN TELEGRAM
Genesis: новая эра симуляции физического мира
⚡️ Исследователи представили Genesis — универсальную платформу для физического моделирования, робототехники и искусственного интеллекта.
Технология позволяет симулировать сложные физические явления, генерировать 3D-сцены и даже создавать динамические 4D-миры. С помощью текстового описания можно задавать движения персонажей, роботизированные задачи или создавать детализированные интерьеры.
Представьте, вы пишете текст, например: "Маленькая обезьяна бежит по столу, прыгает в воздух и приземляется с поворотом." Genesis берёт это описание и создаёт полноценную анимацию — с движением камеры, физикой прыжка и всеми деталями.
Или, например, вы пишете: "Робот складывает книги на полке." Платформа интерпретирует это и моделирует, как робот перемещает книги, учитывая их вес и положение.
Genesis понимает текст, превращая его в действия, объекты и сцены с реалистичными физическими свойствами. Это как дать инструкцию виртуальному режиссёру, который сразу воплощает ваши идеи в жизнь.
Ключевые особенности:
1️⃣ Реалистичная симуляция физики с высокой скоростью (до 43 млн FPS).
2️⃣ Генерация видео, аудио и лицевой анимации.
3️⃣Полностью интерактивные 3D-сцены и роботы, адаптируемые к реальному миру.
Genesis открывает новые горизонты для виртуальной реальности, робототехники и визуализации данных. Технология уже доступна в формате open-source, а её дополнительные функции будут добавляться в ближайшее время.
Можно подробнее ознакомиться : тут
Технология позволяет симулировать сложные физические явления, генерировать 3D-сцены и даже создавать динамические 4D-миры. С помощью текстового описания можно задавать движения персонажей, роботизированные задачи или создавать детализированные интерьеры.
Представьте, вы пишете текст, например: "Маленькая обезьяна бежит по столу, прыгает в воздух и приземляется с поворотом." Genesis берёт это описание и создаёт полноценную анимацию — с движением камеры, физикой прыжка и всеми деталями.
Или, например, вы пишете: "Робот складывает книги на полке." Платформа интерпретирует это и моделирует, как робот перемещает книги, учитывая их вес и положение.
Genesis понимает текст, превращая его в действия, объекты и сцены с реалистичными физическими свойствами. Это как дать инструкцию виртуальному режиссёру, который сразу воплощает ваши идеи в жизнь.
Ключевые особенности:
1️⃣ Реалистичная симуляция физики с высокой скоростью (до 43 млн FPS).
2️⃣ Генерация видео, аудио и лицевой анимации.
3️⃣Полностью интерактивные 3D-сцены и роботы, адаптируемые к реальному миру.
Genesis открывает новые горизонты для виртуальной реальности, робототехники и визуализации данных. Технология уже доступна в формате open-source, а её дополнительные функции будут добавляться в ближайшее время.
Можно подробнее ознакомиться : тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🌭1🤣1
Forwarded from CG RAVE
Нам в отзывах много написали про невероятную атмосферу на CG RAVE, поэтому мы не можем молчать о том, что логотипы и визуалы созданы @AcidCrunch.
Это место, где органика и искусственное соединяются, создавая гибридных существ и сюрреалистические пейзажи.
Представьте: шерсть, пластик, желе и резина оживают, превращаясь в гипнотические формы. Восторг, лёгкий дискомфорт, и желание рассматривать каждую деталь снова и снова – вот что такое Xen.
Подписывайся на Instagram и Telegram:
- Эксклюзивные арты и новости о мире AI,
- Лайфхаки, которые превратят тебя в мастера нейросетей,
- Скоро в каналах AcidCrunch: темы про то, как AI меняет геймдев и творчество.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5