Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Лайфаки Runway Gen-4 #2 Предоставь референсы : поза марионетки + местоположение + персонаж. Дай на них ссылки программе + добавь описание : Поза из @img_1 Персонаж из @img_2 Сцена и композиция из @img_3 А Runway точно воспроизведёт нужную композицию!…
🚀 Лайфаки Runway Gen-4 #2 — Лучшая нейросеть для Txt2Img с передачей лиц
Пока Midjourney возится с улучшением Omni-Ref, Runway Gen-4 уже из коробки делает лиц максимально похожими на референсы 😎
📥 Понимает текст почти как GPT-4o, но с упрощённой модерацией — и самое главное: реально узнаваемые лица по фоткам.
Скоро покажу, как с ней можно "общаться через картинки" — да, прямо диалогами.
Что нужно:
📍Локация + 🎽Одежда + 👤Персонаж → всё это просто пишешь в промте и даёшь ссылки на рефы — и модель всё собирает.
❗️Минусы: картинка простовата, ракурсы скучноваты.
Но есть лайфхаки, как сделать круче:
💬 Если что-то не понял — пиши “+” в комменты, сделаю инструкцию в картинках в Figma.
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
Пока Midjourney возится с улучшением Omni-Ref, Runway Gen-4 уже из коробки делает лиц максимально похожими на референсы 😎
📥 Понимает текст почти как GPT-4o, но с упрощённой модерацией — и самое главное: реально узнаваемые лица по фоткам.
Скоро покажу, как с ней можно "общаться через картинки" — да, прямо диалогами.
Что нужно:
📍Локация + 🎽Одежда + 👤Персонаж → всё это просто пишешь в промте и даёшь ссылки на рефы — и модель всё собирает.
❗️Минусы: картинка простовата, ракурсы скучноваты.
Но есть лайфхаки, как сделать круче:
1. Сначала генерируешь нужную сцену в Runway.
2. Берёшь получившуюся картинку и кидаешь в Midjourney (Omni-Ref), дописываешь свой промт.
3. Если работаешь с персонажем — закрась лицо на изображении чёрным квадратом, чтобы оно не мешалось с рефами в Runway.
4. Снова закидываешь картинку в Runway уже вместе с рефами — и получаешь результат с эстетикой Midjourney, но с узнаваемыми лицами.
💬 Если что-то не понял — пиши “+” в комменты, сделаю инструкцию в картинках в Figma.
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Показали: https://chatgpt.com/codex (пока не открывается, сначала будет доступно для Pro и Enterprise аккаунтов) – Codex, новый продукт, что-то вроде АИ-коллеги-разработчика, который сразу ходит в репозиторий (в Github например) и правит код там – Codex1…
This media is not supported in your browser
VIEW IN TELEGRAM
Когда все новые функции у ChatGPT Pro 🤡
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Gen-4 References теперь доступна через API
This media is not supported in your browser
VIEW IN TELEGRAM
Они так же показали возможности запуска своих сервисов с использованием их API
Как пример примерка причёсок
Если у тебя есть подписка можешь установить себе эту прогу и вставив свой ключ API примерять )))
Как пример примерка причёсок
Если у тебя есть подписка можешь установить себе эту прогу и вставив свой ключ API примерять )))
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
🚀 Лайфаки Runway Gen-4 #2 — Лучшая нейросеть для Txt2Img с передачей лиц Пока Midjourney возится с улучшением Omni-Ref, Runway Gen-4 уже из коробки делает лиц максимально похожими на референсы 😎 📥 Понимает текст почти как GPT-4o, но с упрощённой модерацией…
🚀 Лайфхаки Runway Gen-4 #3
LLM в Gen-4 реально считывает твой контекст — ты можешь писать в свободной форме, на русском, без строгой структуры. Не бойся ошибиться в пунктуации — главное, чтобы мысль была ясной.
📌 Просто опиши, что хочешь увидеть, и приложи референсы через @ — нейросеть всё поймёт.
🧪 В примере ниже я загрузил картинку с уровнением и просто поросил дать мне ответ.
Gen-4 выдала результат, идеально считывая идею — это доказывает, что она реально понимает контекст и человеческую речь за рамками визуала референсов.
🎯 Вывод:
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
LLM в Gen-4 реально считывает твой контекст — ты можешь писать в свободной форме, на русском, без строгой структуры. Не бойся ошибиться в пунктуации — главное, чтобы мысль была ясной.
📌 Просто опиши, что хочешь увидеть, и приложи референсы через @ — нейросеть всё поймёт.
🧪 В примере ниже я загрузил картинку с уровнением и просто поросил дать мне ответ.
Gen-4 выдала результат, идеально считывая идею — это доказывает, что она реально понимает контекст и человеческую речь за рамками визуала референсов.
🎯 Вывод:
• Забудь про строгие промты — говори с моделью, как с человеком.
• Используй референсы не только как визуал, но и как доп контекст
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Неочевидный способ апскейла в Midjourney Делал как-то презентацию с отсылкой к автору книги Virtual Body Language. Захотел вставить его портрет — нормальный, чёткий, с проработанными деталями. А в интернете только старые фото 320 на 320. Всё, что качается…
🚀 Лайфхаки Runway Gen-4 #4
А ещё у нас появился новый, суперпростой способ апскейлинга изображения — настолько простой, что даже смешно!
Просто загружаешь одну и ту же картинку плохого качества три раза подряд в референсы — и получаешь апскейл до FullHD со всеми деталями.
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
А ещё у нас появился новый, суперпростой способ апскейлинга изображения — настолько простой, что даже смешно!
Просто загружаешь одну и ту же картинку плохого качества три раза подряд в референсы — и получаешь апскейл до FullHD со всеми деталями.
👇 Подпишись, сохрани и кидай друзьям
#hints #runwayml | AcidCrunch
❤1⚡1
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
🚀 Лайфхаки Runway Gen-4 #4 А ещё у нас появился новый, суперпростой способ апскейлинга изображения — настолько простой, что даже смешно! Просто загружаешь одну и ту же картинку плохого качества три раза подряд в референсы — и получаешь апскейл до FullHD со…
Умеет работать с умеренной эротикой, можно одеть девушку XD
Внутренний цензор залочит:
1. Сильно откровенный контент на вход
2. Если вдруг решишь обмануть поставить зеркало уронить полотенце итд так же проверит на выходе.
Внутренний цензор залочит:
1. Сильно откровенный контент на вход
2. Если вдруг решишь обмануть поставить зеркало уронить полотенце итд так же проверит на выходе.
🤔1
Figma-хак объединяем объекты в одну картинку через Figma EDIT
Сегодня проверил гипотезу: склеить два фото в одно PNG, кинуть в Edit image и попросить ИИ поменять героя. Работает!
💡 Как повторить за 60 сек:
Прикольно работает и с мокапами/иконками, если их тоже склеить в PNG.
Пока Figma не дала «multi-image reference», этот костыль спасает. И это бесплатно)
Если что то придумаете с таким workflow присылайте идеи и готовые решения в комменты
👇 Подпишись, сохрани и кидай друзьям
#hints #figma | AcidCrunch
Сегодня проверил гипотезу: склеить два фото в одно PNG, кинуть в Edit image и попросить ИИ поменять героя. Работает!
💡 Как повторить за 60 сек:
1️⃣ Брось два портрета на холст, выровняй.2️⃣ Ctrl + Shift + C → копия сразу как единый PNG.3️⃣ Вставь обратно (Ctrl + V) — получишь слой Combined.png.4️⃣ Shift + E → «Edit image», пиши промт что хочешь объединить. В моём случае было: "Замени персонажа справа на персонажа слева, фон и ракурс как справа"5️⃣ Нажми Generate
Прикольно работает и с мокапами/иконками, если их тоже склеить в PNG.
Пока Figma не дала «multi-image reference», этот костыль спасает. И это бесплатно)
Если что то придумаете с таким workflow присылайте идеи и готовые решения в комменты
👇 Подпишись, сохрани и кидай друзьям
#hints #figma | AcidCrunch
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Figma-хак объединяем объекты в одну картинку через Figma EDIT Сегодня проверил гипотезу: склеить два фото в одно PNG, кинуть в Edit image и попросить ИИ поменять героя. Работает! 💡 Как повторить за 60 сек: 1️⃣ Брось два портрета на холст, выровняй. 2️⃣ Ctrl…
Ещё пример)
❤5
🎭 Midjourney v7 чувствует язык — буквально.
Решил протестировать, как влияет язык промпта на визуальный вайб. Взял один и тот же текст:
"мужчина идёт по рынку в центре города" — и просто перевёл его. Всё. Без стилей, без уточнений.
Результат — будто три разных фильма.
📷 1. Русский промпт — мрачный, суровый, пыльный кадр. Чёрно-белое, будто хроника. Герой — будто из Тарковского.
📷 2. Японский промпт — мягкий свет, утренний город, кинематографично и молчаливо. Всё в эмоции, даже без слов.
📷 3. Итальянский промпт — портретное, живое, почти уличная мода. Цвета, взгляд, текстура — всё о человеке и городе.
Промт на русском:
🎯 Неочевидный, но мощный приём: выбирай язык — и получай нужное настроение.
Не нужно перегружать описание, v7 сам подтянет культурный контекст.
Иногда, чтобы картинка «говорила», достаточно просто сменить язык.
👇 Подпишись, сохрани и кидай друзьям
#hints #midjourney | AcidCrunch
Решил протестировать, как влияет язык промпта на визуальный вайб. Взял один и тот же текст:
"мужчина идёт по рынку в центре города" — и просто перевёл его. Всё. Без стилей, без уточнений.
Результат — будто три разных фильма.
📷 1. Русский промпт — мрачный, суровый, пыльный кадр. Чёрно-белое, будто хроника. Герой — будто из Тарковского.
📷 2. Японский промпт — мягкий свет, утренний город, кинематографично и молчаливо. Всё в эмоции, даже без слов.
📷 3. Итальянский промпт — портретное, живое, почти уличная мода. Цвета, взгляд, текстура — всё о человеке и городе.
Промт на русском:
Фотография мужчины в старинной одежде идущего медленно по многолюдному рынку вокруг него суетятся люди за прилавками он одинок на фоне движущейся толпы атмосфера будничной торговли мягкое равномерное освещение подчёркивает его силуэт
🎯 Неочевидный, но мощный приём: выбирай язык — и получай нужное настроение.
Не нужно перегружать описание, v7 сам подтянет культурный контекст.
Иногда, чтобы картинка «говорила», достаточно просто сменить язык.
👇 Подпишись, сохрани и кидай друзьям
#hints #midjourney | AcidCrunch
🔥8❤2🤯2
Сегодня один кореш-диз скинул, что моя статья, оказывается, на первом месте в выдаче Яндекса.
Для меня это стало неожиданным открытием :) Никогда особо не тусил на VC.ru, но пушит он приятно! Там, кстати, более развёрнутые гайды — если интересно, залетай. Не уверен, что буду вести его регулярно — это скорее эксперимент, т.к. телега до 500 подписчиков каналы в поиске не показывает 🤡
Для меня это стало неожиданным открытием :) Никогда особо не тусил на VC.ru, но пушит он приятно! Там, кстати, более развёрнутые гайды — если интересно, залетай. Не уверен, что буду вести его регулярно — это скорее эксперимент, т.к. телега до 500 подписчиков каналы в поиске не показывает 🤡
🔥4💅3
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Хо-хо-хо вышла Veo 3 и чёт прям очень хорошо)
Помимо видео, сервис также генерирует звук — вплоть до полноценного диалогового озвучивания. Все ролики в этом посте созданы исключительно на Veo 3
Модель Veo 3 сейчас доступна частным пользователям только по подписке на новый премиальный план Google — AI Ultra в Flow ai $249.99 в месяц
+подробности
Для бизнеса модель Veo 3 интегрируется в облачную платформу Google Cloud Vertex AI тут по ценам не знаю, но думаю будет ещё дороже чем Veo 2 (50 центов в секунду)
👇 Подпишись, сохрани и кидай друзьям
#ainews #veo3 | AcidCrunch
Помимо видео, сервис также генерирует звук — вплоть до полноценного диалогового озвучивания. Все ролики в этом посте созданы исключительно на Veo 3
Модель Veo 3 сейчас доступна частным пользователям только по подписке на новый премиальный план Google — AI Ultra в Flow ai $249.99 в месяц
+подробности
Для бизнеса модель Veo 3 интегрируется в облачную платформу Google Cloud Vertex AI тут по ценам не знаю, но думаю будет ещё дороже чем Veo 2 (50 центов в секунду)
👇 Подпишись, сохрани и кидай друзьям
#ainews #veo3 | AcidCrunch
🤯5❤🔥1