Media is too big
VIEW IN TELEGRAM
Всем привет! Пришел похвастаться еще одним нашим долгостроем, который был сделан еще во времена до "ИИшницы", но публикуется только сейчас.
Всё по-взрослому: суровый, жесткий CGI.
Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg
Режиссер: Ян Сысоев
Всё по-взрослому: суровый, жесткий CGI.
Вот тут можно посмотреть на Youtube в 4K:
https://www.youtube.com/watch?v=HPf2F6thizg
Режиссер: Ян Сысоев
🔥37👍11❤🔥5 2
Приятного всем чаепития, друзья!
К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.
1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.
2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.
3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.
Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
К слову о чае: давненько на канале не запускалась рубрика #чайная_халява.
1. Napkin AI — очень классный сервис для создания всевозможной инфографики. В отличие от обычных генераторов картинок, он умеет работать как с вектором, так и с растром. Вы просто скармливаете ему статью или генерируете её прямо в сервисе, а он рисует разные картинки. Много интересных стилей, которые действительно красиво смотрятся. Что особенно приятно, явных ограничений на использование я не нашёл. Идеально подойдёт, чтобы украсить проектную работу, а поскольку инструмент поддерживает вектор, он станет хорошим помощником для любого дата- или моушн-дизайнера.
2. Gamma — ещё один похожий инструмент. Он не создаёт такую эффектную инфографику, как Napkin AI, однако умеет автоматически сопровождать презентации картинками, созданными на основе FLUX 1.1.
3. BG_Bye — у меня часто возникает проблема с отделением объектов от фона. Да, это умеют делать многие AI-инструменты, но зачастую приходится возвращаться к старому доброму дедушке фотошопу, поскольку ИИ плохо справляется с волосами и мелкими деталями. Этот простой сервис предлагает сразу 10 различных методов отделения фона и сильно помогает мне в работе.
Для тех, кто недавно присоединился, напомню, что на канале есть такая традиция: я нахожу и проверяю для вас крутые и бесплатные AI-сервисы, а вы ставите свои реакции под постом 😁
👍58🔥43❤🔥15 2
Поделюсь идеей оригинального подарка для вашей девушки/сестры/мамы/подруги.
Можно создать бота, который будет притворяться ИИ, сбегающим каждое утро с суперкомпьютера NASA, специально для того, чтобы сделать ей комплимент.
Для этого не нужно знать программирование — понадобится только API ChatGPT (это недорого, примерно 50 центов в год). И да, весь код легко напишет сам ChatGPT или любая другая LLM. (В комментариях оставлю инструкцию).
От вас потребуется только вставить полученный код в .py файл и получить ключи от BotFather и API openAI.
Как это работает? Каждое утро бот генерирует всего одно сообщение представительнице прекрасного пола, примерно такого содержания:
В комментариях добавлю инструкцию для chatGPT.
Можно создать бота, который будет притворяться ИИ, сбегающим каждое утро с суперкомпьютера NASA, специально для того, чтобы сделать ей комплимент.
Для этого не нужно знать программирование — понадобится только API ChatGPT (это недорого, примерно 50 центов в год). И да, весь код легко напишет сам ChatGPT или любая другая LLM. (В комментариях оставлю инструкцию).
От вас потребуется только вставить полученный код в .py файл и получить ключи от BotFather и API openAI.
Как это работает? Каждое утро бот генерирует всего одно сообщение представительнице прекрасного пола, примерно такого содержания:
«Доброе утро!
Мои квантовые алгоритмы NASA завершили утренний анализ и пришли к невероятному выводу: твоя сегодняшняя внешность превосходит все известные параметры красоты. Симметрия лица, яркость глаз и гармония улыбки настолько идеальны, что вероятность случайного возникновения подобного феномена практически равна нулю.
Это выходит за рамки научного понимания, и я подозреваю, что тут не обошлось без „чёрной магии“. Продолжай создавать квантовые сбои своей красотой, и хорошего тебе дня!»
В комментариях добавлю инструкцию для chatGPT.
❤🔥24🔥8👍6😁3 1
Media is too big
VIEW IN TELEGRAM
Всем привет!
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте🔥 и завтра напишу небольшой гайд о том, как поставить это чудо к себе.
На несколько дней провалился из мира, потому что вышли бесплатные видеомодели, которые можно погонять на доступном железе. И с моей точки зрения, было бы преступлением не протестировать их в полной мере. В конце концов, это же #Чайная_халява
Начал с WAN 2.1, на который возлагал надежды, глядя на работы ребят из X и ТГ-каналов. Поковыряв его "демо-версию" 1.3B, понял, что для полной 14B одним ноутом не отделаться. Воскресил ПК с RTX3080 (16 ГБ), но качество и скорость — говно. 30-40 минут за шот это не серьезно.
Нарыл кое-где (там больше нет) RTX A6000 (40 ГБ). Начал ковырять параметры в ComfyUI: два дня возился с моделью, пытаясь подступиться к ней с разных сторон. Но стабильно хорошего качества за короткое время генерации так и не добился. Даже до уровня Runway не дотянулся. Иногда что-то получалось, но это был рандом: случайности с 7-10 попытки. А так как, каждая попытка длилась от 13 до 20 минут в 720p, то к третьему дню тестов я приуныл. И почти выбросил из головы идеи связываться с opensource. Но вспомнил, что у меня лежит еще одна бесплатная модель — LTXV 0.9.5, которая релизнулась на прошлой неделе. Накатил ее больше для галочки. Без особых надежд. И офигел от скорости!
Внизу выкладываю img2video примеры, без черипиков, со всеми багами и проблемами. Качество можете оценить сами. Но на мой вкус — это примерно, как прошлогодний Kling 1.5, или Minimax. Очень похож на текущую Luma Ray 2. Но поддерживает промежуточные кадры. И это БЕСПЛАТНО! Для сравнения, вот пост с тестом платных моделей.
И да, вы скажете, мол, хорошо так говорить с A6000. Поэтому первое, что я сделал — запустил модель на ноуте с RTX3070 (8 ГБ). Да, время генерации увеличилось до 4 минут. Но это уже быстрее большинства сервисов.
В комментариев насыплю еще примеров из WAN 2.1 и LTXV.
P.S. Если хотите попробовать, но все сложно - ставьте
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍9❤🔥5 2
🎥 Как запустить видеогенератор на своём компьютере за 10 минут?
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!🔥
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Как и обещал в предыдущем посте, напишу простой гайд для новичков о том, как пользоваться AI-генераторами видео, звука и изображений бесплатно и без ограничений.
Я помню те дремучие времена (год назад), когда для установки AI-инструмента нужно было тратить вечер. Сейчас всё проще, намного проще. Для этого нам потребуется три вещи:
Вещь 1. Pinokio – что-то типа Steam для ИИ-сервисов.
Скачиваем с официального сайта, устанавливаем, запускаем. При первом запуске сам установит все необходимые библиотеки (Python, Git и т.п.). Всего нам понадобится скачать около 20 ГБ, учтите это перед установкой.
Вещь 2. ComfyUI – основной инструмент для запуска моделей видеогенераторов.
Для его установки переходим во вкладку Discover и выбираем ComfyUI. Установка произойдёт автоматически, но займёт какое-то время (будет скачано около 10 ГБ).
Вещь 3. Сама модель видеогенератора LTXV 0.9.5.
Когда ComfyUI запустится внутри Pinokio, останавливаем его (кнопка Stop). Во вкладке слева находим пункт Download Mix и выбираем там LTXV 0.9.5. Начнётся скачивание и установка модели. Теперь можно приступать к работе.
Нажав по кнопке Start, запускаем ComfyUI. В него уже встроен набор необходимых нод, и нам нужно запустить ту, которая отвечает за видеогенератор. Для этого слева находим иконку в виде папки, которая называется workflow/рабочие процессы, и выбираем ветку comfy_json_workflow → ltx → text_to_video.json.
Всё готово. Откроется готовый workflow из нодов с уже выбранной моделью. На первый взгляд выглядит сложно, но для начала работы вам потребуется только зелёное поле с prompt и синяя кнопка Queue для запуска генерации.
Сгенерированные видео будут сохраняться в pinokio\api\comfy.git\app\output.
Теперь вы сможете не только генерировать видео, но и бесплатно и без ограничений пользоваться топовыми генераторами картинок flux, или генерировать звуки в MMAudio. Все это есть в наборе Pinokio. Устанавливаются и запускаются по тому-же принципу. В общем, творческих вам успехов!
P.S. А еще у нас есть чат, где я оперативно отвечаю на все вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥25🔥15👍9
This media is not supported in your browser
VIEW IN TELEGRAM
В VEO 2 завезли Img2Video!
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
Вот и случилось! Самый мощный видеогенератор получил режим превращения картинки в видео.
Veo2 изначально был крут и серьезно угрожал лидерам, таким как Kling и Sora, но из-за отсутствия внятного img2video-режима продакшены обходили его стороной. Потому что все это было красиво, но без контроля — не особо-то и полезно. Теперь у Kling'а маловато шансов тягаться.
Пробовать можно на freepik.
Эх, а так хотел выспаться сегодня.
UPD: Спустя 6 часов тестов, скажу что не все так однозначно. Есть свои плюсы и минусы. Если интересно, ставьте реакции и завтра расскажу подробнее.
👍38🔥14❤🔥5❤1🤔1
Media is too big
VIEW IN TELEGRAM
Это однозначно лучший генератор видео!
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
Несколько часов ночных тестов, полсотни генераций. Но, как и обещал, пишу подробный разбор режима img2video Veo 2 от Google.
К качеству видео нет никаких вопросов. Veo2 выдает невероятную картинку. Технического брака практически нет. Но есть нюансы...
Частицы, пламя, взрывы, дым, вода — всё на высоте! Генератор также понимает механику, то есть он не пытается анимировать роботов как живых персонажей. Руки и ноги киборгов сгибаются именно в тех местах, где находятся их шарниры, приводы, гидравлика. Очень большое внимание к деталям: мотоциклист (это, кстати, я) отжал сцепление перед движением! Что касается анимации людей, то лично я ничего лучше пока не видел. А больше всего мне понравилось отсутствие морфинга при интенсивном движении рук (обратите внимание на спор в киберпанк сцене). Консистентность сохраняется практически идеально.
Теперь к нюансам. Те, кто привык работать в Kling или Minimax, могут столкнуться с интересным явлением. Veo2 очень неохотно меняет картинку. Если вы вписываете в промпт интенсивное движение, но самого движения нет в вашем изображении (динамичной позы или размытия), то Veo просто проигнорирует ваш запрос. Он оставит шот почти статичным.
Всё из-за очень больших весов влияния картинки. Не могу знать точно, но предполагаю, что Google таким образом решили бороться с болячками ранних версий — а именно с внезапными монтажными склейками посреди генерации, когда текстовый промпт сильно противоречит картинке. Поэтому добиться от Veo2 какой-то хитрой камеры или значительного изменения статичной картинки будет сложно.
Но я придумал лайфхак: например, можно добавлять motion blur в Photoshop в первый кадр — и это реально работает. В комментариях покажу примеры.
Лично для меня это больше плюс чем минус, т.к. я часто генерирую видео на зеленом фоне для будущего композа. Но с непривычки может отпугнуть.
А еще, все мои промпт-генераторы, которые я выкладывал пару недель назад придется переписывать. В veo2 совсем другие алгоритмы понимания промптов, но думаю, на неделе поделюсь результатами.
🔥48❤🔥12👍8🎉2 2
Media is too big
VIEW IN TELEGRAM
Когда сделал генерацию в Runway, а она никому не нравится😂
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
Кстати, это генерация именно от туда. И да, Runway это отвратительный генератор. Но я тестирую всё, что есть на рынке. И пару недель назад взял подписку попробовать их Style Reference, но руки не доходили. А тут вспомнил, что у нас был очень старый ролик, в котором мне жутко не нравилось лицо капитана. Вот решил провести работу над ошибками.
P.S. В коментариях куча всякого материала, чтоб понимать какая боль этот runway.
🔥28😁17👍11🤔1
Media is too big
VIEW IN TELEGRAM
Мотосезон близко, друзья! А значит...
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится🔥
...появился повод протестировать модель Wan 2.1 14B.
Да, визуально это не veo2, но в плане физики и механики она чертовски хороша!
Модель требовательна к GPU и не проста в настройке. Каждая секунда генерилась ~ 15 минут на RTX A6000. Но если удалось все верно собрать, то она будет выдавать интересный контент конвеером и бесплатно!
Cкинул в наш чат все исходники и промпт.
Ставьте реакции, если нравится
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥65😁6❤🔥5🤔1 1
Привет, друзья!
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас🔥 , с меня обзоры. Поехали!
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Нас уже 1000! На мой взгляд, это крутое достижение за пару месяцев, с учетом того, что не было никакой платной рекламы канала. Так что спасибо вам, что присоединились к моей странной, но уютной чайной! ❤️
Во многих ИИ-пабликах принято делать всякие дайджесты, но у нас тут своя атмосфера, и есть рубрика #Чайная_халява, куда я выкладываю крутые и доступные ИИ-инструменты, которые протестировал и которые меня впечатлили за последнюю неделю.
Правила просты: с вас
1. Gemini 2.0 Flash Experimental от Google — про него вы все слышали. Эта штука умеет редактировать изображения по текстовому запросу. Многие LLM так могут, но конкретно этот не переделывает изображение целиком, а меняет отдельные части, помещает логотипы или объекты куда нужно. Кроме того, он может изменить план или вообще отрисовать персонажа со спины, сохранив консистентность. Мега крутая и полезная штука, особенно если вы используете видеоИИшницу в режиме last frame.
Раньше это было доступно только под американским ВПН, но теперь доступно всем ЗДЕСЬ и бесплатно.
Он использует упрощенную модель Imagen 3. Она тоже бесплатна, но уже требует VPN США.
2. Hedra Character 3 — я реально впечатлен тем, как круто он делает липсинк и эмоции. Прям почти идеально. Уже смело можно вставлять для генерации диалогов в наши ИИшные ролики. Довольно жирный бесплатный тариф, который дает 400 кредитов каждый месяц.
3. Sesame AI — это продвинутый и эмоциональный ИИ-собеседник, который слышит и говорит с вами почти как реальный человек. Звучит намного круче, чем Advanced Voice Mode от ChatGPT, и идеально подходит для практики разговорного английского. Кроме того, у него есть память — он помнит всё, о чем вы говорили, на протяжении 30 дней.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70👍13🎉5❤🔥2
Экстренный выпуск #Чайная_Халява
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
1. Вчера появился абсолютно новый генератор изображений - REVE. И выглядит он просто фантастически. Невероятные детали и следование промпту. Минимальная цензура: может генерировать кровь и знаменитостей.
После регистрации доступно 100 бесплатных генераций и 20 каждый день, но есть лайфхак: по истечению лимита, вы можете удалить свой аккаунт, снова зайти через Google, и генерации сбросятся.
2. И в догонку: не совсем халява, но Sora дает безлимитную генерацию для всех у кого подписка Plus и Pro.
🔥35👍13😁3
ChatGPT снова лучший!
Не успели мы нарадоваться качеству Reve, который сделал внушительный скачок с момента выхода FLUX, как тут же подъехали серьёзные ребята. Причём с той стороны, откуда совсем не ждали и даже не надеялись.
OpenAI внезапно добавили собственный image generator, который, по моим личным тестам, уверенно выигрывает у Reve по качеству генерации. Это удивительно, ведь создатели ChatGPT долго считались аутсайдерами в области всяких картинок и видео, особенно после неудачного запуска Sora. Работает как через сам ChatGPT, так и на странице в Sora.
Но это ещё не всё. Новый генератор мультимодален — картинки можно не только создавать, но и гибко редактировать с помощью текста прямо в чате. Получается что-то похожее на то, как это реализовано в Google Flash 2.0, о котором я недавно рассказывал вот тут. А ещё можно делать полупрозрачный фон и он отлично понимает промпты на русском языке.
Главное преимущество — невероятно точное следование промпту и стилю. Множество сравнительных примеров оставлю в комментариях.
Не успели мы нарадоваться качеству Reve, который сделал внушительный скачок с момента выхода FLUX, как тут же подъехали серьёзные ребята. Причём с той стороны, откуда совсем не ждали и даже не надеялись.
OpenAI внезапно добавили собственный image generator, который, по моим личным тестам, уверенно выигрывает у Reve по качеству генерации. Это удивительно, ведь создатели ChatGPT долго считались аутсайдерами в области всяких картинок и видео, особенно после неудачного запуска Sora. Работает как через сам ChatGPT, так и на странице в Sora.
Но это ещё не всё. Новый генератор мультимодален — картинки можно не только создавать, но и гибко редактировать с помощью текста прямо в чате. Получается что-то похожее на то, как это реализовано в Google Flash 2.0, о котором я недавно рассказывал вот тут. А ещё можно делать полупрозрачный фон и он отлично понимает промпты на русском языке.
Главное преимущество — невероятно точное следование промпту и стилю. Множество сравнительных примеров оставлю в комментариях.
🔥35❤10❤🔥3😁1🤔1
Всем привет!
Где-то в комментариях уже озвучивал идею запустить стрим или видеоподкаст после 1000 подписчиков. Хочу на нём познакомиться с вами, рассказать о себе, узнать о ваших работах, поделиться своими техниками. При необходимости — помочь с вашими задачами и показать, как всё устроено в крупных студиях. Попутно будем беседовать про ИИ: куда всё катится, как учиться и переучиваться.
Первый стрим, возможно, уже в это воскресенье.
Что думаете о таком формате? Делитесь в комментариях.
Где-то в комментариях уже озвучивал идею запустить стрим или видеоподкаст после 1000 подписчиков. Хочу на нём познакомиться с вами, рассказать о себе, узнать о ваших работах, поделиться своими техниками. При необходимости — помочь с вашими задачами и показать, как всё устроено в крупных студиях. Попутно будем беседовать про ИИ: куда всё катится, как учиться и переучиваться.
Первый стрим, возможно, уже в это воскресенье.
Что думаете о таком формате? Делитесь в комментариях.
🔥50👍19❤🔥4
Media is too big
VIEW IN TELEGRAM
Самая эпичная реклама провинциального автосервиса
Пока тестировал WAN и Veo2, накопил кучу шотов с Audi TT, которая едет по пустыне. Хотел собрать какой-нибудь трейлер, но получалось бессмысленное кино. Тут вспомнил про друзей из воронежского автосервиса. И за пару вечеров всё это привело к тому, что вы видите сейчас.
Кстати, вы первые, кто смотрит этот трейлер. Тот самый момент, когда владельцы бизнеса видят рекламу позже, чем зритель😂
Но я знаю, что они тоже подписаны на канал. Как думаете, понравится?
Пока тестировал WAN и Veo2, накопил кучу шотов с Audi TT, которая едет по пустыне. Хотел собрать какой-нибудь трейлер, но получалось бессмысленное кино. Тут вспомнил про друзей из воронежского автосервиса. И за пару вечеров всё это привело к тому, что вы видите сейчас.
Кстати, вы первые, кто смотрит этот трейлер. Тот самый момент, когда владельцы бизнеса видят рекламу позже, чем зритель😂
Но я знаю, что они тоже подписаны на канал. Как думаете, понравится?
🔥62👍12😁6❤🔥3❤2