Заканчиваем (возможно) с AI-видео: что может Grok Imagine от Илона Маска?
Сравнивать Grok с Veo 3 в генерации реалистичных видео нет смысла, т.к., во-первых, разница в качестве весьма серьезная (а скоро должен выйти Veo 3.1, там обещают просто космические технологии), а во-вторых, и в цене разница принципиальная. А вот в аналоги Sora продукт однозначно записать можно.
Так что лучше, Grok или Sora?
Давайте сравнивать.
🎞️ Качество: 6 «живых» секунд
На мой взгляд, с точки зрения мультяшной анимации Grok сильно выигрывает.
Он лучше:
— Читает стиль и не ломает его от кадра к кадру.
— Анимирует детали, оживляя даже мелочи.
— Движения выходят более живыми и естественными.
Но есть и минус: если Sora может генерировать ролики продолжительностью до 15 секунд, то Grok генерирует только 6 (наверняка долго ждать увеличения продолжительности не придется).
При этом ограничение легко обходится генерацией нового ролика с последнего кадра предыдущего. Сгенерировали 6 секунд -> скопировали последний кадр -> начиная с него генерируем новые 6 секунд (так сделан ролик в шапке). Так же нейросети работают не идеально, часто можно встретить артефакты или просто плохо сгенерированное видео. Вероятность появления проблем в 15 секундах в 2.5 раза больше, чем в 6.
Но все же два реальных минуса в ограничении продолжительности есть:
Если нужен ролик с озвучкой – приходится разбивать реплики на короткие куски. В 6 секунд не так много слов можно уместить;
Техника генерации видео с последнего кадра имеет свои ограничения. Нейросеть «не помнит», что вы генерировали в прошлый раз. Следовательно, каждые 6 секунд вы будете получать случайный голос и случайную генерацию деталей, которых нет в кадре. Во втором ролике как раз показал эти нюансы. 6 секунд заканчиваются, когда персонаж стоит спиной к камере. ИИ «не помнит» лица персонажа и придумывает его сама. Если бы ролик сгенерировали сразу на 15 секунд – таких проблем не было бы.
💵 Цена: чуть дороже, но не критично
Минимальная подписка на Grok стоит 30$, подписка от OpenAI – 20$. Не сказать, что разница существенная, но помимо генерации видео мы в обоих случаях получаем еще и генерацию изображений, и языковую модель. По двум последним параметрам OpenAI, на мой взгляд, выигрывает.
⚖️ Авторские права и дипфейки: полная свобода (почти)
В Sora есть неприятные ограничения:
- нельзя генерировать известных персонажей, правообладатели которых запретили это делать;
- запрещено анимировать реальных людей (есть список исключений + можно верифицировать себя через приложение – и тогда ролики с собой можно будет делать).
Если первое ограничение никак не мешает в работе (мы же не будем делать курсы с Человеком-пауком), то второе весьма неприятно.
В Grok таких проблем нет – генерируй все что хочешь.
🎭 Дополнительные фишки: Normal, Fun и... Spicy
Помимо стандартного режима, в котором ты пишешь промпт и получаешь видео, есть еще три дополнительных:
- Normal. Нейросеть анализирует, что изображено на картинке, и пытается придумать адекватный сюжет на 6 секунд. Пользы режима я не понял.
- Fun. Здесь ИИ пытается придумать что-то максимально глупое и смешное. Чаще всего (почти всегда) получается ерунда, но можно подсмотреть интересные идеи по анимации деталей.
- Spicy. Ну, вы понимаете… Другие нейросети отказываются генерировать – а тут отдельный режим. Под «спайси» подразумевается что-то на уровне «Спасателей Малибу».
Прямого применения в e-learning, конечно, нет, но этот факт отлично демонстрирует главное — идеологическую свободу платформы.
(а вот маркетплейсы, наверняка, скоро заполнят толпы «девушек», бегущих по пляжам в замедленном режиме)
Итог
Grok — это не про реализм, а про креатив.
За сравнительно небольшой бюджет он позволяет делать видео, которые цепляют.
Пусть пока 6 секунд, но эти 6 секунд живее, чем 15 у Sora.
Для e-learning — идеальный баланс: быстро, недорого, ярко.
Уже говорил про Veo 3 и Sora 2, пришло время третьего кита американского ИИ-строительства – Grok.
Сравнивать Grok с Veo 3 в генерации реалистичных видео нет смысла, т.к., во-первых, разница в качестве весьма серьезная (а скоро должен выйти Veo 3.1, там обещают просто космические технологии), а во-вторых, и в цене разница принципиальная. А вот в аналоги Sora продукт однозначно записать можно.
Так что лучше, Grok или Sora?
Давайте сравнивать.
🎞️ Качество: 6 «живых» секунд
На мой взгляд, с точки зрения мультяшной анимации Grok сильно выигрывает.
Он лучше:
— Читает стиль и не ломает его от кадра к кадру.
— Анимирует детали, оживляя даже мелочи.
— Движения выходят более живыми и естественными.
Но есть и минус: если Sora может генерировать ролики продолжительностью до 15 секунд, то Grok генерирует только 6 (наверняка долго ждать увеличения продолжительности не придется).
При этом ограничение легко обходится генерацией нового ролика с последнего кадра предыдущего. Сгенерировали 6 секунд -> скопировали последний кадр -> начиная с него генерируем новые 6 секунд (так сделан ролик в шапке). Так же нейросети работают не идеально, часто можно встретить артефакты или просто плохо сгенерированное видео. Вероятность появления проблем в 15 секундах в 2.5 раза больше, чем в 6.
Но все же два реальных минуса в ограничении продолжительности есть:
Если нужен ролик с озвучкой – приходится разбивать реплики на короткие куски. В 6 секунд не так много слов можно уместить;
Техника генерации видео с последнего кадра имеет свои ограничения. Нейросеть «не помнит», что вы генерировали в прошлый раз. Следовательно, каждые 6 секунд вы будете получать случайный голос и случайную генерацию деталей, которых нет в кадре. Во втором ролике как раз показал эти нюансы. 6 секунд заканчиваются, когда персонаж стоит спиной к камере. ИИ «не помнит» лица персонажа и придумывает его сама. Если бы ролик сгенерировали сразу на 15 секунд – таких проблем не было бы.
💵 Цена: чуть дороже, но не критично
Минимальная подписка на Grok стоит 30$, подписка от OpenAI – 20$. Не сказать, что разница существенная, но помимо генерации видео мы в обоих случаях получаем еще и генерацию изображений, и языковую модель. По двум последним параметрам OpenAI, на мой взгляд, выигрывает.
⚖️ Авторские права и дипфейки: полная свобода (почти)
В Sora есть неприятные ограничения:
- нельзя генерировать известных персонажей, правообладатели которых запретили это делать;
- запрещено анимировать реальных людей (есть список исключений + можно верифицировать себя через приложение – и тогда ролики с собой можно будет делать).
Если первое ограничение никак не мешает в работе (мы же не будем делать курсы с Человеком-пауком), то второе весьма неприятно.
В Grok таких проблем нет – генерируй все что хочешь.
🎭 Дополнительные фишки: Normal, Fun и... Spicy
Помимо стандартного режима, в котором ты пишешь промпт и получаешь видео, есть еще три дополнительных:
- Normal. Нейросеть анализирует, что изображено на картинке, и пытается придумать адекватный сюжет на 6 секунд. Пользы режима я не понял.
- Fun. Здесь ИИ пытается придумать что-то максимально глупое и смешное. Чаще всего (почти всегда) получается ерунда, но можно подсмотреть интересные идеи по анимации деталей.
- Spicy. Ну, вы понимаете… Другие нейросети отказываются генерировать – а тут отдельный режим. Под «спайси» подразумевается что-то на уровне «Спасателей Малибу».
Прямого применения в e-learning, конечно, нет, но этот факт отлично демонстрирует главное — идеологическую свободу платформы.
(а вот маркетплейсы, наверняка, скоро заполнят толпы «девушек», бегущих по пляжам в замедленном режиме)
Итог
Grok — это не про реализм, а про креатив.
За сравнительно небольшой бюджет он позволяет делать видео, которые цепляют.
Пусть пока 6 секунд, но эти 6 секунд живее, чем 15 у Sora.
Для e-learning — идеальный баланс: быстро, недорого, ярко.
👍11❤3🔥3
История о «среднем пилоте»
В конце 1940-х годов ВВС США столкнулись с тревожной чередой авиапроисшествий, часто без очевидных технических или человеческих ошибок. Изначально инженеры проектировали кабины самолетов по усредненным данным пилотов, полученным в 1926 году, полагая, что это обеспечит удобство для большинства.
Задачи по обновлению этих данных и решению проблемы поручили молодому лейтенанту и антропологу Гилберту Дэниэлсу. Имея опыт работы, он скептически относился к концепции «среднего» человека.
Дэниэлс проанализировал 10 ключевых параметров тела у 4000+ пилотов, определив «средний» диапазон для каждого параметра. Результат: ни один из тысяч обследованных пилотов не уложился в средний диапазон по всем 10 параметрам одновременно. Даже при анализе всего трех произвольных параметров менее 3,5% лётчиков оказывались «средними».
Это открытие доказало: «среднего пилота» не существует. Кабины, спроектированные под несуществующий усредненный стандарт, на деле не подходили никому, создавая дискомфорт и повышая риск ошибки.
Решением стало принципиальное изменение подхода к проектированию — внедрение регулируемых сидений, педалей и других элементов управления, чтобы каждый пилот мог настроить кабину под себя.
История демонстрирует фундаментальную ошибку, когда «среднее» ошибочно принимается за «нормальное» или «идеальное». Открытие Дэниэлса положило начало переходу от проектирования для «среднего» пользователя к созданию адаптируемых систем, учитывающих индивидуальные различия.
Однако задумаемся: пилоты молчали о неудобствах? Скорее всего, нет (а если и да – кто мешал просто с ними поговорить и спросить?). Они наверняка жаловались, но их словам не придали значения, потому что они противоречили «объективным» усредненным данным (да и вообще знаем мы этих пилотов, все им не так и не то). Проблема была не в отсутствии обратной связи, а в нежелании ее услышать.
Таким образом, история учит нас еще более фундаментальной вещи: необходимо активно и непредвзято разговаривать с теми, для кого мы создаем продукты, системы или рабочие процессы. Часто самое простое решение лежит на поверхности — стоит лишь спросить у сотрудника, что ему мешает.
Про e-learning
Как не существует «среднего пилота», так и «среднего ученика» зачастую тоже нет — и это норма.
Как и пилоты, все ученики имеют разный опыт, бэкграунд, скорость восприятия, стиль обучения, мотивацию и жизненные обстоятельства.
Нельзя создавать один универсальный курс для всех. Опасно полагаться на «усредненные» данные и ожидать, что один формат (например, длинные видео-лекции) подойдет каждому.
Тут опять про ИИ, прошу прощения
Конечно, нам никто не запрещал и раньше упаковывать один материал в несколько разных форматов, чтобы учащийся сам мог выбрать максимально комфортный и подходящий для себя подход, но времени на это не было. Сейчас, как показывает опыт Google, ИИ вполне способен на перевод учебного материала в разные форматы без потери качества.
В конце 1940-х годов ВВС США столкнулись с тревожной чередой авиапроисшествий, часто без очевидных технических или человеческих ошибок. Изначально инженеры проектировали кабины самолетов по усредненным данным пилотов, полученным в 1926 году, полагая, что это обеспечит удобство для большинства.
Задачи по обновлению этих данных и решению проблемы поручили молодому лейтенанту и антропологу Гилберту Дэниэлсу. Имея опыт работы, он скептически относился к концепции «среднего» человека.
Дэниэлс проанализировал 10 ключевых параметров тела у 4000+ пилотов, определив «средний» диапазон для каждого параметра. Результат: ни один из тысяч обследованных пилотов не уложился в средний диапазон по всем 10 параметрам одновременно. Даже при анализе всего трех произвольных параметров менее 3,5% лётчиков оказывались «средними».
Это открытие доказало: «среднего пилота» не существует. Кабины, спроектированные под несуществующий усредненный стандарт, на деле не подходили никому, создавая дискомфорт и повышая риск ошибки.
Решением стало принципиальное изменение подхода к проектированию — внедрение регулируемых сидений, педалей и других элементов управления, чтобы каждый пилот мог настроить кабину под себя.
История демонстрирует фундаментальную ошибку, когда «среднее» ошибочно принимается за «нормальное» или «идеальное». Открытие Дэниэлса положило начало переходу от проектирования для «среднего» пользователя к созданию адаптируемых систем, учитывающих индивидуальные различия.
Однако задумаемся: пилоты молчали о неудобствах? Скорее всего, нет (а если и да – кто мешал просто с ними поговорить и спросить?). Они наверняка жаловались, но их словам не придали значения, потому что они противоречили «объективным» усредненным данным (да и вообще знаем мы этих пилотов, все им не так и не то). Проблема была не в отсутствии обратной связи, а в нежелании ее услышать.
Таким образом, история учит нас еще более фундаментальной вещи: необходимо активно и непредвзято разговаривать с теми, для кого мы создаем продукты, системы или рабочие процессы. Часто самое простое решение лежит на поверхности — стоит лишь спросить у сотрудника, что ему мешает.
Про e-learning
Как не существует «среднего пилота», так и «среднего ученика» зачастую тоже нет — и это норма.
Как и пилоты, все ученики имеют разный опыт, бэкграунд, скорость восприятия, стиль обучения, мотивацию и жизненные обстоятельства.
Нельзя создавать один универсальный курс для всех. Опасно полагаться на «усредненные» данные и ожидать, что один формат (например, длинные видео-лекции) подойдет каждому.
Тут опять про ИИ, прошу прощения
Конечно, нам никто не запрещал и раньше упаковывать один материал в несколько разных форматов, чтобы учащийся сам мог выбрать максимально комфортный и подходящий для себя подход, но времени на это не было. Сейчас, как показывает опыт Google, ИИ вполне способен на перевод учебного материала в разные форматы без потери качества.
👍8❤4🎉3
NotebookLM от Google: новые форматы взаимодействия с учеником
Продолжая историю о «среднем пилоте» из прошлого поста...
(да, прошлый пост был подводкой к этому)
Мы выяснили, что проектирование кабины под «усредненные» параметры было ошибкой. Гениальным решением стали не новые, еще более точные замеры, а регулируемые элементы управления, позволившие каждому пилоту настроить пространство под себя.
Тот же принцип применим и к обучению. Нельзя заставить всех «пилотов-учеников» одинаково удобно сидеть в одном кресле. Кому-то для усвоения курса нужен «текстовый» режим, кому-то — «видео-приборная доска», а кому-то — «аудио-связь» с инструктором (все, заканчиваю с поверхностными метафорами). Задача современного e-learning — не найти «идеальный» формат, а предоставить эти регулируемые элементы — выбор, чтобы каждый мог настроить образовательную среду под свой стиль восприятия.
Вот как раз в возможности этой настройки может помочь NotebookLM.
Суть продукта в том, что по твоим материалам (например, файл в PDF или просто ссылка на лендинг) он может пересобрать твой контент в другие форматы: подкаст, видеообъяснение с презентацией или аудиоурок. Также поможет сделать карточки, mindmap и тестовые вопросы. И все эти материалы можно скачать и интегрировать в свой курс. Не хочешь читать лендинг? — послушай подкаст, где спикеры обсуждают тему. Подкаст затянутый? — послушай озвученный лендинг. Лучше запоминаешь информацию зрительно? — вот тебе видео со слайдами.
Что очень важно — ИИ не выдумывает (практически), а строго опирается на твои материалы. Да, где-то может не совсем корректно расставить акценты, но контент получается годным для обучения.
С технической стороны — тоже все нормально. Да, бывает, что не туда ставит ударения или говорит с акцентом, да, качество презентаций оставляет желать лучшего — их можно оценить на «удовлетворительно». Но это бесплатно и не нужно прикладывать усилия (конечно, прослушать подкаст в любом случае необходимо до того, как выкладывать в паблик).
Итого: практически не увеличивая time-to-market, мы можем выпустить продукт в нескольких форм-факторах (лендинг, подкаст, аудиоурок и видео-лекция с презентацией). У нас будет «витринный образец», который мы собрали руками и который мы предлагаем пройти ученикам «по дефолту», а если такой формат ну уж совсем не подходит — без проблем, слушай свой подкаст.
А если к этому добавить еще и ИИ-ассистента внутри курса, который будет отвечать на вопросы ученика, объяснять непонятные места и помогать пройти материал — получится почти идеальная настройка «под себя».
Форматы + адаптация + «живая поддержка» — вот где e-learning перестает быть про «один курс для всех» и становится системой с регулировками, как в самолете.
Прикрепил к посту пример ИИ-подкаста по прошлому посту про «средних пилотов» (в комментариях), пример ИИ-видео-урока по своему первому кейсу с диалоговым ИИ-тренажером, карточки и тест, сгенерированные в NotebookLM.
Продолжая историю о «среднем пилоте» из прошлого поста...
(да, прошлый пост был подводкой к этому)
Мы выяснили, что проектирование кабины под «усредненные» параметры было ошибкой. Гениальным решением стали не новые, еще более точные замеры, а регулируемые элементы управления, позволившие каждому пилоту настроить пространство под себя.
Тот же принцип применим и к обучению. Нельзя заставить всех «пилотов-учеников» одинаково удобно сидеть в одном кресле. Кому-то для усвоения курса нужен «текстовый» режим, кому-то — «видео-приборная доска», а кому-то — «аудио-связь» с инструктором (все, заканчиваю с поверхностными метафорами). Задача современного e-learning — не найти «идеальный» формат, а предоставить эти регулируемые элементы — выбор, чтобы каждый мог настроить образовательную среду под свой стиль восприятия.
Вот как раз в возможности этой настройки может помочь NotebookLM.
Суть продукта в том, что по твоим материалам (например, файл в PDF или просто ссылка на лендинг) он может пересобрать твой контент в другие форматы: подкаст, видеообъяснение с презентацией или аудиоурок. Также поможет сделать карточки, mindmap и тестовые вопросы. И все эти материалы можно скачать и интегрировать в свой курс. Не хочешь читать лендинг? — послушай подкаст, где спикеры обсуждают тему. Подкаст затянутый? — послушай озвученный лендинг. Лучше запоминаешь информацию зрительно? — вот тебе видео со слайдами.
Что очень важно — ИИ не выдумывает (практически), а строго опирается на твои материалы. Да, где-то может не совсем корректно расставить акценты, но контент получается годным для обучения.
С технической стороны — тоже все нормально. Да, бывает, что не туда ставит ударения или говорит с акцентом, да, качество презентаций оставляет желать лучшего — их можно оценить на «удовлетворительно». Но это бесплатно и не нужно прикладывать усилия (конечно, прослушать подкаст в любом случае необходимо до того, как выкладывать в паблик).
Итого: практически не увеличивая time-to-market, мы можем выпустить продукт в нескольких форм-факторах (лендинг, подкаст, аудиоурок и видео-лекция с презентацией). У нас будет «витринный образец», который мы собрали руками и который мы предлагаем пройти ученикам «по дефолту», а если такой формат ну уж совсем не подходит — без проблем, слушай свой подкаст.
А если к этому добавить еще и ИИ-ассистента внутри курса, который будет отвечать на вопросы ученика, объяснять непонятные места и помогать пройти материал — получится почти идеальная настройка «под себя».
Форматы + адаптация + «живая поддержка» — вот где e-learning перестает быть про «один курс для всех» и становится системой с регулировками, как в самолете.
👍11🔥5👏1
Media is too big
VIEW IN TELEGRAM
🎬 Интерактивные видео – из роскоши в повседневность
Формат интерактивного видео — не новость, ему десятки лет. Но в e-learning он долго оставался почти недоступным. Почему?
Техника
Нужна камера с хорошим качеством, свет, звук, несколько ракурсов. Просто «снять на телефон» — значит получить видео, которое никто смотреть не будет.
Навыки
Без оператора и базовых навыков продакшена — провал.
Актеры
Главная проблема. Внутри компании нет профессиональных актеров. А если посадить «обычного человека» играть роль — получается неловко и неубедительно (в лучшем случае).
Правки
Актеров и локации уже не собрать обратно. Что-то изменилось в процедурах – тренажер идет в мусор.
Итого – большой бюджет
Для полноценной интерактивной сцены нужны актеры, оператор, звук, монтажер, сценарист — умножаем на количество развилок сюжета. Получается дорого даже для одного кейса, не говоря уже о масштабировании.
Теперь все изменилось благодаря ИИ
Сгенерировал нужные сцены, собрал в курс – и готово.
Time-to-market и затраты на разработку сопоставимы с разработкой обычного диалогового тренажера (правки, конечно, вносить будет намного неприятнее).
Да, ИИ не идеален:
— иногда появляются артефакты,
— ударения могут «жить своей жизнью»,
— не каждый сценарий он «потянет».
Но все это решается итерациями — и точно дешевле, чем съемочная площадка.
И, справедливости ради, ИИ-актеры отыгрывают намного лучше, чем актеры второсортных сериалов с ТВ. Так что – не очень-то и плохо получается.
Если раньше интерактивное видео было мечтой методолога, то теперь — это просто новая строка в ToDo: «сделать симулятор разговора с клиентом».
Формат интерактивного видео — не новость, ему десятки лет. Но в e-learning он долго оставался почти недоступным. Почему?
Первые интерактивные видео появились ещё в 80-х. Легендарный пример — игра Dragon’s Lair (1983). Там игрок управлял рыцарем Дирком, который пытался спасти принцессу. Видео было заранее нарисовано, а игрок в нужный момент выбирал действие — нажал не туда или не вовремя — и герой погибал. Это был один из первых опытов, когда зритель не просто смотрел, а влиял на развитие сюжета.
Техника
Нужна камера с хорошим качеством, свет, звук, несколько ракурсов. Просто «снять на телефон» — значит получить видео, которое никто смотреть не будет.
Навыки
Без оператора и базовых навыков продакшена — провал.
Актеры
Главная проблема. Внутри компании нет профессиональных актеров. А если посадить «обычного человека» играть роль — получается неловко и неубедительно (в лучшем случае).
Правки
Актеров и локации уже не собрать обратно. Что-то изменилось в процедурах – тренажер идет в мусор.
Итого – большой бюджет
Для полноценной интерактивной сцены нужны актеры, оператор, звук, монтажер, сценарист — умножаем на количество развилок сюжета. Получается дорого даже для одного кейса, не говоря уже о масштабировании.
Теперь все изменилось благодаря ИИ
Сгенерировал нужные сцены, собрал в курс – и готово.
Time-to-market и затраты на разработку сопоставимы с разработкой обычного диалогового тренажера (правки, конечно, вносить будет намного неприятнее).
Да, ИИ не идеален:
— иногда появляются артефакты,
— ударения могут «жить своей жизнью»,
— не каждый сценарий он «потянет».
Но все это решается итерациями — и точно дешевле, чем съемочная площадка.
И, справедливости ради, ИИ-актеры отыгрывают намного лучше, чем актеры второсортных сериалов с ТВ. Так что – не очень-то и плохо получается.
Если раньше интерактивное видео было мечтой методолога, то теперь — это просто новая строка в ToDo: «сделать симулятор разговора с клиентом».
🔥11👍6🥴3❤2
Новый Gemini 3 Pro от Google с инструментом для вайбкодинга Antigravity
Google уже лучшие в текстах, лучшие в генерации изображений, лучшие в видео — а теперь, похоже, становятся лучшими и в вайбкодинге.
За последнее время компания представила новую языковую модель Gemini 3 Pro и инструмент Antigravity — удобный интерфейс для работы с кодом, который ощущается как новый стандарт.
Чем он так хорош?
1. Просто отлично пишет код.
2. Работает с огромным контекстом, удерживая логику даже масштабных проектов.
3. Очень быстрая работа — субъективно раз в 10 быстрее DeepSeek.
4. Полноценная среда разработки:
– проверяет собственный код
– исправляет ошибки
– позволяет откатываться к предыдущим версиям
5. Советует фичи и варианты реализации (скриншот в шапке).
6. Демонстрирует и тестирует результат прямо в браузере.
7. Генерирует не только код, но и изображения (включая вектор) — можно собирать дизайн сразу.
Пример
- короткое ТЗ
- 393 секунды работы модели
- 3 итерации (я просто захотел добавить блок с кодом)*
*Google добавил его за 40 секунд, Артикулейту потребовалось 7 лет 😄
За 5 минут получился рабочий конструктор (модные ИИ-фишки с генерацией текста, конечно, есть).
Конечно, это не конкурент полноценным конструкторам курсов (если не считать встроенные в ЛМС — с некоторыми он уже может потягаться).
Блоков мало, верстка простая. Багов не нашёл (но они наверняка есть — ИИ, как-никак).
Но главное: за несколько минут можно собрать рабочий курс, назначить его сотрудникам и получить результат.
Фантастика.
———
Google Antigravity с Gemini 3 Pro — это мощный инструмент для быстрого прототипирования и проверки идей.
Идеален, когда нужно быстро проверить гипотезу или даже собрать рабочий MVP, не дожидаясь очереди у разработчиков.
Google уже лучшие в текстах, лучшие в генерации изображений, лучшие в видео — а теперь, похоже, становятся лучшими и в вайбкодинге.
За последнее время компания представила новую языковую модель Gemini 3 Pro и инструмент Antigravity — удобный интерфейс для работы с кодом, который ощущается как новый стандарт.
Чем он так хорош?
1. Просто отлично пишет код.
2. Работает с огромным контекстом, удерживая логику даже масштабных проектов.
3. Очень быстрая работа — субъективно раз в 10 быстрее DeepSeek.
4. Полноценная среда разработки:
– проверяет собственный код
– исправляет ошибки
– позволяет откатываться к предыдущим версиям
5. Советует фичи и варианты реализации (скриншот в шапке).
6. Демонстрирует и тестирует результат прямо в браузере.
7. Генерирует не только код, но и изображения (включая вектор) — можно собирать дизайн сразу.
Пример
В видео в шапке — разработанный конструктор лонгридов.
- короткое ТЗ
- 393 секунды работы модели
- 3 итерации (я просто захотел добавить блок с кодом)*
*Google добавил его за 40 секунд, Артикулейту потребовалось 7 лет 😄
За 5 минут получился рабочий конструктор (модные ИИ-фишки с генерацией текста, конечно, есть).
Конечно, это не конкурент полноценным конструкторам курсов (если не считать встроенные в ЛМС — с некоторыми он уже может потягаться).
Блоков мало, верстка простая. Багов не нашёл (но они наверняка есть — ИИ, как-никак).
Но главное: за несколько минут можно собрать рабочий курс, назначить его сотрудникам и получить результат.
Фантастика.
———
Google Antigravity с Gemini 3 Pro — это мощный инструмент для быстрого прототипирования и проверки идей.
Идеален, когда нужно быстро проверить гипотезу или даже собрать рабочий MVP, не дожидаясь очереди у разработчиков.
🔥14👍5❤2
Продолжаем тему вайбкодинга от Google
Чем больше пользуюсь новым инструментом для вайбкодинга от Google, тем больше думаю, что ТОП-1 навык для изучения в 2026 году (скоро же Новый год, пора строить планы, которым не суждено сбыться) – backend-разработка*.
*конечно, если мы говорим про цифровые профессии
Наверняка у всех бывало такое, что нужен сервис с каким-то простым функционалом, вариантов на рынке много (в том числе и бесплатные), а именно того, что нужно тебе, нет. Мне очень понравилась интеграция майндмепов в учебные материалы в проекте Google Learn Your Way (писал о нем тут, очень классная штука).
Прошел курс, а потом быстро, в интерактивном формате повторил основные тезисы + увидел зависимости и структуру – очень удобно.
Нужно и в свои курсы такое интегрировать!
Какие есть варианты?
1. Можно собирать майндмепы руками по шаблону.
Такой вариант даже не рассматриваем. Фишка классная, но 2Х time-to-market она не стоит.
2. Можно каждый раз вайбкодить интерактивный майндмеп.
Вариант рабочий, но это долго, регулярно вылезают баги, а внесение правок очень утомительно.
3. Можно посмотреть решения на рынке – но варианта, который подходит на 100%, не нашел (логично, необходимость добавлять майндмепы в курсы не сказать, что у каждого второго регулярно возникает).
Теперь есть и четвертый вариант – навайбкодить такой конструктор, который удовлетворяет именно твоим (в данном случае моим 😄) потребностям:
1. С определенными требованиями к дизайну (желательно в виде пресетов палитр, чтобы каждый раз не выставлять цвета).
2. С возможностью сохранения/загрузки готовых карт для внесения последующих правок.
3. С ИИ-функционалом (зачем мне с нуля делать всю карту, если я могу скинуть в ИИ сценарий курса, он нарисует, а я потом просто подправлю).
4. С выгрузкой итогового продукта в html одним файлом, чтобы без проблем можно было вставить в конструктор курсов или Тильду.
5. Еще желательно к описанию добавлять картинки, т.к. не все можно рассказать словами.
На разработку варианта из видео ушло чуть больше 20 минут и 3 итерации (были путаницы с версткой + решил добавить пару мелких функций).
Конечно, нужно еще немного попользоваться, подправить несколько мелочей, но по факту это уже готовый продукт, который подходит лично мне намного больше, чем любой вариант на рынке (напомню про 20 минут разработки, поиск готовых решений занял намного больше времени). Круто же? ОЧЕНЬ КРУТО! (и бесплатно).
Так и зачем знания в backend, если Google сам все пишет?
- Чтобы писать точное ТЗ (без понимания того, что происходит «под капотом», ИИ будет писать код не так, как тебе нужно, а так, как он хочет).
- Чтобы верхнеуровнево проверять/править код.
- Чтобы в итоге это развернуть на своем сервере.
Генерация кода — это часть пути. Потом все это нужно запустить, настроить, возможно, прикрутить базу данных и т.д. С этим справится только тот, кто понимает, как все работает.
- Чтобы знать, что спросить у ИИ.
ИИ знает все, но не умеет читать мысли и не знает твоих пробелов в знаниях. Чтобы получить умный ответ – нужно задать умный вопрос.
А у вас были ситуации, когда готовый софт вас на 100% не устраивал? Когда хотелось взять и допилить/переделать какую-то фичу под себя?
Чем больше пользуюсь новым инструментом для вайбкодинга от Google, тем больше думаю, что ТОП-1 навык для изучения в 2026 году (скоро же Новый год, пора строить планы, которым не суждено сбыться) – backend-разработка*.
*конечно, если мы говорим про цифровые профессии
Наверняка у всех бывало такое, что нужен сервис с каким-то простым функционалом, вариантов на рынке много (в том числе и бесплатные), а именно того, что нужно тебе, нет. Мне очень понравилась интеграция майндмепов в учебные материалы в проекте Google Learn Your Way (писал о нем тут, очень классная штука).
Прошел курс, а потом быстро, в интерактивном формате повторил основные тезисы + увидел зависимости и структуру – очень удобно.
Нужно и в свои курсы такое интегрировать!
Какие есть варианты?
1. Можно собирать майндмепы руками по шаблону.
Такой вариант даже не рассматриваем. Фишка классная, но 2Х time-to-market она не стоит.
2. Можно каждый раз вайбкодить интерактивный майндмеп.
Вариант рабочий, но это долго, регулярно вылезают баги, а внесение правок очень утомительно.
3. Можно посмотреть решения на рынке – но варианта, который подходит на 100%, не нашел (логично, необходимость добавлять майндмепы в курсы не сказать, что у каждого второго регулярно возникает).
Теперь есть и четвертый вариант – навайбкодить такой конструктор, который удовлетворяет именно твоим (в данном случае моим 😄) потребностям:
1. С определенными требованиями к дизайну (желательно в виде пресетов палитр, чтобы каждый раз не выставлять цвета).
2. С возможностью сохранения/загрузки готовых карт для внесения последующих правок.
3. С ИИ-функционалом (зачем мне с нуля делать всю карту, если я могу скинуть в ИИ сценарий курса, он нарисует, а я потом просто подправлю).
4. С выгрузкой итогового продукта в html одним файлом, чтобы без проблем можно было вставить в конструктор курсов или Тильду.
5. Еще желательно к описанию добавлять картинки, т.к. не все можно рассказать словами.
По факту, ТЗ для ИИ было чуть больше, чем описанные выше «хотелки».
На разработку варианта из видео ушло чуть больше 20 минут и 3 итерации (были путаницы с версткой + решил добавить пару мелких функций).
Конечно, нужно еще немного попользоваться, подправить несколько мелочей, но по факту это уже готовый продукт, который подходит лично мне намного больше, чем любой вариант на рынке (напомню про 20 минут разработки, поиск готовых решений занял намного больше времени). Круто же? ОЧЕНЬ КРУТО! (и бесплатно).
Так и зачем знания в backend, если Google сам все пишет?
- Чтобы писать точное ТЗ (без понимания того, что происходит «под капотом», ИИ будет писать код не так, как тебе нужно, а так, как он хочет).
- Чтобы верхнеуровнево проверять/править код.
- Чтобы в итоге это развернуть на своем сервере.
Генерация кода — это часть пути. Потом все это нужно запустить, настроить, возможно, прикрутить базу данных и т.д. С этим справится только тот, кто понимает, как все работает.
- Чтобы знать, что спросить у ИИ.
ИИ знает все, но не умеет читать мысли и не знает твоих пробелов в знаниях. Чтобы получить умный ответ – нужно задать умный вопрос.
Создавать для себя идеальный софт, где каждая кнопка и функция — именно там, где ты их задумал, — это новый уровень digital-свободы. ИИ стирает барьер сложности, но оставляет (и даже усиливает) всю радость от созидания.
А у вас были ситуации, когда готовый софт вас на 100% не устраивал? Когда хотелось взять и допилить/переделать какую-то фичу под себя?
🔥8❤6👍2
Пост 3-в-1: Новые возможности NotebookLM от Google, human-in-the-loop, инструменты взаимодействия с ИИ и почему все это я смешал в одну кучу.
Human-in-the-Loop (Человек в петле) — это когда ИИ работает не один, а в паре с человеком. Это как автопилот в самолете: он отлично справляется с полетом по маршруту, но пилот всегда следит за ним, а взлет и посадку — самые сложные и ответственные этапы — выполняет вручную.
Почему это так важно? Потому что полностью автоматизированные ИИ-системы часто дают сбой, становясь причиной курьезов и ошибок. А вот системы с «человеком внутри» дают отличные результаты:
• Вайбкодинг в стартапах — помогает выпустить первую версию продукта в разы быстрее.
• Разработка курсов — ИИ переформулирует текст, генерирует примеры и картинки, а человек выверяет смысл и корректирует.
• Да и еще много всего…
Причина — контроль. ИИ не может гарантировать идеальный результат, а человек — может (в каком-то смысле 😄). Чем больше контроля, тем качественнее и предсказуемее итог.
Яркий пример, где контроль мог бы сделать продукт сильнее — обновленный Google NotebookLM. Теперь он может создавать презентации и инфографику из ваших материалов. Работает хорошо, но недостаточно. Инфографика красивая, «залипательная», но с ошибками и не везде понятная (а разве не в этом ее основная задача?😊).
Результат работы — это статичный PDF или картинка, которые не так просто и удобно редактировать.
Вот именно здесь и проявляется идея «человека в петле».
Представьте, если бы:
1. Презентации генерировались сразу в редактируемом PowerPoint/Google Slides.
2. В инфографике можно было бы кликнуть и поменять любой текст или элемент.
Это был бы не просто шаг вперед — это был бы переход в другой класс продуктов: от ИИ-генератора финальных версий к ИИ-партнеру для совместного творчества.
А теперь — главная мысль, ради которой я все это смешал в одну кучу.
Сейчас главный фокус у ИИ-гигантов — это гонка за мощностью моделей (конечно, упрощаю). Новые версии выпускают каждые полгода, и это, конечно, круто. Но есть проблема: с каждым релизом разница в качестве становится все менее заметной для обычного пользователя. Мы приближаемся к потолку, где «еще более умный» не всегда значит «еще более полезный».
А вот где скрыт колоссальный, почти нетронутый потенциал — так это в инструментах взаимодействия.
Представьте:
• Редактировать только часть изображения, как в том же Photoshop.
• Выбирать четкую цветовую палитру одним кликом, как в Recraft.
• Перегенерировать только фрагмент видео или изолированно звук и липсинк, а не делать все заново (такого, вроде, еще нет).
Это пока эксперименты, а не стандарт.
Такие инструменты дадут не просто «лучшую картинку», а принципиально новый уровень контроля и творчества. Они превратят ИИ из черного ящика, который «выплевывает» результат, в настоящую мастерскую, где вы — главный.
Итог: Будущее — не только за более мощными моделями, но и за интерфейсами, которые по-настоящему впустят «человека в петлю». Лучшие ИИ-проекты не заменяют нас, а усиливают, оставляя за нами последнее слово и право на легкую правку. Потому что финальное качество рождается на стыке возможностей машины и нашего здравого смысла.
Human-in-the-Loop (Человек в петле) — это когда ИИ работает не один, а в паре с человеком. Это как автопилот в самолете: он отлично справляется с полетом по маршруту, но пилот всегда следит за ним, а взлет и посадку — самые сложные и ответственные этапы — выполняет вручную.
По мере развития ИИ эта «петля» становится умнее. В идеале система сама понимает, когда ей нужна помощь (например, при распознавании опасности/мошенничества или принятии сложного решения), и приглашает человека в процесс.
Почему это так важно? Потому что полностью автоматизированные ИИ-системы часто дают сбой, становясь причиной курьезов и ошибок. А вот системы с «человеком внутри» дают отличные результаты:
• Вайбкодинг в стартапах — помогает выпустить первую версию продукта в разы быстрее.
• Разработка курсов — ИИ переформулирует текст, генерирует примеры и картинки, а человек выверяет смысл и корректирует.
• Да и еще много всего…
Причина — контроль. ИИ не может гарантировать идеальный результат, а человек — может (в каком-то смысле 😄). Чем больше контроля, тем качественнее и предсказуемее итог.
Яркий пример, где контроль мог бы сделать продукт сильнее — обновленный Google NotebookLM. Теперь он может создавать презентации и инфографику из ваших материалов. Работает хорошо, но недостаточно. Инфографика красивая, «залипательная», но с ошибками и не везде понятная (а разве не в этом ее основная задача?😊).
Результат работы — это статичный PDF или картинка, которые не так просто и удобно редактировать.
Вот именно здесь и проявляется идея «человека в петле».
Представьте, если бы:
1. Презентации генерировались сразу в редактируемом PowerPoint/Google Slides.
2. В инфографике можно было бы кликнуть и поменять любой текст или элемент.
Это был бы не просто шаг вперед — это был бы переход в другой класс продуктов: от ИИ-генератора финальных версий к ИИ-партнеру для совместного творчества.
А теперь — главная мысль, ради которой я все это смешал в одну кучу.
Сейчас главный фокус у ИИ-гигантов — это гонка за мощностью моделей (конечно, упрощаю). Новые версии выпускают каждые полгода, и это, конечно, круто. Но есть проблема: с каждым релизом разница в качестве становится все менее заметной для обычного пользователя. Мы приближаемся к потолку, где «еще более умный» не всегда значит «еще более полезный».
А вот где скрыт колоссальный, почти нетронутый потенциал — так это в инструментах взаимодействия.
Представьте:
• Редактировать только часть изображения, как в том же Photoshop.
• Выбирать четкую цветовую палитру одним кликом, как в Recraft.
• Перегенерировать только фрагмент видео или изолированно звук и липсинк, а не делать все заново (такого, вроде, еще нет).
Конечно, единичные инструменты контроля уже появляются. Но они находятся в зачаточном состоянии (как в примерах выше) и, что ключевое, их почти нет в арсенале крупных игроков, задающих тренд.
Это пока эксперименты, а не стандарт.
Такие инструменты дадут не просто «лучшую картинку», а принципиально новый уровень контроля и творчества. Они превратят ИИ из черного ящика, который «выплевывает» результат, в настоящую мастерскую, где вы — главный.
Итог: Будущее — не только за более мощными моделями, но и за интерфейсами, которые по-настоящему впустят «человека в петлю». Лучшие ИИ-проекты не заменяют нас, а усиливают, оставляя за нами последнее слово и право на легкую правку. Потому что финальное качество рождается на стыке возможностей машины и нашего здравого смысла.
🔥9❤4👍4💯2
Вайбкодинг для симуляторов ПО
Собрать «стандартный» симулятор софта в привычных конструкторах несложно: наделал скриншотов, раскидал по слайдам, добавил кнопки-триггеры. Если заморочиться, можно прикрутить интерактив: слайдеры, галочки, поиск, и.т.д.
Но проблема в том, что такой подход почти не дает импакта (эффекта погружения).
Пользователь не чувствует, что работает в реальном ПО. У него сохраняется стойкое ощущение, что он просто кликает по картинкам. Интерактивность условная, опыт — «плоский».
Разработка полноценного демо-ПО — это обычно дорого, долго, а интерфейсы постоянно меняются — не угонишься.
Вайбкодинг решает эту проблему.
Механика простая: загружаешь* скриншоты разных окон в LLM, просишь «сделай как на картинке» — и ИИ делает 😄.
*не забываем про требования ИБ и персональные данные
Да, ИИ не идеально копирует иконки и некоторые UI элементы с первого раза (хотя очень близко), но это решается парой итераций и прямой подгрузкой иконок. Главное — интерфейс «живой», поля заполняются, кнопки реагируют.
Что важно понимать:
1. Это не кнопка «сделать все»
ИИ нужно объяснить, что код пойдет в LMS (и что он там должен работать😄), и прописать саму логику учебных сценариев.
2. Вопрос трудозатрат
Если вам нужно сделать простой линейный тренажер на 10 экранов, Time-to-Market у вайбкодинга будет сильно выше (это дольше, чем накидать скрины в конструктор). Но если речь о десятке сложных, больших сценариев — разница во времени стирается.
Зато результат — на голову выше. Такой продукт воспринимается реалистичнее, вовлекает сильнее, а значит, и перенос навыка в реальную работу происходит намного проще.
Собрать «стандартный» симулятор софта в привычных конструкторах несложно: наделал скриншотов, раскидал по слайдам, добавил кнопки-триггеры. Если заморочиться, можно прикрутить интерактив: слайдеры, галочки, поиск, и.т.д.
Но проблема в том, что такой подход почти не дает импакта (эффекта погружения).
Пользователь не чувствует, что работает в реальном ПО. У него сохраняется стойкое ощущение, что он просто кликает по картинкам. Интерактивность условная, опыт — «плоский».
Разработка полноценного демо-ПО — это обычно дорого, долго, а интерфейсы постоянно меняются — не угонишься.
Вайбкодинг решает эту проблему.
Механика простая: загружаешь* скриншоты разных окон в LLM, просишь «сделай как на картинке» — и ИИ делает 😄.
*не забываем про требования ИБ и персональные данные
Для примера я сделал симулятор amoCRM (видео и исходный скрин прилагаю).
Да, ИИ не идеально копирует иконки и некоторые UI элементы с первого раза (хотя очень близко), но это решается парой итераций и прямой подгрузкой иконок. Главное — интерфейс «живой», поля заполняются, кнопки реагируют.
Что важно понимать:
1. Это не кнопка «сделать все»
ИИ нужно объяснить, что код пойдет в LMS (и что он там должен работать😄), и прописать саму логику учебных сценариев.
2. Вопрос трудозатрат
Если вам нужно сделать простой линейный тренажер на 10 экранов, Time-to-Market у вайбкодинга будет сильно выше (это дольше, чем накидать скрины в конструктор). Но если речь о десятке сложных, больших сценариев — разница во времени стирается.
Зато результат — на голову выше. Такой продукт воспринимается реалистичнее, вовлекает сильнее, а значит, и перенос навыка в реальную работу происходит намного проще.
👍13🔥8❤2
Media is too big
VIEW IN TELEGRAM
Праздник к нам приходит... с помощью ИИ 🎅✨
В этом году Coca-Cola выпустила свою традиционную новогоднюю рекламу, полностью сгенерированную нейросетями — и она великолепна.
Конец декабря — время, когда многие готовят поздравления для команд. Если вы хотите сделать ИИ-видео, но не знаете, с чего начать, вот мой краткий гайд.
1. В чем генерируем видео?
Мой фаворит — Grok.
Он бесплатный и создает весьма неплохие шестисекундные ролики (в РФ, естественно, не работает, но, я думаю, вы знаете, что делать).
О нем и других инструментах (Veo, Sora) я уже писал на канале ранее.
2. Где брать исходный материал?
Генерация «текст-в-видео» — это лотерея. Чтобы управлять результатом, лучше идти по схеме «картинка-в-видео».
• Генерируем первый кадр (Chat GPT, Midjourney или Gemini).
• Если нужно — правим в редакторе.
• Загружаем кадр в Grok и описываем движения и слова (если нужны).
3. Если нужно больше 6 секунд?
Grok генерирует 6 секунд, Veo способна на 10 (но чем длиннее видео — тем больше в нем будет «косяков»). Если нужно больше — просто потребуется несколько генераций и склейка.
• Сделали первые 6 секунд, сохранили результат.
• Копируем последний кадр видео.
Это можно сделать, например, через QuickTime. Досмотрели видео до конца, нажимаем ctrl/cmd + С.
• Вставляем кадр в генератор видео и описываем следующие 6 секунд.
4. Как быть с озвучкой?
Если персонажи в видео будут говорить – нужно резать реплики на небольшие куски, чтобы персонаж успел проговорить их за 6 секунд. Генерация русского языка пока отработана не на 100%, так что лучше пишите слова так, как они слышатся. Грамматика только мешает.
5. Если я хочу, чтобы в кадре появилось что-то определенное (например, логотип или новый персонаж)?
Разберем на примере первой сцены, с ноутбуком. Сгенерировать сцену, на которой у нас появится логотип (надпись на русском/что-то еще, с очень четкими критериями) – практически невозможно. Но мы можем сгенерировать картинку с открытым ноутбуком, у которого на экране все, что нужно, закрыть его в видео, а потом просто сделать реверс.
В первой сцене был сгенерирован средний кадр. Из него была сделана сцена с реверсом, и потом сцена с горящими огоньками.
6. Ну и потом все склеиваем?
Ну и потом все склеиваем. Если не нужен сложный монтаж – подойдет любое ПО.
Итог:
Создавать такие видео — отдельное праздничное удовольствие 🎅🎄
✨✨✨✨
До Нового года осталась всего неделя🍾
Желаю спокойно завершить дела, с теплом подвести итоги и встретить 2026 год с ощущением волшебства, как в хорошей праздничной рекламе. С наступающим! ✨
В этом году Coca-Cola выпустила свою традиционную новогоднюю рекламу, полностью сгенерированную нейросетями — и она великолепна.
Конец декабря — время, когда многие готовят поздравления для команд. Если вы хотите сделать ИИ-видео, но не знаете, с чего начать, вот мой краткий гайд.
1. В чем генерируем видео?
Мой фаворит — Grok.
Он бесплатный и создает весьма неплохие шестисекундные ролики (в РФ, естественно, не работает, но, я думаю, вы знаете, что делать).
О нем и других инструментах (Veo, Sora) я уже писал на канале ранее.
2. Где брать исходный материал?
Генерация «текст-в-видео» — это лотерея. Чтобы управлять результатом, лучше идти по схеме «картинка-в-видео».
• Генерируем первый кадр (Chat GPT, Midjourney или Gemini).
• Если нужно — правим в редакторе.
• Загружаем кадр в Grok и описываем движения и слова (если нужны).
3. Если нужно больше 6 секунд?
Grok генерирует 6 секунд, Veo способна на 10 (но чем длиннее видео — тем больше в нем будет «косяков»). Если нужно больше — просто потребуется несколько генераций и склейка.
• Сделали первые 6 секунд, сохранили результат.
• Копируем последний кадр видео.
Это можно сделать, например, через QuickTime. Досмотрели видео до конца, нажимаем ctrl/cmd + С.
• Вставляем кадр в генератор видео и описываем следующие 6 секунд.
4. Как быть с озвучкой?
Если персонажи в видео будут говорить – нужно резать реплики на небольшие куски, чтобы персонаж успел проговорить их за 6 секунд. Генерация русского языка пока отработана не на 100%, так что лучше пишите слова так, как они слышатся. Грамматика только мешает.
5. Если я хочу, чтобы в кадре появилось что-то определенное (например, логотип или новый персонаж)?
Разберем на примере первой сцены, с ноутбуком. Сгенерировать сцену, на которой у нас появится логотип (надпись на русском/что-то еще, с очень четкими критериями) – практически невозможно. Но мы можем сгенерировать картинку с открытым ноутбуком, у которого на экране все, что нужно, закрыть его в видео, а потом просто сделать реверс.
В первой сцене был сгенерирован средний кадр. Из него была сделана сцена с реверсом, и потом сцена с горящими огоньками.
6. Ну и потом все склеиваем?
Ну и потом все склеиваем. Если не нужен сложный монтаж – подойдет любое ПО.
Для e-learning задач мне больше всего нравится Final Cut Pro. Очень простой в освоении, весь необходимый базовый функционал есть + куча шаблонов и макетов. Единственный минус – он есть только на Mac.
Это видео монтировал в Adobe Premier Pro. Его не рекомендую (другого софта не было под рукой) – большая сложная софтина с самолетными панелями, где вообще все находится в неочевидных местах (так исторически сложилось). Для профи – классная штука, для T-shaped специалистов избыточно сложно.
Итог:
Создавать такие видео — отдельное праздничное удовольствие 🎅
✨✨✨✨
До Нового года осталась всего неделя
Желаю спокойно завершить дела, с теплом подвести итоги и встретить 2026 год с ощущением волшебства, как в хорошей праздничной рекламе. С наступающим! ✨
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍6🎉4