Учебники скучные? Google придумал, как их оживить
Learn Your Way — новый инструмент от Google для учителей школ, который преобразует обычные учебники (например, в формате PDF) в интерактивные и (совсем немного) персонализированные учебные материалы. Разумеется, все это делает ИИ (ну а куда уж без него?).
Как это работает?
1. Загружаем в сервис главу учебника, по которой хотим составить урок.
2. Выбираем параметры для персонализации:
• Возраст ученика (класс)
Выбор влияет на язык повествования: чем младше школьник – тем проще язык.
• Интересы ученика
Некоторые темы/блоки/определения будут объясняться, основываясь на интересах ученика.
Например, эволюцию человека дополнительно объясняют на примере эволюции теннисного спорта.
3. Готово. У нас есть электронный курс.
Звучит весьма обычно на сегодняшний день, в чем фишка?
1. Урок собирается сразу в 3 форматах:
• Интерактивный лендинг
E-learning специалиста тут, скорее всего, не удивишь. Текст, картинки, примеры с иллюстрациями, вопросы на понимание блоков. Но есть и интересные механики: тесты в конце каждой главы, в них при неправильном ответе можно попросить подсказку, а потом еще посмотреть «области роста в тексте» (однозначно опробую на практике обе фишки).
• Слайды и повествование
Здесь материал подается в виде слайдов с озвучкой. Как будто смотришь вебинар.
Важно! Это не тот же лендинг, просто озвученный и упакованный в слайды. Методология полностью пересобрана под другой формат: другие задания, упражнения, другой стиль повествования.
• Аудиоурок
И нет, это не просто убрали «слайды» из «слайдов и повествования». Здесь несколько действующих лиц, которые общаются между собой и ведут интересную беседу.
Итого: 3 формата – 3 разные методологии. Очень классный подход.
2) К каждому уроку собирается MindMap.
Удобный инструмент для структурирования информации в голове, школьнику легче «разложить все по полочкам», выделить главное и запомнить визуальную картину урока. А еще он интерактивный, можно «потыкать» блоки карты, что способствует вовлечению.
3) Самое главное – все сделано качественно.
ИИшка четко следует загруженному материалу, при этом делает его более структурированным, добавляет релевантные примеры и немного подстраивает материал под ученика.
Иными словами, ИИ не пишет урок с нуля и не выдумывает учебные материалы, а просто улучшает существующие: адаптирует под возраст и интересы, делает более интерактивными и дает возможность учиться так, как удобно/нравится школьнику.
Какие результаты?
Для тестирования инструмента Google взяла 60 учащихся в возрасте от 15 до 18 лет и разделила их на две группы. Одним дали 40 минут на чтение учебника, вторым дали интерактивный курс, основанный на материалах учебника.
Ребята, занимающиеся по электронному курсу, набрали на 9% больше баллов в тестировании после курса и на 11% больше баллов в повторном тестировании, которое проводилось через 3-5 дней после изучения материала.
Сами школьники оценили интерактивные материалы более высоко, чем электронные учебники (ну кто бы сомневался).
Исследование Google доказывает, что дело не только в содержании, но и в форме. Персонализация и адаптация формата под ученика — даже на базовом уровне — дают реальное улучшение результатов. Это шаг от образования «для всех одинакового» к образованию, которое (немного) учитывает индивидуальность.
Вот ТУТ можно посмотреть примеры уроков.
ЗДЕСЬ подробнее о исследовании.
Learn Your Way — новый инструмент от Google для учителей школ, который преобразует обычные учебники (например, в формате PDF) в интерактивные и (совсем немного) персонализированные учебные материалы. Разумеется, все это делает ИИ (ну а куда уж без него?).
Как это работает?
1. Загружаем в сервис главу учебника, по которой хотим составить урок.
2. Выбираем параметры для персонализации:
• Возраст ученика (класс)
Выбор влияет на язык повествования: чем младше школьник – тем проще язык.
• Интересы ученика
Некоторые темы/блоки/определения будут объясняться, основываясь на интересах ученика.
Например, эволюцию человека дополнительно объясняют на примере эволюции теннисного спорта.
3. Готово. У нас есть электронный курс.
Звучит весьма обычно на сегодняшний день, в чем фишка?
1. Урок собирается сразу в 3 форматах:
• Интерактивный лендинг
E-learning специалиста тут, скорее всего, не удивишь. Текст, картинки, примеры с иллюстрациями, вопросы на понимание блоков. Но есть и интересные механики: тесты в конце каждой главы, в них при неправильном ответе можно попросить подсказку, а потом еще посмотреть «области роста в тексте» (однозначно опробую на практике обе фишки).
• Слайды и повествование
Здесь материал подается в виде слайдов с озвучкой. Как будто смотришь вебинар.
Важно! Это не тот же лендинг, просто озвученный и упакованный в слайды. Методология полностью пересобрана под другой формат: другие задания, упражнения, другой стиль повествования.
• Аудиоурок
И нет, это не просто убрали «слайды» из «слайдов и повествования». Здесь несколько действующих лиц, которые общаются между собой и ведут интересную беседу.
Итого: 3 формата – 3 разные методологии. Очень классный подход.
2) К каждому уроку собирается MindMap.
Удобный инструмент для структурирования информации в голове, школьнику легче «разложить все по полочкам», выделить главное и запомнить визуальную картину урока. А еще он интерактивный, можно «потыкать» блоки карты, что способствует вовлечению.
3) Самое главное – все сделано качественно.
ИИшка четко следует загруженному материалу, при этом делает его более структурированным, добавляет релевантные примеры и немного подстраивает материал под ученика.
Иными словами, ИИ не пишет урок с нуля и не выдумывает учебные материалы, а просто улучшает существующие: адаптирует под возраст и интересы, делает более интерактивными и дает возможность учиться так, как удобно/нравится школьнику.
Какие результаты?
Для тестирования инструмента Google взяла 60 учащихся в возрасте от 15 до 18 лет и разделила их на две группы. Одним дали 40 минут на чтение учебника, вторым дали интерактивный курс, основанный на материалах учебника.
Ребята, занимающиеся по электронному курсу, набрали на 9% больше баллов в тестировании после курса и на 11% больше баллов в повторном тестировании, которое проводилось через 3-5 дней после изучения материала.
Сами школьники оценили интерактивные материалы более высоко, чем электронные учебники (ну кто бы сомневался).
Исследование Google доказывает, что дело не только в содержании, но и в форме. Персонализация и адаптация формата под ученика — даже на базовом уровне — дают реальное улучшение результатов. Это шаг от образования «для всех одинакового» к образованию, которое (немного) учитывает индивидуальность.
Вот ТУТ можно посмотреть примеры уроков.
ЗДЕСЬ подробнее о исследовании.
👍12❤4🔥4
Media is too big
VIEW IN TELEGRAM
Диалоговые тренажеры с ИИ: от первого MVP к комплексной симуляции
2,5 года назад мы создали наш первый MVP диалогового тренажера с ИИ в Articulate Storyline. Тогда сотрудник в роли продавца подбирал тарифы мобильной связи, а в конце получал обратную связь от «глупой» по современным меркам GPT-3.5. Результат был сырым, но очень показательным. Подробный (даже с перебором) разбор того пилотного проекта можно посмотреть ТУТ.
Новый демо-проект, использует современные модели и подходы, выводя идею на новый уровень.
Что сделали сейчас?
Это демонстрационный кейс для банковской сферы (все данные клиентов, банк и ПО вымышлены). Его цель — показать, на что уже способны диалоговые тренажеры с ИИ.
Ключевые фишки проекта:
1. Полный цикл работы оператора.
Сотрудник колл-центра не просто общается, а выполняет задачи в симуляции «реального» банковского ПО. Он проверяет счета, блокирует и перевыпускает карты, сбрасывает пароли, и.т.д. — все как в реальности.
2. Живой голосовой диалог.
Взаимодействие с клиентом происходит голосом. ИИ не просто генерирует текст, а проговаривает его, реагируя на слова и вектор беседы оператора.
3. Взаимосвязь действий и диалога.
Это самая интересная часть системы. При необходимости, можно настроить изменение диалога и поведения клиента в зависимости от совершенных в системе действий, например:
- Если оператор в ПО отправляет клиенту SMS-уведомление, ИИ-клиент его «получает» и тут же упоминает в разговоре.
- Ошибка в проведенной операции (например, ошибочная блокировка карты) сразу меняет контекст беседы: клиент расстраивается, реагирует с недовольством или задает уточняющие вопросы.
- Конечно, возможны и более сложные сценарии, когда клиент «перезванивает через неделю» и продолжает диалог (например, чтобы наглядно продемонстрировать к чему привели ошибки в разговоре, или просто как продолжение сложного.
4. Комплексная оценка.
Система может фиксировать и оценивать не только то, что сказал оператор, но и что он сделал в интерфейсе, и насколько слаженно прошли оба эти процесса.
За счет такого подхода процесс становится максимально иммерсивыным и позволяет не только получать знания, но и формировать умения, при этом в безопасной среде и без стресса для сотрудника (особенно для новичка).
Что под капотом?
В основе лежат технологии OpenAI: современная языковая модель, преобразование речи в текст и обратно.
Готовый тренажер, при необходимости, упаковывается в SCORM и загружается в любую LMS (статистика передается в LMS точно так же, как в обычном курсе).
(тему о том, что для сложных data-driven проектов будущего нужен xAPI, а не SCORM, оставим на потом)
Сколько это стоит?
Ценообразование в таких проектах — тема отдельного большого разговора.
Если коротко: цена одного диалога зависит от используемых моделей ИИ, его длительности и объема контекстных инструкций для ИИ-персонажа. Чем «умнее» модель, дольше разговор и больше контекст – тем дороже.
В этом конкретном демо-кейсе один диалог обходится примерно в 5 рублей.
Если готовы к небольшим компромиссам – можно снизить цену в 2-3 раза, но все зависит от кейса.
Такой подход создает уникальный гибридный формат обучения. Он находится ровно посередине между стандартным SCORM-курсом, который дает знания, и дорогостоящим тренингом с живым тренером, который дает практику.
Тренажер не заменяет полноценного наставника, но создает безопасную и максимально приближенную к реальности среду, где можно без риска совершать ошибки, отрабатывать сложные сценарии и формировать устойчивые умения, сочетающие в себе и коммуникацию, и работу с цифровыми инструментами.
-----
Это вымышленный кейс.
А о том, как ИИ реально помогает развивать тысячи сотрудников, расскажет руководитель центра по развитию персонала региональной сети и федеральных площадок ПАО «МегаФон» Татьяна Гуськова на конференции Digital Learning 2025!
Когда: 20 ноября 2025 года
Где: Москва, гостиница Аэростар
P.S. Я тоже приеду! Буду рад пообщаться со всеми лично.
2,5 года назад мы создали наш первый MVP диалогового тренажера с ИИ в Articulate Storyline. Тогда сотрудник в роли продавца подбирал тарифы мобильной связи, а в конце получал обратную связь от «глупой» по современным меркам GPT-3.5. Результат был сырым, но очень показательным. Подробный (даже с перебором) разбор того пилотного проекта можно посмотреть ТУТ.
Новый демо-проект, использует современные модели и подходы, выводя идею на новый уровень.
Что сделали сейчас?
Это демонстрационный кейс для банковской сферы (все данные клиентов, банк и ПО вымышлены). Его цель — показать, на что уже способны диалоговые тренажеры с ИИ.
Ключевые фишки проекта:
1. Полный цикл работы оператора.
Сотрудник колл-центра не просто общается, а выполняет задачи в симуляции «реального» банковского ПО. Он проверяет счета, блокирует и перевыпускает карты, сбрасывает пароли, и.т.д. — все как в реальности.
2. Живой голосовой диалог.
Взаимодействие с клиентом происходит голосом. ИИ не просто генерирует текст, а проговаривает его, реагируя на слова и вектор беседы оператора.
3. Взаимосвязь действий и диалога.
Это самая интересная часть системы. При необходимости, можно настроить изменение диалога и поведения клиента в зависимости от совершенных в системе действий, например:
- Если оператор в ПО отправляет клиенту SMS-уведомление, ИИ-клиент его «получает» и тут же упоминает в разговоре.
- Ошибка в проведенной операции (например, ошибочная блокировка карты) сразу меняет контекст беседы: клиент расстраивается, реагирует с недовольством или задает уточняющие вопросы.
- Конечно, возможны и более сложные сценарии, когда клиент «перезванивает через неделю» и продолжает диалог (например, чтобы наглядно продемонстрировать к чему привели ошибки в разговоре, или просто как продолжение сложного.
4. Комплексная оценка.
Система может фиксировать и оценивать не только то, что сказал оператор, но и что он сделал в интерфейсе, и насколько слаженно прошли оба эти процесса.
За счет такого подхода процесс становится максимально иммерсивыным и позволяет не только получать знания, но и формировать умения, при этом в безопасной среде и без стресса для сотрудника (особенно для новичка).
Что под капотом?
В основе лежат технологии OpenAI: современная языковая модель, преобразование речи в текст и обратно.
Готовый тренажер, при необходимости, упаковывается в SCORM и загружается в любую LMS (статистика передается в LMS точно так же, как в обычном курсе).
(тему о том, что для сложных data-driven проектов будущего нужен xAPI, а не SCORM, оставим на потом)
Сколько это стоит?
Ценообразование в таких проектах — тема отдельного большого разговора.
Если коротко: цена одного диалога зависит от используемых моделей ИИ, его длительности и объема контекстных инструкций для ИИ-персонажа. Чем «умнее» модель, дольше разговор и больше контекст – тем дороже.
В этом конкретном демо-кейсе один диалог обходится примерно в 5 рублей.
Если готовы к небольшим компромиссам – можно снизить цену в 2-3 раза, но все зависит от кейса.
Такой подход создает уникальный гибридный формат обучения. Он находится ровно посередине между стандартным SCORM-курсом, который дает знания, и дорогостоящим тренингом с живым тренером, который дает практику.
Тренажер не заменяет полноценного наставника, но создает безопасную и максимально приближенную к реальности среду, где можно без риска совершать ошибки, отрабатывать сложные сценарии и формировать устойчивые умения, сочетающие в себе и коммуникацию, и работу с цифровыми инструментами.
-----
Это вымышленный кейс.
А о том, как ИИ реально помогает развивать тысячи сотрудников, расскажет руководитель центра по развитию персонала региональной сети и федеральных площадок ПАО «МегаФон» Татьяна Гуськова на конференции Digital Learning 2025!
Когда: 20 ноября 2025 года
Где: Москва, гостиница Аэростар
P.S. Я тоже приеду! Буду рад пообщаться со всеми лично.
🔥14👍7❤5
Media is too big
VIEW IN TELEGRAM
Sora 2: не Google конечно, но зато дешевле
Не так давно экспериментировал с Google Veo 3 — лучшей нейросетью для генерации видео. Качество отличное, но бюджетной ее назвать точно не получится. За 200 долларов вы получаете очень ограниченное количество генераций, которых точно не хватит на месяц работы.
И вот теперь попробовал новую нейросеть для генерации видео — Sora 2 от OpenAI. Она пока находится в режиме неполного доступа: чтобы зарегистрироваться, нужно немного заморочиться — получить инвайт на использование и «релоцироваться» в Канаду или США.
Что я вам скажу:
Да, качество совсем не такое, как у Google, иногда происходит что-то странное, картинка подвисает, вернулась проблема с пальцами (только про нее забыли и перестали шутить), и вообще она прямо по всем показателям хуже.
Но!
Совершенно очевидно, что как только она выйдет из ранних тестов и шумиха немного уляжется, Sora 2, скорее всего, будет доступна подписчикам ChatGPT Plus. А он стоит всего 20$! 20 долларов — и у тебя есть ИИ-конвейер для всех задач, в том числе и видео.
Видео из примера было собрано за 2,5 часа (пришлось немного помонтировать). Каждый кусочек получался адекватным с 3-4 попыток. Но! Попыток дается много*, и совершенно ничего не мешает запустить сразу 4 генерации и просто выбрать хороший вариант (у Google так тоже можно делать, если у тебя прямо очень много денег, а тут достаточно иметь 20$).
*сейчас дается 100 генераций в день, говорят, что на подписке Plus будет меньше, но точных цифр не называют.
HeyGen, генерирующий скучных аватаров, которые уже всем надоели, стоит 29$, а тут всего 20$ + генерация картинок и языковая модель. Чудо просто!
(да, я очень впечатлен ценовой политикой)
Почему такой акцент на цене?
200$ — не та сумма, которую готов выкладывать e-learning-специалист из своего кармана каждый месяц, а вот 20$ – совершенно другая история, вполне можно себе позволить, чтобы сделать контент немного интереснее (да или даже просто «поиграться»).
Да, сегодня приходится выбирать между «круто, но дорого» и «хорошо, но доступно». Как мне кажется, для базовых e-learning-задач второго варианта вполне достаточно.
Не так давно экспериментировал с Google Veo 3 — лучшей нейросетью для генерации видео. Качество отличное, но бюджетной ее назвать точно не получится. За 200 долларов вы получаете очень ограниченное количество генераций, которых точно не хватит на месяц работы.
И вот теперь попробовал новую нейросеть для генерации видео — Sora 2 от OpenAI. Она пока находится в режиме неполного доступа: чтобы зарегистрироваться, нужно немного заморочиться — получить инвайт на использование и «релоцироваться» в Канаду или США.
Что я вам скажу:
Да, качество совсем не такое, как у Google, иногда происходит что-то странное, картинка подвисает, вернулась проблема с пальцами (только про нее забыли и перестали шутить), и вообще она прямо по всем показателям хуже.
Но!
Совершенно очевидно, что как только она выйдет из ранних тестов и шумиха немного уляжется, Sora 2, скорее всего, будет доступна подписчикам ChatGPT Plus. А он стоит всего 20$! 20 долларов — и у тебя есть ИИ-конвейер для всех задач, в том числе и видео.
Видео из примера было собрано за 2,5 часа (пришлось немного помонтировать). Каждый кусочек получался адекватным с 3-4 попыток. Но! Попыток дается много*, и совершенно ничего не мешает запустить сразу 4 генерации и просто выбрать хороший вариант (у Google так тоже можно делать, если у тебя прямо очень много денег, а тут достаточно иметь 20$).
*сейчас дается 100 генераций в день, говорят, что на подписке Plus будет меньше, но точных цифр не называют.
HeyGen, генерирующий скучных аватаров, которые уже всем надоели, стоит 29$, а тут всего 20$ + генерация картинок и языковая модель. Чудо просто!
(да, я очень впечатлен ценовой политикой)
Почему такой акцент на цене?
200$ — не та сумма, которую готов выкладывать e-learning-специалист из своего кармана каждый месяц, а вот 20$ – совершенно другая история, вполне можно себе позволить, чтобы сделать контент немного интереснее (да или даже просто «поиграться»).
Да, сегодня приходится выбирать между «круто, но дорого» и «хорошо, но доступно». Как мне кажется, для базовых e-learning-задач второго варианта вполне достаточно.
🔥15❤7👍5❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Помните ваш первый вебинар по e-learning, который вас реально зацепил?
Для меня таким стал вебинар SRC Мультимедиа, где Александр Воробьёв показывал свои кейсы в Articulate Storyline.
Вебинар получился очень крутым с кучей практических советов, многие из которых я использовал в работе.
И вот, 28 октября я иду на вебинар к Александру. Мы поговорим про интеграцию ИИ в SCORM, разберем как можно использовать ИИ в курсах и какие преимущества это дает.
Будет много практических кейсов и интересных решений.
🎯 Подробности, время и регистрация — в анонсе Александра ниже. Переходите по ссылке и записывайтесь!
Буду рад всех видеть 😊
Для меня таким стал вебинар SRC Мультимедиа, где Александр Воробьёв показывал свои кейсы в Articulate Storyline.
Вебинар получился очень крутым с кучей практических советов, многие из которых я использовал в работе.
И вот, 28 октября я иду на вебинар к Александру. Мы поговорим про интеграцию ИИ в SCORM, разберем как можно использовать ИИ в курсах и какие преимущества это дает.
Будет много практических кейсов и интересных решений.
🎯 Подробности, время и регистрация — в анонсе Александра ниже. Переходите по ссылке и записывайтесь!
Буду рад всех видеть 😊
👍7🔥3❤1
Forwarded from Человек с телефоном 👨🎓+📱
Что может искусственный интеллект, если мы разместим его прямо внутри SCORM-пакета и пользователи будут взаимодействовать с ним при прохождении электронного курса?
Обсудим это на 28.10.2025 в 11:00 на вебинаре «Как ИИ внутри SCORM-курса проверяет задания, выступает наставником и формирует умения»
Разберем несколько кейсов реальных возможностей искусственного интеллекта, встроенного в электронный курс:
1️⃣ Как перейти от проверки знаний к проверке понимания материала;
2️⃣ Как сформировать комплексные умения в иммерсивных AI-тренажерах;
3️⃣ Как сделать знания более доступными для всех сотрудников.
Также обсудим:
👉 Может ли ИИ вместо преподавателя быть умным помощником, который выслушивает пользователя и отвечает на все его вопросы по теме курса.
👉 Может ли ИИ в курсе справиться с задачей мотивации процесса обучения.
Удивительно, но все это работает в привычном и стандартном формате SCORM. Вам не нужно менять LMS или подключать сторонние платформы.
Просто загружаете курс в СДО — и он сразу работает со встроенным ИИ-наставником. А дальше вы получаете все данные о взаимодействии с ИИ (прогресс, ответы, аналитику) прямо в вашу LMS.
🔥 Вся мощь искусственного интеллекта в упаковке, которую понимает любая система обучения. Получаем инновации без сложной интеграции 😵💫.
Эксперты:
❗️ Алексей Миляев — менеджер проектов по внедрению ИИ-решений в обучении, ПАО «МегаФон».
❗️ Александр Воробьёв — IT/Edtech-предприниматель, SRC Мультимедиа / ARGUMENT.
Приходите, будет интересно.
[Зарегистрироваться на вебинар]
Обсудим это на 28.10.2025 в 11:00 на вебинаре «Как ИИ внутри SCORM-курса проверяет задания, выступает наставником и формирует умения»
Разберем несколько кейсов реальных возможностей искусственного интеллекта, встроенного в электронный курс:
1️⃣ Как перейти от проверки знаний к проверке понимания материала;
2️⃣ Как сформировать комплексные умения в иммерсивных AI-тренажерах;
3️⃣ Как сделать знания более доступными для всех сотрудников.
Также обсудим:
👉 Может ли ИИ вместо преподавателя быть умным помощником, который выслушивает пользователя и отвечает на все его вопросы по теме курса.
👉 Может ли ИИ в курсе справиться с задачей мотивации процесса обучения.
Удивительно, но все это работает в привычном и стандартном формате SCORM. Вам не нужно менять LMS или подключать сторонние платформы.
Просто загружаете курс в СДО — и он сразу работает со встроенным ИИ-наставником. А дальше вы получаете все данные о взаимодействии с ИИ (прогресс, ответы, аналитику) прямо в вашу LMS.
🔥 Вся мощь искусственного интеллекта в упаковке, которую понимает любая система обучения. Получаем инновации без сложной интеграции 😵💫.
Эксперты:
❗️ Алексей Миляев — менеджер проектов по внедрению ИИ-решений в обучении, ПАО «МегаФон».
❗️ Александр Воробьёв — IT/Edtech-предприниматель, SRC Мультимедиа / ARGUMENT.
Приходите, будет интересно.
[Зарегистрироваться на вебинар]
🔥5👍3👏2
HeyGen: Интерактивные AI-аватары для живого общения. На что они способны спустя год?
Год назад HeyGen анонсировали функцию генерации аватаров в реальном времени. Идея — фантастическая: диалоговый тренажер, где твой виртуальный собеседник выглядит и говорит почти как живой человек. Иммерсивность на максимум.
Правда, тогда это была скорее игрушка: качество и стабильность оставляли желать лучшего. Но за год команда здорово поработала, и сейчас продукт стал гораздо ближе к реальному применению.
Что изменилось в лучшую сторону?
1. Качество и стабильность
Картинка стала намного лучше. Подтормаживания есть, но уже не критичные. Да, всё ещё слышно и видно, что это ИИ, но общее впечатление стало более убедительным.
2. Упрощенная интеграция
Появился режим, похожий на создание агентов в ChatGPT. Загружаешь базу знаний, указываешь ссылки на материалы — и агент готов. Чтобы встроить его на сайт, достаточно скопировать пару строк кода. Идеально для простых консультантов-«болталок».
3. Гибкость через API
Если возможностей из «коробки» не хватает, есть стандартный API. Там аватар становится «говорящей головой», которой ты подаешь готовый текст. Реализация сложнее, но и свобода полная: можно делать диалоговые тренажеры с аналитикой или интегрировать аватара в бизнес-процессы.
Что все еще тормозит?
1. Эффект новизны быстро стирается
Пока записывал демо, успел наиграться. Набор анимаций, жестов и интонаций очень ограничен. Быстро замечаешь повторяющиеся паттерны. Создается впечатление, что для экономии мощностей используются костыли, что бьет по вариативности.
2. Цена для диалогов
Генерация видео стоит от 10 до 20 рублей за минуту. Простой голосовой тренажер на 10 минут обойдется в 10-20 рублей. Если добавить видео — +100 рублей за сессию. Цена вырастает в 5-10 раз. Резонный вопрос: а оно того стоит? Не думаю.
Приятный бонус:
Появились анимированные персонажи! И это, на мой взгляд, ключевое улучшение. Эффект «зловещей долины» (когда почти реалистичный, но неидеальный объект вызывает неприятие) для фотореалистичных аватаров никуда не делся. А с мультяшной графикой мелкие шероховатости смотрятся естественно и не отталкивают.
Ждем, когда цена упадет хотя бы раз в 10 (и немного подкрутят качество) – и будем внедрять 😁
Видео: демо возможностей HeyGen. Я быстро собрал симулятор собеседования, где ИИ играет роль e-learning специалиста.
Год назад HeyGen анонсировали функцию генерации аватаров в реальном времени. Идея — фантастическая: диалоговый тренажер, где твой виртуальный собеседник выглядит и говорит почти как живой человек. Иммерсивность на максимум.
Правда, тогда это была скорее игрушка: качество и стабильность оставляли желать лучшего. Но за год команда здорово поработала, и сейчас продукт стал гораздо ближе к реальному применению.
Что изменилось в лучшую сторону?
1. Качество и стабильность
Картинка стала намного лучше. Подтормаживания есть, но уже не критичные. Да, всё ещё слышно и видно, что это ИИ, но общее впечатление стало более убедительным.
2. Упрощенная интеграция
Появился режим, похожий на создание агентов в ChatGPT. Загружаешь базу знаний, указываешь ссылки на материалы — и агент готов. Чтобы встроить его на сайт, достаточно скопировать пару строк кода. Идеально для простых консультантов-«болталок».
3. Гибкость через API
Если возможностей из «коробки» не хватает, есть стандартный API. Там аватар становится «говорящей головой», которой ты подаешь готовый текст. Реализация сложнее, но и свобода полная: можно делать диалоговые тренажеры с аналитикой или интегрировать аватара в бизнес-процессы.
Что все еще тормозит?
1. Эффект новизны быстро стирается
Пока записывал демо, успел наиграться. Набор анимаций, жестов и интонаций очень ограничен. Быстро замечаешь повторяющиеся паттерны. Создается впечатление, что для экономии мощностей используются костыли, что бьет по вариативности.
2. Цена для диалогов
Генерация видео стоит от 10 до 20 рублей за минуту. Простой голосовой тренажер на 10 минут обойдется в 10-20 рублей. Если добавить видео — +100 рублей за сессию. Цена вырастает в 5-10 раз. Резонный вопрос: а оно того стоит? Не думаю.
Приятный бонус:
Появились анимированные персонажи! И это, на мой взгляд, ключевое улучшение. Эффект «зловещей долины» (когда почти реалистичный, но неидеальный объект вызывает неприятие) для фотореалистичных аватаров никуда не делся. А с мультяшной графикой мелкие шероховатости смотрятся естественно и не отталкивают.
Ждем, когда цена упадет хотя бы раз в 10 (и немного подкрутят качество) – и будем внедрять 😁
❤7👍7🔥4👌1
Цена реализма: за что мы платим в голосовых ИИ-тренажёрах и без чего можно обойтись
Недавно я показывал пример диалогового тренажёра для сотрудников вымышленного банка.
В нём сотрудник не просто «кликает» в интерфейсе, а реально разговаривает с ИИ-клиентом голосом — тренируя и навыки общения, и работу в ПО.
Итоговая стоимость одного прохождения такого тренажёра — около 5 рублей.
Разберёмся, из чего складывается эта цифра и как её можно уменьшить.
Из чего состоит тренажёр
Весь процесс общения выглядит просто: сотрудник говорит — ИИ отвечает.
Но под капотом работает сразу три модели искусственного интеллекта:
1. Распознавание речи (Speech-to-Text)
Голос сотрудника отправляется в модель, которая переводит речь в текст.
Без этого языковая модель просто не сможет понять, что сказал человек.
2. Обработка смысла (LLM)
Текст запроса идёт в языковую модель (например, GPT-4.1), которая анализирует ситуацию и формирует ответ.
3. Озвучка (Text-to-Speech)
Текстовый ответ снова превращается в голос — и сотрудник слышит реакцию виртуального клиента.
За каждый этап мы платим отдельно.
Конкретика по деньгам
Приведу цены в долларах (расчёт в рублях будет примерно по курсу 1 $ ≈ 100 ₽).
(цены на ИИ меняются чуть ли каждый день, если читаете этот пост спустя пару месяцев после выхода – лучше уточнить актуальные цены)
1. Распознавание речи — Whisper от OpenAI
• Цена: $0,006 / минута (≈ 0,6 ₽)
• Можно удешевить процесс, используя упрощённую версию (например, gpt-4o-mini-transcribe) — она стоит примерно в два раза дешевле, хотя немного теряет в точности.
2. Языковая модель — GPT-4.1
• Цена (по официальным тарифам OpenAI):
• Input — $2 / млн токенов
(ваши слова + технический промпт)
• Cache — $0,5 / млн
(память ИИ о вашем разговоре (ИИ каждый раз перечитывает ваш разговор с самого начала, чтобы дать релевантный ответ))
• Output — $8 / млн
(слова ИИ)
- 1 млн токенов — это примерно 400–500 тыс. слов, или около 1 200 страниц А4.
- Для коротких диалогов используется считанные сотни токенов, так что стоимость обработки одного запроса — доли цента.
💡 Альтернатива:
• GPT-4.1-mini — примерно в 4–5 раз дешевле, при этом для простых сценариев (например, обработать жалобу клиента) качество более чем достаточным.
• DeepSeek V3.2-Exp — ещё более бюджетный вариант. По ощущениям, чуть проще в логике, но в части «понимания» человеческих эмоций местами даже лучше.
3. Озвучка — OpenAI TTS
• Цена: $15 за 1 млн символов (не токенов!) или примерно $0,015 / минута.
• Качество неплохое.
💡 Как можно экономить?
• Рассмотреть альтернативы OpenAI.
У OpenAI не самое лучшее качество на рынке (хотя хорошее), не самые гибкие настройки и не самая бюджетная цена. Серьезной экономии не будет, но вот в качестве и гибкости можно выиграть.
• Озвучка браузером.
Самый дешевый способ – озвучивать текст средствами браузера. В любом браузере есть «говорилка», которая может озвучивать любой текст. Это бесплатно.
Из минусов такого подхода:
- качество озвучки будет ощутимо хуже, чем в современных моделях.
- в разных браузерах разные голоса и их настройки.
Вам придется писать больше кода (проверять каким браузером пользуется ученик и настраивать голос под каждый браузер). Если сотрудники проходят тренажеры с рабочих компьютеров и у всех один и тот же браузер – не большая проблема, а вот если используют свои смартфоны – придется разбираться, как работает вся эта история в браузерах Oppo, Techno и.т.д. и прописывать этот момент специально под них (либо не заморачиваться и смириться с тем фактом, что у кого-то мужчина будет разговаривать женским роботизированным голосом).
Главное не «дешево», а «осознанно»
Цель не в том, чтобы выжать из моделей каждую копейку, а в том, чтобы осознанно выбирать, за что вы платите:
• Мощный TTS — это инвестиция в реализм.
• Мощная LLM вроде GPT-4 — это инвестиция в глубину сценария и качество обратной связи.
Найти баланс между бюджетом и педагогическим эффектом — вот основная задача.
Недавно я показывал пример диалогового тренажёра для сотрудников вымышленного банка.
В нём сотрудник не просто «кликает» в интерфейсе, а реально разговаривает с ИИ-клиентом голосом — тренируя и навыки общения, и работу в ПО.
Итоговая стоимость одного прохождения такого тренажёра — около 5 рублей.
Разберёмся, из чего складывается эта цифра и как её можно уменьшить.
Из чего состоит тренажёр
Весь процесс общения выглядит просто: сотрудник говорит — ИИ отвечает.
Но под капотом работает сразу три модели искусственного интеллекта:
1. Распознавание речи (Speech-to-Text)
Голос сотрудника отправляется в модель, которая переводит речь в текст.
Без этого языковая модель просто не сможет понять, что сказал человек.
2. Обработка смысла (LLM)
Текст запроса идёт в языковую модель (например, GPT-4.1), которая анализирует ситуацию и формирует ответ.
3. Озвучка (Text-to-Speech)
Текстовый ответ снова превращается в голос — и сотрудник слышит реакцию виртуального клиента.
За каждый этап мы платим отдельно.
Конкретика по деньгам
Приведу цены в долларах (расчёт в рублях будет примерно по курсу 1 $ ≈ 100 ₽).
(цены на ИИ меняются чуть ли каждый день, если читаете этот пост спустя пару месяцев после выхода – лучше уточнить актуальные цены)
1. Распознавание речи — Whisper от OpenAI
• Цена: $0,006 / минута (≈ 0,6 ₽)
• Можно удешевить процесс, используя упрощённую версию (например, gpt-4o-mini-transcribe) — она стоит примерно в два раза дешевле, хотя немного теряет в точности.
2. Языковая модель — GPT-4.1
• Цена (по официальным тарифам OpenAI):
• Input — $2 / млн токенов
(ваши слова + технический промпт)
• Cache — $0,5 / млн
(память ИИ о вашем разговоре (ИИ каждый раз перечитывает ваш разговор с самого начала, чтобы дать релевантный ответ))
• Output — $8 / млн
(слова ИИ)
- 1 млн токенов — это примерно 400–500 тыс. слов, или около 1 200 страниц А4.
- Для коротких диалогов используется считанные сотни токенов, так что стоимость обработки одного запроса — доли цента.
💡 Альтернатива:
• GPT-4.1-mini — примерно в 4–5 раз дешевле, при этом для простых сценариев (например, обработать жалобу клиента) качество более чем достаточным.
• DeepSeek V3.2-Exp — ещё более бюджетный вариант. По ощущениям, чуть проще в логике, но в части «понимания» человеческих эмоций местами даже лучше.
3. Озвучка — OpenAI TTS
• Цена: $15 за 1 млн символов (не токенов!) или примерно $0,015 / минута.
• Качество неплохое.
💡 Как можно экономить?
• Рассмотреть альтернативы OpenAI.
У OpenAI не самое лучшее качество на рынке (хотя хорошее), не самые гибкие настройки и не самая бюджетная цена. Серьезной экономии не будет, но вот в качестве и гибкости можно выиграть.
• Озвучка браузером.
Самый дешевый способ – озвучивать текст средствами браузера. В любом браузере есть «говорилка», которая может озвучивать любой текст. Это бесплатно.
Из минусов такого подхода:
- качество озвучки будет ощутимо хуже, чем в современных моделях.
- в разных браузерах разные голоса и их настройки.
Вам придется писать больше кода (проверять каким браузером пользуется ученик и настраивать голос под каждый браузер). Если сотрудники проходят тренажеры с рабочих компьютеров и у всех один и тот же браузер – не большая проблема, а вот если используют свои смартфоны – придется разбираться, как работает вся эта история в браузерах Oppo, Techno и.т.д. и прописывать этот момент специально под них (либо не заморачиваться и смириться с тем фактом, что у кого-то мужчина будет разговаривать женским роботизированным голосом).
Главное не «дешево», а «осознанно»
Цель не в том, чтобы выжать из моделей каждую копейку, а в том, чтобы осознанно выбирать, за что вы платите:
• Мощный TTS — это инвестиция в реализм.
• Мощная LLM вроде GPT-4 — это инвестиция в глубину сценария и качество обратной связи.
Найти баланс между бюджетом и педагогическим эффектом — вот основная задача.
👍6🔥5❤4
Заканчиваем (возможно) с AI-видео: что может Grok Imagine от Илона Маска?
Сравнивать Grok с Veo 3 в генерации реалистичных видео нет смысла, т.к., во-первых, разница в качестве весьма серьезная (а скоро должен выйти Veo 3.1, там обещают просто космические технологии), а во-вторых, и в цене разница принципиальная. А вот в аналоги Sora продукт однозначно записать можно.
Так что лучше, Grok или Sora?
Давайте сравнивать.
🎞️ Качество: 6 «живых» секунд
На мой взгляд, с точки зрения мультяшной анимации Grok сильно выигрывает.
Он лучше:
— Читает стиль и не ломает его от кадра к кадру.
— Анимирует детали, оживляя даже мелочи.
— Движения выходят более живыми и естественными.
Но есть и минус: если Sora может генерировать ролики продолжительностью до 15 секунд, то Grok генерирует только 6 (наверняка долго ждать увеличения продолжительности не придется).
При этом ограничение легко обходится генерацией нового ролика с последнего кадра предыдущего. Сгенерировали 6 секунд -> скопировали последний кадр -> начиная с него генерируем новые 6 секунд (так сделан ролик в шапке). Так же нейросети работают не идеально, часто можно встретить артефакты или просто плохо сгенерированное видео. Вероятность появления проблем в 15 секундах в 2.5 раза больше, чем в 6.
Но все же два реальных минуса в ограничении продолжительности есть:
Если нужен ролик с озвучкой – приходится разбивать реплики на короткие куски. В 6 секунд не так много слов можно уместить;
Техника генерации видео с последнего кадра имеет свои ограничения. Нейросеть «не помнит», что вы генерировали в прошлый раз. Следовательно, каждые 6 секунд вы будете получать случайный голос и случайную генерацию деталей, которых нет в кадре. Во втором ролике как раз показал эти нюансы. 6 секунд заканчиваются, когда персонаж стоит спиной к камере. ИИ «не помнит» лица персонажа и придумывает его сама. Если бы ролик сгенерировали сразу на 15 секунд – таких проблем не было бы.
💵 Цена: чуть дороже, но не критично
Минимальная подписка на Grok стоит 30$, подписка от OpenAI – 20$. Не сказать, что разница существенная, но помимо генерации видео мы в обоих случаях получаем еще и генерацию изображений, и языковую модель. По двум последним параметрам OpenAI, на мой взгляд, выигрывает.
⚖️ Авторские права и дипфейки: полная свобода (почти)
В Sora есть неприятные ограничения:
- нельзя генерировать известных персонажей, правообладатели которых запретили это делать;
- запрещено анимировать реальных людей (есть список исключений + можно верифицировать себя через приложение – и тогда ролики с собой можно будет делать).
Если первое ограничение никак не мешает в работе (мы же не будем делать курсы с Человеком-пауком), то второе весьма неприятно.
В Grok таких проблем нет – генерируй все что хочешь.
🎭 Дополнительные фишки: Normal, Fun и... Spicy
Помимо стандартного режима, в котором ты пишешь промпт и получаешь видео, есть еще три дополнительных:
- Normal. Нейросеть анализирует, что изображено на картинке, и пытается придумать адекватный сюжет на 6 секунд. Пользы режима я не понял.
- Fun. Здесь ИИ пытается придумать что-то максимально глупое и смешное. Чаще всего (почти всегда) получается ерунда, но можно подсмотреть интересные идеи по анимации деталей.
- Spicy. Ну, вы понимаете… Другие нейросети отказываются генерировать – а тут отдельный режим. Под «спайси» подразумевается что-то на уровне «Спасателей Малибу».
Прямого применения в e-learning, конечно, нет, но этот факт отлично демонстрирует главное — идеологическую свободу платформы.
(а вот маркетплейсы, наверняка, скоро заполнят толпы «девушек», бегущих по пляжам в замедленном режиме)
Итог
Grok — это не про реализм, а про креатив.
За сравнительно небольшой бюджет он позволяет делать видео, которые цепляют.
Пусть пока 6 секунд, но эти 6 секунд живее, чем 15 у Sora.
Для e-learning — идеальный баланс: быстро, недорого, ярко.
Уже говорил про Veo 3 и Sora 2, пришло время третьего кита американского ИИ-строительства – Grok.
Сравнивать Grok с Veo 3 в генерации реалистичных видео нет смысла, т.к., во-первых, разница в качестве весьма серьезная (а скоро должен выйти Veo 3.1, там обещают просто космические технологии), а во-вторых, и в цене разница принципиальная. А вот в аналоги Sora продукт однозначно записать можно.
Так что лучше, Grok или Sora?
Давайте сравнивать.
🎞️ Качество: 6 «живых» секунд
На мой взгляд, с точки зрения мультяшной анимации Grok сильно выигрывает.
Он лучше:
— Читает стиль и не ломает его от кадра к кадру.
— Анимирует детали, оживляя даже мелочи.
— Движения выходят более живыми и естественными.
Но есть и минус: если Sora может генерировать ролики продолжительностью до 15 секунд, то Grok генерирует только 6 (наверняка долго ждать увеличения продолжительности не придется).
При этом ограничение легко обходится генерацией нового ролика с последнего кадра предыдущего. Сгенерировали 6 секунд -> скопировали последний кадр -> начиная с него генерируем новые 6 секунд (так сделан ролик в шапке). Так же нейросети работают не идеально, часто можно встретить артефакты или просто плохо сгенерированное видео. Вероятность появления проблем в 15 секундах в 2.5 раза больше, чем в 6.
Но все же два реальных минуса в ограничении продолжительности есть:
Если нужен ролик с озвучкой – приходится разбивать реплики на короткие куски. В 6 секунд не так много слов можно уместить;
Техника генерации видео с последнего кадра имеет свои ограничения. Нейросеть «не помнит», что вы генерировали в прошлый раз. Следовательно, каждые 6 секунд вы будете получать случайный голос и случайную генерацию деталей, которых нет в кадре. Во втором ролике как раз показал эти нюансы. 6 секунд заканчиваются, когда персонаж стоит спиной к камере. ИИ «не помнит» лица персонажа и придумывает его сама. Если бы ролик сгенерировали сразу на 15 секунд – таких проблем не было бы.
💵 Цена: чуть дороже, но не критично
Минимальная подписка на Grok стоит 30$, подписка от OpenAI – 20$. Не сказать, что разница существенная, но помимо генерации видео мы в обоих случаях получаем еще и генерацию изображений, и языковую модель. По двум последним параметрам OpenAI, на мой взгляд, выигрывает.
⚖️ Авторские права и дипфейки: полная свобода (почти)
В Sora есть неприятные ограничения:
- нельзя генерировать известных персонажей, правообладатели которых запретили это делать;
- запрещено анимировать реальных людей (есть список исключений + можно верифицировать себя через приложение – и тогда ролики с собой можно будет делать).
Если первое ограничение никак не мешает в работе (мы же не будем делать курсы с Человеком-пауком), то второе весьма неприятно.
В Grok таких проблем нет – генерируй все что хочешь.
🎭 Дополнительные фишки: Normal, Fun и... Spicy
Помимо стандартного режима, в котором ты пишешь промпт и получаешь видео, есть еще три дополнительных:
- Normal. Нейросеть анализирует, что изображено на картинке, и пытается придумать адекватный сюжет на 6 секунд. Пользы режима я не понял.
- Fun. Здесь ИИ пытается придумать что-то максимально глупое и смешное. Чаще всего (почти всегда) получается ерунда, но можно подсмотреть интересные идеи по анимации деталей.
- Spicy. Ну, вы понимаете… Другие нейросети отказываются генерировать – а тут отдельный режим. Под «спайси» подразумевается что-то на уровне «Спасателей Малибу».
Прямого применения в e-learning, конечно, нет, но этот факт отлично демонстрирует главное — идеологическую свободу платформы.
(а вот маркетплейсы, наверняка, скоро заполнят толпы «девушек», бегущих по пляжам в замедленном режиме)
Итог
Grok — это не про реализм, а про креатив.
За сравнительно небольшой бюджет он позволяет делать видео, которые цепляют.
Пусть пока 6 секунд, но эти 6 секунд живее, чем 15 у Sora.
Для e-learning — идеальный баланс: быстро, недорого, ярко.
👍11❤3🔥3
История о «среднем пилоте»
В конце 1940-х годов ВВС США столкнулись с тревожной чередой авиапроисшествий, часто без очевидных технических или человеческих ошибок. Изначально инженеры проектировали кабины самолетов по усредненным данным пилотов, полученным в 1926 году, полагая, что это обеспечит удобство для большинства.
Задачи по обновлению этих данных и решению проблемы поручили молодому лейтенанту и антропологу Гилберту Дэниэлсу. Имея опыт работы, он скептически относился к концепции «среднего» человека.
Дэниэлс проанализировал 10 ключевых параметров тела у 4000+ пилотов, определив «средний» диапазон для каждого параметра. Результат: ни один из тысяч обследованных пилотов не уложился в средний диапазон по всем 10 параметрам одновременно. Даже при анализе всего трех произвольных параметров менее 3,5% лётчиков оказывались «средними».
Это открытие доказало: «среднего пилота» не существует. Кабины, спроектированные под несуществующий усредненный стандарт, на деле не подходили никому, создавая дискомфорт и повышая риск ошибки.
Решением стало принципиальное изменение подхода к проектированию — внедрение регулируемых сидений, педалей и других элементов управления, чтобы каждый пилот мог настроить кабину под себя.
История демонстрирует фундаментальную ошибку, когда «среднее» ошибочно принимается за «нормальное» или «идеальное». Открытие Дэниэлса положило начало переходу от проектирования для «среднего» пользователя к созданию адаптируемых систем, учитывающих индивидуальные различия.
Однако задумаемся: пилоты молчали о неудобствах? Скорее всего, нет (а если и да – кто мешал просто с ними поговорить и спросить?). Они наверняка жаловались, но их словам не придали значения, потому что они противоречили «объективным» усредненным данным (да и вообще знаем мы этих пилотов, все им не так и не то). Проблема была не в отсутствии обратной связи, а в нежелании ее услышать.
Таким образом, история учит нас еще более фундаментальной вещи: необходимо активно и непредвзято разговаривать с теми, для кого мы создаем продукты, системы или рабочие процессы. Часто самое простое решение лежит на поверхности — стоит лишь спросить у сотрудника, что ему мешает.
Про e-learning
Как не существует «среднего пилота», так и «среднего ученика» зачастую тоже нет — и это норма.
Как и пилоты, все ученики имеют разный опыт, бэкграунд, скорость восприятия, стиль обучения, мотивацию и жизненные обстоятельства.
Нельзя создавать один универсальный курс для всех. Опасно полагаться на «усредненные» данные и ожидать, что один формат (например, длинные видео-лекции) подойдет каждому.
Тут опять про ИИ, прошу прощения
Конечно, нам никто не запрещал и раньше упаковывать один материал в несколько разных форматов, чтобы учащийся сам мог выбрать максимально комфортный и подходящий для себя подход, но времени на это не было. Сейчас, как показывает опыт Google, ИИ вполне способен на перевод учебного материала в разные форматы без потери качества.
В конце 1940-х годов ВВС США столкнулись с тревожной чередой авиапроисшествий, часто без очевидных технических или человеческих ошибок. Изначально инженеры проектировали кабины самолетов по усредненным данным пилотов, полученным в 1926 году, полагая, что это обеспечит удобство для большинства.
Задачи по обновлению этих данных и решению проблемы поручили молодому лейтенанту и антропологу Гилберту Дэниэлсу. Имея опыт работы, он скептически относился к концепции «среднего» человека.
Дэниэлс проанализировал 10 ключевых параметров тела у 4000+ пилотов, определив «средний» диапазон для каждого параметра. Результат: ни один из тысяч обследованных пилотов не уложился в средний диапазон по всем 10 параметрам одновременно. Даже при анализе всего трех произвольных параметров менее 3,5% лётчиков оказывались «средними».
Это открытие доказало: «среднего пилота» не существует. Кабины, спроектированные под несуществующий усредненный стандарт, на деле не подходили никому, создавая дискомфорт и повышая риск ошибки.
Решением стало принципиальное изменение подхода к проектированию — внедрение регулируемых сидений, педалей и других элементов управления, чтобы каждый пилот мог настроить кабину под себя.
История демонстрирует фундаментальную ошибку, когда «среднее» ошибочно принимается за «нормальное» или «идеальное». Открытие Дэниэлса положило начало переходу от проектирования для «среднего» пользователя к созданию адаптируемых систем, учитывающих индивидуальные различия.
Однако задумаемся: пилоты молчали о неудобствах? Скорее всего, нет (а если и да – кто мешал просто с ними поговорить и спросить?). Они наверняка жаловались, но их словам не придали значения, потому что они противоречили «объективным» усредненным данным (да и вообще знаем мы этих пилотов, все им не так и не то). Проблема была не в отсутствии обратной связи, а в нежелании ее услышать.
Таким образом, история учит нас еще более фундаментальной вещи: необходимо активно и непредвзято разговаривать с теми, для кого мы создаем продукты, системы или рабочие процессы. Часто самое простое решение лежит на поверхности — стоит лишь спросить у сотрудника, что ему мешает.
Про e-learning
Как не существует «среднего пилота», так и «среднего ученика» зачастую тоже нет — и это норма.
Как и пилоты, все ученики имеют разный опыт, бэкграунд, скорость восприятия, стиль обучения, мотивацию и жизненные обстоятельства.
Нельзя создавать один универсальный курс для всех. Опасно полагаться на «усредненные» данные и ожидать, что один формат (например, длинные видео-лекции) подойдет каждому.
Тут опять про ИИ, прошу прощения
Конечно, нам никто не запрещал и раньше упаковывать один материал в несколько разных форматов, чтобы учащийся сам мог выбрать максимально комфортный и подходящий для себя подход, но времени на это не было. Сейчас, как показывает опыт Google, ИИ вполне способен на перевод учебного материала в разные форматы без потери качества.
👍8❤4🎉3
NotebookLM от Google: новые форматы взаимодействия с учеником
Продолжая историю о «среднем пилоте» из прошлого поста...
(да, прошлый пост был подводкой к этому)
Мы выяснили, что проектирование кабины под «усредненные» параметры было ошибкой. Гениальным решением стали не новые, еще более точные замеры, а регулируемые элементы управления, позволившие каждому пилоту настроить пространство под себя.
Тот же принцип применим и к обучению. Нельзя заставить всех «пилотов-учеников» одинаково удобно сидеть в одном кресле. Кому-то для усвоения курса нужен «текстовый» режим, кому-то — «видео-приборная доска», а кому-то — «аудио-связь» с инструктором (все, заканчиваю с поверхностными метафорами). Задача современного e-learning — не найти «идеальный» формат, а предоставить эти регулируемые элементы — выбор, чтобы каждый мог настроить образовательную среду под свой стиль восприятия.
Вот как раз в возможности этой настройки может помочь NotebookLM.
Суть продукта в том, что по твоим материалам (например, файл в PDF или просто ссылка на лендинг) он может пересобрать твой контент в другие форматы: подкаст, видеообъяснение с презентацией или аудиоурок. Также поможет сделать карточки, mindmap и тестовые вопросы. И все эти материалы можно скачать и интегрировать в свой курс. Не хочешь читать лендинг? — послушай подкаст, где спикеры обсуждают тему. Подкаст затянутый? — послушай озвученный лендинг. Лучше запоминаешь информацию зрительно? — вот тебе видео со слайдами.
Что очень важно — ИИ не выдумывает (практически), а строго опирается на твои материалы. Да, где-то может не совсем корректно расставить акценты, но контент получается годным для обучения.
С технической стороны — тоже все нормально. Да, бывает, что не туда ставит ударения или говорит с акцентом, да, качество презентаций оставляет желать лучшего — их можно оценить на «удовлетворительно». Но это бесплатно и не нужно прикладывать усилия (конечно, прослушать подкаст в любом случае необходимо до того, как выкладывать в паблик).
Итого: практически не увеличивая time-to-market, мы можем выпустить продукт в нескольких форм-факторах (лендинг, подкаст, аудиоурок и видео-лекция с презентацией). У нас будет «витринный образец», который мы собрали руками и который мы предлагаем пройти ученикам «по дефолту», а если такой формат ну уж совсем не подходит — без проблем, слушай свой подкаст.
А если к этому добавить еще и ИИ-ассистента внутри курса, который будет отвечать на вопросы ученика, объяснять непонятные места и помогать пройти материал — получится почти идеальная настройка «под себя».
Форматы + адаптация + «живая поддержка» — вот где e-learning перестает быть про «один курс для всех» и становится системой с регулировками, как в самолете.
Прикрепил к посту пример ИИ-подкаста по прошлому посту про «средних пилотов» (в комментариях), пример ИИ-видео-урока по своему первому кейсу с диалоговым ИИ-тренажером, карточки и тест, сгенерированные в NotebookLM.
Продолжая историю о «среднем пилоте» из прошлого поста...
(да, прошлый пост был подводкой к этому)
Мы выяснили, что проектирование кабины под «усредненные» параметры было ошибкой. Гениальным решением стали не новые, еще более точные замеры, а регулируемые элементы управления, позволившие каждому пилоту настроить пространство под себя.
Тот же принцип применим и к обучению. Нельзя заставить всех «пилотов-учеников» одинаково удобно сидеть в одном кресле. Кому-то для усвоения курса нужен «текстовый» режим, кому-то — «видео-приборная доска», а кому-то — «аудио-связь» с инструктором (все, заканчиваю с поверхностными метафорами). Задача современного e-learning — не найти «идеальный» формат, а предоставить эти регулируемые элементы — выбор, чтобы каждый мог настроить образовательную среду под свой стиль восприятия.
Вот как раз в возможности этой настройки может помочь NotebookLM.
Суть продукта в том, что по твоим материалам (например, файл в PDF или просто ссылка на лендинг) он может пересобрать твой контент в другие форматы: подкаст, видеообъяснение с презентацией или аудиоурок. Также поможет сделать карточки, mindmap и тестовые вопросы. И все эти материалы можно скачать и интегрировать в свой курс. Не хочешь читать лендинг? — послушай подкаст, где спикеры обсуждают тему. Подкаст затянутый? — послушай озвученный лендинг. Лучше запоминаешь информацию зрительно? — вот тебе видео со слайдами.
Что очень важно — ИИ не выдумывает (практически), а строго опирается на твои материалы. Да, где-то может не совсем корректно расставить акценты, но контент получается годным для обучения.
С технической стороны — тоже все нормально. Да, бывает, что не туда ставит ударения или говорит с акцентом, да, качество презентаций оставляет желать лучшего — их можно оценить на «удовлетворительно». Но это бесплатно и не нужно прикладывать усилия (конечно, прослушать подкаст в любом случае необходимо до того, как выкладывать в паблик).
Итого: практически не увеличивая time-to-market, мы можем выпустить продукт в нескольких форм-факторах (лендинг, подкаст, аудиоурок и видео-лекция с презентацией). У нас будет «витринный образец», который мы собрали руками и который мы предлагаем пройти ученикам «по дефолту», а если такой формат ну уж совсем не подходит — без проблем, слушай свой подкаст.
А если к этому добавить еще и ИИ-ассистента внутри курса, который будет отвечать на вопросы ученика, объяснять непонятные места и помогать пройти материал — получится почти идеальная настройка «под себя».
Форматы + адаптация + «живая поддержка» — вот где e-learning перестает быть про «один курс для всех» и становится системой с регулировками, как в самолете.
👍11🔥5👏1
Media is too big
VIEW IN TELEGRAM
🎬 Интерактивные видео – из роскоши в повседневность
Формат интерактивного видео — не новость, ему десятки лет. Но в e-learning он долго оставался почти недоступным. Почему?
Техника
Нужна камера с хорошим качеством, свет, звук, несколько ракурсов. Просто «снять на телефон» — значит получить видео, которое никто смотреть не будет.
Навыки
Без оператора и базовых навыков продакшена — провал.
Актеры
Главная проблема. Внутри компании нет профессиональных актеров. А если посадить «обычного человека» играть роль — получается неловко и неубедительно (в лучшем случае).
Правки
Актеров и локации уже не собрать обратно. Что-то изменилось в процедурах – тренажер идет в мусор.
Итого – большой бюджет
Для полноценной интерактивной сцены нужны актеры, оператор, звук, монтажер, сценарист — умножаем на количество развилок сюжета. Получается дорого даже для одного кейса, не говоря уже о масштабировании.
Теперь все изменилось благодаря ИИ
Сгенерировал нужные сцены, собрал в курс – и готово.
Time-to-market и затраты на разработку сопоставимы с разработкой обычного диалогового тренажера (правки, конечно, вносить будет намного неприятнее).
Да, ИИ не идеален:
— иногда появляются артефакты,
— ударения могут «жить своей жизнью»,
— не каждый сценарий он «потянет».
Но все это решается итерациями — и точно дешевле, чем съемочная площадка.
И, справедливости ради, ИИ-актеры отыгрывают намного лучше, чем актеры второсортных сериалов с ТВ. Так что – не очень-то и плохо получается.
Если раньше интерактивное видео было мечтой методолога, то теперь — это просто новая строка в ToDo: «сделать симулятор разговора с клиентом».
Формат интерактивного видео — не новость, ему десятки лет. Но в e-learning он долго оставался почти недоступным. Почему?
Первые интерактивные видео появились ещё в 80-х. Легендарный пример — игра Dragon’s Lair (1983). Там игрок управлял рыцарем Дирком, который пытался спасти принцессу. Видео было заранее нарисовано, а игрок в нужный момент выбирал действие — нажал не туда или не вовремя — и герой погибал. Это был один из первых опытов, когда зритель не просто смотрел, а влиял на развитие сюжета.
Техника
Нужна камера с хорошим качеством, свет, звук, несколько ракурсов. Просто «снять на телефон» — значит получить видео, которое никто смотреть не будет.
Навыки
Без оператора и базовых навыков продакшена — провал.
Актеры
Главная проблема. Внутри компании нет профессиональных актеров. А если посадить «обычного человека» играть роль — получается неловко и неубедительно (в лучшем случае).
Правки
Актеров и локации уже не собрать обратно. Что-то изменилось в процедурах – тренажер идет в мусор.
Итого – большой бюджет
Для полноценной интерактивной сцены нужны актеры, оператор, звук, монтажер, сценарист — умножаем на количество развилок сюжета. Получается дорого даже для одного кейса, не говоря уже о масштабировании.
Теперь все изменилось благодаря ИИ
Сгенерировал нужные сцены, собрал в курс – и готово.
Time-to-market и затраты на разработку сопоставимы с разработкой обычного диалогового тренажера (правки, конечно, вносить будет намного неприятнее).
Да, ИИ не идеален:
— иногда появляются артефакты,
— ударения могут «жить своей жизнью»,
— не каждый сценарий он «потянет».
Но все это решается итерациями — и точно дешевле, чем съемочная площадка.
И, справедливости ради, ИИ-актеры отыгрывают намного лучше, чем актеры второсортных сериалов с ТВ. Так что – не очень-то и плохо получается.
Если раньше интерактивное видео было мечтой методолога, то теперь — это просто новая строка в ToDo: «сделать симулятор разговора с клиентом».
🔥11👍6🥴3❤2