Помощник для художника — как мы внедряли ИИ в генерацию иллюстраций в Skyeng
Производство контента — ключевая область применения ИИ в образовании.
Логика проста:
- Привлечение клиентов требует доказательства результативности
- Результат зависит от качества усвоения контента
- Качество, в свою очередь, зависит от персонализации
Разнообразие пользовательских предпочтений требует увеличения объема контента. Сегодня открываю цикл кейсов о том, как мы оптимизировали этот процесс в Skyeng 🚀
Проблема
Иллюстрации критически важны при изучении языка: улучшают читаемость уроков и необходимы для упражнений ("опиши картинку", "соедини с словом"). Каждому уроку требовалось множество изображений в фирменном стиле. Все это создавало огромную нагрузку на иллюстраторов. Стоковые изображения не подходили — нужны были оригинальные работы в фирменной стилистике компании. Цикл создания одного урока растягивался на дни: множество вариантов, согласования с иллюстраторами и методистами.
Решение
У компании уже была обширная база готовых иллюстраций с текстовыми описаниями. Мы задались вопросом: почему бы не дообучить модель text2image и не автоматизировать этот процесс?
Иллюстраторы изначально восприняли идею негативно, почувствовав угрозу своей работе. Поэтому наш проект начался с того, что мы убедили команду: никто не будет уволен, наоборот — мы ускорим их работу.
Не углубляясь в детали процесса, мы пришли к следующей логике:
В ходе разработки мы провели серию экспериментов для выбора лучшей исходной модели для файнтюнинга. После предварительного исследования выбор сводился к версии Stable Diffusion. Для этого мы выполнили несколько тестов:
Далее мы проходили через несколько этапов дообучения и обратной связи с периодичностью примерно в месяц. Модель вошла в активное использование спустя 3 месяца с начала проекта, а дальнейшая доработка продолжилась уже после моего ухода из компании.
Эффект
Оптимизация иллюстраций была лишь одной из частей общего процесса улучшения производства контента. Поэтому глобальный эффект требовал более длительного периода наблюдения, чем мой срок работы в компании. Тем не менее, еще при мне мы достигли следующих результатов:
👉 Время создания иллюстраций для одного урока сократилось с 3 дней до 4 часов
👉 Полностью устранен дефицит изображений на одном из востребованных направлений
В рамках одного поста сложно охватить все нюансы данного кейса, поэтому задавайте интересующие вас вопросы в комментариях. Я либо отвечу там, либо подготовлю отдельный подробный пост как вторую часть. Есть идея дополнительно рассказать о проблемах, с которыми мы столкнулись, например, при генерации людей модель игнорировала стили и генерировала казахов 😁
Также прикладываю пару изображений с очень ранних стадий разработки(многие из них ужасны) . Здесь есть я и пара известных персонажей. Узнали?
#кейсы
Производство контента — ключевая область применения ИИ в образовании.
Логика проста:
- Привлечение клиентов требует доказательства результативности
- Результат зависит от качества усвоения контента
- Качество, в свою очередь, зависит от персонализации
Разнообразие пользовательских предпочтений требует увеличения объема контента. Сегодня открываю цикл кейсов о том, как мы оптимизировали этот процесс в Skyeng 🚀
Проблема
Иллюстрации критически важны при изучении языка: улучшают читаемость уроков и необходимы для упражнений ("опиши картинку", "соедини с словом"). Каждому уроку требовалось множество изображений в фирменном стиле. Все это создавало огромную нагрузку на иллюстраторов. Стоковые изображения не подходили — нужны были оригинальные работы в фирменной стилистике компании. Цикл создания одного урока растягивался на дни: множество вариантов, согласования с иллюстраторами и методистами.
Решение
У компании уже была обширная база готовых иллюстраций с текстовыми описаниями. Мы задались вопросом: почему бы не дообучить модель text2image и не автоматизировать этот процесс?
Иллюстраторы изначально восприняли идею негативно, почувствовав угрозу своей работе. Поэтому наш проект начался с того, что мы убедили команду: никто не будет уволен, наоборот — мы ускорим их работу.
Не углубляясь в детали процесса, мы пришли к следующей логике:
1. Создаем инструмент, а не замену иллюстраторов
2. С его помощью они генерируют черновые варианты картинок
3. Эти варианты отправляются на одобрение методистам
4. Затем иллюстраторы дорабатывают ИИ-картинки вручную
В ходе разработки мы провели серию экспериментов для выбора лучшей исходной модели для файнтюнинга. После предварительного исследования выбор сводился к версии Stable Diffusion. Для этого мы выполнили несколько тестов:
1. Использовали необученные модели с промптами для генерации нужных картинок (без нашего стиля)
2. Попросили иллюстраторов оценить результаты
3. Две лучшие модели прошли небольшой цикл дообучения, и мы повторили эксперимент с генерацией в нашем стиле
4. Модель, получившая больше голосов (SD версии 1.4), была выбрана для дальнейшего обучения
Далее мы проходили через несколько этапов дообучения и обратной связи с периодичностью примерно в месяц. Модель вошла в активное использование спустя 3 месяца с начала проекта, а дальнейшая доработка продолжилась уже после моего ухода из компании.
Эффект
Оптимизация иллюстраций была лишь одной из частей общего процесса улучшения производства контента. Поэтому глобальный эффект требовал более длительного периода наблюдения, чем мой срок работы в компании. Тем не менее, еще при мне мы достигли следующих результатов:
👉 Время создания иллюстраций для одного урока сократилось с 3 дней до 4 часов
👉 Полностью устранен дефицит изображений на одном из востребованных направлений
В рамках одного поста сложно охватить все нюансы данного кейса, поэтому задавайте интересующие вас вопросы в комментариях. Я либо отвечу там, либо подготовлю отдельный подробный пост как вторую часть. Есть идея дополнительно рассказать о проблемах, с которыми мы столкнулись, например, при генерации людей модель игнорировала стили и генерировала казахов 😁
Также прикладываю пару изображений с очень ранних стадий разработки
#кейсы
🔥5
Google переносят функции из NotebookLM в Gemini и добавляют Canvas!
Google штампуют инфоповоды как из пулемета, но про эту новость не могу не написать.
NotebookLM - это один из моих любимейших AI-продуктов: незаменимый компаньон в производстве контента, исследованиях и учебе. Если вы еще не пробовали его - настоятельно рекомендую это сделать.
Одной из самых полезных лично для меня функций, которая наделала шума, является генерация Audio Overview: когда закидываешь в свою тетрадку кучу документов, видео и другой информации, ИИ анализирует ее, находит пересечения и формирует из этого всего подскаст. Я люблю себе включать что-то во время тренировок либо готовки, чтобы получить двойную пользу. Единственный минус - пока работает только на английском.
Так вот: теперь эту функцию добавили в веб-версию Gemini. Самое крутое здесь то, что подкаст можно создать на основе отчета, сделанного с помощью функции Deep Research. То есть флоу поглощения новой информации теперь максимально автоматизирован:
Ну классно же!
Второе важное изменение - наконец-то добавили Canvas для коллаборативной работы с Gemini. Не понимаю, почему им понадобилось на это столько времени, когда OpenAI и Anthropic уже давно используют эту функцию во всю. Сделать ее максимально просто, а удобство возрастает в РАЗЫ. Для тех, кто работает с текстами или кодом - штука незаменимая.
Google штампуют инфоповоды как из пулемета, но про эту новость не могу не написать.
NotebookLM - это один из моих любимейших AI-продуктов: незаменимый компаньон в производстве контента, исследованиях и учебе. Если вы еще не пробовали его - настоятельно рекомендую это сделать.
Одной из самых полезных лично для меня функций, которая наделала шума, является генерация Audio Overview: когда закидываешь в свою тетрадку кучу документов, видео и другой информации, ИИ анализирует ее, находит пересечения и формирует из этого всего подскаст. Я люблю себе включать что-то во время тренировок либо готовки, чтобы получить двойную пользу. Единственный минус - пока работает только на английском.
Так вот: теперь эту функцию добавили в веб-версию Gemini. Самое крутое здесь то, что подкаст можно создать на основе отчета, сделанного с помощью функции Deep Research. То есть флоу поглощения новой информации теперь максимально автоматизирован:
- активируешь Deep Research по интересующей тебя теме, уходишь заварить чаю
- через 3-5 минут получаешь детализированное исследование
- преобразуешь его в подкаст и слушаешь в удобное время
Ну классно же!
Второе важное изменение - наконец-то добавили Canvas для коллаборативной работы с Gemini. Не понимаю, почему им понадобилось на это столько времени, когда OpenAI и Anthropic уже давно используют эту функцию во всю. Сделать ее максимально просто, а удобство возрастает в РАЗЫ. Для тех, кто работает с текстами или кодом - штука незаменимая.
🔥7❤4👍3
Расцвет OpenSource моделей: почему нам всем это выгодно
Помните момент, когда Meta (запрещена в РФ) выбросила LLAMA в открытый доступ в 2023? На тот момент это было буквально землетрясение в мире ИИ! А в феврале этого года DeepSeek R-1 выстрелил настолько мощно, что вызвал новую волну на рынке OpenSource моделей.
И знаете что? Я аплодирую стоя! 👏
До недавнего времени Gemma 2 от Google держала пальму первенства среди открытых моделей малого размера, но настоящая сила ИИ оставалась запертой в сейфах FAANG-гигантов, OpenAI и Anthropic. Закрытый код, растущие цены, элитные уровни подписок - классическая история корпоративной эволюции.
Проработав в R&D-командах, я наблюдал эту трансформацию не раз: "Где деньги, Лебовски?" - неизбежный вопрос менеджмента и инвесторов. Ранее я уже писал о том, что инновации должны финансироваться отдельно от основного бизнеса. Потому что истинные инновации редко рождаются с прицелом на немедленную прибыль.
И вот тут на сцену врываются модели OpenSource!
Лишь за последнюю неделю мы увидели:
- Mistral Small - новый лидер для своего размера
- Gemma 3 - мультимодальная модель от Google, на которой, думаю, будет работать огромная куча чат-ботов
- Command A - уже не такая маленькая, но очень мощная модель от Cohere
А чуть раньше Alibaba выкатила QwQ и Qwen 2.5. Все эти модели имеют свои отличительные черты и юзкейсы, где работают лучше аналогов.
Что это меняет?
Представьте, что доступ к суперкомпьютерам внезапно получили не только миллиардеры в Кремниевой долине, но и талантливые исследователи со всего мира! Проект Sesame (используют токенизаторы llama, а в разговоре говорит, что у нее Gemma 27b под капотом) с их невероятно реалистичными голосами — яркий пример того, что происходит, когда мощные технологии выходят из-за корпоративных стен.
Для бизнеса это тоже золотая жила. Зависимость от API — всё равно что подключаться к чужому генератору во время энергокризиса: в любой момент хозяин может поднять цену или просто выключить рубильник. С OpenSource моделями вы становитесь хозяином положения, а ваши данные остаются только вашими. Кроме того, по мере роста бизнеса, держать свой сервер может быть НАМНОГО выгоднее оплаты за API: посмотрите как Perplexity используют DeepSeek R-1.
Я сам поймал себя на том, что всё чаще пользуюсь Ollama или LM Studio вместо API, из-за чего ловлю косые взгляды, мол: "Зачем возиться, когда есть готовые решения?”. Но когда работаешь с конфиденциальной информацией, локальная модель — как личный консультант, который никогда не проболтается.
А как вы относитесь к OpenSource-моделям? Пользуетесь ли сами? 🙂
#развитиеии
Помните момент, когда Meta (запрещена в РФ) выбросила LLAMA в открытый доступ в 2023? На тот момент это было буквально землетрясение в мире ИИ! А в феврале этого года DeepSeek R-1 выстрелил настолько мощно, что вызвал новую волну на рынке OpenSource моделей.
И знаете что? Я аплодирую стоя! 👏
До недавнего времени Gemma 2 от Google держала пальму первенства среди открытых моделей малого размера, но настоящая сила ИИ оставалась запертой в сейфах FAANG-гигантов, OpenAI и Anthropic. Закрытый код, растущие цены, элитные уровни подписок - классическая история корпоративной эволюции.
Проработав в R&D-командах, я наблюдал эту трансформацию не раз: "Где деньги, Лебовски?" - неизбежный вопрос менеджмента и инвесторов. Ранее я уже писал о том, что инновации должны финансироваться отдельно от основного бизнеса. Потому что истинные инновации редко рождаются с прицелом на немедленную прибыль.
И вот тут на сцену врываются модели OpenSource!
Лишь за последнюю неделю мы увидели:
- Mistral Small - новый лидер для своего размера
- Gemma 3 - мультимодальная модель от Google, на которой, думаю, будет работать огромная куча чат-ботов
- Command A - уже не такая маленькая, но очень мощная модель от Cohere
А чуть раньше Alibaba выкатила QwQ и Qwen 2.5. Все эти модели имеют свои отличительные черты и юзкейсы, где работают лучше аналогов.
Что это меняет?
Представьте, что доступ к суперкомпьютерам внезапно получили не только миллиардеры в Кремниевой долине, но и талантливые исследователи со всего мира! Проект Sesame (используют токенизаторы llama, а в разговоре говорит, что у нее Gemma 27b под капотом) с их невероятно реалистичными голосами — яркий пример того, что происходит, когда мощные технологии выходят из-за корпоративных стен.
Для бизнеса это тоже золотая жила. Зависимость от API — всё равно что подключаться к чужому генератору во время энергокризиса: в любой момент хозяин может поднять цену или просто выключить рубильник. С OpenSource моделями вы становитесь хозяином положения, а ваши данные остаются только вашими. Кроме того, по мере роста бизнеса, держать свой сервер может быть НАМНОГО выгоднее оплаты за API: посмотрите как Perplexity используют DeepSeek R-1.
Я сам поймал себя на том, что всё чаще пользуюсь Ollama или LM Studio вместо API, из-за чего ловлю косые взгляды, мол: "Зачем возиться, когда есть готовые решения?”. Но когда работаешь с конфиденциальной информацией, локальная модель — как личный консультант, который никогда не проболтается.
А как вы относитесь к OpenSource-моделям? Пользуетесь ли сами? 🙂
#развитиеии
Telegram
NGI | Влад Корнышев про AI и создание AI-продуктов
Инновации должны финансироваться отдельно от всего остального бизнеса
Это мое мнение. Сегодня организации чтобы выжить - должны инвестировать в инновации. Если не вкладываешься в них - умрешь. Это правило бизнеса. Невозможно делать одно и то же и все время…
Это мое мнение. Сегодня организации чтобы выжить - должны инвестировать в инновации. Если не вкладываешься в них - умрешь. Это правило бизнеса. Невозможно делать одно и то же и все время…
🔥6👍1
Рост возможностей ИИ по закону Мура: способность выполнять всё более длительные задачи
Все, кто интересуется технологиями, наверняка слышали о законе Мура. В течение многих лет он служил своего рода дорожной картой для развития компьютерной индустрии, предсказывая экспоненциальный рост вычислительных мощностей.
А что если подобный закон действует и для искусственного интеллекта?
Сегодня я наткнулся на интересное исследование, которое предлагает измерять прогресс ИИ не в привычных бенчмарках, а в терминах длительности задач, которые ИИ может самостоятельно выполнять. И результаты оказались поразительными!
Что измеряли исследователи
Исследователи предложили оценивать возможности ИИ по длительности задач, которые он может успешно выполнить. Длительность измеряется временем, которое затрачивают профессионалы-люди на выполнение тех же задач.
Результаты поразительны: длительность задач, которые передовые модели ИИ могут выполнить автономно с 50% надежностью, удваивается примерно каждые 7 месяцев на протяжении последних 6 лет.
Текущие возможности ИИ
Сегодняшние передовые системы ИИ:
- Практически со 100% вероятностью справляются с задачами, на которые эксперты-люди тратят менее 4 минут
- Успешно выполняют задачи длительностью до часа с вероятностью около 50%
- Справляются с задачами длительностью более 4 часов менее чем в 10% случаев
Это помогает понять кажущееся противоречие: ИИ демонстрирует сверхчеловеческие результаты на многих тестах, но при этом не может надежно автоматизировать длительные задачи людей.
Прогнозы на будущее
Если текущая экспоненциальная тенденция сохранится:
- Через 2-4 года ИИ сможет самостоятельно выполнять широкий спектр недельных задач
- К концу текущего десятилетия ИИ сможет автономно выполнять месячные проекты
Характерно, что эти прогнозы достаточно устойчивы: даже если абсолютные измерения ошибочны в 10 раз, это меняет время достижения соответствующих возможностей всего на 2 года.
Последствия для общества
Экспоненциальный рост возможностей ИИ несет огромные ставки:
- Системы ИИ, способные автономно выполнять длительные задачи, могут принести колоссальную пользу различным областям
- В то же время, такие возможности создают новые риски и вызовы
Исследователи открыли исходный код своей инфраструктуры, данных и анализа, чтобы способствовать дальнейшему развитию этого направления исследований.
И что с этого?
Хотя методология исследования имеет ограничения, общая тенденция представляется корректной: скорость роста составляет примерно 1-4 удвоения в год. Это обеспечивает новый, более конкретный способ прогнозирования будущих возможностей ИИ и их влияния на реальный мир.
Если вы интересуетесь развитием искусственного интеллекта, это исследование предлагает важную и относительно надежную метрику для отслеживания прогресса в ближайшие годы.
Что вы думаете об этом? Верите ли вы в "закон Мура" для ИИ? Какие видите возможности и риски? Давайте обсудим в комментариях!
#развитиеии
Все, кто интересуется технологиями, наверняка слышали о законе Мура. В течение многих лет он служил своего рода дорожной картой для развития компьютерной индустрии, предсказывая экспоненциальный рост вычислительных мощностей.
А что если подобный закон действует и для искусственного интеллекта?
Сегодня я наткнулся на интересное исследование, которое предлагает измерять прогресс ИИ не в привычных бенчмарках, а в терминах длительности задач, которые ИИ может самостоятельно выполнять. И результаты оказались поразительными!
Что измеряли исследователи
Исследователи предложили оценивать возможности ИИ по длительности задач, которые он может успешно выполнить. Длительность измеряется временем, которое затрачивают профессионалы-люди на выполнение тех же задач.
Результаты поразительны: длительность задач, которые передовые модели ИИ могут выполнить автономно с 50% надежностью, удваивается примерно каждые 7 месяцев на протяжении последних 6 лет.
Текущие возможности ИИ
Сегодняшние передовые системы ИИ:
- Практически со 100% вероятностью справляются с задачами, на которые эксперты-люди тратят менее 4 минут
- Успешно выполняют задачи длительностью до часа с вероятностью около 50%
- Справляются с задачами длительностью более 4 часов менее чем в 10% случаев
Это помогает понять кажущееся противоречие: ИИ демонстрирует сверхчеловеческие результаты на многих тестах, но при этом не может надежно автоматизировать длительные задачи людей.
Прогнозы на будущее
Если текущая экспоненциальная тенденция сохранится:
- Через 2-4 года ИИ сможет самостоятельно выполнять широкий спектр недельных задач
- К концу текущего десятилетия ИИ сможет автономно выполнять месячные проекты
Характерно, что эти прогнозы достаточно устойчивы: даже если абсолютные измерения ошибочны в 10 раз, это меняет время достижения соответствующих возможностей всего на 2 года.
Последствия для общества
Экспоненциальный рост возможностей ИИ несет огромные ставки:
- Системы ИИ, способные автономно выполнять длительные задачи, могут принести колоссальную пользу различным областям
- В то же время, такие возможности создают новые риски и вызовы
Исследователи открыли исходный код своей инфраструктуры, данных и анализа, чтобы способствовать дальнейшему развитию этого направления исследований.
И что с этого?
Хотя методология исследования имеет ограничения, общая тенденция представляется корректной: скорость роста составляет примерно 1-4 удвоения в год. Это обеспечивает новый, более конкретный способ прогнозирования будущих возможностей ИИ и их влияния на реальный мир.
Если вы интересуетесь развитием искусственного интеллекта, это исследование предлагает важную и относительно надежную метрику для отслеживания прогресса в ближайшие годы.
Что вы думаете об этом? Верите ли вы в "закон Мура" для ИИ? Какие видите возможности и риски? Давайте обсудим в комментариях!
#развитиеии
👍9🔥3
Где учиться AI?
С тех пор как я начал активно вести соцсети, ко мне часто стали приходить люди с вопросами о том, где и что надо изучать, чтобы работать в AI. Причем, что интересно, это были не только начинающие, но и те, кто уже работают с ИИ, и это неудивительно.
ИИ-сфера настолько динамична, что появляется страх что-то упустить и стать неактуальным. Я решил сделать этот пост, чтобы направлять сюда всех, кто интересуется темой обучения в сфере AI.
📌 У меня есть свой подход к обучению, я считаю, что любое обучение строится на трех столпах:
1. Базовые и исторические знания в своей области - они дают широту кругозора и позволяют хорошо ориентироваться на дистанции. Здесь как со знанием истории. Если у человека нет базы, им легко манипулировать, рассказывая сказки про печенегов.
2. Методология - это знания о методах и инструментах, которые применяются в профессии каждый день. Как правило, они долго не устаревают, а на образование новой парадигмы нужно время. Для продакта это основы менеджмента, различные фреймворки вроде JTBD и т. д. Для инженеров - основы программирования на их языке.
3. Знания в моменте - это знания под конкретный проект или задачу, которые нужны нам здесь и сейчас, они могут устареть через год, но в конкретный момент решают нашу задачу.
🙋🏻♂️ Если вы продакт
Для освоения базы и методологии лучше всего подойдут книги и программы от университетов + курсы от практикующих специалистов в вашей сфере. Вы работаете с людьми, а теории мотивации, методы исследований и прочее обновляются не так быстро, как технологии. Занятия с практиками помогут вам связать теорию с реальными задачами.
- По университетам я могу точно советовать свою программу в МГУ (веду переговоры, чтобы читать там модуль про ИИ). Если зарубежка - ищите программы, где при факультете есть акселератор или бизнес-инкубатор. Также рекомендую посмотреть в сторону Executive-образования. Лично я сейчас откладываю на пару программ MIT.
- Онлайн-курсы - Pearson оплачивал мне лайв-курсы от Reforge, круто, но дорого. Из практиков единственный, кого могу прямо порекомендовать, Ваня Замесин. Всякие курсы Go Practice, Product Star категорически не советую, они хороши только как “база знаний”.
- Из книг база - Inspired Марти Кагана, Основы Менеджмента А. Мескона + я регулярно публикую у себя подборки по хештегу #книги
Знания в моменте. Здесь на помощь снова придут книги, обучение в коллективе, самостоятельное обучение через опыт, менторинг с более опытным коллегой, “живые” когорты онлайн-курсов. Предзаписанные курсы точно не советую, они либо устаревают, либо дают что-то слишком банальное. Также категорически не рекомендую брать курсы от “экспертов по маркетингу”. Ребята умеют продавать, но за тему не шарят. У таких курсов в программе будут всякие “автокастдевы с помощью ИИ” и прочее барахло.
👨🏻💻Если вы технический специалист
Большинство университетов не успевают делать нормальные программы, поэтому здесь для базы я бы рекомендовал взять курсы по Python от кого-то из эдтехов (мне компания оплачивала SkyPro, медленно изучаю). Они постоянно обновляются, чтобы быть конкурентными, и вы сразу учитесь на практике. Либо, если вам позволяют ресурсы, поступайте в крутой универ со своей лабораторией типа Stanford или MIT.
Помимо основ, вам помогут профильные курсы. По ML многие советовали мне вот этот курс. Из крутых спецов очень рекомендую Виктора Кантора. Практику можно получать, решая задачи на Kaggle. Если хорошо будете решать задачки, можете попутно поднять денег или получить оффер. К тому моменту, как вы это все изучите, вы уже выберете себе направление в AI, коих бесчисленно: NLP, Computer vision и т. д. Дальше обучение нужно будет продолжать исходя из этого выбора. Ну и, конечно, никуда не уходят книги.
Знания в моменте. Хакатоны, менторинг от коллег, снова Kaggle и другие комьюнити. Вообще, чем я завидую техническим специалистам, так это тем, что у них есть такие штуки.
Хочется сделать этот пост еще полезнее, поэтому если у вас есть книги и бесплатные ресурсы по ИИ, которые помогли вам - делитесь в комментариях!
#обучающиематериалы
С тех пор как я начал активно вести соцсети, ко мне часто стали приходить люди с вопросами о том, где и что надо изучать, чтобы работать в AI. Причем, что интересно, это были не только начинающие, но и те, кто уже работают с ИИ, и это неудивительно.
ИИ-сфера настолько динамична, что появляется страх что-то упустить и стать неактуальным. Я решил сделать этот пост, чтобы направлять сюда всех, кто интересуется темой обучения в сфере AI.
📌 У меня есть свой подход к обучению, я считаю, что любое обучение строится на трех столпах:
1. Базовые и исторические знания в своей области - они дают широту кругозора и позволяют хорошо ориентироваться на дистанции. Здесь как со знанием истории. Если у человека нет базы, им легко манипулировать, рассказывая сказки про печенегов.
2. Методология - это знания о методах и инструментах, которые применяются в профессии каждый день. Как правило, они долго не устаревают, а на образование новой парадигмы нужно время. Для продакта это основы менеджмента, различные фреймворки вроде JTBD и т. д. Для инженеров - основы программирования на их языке.
3. Знания в моменте - это знания под конкретный проект или задачу, которые нужны нам здесь и сейчас, они могут устареть через год, но в конкретный момент решают нашу задачу.
🙋🏻♂️ Если вы продакт
Для освоения базы и методологии лучше всего подойдут книги и программы от университетов + курсы от практикующих специалистов в вашей сфере. Вы работаете с людьми, а теории мотивации, методы исследований и прочее обновляются не так быстро, как технологии. Занятия с практиками помогут вам связать теорию с реальными задачами.
- По университетам я могу точно советовать свою программу в МГУ (веду переговоры, чтобы читать там модуль про ИИ). Если зарубежка - ищите программы, где при факультете есть акселератор или бизнес-инкубатор. Также рекомендую посмотреть в сторону Executive-образования. Лично я сейчас откладываю на пару программ MIT.
- Онлайн-курсы - Pearson оплачивал мне лайв-курсы от Reforge, круто, но дорого. Из практиков единственный, кого могу прямо порекомендовать, Ваня Замесин. Всякие курсы Go Practice, Product Star категорически не советую, они хороши только как “база знаний”.
- Из книг база - Inspired Марти Кагана, Основы Менеджмента А. Мескона + я регулярно публикую у себя подборки по хештегу #книги
Знания в моменте. Здесь на помощь снова придут книги, обучение в коллективе, самостоятельное обучение через опыт, менторинг с более опытным коллегой, “живые” когорты онлайн-курсов. Предзаписанные курсы точно не советую, они либо устаревают, либо дают что-то слишком банальное. Также категорически не рекомендую брать курсы от “экспертов по маркетингу”. Ребята умеют продавать, но за тему не шарят. У таких курсов в программе будут всякие “автокастдевы с помощью ИИ” и прочее барахло.
👨🏻💻Если вы технический специалист
Большинство университетов не успевают делать нормальные программы, поэтому здесь для базы я бы рекомендовал взять курсы по Python от кого-то из эдтехов (мне компания оплачивала SkyPro, медленно изучаю). Они постоянно обновляются, чтобы быть конкурентными, и вы сразу учитесь на практике. Либо, если вам позволяют ресурсы, поступайте в крутой универ со своей лабораторией типа Stanford или MIT.
Помимо основ, вам помогут профильные курсы. По ML многие советовали мне вот этот курс. Из крутых спецов очень рекомендую Виктора Кантора. Практику можно получать, решая задачи на Kaggle. Если хорошо будете решать задачки, можете попутно поднять денег или получить оффер. К тому моменту, как вы это все изучите, вы уже выберете себе направление в AI, коих бесчисленно: NLP, Computer vision и т. д. Дальше обучение нужно будет продолжать исходя из этого выбора. Ну и, конечно, никуда не уходят книги.
Знания в моменте. Хакатоны, менторинг от коллег, снова Kaggle и другие комьюнити. Вообще, чем я завидую техническим специалистам, так это тем, что у них есть такие штуки.
Хочется сделать этот пост еще полезнее, поэтому если у вас есть книги и бесплатные ресурсы по ИИ, которые помогли вам - делитесь в комментариях!
#обучающиематериалы
❤16👍3
Эфир: ИИ-тренды 2025-2026. Как действовать бизнесу и специалистам в эпоху ИИ-хайпа
Хочу сделать традицией проведение открытых эфиров в канале. Предыдущий был про AI в медицине, а неделю назад я выступал инициатором и спикером на секции про делегирование задач ИИ. Настало время для нового мероприятия!
📆 24 марта, понедельник, 19:00 по Москве проведу открытый эфир по ИИ-трендам и практическому применению технологий. Эфир пройдет здесь в Telegram
За последний год количество упоминаний AI-инструментов и AI-интеграций просто зашкаливает. Все это создает нереальный информационный шум: за заголовками, бенчмарками и обещаниями ИИ-интеграторов понять самому, что делать и куда идти - практически невозможно. В своей работе я постоянно тестирую новые решения и вижу огромный разрыв между хайпом и реальной пользой.
Решил поделиться практическими наблюдениями о том, что происходит в индустрии прямо сейчас и чего ожидать в ближайшие пару лет. Это не теоретические рассуждения — только то, что я вижу в реальных проектах.
🚀 На эфире разберем:
• Навыки будущего - что развивать в себе, чтобы оставаться востребованным в ближайшие 5-10 лет.
• ИИ-агенты и их практическое применение - куда движется технология автономных ИИ и где они уже приносят реальную пользу. Поговорим про реальный агентский ИИ, а не n8n автоматизации.
• Тренды в мире Open Source AI - как развивается демократизация ИИ и какие модели действительно заслуживают внимания.
• Влияние ИИ на рынок труда - какие профессии трансформируются быстрее всего и где автоматизация уже реальность. Обсудим кого заменит ИИ и стоит ли бояться программистам.
Так как хочу сделать встречу максимально полезной, оставляю форму для сбора ваших вопросов, на которые отвечу в конце эфира.
👉🏻 Задать вопрос можно тут
Если нужно приглашения в календарь - там есть форма, где можно оставить почту, я пришлю вам инвайт
Бронируйте время в календаре! Участие бесплатное. Запись эфира будет, но живое общение, как обычно, ценнее.
Хочу сделать традицией проведение открытых эфиров в канале. Предыдущий был про AI в медицине, а неделю назад я выступал инициатором и спикером на секции про делегирование задач ИИ. Настало время для нового мероприятия!
📆 24 марта, понедельник, 19:00 по Москве проведу открытый эфир по ИИ-трендам и практическому применению технологий. Эфир пройдет здесь в Telegram
За последний год количество упоминаний AI-инструментов и AI-интеграций просто зашкаливает. Все это создает нереальный информационный шум: за заголовками, бенчмарками и обещаниями ИИ-интеграторов понять самому, что делать и куда идти - практически невозможно. В своей работе я постоянно тестирую новые решения и вижу огромный разрыв между хайпом и реальной пользой.
Решил поделиться практическими наблюдениями о том, что происходит в индустрии прямо сейчас и чего ожидать в ближайшие пару лет. Это не теоретические рассуждения — только то, что я вижу в реальных проектах.
• Навыки будущего - что развивать в себе, чтобы оставаться востребованным в ближайшие 5-10 лет.
• ИИ-агенты и их практическое применение - куда движется технология автономных ИИ и где они уже приносят реальную пользу. Поговорим про реальный агентский ИИ, а не n8n автоматизации.
• Тренды в мире Open Source AI - как развивается демократизация ИИ и какие модели действительно заслуживают внимания.
• Влияние ИИ на рынок труда - какие профессии трансформируются быстрее всего и где автоматизация уже реальность. Обсудим кого заменит ИИ и стоит ли бояться программистам.
Так как хочу сделать встречу максимально полезной, оставляю форму для сбора ваших вопросов, на которые отвечу в конце эфира.
👉🏻 Задать вопрос можно тут
Если нужно приглашения в календарь - там есть форма, где можно оставить почту, я пришлю вам инвайт
Бронируйте время в календаре! Участие бесплатное. Запись эфира будет, но живое общение, как обычно, ценнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
NGI | Влад Корнышев про AI и создание AI-продуктов
Запись лекции по AI в медицине уже доступна
Друзья, спасибо тем, кто пришел сегодня на лекцию. Рад был провести ее и ответить на вопросы.
Запись уже доступна по ссылке.
Материалы, которые упоминал:
Сайт Perceptive
Сервисы для медицинских заметок: Heidi…
Друзья, спасибо тем, кто пришел сегодня на лекцию. Рад был провести ее и ответить на вопросы.
Запись уже доступна по ссылке.
Материалы, которые упоминал:
Сайт Perceptive
Сервисы для медицинских заметок: Heidi…
🔥11
Как я приобрел себе подписку Perplexity Pro всего за $6 вместо $200
Ранее я писал, что Perplexity - один из моих любимых AI-поисковиков, который, на мой взгляд, стоит каждой потраченной на него копейки. Но, как и в случае любых других AI-сервисов цена у него может кусаться, особенно если сложить несколько подписок.
Увидел у коллег из Skyeng, что можно за 6 баксов купить промик на годовую подписку. Но я, как обычно, пошел ресерчить, как это работает. Нашел информацию, что Virgin Media вместе с O2 дают своим новым клиентам бесплатную подписку на Perplexity, акция действует до Мая 2025.
Другой легальный способ - если вы студент и более 500 человек с доменным именем вашего университета зарегистрировались на сервисе - всем вам дают годовую подписку.
И тот и другой способ работают через промокод. Собственно, именно эти промокоды и продаются на различных платформах.
Как и во всех подобных схемах, присутствует риск бана аккаунта, на котором использовался промокод, поэтому если вам не жалко 6 баксов - я бы рекомендовал создать отдельный аккаунт под этот эксперимент. В целом, даже если это проработает месяц, вы все равно будете в плюсе
Приобретал свой промокод у этого продавца. На этой жа платформе раньше покупал себе промокоды для покупки игр на Nintendo.
Пост - не реклама, комиссии мне не платят, просто делюсь полезным. Помните, что все действия вы осуществляете на свой страх и риск.
P.S. Я ориентировался на те объявления, где продают коды именно О2, так как связь с доменным именем университета слишком сильно палится.
Ранее я писал, что Perplexity - один из моих любимых AI-поисковиков, который, на мой взгляд, стоит каждой потраченной на него копейки. Но, как и в случае любых других AI-сервисов цена у него может кусаться, особенно если сложить несколько подписок.
Увидел у коллег из Skyeng, что можно за 6 баксов купить промик на годовую подписку. Но я, как обычно, пошел ресерчить, как это работает. Нашел информацию, что Virgin Media вместе с O2 дают своим новым клиентам бесплатную подписку на Perplexity, акция действует до Мая 2025.
Другой легальный способ - если вы студент и более 500 человек с доменным именем вашего университета зарегистрировались на сервисе - всем вам дают годовую подписку.
И тот и другой способ работают через промокод. Собственно, именно эти промокоды и продаются на различных платформах.
Как и во всех подобных схемах, присутствует риск бана аккаунта, на котором использовался промокод, поэтому если вам не жалко 6 баксов - я бы рекомендовал создать отдельный аккаунт под этот эксперимент. В целом, даже если это проработает месяц, вы все равно будете в плюсе
Приобретал свой промокод у этого продавца. На этой жа платформе раньше покупал себе промокоды для покупки игр на Nintendo.
Пост - не реклама, комиссии мне не платят, просто делюсь полезным. Помните, что все действия вы осуществляете на свой страх и риск.
P.S. Я ориентировался на те объявления, где продают коды именно О2, так как связь с доменным именем университета слишком сильно палится.
👍12🔥6
Вместе с ростом канала решил делать такие посты с подборкой того, что публиковал в течение недели. Выходить они будут по субботам/воскресеньям. Теперь, если вы что-то пропустили - можно будет быстро перейти к интересующей теме, почитать, прокомментрировать или поставить реакцию, так я пойму, что тема вам резонирует и буду делать больше подобного контента :)
1. Анонс эфира: ИИ-тренды 2025-2026. Как действовать бизнесу и специалистам в эпоху ИИ-хайпа - 24.03 в 19:00 по Мск я проведу эфир в канале по теме, которая будет полезна каждому
2. Где учиться AI? - пост с подборкой информации для продактов и технических специалистов
3. Рост возможностей ИИ по закону Мура: способность выполнять всё более длительные задачи - разбор свежайшего исследования о том, как развиваются модели с где они могут заменить человека
4. Расцвет OpenSource моделей: почему нам всем это выгодно - разбираю, почему OpenSource - это важно и что это дает бизнесу и обычным пользователям
5. Google переносят функции из NotebookLM в Gemini и добавляют Canvas! - Google сделали очень крутой апдейт. В посте больше писал про функцию NotebookLM, но сейчас могу сказать, что и Canvas они сделали лучше, чем у конкурентов.
6. Помощник для художника — как мы внедряли ИИ в генерацию иллюстраций в Skyeng - новый кейс об использовании ИИ для оптимизации создания контента
7. AI на кончиках пальцев - хак для продуктивности - делюсь одним из своих любимых ИИ-приложений
8. Как я приобрел годовую подписку Perplexity Pro за $6 вместо $200 - полезный хак, который поможет вам сэкономить
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
NGI | Влад Корнышев про AI и создание AI-продуктов
Эфир: ИИ-тренды 2025-2026. Как действовать бизнесу и специалистам в эпоху ИИ-хайпа
Хочу сделать традицией проведение открытых эфиров в канале. Предыдущий был про AI в медицине, а неделю назад я выступал инициатором и спикером на секции про делегирование…
Хочу сделать традицией проведение открытых эфиров в канале. Предыдущий был про AI в медицине, а неделю назад я выступал инициатором и спикером на секции про делегирование…
👍5🔥2
НАПОМИНАНИЕ: Сегодня в 19:00 эфир про ИИ-тренды
Друзья, напоминаю, что сегодня в 19:00 по МСК проведу открытый эфир о текущих трендах в ИИ и их практическом применении.
На эфире обсудим:
• Развитие ИИ-агентов и реальные примеры их использования
• Актуальные Open Source модели и их возможности
• Изменения на рынке труда под влиянием ИИ
• Навыки, которые будут востребованы в ближайшие годы
У вас ещё есть возможность задать интересующие вопросы по ссылке. Постараюсь ответить на них в конце эфира.
Участие бесплатное. Для тех, кто не сможет присоединиться, будет доступна запись.
До встречи сегодня вечером!
Друзья, напоминаю, что сегодня в 19:00 по МСК проведу открытый эфир о текущих трендах в ИИ и их практическом применении.
На эфире обсудим:
• Развитие ИИ-агентов и реальные примеры их использования
• Актуальные Open Source модели и их возможности
• Изменения на рынке труда под влиянием ИИ
• Навыки, которые будут востребованы в ближайшие годы
У вас ещё есть возможность задать интересующие вопросы по ссылке. Постараюсь ответить на них в конце эфира.
Участие бесплатное. Для тех, кто не сможет присоединиться, будет доступна запись.
До встречи сегодня вечером!
👍9
Будете на эфире?
Anonymous Poll
29%
Да, буду смотреть онлайн
51%
Нет, но посмотрю запись
8%
Нет, не планирую
12%
Посмотреть результаты
Anthropic дали Claude запасные “мозги”: рассказываю про новый “think” tool
Пока мы с вами ждем эфир, вот вам выжимка из свежей статьи от Anthropic про то, как они научили модель "думать" по-новому. И нет, речь не про Extended Thinking, о котором я писал еще с релизом модели.
Речь идет об инструменте, который значительно расширяет возможности модели в решении сложных задач. Компания рассказывает о так называемом "think" tool, который позволяет Claude выделять специальное пространство для структурированного мышления в процессе работы над задачей.
Что это за "think" tool и как он работает?
По сути, это дополнительный "шаг мышления" для Claude при генерации ответа. Если раньше Claude просто выдавал результат, то теперь, особенно когда информации для ответа недостаточно, или задача требует обработки внешних данных, модель может использовать этот инструмент, чтобы "подумать" над задачей.
Важно отметить, что это не то же самое, что "extended thinking". "Extended thinking" относится к процессу, который Claude выполняет перед генерацией ответа, когда модель глубоко анализирует задачу и планирует свои действия. А "think" tool, наоборот, используется в процессе генерации ответа, позволяя Claude остановиться и проанализировать, достаточно ли у него информации для дальнейших действий.
Подход, на мой взгляд, очень интересный. Но не напоминает ли это вам что-то? Подумайте!
Нечто похожее можно увидеть у разных компаний. Например, примерно так работает DeepResearch у ряда ИИ-сервисов, когда модель задает нам доуточняющие вопросы, чтобы лучше понять задачу.
Вообще, дать модели "подумать" - это вполне логичный шаг с точки зрения промптинга. Подобная стратегия широко применяется, чтобы снизить баяс (предвзятость) модели и направить ее в нужное русло. Разница сейчас будет в том, что теперь модель сама определяет, когда это надо сделать.
В целом, такой подход позволяет развивать LLM в сторону принятия автономных решений, что необходимо для создания ИИ-агентов. Поэтому сам подход - не является чем-то новым и удивительным, но прикольно, что они идут в сторону автоматизации. Тем не менее, моделям все равно необходима будет валидация, и лучше всего это работает в сочетании с подсказками от человека, что как раз отметили в исследовании.
Звучит прикольно, но как это работает в реальности?
От себя точно могу сказать, что подобный подход - очень эффективен. В Pollux AI мы как раз даем моделям доп шаг на “размышление” при брифинге клиента, это позволяет модели лучше следовать сценарию.
Разработчики Claude, в свою очередь, протестировали "think" tool на базе τ-bench, бенчмарка для оценки способности модели использовать инструменты в реалистичных сценариях обслуживания клиентов.
Тесты показали значительное улучшение результатов в задачах, требующих:
Как отмечал выше, лучше всего использование "think" tool работало в сочетании с оптимизированными подсказками, дающими модели примеры рассуждений для анализа запросов пользователей.
В общем, мы уверенно движемся к созданию более автономных ИИ-систем, о которых как раз сегодня поговорим 😉
Пока мы с вами ждем эфир, вот вам выжимка из свежей статьи от Anthropic про то, как они научили модель "думать" по-новому. И нет, речь не про Extended Thinking, о котором я писал еще с релизом модели.
Речь идет об инструменте, который значительно расширяет возможности модели в решении сложных задач. Компания рассказывает о так называемом "think" tool, который позволяет Claude выделять специальное пространство для структурированного мышления в процессе работы над задачей.
Что это за "think" tool и как он работает?
По сути, это дополнительный "шаг мышления" для Claude при генерации ответа. Если раньше Claude просто выдавал результат, то теперь, особенно когда информации для ответа недостаточно, или задача требует обработки внешних данных, модель может использовать этот инструмент, чтобы "подумать" над задачей.
Важно отметить, что это не то же самое, что "extended thinking". "Extended thinking" относится к процессу, который Claude выполняет перед генерацией ответа, когда модель глубоко анализирует задачу и планирует свои действия. А "think" tool, наоборот, используется в процессе генерации ответа, позволяя Claude остановиться и проанализировать, достаточно ли у него информации для дальнейших действий.
Подход, на мой взгляд, очень интересный. Но не напоминает ли это вам что-то? Подумайте!
Нечто похожее можно увидеть у разных компаний. Например, примерно так работает DeepResearch у ряда ИИ-сервисов, когда модель задает нам доуточняющие вопросы, чтобы лучше понять задачу.
Вообще, дать модели "подумать" - это вполне логичный шаг с точки зрения промптинга. Подобная стратегия широко применяется, чтобы снизить баяс (предвзятость) модели и направить ее в нужное русло. Разница сейчас будет в том, что теперь модель сама определяет, когда это надо сделать.
В целом, такой подход позволяет развивать LLM в сторону принятия автономных решений, что необходимо для создания ИИ-агентов. Поэтому сам подход - не является чем-то новым и удивительным, но прикольно, что они идут в сторону автоматизации. Тем не менее, моделям все равно необходима будет валидация, и лучше всего это работает в сочетании с подсказками от человека, что как раз отметили в исследовании.
Звучит прикольно, но как это работает в реальности?
От себя точно могу сказать, что подобный подход - очень эффективен. В Pollux AI мы как раз даем моделям доп шаг на “размышление” при брифинге клиента, это позволяет модели лучше следовать сценарию.
Разработчики Claude, в свою очередь, протестировали "think" tool на базе τ-bench, бенчмарка для оценки способности модели использовать инструменты в реалистичных сценариях обслуживания клиентов.
Тесты показали значительное улучшение результатов в задачах, требующих:
- Анализа вывода инструментов.
- Соблюдения строгих политик.
- Принятия последовательных решений, где каждый шаг зависит от предыдущего.
Как отмечал выше, лучше всего использование "think" tool работало в сочетании с оптимизированными подсказками, дающими модели примеры рассуждений для анализа запросов пользователей.
В общем, мы уверенно движемся к созданию более автономных ИИ-систем, о которых как раз сегодня поговорим 😉
Anthropic
The "think" tool: Enabling Claude to stop and think
A blog post for developers, describing a new method for complex tool-use situations
🔥2
Трансляция завершена, чуть позже скину запись и презентацию.
👍1
Media is too big
VIEW IN TELEGRAM
Запись эфира по ИИ-трендам
Друзья, благодарю всех, кто посетил эфир сегодня. Надеюсь, что каждый унес для себя с него что-то ценное.
Анонс будет завтра.
Презентация - в первом комментарии :)
Друзья, благодарю всех, кто посетил эфир сегодня. Надеюсь, что каждый унес для себя с него что-то ценное.
Анонс будет завтра.
Презентация - в первом комментарии :)
🔥6👍2
Запускаю два новых продукта по AI!
Привет, друзья! В конце вчерашнего эфира я презентовал два продукта над которыми активно работал последние 6 месяцев.
Речь идет о моих тренингах по ИИ и AI продакт менеджменту.
В посте про образование я говорил о трех столпах: базовых знаниях, методологии и знаниях в моменте.
Именно на них стрятся мои программы: в начале мы разберемся с основами ИИ, затем перейдем к методологии, которую сразу же опробуем для решения конкретных задач. Помимо этого, я снабжу вас огромным количеством ресурсов, которые помогут вам углубить свои знания в выбранном направлении.
📈 ИИ для личной эффективности Старт 8 апреля, занятия по вторникам, 4 недели
Этот тренинг я создал для тех, кто хочет не просто использовать ИИ, а понимать, что это за технология и как она может сделать вас эффективнее.
Он для вас, если:
- Вы хотите понять, что такое ИИ, когда он действительно спасает, а когда лучше сделать по-старинке
- Хотите быстрее анализировать большие объемы данных, принимать более взвешенные решения стимулировать свою креативность
- Хотите расширить спектр своих возможностей с помощью ИИ и начать делать то, что откладывали раньше
🙋🏻♂️ AI продакт менеджмент Старт 9 апреля, занятия по средам, 8 недель
Этот тренинг охватывает два ключевых направления: создание AI-продуктов и применение AI-инструментов в повседневной деятельности продакт-менеджера.
Он для вас, если:
- Вы человек из бизнеса либо продакт,и хотите внедрить AI в свои продукты и бизнес-процессы
- Ищете проверенные методологии разработки AI-продуктов из реальной практики
- Хотите, внедрить AI не потому что это модно, а чтобы он давал конкретные результаты
Почему я уверен в своих тренингах:
В основе тренингов - мой опыт разработки AI-продуктов: тысячи часов исследований и общения с пользователями для того, чтобы создать 20+ AI продуктов за время работы в Skyeng, Pearson и EAI
Программы уже обкатаны: на закрытых группах, индивидуальных консультациях и даже Michigan State University. Я доработал тренинги, на основе обратной связи и глубинных интервью с представителями различных сфер, включая: IT, предпринимательство, медицину, маркетинг и др.
Фокус на фундаментальных знаниях и методологии, а не конкретных сервисах, которые завтра могут исчезнуть. Вы научитесь выбирать и комбинировать ИИ-инструменты под свои задачи
Что вы конкретно получите:
1. Самые актуальные знания и навыки в области ИИ, подкрепленные моим опытом и знаниями, полученными из образовательных программ Reforge, Google, OpenAI.
2. Рабочие методы взаимодействия с AI, которые мы активно используем в EAI, включая фреймворк AI-Дизайна продукта в программе для продактов.
3. Пожизненный доступ к материалам c обновлениями. Вы не просто получите записи будущих потоков, а сможете участвовать в живых сессиях. Также материалы будущих потоков будут включать инсайты из моего будущего обучения по программе в MIT.
4. Все выпускники тренинга получат постоянный доступ к закрытому коммьюнити по ИИ. Там будут отдельные материалы, мероприятия, а также крутые специалисты по ИИ, которым я доверяю. Для всех остальных доступ к коммьюнити откроется позже и будет осуществляться по ежемесячной подписке
👉 В комментарии к посту прикрепляю подробные программы тренингов — они должны ответить на все ваши вопросы. Если остались вопросы — задавайте их прямо под этим постом, я отвечу каждому.
🚀 Приобрести тренинги можно на моём сайте: https://www.ngi.academy/
Оплата доступна российскими и зарубежными картами. Если у вас возникли сложности с оплатой — пишите в личку.
❗️ В честь запуска, до 2 апреля включительно цены снижены. После - будут постепенно повышаться. Тренинги 3 потока, запланированные на май и июнь, будут дороже, т.к. в цены будет заложен доп бюджет на маркетинг.
P.S. В январе своим давним подписчикам я обещал скидку на тренинги - напишите мне в личку, и я предоставлю вам 5% скидку на любой тариф. Эту же скидку получат первые 3, кто отпишется под этим постом
Также я разыграю места среди всех подписчиков. Детали в посте ниже
Привет, друзья! В конце вчерашнего эфира я презентовал два продукта над которыми активно работал последние 6 месяцев.
Речь идет о моих тренингах по ИИ и AI продакт менеджменту.
В посте про образование я говорил о трех столпах: базовых знаниях, методологии и знаниях в моменте.
Именно на них стрятся мои программы: в начале мы разберемся с основами ИИ, затем перейдем к методологии, которую сразу же опробуем для решения конкретных задач. Помимо этого, я снабжу вас огромным количеством ресурсов, которые помогут вам углубить свои знания в выбранном направлении.
📈 ИИ для личной эффективности Старт 8 апреля, занятия по вторникам, 4 недели
Этот тренинг я создал для тех, кто хочет не просто использовать ИИ, а понимать, что это за технология и как она может сделать вас эффективнее.
Он для вас, если:
- Вы хотите понять, что такое ИИ, когда он действительно спасает, а когда лучше сделать по-старинке
- Хотите быстрее анализировать большие объемы данных, принимать более взвешенные решения стимулировать свою креативность
- Хотите расширить спектр своих возможностей с помощью ИИ и начать делать то, что откладывали раньше
🙋🏻♂️ AI продакт менеджмент Старт 9 апреля, занятия по средам, 8 недель
Этот тренинг охватывает два ключевых направления: создание AI-продуктов и применение AI-инструментов в повседневной деятельности продакт-менеджера.
Он для вас, если:
- Вы человек из бизнеса либо продакт,и хотите внедрить AI в свои продукты и бизнес-процессы
- Ищете проверенные методологии разработки AI-продуктов из реальной практики
- Хотите, внедрить AI не потому что это модно, а чтобы он давал конкретные результаты
Почему я уверен в своих тренингах:
В основе тренингов - мой опыт разработки AI-продуктов: тысячи часов исследований и общения с пользователями для того, чтобы создать 20+ AI продуктов за время работы в Skyeng, Pearson и EAI
Программы уже обкатаны: на закрытых группах, индивидуальных консультациях и даже Michigan State University. Я доработал тренинги, на основе обратной связи и глубинных интервью с представителями различных сфер, включая: IT, предпринимательство, медицину, маркетинг и др.
Фокус на фундаментальных знаниях и методологии, а не конкретных сервисах, которые завтра могут исчезнуть. Вы научитесь выбирать и комбинировать ИИ-инструменты под свои задачи
Что вы конкретно получите:
1. Самые актуальные знания и навыки в области ИИ, подкрепленные моим опытом и знаниями, полученными из образовательных программ Reforge, Google, OpenAI.
2. Рабочие методы взаимодействия с AI, которые мы активно используем в EAI, включая фреймворк AI-Дизайна продукта в программе для продактов.
3. Пожизненный доступ к материалам c обновлениями. Вы не просто получите записи будущих потоков, а сможете участвовать в живых сессиях. Также материалы будущих потоков будут включать инсайты из моего будущего обучения по программе в MIT.
4. Все выпускники тренинга получат постоянный доступ к закрытому коммьюнити по ИИ. Там будут отдельные материалы, мероприятия, а также крутые специалисты по ИИ, которым я доверяю. Для всех остальных доступ к коммьюнити откроется позже и будет осуществляться по ежемесячной подписке
👉 В комментарии к посту прикрепляю подробные программы тренингов — они должны ответить на все ваши вопросы. Если остались вопросы — задавайте их прямо под этим постом, я отвечу каждому.
🚀 Приобрести тренинги можно на моём сайте: https://www.ngi.academy/
Оплата доступна российскими и зарубежными картами. Если у вас возникли сложности с оплатой — пишите в личку.
❗️ В честь запуска, до 2 апреля включительно цены снижены. После - будут постепенно повышаться. Тренинги 3 потока, запланированные на май и июнь, будут дороже, т.к. в цены будет заложен доп бюджет на маркетинг.
P.S. В январе своим давним подписчикам я обещал скидку на тренинги - напишите мне в личку, и я предоставлю вам 5% скидку на любой тариф. Эту же скидку получат первые 3, кто отпишется под этим постом
Также я разыграю места среди всех подписчиков. Детали в посте ниже
www.ngi.academy
Выбери свой путь | NGI Academy
Choose your path: AI Product Management or AI for Efficiency
❤6👍1
Получите востребованные навыки в AI бесплатно. Розыгрыш мест на тренинги
Как и обещал, разыгрываю несколько мест на мои тренинги ИИ для личной эффективности и AI-продакт-менеджмент! Хочу, чтобы эти знания достались тем, кто действительно увлечен темой и готов применять их на практике.
Поэтому наиболее честный способ выбрать победителей – оценить ваши мотивационные письма.
Сколько мест разыгрываем? Это зависит от вас!
- 600 подписчиков в канале активируют розыгрыш. Разыграю по 1 месту на каждый тренинг
- 800 подписчиков: + 1 место на тренинг "ИИ для личной эффективности".
- 1200 подписчиков: + 1 место на тренинг "AI-продакт-менеджмент".
Максимум – по 2 места на каждый тренинг!
❗️Подписчики должны быть живые, а не боты. Качество аудитории буду проверять.
Как принять участие:
1. Быть подписаным на этот канал
2. Заполнить Google-форму
3. В ней указать, на какой тренинг вы хотите попасть
4. И вставить свое мотивационное письмо: расскажите, почему вы хотите пройти именно этот тренинг и как планируете применять полученные знания. Письмо я настоятельно рекомендую писать самостоятельно. За текстом я хочу увидеть личность человека, а не набор фактов. Длина - не более 700 символов
5. Поделитесь постом с теми, кому может быть полезен мой канал либо один из тренингов
Прием заявок: до 19:00 (МСК) 6 апреля.
Как будем выбирать победителей:
1. Я лично прочитаю каждое письмо и самым сильным в каждой категории отдам свои 2 балла. Я могу отдать оба балла одному письму либо отдать по 1
2. Затем то же самое сделают Gemini и ChatGPT: выберут по одному лучшему письму в каждой категории (+1 балл).
3. Победителями станут те, кто наберет больше всего баллов. При равенстве баллов победителя из числа лидеров выберу я сам.
Итоги подведем в прямом эфире, 7 апреля в 19:00 (МСК).
👉 Форма для участия
❗️Важно: В канале установлена защита от накрутки подписчиков. Любая попытка накрутки ботов в канал будет обнаружена и приведёт к бану инициаторов и отмене розыгрыша.
Как и обещал, разыгрываю несколько мест на мои тренинги ИИ для личной эффективности и AI-продакт-менеджмент! Хочу, чтобы эти знания достались тем, кто действительно увлечен темой и готов применять их на практике.
Поэтому наиболее честный способ выбрать победителей – оценить ваши мотивационные письма.
Сколько мест разыгрываем? Это зависит от вас!
- 600 подписчиков в канале активируют розыгрыш. Разыграю по 1 месту на каждый тренинг
- 800 подписчиков: + 1 место на тренинг "ИИ для личной эффективности".
- 1200 подписчиков: + 1 место на тренинг "AI-продакт-менеджмент".
Максимум – по 2 места на каждый тренинг!
❗️Подписчики должны быть живые, а не боты. Качество аудитории буду проверять.
Как принять участие:
1. Быть подписаным на этот канал
2. Заполнить Google-форму
3. В ней указать, на какой тренинг вы хотите попасть
4. И вставить свое мотивационное письмо: расскажите, почему вы хотите пройти именно этот тренинг и как планируете применять полученные знания. Письмо я настоятельно рекомендую писать самостоятельно. За текстом я хочу увидеть личность человека, а не набор фактов. Длина - не более 700 символов
5. Поделитесь постом с теми, кому может быть полезен мой канал либо один из тренингов
Прием заявок: до 19:00 (МСК) 6 апреля.
Как будем выбирать победителей:
1. Я лично прочитаю каждое письмо и самым сильным в каждой категории отдам свои 2 балла. Я могу отдать оба балла одному письму либо отдать по 1
2. Затем то же самое сделают Gemini и ChatGPT: выберут по одному лучшему письму в каждой категории (+1 балл).
3. Победителями станут те, кто наберет больше всего баллов. При равенстве баллов победителя из числа лидеров выберу я сам.
Итоги подведем в прямом эфире, 7 апреля в 19:00 (МСК).
👉 Форма для участия
❗️Важно: В канале установлена защита от накрутки подписчиков. Любая попытка накрутки ботов в канал будет обнаружена и приведёт к бану инициаторов и отмене розыгрыша.
🔥2👍1
NGI | Влад Корнышев про AI и создание AI-продуктов pinned «Запускаю два новых продукта по AI! Привет, друзья! В конце вчерашнего эфира я презентовал два продукта над которыми активно работал последние 6 месяцев. Речь идет о моих тренингах по ИИ и AI продакт менеджменту. В посте про образование я говорил о трех столпах:…»
Google не перестает удивлять: Gemini 2.5 Pro – новый король AI?
Кажется, Сундар Пичаи не шутил, когда говорил, что Google намерен сделать все, чтобы вырваться в лидеры AI-гонки. Сначала Gemma, потом обновления Deep Research, и вот – новая Gemini 2.5 Pro.
Gemini 2.5 Pro – это “думающая” модель. Если Gemini 2.0 Flash Thinking Experimental уже была моей любимицей и отлично справлялась со сложными задачами, то теперь у нее появилась более продвинутая версия в лице Gemini 2.5 Pro. Конкурент "думающему” режиму Claude 3.7 и моделями семейства GPT-o.
Будет крайне интересно посмотреть на прямое сравнение этой модельки как раз с GPT.
На данный момент Gemini 2.5 Pro занимает первое место в рейтинге LMArena, но, как мы знаем, бенчмарки не всегда отражают реальную картину.
Модель унаследовала все лучшее от предыдущих моделей Gemini, включая контекстное окно.
Что обещает гугл:
Улучшенное "мышление”: Gemini 2.5 Pro демонстрирует передовые результаты в бенчмарках, требующих продвинутого логического мышления. Из интересного - модель обгоняет всех в так называемом Humanity’s Last Exam.
Продвинутое программирование: Google уделили особое внимание навыкам программирования, и в Gemini 2.5 Pro достигнут значительный прогресс по сравнению с 2.0. Тут интересно будет сравнить с Claude. Из тех задач, что я решал, Gemini хорошо находил ошибки в коде, но не мог исправить их, в то время как Claude это делал.
Мультимодальность и контекстное окно: Gemini 2.5 Pro продолжает традиции Gemini, предлагая нативную мультимодальность и огромное контекстное окно. На старте модель имеет контекстное окно в 1 миллион токенов (в будущем планируется 2 миллиона), что позволяет ей обрабатывать большие объемы данных и решать сложные задачи, используя информацию из различных источников, включая текст, аудио, изображения, видео и код.
Модель уже можно попробовать в Google AI Studio
Кажется, Сундар Пичаи не шутил, когда говорил, что Google намерен сделать все, чтобы вырваться в лидеры AI-гонки. Сначала Gemma, потом обновления Deep Research, и вот – новая Gemini 2.5 Pro.
Gemini 2.5 Pro – это “думающая” модель. Если Gemini 2.0 Flash Thinking Experimental уже была моей любимицей и отлично справлялась со сложными задачами, то теперь у нее появилась более продвинутая версия в лице Gemini 2.5 Pro. Конкурент "думающему” режиму Claude 3.7 и моделями семейства GPT-o.
Будет крайне интересно посмотреть на прямое сравнение этой модельки как раз с GPT.
На данный момент Gemini 2.5 Pro занимает первое место в рейтинге LMArena, но, как мы знаем, бенчмарки не всегда отражают реальную картину.
Модель унаследовала все лучшее от предыдущих моделей Gemini, включая контекстное окно.
Что обещает гугл:
Улучшенное "мышление”: Gemini 2.5 Pro демонстрирует передовые результаты в бенчмарках, требующих продвинутого логического мышления. Из интересного - модель обгоняет всех в так называемом Humanity’s Last Exam.
Продвинутое программирование: Google уделили особое внимание навыкам программирования, и в Gemini 2.5 Pro достигнут значительный прогресс по сравнению с 2.0. Тут интересно будет сравнить с Claude. Из тех задач, что я решал, Gemini хорошо находил ошибки в коде, но не мог исправить их, в то время как Claude это делал.
Мультимодальность и контекстное окно: Gemini 2.5 Pro продолжает традиции Gemini, предлагая нативную мультимодальность и огромное контекстное окно. На старте модель имеет контекстное окно в 1 миллион токенов (в будущем планируется 2 миллиона), что позволяет ей обрабатывать большие объемы данных и решать сложные задачи, используя информацию из различных источников, включая текст, аудио, изображения, видео и код.
Модель уже можно попробовать в Google AI Studio
👍5
Что такое RAG и почему он вам точно пригодится
Пока все сходят с ума по обновлению GPT-4o с его возможностью генерировать картинки и видео, продолжаю цикл образовательных постов. Сегодня у нас ликбез по RAG (Retrieval-Augmented Generation).
Что такое RAG простыми словами?
RAG — технология, позволяющая языковой модели получать данные из внешних источников. Иначе говоря, это подход, который объединяет поиск информации (Retrievial) и генерацию ответов на основе найденных данных (Augumented Generation).
Как это работает на практике?
Если объяснять простыми словами: представьте, что вы студент и пришли на экзамен. Часть тем вы знаете хорошо, а часть - так себе. Но у вас по карманам распиханы шпаргалки на которых вы сделали насечки, чтобы отличать, где какая. Когда вы получаете свой вопрос, вы не пытаетесь вспомнить ответ, а быстро находите нужную карточку на ощупь, и, опираясь на информацию из нее, формулируете ответ.
Почему я сказал про насечки? Примерно так это работает у LLM. Для поиска в базе знаний LLM используют специальные механизмы, один из самых популярных — векторный поиск с эмбеддингами. Эмбеддинги — это способ представить слова, предложения или целые документы в виде набора чисел (векторов). Похожие по смыслу тексты имеют похожие наборы чисел. Это позволяет находить информацию не просто по совпадению слов, а по близости смысла — даже если в запросе используются совсем другие термины.
Полный процесс RAG выглядит примерно так:
1. Получаем запрос от пользователя
2. Ищем релевантную информацию в нашей "картотеке" с помощью эмбеддингов
3. Формируем контекст из найденных данных
4. Генерируем ответ с помощью LLM, которая учитывает как свои "врожденные" знания, так и только что найденную информацию
5. Добавляем ссылки на источники
RAG VS Длинный Контекст: когда что использовать?
По этому поводу есть целые статьи и вопрос становится все более актуальным, так как за последнее время появилось много моделей с огромным контекстным окном. Помимо Gemini - это QWEN 2.5, Grok 3 и другие. Возникает вопрос: мне нужен RAG или можно тупо загрузить документы в модель? На самом деле, это не вопрос "или-или", а скорее "когда и что".
Когда лучше использовать RAG:
- Когда вам нужна всегда актуальная информация: RAG берет данные из внешних источников, которые могут оперативно обновляться
- Когда важна точность фактов: опираясь на реальные данные из внешнего источника, модель меньше "выдумывает"
- При работе с закрытыми корпоративными данными, которых нет в обучающей выборке модели
- Когда нужно оптимизировать расходы: обработка длинного контекста обычно дороже
- Если важна прозрачность: с RAG легче показать, откуда именно взялась информация
Когда может подойти длинный контекст:
- Для разовых задач с фиксированным набором документов
- Когда важна скорость ответа без дополнительных запросов к базе данных
- При работе с текстами, где важны взаимосвязи между разными частями документа
- Для творческих задач, где не требуется сверка с внешними источниками
В чем сложности использования RAG?
Как и любая технология, RAG имеет свои нюансы:
- Качество зависит от поисковика: если система поиска находит не те документы, LLM выдаст красивую, но бесполезную информацию
- Задержка: поиск данных требует времени, что может замедлить ответ
- Конфликты в данных: если в разных документах информация противоречит друг другу, модель может запутаться
Где применяется RAG?
Чат-боты службы поддержки, поисковые системы по внутренним базам знаний, в Pearson мы экспериментировали еще с генерацией контента. Ну и далеко ходить не надо - мой бот Нейросова Нейджи. Она основана на RAG-подходе и при подборе ИИ-инструментов и ответе на вопросы сначала ищет их в моей базе данных, чтобы выдавать наиболее релевантные рекомендации, адаптированные под ваши запросы.
Итого, RAG соединяет силу генеративных моделей с точностью и актуальностью внешних источников данных.
А для тех, кто хочет сильнее разобраться в RAG - в рамках обоих тренингов я рассказываю, как это сделать без кода и где это может быть полезно.
#обучающиематериалы
Пока все сходят с ума по обновлению GPT-4o с его возможностью генерировать картинки и видео, продолжаю цикл образовательных постов. Сегодня у нас ликбез по RAG (Retrieval-Augmented Generation).
Что такое RAG простыми словами?
RAG — технология, позволяющая языковой модели получать данные из внешних источников. Иначе говоря, это подход, который объединяет поиск информации (Retrievial) и генерацию ответов на основе найденных данных (Augumented Generation).
Как это работает на практике?
Если объяснять простыми словами: представьте, что вы студент и пришли на экзамен. Часть тем вы знаете хорошо, а часть - так себе. Но у вас по карманам распиханы шпаргалки на которых вы сделали насечки, чтобы отличать, где какая. Когда вы получаете свой вопрос, вы не пытаетесь вспомнить ответ, а быстро находите нужную карточку на ощупь, и, опираясь на информацию из нее, формулируете ответ.
Почему я сказал про насечки? Примерно так это работает у LLM. Для поиска в базе знаний LLM используют специальные механизмы, один из самых популярных — векторный поиск с эмбеддингами. Эмбеддинги — это способ представить слова, предложения или целые документы в виде набора чисел (векторов). Похожие по смыслу тексты имеют похожие наборы чисел. Это позволяет находить информацию не просто по совпадению слов, а по близости смысла — даже если в запросе используются совсем другие термины.
Полный процесс RAG выглядит примерно так:
1. Получаем запрос от пользователя
2. Ищем релевантную информацию в нашей "картотеке" с помощью эмбеддингов
3. Формируем контекст из найденных данных
4. Генерируем ответ с помощью LLM, которая учитывает как свои "врожденные" знания, так и только что найденную информацию
5. Добавляем ссылки на источники
RAG VS Длинный Контекст: когда что использовать?
По этому поводу есть целые статьи и вопрос становится все более актуальным, так как за последнее время появилось много моделей с огромным контекстным окном. Помимо Gemini - это QWEN 2.5, Grok 3 и другие. Возникает вопрос: мне нужен RAG или можно тупо загрузить документы в модель? На самом деле, это не вопрос "или-или", а скорее "когда и что".
Когда лучше использовать RAG:
- Когда вам нужна всегда актуальная информация: RAG берет данные из внешних источников, которые могут оперативно обновляться
- Когда важна точность фактов: опираясь на реальные данные из внешнего источника, модель меньше "выдумывает"
- При работе с закрытыми корпоративными данными, которых нет в обучающей выборке модели
- Когда нужно оптимизировать расходы: обработка длинного контекста обычно дороже
- Если важна прозрачность: с RAG легче показать, откуда именно взялась информация
Когда может подойти длинный контекст:
- Для разовых задач с фиксированным набором документов
- Когда важна скорость ответа без дополнительных запросов к базе данных
- При работе с текстами, где важны взаимосвязи между разными частями документа
- Для творческих задач, где не требуется сверка с внешними источниками
В чем сложности использования RAG?
Как и любая технология, RAG имеет свои нюансы:
- Качество зависит от поисковика: если система поиска находит не те документы, LLM выдаст красивую, но бесполезную информацию
- Задержка: поиск данных требует времени, что может замедлить ответ
- Конфликты в данных: если в разных документах информация противоречит друг другу, модель может запутаться
Где применяется RAG?
Чат-боты службы поддержки, поисковые системы по внутренним базам знаний, в Pearson мы экспериментировали еще с генерацией контента. Ну и далеко ходить не надо - мой бот Нейросова Нейджи. Она основана на RAG-подходе и при подборе ИИ-инструментов и ответе на вопросы сначала ищет их в моей базе данных, чтобы выдавать наиболее релевантные рекомендации, адаптированные под ваши запросы.
Итого, RAG соединяет силу генеративных моделей с точностью и актуальностью внешних источников данных.
А для тех, кто хочет сильнее разобраться в RAG - в рамках обоих тренингов я рассказываю, как это сделать без кода и где это может быть полезно.
#обучающиематериалы
🔥5❤2👍1
Почему я не разделяю всеобщего восторга по поводу новых возможностей GPT 4o
Буквально две недели назад весь медийный мир был одержим экспериментальной версией Gemini Flash, способной генерировать изображения. Парадокс заключался в том, что большинство восторженных обзоров базировались не на глубоком понимании технологических нюансов, а на примитивной способности модели создавать мемы. Неискушенная аудитория внезапно открыла для себя Google AI Studio, воспринимая его как революционный продукт, исключительно благодаря визуальному функционалу, а не тонким настройкам и списку доступных моделей. Reels, статьи, и посты о том, какая Gemini крутая просто взорвали медиа пространство.
Прошло чуть больше 10 дней и OpenAI выпустили свой ответ в виде GPT 4o, вернее, ее обновления, которая тоже может генерировать картинки. Что происходит сейчас? Правильно, о ней пишут везде, все пошли генерировать мемы и все опять пишут, какая классная теперь уже GPT 4o.
Вот только здесь есть несколько проблем
Иллюзия новизны. Генерация картинок тем подходом, что используется в LLM - это вообще не инновация. Такой должна была быть GPT 4o тогда, когда нам ее анонсировали (около года назад). А до нее - подобный подход к генерации изображений уже был известен, но не использовался в продуктах крупных компаний вроде OpenAI и Google, от чего логично, что и качество было хуже, ведь ресурсов в виде людей и железа у них в разы больше.
Качество VS Универсальность. Даже не смотря на рост качества генерации, оно все равно СУЩЕСТВЕННО хуже, чем у специализированных моделей для работы с изображениями. Это решится со временем, однако на мой взгляд, специализация в AI при прочих равных всегда будет работать лучше универсальных решений.
Профанация полезности. Малая практическая ценность данного функционала в его текущем состоянии. Очень мало кейсов. За все дни я увидел несколько сотен публикаций про картинки. И практически ВСЕ ОНИ БЫЛИ С МЕМАМИ или чем-то подобным. Я подписан на кучу профессиональных пабликов, но только в одном из них (спасибо, Артем) увидел что-то про реальную пользу.
А все потому - что реальная польза этой функции - это польза для самих компаний.
Потребительское поведение работает так, что люди склонны пользоваться продуктами и платить за те решения, которые “доступны для понимания каждому”. Не важно, инженер ты со степенью pHD, бизнесмен или домохозяйка. Картинки - это лишь умная воронка.
Механизм прост: сначала развлечение (мемы, случайные картинки), затем любопытство, далее - знакомство с дополнительными возможностями продукта и, как финал, подписка. Универсальность контента - мемы понятны всем. Идеальный инструмент для массового маркетинга.
Да, технологический прогресс налицо, но за красивой картинкой скрывается воронка старого образца - привлечение внимания через максимально доступный и понятный контент.
Стоит ли восторгаться? Решать вам. Но критически важно сохранять трезвость мышления и не поддаваться первому впечатлению.
(Заходите в комментарии, к этому посту они максимально полезные)
Буквально две недели назад весь медийный мир был одержим экспериментальной версией Gemini Flash, способной генерировать изображения. Парадокс заключался в том, что большинство восторженных обзоров базировались не на глубоком понимании технологических нюансов, а на примитивной способности модели создавать мемы. Неискушенная аудитория внезапно открыла для себя Google AI Studio, воспринимая его как революционный продукт, исключительно благодаря визуальному функционалу, а не тонким настройкам и списку доступных моделей. Reels, статьи, и посты о том, какая Gemini крутая просто взорвали медиа пространство.
Прошло чуть больше 10 дней и OpenAI выпустили свой ответ в виде GPT 4o, вернее, ее обновления, которая тоже может генерировать картинки. Что происходит сейчас? Правильно, о ней пишут везде, все пошли генерировать мемы и все опять пишут, какая классная теперь уже GPT 4o.
Вот только здесь есть несколько проблем
Иллюзия новизны. Генерация картинок тем подходом, что используется в LLM - это вообще не инновация. Такой должна была быть GPT 4o тогда, когда нам ее анонсировали (около года назад). А до нее - подобный подход к генерации изображений уже был известен, но не использовался в продуктах крупных компаний вроде OpenAI и Google, от чего логично, что и качество было хуже, ведь ресурсов в виде людей и железа у них в разы больше.
Качество VS Универсальность. Даже не смотря на рост качества генерации, оно все равно СУЩЕСТВЕННО хуже, чем у специализированных моделей для работы с изображениями. Это решится со временем, однако на мой взгляд, специализация в AI при прочих равных всегда будет работать лучше универсальных решений.
Профанация полезности. Малая практическая ценность данного функционала в его текущем состоянии. Очень мало кейсов. За все дни я увидел несколько сотен публикаций про картинки. И практически ВСЕ ОНИ БЫЛИ С МЕМАМИ или чем-то подобным. Я подписан на кучу профессиональных пабликов, но только в одном из них (спасибо, Артем) увидел что-то про реальную пользу.
А все потому - что реальная польза этой функции - это польза для самих компаний.
Потребительское поведение работает так, что люди склонны пользоваться продуктами и платить за те решения, которые “доступны для понимания каждому”. Не важно, инженер ты со степенью pHD, бизнесмен или домохозяйка. Картинки - это лишь умная воронка.
Механизм прост: сначала развлечение (мемы, случайные картинки), затем любопытство, далее - знакомство с дополнительными возможностями продукта и, как финал, подписка. Универсальность контента - мемы понятны всем. Идеальный инструмент для массового маркетинга.
Да, технологический прогресс налицо, но за красивой картинкой скрывается воронка старого образца - привлечение внимания через максимально доступный и понятный контент.
Стоит ли восторгаться? Решать вам. Но критически важно сохранять трезвость мышления и не поддаваться первому впечатлению.
(Заходите в комментарии, к этому посту они максимально полезные)
👍7