Как мы сделали лучший на рынке продукт для учителей английского, а Pearson его испортили - часть 2
В предыдущем посте я описывал, какой продукт мы разработали. Вы накидали очень много реакций! Сегодня я расскажу, что произошло.
Проект вышел на рынок с названием Smart Lesson Generator (гениально). И это совершенно другой продукт. Компания не использовала ни одну из наших наработок. Продукт является частью экосистемы Pearson и представляет по своей сути обертку для GPT, которая с помощью RAG генерирует уроки на основании существующих материалов Pearson. А в самих уроках она генерирует только тексты и ничего более. Демо этого убожества можно посмотреть тут. А на скринах вы можете увидеть наши впечатления от запуска.
Как это произошло?
Причина 1 - новые политики и ограничения на найм привели к сливу нашей команды
После назначения нового CEO произошло самое неприятное - приостановили работу со всеми сотрудниками компании, кто был на контракте, а не в штате. Под раздачу попала почти вся команда акселлератора, включая меня и ребят, кто делал Teaching PAL, т.к. мы не проживали в странах, где есть офисы компании. Обещали разобраться до февраля, потом до марта, апреля. Все это время я мониторил рынок и описывал будущие фичи продукта, работая бесплатно и копя материалы, чтобы быстрее вернуться. В итоге все угасло, подробнее писал тут. Новая стратегия предполагала исключительно найм в штат в ограниченных локациях. Разрешено стало нанимать только в Испании. В США и других локациях запрет на найм. Бюджет на одного специалиста - смехотворный. Не называю конкретные цифры, но ЗП ML-инженера зажали настолько, что она меньше, чем ЗП ML-инженера в РФ. Отвалились мы сами и все крутые кандидаты в команду.
Причина 2 - проект реализовала другая команда
Эти ребята не проводили исследований, они не делали тестов, им не нужно было защищать продукт и все то, что было в него вложено, они не знали, почему были приняты те или иные решения. Они просто как наемники сделали то, что им было сказано. К проекту даже не допустили моего бывшего руководителя - единственного, кто остался в компании и был в контексте проекта.
Причина 3 - растрата ресурсов и бюрократия
Подробно про политику Shared Teams и согласования я писал вот тут. Из-за всего этого мы ОЧЕНЬ ДОЛГО разрабатывали MVP. Арендованный дизайнер работал очень медленно. Мне с трудом удалось слить его с проекта и выбить бюджет на найм своего диза, который обходился нашему бюджету более, чем в 2 раза дешевле с учетом налогов. Мы работали долго, медленно и прожгли просто нереальные суммы на разработку MVP. Если бы не это - нам бы удалось сделать запуск еще в 2023, а не тянуть до 2025.
Причина 4 - компания побоялась себя дизраптить
Pearson - это паблишер. Основной бизнес компании держится на бумажных учебниках. И пока конкуренты переводили образование в цифру, Pearson продолжали держаться за бумажки, потому что была существующая база, которая приносила прибыль. Они не хотели отходить в сторону. А еще у компании есть пресловутая GSE - шкала измерения уровня, аналог CEFR, которую она пихала ПРОСТО ВЕЗДЕ. Проблема была в том, что наш MVP не мог генерить контент четко по уровням GSE (мог CEFR), для этого нужно было обучать модель либо использовать RAG. Я предлагал забить хер на GSE, сделать лонч MVP по общепринятой шкале, а в процессе дообучить модельку, но меня послали нафиг. В итоге они сделали запуск просто на RAG и все…
Причина 5 - не AI-first
Чтобы сделать крутой AI-продукт - нужно, чтобы AI рассматривался как ключевой элемент стратегии, а не дополнительная фича. Продукт не захотели рассматривать как самостоятельную единицу. Его решили встроить в экосистему для существующих пользователей. Никакого B2C. Вместо диверсификации через AI и привлечения новых пользователей, компания выбрала сделать обертку GPT для старой аудитории. Так Teaching Pal из продукта с потенциалом превратился в Smart Lesson Generator
Накидайте еще реакций и в последнем посте цикла я напишу, какие уроки я для себя извлек, работая над этим проектом.
#кейсы@NGI_ru
В предыдущем посте я описывал, какой продукт мы разработали. Вы накидали очень много реакций! Сегодня я расскажу, что произошло.
Проект вышел на рынок с названием Smart Lesson Generator (гениально). И это совершенно другой продукт. Компания не использовала ни одну из наших наработок. Продукт является частью экосистемы Pearson и представляет по своей сути обертку для GPT, которая с помощью RAG генерирует уроки на основании существующих материалов Pearson. А в самих уроках она генерирует только тексты и ничего более. Демо этого убожества можно посмотреть тут. А на скринах вы можете увидеть наши впечатления от запуска.
Как это произошло?
Причина 1 - новые политики и ограничения на найм привели к сливу нашей команды
После назначения нового CEO произошло самое неприятное - приостановили работу со всеми сотрудниками компании, кто был на контракте, а не в штате. Под раздачу попала почти вся команда акселлератора, включая меня и ребят, кто делал Teaching PAL, т.к. мы не проживали в странах, где есть офисы компании. Обещали разобраться до февраля, потом до марта, апреля. Все это время я мониторил рынок и описывал будущие фичи продукта, работая бесплатно и копя материалы, чтобы быстрее вернуться. В итоге все угасло, подробнее писал тут. Новая стратегия предполагала исключительно найм в штат в ограниченных локациях. Разрешено стало нанимать только в Испании. В США и других локациях запрет на найм. Бюджет на одного специалиста - смехотворный. Не называю конкретные цифры, но ЗП ML-инженера зажали настолько, что она меньше, чем ЗП ML-инженера в РФ. Отвалились мы сами и все крутые кандидаты в команду.
Причина 2 - проект реализовала другая команда
Эти ребята не проводили исследований, они не делали тестов, им не нужно было защищать продукт и все то, что было в него вложено, они не знали, почему были приняты те или иные решения. Они просто как наемники сделали то, что им было сказано. К проекту даже не допустили моего бывшего руководителя - единственного, кто остался в компании и был в контексте проекта.
Причина 3 - растрата ресурсов и бюрократия
Подробно про политику Shared Teams и согласования я писал вот тут. Из-за всего этого мы ОЧЕНЬ ДОЛГО разрабатывали MVP. Арендованный дизайнер работал очень медленно. Мне с трудом удалось слить его с проекта и выбить бюджет на найм своего диза, который обходился нашему бюджету более, чем в 2 раза дешевле с учетом налогов. Мы работали долго, медленно и прожгли просто нереальные суммы на разработку MVP. Если бы не это - нам бы удалось сделать запуск еще в 2023, а не тянуть до 2025.
Причина 4 - компания побоялась себя дизраптить
Pearson - это паблишер. Основной бизнес компании держится на бумажных учебниках. И пока конкуренты переводили образование в цифру, Pearson продолжали держаться за бумажки, потому что была существующая база, которая приносила прибыль. Они не хотели отходить в сторону. А еще у компании есть пресловутая GSE - шкала измерения уровня, аналог CEFR, которую она пихала ПРОСТО ВЕЗДЕ. Проблема была в том, что наш MVP не мог генерить контент четко по уровням GSE (мог CEFR), для этого нужно было обучать модель либо использовать RAG. Я предлагал забить хер на GSE, сделать лонч MVP по общепринятой шкале, а в процессе дообучить модельку, но меня послали нафиг. В итоге они сделали запуск просто на RAG и все…
Причина 5 - не AI-first
Чтобы сделать крутой AI-продукт - нужно, чтобы AI рассматривался как ключевой элемент стратегии, а не дополнительная фича. Продукт не захотели рассматривать как самостоятельную единицу. Его решили встроить в экосистему для существующих пользователей. Никакого B2C. Вместо диверсификации через AI и привлечения новых пользователей, компания выбрала сделать обертку GPT для старой аудитории. Так Teaching Pal из продукта с потенциалом превратился в Smart Lesson Generator
Накидайте еще реакций и в последнем посте цикла я напишу, какие уроки я для себя извлек, работая над этим проектом.
#кейсы@NGI_ru
2🤯12👍8🔥6❤3
Про хорошие Telegram-каналы об AI
Каналов в AI-тематике сейчас стало как грибов. 100500 новостных и еще больше от тех, кто потыкал пару сервисов и теперь именует себя экспертом. Ты просто открываешь поиск и видишь в топе каналы маркетологов и блогеров с 30к подписчиков.
Среди всего этого хлама может быть сложно найти что-то качественное, но качественное - не значит популярное, я обычно стараюсь смотреть на маленькие блоги с небольшой аудиторией, так как подписчики - это про маркетинг, а экспертиза все-таки определяется контентом. Кроме того, реально хорошие спецы очень часто могут быть непубличны: либо из-за личной скромности (знаю кучу таких ребят) либо потому что компания запрещает быть публичным (как у меня с Pearson). Самый верный и бесплатный способ набрать аудиторию - оставлять умные комментарии в в больших пабликах. Большинство из вас именно так вышло на мой блог.
И вот таким образом, я ходил, оставлял комменты и заметил, что помимо меня, умные комментарии оставляют еще несколько человек, с которыми мы объединились в один чатик, обсуждаем AI и планируем совместные активности.
Сегодня хочется поделиться каналом одного из этих ребят - Коли - AI и Грабли. Коля раньше работал в американском HR-tech как инженер по AI, а сейчас занимается примерно тем же, чем и я - пилит AI для бизнесов, параллельно ведя свой канал 🙂
В канале много полезного и для меня показатель качества и экспертности - это когда я читаю чей-то канал и могу сам чему-то научиться будучи в теме. Здесь как раз такой случай.
Например, Коля полностью переводил статью AI2027 на русский, делился методами сравнения производительности моделей между собой (которые может использовать каждый), рассказывал про то, как можно вытаскивать инсайты из огромных чатов и каналов в телеграме с помощью AI, а в последнем своем посте поднял серьезную тему самообмана с помощью LLM.
В общем, если вам нравится мой контент, то понравится и у Коли.
👉 ПОДПИСЫВАЙТЕСЬ НА AI И ГРАБЛИ
Каналов в AI-тематике сейчас стало как грибов. 100500 новостных и еще больше от тех, кто потыкал пару сервисов и теперь именует себя экспертом. Ты просто открываешь поиск и видишь в топе каналы маркетологов и блогеров с 30к подписчиков.
Среди всего этого хлама может быть сложно найти что-то качественное, но качественное - не значит популярное, я обычно стараюсь смотреть на маленькие блоги с небольшой аудиторией, так как подписчики - это про маркетинг, а экспертиза все-таки определяется контентом. Кроме того, реально хорошие спецы очень часто могут быть непубличны: либо из-за личной скромности (знаю кучу таких ребят) либо потому что компания запрещает быть публичным (как у меня с Pearson). Самый верный и бесплатный способ набрать аудиторию - оставлять умные комментарии в в больших пабликах. Большинство из вас именно так вышло на мой блог.
И вот таким образом, я ходил, оставлял комменты и заметил, что помимо меня, умные комментарии оставляют еще несколько человек, с которыми мы объединились в один чатик, обсуждаем AI и планируем совместные активности.
Сегодня хочется поделиться каналом одного из этих ребят - Коли - AI и Грабли. Коля раньше работал в американском HR-tech как инженер по AI, а сейчас занимается примерно тем же, чем и я - пилит AI для бизнесов, параллельно ведя свой канал 🙂
В канале много полезного и для меня показатель качества и экспертности - это когда я читаю чей-то канал и могу сам чему-то научиться будучи в теме. Здесь как раз такой случай.
Например, Коля полностью переводил статью AI2027 на русский, делился методами сравнения производительности моделей между собой (которые может использовать каждый), рассказывал про то, как можно вытаскивать инсайты из огромных чатов и каналов в телеграме с помощью AI, а в последнем своем посте поднял серьезную тему самообмана с помощью LLM.
В общем, если вам нравится мой контент, то понравится и у Коли.
👉 ПОДПИСЫВАЙТЕСЬ НА AI И ГРАБЛИ
❤8👍8🔥7
Почему промпт-инженер - это мертвая профессия
Интересный спор у меня на днях завязался в чатике ex-Skyeng. Один человек искал в команду промпт-инженера, другой - раздавал советы, а потом пришел я со словами о том, что ребята занимаются фигней и промпт-инженер - это не профессия 😁 Завязалась живая дискуссия. А я решил написать пост, потому что давно назревали такие мысли. Мы с ML-инженерами каждый раз откровенно ржем, когда видим вакансию промпт-инженера у какого-нибудь банка с зарплатой в 300к рублей.
Итак, разбираемся, почему вам не стоит идти работать промпт-инженером и/или нанимать к себе их в команду
Считаете ли вы, что умение пользоваться MS Word - это профессия? Думаю, что нет, а ведь когда-то людей нанимали из-за этого на работу. Затем данная “профессия” преобразовалась в навык и стала минимальным требованием, которое даже стыдно в резюме указывать. Аналогично с промпт-инженерами. Сейчас - да, это востребованно, но в AI все развивается просто бешенными темпами. На мой взгляд, промпт инжиниринг - это базовый навык, которым должен сегодня обладать каждый. Если у человека его нет - либо не нанимаем, либо активно обучаем, пока еще есть время.
Помимо этого, на горизонте года, максимум двух “промпт-инженеры” станут вообще никому не нужны, и не соблазняйтесь на вакансии с ЗП в 300к. Сейчас очень активно развивается тема LLM-managed workflows, когда одна LLM пишет промпты для другой в длинных пайплайнах. Это рекомендуют делать Google, Anthropic и еще много других команд, которые делают LLM. А развиваться вся история начала аж в начале 2023. Значит ли это, что не надо осваивать навыки промпт-инжиниринга? Вовсе нет. Просто в том виде, что сейчас: написание промптов, контроль параметров и так далее - данная профессия вымрет. Важнее станут навыки проектирования сложных пайплайнов и архитектуры, выбора связки моделей и тестирования их метрик, безопасности и так далее. А это уже другая профессия. В Anthropic, OpenAI и Google есть позиция AI Researcher. Вот эти ребята и занимаются чем-то похожим, но это лишь малая часть.
Кто такие AI-researchers?
Это уже более технические специалисты. Понимание принципов статистики и математики, того, как функционируют и обучаются модели, владение Python. Умение ломать модель через иньекции, Red Teaming и прочее - вот чем обладают данные специалисты. И, как видите, это не те навыки, которые легко освоить за те 3 года, что AI находится на хайпе. Эта профессия существовала задолго до появления промпт-инженеров. Стоит ли идти в AI-researcher-ы? Сложно сказать. Послушайте лучше вот этого парня, он работал AI reseacher-ом в OpenAI, а теперь в Anthropic, и даже он не уверен в будущем своей профессии. Но она явно надежнее, чем промпт-инженер, потому что можно уйти в более техническую специальность ML-инженера.
Так почему же сейчас такой спрос на промпт-инженеров?
Во-первых, это непонимание бизнесом того, как функционирует AI, его архитектуры и всех сложностей. На короткой дистанции промпт-инженер закроет дыры, однако вместе с ростом уровня AI-систем им понадобятся более глубокие изменения. Во-вторых, никто не думает о команде и долгосрочных перспективах. Им дешевле плодить промпт-инженеров, чем нанять нормального специалиста по AI. Экономия в 2-3 раза, ничего личного, просто бизнес. А в долгосрок никакой экономии не будет! Потому что промпт-инженеров придется либо увольнять/переобучать либо же нанимать на их места тех самых нормальных специалистов. Промпт-инженеры просто останутся без работы. И это вообще не про команду.
Что я предлагаю делать?
Осваивайте промпт-инжиниринг как базовый навык, а если хотите работать в AI - смотрите в сторону более сложных профессий, не ведитесь на легкие деньги, в моменте вы выиграете, но на дистанции останетесь ни с чем.
Интересный спор у меня на днях завязался в чатике ex-Skyeng. Один человек искал в команду промпт-инженера, другой - раздавал советы, а потом пришел я со словами о том, что ребята занимаются фигней и промпт-инженер - это не профессия 😁 Завязалась живая дискуссия. А я решил написать пост, потому что давно назревали такие мысли. Мы с ML-инженерами каждый раз откровенно ржем, когда видим вакансию промпт-инженера у какого-нибудь банка с зарплатой в 300к рублей.
Итак, разбираемся, почему вам не стоит идти работать промпт-инженером и/или нанимать к себе их в команду
Считаете ли вы, что умение пользоваться MS Word - это профессия? Думаю, что нет, а ведь когда-то людей нанимали из-за этого на работу. Затем данная “профессия” преобразовалась в навык и стала минимальным требованием, которое даже стыдно в резюме указывать. Аналогично с промпт-инженерами. Сейчас - да, это востребованно, но в AI все развивается просто бешенными темпами. На мой взгляд, промпт инжиниринг - это базовый навык, которым должен сегодня обладать каждый. Если у человека его нет - либо не нанимаем, либо активно обучаем, пока еще есть время.
Помимо этого, на горизонте года, максимум двух “промпт-инженеры” станут вообще никому не нужны, и не соблазняйтесь на вакансии с ЗП в 300к. Сейчас очень активно развивается тема LLM-managed workflows, когда одна LLM пишет промпты для другой в длинных пайплайнах. Это рекомендуют делать Google, Anthropic и еще много других команд, которые делают LLM. А развиваться вся история начала аж в начале 2023. Значит ли это, что не надо осваивать навыки промпт-инжиниринга? Вовсе нет. Просто в том виде, что сейчас: написание промптов, контроль параметров и так далее - данная профессия вымрет. Важнее станут навыки проектирования сложных пайплайнов и архитектуры, выбора связки моделей и тестирования их метрик, безопасности и так далее. А это уже другая профессия. В Anthropic, OpenAI и Google есть позиция AI Researcher. Вот эти ребята и занимаются чем-то похожим, но это лишь малая часть.
(В комментариях мне еще напомнили, что есть AI Engineer) Кто такие AI-researchers?
Это уже более технические специалисты. Понимание принципов статистики и математики, того, как функционируют и обучаются модели, владение Python. Умение ломать модель через иньекции, Red Teaming и прочее - вот чем обладают данные специалисты. И, как видите, это не те навыки, которые легко освоить за те 3 года, что AI находится на хайпе. Эта профессия существовала задолго до появления промпт-инженеров. Стоит ли идти в AI-researcher-ы? Сложно сказать. Послушайте лучше вот этого парня, он работал AI reseacher-ом в OpenAI, а теперь в Anthropic, и даже он не уверен в будущем своей профессии. Но она явно надежнее, чем промпт-инженер, потому что можно уйти в более техническую специальность ML-инженера.
Так почему же сейчас такой спрос на промпт-инженеров?
Во-первых, это непонимание бизнесом того, как функционирует AI, его архитектуры и всех сложностей. На короткой дистанции промпт-инженер закроет дыры, однако вместе с ростом уровня AI-систем им понадобятся более глубокие изменения. Во-вторых, никто не думает о команде и долгосрочных перспективах. Им дешевле плодить промпт-инженеров, чем нанять нормального специалиста по AI. Экономия в 2-3 раза, ничего личного, просто бизнес. А в долгосрок никакой экономии не будет! Потому что промпт-инженеров придется либо увольнять/переобучать либо же нанимать на их места тех самых нормальных специалистов. Промпт-инженеры просто останутся без работы. И это вообще не про команду.
Что я предлагаю делать?
Осваивайте промпт-инжиниринг как базовый навык, а если хотите работать в AI - смотрите в сторону более сложных профессий, не ведитесь на легкие деньги, в моменте вы выиграете, но на дистанции останетесь ни с чем.
YouTube
Что скрывает ИИ? Глупые вопросы к Павлу Измайлову, Anthropic, ex-OpenAI
Добро пожаловать на первый выпуск канала «Глупые вопросы умным людям»! Сегодня мой гость — Павел Измайлов, исследователь в компании Anthropic, ранее работавший в OpenAI и готовящийся стать профессором в Нью-Йоркском университете в следующем году.
Мы поговорим…
Мы поговорим…
❤8🔥7👍4
Как я навайбкодил LMS с 100 000+ строк кода
Я уже неоднократно спойлерил, что делаю LMS для своих тренингов. Люди все больше положительно отзывались о материалах, но в обратной связи мне очень часто возвращали, что хочется более плавного образовательного опыта взаимодействия с платформой.
Для первых потоков я решил не брать готовые LMS и вот почему:
- отвратительный UX у большинства, например, Getcourse просто отвратный, а стоит немало денег
- другие LMS типа опенсорсных Open LMS - слишком тяжелые
- единственное, что мне понравилось - Frappe LMS, но немного не то
- мне не хватало функционала, я хотел больше контроля, свою структуру материалов, хотел редактировать материалы как в Notion
Поэтому я стартанул, подняв Docmost у себя на сервере, где хранил материалы, а для домашек написал телеграм-бота. Это было быстро и бесплатно, но не совсем удобно. Поэтому я начал потихоньку пилить свою LMS.
Какие инструменты я использовал:
1. Google AI Studio - для написания ТЗ, структурирования информации и понимания того, что я хочу
2. Stitch - это то, что ОЧЕНЬ сильно упростило мне работу с дизайном, подробнее писал тут
3. Cursor - моя основная IDE для написания кода
Какой стек я выбрал:
React + Fast API потому что уже понимаю структуру этих языков и на них есть огромное количество готовых библиотек. В качестве БД - Supabase, она забирает на себя авторизацию и письма, провайдер писем для магических ссылок - Brevo (дает до 300 писем в день)
Какие MCP использовал:
Docker MCP + Figma MCP + Context7
Как сэкономил время:
Как любой разработчик - я пытался использовать как можно больше готовых компонентов. Для редактора уроков я взял маркдаун редактор BlockNote, плеер Youtube я написал на основе официальной библиотеки React, авторизацию и БД взял из Supabase, иконки и компановки - Material UI, т.к. в нем нативно работает Stitch.
Как писал код:
1. Начал я с разработки Backend-а. Первым этапом в моем ТЗ было создание его логики работы. LMS предполагает наличие 111 различных запросов и тестировать их руками не вариант. Как я это оптимизировал? В одном окне чата курсора Claude 4 писал мне код бекенда и сразу писал к нему тесты. Тесты разбил по функционалу: управление пользователями, управление курсами, управление уроками, API для студентов, API безопасности, аунтефикация, блокировка.
Claude сразу прогонял тесты и правил баги. Затем я показал эти тесты и ТЗ Gemini 2.5 Pro и попросил проверить, не подогнаны ли тесты под код. Он выявил несколько случаев мухлежа и поправил тесты, с чем я вернулся к Claude.
2. Далее перешел к Frontend. Реализовал полностью админские страницы. А для превью уроков сделал общий компонент, который выглядит по-разному для админа и студанта, в зависимости от роли. Далее перешел к функционалу студента. Страницы реализовывал строго по 1, копируя код из Stitch, и что-то загоняя в Figma. Для страниц сразу попросил создать стили по образцу, чтобы все страницы были консистентны.
Для чего какие модели:
Sonnet 4 (обычный) - это базука, которая кодит все подряд. Основная модель. Но часто делает лишнего, осторожнее с ней.
Gemini 2.5 Pro - пулемет. Когда надо не так много, но четко - сложная логика бекенда, код-ревью. Помогала при затыках Sonnet.
Sonnet 4 (думающий) - использовал, когда была сложная фича, на которой обычный затыкался, но редко. Модель оставляет за собой много мусора и лезет куда не надо.
GPT 4.1 - снайперская винтовка. Для точечных правок, когда я четко знал, что и зачем мне надо изменить.
LMS сейчас в проде. Тестируем ее вместе с потоком по AI-продакт менеджменту, который стартанул вчера и на который можно еще записаться эту и следующую неделю :)
Я уже неоднократно спойлерил, что делаю LMS для своих тренингов. Люди все больше положительно отзывались о материалах, но в обратной связи мне очень часто возвращали, что хочется более плавного образовательного опыта взаимодействия с платформой.
Для первых потоков я решил не брать готовые LMS и вот почему:
- отвратительный UX у большинства, например, Getcourse просто отвратный, а стоит немало денег
- другие LMS типа опенсорсных Open LMS - слишком тяжелые
- единственное, что мне понравилось - Frappe LMS, но немного не то
- мне не хватало функционала, я хотел больше контроля, свою структуру материалов, хотел редактировать материалы как в Notion
Поэтому я стартанул, подняв Docmost у себя на сервере, где хранил материалы, а для домашек написал телеграм-бота. Это было быстро и бесплатно, но не совсем удобно. Поэтому я начал потихоньку пилить свою LMS.
Какие инструменты я использовал:
1. Google AI Studio - для написания ТЗ, структурирования информации и понимания того, что я хочу
2. Stitch - это то, что ОЧЕНЬ сильно упростило мне работу с дизайном, подробнее писал тут
3. Cursor - моя основная IDE для написания кода
Какой стек я выбрал:
React + Fast API потому что уже понимаю структуру этих языков и на них есть огромное количество готовых библиотек. В качестве БД - Supabase, она забирает на себя авторизацию и письма, провайдер писем для магических ссылок - Brevo (дает до 300 писем в день)
Какие MCP использовал:
Docker MCP + Figma MCP + Context7
Как сэкономил время:
Как любой разработчик - я пытался использовать как можно больше готовых компонентов. Для редактора уроков я взял маркдаун редактор BlockNote, плеер Youtube я написал на основе официальной библиотеки React, авторизацию и БД взял из Supabase, иконки и компановки - Material UI, т.к. в нем нативно работает Stitch.
Как писал код:
1. Начал я с разработки Backend-а. Первым этапом в моем ТЗ было создание его логики работы. LMS предполагает наличие 111 различных запросов и тестировать их руками не вариант. Как я это оптимизировал? В одном окне чата курсора Claude 4 писал мне код бекенда и сразу писал к нему тесты. Тесты разбил по функционалу: управление пользователями, управление курсами, управление уроками, API для студентов, API безопасности, аунтефикация, блокировка.
Claude сразу прогонял тесты и правил баги. Затем я показал эти тесты и ТЗ Gemini 2.5 Pro и попросил проверить, не подогнаны ли тесты под код. Он выявил несколько случаев мухлежа и поправил тесты, с чем я вернулся к Claude.
2. Далее перешел к Frontend. Реализовал полностью админские страницы. А для превью уроков сделал общий компонент, который выглядит по-разному для админа и студанта, в зависимости от роли. Далее перешел к функционалу студента. Страницы реализовывал строго по 1, копируя код из Stitch, и что-то загоняя в Figma. Для страниц сразу попросил создать стили по образцу, чтобы все страницы были консистентны.
Для чего какие модели:
Sonnet 4 (обычный) - это базука, которая кодит все подряд. Основная модель. Но часто делает лишнего, осторожнее с ней.
Gemini 2.5 Pro - пулемет. Когда надо не так много, но четко - сложная логика бекенда, код-ревью. Помогала при затыках Sonnet.
Sonnet 4 (думающий) - использовал, когда была сложная фича, на которой обычный затыкался, но редко. Модель оставляет за собой много мусора и лезет куда не надо.
GPT 4.1 - снайперская винтовка. Для точечных правок, когда я четко знал, что и зачем мне надо изменить.
LMS сейчас в проде. Тестируем ее вместе с потоком по AI-продакт менеджменту, который стартанул вчера и на который можно еще записаться эту и следующую неделю :)
🔥24❤11👍6
Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 3
На очереди у нас следующая тема курса от Anthropic - “Делегирование”. Тема интересная и учит не только тому, как именно нам нужно подступиться к решению той или иной задачи с помощью ИИ, но и как понять, нужно ли нам это!
Делегирование включает в себя 3 аспекта: осведомленность о проблеме (что надо сделать), осведомленность о платформе (что может делать ИИ), само делегирование (как именно мы выполняем задачу). Для двух последних аспектов я собрал для вас кучу полезных постов от себя и других авторов, которые пишут про ИИ.
Там есть обзоры сервисов, их сильные и слабые стороны, бест практис, а также кейсы того, как мы с ребятами применяем ИИ для тех или иных задач. Если вам понравился чей-то материал - поддержите автора подпиской!
А этот пост и посты с предыдущими лекциями отправляйте друзьям, сохраняйте себе, публикуйте в своих каналах (если они у вас есть). ИИ-грамотность должна быть доступна каждому 🙂
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - “Погружение в генеративный ИИ и LLM”.
#обучающиематериалы@NGI_ru
@NGI_ru
На очереди у нас следующая тема курса от Anthropic - “Делегирование”. Тема интересная и учит не только тому, как именно нам нужно подступиться к решению той или иной задачи с помощью ИИ, но и как понять, нужно ли нам это!
Делегирование включает в себя 3 аспекта: осведомленность о проблеме (что надо сделать), осведомленность о платформе (что может делать ИИ), само делегирование (как именно мы выполняем задачу). Для двух последних аспектов я собрал для вас кучу полезных постов от себя и других авторов, которые пишут про ИИ.
Там есть обзоры сервисов, их сильные и слабые стороны, бест практис, а также кейсы того, как мы с ребятами применяем ИИ для тех или иных задач. Если вам понравился чей-то материал - поддержите автора подпиской!
А этот пост и посты с предыдущими лекциями отправляйте друзьям, сохраняйте себе, публикуйте в своих каналах (если они у вас есть). ИИ-грамотность должна быть доступна каждому 🙂
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - “Погружение в генеративный ИИ и LLM”.
#обучающиематериалы@NGI_ru
@NGI_ru
1🔥13❤5👍4
На этой неделе решил выложить дайджест в субботу. Материалов было не так много, но все очень объемные!
1. Обзор возможностей Perplexity Labs - подробно рассказал об особенностях нового режима и юзкейсах применения
2. Как мы сделали лучший на рынке продукт для учителей английского, а Pearson его испортили - часть 2 - опубликовал вторую часть кейса с описанием того, что стало с Teaching PAL, на следующей неделе опубликую выводы
3. Про хорошие Telegram-каналы об AI - поделился действительно топовым каналом AI-инженера, для себя я решил, что в канале публикую только то, чем пользуюсь сам, поэтому это не просто взаимопиар, а искренняя рекомендация 🙂 Искренне рекомендую подписаться!
4. Почему промпт-инженер - это мертвая профессия - поделился своими мыслями почему в среднесрочной и долгосрочной перспективе популярная сегодня “профессия” не выживет
5. Как я навайбкодил LMS с 80 000+ строк кода - про вайб кодинг пишу редко, да метко 🙂 В этот раз делюсь кейсом и особенностями своего подхода к AI-кодингу, здесь про воркфлоу, выбор моделей и инструментов
📕Материалы курса от Anthropic:
1. Перевод курса AI-грамотность от Anthropic с дополнениями - часть 1 - тема “Введение в ИИ-грамотность и фреймворк 4D”
2. Перевод курса AI-грамотность от Anthropic с дополнениями - часть 2 - тема “Погружение в генеративный ИИ и LLM”
3. Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 3 - тема “Делегирование и его применение”
Я очень много усилий прикладываю для действительно качественного обогащения курса от Anthropic, поэтому призываю делиться этими материалами со знакомыми! Такого качества контент никто бесплатно не раздает, но мне достаточно видеть больше подписок в канале, тогда подобных материалов буду делать больше 🙂
Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥9❤2
Есть ли альтернатива ElevenLabs в клонировании голоса?
Сегодня поделюсь интересным кейсом, который сейчас находится у меня в работе. Перед нами стояла задача обеспечить для клиента качественное решение по клонированию голоса в рамках его продукта. Первое, что приходит на ум - ElevenLabs. Однако, при ближайшем рассмотрении всплыли две проблемы: высокая цена и не самые щедрые лимиты на использование, которые не вписывались в планируемые объемы.
Это навело на мысль: “А вдруг для данного проекта может быть выгоднее развернуть OpenSource модель со старта?”. Мы начали ресерч!
Open Source: ожидания vs реальность
В процессе мы протестировали следующие модели:
1. Zonos-v0.1-transformer: Модель показала себя лучше всех. Качество и натуральность голоса были на высоте. Несмотря на то, что генерация происходит 30-секундными фрагментами, собрать из них 15-минутный аудиофайл можно было достаточно оперативно.
2. Dia (nari-labs/Dia-1.6B): Довольно свежая модель, разработанная группой студентов :) Интересная особенность - неплохо передает эмоциональные оттенки голоса. Однако, по общему качеству и стабильности до Zonos не дотянула.
3. Spark TTS: У этой модели были проблемы с качеством клонируемого голоса - оно оказалось довольно низким, плюс периодически возникали артефакты в виде дублирования фраз, а скорость генерации оставляла желать лучшего.
4. Openvoice: Эта модель генерировала голос очень быстро, но качество сильно уступало. Возможно, ее можно было бы рассматривать в связке с другими инструментами для последующего улучшения качества, но "из коробки" результат был не тот, что мы искали.
5. Также мы протестировали Orpheus, Kokoro, MegaTTS3, F5TTS, однако они либо не могли клонировать голос “из коробки” либо имели ограничения в лицензии, либо вообще не запустились.
В целом, основные вызовы при работе с OpenSource для клонирования голоса были следующие: нестабильное качество, наличие артефактов, невысокая скорость генерации для некоторых моделей и, конечно, необходимость дополнительных ресурсов для развертывания и поддержки. Полный ресерч моделей тут.
Вендоры почти пришли на помощь
Параллельно с исследованием OpenSouce мы, разумеется, искали и коммерческие альтернативы. И здесь нашим фаворитом стал сервис Speechify. Он продемонстрировал хорошее качество как клонирования голоса, так и самой генерации речи, что для нас было критично. Но, как ни странно, нам он показался хуже Zonos.
Если говорить о стоимости, то для наших задач (условно, генерация 30 аудиофрагментов в месяц на пользователя), Speechify оказался значительно выгоднее: примерно в 8 раз дешевле, чем селф-хост опенсорсной модели и в 9 раз дешевле, чем ElevenLabs.
Что мы выбрали?
ElevenLabs - круто, но дорого и лимиты, Zonos - хорош, но возможно оверкилл на запуске, т.к. стоит почти как ElevenLabs, Speechify - норм по цене, но качество хуже двух предыдущих. В общем, технический ресерч не обещал легкой прогулки. Выбирать нужно между “дорого” и “не самый лучший UX”. Считайте как задачка про два стула :)
Мы выбрали третий. Стартовать продукт решили без функции клонирования голоса, а саму ее сделать в формате традиционной Fake Door - добавим кнопку функции в апку, повесив на нее аналитику по кликам.
Далее, при достижении нужных метрик у нас будет 3 варианта:
- полный селф-хост Zonos или другой модели при хорошем кол-ве платящих и неплохом проценте кликнувших на фичу;
- Speechify, если платящих не так много, но много кликнувших;
- модели по тарифам: например в базовом будет Speechify, а премиум на Elevenlabs, если очень много платящих и большой процент из них кликнули.
Пока готовил этот пост - вышла Chatterbox - я ее пощупал, очень крутая и, на мой взгляд, лучше Zonos!
Чему учит этот кейс?
1. Всегда делайте технический ресерч вашего продукта;
2. Обязательно смотрите на лицензии;
3. Не верьте карточкам с описанием моделей;
4. Все меняется очень быстро, наш ресерч уже устарел :)
5. Всегда работайте итеративно и проводите эксперименты (у нас это тесты моделей и Fake Door);
6. Ищите альтернативы, а не бейте в одну точку, наличие выбора лучше, чем его отсутствие
#кейсы
Сегодня поделюсь интересным кейсом, который сейчас находится у меня в работе. Перед нами стояла задача обеспечить для клиента качественное решение по клонированию голоса в рамках его продукта. Первое, что приходит на ум - ElevenLabs. Однако, при ближайшем рассмотрении всплыли две проблемы: высокая цена и не самые щедрые лимиты на использование, которые не вписывались в планируемые объемы.
Это навело на мысль: “А вдруг для данного проекта может быть выгоднее развернуть OpenSource модель со старта?”. Мы начали ресерч!
Open Source: ожидания vs реальность
В процессе мы протестировали следующие модели:
1. Zonos-v0.1-transformer: Модель показала себя лучше всех. Качество и натуральность голоса были на высоте. Несмотря на то, что генерация происходит 30-секундными фрагментами, собрать из них 15-минутный аудиофайл можно было достаточно оперативно.
2. Dia (nari-labs/Dia-1.6B): Довольно свежая модель, разработанная группой студентов :) Интересная особенность - неплохо передает эмоциональные оттенки голоса. Однако, по общему качеству и стабильности до Zonos не дотянула.
3. Spark TTS: У этой модели были проблемы с качеством клонируемого голоса - оно оказалось довольно низким, плюс периодически возникали артефакты в виде дублирования фраз, а скорость генерации оставляла желать лучшего.
4. Openvoice: Эта модель генерировала голос очень быстро, но качество сильно уступало. Возможно, ее можно было бы рассматривать в связке с другими инструментами для последующего улучшения качества, но "из коробки" результат был не тот, что мы искали.
5. Также мы протестировали Orpheus, Kokoro, MegaTTS3, F5TTS, однако они либо не могли клонировать голос “из коробки” либо имели ограничения в лицензии, либо вообще не запустились.
В целом, основные вызовы при работе с OpenSource для клонирования голоса были следующие: нестабильное качество, наличие артефактов, невысокая скорость генерации для некоторых моделей и, конечно, необходимость дополнительных ресурсов для развертывания и поддержки. Полный ресерч моделей тут.
Вендоры почти пришли на помощь
Параллельно с исследованием OpenSouce мы, разумеется, искали и коммерческие альтернативы. И здесь нашим фаворитом стал сервис Speechify. Он продемонстрировал хорошее качество как клонирования голоса, так и самой генерации речи, что для нас было критично. Но, как ни странно, нам он показался хуже Zonos.
Если говорить о стоимости, то для наших задач (условно, генерация 30 аудиофрагментов в месяц на пользователя), Speechify оказался значительно выгоднее: примерно в 8 раз дешевле, чем селф-хост опенсорсной модели и в 9 раз дешевле, чем ElevenLabs.
Что мы выбрали?
ElevenLabs - круто, но дорого и лимиты, Zonos - хорош, но возможно оверкилл на запуске, т.к. стоит почти как ElevenLabs, Speechify - норм по цене, но качество хуже двух предыдущих. В общем, технический ресерч не обещал легкой прогулки. Выбирать нужно между “дорого” и “не самый лучший UX”. Считайте как задачка про два стула :)
Мы выбрали третий. Стартовать продукт решили без функции клонирования голоса, а саму ее сделать в формате традиционной Fake Door - добавим кнопку функции в апку, повесив на нее аналитику по кликам.
Далее, при достижении нужных метрик у нас будет 3 варианта:
- полный селф-хост Zonos или другой модели при хорошем кол-ве платящих и неплохом проценте кликнувших на фичу;
- Speechify, если платящих не так много, но много кликнувших;
- модели по тарифам: например в базовом будет Speechify, а премиум на Elevenlabs, если очень много платящих и большой процент из них кликнули.
Пока готовил этот пост - вышла Chatterbox - я ее пощупал, очень крутая и, на мой взгляд, лучше Zonos!
Чему учит этот кейс?
1. Всегда делайте технический ресерч вашего продукта;
2. Обязательно смотрите на лицензии;
3. Не верьте карточкам с описанием моделей;
4. Все меняется очень быстро, наш ресерч уже устарел :)
5. Всегда работайте итеративно и проводите эксперименты (у нас это тесты моделей и Fake Door);
6. Ищите альтернативы, а не бейте в одну точку, наличие выбора лучше, чем его отсутствие
#кейсы
huggingface.co
Zyphra/Zonos-v0.1-hybrid · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥11❤6👍4
Что прочитать про вайб кодинг
Я заметил, что вам особенно заходят посты, где я делюсь практическим опытом разработки с помощью AI: посты про мою самописную LMS и про Stitch вы репостнули больше сотни раз! Это четкий сигнал, что тема вам интересна.
Но есть нюанс: мои проекты в этой области довольно большие, цикл разработка-тест-выход на рынок все равно не такой быстрый, а что-то вообще под NDA и делиться инсайтами так часто, как хотелось бы, просто не получается. К тому же, основная тема канала - это AI в целом и AI продакт-менеджмент, поэтому превращать его в блог о коде было бы неправильно.
К счастью, я не единственный, кто умеет писать что-то интересное и полезное 🙂 Я всегда говорю, что AI - это не та область, где есть единственное правильное решение. Здесь нужно постоянно пробовать самому и смотреть, что делают другие. Я и сам с интересом читаю коллег по цеху, которые ведут свои ТГ-каналы, а они читают меня 😄
В общем, мы с несколькими авторами объединились и собрали для вас тематическую подборку по вайб-кодингу. Это отличная возможность посмотреть на процесс с разных сторон и перенять опыт у других практиков.
Вот что можно почитать и на чем поучиться:
1. Vibe Cursor Coding
2. AI / Vibe coding - советы и best practices
3. Как получилось, что юристы используют среду для разработчиков?
4. Stitch: от вайб-кодинга к вайб-дизайну и обратно
5. Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
6. Context7 – один из лучших инструментов для AI-разработки
7. Топовый AI Coding Workflow: инструкция по использованию Cursor & AI Studio в разработке
8. Как Cursor AI превращает текст в готовые макеты Figma
9. Простое веб-приложение за 30 минут без навыков с помощью Lovable
У каждого автора в этой подборке свой уникальный опыт, свой взгляд и свой подход, и в этом главная ценность. Поэтому, если вам понравился чей-то материал - поддержите автора подпиской (и уведомления включите, никто из нас не занимается шитпостингом 😁)
Это, кстати, не все ребята, с которыми мы сотрудничаем. Позже будут подборки и по другим тематикам.
Я заметил, что вам особенно заходят посты, где я делюсь практическим опытом разработки с помощью AI: посты про мою самописную LMS и про Stitch вы репостнули больше сотни раз! Это четкий сигнал, что тема вам интересна.
Но есть нюанс: мои проекты в этой области довольно большие, цикл разработка-тест-выход на рынок все равно не такой быстрый, а что-то вообще под NDA и делиться инсайтами так часто, как хотелось бы, просто не получается. К тому же, основная тема канала - это AI в целом и AI продакт-менеджмент, поэтому превращать его в блог о коде было бы неправильно.
К счастью, я не единственный, кто умеет писать что-то интересное и полезное 🙂 Я всегда говорю, что AI - это не та область, где есть единственное правильное решение. Здесь нужно постоянно пробовать самому и смотреть, что делают другие. Я и сам с интересом читаю коллег по цеху, которые ведут свои ТГ-каналы, а они читают меня 😄
В общем, мы с несколькими авторами объединились и собрали для вас тематическую подборку по вайб-кодингу. Это отличная возможность посмотреть на процесс с разных сторон и перенять опыт у других практиков.
Вот что можно почитать и на чем поучиться:
1. Vibe Cursor Coding
2. AI / Vibe coding - советы и best practices
3. Как получилось, что юристы используют среду для разработчиков?
4. Stitch: от вайб-кодинга к вайб-дизайну и обратно
5. Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
6. Context7 – один из лучших инструментов для AI-разработки
7. Топовый AI Coding Workflow: инструкция по использованию Cursor & AI Studio в разработке
8. Как Cursor AI превращает текст в готовые макеты Figma
9. Простое веб-приложение за 30 минут без навыков с помощью Lovable
У каждого автора в этой подборке свой уникальный опыт, свой взгляд и свой подход, и в этом главная ценность. Поэтому, если вам понравился чей-то материал - поддержите автора подпиской (и уведомления включите, никто из нас не занимается шитпостингом 😁)
Это, кстати, не все ребята, с которыми мы сотрудничаем. Позже будут подборки и по другим тематикам.
4❤17🔥17👍7
Зачем я трачу столько усилий на создание бесплатного контента?
После того, как я опубликовал первый перевод лекций Anthropic со своими дополнениями, мог возникнуть вопрос: зачем я это делаю, ведь у меня есть свои тренинги по ИИ, и такого рода контент будет их каннибализировать. Казалось бы, логичный аргумент, но нет 🙂
Во-первых, на мой взгляд, грош цена любому автору образовательных продуктов, если он боится, что информация из бесплатных источников, даже с его дополнениями, сканибализирует его продукт. Я не занимаюсь инфобизом, собирая "секретные знания". В тренингах я продаю свою экспертизу, опыт и обратную связь. Делиться знаниями - это скорее плюс: я могу показать свою экспертность и сказать: "Ребята, вот вам база, а если хотите больше - можете уже приобрести мои тренинги". Другой плюс - после освоения базы, на тренинги ко мне придет уже более подготовленная аудитория, с которой мы будем говорить на одном языке и сможем разбирать более глубокие вопросы.
Во-вторых, я не зарабатываю исключительно тренингами, есть еще и внедрение AI. И клиенты приходят ко мне в том числе и через канал. Если я делаю технологию более понятной потенциальному заказчику, то я повышаю вероятность того, что человек захочет внедрить ИИ в свои бизнес-процессы. А еще будет играть фактор личного доверия, потому что человек уже видит, что я в теме шарю, а не являюсь случайным пассажиром. Я могу потерять 10 продаж тренинга по эффективности, но на эти 10 потерь придется 1 клиент в агентство, а чеки там интереснее.
В-третьих, у меня есть позиция, что образование должно быть доступным. Особенно в плане AI. В России очень мало качественного образовательного контента по ИИ, а хороший — платный. В США дофига бесплатных курсов, включая этот, но люди могут не знать языка либо просто быть ограничены в доступе к инструментам из-за геополитики. Доступ к знаниям не должен быть ограничен поэтим причинам.
В-четвертых, я вижу вашу отдачу. Да, делать эти переводы для меня сложнее и дольше, чем писать обычные посты, но я получаю больший выхлоп. Вы чаще делитесь этим контентом, у меня растет аудитория. Если есть такая возможность - надо ее использовать 🙂
Да и, в конце концов, если кто-то захочет меня отблагодарить - всегда можно залететь на какой-то из моих тренингов.
P.S.Вечером следующая часть перевода лекций от Anthropic. У меня слетел текст, который я редактировал, переношу пост на завтра :(
После того, как я опубликовал первый перевод лекций Anthropic со своими дополнениями, мог возникнуть вопрос: зачем я это делаю, ведь у меня есть свои тренинги по ИИ, и такого рода контент будет их каннибализировать. Казалось бы, логичный аргумент, но нет 🙂
Во-первых, на мой взгляд, грош цена любому автору образовательных продуктов, если он боится, что информация из бесплатных источников, даже с его дополнениями, сканибализирует его продукт. Я не занимаюсь инфобизом, собирая "секретные знания". В тренингах я продаю свою экспертизу, опыт и обратную связь. Делиться знаниями - это скорее плюс: я могу показать свою экспертность и сказать: "Ребята, вот вам база, а если хотите больше - можете уже приобрести мои тренинги". Другой плюс - после освоения базы, на тренинги ко мне придет уже более подготовленная аудитория, с которой мы будем говорить на одном языке и сможем разбирать более глубокие вопросы.
Во-вторых, я не зарабатываю исключительно тренингами, есть еще и внедрение AI. И клиенты приходят ко мне в том числе и через канал. Если я делаю технологию более понятной потенциальному заказчику, то я повышаю вероятность того, что человек захочет внедрить ИИ в свои бизнес-процессы. А еще будет играть фактор личного доверия, потому что человек уже видит, что я в теме шарю, а не являюсь случайным пассажиром. Я могу потерять 10 продаж тренинга по эффективности, но на эти 10 потерь придется 1 клиент в агентство, а чеки там интереснее.
В-третьих, у меня есть позиция, что образование должно быть доступным. Особенно в плане AI. В России очень мало качественного образовательного контента по ИИ, а хороший — платный. В США дофига бесплатных курсов, включая этот, но люди могут не знать языка либо просто быть ограничены в доступе к инструментам из-за геополитики. Доступ к знаниям не должен быть ограничен поэтим причинам.
В-четвертых, я вижу вашу отдачу. Да, делать эти переводы для меня сложнее и дольше, чем писать обычные посты, но я получаю больший выхлоп. Вы чаще делитесь этим контентом, у меня растет аудитория. Если есть такая возможность - надо ее использовать 🙂
Да и, в конце концов, если кто-то захочет меня отблагодарить - всегда можно залететь на какой-то из моих тренингов.
P.S.
3❤25🔥13👍11👎1
Уроки, которые я извлек, работая над Teaching Pal
Завершающий пост из цикла про Teaching Pal. Кейс кейсом, но важнее всего то, какие уроки я извлек из всего этого. Ведь делюсь я этим в том числе и для того, чтобы вы не повторяли наших ошибок.
1. Стратегия компании > Крутость продукта
Каким бы крутым ни был ваш продукт, его ждет тяжелая судьба, если он идет вразрез с глобальной стратегией компании. Teaching Pal был слишком инновационным для Pearson: компания держалась за прошлое, а новое руководство выбрало фокус на стабильность. Где стабильность - там нет места инновациям.
2. Смена руководства = Потенциальный "черный лебедь"
У нас были согласованы бюджеты и команда была готова к запуску. Но пришел новый CEO - и все посыпалось: новая стратегия, пересмотр бюджетов, запрет на найм. Видение, работавшее со старым руководством, не сработало с новым.
3. Обещания без подписи - не более чем слова
“Контракт возобновим", "перейдешь в штат с индексацией ЗП", "бюджет вот-вот согласуем". Сколько раз я это слышал в Pearson! В итоге - четыре месяца ожидания без оплаты, отмененные договоренности и заморозка найма через неделю после того, как мой руководитель добился согласования позиций. Никогда не работайте и не проявляйте свою лояльность, если нет подписанного документа. Ни одна компания не будет важнее, чем вы сами. Нет бумаги - ищите новую работу. От оффера всегда можно отказаться.
4. Шкура на кону - никаких Shared Teams
Наличие работы специалиста должно зависеть от того, выживет ли его продукт. А когда у тебя в команде одни наемники - результат будет соответствующий. У нас был “арендованный” дизайнер, который сорвал дедлайн и ушел играть в футбол, а мне пришлось в 4 ночи будить другого, чтобы успеть к майлстоуну. Если у исполнителя нет “шкуры на кону”, он не будет впахивать.
5. Подбор команды с единым культурным и рабочим контекстом
Джейкоб (дизайнер), откровенно тянул команду на дно. Не потому что британец, а потому что рабочий и культурный вайб был совершенно разный. Он пропускал созвоны, продалбывал дедлайны, но я очень долго не мог его уволить. Ищите людей в команду либо со схожим бэкграундом либо из культурно близких друг к другу стран: когда есть общий подход к работе, взаимопонимание и нацеленность на результат, а не просто набор скиллов.
6. Нужно иметь план Б
Пока команда разрабатывает основную версию продукта, продакту стоит самому, с помощью AI-инструментов, делать и тестировать прототипы с отличающимся видением и функциями. Это можно использовать как дополнительный аргумент при защите продукта, как запасной вариант при смене курса или просто для проверки смелых гипотез без больших затрат ресурсов команды.
7. Не бояться защищать свое видение (и команду) от неэффективности
Мне приходилось бороться за бюджет, за нужных людей (и против ненужных), отстаивать решения, которые казались очевидными команде, но не менеджменту. Если вы не будете этого делать, никто не будет. Иногда это похоже на войну, но без этого инновационные проекты в больших структурах не выживают.
8. Диверсифицировать свою занятость
Из-за всей этой ситуации с Pearson и я, и моя команда лишились источника дохода. Для меня и еще пары ребят он был основным, для кого-то дополнительным. Это очень отрезвляет. Нельзя зависеть от одного работодателя или проекта, особенно в такой турбулентной сфере. Ищите подработки, развивайте личные проекты, создавайте финансовую подушку - как для себя, так и, по возможности, думайте о рисках для команды. Лучших ребят я всегда тащу за собой в новые проекты. Здесь плюс и для вас и для компании, потому что никому не нужно притираться друг к другу.
9. Уходить из компании, если процесс создания инноваций превращается в борьбу с ветряными мельницами
Ты не победишь, какой бы крутой продукт ни разрабатывал, если компания – это старая, обросшая бюрократией громадина. Если создание нового превращается в бесконечную и бессмысленную борьбу с системой, которая сопротивляется любым изменениям, – пора валить. Энергию и время лучше направить туда, где они принесут реальную пользу и удовлетворение.
#кейсы@NGI_ru
Завершающий пост из цикла про Teaching Pal. Кейс кейсом, но важнее всего то, какие уроки я извлек из всего этого. Ведь делюсь я этим в том числе и для того, чтобы вы не повторяли наших ошибок.
1. Стратегия компании > Крутость продукта
Каким бы крутым ни был ваш продукт, его ждет тяжелая судьба, если он идет вразрез с глобальной стратегией компании. Teaching Pal был слишком инновационным для Pearson: компания держалась за прошлое, а новое руководство выбрало фокус на стабильность. Где стабильность - там нет места инновациям.
2. Смена руководства = Потенциальный "черный лебедь"
У нас были согласованы бюджеты и команда была готова к запуску. Но пришел новый CEO - и все посыпалось: новая стратегия, пересмотр бюджетов, запрет на найм. Видение, работавшее со старым руководством, не сработало с новым.
3. Обещания без подписи - не более чем слова
“Контракт возобновим", "перейдешь в штат с индексацией ЗП", "бюджет вот-вот согласуем". Сколько раз я это слышал в Pearson! В итоге - четыре месяца ожидания без оплаты, отмененные договоренности и заморозка найма через неделю после того, как мой руководитель добился согласования позиций. Никогда не работайте и не проявляйте свою лояльность, если нет подписанного документа. Ни одна компания не будет важнее, чем вы сами. Нет бумаги - ищите новую работу. От оффера всегда можно отказаться.
4. Шкура на кону - никаких Shared Teams
Наличие работы специалиста должно зависеть от того, выживет ли его продукт. А когда у тебя в команде одни наемники - результат будет соответствующий. У нас был “арендованный” дизайнер, который сорвал дедлайн и ушел играть в футбол, а мне пришлось в 4 ночи будить другого, чтобы успеть к майлстоуну. Если у исполнителя нет “шкуры на кону”, он не будет впахивать.
5. Подбор команды с единым культурным и рабочим контекстом
Джейкоб (дизайнер), откровенно тянул команду на дно. Не потому что британец, а потому что рабочий и культурный вайб был совершенно разный. Он пропускал созвоны, продалбывал дедлайны, но я очень долго не мог его уволить. Ищите людей в команду либо со схожим бэкграундом либо из культурно близких друг к другу стран: когда есть общий подход к работе, взаимопонимание и нацеленность на результат, а не просто набор скиллов.
6. Нужно иметь план Б
Пока команда разрабатывает основную версию продукта, продакту стоит самому, с помощью AI-инструментов, делать и тестировать прототипы с отличающимся видением и функциями. Это можно использовать как дополнительный аргумент при защите продукта, как запасной вариант при смене курса или просто для проверки смелых гипотез без больших затрат ресурсов команды.
7. Не бояться защищать свое видение (и команду) от неэффективности
Мне приходилось бороться за бюджет, за нужных людей (и против ненужных), отстаивать решения, которые казались очевидными команде, но не менеджменту. Если вы не будете этого делать, никто не будет. Иногда это похоже на войну, но без этого инновационные проекты в больших структурах не выживают.
8. Диверсифицировать свою занятость
Из-за всей этой ситуации с Pearson и я, и моя команда лишились источника дохода. Для меня и еще пары ребят он был основным, для кого-то дополнительным. Это очень отрезвляет. Нельзя зависеть от одного работодателя или проекта, особенно в такой турбулентной сфере. Ищите подработки, развивайте личные проекты, создавайте финансовую подушку - как для себя, так и, по возможности, думайте о рисках для команды. Лучших ребят я всегда тащу за собой в новые проекты. Здесь плюс и для вас и для компании, потому что никому не нужно притираться друг к другу.
9. Уходить из компании, если процесс создания инноваций превращается в борьбу с ветряными мельницами
Ты не победишь, какой бы крутой продукт ни разрабатывал, если компания – это старая, обросшая бюрократией громадина. Если создание нового превращается в бесконечную и бессмысленную борьбу с системой, которая сопротивляется любым изменениям, – пора валить. Энергию и время лучше направить туда, где они принесут реальную пользу и удовлетворение.
#кейсы@NGI_ru
3👍14❤6🔥6
Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 4
Не получилось опубликовать вчера, так как я решил писать лекцию не в заметках, а в Telegraph и на финальной стадии он подвел меня и не сохранил почти весь текст 🥲
Сегодняшняя тема: “Описание и эффективный промптинг”. Anthropic дали очень качественный материал, который я уже по традиции дополнил полезным. Добавил для вас кучу промптинг-гайдов по отдельным ИИ-инструментам, можете задавать по ним вопросы прямо в тетрадке NotebookLM. Помимо этого, как и в прошлый раз, включил материалы от коллег с полезной информациeй. На выходе получился самый детальный из доступных бесплатно гайдов по промтингу в русскоязычном сегменте интернета.
Отдельно хочется отметить подкаст - в этот раз он получился максимально вкусным и аж на 20 минут. Можете смело слушать его вместо текстовой версии, там практически все и очень хорошие примеры.
С вас, как обычно, репост, а с меня - больше контента. Если хватит времени - опубликую оставшиеся лекции до конца текущей недели!
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - Погружение в генеративный ИИ и LLM.
3. Лекция 3 - Делегирование
#обучающиематериалы@NGI_ru
@NGI_ru
Не получилось опубликовать вчера, так как я решил писать лекцию не в заметках, а в Telegraph и на финальной стадии он подвел меня и не сохранил почти весь текст 🥲
Сегодняшняя тема: “Описание и эффективный промптинг”. Anthropic дали очень качественный материал, который я уже по традиции дополнил полезным. Добавил для вас кучу промптинг-гайдов по отдельным ИИ-инструментам, можете задавать по ним вопросы прямо в тетрадке NotebookLM. Помимо этого, как и в прошлый раз, включил материалы от коллег с полезной информациeй. На выходе получился самый детальный из доступных бесплатно гайдов по промтингу в русскоязычном сегменте интернета.
Отдельно хочется отметить подкаст - в этот раз он получился максимально вкусным и аж на 20 минут. Можете смело слушать его вместо текстовой версии, там практически все и очень хорошие примеры.
С вас, как обычно, репост, а с меня - больше контента. Если хватит времени - опубликую оставшиеся лекции до конца текущей недели!
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - Погружение в генеративный ИИ и LLM.
3. Лекция 3 - Делегирование
#обучающиематериалы@NGI_ru
@NGI_ru
3❤16👍7🔥5👌1
Нас уже больше 1000!
Чуть больше года назад, когда я завел этот канал, у меня была цель сделать пространство, где я смогу говорить про ИИ без хайпа и обещаний магии, а по-настоящему, как его вижу я. Мне хотелось делиться своим опытом с другими, помогать людям разобраться как с самой технологией, так и с тем, как делать свои продукты на базе ее.
3 июня мы пробили первую важную для любого ТГ-канала отметку - в 1000 человек, которую я загонялся и пропустил, а активно расти канал начал только в январе этого года. Следующая большая цель - 5000, а до конца года хочется сделать 10000 🙂
Хочется поблагодарить каждого, за то, что вы меня читаете, делитесь постами, ставите реакции, задаете вопросы и выражаете свое мнение в комментариях. Для меня это очень ценно и мотивирует развивать канал дальше 😊
Как будет развиваться канал дальше:
- Больше эфиров, в том числе совместных: планирую проводить на разные тематики, готовим анонс в ближийшие дни.
- Больше образовательных материалов: вижу, что зашла история с Anthropic, буду периодически выкладывать сюда стоящие ресурсы.
- Новые кейсы: сейчас мы работаем над рядом интересных ИИ-проектов, и мне не терпится поделиться ими здесь, когда это будет возможно.
- Коммьюнити вокруг канала и плюшки для его членов: в коммьюнити будут отдельные эфиры, бонусные материалы, нетворкинг и много чего другого.
- Новые тренинги и бонусы для прошедших: сейчас в разработке 2 тренинга по вайбкодингу. Помимо этого, я договорился о партнерстве с крупной HR-платформой. Все мои выпускники будут включены в закрытый пул специалистов, у которых будет доступ к вакансиям по AI. В планах больше партнерств и, если получится, подписки на AI-тулы.
В завершение небольшой подарок для моих читателей 😁
Сегодня открылась закрытая бета на браузер с AI Dia. Вход туда только по инвайтам. Мне удалось раздобыть несколько и я оставлю инвайт-сссылку в комментариях. Важный момент: браузер доступен только на Mac OS, поэтому если у вас другая система - пожалуйста, оставьте инвайт другим.
Также призываю скидывать свои инвайт-ссылки в комментарии, чтобы другие читатели канала могли получить доступ, не жадничайте 🙂 Как я понял, каждому дается рандомное количество инвайтов, кому-то 3, кому-то 20.
Чуть больше года назад, когда я завел этот канал, у меня была цель сделать пространство, где я смогу говорить про ИИ без хайпа и обещаний магии, а по-настоящему, как его вижу я. Мне хотелось делиться своим опытом с другими, помогать людям разобраться как с самой технологией, так и с тем, как делать свои продукты на базе ее.
3 июня мы пробили первую важную для любого ТГ-канала отметку - в 1000 человек, которую я загонялся и пропустил, а активно расти канал начал только в январе этого года. Следующая большая цель - 5000, а до конца года хочется сделать 10000 🙂
Хочется поблагодарить каждого, за то, что вы меня читаете, делитесь постами, ставите реакции, задаете вопросы и выражаете свое мнение в комментариях. Для меня это очень ценно и мотивирует развивать канал дальше 😊
Как будет развиваться канал дальше:
- Больше эфиров, в том числе совместных: планирую проводить на разные тематики, готовим анонс в ближийшие дни.
- Больше образовательных материалов: вижу, что зашла история с Anthropic, буду периодически выкладывать сюда стоящие ресурсы.
- Новые кейсы: сейчас мы работаем над рядом интересных ИИ-проектов, и мне не терпится поделиться ими здесь, когда это будет возможно.
- Коммьюнити вокруг канала и плюшки для его членов: в коммьюнити будут отдельные эфиры, бонусные материалы, нетворкинг и много чего другого.
- Новые тренинги и бонусы для прошедших: сейчас в разработке 2 тренинга по вайбкодингу. Помимо этого, я договорился о партнерстве с крупной HR-платформой. Все мои выпускники будут включены в закрытый пул специалистов, у которых будет доступ к вакансиям по AI. В планах больше партнерств и, если получится, подписки на AI-тулы.
В завершение небольшой подарок для моих читателей 😁
Сегодня открылась закрытая бета на браузер с AI Dia. Вход туда только по инвайтам. Мне удалось раздобыть несколько и я оставлю инвайт-сссылку в комментариях. Важный момент: браузер доступен только на Mac OS, поэтому если у вас другая система - пожалуйста, оставьте инвайт другим.
Также призываю скидывать свои инвайт-ссылки в комментарии, чтобы другие читатели канала могли получить доступ, не жадничайте 🙂 Как я понял, каждому дается рандомное количество инвайтов, кому-то 3, кому-то 20.
2🔥22❤7👍3👌1
Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 5
В этот раз у нас не такая длинная, но, тем не менее, важная тема - “Оценка и цикл оценка-описание при работе с ИИ”. Изначальный материал я дополнил своими примерами, а в конце привел ряд техник, которыми пользуюсь сам для того, чтобы оценивать результаты работы ИИ.
В тетрадку NotebookLM добавил несколько гайдов по техникам, которые могут быть полезны вам в оценке.
Мы движемся с вами к завершению курса. Следующая тема - последняя. Вместе с ней Anthropic дает возможность пройти викторину и получить сертификат (правда, не именной). Викторину я также переведу, чтобы у вас была возможность прикликать оригинальную в гугл форму и получить свой сертификат 🙂
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - Погружение в генеративный ИИ и LLM.
3. Лекция 3 - Делегирование
4. Лекция 4 - Описание и эффективный промптинг
#обучающиематериалы@NGI_ru
@NGI_ru
В этот раз у нас не такая длинная, но, тем не менее, важная тема - “Оценка и цикл оценка-описание при работе с ИИ”. Изначальный материал я дополнил своими примерами, а в конце привел ряд техник, которыми пользуюсь сам для того, чтобы оценивать результаты работы ИИ.
В тетрадку NotebookLM добавил несколько гайдов по техникам, которые могут быть полезны вам в оценке.
Мы движемся с вами к завершению курса. Следующая тема - последняя. Вместе с ней Anthropic дает возможность пройти викторину и получить сертификат (правда, не именной). Викторину я также переведу, чтобы у вас была возможность прикликать оригинальную в гугл форму и получить свой сертификат 🙂
👉🏻 Содержание лекции с моими дополнениями
🎧 Подкаст в NotebookLM
🔗 Ссылка на подкаст для тех, у кого не работает NotebookLM
✍️ Тетрадка NotebookLM
📄 Переведенные материалы и упражнения
📌 Предыдущие лекции курса:
1. Лекция 1 - Введение в ИИ-грамотность и фреймворк 4D
2. Лекция 2 - Погружение в генеративный ИИ и LLM.
3. Лекция 3 - Делегирование
4. Лекция 4 - Описание и эффективный промптинг
#обучающиематериалы@NGI_ru
@NGI_ru
6❤8👍2
1. Есть ли альтернатива ElevenLabs в клонировании голоса? - поделился кейсом поиска альтернативы лучшему клонеру голоса на рынке
2. Что прочитать про вайб кодинг - наша с коллегами подборка материалов по теме кодинга с ИИ
3. Зачем я трачу столько усилий на создание бесплатного контента? - рассказал о причинах, в комментариях увидел много поддержки, спасибо вам 🙏
4. Уроки, которые я извлек, работая над Teaching Pal - завершающая статья цикла рассказов про мой главный продукт в Pearson
5. Нас уже больше 1000! - я немного проспал этот момент, но лучше поздно, чем никогда. Для тех, кто забрал инвайт в Dia, но не поделился - просьба сделать это в комментариях 🙂
📕Материалы курса от Anthropic:
1. Перевод курса AI-грамотность от Anthropic с дополнениями - часть 1 - тема “Введение в ИИ-грамотность и фреймворк 4D”
2. Перевод курса AI-грамотность от Anthropic с дополнениями - часть 2 - тема “Погружение в генеративный ИИ и LLM”
3. Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 3 - тема “Делегирование и его применение”
4. Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 4 - тема “Описание и эффективный промптинг”
5. Перевод курса “AI-грамотность” от Anthropic с дополнениями - часть 5 - тема “Оценка и цикл оценка-описание при работе с ИИ”
Прошлый дайджест тут
Думаю, что на этой неделе возьму перерыв в 1 или 2 дня по постингу, т.к. вижу, что из-за праздиков просмотры просели, догоняйте :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
NGI | Влад Корнышев про AI и создание AI-продуктов
Есть ли альтернатива ElevenLabs в клонировании голоса?
Сегодня поделюсь интересным кейсом, который сейчас находится у меня в работе. Перед нами стояла задача обеспечить для клиента качественное решение по клонированию голоса в рамках его продукта. Первое…
Сегодня поделюсь интересным кейсом, который сейчас находится у меня в работе. Перед нами стояла задача обеспечить для клиента качественное решение по клонированию голоса в рамках его продукта. Первое…
🔥8👍3❤2
Как использовать NotebookLM на полную на русском
Как вы могли заметить, при переводе курса Anthropic я активно кидаю вам ссылки на NotebookLM, при этом ранее я писал, что работа на русском языке оставляет желать лучшего: долгая скорость работы, в подкастах упускаются детали, а сами они короткие. И хоть мой основной режим работы там на английском, я таки разобрался, как заставить ее работать нормально на русском.
Вот мои советы:
1. Грузите первыми материалы на русском языке - я заметил, что если грузить сначала англоязычные материалы, оно почему-то работает хуже, видимо, первый попавший в тетрадку язык заставляет модель тянуться в его сторону, а не в сторону последующих материалов
2. Для настройки - десктоп, для работы - мобайл - недавно вышла апка на мобильные и планшеты. И хоть на первый взгляд она выглядит так же, но там отсутствуют важные функции: нельзя сделать контролируемую генерацию подкаста, нельзя выбрать язык взаимодействия. Все это доступно в десктопе, но отсутствует в мобилке
3. Не генерируйте подкасты в авторежиме - механизм Attention для русского языка какой-то сломанный в авторежиме. Неверно интерпретирует, скачет с темы на тему. Для того, чтобы сделать нормальный подкаст - используйте контролируемую генерацию
Как генерить нормальные подкасты:
Здесь у нас два сценария, когда у вас, как у меня, есть текст, на который надо опираться и когда текста нет, рассмотрим оба!
Шаг 0 - когда текста нет. Закидываем все тексты в NotebookLM, далее просим тетрадку сгенерить вам по ним урок. В промпте указывайте тему, какой из документов должен быть основным (ВАЖНО!), а также, какой вам нужен урок по формату. Все, у вас есть текст!
Шаг 1 - когда текст уже есть. Кидаем полученный текст в Gemini с таким промптом:
В целом, этот промпт уже дает хорошие результаты, но если вы хотите сделать подкаст еще длинее, то делаем так:
Пример промпта берите по этой ссылке, за него благодарим @viktor_1820
Мы используем именно Gemini, потому что у моделей один токенизатор и работать оно будет лучше!
Шаг 3 - идем генерить кастомный подкаст. Копируем получившийся промпт, но не отправляем! Я рекомендую в нем еще ручками добавить, когда и к каким документам обращаться, если вы знаете примерное их содержание.
На выходе, если документов мало - получим подкаст длительностью 9-13 минут, который максимально покроет вашу тему, если документов больше - будет 20-30 минут, у меня пока рекорд 38.
#обучающиематериалы@NGI_ru
Как вы могли заметить, при переводе курса Anthropic я активно кидаю вам ссылки на NotebookLM, при этом ранее я писал, что работа на русском языке оставляет желать лучшего: долгая скорость работы, в подкастах упускаются детали, а сами они короткие. И хоть мой основной режим работы там на английском, я таки разобрался, как заставить ее работать нормально на русском.
Вот мои советы:
1. Грузите первыми материалы на русском языке - я заметил, что если грузить сначала англоязычные материалы, оно почему-то работает хуже, видимо, первый попавший в тетрадку язык заставляет модель тянуться в его сторону, а не в сторону последующих материалов
2. Для настройки - десктоп, для работы - мобайл - недавно вышла апка на мобильные и планшеты. И хоть на первый взгляд она выглядит так же, но там отсутствуют важные функции: нельзя сделать контролируемую генерацию подкаста, нельзя выбрать язык взаимодействия. Все это доступно в десктопе, но отсутствует в мобилке
3. Не генерируйте подкасты в авторежиме - механизм Attention для русского языка какой-то сломанный в авторежиме. Неверно интерпретирует, скачет с темы на тему. Для того, чтобы сделать нормальный подкаст - используйте контролируемую генерацию
Как генерить нормальные подкасты:
Здесь у нас два сценария, когда у вас, как у меня, есть текст, на который надо опираться и когда текста нет, рассмотрим оба!
Шаг 0 - когда текста нет. Закидываем все тексты в NotebookLM, далее просим тетрадку сгенерить вам по ним урок. В промпте указывайте тему, какой из документов должен быть основным (ВАЖНО!), а также, какой вам нужен урок по формату. Все, у вас есть текст!
Шаг 1 - когда текст уже есть. Кидаем полученный текст в Gemini с таким промптом:
Как член команды NotebookLM напиши мне промпт, по которому я могу сгенерировать максимально качественный подкаст. Вот план подкаста [сюда пишем, что хотим узнать, на какие вопросы ответы получить]. Вот текст [сюда вставляем свой текст]. Дай только сценарий, без таймкодов.
В целом, этот промпт уже дает хорошие результаты, но если вы хотите сделать подкаст еще длинее, то делаем так:
Как член команды NotebookLM напиши мне промпт, по которому я могу сгенерировать максимально качественный подкаст.
Инструкции для генерации:
1. Запроси у меня пример промпта для генерации подкастов
2. После того, как получишь его - запроси у меня план и текст, по которому нужно осуществить генерацию.
Дай только сценарий, без таймкодов
Пример промпта берите по этой ссылке, за него благодарим @viktor_1820
Мы используем именно Gemini, потому что у моделей один токенизатор и работать оно будет лучше!
Шаг 3 - идем генерить кастомный подкаст. Копируем получившийся промпт, но не отправляем! Я рекомендую в нем еще ручками добавить, когда и к каким документам обращаться, если вы знаете примерное их содержание.
На выходе, если документов мало - получим подкаст длительностью 9-13 минут, который максимально покроет вашу тему, если документов больше - будет 20-30 минут, у меня пока рекорд 38.
#обучающиематериалы@NGI_ru
Telegram
Viktor in Влад Корнышев - обсуждение постов
Типо такого
Ваша главная и не подлежащая обсуждению цель — создать аудиоэпизод продолжительностью не менее 60 минут , желательно 90 минут и более.
Обобщение не допускается. Цель — максимальная длина и глубина, достигаемые за счет всесторонней проработки…
Ваша главная и не подлежащая обсуждению цель — создать аудиоэпизод продолжительностью не менее 60 минут , желательно 90 минут и более.
Обобщение не допускается. Цель — максимальная длина и глубина, достигаемые за счет всесторонней проработки…
❤14👍7🔥5
Про бизнес-обучение в России
Я уже как-то писал пост про то, где учиться AI, но в целом, вопрос “Где учиться” - довольно широкий. Сегодня пост про бизнес-образование. Как выпускник МГУ - я всегда буду топить за свой университет и эконом, но есть и другие места, где можно и нужно учиться бизнесу 😄
Лучшее сочетание - это когда у в универе дают хорошую академическую базу, есть преподы-практики, а программу проектировали при участии людей из бизнеса. Мне повезло, что на моей программе все это совпало, а сегодня я узнал еще про одну такую.
Кто знает Skyeng - знает имя Дениса Сметнёва, кофаундера компании. Когда я только пришел в компанию - я попал в бизнес-юнит, который был подотчетен как раз Денису. Мы делали много классных штук, пытались в международку, и делали в этом успехи. Подбор команды, руководителей, методы работы - скажу честно, это была лучшая версия Skyeng, в которой я работал, а сам Денис во все это очень сильно вовлекался.
Так вот, Денис недавно стал академическим директором в бизнес-школе МФТИ и теперь наводит интересную движуху и там. Сейчас они ведут набор в магистратуру с практической направленностью. Обучение по-классике длится 2 года и фокусируется на том, что студенты развивают свои проекты при поддержке бизнес-школы. Те, кто учится сейчас уже делают свои стартапы с реальными продажами на $1 mln в год. И я уверен, что с приходом Дениса программа станет еще круче.
В общем, очередная крутая инициатива, которую я всячески поддерживаю. И нет, это не реклама, ее у меня в канале нет и точно не будет в ближайшее время 🙂
Подать заявку множно в боте @bsmipt_bot до 27 июня.
Я уже как-то писал пост про то, где учиться AI, но в целом, вопрос “Где учиться” - довольно широкий. Сегодня пост про бизнес-образование. Как выпускник МГУ - я всегда буду топить за свой университет и эконом, но есть и другие места, где можно и нужно учиться бизнесу 😄
Лучшее сочетание - это когда у в универе дают хорошую академическую базу, есть преподы-практики, а программу проектировали при участии людей из бизнеса. Мне повезло, что на моей программе все это совпало, а сегодня я узнал еще про одну такую.
Кто знает Skyeng - знает имя Дениса Сметнёва, кофаундера компании. Когда я только пришел в компанию - я попал в бизнес-юнит, который был подотчетен как раз Денису. Мы делали много классных штук, пытались в международку, и делали в этом успехи. Подбор команды, руководителей, методы работы - скажу честно, это была лучшая версия Skyeng, в которой я работал, а сам Денис во все это очень сильно вовлекался.
Так вот, Денис недавно стал академическим директором в бизнес-школе МФТИ и теперь наводит интересную движуху и там. Сейчас они ведут набор в магистратуру с практической направленностью. Обучение по-классике длится 2 года и фокусируется на том, что студенты развивают свои проекты при поддержке бизнес-школы. Те, кто учится сейчас уже делают свои стартапы с реальными продажами на $1 mln в год. И я уверен, что с приходом Дениса программа станет еще круче.
В общем, очередная крутая инициатива, которую я всячески поддерживаю. И нет, это не реклама, ее у меня в канале нет и точно не будет в ближайшее время 🙂
Подать заявку множно в боте @bsmipt_bot до 27 июня.
❤6👍6🔥2
Как получить себе бесплатный доступ практически к любому AI-инструменту
Заголовок не кликбейт, но есть нюанс 🙂 В общем, подавляющее большинство ИИ-сервисов сейчас - это обертки для LLM. Если инструмент обладает агентскими функциями, то LLM + Tool Caling, чтобы модель могла делать какие-то дополнительные операции. Сверху обычно лежит еще какой-то графический интерфейс, обычно чат + эмулятор и так далее.
То есть грубо говоря, Cursor, Bolt, Manus, Lovable и прочее - это просто запромптченые LLM-ки. А если это запромптченные LLM, значит у них есть системный промпт, который можно из них вытащить. Как бы авторы ни пытались защититься от этого, всегда есть какие-то бэкдоры и методы их извлечения. Либо целиком либо по частям. Для этого есть различные техники вроде инъекций, output2prompt и так далее.
Все это помогает вытащить системный промпт либо целиком либо по кусочкам. Сам промпт при этом будет необязательно 1 в 1 тот, что закладывали создатели. Чаще это семантически совпадающий с ним промпт, но так как модели работают на семантике - полученный промпт будет обладать 99% характеристик оригинала.
Лазая по github я наткнулся на интересный репозиторий, в котором лежат системные промпты Dia, Cursor, Lovable, Manus, Replit и других AI-тулов. На Reddit и в самом гитхаб пишут, что промпты настоящие. От авторов сервисов, естественно, никаких подтверждений или опровержений, иначе как им поднимать свои 900 млн инвестиций 🙂
Что это нам дает?
Довольно много! Мне, как продакту, интересно посмотреть на структуру промтов, какие стратегии там применяются, как, куда и зачем разработчики направляют модели, как организован тул-юз. Это один сценарий. Второй - берем любой системный промпт, идем в Google AI Studio, копируем его туда и получаем практические полный аналог всех инструментов из списка выше БЕСПЛАТНО.
Нюанс здесь в том, что у вас не будет графического интерфейса и инструментов, которые должны вызываться, будет только запромпченая LLM. Но если вы умеете вайбкодить, системно мыслить и хотите поупражняться в создании AI-продуктов, то и эту проблему можно решить 🙂 Берете Cursor, Stitch, системный промпт, например от Manus и пилите свой Манус.
Enjoy 😄
Заголовок не кликбейт, но есть нюанс 🙂 В общем, подавляющее большинство ИИ-сервисов сейчас - это обертки для LLM. Если инструмент обладает агентскими функциями, то LLM + Tool Caling, чтобы модель могла делать какие-то дополнительные операции. Сверху обычно лежит еще какой-то графический интерфейс, обычно чат + эмулятор и так далее.
То есть грубо говоря, Cursor, Bolt, Manus, Lovable и прочее - это просто запромптченые LLM-ки. А если это запромптченные LLM, значит у них есть системный промпт, который можно из них вытащить. Как бы авторы ни пытались защититься от этого, всегда есть какие-то бэкдоры и методы их извлечения. Либо целиком либо по частям. Для этого есть различные техники вроде инъекций, output2prompt и так далее.
Все это помогает вытащить системный промпт либо целиком либо по кусочкам. Сам промпт при этом будет необязательно 1 в 1 тот, что закладывали создатели. Чаще это семантически совпадающий с ним промпт, но так как модели работают на семантике - полученный промпт будет обладать 99% характеристик оригинала.
Лазая по github я наткнулся на интересный репозиторий, в котором лежат системные промпты Dia, Cursor, Lovable, Manus, Replit и других AI-тулов. На Reddit и в самом гитхаб пишут, что промпты настоящие. От авторов сервисов, естественно, никаких подтверждений или опровержений, иначе как им поднимать свои 900 млн инвестиций 🙂
Что это нам дает?
Довольно много! Мне, как продакту, интересно посмотреть на структуру промтов, какие стратегии там применяются, как, куда и зачем разработчики направляют модели, как организован тул-юз. Это один сценарий. Второй - берем любой системный промпт, идем в Google AI Studio, копируем его туда и получаем практические полный аналог всех инструментов из списка выше БЕСПЛАТНО.
Нюанс здесь в том, что у вас не будет графического интерфейса и инструментов, которые должны вызываться, будет только запромпченая LLM. Но если вы умеете вайбкодить, системно мыслить и хотите поупражняться в создании AI-продуктов, то и эту проблему можно решить 🙂 Берете Cursor, Stitch, системный промпт, например от Manus и пилите свой Манус.
Enjoy 😄
1👍22🔥12❤7🤣1