Forwarded from Никита Шарипов
Когда вы видите топ-качественные видео из-под моделей типа Veo3, нужно очень хорошо понимать такой нюанс.
1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.
Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.
Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
1) В половине случаев генерация тупо зависает или происходит с жесткими артефактами — например без звука.
2) Там где она проходит, 3/4 роликов генерируется полной фигней, непригодной к использованию, нужно делать заново.
3) Цена секунды видео у провайдера — это за какой-то результат, а вовсе не за тот, который тебя устроит.
Итого, в среднем, если ты хочешь получать качественный результат, то это x10 работы и токенов. А значит секунда видео стоит не 50 центов, а 5 долларов. А минута уже 300. Не считая времени монтажера.
Поэтому дешевые модельки или даже слайдшоу вместо анимаций все еще будут широко востребованы в ближайшее время. А на генерацию видео все равно нужны шарящие люди, ничего само собой там не получается.
👍13😭2
Сегодня я смог подвесить Google AI Studio
Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)
Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.
Кажется, я нашел предел лимитам студии 😁
Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
Оказывается, выгрузка текстов постов с моего основного канала весит 730 тысяч токенов (хуясе я понаписал)
Так вот, если вставить эту простынку текста в гугл студию, то она вешает хром.
Кажется, я нашел предел лимитам студии 😁
Теперь в бэклогах мозга появился проект написать мини-парсер, чтобы убрать из выгрузки для начала все HTML теги, а затем скомпоновать историю в удобный для работы с ЛЛМ вид. Например, сделав индекс по содержанию (без всяких рагов, тупо написав выжимку—текст)
Telegram
Глеб Кудрявцев — продукты и бизнес
Меня зовут Глеб Кудрявцев.
Founder проектов Карьерный Цех careerfactory.ru и microboard.ru
, ex CPO Skyeng
Заметки о предпринимательстве и продуктах
Мой блог по AI: https://news.1rj.ru/str/gleb_pro_ai
По рекламе: https://news.1rj.ru/str/stasiyshechka
Founder проектов Карьерный Цех careerfactory.ru и microboard.ru
, ex CPO Skyeng
Заметки о предпринимательстве и продуктах
Мой блог по AI: https://news.1rj.ru/str/gleb_pro_ai
По рекламе: https://news.1rj.ru/str/stasiyshechka
1👍6🔥2🥰1
В каментах выше предложили годный парсер.
Благодаря нему ужал токены в два раза, их оказалось 360к.
Отлично помещаются в AI studio.
RAG не нужен
Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
Благодаря нему ужал токены в два раза, их оказалось 360к.
Отлично помещаются в AI studio.
RAG не нужен
Идеальная иллюстрация того, что если ваша задача не решается влоб нейросетями, просто подождите годик.
🔥14
Вы будете смеяться, но свой вариант софтинки я написал за 2 запроса в курсор/клод4
Рабочий.
Вообще, claude sonnet 4 радует, в кои-то веки хорошая моделька, а то последняя приличная на рынке в марте вышла, а это уже времена динозавров так-то
https://github.com/glebkudr/telegram_json_to_md/
Рабочий.
Вообще, claude sonnet 4 радует, в кои-то веки хорошая моделька, а то последняя приличная на рынке в марте вышла, а это уже времена динозавров так-то
https://github.com/glebkudr/telegram_json_to_md/
🔥8😎6❤3😁1
Если у вас есть друзья из айтишки, то они респектнут вам за такое сообщение в личку, или в вашем личном канальчике (а я вдвойне респектну — все порадуемся)
Хочу порекомендовать хороший канал про AI. Чел билдит продукты и делится опытом того, что делает сам, а не пересказывает новости @gleb_pro_ai
🤣15❤9😁6
Вообще, самый нужный девайс для вайб-кодинга — второй монитор. Кинчик смотреть, пока оно там крутится 😅
😁26👍4🔥2
Вчера зашотганил где-то 50к токенов в проект.
Действовал так.
Сначала промпт-архитектор расписал мне архитектуру.
Потом промпт-менеджер побил на большие задачи. Их получилось больше 20 штук.
Потом я последовательно делал задачи в связке шотган <> AI Studio, тупо повторяя один и тот же промпт
Диффы применял с помощью claude 4 в курсоре.
И что вы думаете?
Все зеленое, все сделано, но блин, я теперь не понимаю, что из себя представляет проект и что дальше 😂
Надо теперь отдельным промптом запустить исследование, что ж мы такого понаделали 😁
PS Гипотеза того, что шотган позволяет люто поднять качество питоновских проектов по сравнению с курсором подтвердилась. На 50к свежих токенов (~5 тысяч строк) тесты нашли всего 2 явных ошибки типизации.
Действовал так.
Сначала промпт-архитектор расписал мне архитектуру.
Потом промпт-менеджер побил на большие задачи. Их получилось больше 20 штук.
Потом я последовательно делал задачи в связке шотган <> AI Studio, тупо повторяя один и тот же промпт
Мы последовательно реализуем задачи из папки /tasks.
Проанализируй задачи. Сгруппируй их по смыслу. Постарайся взять побольше задач за один раз. Выбери группу, которую логично реализовать следующей.
Реализуй.
После реализации проапдейть и сами тексты задач.
Диффы применял с помощью claude 4 в курсоре.
И что вы думаете?
Все зеленое, все сделано, но блин, я теперь не понимаю, что из себя представляет проект и что дальше 😂
Надо теперь отдельным промптом запустить исследование, что ж мы такого понаделали 😁
PS Гипотеза того, что шотган позволяет люто поднять качество питоновских проектов по сравнению с курсором подтвердилась. На 50к свежих токенов (~5 тысяч строк) тесты нашли всего 2 явных ошибки типизации.
🔥20👍4😁1
Как я бросил курсорить и начал шотганить
Прошел почти месяц с официального релиза Шотгана.
За это время проект приобрел 1200 звездочек на гитхабе, 150 форков, индусы сняли про него несколько видео суммарным числом просмотров сильно более 100к, а инструмент занимает центральное место в моей работе с кодом.
Что это и почему я его применяю?
Метод шотган — это способ писать код в ЛЛМ, загружая в нее подробную задачу и максимально возможный контекст.
Это прежде всего идеология:
И чем дальше, тем больше я убеждаюсь, что это верный подход.
— Большие контексты позволяют сохранять согласованность имен переменных в динамических ЯП типа Питона или JS.
— Большие контексты "склеивают" вместе архитектуру, позволяя модели делать меньше лапши и больше согласованного кода
— Мы банально экономим запросы в курсоре, и не выходим за 20 баксов в месяц 🙂
Сейчас мой пайплайн кодинга такой:
Сетап
1) Я описываю идею проекта подробно, запускаю в шотгане промпт архитектора и несу результат в gemini (Google AI Studio, модель 2.5 pro).
2) Отвечаю на вопросы сети и провожу циклов 2-3 улучшения промпта, скармливая ей собственный результат и все более его уточняя.
3) Когда промпт готов, несу его в курсор, выбираю Claude 4 и готовлю бойлерплейт проекта
Рабочий процесс
Когда бойлерплейт готов, я приступаю к более регулярной работе. А именно.
4) Описываю набор фичей, которые мне нужны. Несу это архитектору (далее соответствующий промпт в Шотгане + ответ от гемини я буду называть именно как обращение к персонажу).
5) Ответ архитектора тащу проджект-менеджеру и прошу сформулировать задачи + систематизировать архитектуру проекта в файлах.
6) Задачи несу разработчику и прошу их последовательно их имплементировать.
7) Возникшие баги ищу с тестировщиком и несу результаты разработчику или архитектору, в зависимости от того, насколько сложна причина их породившая.
Цикл повторяется до следующей крупной фичи.
Для понимания объема работ. Одна такая "крупная фича" это может быть целиком биллинг, авторизация, работа с пайплайном, короче достаточно большой кусок логики на десятки файлов и много тысяч строк кода.
Через курсор делать такое было бы мучением. А шотган позволяет алгоритмизировать процесс и сделать его даже в чем-то скучным. Твоей работой остается описывать верхнеуровневые документы, ревьюить архитектурные решения, и копировать промпты из чатика в чатик 🙂
По ощущениям это максимально далеко от "вайба", а скорее что-то типа "AI assisted program engineering", потому что временами мозги кипят, и в голове нужно держать контекст проекта в том же объеме, что и нейронке, грамотно формулируя, что же ты хочешь от нее получить. Ведь при плохой формулировке она и сделает какую-то фигню, а не то, что нужно.
Зато и результат достигается очень крутой, можно не просто начинать, а доводить до результата проекты там, где ванильный курсор начинает прогрессирующе тупить.
Что дальше?
На самом деле, самое тупое во всем этом процессе - ждать по три минуты на каждом шаге, а далее копипастить результаты между инструментами.
Это вполне алгоритмизируется. И я очень даже понимаю, как выстроить таким образом не просто маленькую софтинку, а полноценный комбайн автоматической работы с кодом, с прицелом на поддержку больших и гигантских кодовых баз.
В Штатах под такие штуки раздают венчурные деньги, сам же я пока не решил, играть ли мне в это или нет.
Но то, что мой способ работы с AI кодингом эффективнее того, что массово принято на рынке, у меня нет сомнений, а значит в моменте грех этим не пользоваться и не продолжать кодить дальше 😎
Прошел почти месяц с официального релиза Шотгана.
За это время проект приобрел 1200 звездочек на гитхабе, 150 форков, индусы сняли про него несколько видео суммарным числом просмотров сильно более 100к, а инструмент занимает центральное место в моей работе с кодом.
Что это и почему я его применяю?
Метод шотган — это способ писать код в ЛЛМ, загружая в нее подробную задачу и максимально возможный контекст.
Это прежде всего идеология:
Если у нас есть миллион контекста, то давайте его использовать, и вытаскивать все нужные нам изменения за один запрос, а не десяток или сотню мелких.
И чем дальше, тем больше я убеждаюсь, что это верный подход.
— Большие контексты позволяют сохранять согласованность имен переменных в динамических ЯП типа Питона или JS.
— Большие контексты "склеивают" вместе архитектуру, позволяя модели делать меньше лапши и больше согласованного кода
— Мы банально экономим запросы в курсоре, и не выходим за 20 баксов в месяц 🙂
Сейчас мой пайплайн кодинга такой:
Сетап
1) Я описываю идею проекта подробно, запускаю в шотгане промпт архитектора и несу результат в gemini (Google AI Studio, модель 2.5 pro).
2) Отвечаю на вопросы сети и провожу циклов 2-3 улучшения промпта, скармливая ей собственный результат и все более его уточняя.
3) Когда промпт готов, несу его в курсор, выбираю Claude 4 и готовлю бойлерплейт проекта
Рабочий процесс
Когда бойлерплейт готов, я приступаю к более регулярной работе. А именно.
4) Описываю набор фичей, которые мне нужны. Несу это архитектору
5) Ответ архитектора тащу проджект-менеджеру и прошу сформулировать задачи + систематизировать архитектуру проекта в файлах.
6) Задачи несу разработчику и прошу их последовательно их имплементировать.
7) Возникшие баги ищу с тестировщиком и несу результаты разработчику или архитектору, в зависимости от того, насколько сложна причина их породившая.
Цикл повторяется до следующей крупной фичи.
Для понимания объема работ. Одна такая "крупная фича" это может быть целиком биллинг, авторизация, работа с пайплайном, короче достаточно большой кусок логики на десятки файлов и много тысяч строк кода.
Через курсор делать такое было бы мучением. А шотган позволяет алгоритмизировать процесс и сделать его даже в чем-то скучным. Твоей работой остается описывать верхнеуровневые документы, ревьюить архитектурные решения, и копировать промпты из чатика в чатик 🙂
По ощущениям это максимально далеко от "вайба", а скорее что-то типа "AI assisted program engineering", потому что временами мозги кипят, и в голове нужно держать контекст проекта в том же объеме, что и нейронке, грамотно формулируя, что же ты хочешь от нее получить. Ведь при плохой формулировке она и сделает какую-то фигню, а не то, что нужно.
Зато и результат достигается очень крутой, можно не просто начинать, а доводить до результата проекты там, где ванильный курсор начинает прогрессирующе тупить.
Что дальше?
На самом деле, самое тупое во всем этом процессе - ждать по три минуты на каждом шаге, а далее копипастить результаты между инструментами.
Это вполне алгоритмизируется. И я очень даже понимаю, как выстроить таким образом не просто маленькую софтинку, а полноценный комбайн автоматической работы с кодом, с прицелом на поддержку больших и гигантских кодовых баз.
В Штатах под такие штуки раздают венчурные деньги, сам же я пока не решил, играть ли мне в это или нет.
Но то, что мой способ работы с AI кодингом эффективнее того, что массово принято на рынке, у меня нет сомнений, а значит в моменте грех этим не пользоваться и не продолжать кодить дальше 😎
5🔥43❤13👍7
Это самая загадочная проблема с которой я сталкивался!
Это самые страшные слова, которые вы можете услышать от ЛЛМ при написании кода 😁
И что вы думаете? Они сохранялись. При загрузке. А после этого я жал на кнопку save и вот в этот момент они откатывались.
Два, сука, часа.
😁22❤1🤗1
У нас есть камерный чатик топовых челов которые пишут про AI
Особенность — там только внедренцы и профи, которые работают с нейронками каждый день, а не просто пишут про то, что узнали из твиттера.
Каналы камерные и уютные. Максимум пользы, минимум хайпожорства.
Каждый из нас подготовил один пост на тему AI кодинга. Чтобы посмотреть другие посты автора — переходите к нему в канал.
-> Vibe Cursor Coding
-> AI / Vibe coding - советы и best practices
-> Как получилось, что юристы используют среду для разработчиков?
-> Stitch: от вайб-кодинга к вайб-дизайну и обратно
-> Как я бросил курсорить и начал шотганить (я тут тоже есть!)
-> Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
-> Context7 — один из лучших инструментов для AI-разработки
-> Топовый AI Coding Workflow: Cursor & AI Studio
-> Как Cursor AI превращает текст в готовые макеты Figma
-> Простое веб-приложение за 30 минут с помощью Lovable
Мне очень нравится состав тусовочки и формат публикаций. Изучайте и подписывайтесь 🙂
Особенность — там только внедренцы и профи, которые работают с нейронками каждый день, а не просто пишут про то, что узнали из твиттера.
Каналы камерные и уютные. Максимум пользы, минимум хайпожорства.
Каждый из нас подготовил один пост на тему AI кодинга. Чтобы посмотреть другие посты автора — переходите к нему в канал.
-> Vibe Cursor Coding
-> AI / Vibe coding - советы и best practices
-> Как получилось, что юристы используют среду для разработчиков?
-> Stitch: от вайб-кодинга к вайб-дизайну и обратно
-> Как я бросил курсорить и начал шотганить (я тут тоже есть!)
-> Вайб-кодим Google Apps Script для офисных задач: как LLM превращает часы рутины в минуты магии
-> Context7 — один из лучших инструментов для AI-разработки
-> Топовый AI Coding Workflow: Cursor & AI Studio
-> Как Cursor AI превращает текст в готовые макеты Figma
-> Простое веб-приложение за 30 минут с помощью Lovable
Мне очень нравится состав тусовочки и формат публикаций. Изучайте и подписывайтесь 🙂
🔥29❤9👍8👏3🤡1
Выпал тут на неделю на конфу, возвращаюсь.
Если еще не попробовали o3 в курсоре — обязательно попробуйте. Модель очень умная, как ей и полагается. Как и всегда в курсоре, ей дается мало контекста, но она сильно лучше решает задачки в девопсе и всякие стремные баги, за которыми раньше приходилось бегать к ней в веб-интерфейс, а сейчас все работает прямо из чатика.
Если еще не попробовали o3 в курсоре — обязательно попробуйте. Модель очень умная, как ей и полагается. Как и всегда в курсоре, ей дается мало контекста, но она сильно лучше решает задачки в девопсе и всякие стремные баги, за которыми раньше приходилось бегать к ней в веб-интерфейс, а сейчас все работает прямо из чатика.
❤8👍1
А вот шотганить все равно нужно. Умная она-то умная, и точечные баги разгребает влет, но я тут собрал очередной проектик на 50к токенов и приплыли, контекст напрочь теряет, если ей никто не помогает со стороны (гемини, шотган, привет).
👍9
Пишут часто, что в гитхабе есть утекшие промпты почти всех сервисов. Например вот. И что важно на них взглянуть — качать насмотренность.
А я вот пытался и нифига, насмотренность не прокачивается. Через три минуты уже скучно. Поэтому единственное, что я могу оттуда почерпнуть — что они очень большие, и делали их внимательно.
Поэтому анализ должен быть другим.
Берете любой утекший промпт публичного сервиса.
Засовываете его в ЛЛМ и спрашиваете — типа, эй объясни, что тут и почему происходит.
А потом берете этот анализ и просите ее повторить 😁 И вот у вас уже свой уникальный промпт.
Или просите не просто повторить, а сделать некий свой промпт, используя приемы из такого-то сервиса. Тоже сработает. Вместо того, чтобы самому ковыряться в промптах.
У вас есть руки — копипастить. А у нее мозг — думать.
Всегда так делаю 😎
А я вот пытался и нифига, насмотренность не прокачивается. Через три минуты уже скучно. Поэтому единственное, что я могу оттуда почерпнуть — что они очень большие, и делали их внимательно.
Поэтому анализ должен быть другим.
Берете любой утекший промпт публичного сервиса.
Засовываете его в ЛЛМ и спрашиваете — типа, эй объясни, что тут и почему происходит.
А потом берете этот анализ и просите ее повторить 😁 И вот у вас уже свой уникальный промпт.
Или просите не просто повторить, а сделать некий свой промпт, используя приемы из такого-то сервиса. Тоже сработает. Вместо того, чтобы самому ковыряться в промптах.
У вас есть руки — копипастить. А у нее мозг — думать.
Всегда так делаю 😎
🔥39👍11💯7😁1🤬1
Смешно сейчас было. Работал в проекте с шотганом. Дал ему задачу, он пошел ее делать.
Архитектуру расписал, на таски побил, все четко.
Потом смотрю — а это блин не тот проект вообще.
А он гад даже бровью не повел — "да, хозяин, буду делать, наверное тебе в проекте нужна совершенно левая хрень никак к нему не относящаяся, будет исполнено".
Короче, следите за тем, что происходит, иногда нужно вникать 😁
Архитектуру расписал, на таски побил, все четко.
Потом смотрю — а это блин не тот проект вообще.
А он гад даже бровью не повел — "да, хозяин, буду делать, наверное тебе в проекте нужна совершенно левая хрень никак к нему не относящаяся, будет исполнено".
Короче, следите за тем, что происходит, иногда нужно вникать 😁
😁24👀1
Все знают, как смешно ЛЛМ-ки пишут тесты. Хардкодят "assert true", проверяют абы что и вообще, творят дичь.
Но я открыл метод борьбы с этим, восхитительный в своей простоте.
Буквально: "Проверь, что тесты не говно"
Ну или чуть подробнее
— вставляем это впромпт тестировщика в шотгане.
И вы удивитесь, но в ответ на это оно выдает вполне внятный анализ того, все ли в порядке у нас с тестами, и какие именно из них следует переписать.
А если какие-то нужно, то вторым промптом мы говорим.
Ну и все. Обвязываем это промптом разработчика, и генерим диффы.
Работает прекрасно, а ваши тесты будут мягкими и шелковистыми.
Кстати, важно. Почему в начале промпт тестировщика? Потому что он задизайнен на стектрейсинг и поиск багов. То что нужно для анализа внутренних связей в программе и того, что там что-то работает не так, как нужно.
Но я открыл метод борьбы с этим, восхитительный в своей простоте.
Буквально: "Проверь, что тесты не говно"
Ну или чуть подробнее
Проверь, чтобы в тестах проекта не было бессмысленных, которые всегда возвращают положительный результат, либо тех которые буквально повторяют реализацию и не выполняют как таковую функцию тестов.
— вставляем это в
И вы удивитесь, но в ответ на это оно выдает вполне внятный анализ того, все ли в порядке у нас с тестами, и какие именно из них следует переписать.
А если какие-то нужно, то вторым промптом мы говорим.
Хочу добиться того, чтобы в тестах проекта не было бессмысленных, которые всегда возвращают положительный результат, либо тех которые буквально повторяют реализацию и не выполняют как таковую функцию тестов
Вот анализ тестировщика
Реализуй рекомендации
---
(сюда вставляем то, что нам нагенерил гемини в предыдущей итерации)
Ну и все. Обвязываем это промптом разработчика, и генерим диффы.
Работает прекрасно, а ваши тесты будут мягкими и шелковистыми.
Кстати, важно. Почему в начале промпт тестировщика? Потому что он задизайнен на стектрейсинг и поиск багов. То что нужно для анализа внутренних связей в программе и того, что там что-то работает не так, как нужно.
1🔥16❤7🤡2👍1
Оценка промпта: 6/10
Сильные стороны:
* Структура и детализация: Промпт великолепно структурирован. Разделение на роль, концепцию, стек, схемы данных и API — это лучший подход.
* Техническая точность: Выбор технологий (FastAPI, Pydantic v2, Vue 3, Genkit) и инструментов (Docker, Ruff, pytest) абсолютно современный и адекватный задаче.
* Проработка деталей: Учтены аутентификация, фоновые задачи, правила игнорирования, структура проекта. Это сильно повышает шансы на получение качественного кода.
* Четкие инструкции: Требование писать полный код без заглушек (`// TODO`) — это правильно.
Ключевой недостаток (почему не 10/10):
* Несоответствие основной идее: Самая главная и уникальная часть вашей задумки — это создание[...] . Промпт полностью проигнорировал это.
Да в натуре, прекрасный промпт был, как так-то? 😁
Мораль: кормите ваших агентов в процессе итерирования первоначальными набросками мыслей, а то можно получить прекрасную и замечательную задачу, из которой в процессе генерации полностью удалили саму суть
Please open Telegram to view this post
VIEW IN TELEGRAM
😁17❤3🔥1
Приятно, когда думаешь в одном направлении с дядькой Карпатым.
Кстати, делаю сейчас Шотган на стероидах — можно будет работать с кодовыми базами до 10 млн токенов, а может даже и больше. Ключ — как раз умная работа с контекстом. Покажу как будет что получаться.
https://x.com/karpathy/status/1937902205765607626
Кстати, делаю сейчас Шотган на стероидах — можно будет работать с кодовыми базами до 10 млн токенов, а может даже и больше. Ключ — как раз умная работа с контекстом. Покажу как будет что получаться.
+1 в пользу "инженерии контекста" вместо "инженерии промптов".
Люди ассоциируют промпты с короткими текстовыми заданиями, которые вы даёте ИИ в повседневной работе. Но в любом промышленном приложении на базе LLM настоящая тонкая наука и искусство — это именно инженерия контекста: умелое наполнение контекстного окна нужной информацией для следующего шага. Это наука, потому что правильная настройка включает в себя формулировку задач, объяснения, примеры (few-shot), RAG, сопутствующие данные (возможно мультимодальные), инструменты, текущее состояние и историю, а также сжатие… Если информации мало или она неподходящего вида — LLM не получает необходимого контекста и работает хуже. Если слишком много или не по делу — растут издержки и падает производительность. Делать это правильно — далеко не тривиально. И это искусство, потому что требует интуитивного понимания "психологии" LLM и "духов" людей, которые с ними взаимодействуют.
Помимо самой инженерии контекста, LLM-приложение должно:
— грамотно разбивать задачи на потоки управления,
— правильно упаковывать контекстные окна,
— вызывать подходящие LLM с нужными способностями,
— обрабатывать цепочки генерации и верификации в UI/UX,
и многое другое: контроль, безопасность, оценки, параллелизм, упреждающая подгрузка и т.д.
Таким образом, инженерия контекста — лишь один небольшой элемент всё более сложной прослойки нетривиального ПО, которая координирует отдельные вызовы LLM (и многое другое) в полноценные приложения на базе LLM. Термин “обёртка для ChatGPT” устарел и крайне некорректен.
https://x.com/karpathy/status/1937902205765607626
👍16🔥7❤3