предыдущие посты -> @ai_spaceships (утраченный к сожалению канал)
Как сэкономить 84 350 долларов в год
Столько стоит MBA (программа Master of Business Administration) в MIT, а также огромное количество времени. Я ничего не плачу и получаю персональные рекомендации по улучшению процессов в моей жизни и моих бизнесах. Ниже расскажу как, но перед этим отзывы:
CTO: "Блин это лучшее обучение которое у меня когда-либо было"
CAIO: "Я занимаюсь уже всю неделю не отрываясь"
Остальная команда: 100/10
Друг-предприниматель: "Сделал себе, то что я получаю пользу в контексте моих проектов сразу зарабатывает мне деньги"
Знакомая, окончившая MBA: "эх если бы такое было в моё время я бы уже в 16 запускала первый проект"
Мой друг 160iq+: не стал пробовать, слишком гигантское эго
TLDR РЕЦЕПТ
0. Открываем любую GPT
1. You will become what you hate about yourself — "Я хочу научиться Х, сделай мне тест моего уровня для оценки навыков, чтобы я смог Y"
2. Context is the king — В настройках персонализации chatgpt / claude / cursorrules пишем 300+ слов о себе, опыте, проблемах, ресурсах, проблеме и цели
3. Make yourself 6-monthly over-detailed, over-personalized, gpt-understandable plan — В несколько промптов создаем себе план обучения на 2000+ уроков, которые погрузят нас в каждую тему
4. Корректируем под себя промпт "плана урока"
5-2004. Follow it, make a schedule — начинаем каждый день со стандартного "план урока"+"промпт-тема"
Try now or forget forever - 100% есть фундаментальные навыки, в котором ты - лох, либо можешь перейти на следующую парадигму:
- management
- product
- sales
- networking
- processes
- your tech domain
Накидайте 10 огонечков и скину свои промпты
@aigov2
Столько стоит MBA (программа Master of Business Administration) в MIT, а также огромное количество времени. Я ничего не плачу и получаю персональные рекомендации по улучшению процессов в моей жизни и моих бизнесах. Ниже расскажу как, но перед этим отзывы:
CTO: "Блин это лучшее обучение которое у меня когда-либо было"
CAIO: "Я занимаюсь уже всю неделю не отрываясь"
Остальная команда: 100/10
Друг-предприниматель: "Сделал себе, то что я получаю пользу в контексте моих проектов сразу зарабатывает мне деньги"
Знакомая, окончившая MBA: "эх если бы такое было в моё время я бы уже в 16 запускала первый проект"
Мой друг 160iq+: не стал пробовать, слишком гигантское эго
TLDR РЕЦЕПТ
1. You will become what you hate about yourself — "Я хочу научиться Х, сделай мне тест моего уровня для оценки навыков, чтобы я смог Y"
2. Context is the king — В настройках персонализации chatgpt / claude / cursorrules пишем 300+ слов о себе, опыте, проблемах, ресурсах, проблеме и цели
3. Make yourself 6-monthly over-detailed, over-personalized, gpt-understandable plan — В несколько промптов создаем себе план обучения на 2000+ уроков, которые погрузят нас в каждую тему
4. Корректируем под себя промпт "плана урока"
5-2004. Follow it, make a schedule — начинаем каждый день со стандартного "план урока"+"промпт-тема"
Try now or forget forever - 100% есть фундаментальные навыки, в котором ты - лох, либо можешь перейти на следующую парадигму:
- management
- product
- sales
- networking
- processes
- your tech domain
Накидайте 10 огонечков и скину свои промпты
@aigov2
🔥37👏1😁1🥴1💯1🗿1
Примеры моих промптов (меняем фаундер на что угодно):
Humble yourself:
Program of blocks, pre:
Program of blocks:
Block2topics:
Topics2prompts
Для уроков - мой фаворит calude 4.1 в Explanatory стиле, пробовал огромное количество LLMок
или мой вариант:
Для людей с огромным количеством времени, можно еще в конце лакировать SQRRR, anki cards. Размышляйте над тяжелыми вопросам - именно в момент сложности формируются нейронные связи. Но самое лучше закрепление - практика.
@aigov2
Humble yourself:
Я хочу стать мощным технологическим фаундером. Я хочу составить себе программу онлайн-практикума из всего, что должен уметь фаундер. Напиши список из 30: тема+2 вопросоа, чтобы проверить мой уровень знаний во всех навыках, которые необходимы предпринимателю IT стартапов.
...
Вот ответы на первые 10 вопросов, дай подробный фидбек по каждому ответу. Далее я отвечу еще на 10. В конце выдели самые слабые мои места - которые мне нужно подтянуть, чтобы ты в меня проинвестировал)
Program of blocks, pre:
Я собрал 20 друзей технарей и мы вместе в формате venture studio тестируем продуктовые гипотезы, делаем 3 стартапа. Они находятся на стадиях scaling/scaling/empiric market valuation.
Я хочу сделать себе практикум для стартапера. Хочу быть таким же умным, как mba преподаватели. Хочу изучать чужие истории, онтологии и методы.
Мне нужна программа из подтем, которые я буду изучать следущие 6 месяцев по 20 часов в неделю.
Начни с того, что сделаешь верхнеуровневую программу.
Program of blocks:
Описание наших проектов:
1.
2.
3.
---
С учетом информации выше:
1. Подумай, стоит ли поменять порядок блоков
2. Добавь еще подтем
Block2topics:
Ты молодец! Теперь для блока 1. Customer & Market Discovery для каждой подтемы напиши список из 10-100 топиков, которые должен знать каждый профи технологический предприниматель. Я буду просить ChatGPT рассказать мне каждый топик.
Целевая аудитория: Я ...
Они должны идти в адекватном для моего студента порядке. Каждый топик должен быть лаконичен (примеры: A vs B, концепция A, и тд).
Topics2prompts
Теперь помоги мне составить готовые промпты к чатгпт:
1. половину самых важных тем выдели жирным.
2. Преобразуй топик в более детальный промпт, где нужно
3. Подумай, по каким темам не нужны глубокия знания - я думаю, тогда в конец их названий нужно добавить фразу "Кратко", "концепт и сравнение" или "Обзорно для начинающих" и др. в зависимости от ситуации
Для уроков - мой фаворит calude 4.1 в Explanatory стиле, пробовал огромное количество LLMок
Объясни [ТЕМА/ВОПРОС] как [ЭКСПЕРТ/НАЧИНАЮЩИЙ/ИНОПЛАНЕТЯНИН]. Учти:
- Мой уровень: [НОВИЧОК/СРЕДНИЙ/ПРОДВИНУТЫЙ]
- Любимый формат: [ШАГИ/МЕТАФОРЫ/ВИЗУАЛИЗАЦИИ]
- Глубина: [ПОВЕРХНОСТНО/ПОДРОБНО С ПРИМЕРАМИ]
Структура:
1. 1-2 предложения: суть концепции
2. Аналогия из [СФЕРА: КУЛИНАРИЯ/СТРОИТЕЛЬСТВО/ИГРЫ и т.д.]
3. Пошаговый разбор как инструкция IKEA
4. Визуальный образ для запоминания (описание)
5. Практический пример из [ОБЛАСТЬ ПРИМЕНЕНИЯ]
Добавь 3 контрольных вопроса для самопроверки в конце.
или мой вариант:
Я изучаю технологическое фаундерство, тему Customer & Market Discovery.
Объясни тему
"«Расскажи, что такое Firmographic segmentation в B2B и как определить ICP компании.»"
как ПРЕПОДАВАТЕЛЬ MIT MBA. Учти:
- Мой уровень: начинающий проджект менеджер
Структура:
1. 1-2 предложения: суть концепции
2. Аналогия из кулинарии или компьютерных игр
3. Пошаговый разбор как инструкция IKEA
4. Визуальный образ для запоминания (описание)
5. Практический пример
6. Проанализируй или порассуждай про мои проекты через эту призму.
7. Добавь 3 контрольных вопроса для самопроверки.
8. Напиши 3 возможных фоллу-апа к этой теме: для углубления, смежную тему, полезную историю из реального мира
Для людей с огромным количеством времени, можно еще в конце лакировать SQRRR, anki cards. Размышляйте над тяжелыми вопросам - именно в момент сложности формируются нейронные связи. Но самое лучше закрепление - практика.
@aigov2
🔥13👀1
Forwarded from Заметки LLM-энтузиаста
Курсор. Айсберг гайдов.
> В мае число платных пользователей Cursor превысило 2 миллиона человек — это только 4.4% от всех разработчиков! На московском митапе опытных платформенных разработчиков задали вопрос к аудитории: "Кто еще не пробовал курсор?" - руки подняло 80-90% зала.
> Каждый месяц все больше профессионалов приходят с вопросом - "Где найти гайд на курсор" и "С чего начать изучать вайбкодинг" - лед постепенно трогается.
> 90% вайб-инженеров быстро достигают теоретического потолка и не знают, где брать новые методологии и как использовать новые фичи.
Поэтому решили вместе с @aigov2 собрать гайды для вайб-инженеров любого уровня:
"Вершина айсберга"
1. Документация от Cursor, чтобы знать какие где настройки
2. Шаблоны хороших промптов: cursor.directory, playbooks.com
"Середина айсберга"
3. Подборка гайдов и видео для "intermediate"
4. Истории использования, хорошие атомарные советы
5. Сабреддиты: ChatGPTCoding, cursor, roocode
6. X: курсора, roocode, # vibecoding
"Низ айсберга"
7. Cursor.fan - best-practices от практиков, пример: How to Handle Big Projects With Cursor
8. Гайды по использованию курсора в профессиональной разработке - approved by Sber/Yandex senior developers
"Подвал"
9. Что делать, если агент не исправляет ошибку
10. Как подключить 1000 MCP
11. Как программировать с учетом вчерашних изменений в любом фреймворке
Что уже есть по теме на этом канале
Ищите по хэш-тегу #cursor
Хотел бы отметить следующие посты
• https://news.1rj.ru/str/llm_notes/130 - про Memory Bank, сейчас лучше использовать Cursor Memory Bank совместно с бесплатной версией supercode.sh
• https://news.1rj.ru/str/llm_notes/136 - про работу с большими кодовыми базами
• https://news.1rj.ru/str/llm_notes/162 - про решение проблем с контекстом для AI-кодеров
• https://news.1rj.ru/str/llm_notes/186 - про фоновые агенты в Cursor
• https://news.1rj.ru/str/llm_notes/188 - про дизайн ПО (кмк очень важная тема в контексте вайб-кодинга)
P.S. ⚡️ Если вы уже готовы перейти от изучения гайдов к реальной практике vibe-кодинга, то можете присоединиться к четвертому обновленному потоку курса по вайб-кодингу и AI-прототипам (https://productuniversity.ru/cursor) — вводное занятие было на этой неделе, но еще не поздно!
@llm_notes
#cursor #vibecoding #guide #course
> В мае число платных пользователей Cursor превысило 2 миллиона человек — это только 4.4% от всех разработчиков! На московском митапе опытных платформенных разработчиков задали вопрос к аудитории: "Кто еще не пробовал курсор?" - руки подняло 80-90% зала.
> Каждый месяц все больше профессионалов приходят с вопросом - "Где найти гайд на курсор" и "С чего начать изучать вайбкодинг" - лед постепенно трогается.
> 90% вайб-инженеров быстро достигают теоретического потолка и не знают, где брать новые методологии и как использовать новые фичи.
Поэтому решили вместе с @aigov2 собрать гайды для вайб-инженеров любого уровня:
"Вершина айсберга"
1. Документация от Cursor, чтобы знать какие где настройки
2. Шаблоны хороших промптов: cursor.directory, playbooks.com
"Середина айсберга"
3. Подборка гайдов и видео для "intermediate"
4. Истории использования, хорошие атомарные советы
5. Сабреддиты: ChatGPTCoding, cursor, roocode
6. X: курсора, roocode, # vibecoding
"Низ айсберга"
7. Cursor.fan - best-practices от практиков, пример: How to Handle Big Projects With Cursor
8. Гайды по использованию курсора в профессиональной разработке - approved by Sber/Yandex senior developers
"Подвал"
9. Что делать, если агент не исправляет ошибку
10. Как подключить 1000 MCP
11. Как программировать с учетом вчерашних изменений в любом фреймворке
Вайб-кодинг - это не простой навык, как о нем думает большинство. На его освоение может быть разумно выделить столько же времени, сколько на изучение нового языка программирования. Однако время, вложенное в его изучение, окупится в десятки раз.
Что уже есть по теме на этом канале
Ищите по хэш-тегу #cursor
Хотел бы отметить следующие посты
• https://news.1rj.ru/str/llm_notes/130 - про Memory Bank, сейчас лучше использовать Cursor Memory Bank совместно с бесплатной версией supercode.sh
• https://news.1rj.ru/str/llm_notes/136 - про работу с большими кодовыми базами
• https://news.1rj.ru/str/llm_notes/162 - про решение проблем с контекстом для AI-кодеров
• https://news.1rj.ru/str/llm_notes/186 - про фоновые агенты в Cursor
• https://news.1rj.ru/str/llm_notes/188 - про дизайн ПО (кмк очень важная тема в контексте вайб-кодинга)
P.S. ⚡️ Если вы уже готовы перейти от изучения гайдов к реальной практике vibe-кодинга, то можете присоединиться к четвертому обновленному потоку курса по вайб-кодингу и AI-прототипам (https://productuniversity.ru/cursor) — вводное занятие было на этой неделе, но еще не поздно!
@llm_notes
#cursor #vibecoding #guide #course
🔥14❤1⚡1🤯1
как оцените работу маркетологов по десятибальной?
подобная компания, но в Токио, стоила 15m$
подобная компания, но в Токио, стоила 15m$
Anonymous Poll
50%
провал, скоро закроются
50%
не бывает плохого пиара
🤡4
Перечитал полностью docs+api refs openai,anthropic,gemini,grok,cerebras,groq,deepseek,litellm,openrouter вместо вас
Последний раз читал год назад. Тогда рассказывали про кэширование, ризонинг - решил изучить, что сейчас есть "перспективного" в апихах
- в конце текста вам подарок
из прикольного:
- грок берет 5 центов штрафа если запрос "улетел в этику"
- openai responses api boost accuracy in 3% by mean (comparing to completions api)
- (старая фича) открыл для себя predicted outputs = можно вывести в ответ текст в 10к токенов, при этом генерироваться будет лишь малая часть (стоит чуть дороже, но работает сильно быстрее)
- prefill output позволяет начинать ответ с правильного персонажа/текста etc., сразу пропуская "преамбулу"
- грок апи самый бедный по фичам, ниче нет, даже батч апи без скидки
- у image-edit моделей есть МАСКИ на вход (нативно и параметром!)
- у опенаи есть прикольный flex tier, понижающий стоимость в 2 раза (по-другому поданный batching)
- батч+кэш = скидка до 95% = платим меньше или юзаем модели больше
- работать с видео не так уж и дорого, если использовать самые крошечные модели + батчинг + кэширование
- o3 (и выше) умеют ДУМАТЬ картинками (в процессе размышлений рассматриваются участки изображения, например модель может приблизить картинку в каком-то месте и рассмотреть подробнее (н. прочитать мелкий текст)
- у gpt-image есть параметр input_fidelity=high, который превращает ее в ультимативный фотошоп - есть ощущение, что на аренах он отключен
- у gpt-image есть параметр для прозрачности фона: auto/transparent/opaque
- анторпик дает несколько чекпоинтов для кэширования промптов
- на оперрутере есть моделька cognitivecomputations/dolphin-mistral-24b-venice-edition:free (uncensored)
- в опенаи ответ можно получать на вебхук (не батчевый!)
- VLM очень точно возвращают box_2d (границы предметов на изображении, относительными координатами) [проверил гугл, тропик, оаи]
- image-edit модели очень точно создают маску для объекта
- (на всякий случай решил напомнить) у tool_call_mode есть режим required
- у дипсика есть fill in the middle completion (блин это очень круто, представляю сколько всего надо было сделать ради этой фичи)
- антропик упоминает у себя XML промптинг среди самых мощных техник
- в api gigachat&yandexgpt всё еще нет кучи параметров начиная с банальных stop, что даже хз что говорит о продактах (или их ресурсах) - под капотом в моделях больше 100 параметров по управлению "пулом токенов для генерации" (в я. в конце 2025 года так вообще кроме температуры ничего нет)
- proprietary vlm's находятся в больгинстве на уровне понимания изображений, сопоставимом с уровнем пониманием текста gpt-3.5. Все еще хорошо работают техники с ролями "You have perfect vision and pay great attention to detail" (прочитал 20+ статей по vlm за неделю, напишите в комменты если нужен пост на эту тему)
- про текущие VLM: поворот изображения = смерть. изменение экспозиции = смерть. изменение освещения = смерть. spatial understanding & counting везде слабый. ждем обучение на videogen моделях
- фичами в апи обычно занимаются целые команды, поэтому у маленьких провайдеров типа groq/cerebras/etc нет почти никаких фич - паттерн
- гемини 2.5 поддерживает сегментацию из коробки (шок) (возвращает label + box_2d + base64 маску для каждого объекта)
- gemini несовместим с reasoning_effort в litellm и кажется не будет
- подарок: все дают 0.1-1тб бесплатного диска для files api, который можно использовать для каких угодно задач = можно на все аккаунты наспамить себе хранилищ
А еще сильно разочаровался в litellm. Про это будет следующий пост
Последний раз читал год назад. Тогда рассказывали про кэширование, ризонинг - решил изучить, что сейчас есть "перспективного" в апихах
- в конце текста вам подарок
из прикольного:
- грок берет 5 центов штрафа если запрос "улетел в этику"
- openai responses api boost accuracy in 3% by mean (comparing to completions api)
- (старая фича) открыл для себя predicted outputs = можно вывести в ответ текст в 10к токенов, при этом генерироваться будет лишь малая часть (стоит чуть дороже, но работает сильно быстрее)
- prefill output позволяет начинать ответ с правильного персонажа/текста etc., сразу пропуская "преамбулу"
- грок апи самый бедный по фичам, ниче нет, даже батч апи без скидки
- у image-edit моделей есть МАСКИ на вход (нативно и параметром!)
- у опенаи есть прикольный flex tier, понижающий стоимость в 2 раза (по-другому поданный batching)
- батч+кэш = скидка до 95% = платим меньше или юзаем модели больше
- работать с видео не так уж и дорого, если использовать самые крошечные модели + батчинг + кэширование
- o3 (и выше) умеют ДУМАТЬ картинками (в процессе размышлений рассматриваются участки изображения, например модель может приблизить картинку в каком-то месте и рассмотреть подробнее (н. прочитать мелкий текст)
- у gpt-image есть параметр input_fidelity=high, который превращает ее в ультимативный фотошоп - есть ощущение, что на аренах он отключен
- у gpt-image есть параметр для прозрачности фона: auto/transparent/opaque
- анторпик дает несколько чекпоинтов для кэширования промптов
- на оперрутере есть моделька cognitivecomputations/dolphin-mistral-24b-venice-edition:free (uncensored)
- в опенаи ответ можно получать на вебхук (не батчевый!)
- VLM очень точно возвращают box_2d (границы предметов на изображении, относительными координатами) [проверил гугл, тропик, оаи]
- image-edit модели очень точно создают маску для объекта
- (на всякий случай решил напомнить) у tool_call_mode есть режим required
- у дипсика есть fill in the middle completion (блин это очень круто, представляю сколько всего надо было сделать ради этой фичи)
- антропик упоминает у себя XML промптинг среди самых мощных техник
- в api gigachat&yandexgpt всё еще нет кучи параметров начиная с банальных stop, что даже хз что говорит о продактах (или их ресурсах) - под капотом в моделях больше 100 параметров по управлению "пулом токенов для генерации" (в я. в конце 2025 года так вообще кроме температуры ничего нет)
- proprietary vlm's находятся в больгинстве на уровне понимания изображений, сопоставимом с уровнем пониманием текста gpt-3.5. Все еще хорошо работают техники с ролями "You have perfect vision and pay great attention to detail" (прочитал 20+ статей по vlm за неделю, напишите в комменты если нужен пост на эту тему)
- про текущие VLM: поворот изображения = смерть. изменение экспозиции = смерть. изменение освещения = смерть. spatial understanding & counting везде слабый. ждем обучение на videogen моделях
- фичами в апи обычно занимаются целые команды, поэтому у маленьких провайдеров типа groq/cerebras/etc нет почти никаких фич - паттерн
- гемини 2.5 поддерживает сегментацию из коробки (шок) (возвращает label + box_2d + base64 маску для каждого объекта)
- gemini несовместим с reasoning_effort в litellm и кажется не будет
- подарок: все дают 0.1-1тб бесплатного диска для files api, который можно использовать для каких угодно задач = можно на все аккаунты наспамить себе хранилищ
А еще сильно разочаровался в litellm. Про это будет следующий пост
🔥15❤5
Наделал агентов для генерации сюжетных видео
Можете в комменты накидать любых тем, нагенерю вам видосов
Щас делаю более мощную версию, постараюсь держать в курсе
Кстати работает все на 8b модельках
Соавтор @Kamilfo_D
Можете в комменты накидать любых тем, нагенерю вам видосов
Щас делаю более мощную версию, постараюсь держать в курсе
Кстати работает все на 8b модельках
Соавтор @Kamilfo_D
🔥7
Media is too big
VIEW IN TELEGRAM
Планирую через месяц+- дойти до такого уровня
(черрипик конкурентов с kling)
(черрипик конкурентов с kling)
👀4🙏1