Разбогатей или IT | Street MBA – Telegram
Разбогатей или IT | Street MBA
12.2K subscribers
127 photos
18 videos
119 links
Объясняю сложные вещи простыми словами.
Развожу панику и вселяю надежду.

AI - задрот.
Senior Ruby Developer - StreetMBA LMS

Интро - https://news.1rj.ru/str/getrichortech/96
По рекламе и консультациям - @dldlldldlldldldldl
Download Telegram
Claude Code убийца скуфов?

Сегодня замучу годный сравнительный анализ — Claude Code против CursorAI. C Claude у нас уже почти семейные отношения, и Claude Code тут не стал исключением, тем более он безлимитный в подписке)

После месяца активных тестов могу сказать — эти инструменты как BMW и Mercedes, оба топовые, но для разных водителей. Погнали по фактам.

Claude Code vs CursorAI:
кто же?

1. Философия и подход

Claude Code: Никаких лишних кнопочек, только терминал и мощный движок Claude 3.7 Sonnet под капотом.

Заходишь в проект, claude init — и машина сама сканирует всю кодовую базу. Идеально для тех, кому надоело клацать мышкой по красивым UI.

CursorAI: Заточенная под AI версия VS Code. Много блестящих кнопок, интерактивные окошки и прочие радости для любителей слабосолёного лосося на завтрак. Может работать с разными моделями — Claude, ChatGPT, Gemini, что удобно, если ты любишь переключаться между ними.

2. Управление контекстом

Claude Code: Использует систему claude.md файлов, которые можно разместить в любой директории проекта. Это как хорошая документация, только на стероидах — модель реально понимает, что происходит в разных частях проекта. И что самое крутое — эти файлы можно хранить в репе и шарить с командой.

CursorAI: Тоже умеет в контекст, но меньше прозрачности. Индексирует всё автоматом, но нет такого четкого понимания, что и где хранится. Зато можно быстро наклацать запросы прямо в редакторе.

4. Планирование и выполнение задач


Claude Code: Если нужно разработать сложную фичу, Claude Code сначала создаёт план, разбивает на шаги и отслеживает их выполнение. Это как иметь миддла с 5-летним опытом, который последовательно двигается к цели, а не скачет как сеньор-пхпшник с СДВГ.

CursorAI: Больше похож на джуна на кофеине — быстро генерирует код, но без чёткой структуры и плана. Идеально для небольших тасок и быстрых фиксов, но на больших дистанциях начинает терять фокус.

4. Обращение с памятью


Claude Code: Позволяет контролировать контекст с помощью команды compact. Показывает, сколько процентов памяти осталось, и вовремя сообщает, когда пора сжать диалог. Это как если бы ваш девопс мониторил использование RAM в реальном времени.

CursorAI: Управление памятью больше похоже на Windows — работает где-то под капотом, но ты не особо понимаешь, когда модель начинает забывать контекст. В долгих сессиях это может привести к цикличности и повторам.

5. Интеграция в CI/CD


Claude Code: Режим headless с параметром -p позволяет запускать его прямо из скриптов CI/CD. Добавьте это в свои GitHub Actions — и Claude Code будет автоматически проверять PR или генерировать документацию.

CursorAI: Тут всё печально — заточен в основном под интерактивную работу. Если ты мечтаешь о глубокой интеграции в пайплайны, CursorAI вряд ли будет твоим выбором.

Для меня Claude Code — это как эволюция классических Unix-инструментов, заточенная под AI. Чистая мощь без косметики. CursorAI больше похож на Apple — красивый, удобный, но не такой гибкий, как хотелось бы.

Учитывая, что Claude Code сейчас в активной разработке, я бы поставил на него как на долгосрочную лошадку. Но для задач "запилить быстро и красиво" CursorAI пока что вне конкуренции.
25👍2712😱2🤡2👀2🤔1
Media is too big
VIEW IN TELEGRAM
Коллектив - это слово не для альфапренеров.

Пришло время обсудить философию формирования компаний-сквадов и компаний-коллективов.

Мы часто слышим эти термины - сквад и коллектив - почему-то их используют как синонимы. Но это две абсолютно разные организационные структуры с диаметрально противоположными ДНК, и одна из них рожает 30+ летних пхпшников, а другая захватывает рынки.

Историческая разница

Если копнуть глубже, термин "коллектив" происходит от латинского "collectivus" - собранный вместе. Это сборище людей под одной крышей, без общей ясной цели, кроме личного выживания. Это очень важно: если вы слышите у нас “семейная” атмосфера и прочий бред, то вы попали в коллектив :)

А "сквад" ближе к "contubernium" в Римской армии - самой малой боевой единице из 8–10 бойцов, живущих в одной палатке. Это не просто группа - это братство с железной дисциплиной и чёткой целью. Они вместе спали, ели и дрались насмерть за общее дело. Если кто-то лажал - страдали все. Успех одного был успехом каждого. И так сейчас должны работать компании в условиях всё более глубокого проникновения AI.

В чём фундаментальная разница?

Коллектив:

• Строится вокруг комфорта и внутренних ценностей
• Общая цель размыта, и всем по сути пофиг
• Много менеджеров, чтобы создавать иллюзию работы
• Главная мотивация - не потерять то, что уже есть, и чтобы в опенспейсе было пиво в пятницу

Сквад:

• Строится вокруг миссии и результата
• Чёткая цель, за которую каждый готов убиться
• Минимум менеджеров, максимум исполнителей
• Движение вперёд любой ценой
• Справедливое распределение наград

И казалось бы, вроде очевидно, что хорошо, а что плохо, но всё равно компаний-коллективов и девопсов становится всё больше. И надо что-то с этим делать. Я рад, что в моём окружении все работают малыми командами, эффективно и с фокусом на сверхприбыль. Но прям после каждого видоса, который мы с Алмасом кидаем в паблик, люди много пишут благодарностей за то, что раскрыли такой подход и взяли его на вооружение.

Потом мы решили тестово запустить практикум на 30 человек и поняли, что через это можем приносить пользу людям, поэтому решили, что продолжим эту историю и начинаем потихоньку собирать людей на второй поток практикума StreetMBA, где прям вот детально раскрываем наш альфапренерский сквад-подход, который мы кратко характеризуем: “От проблемы к продукту, а не от идеи к провалу!”.

Посмотрите наш тайлапс-видосик и залетайте на сайт go.streetmba.pro за большей инфой.
117🔥9🤡3👍2
Выбор модели в Cursor под разные задачи.

На выхах наткнулся на интересную схему выбора нейронок для Cursor AI непосредственно от разработчика Cursor, и хочу поделиться инсайтами. Если вы еще не в теме, в Cursor можно выбирать LLM которая с вами будет работать, и я всегда думал что берём по дефолту топовую типа claude 3.7 и все, но оказалось не все так просто.

Суть такая:


1. Сначала решаете, что вам важнее:
   - Держать контроль в своих руках
   - Или чтобы AI сам догадался, что вам нужно, или думал за вас))

2. Если контроль важнее:
   - Для мелких изменений хватит Claude-3.5-Sonnet
   - Для крупных фич с четкими требованиями - Claude-3.5-Sonnet или GPT-4.1

Мы не даём ему много думать, и сидим на более "простой" модели.

3. Если хотите, чтобы AI всё сам:
   - Для обычных задач - Claude-3.7-Sonnet, Gemini-2.5-Pro или GPT-4.1
   - Для по-настоящему сложных или запутанных штук - о3. И такая рекомендация меня удивила.

Из личного опыта - я замечаю, что модели разного класса реально решают разные задачи. Например, когда делаешь что-то конкретное типа "напиши мне функцию для парсинга CSV с такими-то правилами", Claude-3.5-Sonnet выдает более предсказуемый и чистый код.

А вот когда задача звучит как "сделай мне бэкенд для аутентификации с OAuth и кэшированием токенов" - тут уже нужны более мощные модели типа Claude 3,7, который кстати я юзаю через Claude Code по больше части, а не через Cursor.

Отдельно кстати ожидается интеграция ERD в Cursor, которая будет на схеме отражать архитектуру, с возможностью редактировать ее, с дальнейшими фиксами от Cursor без промптов.

PS. Теперь надо в деталях прогнать эту рекомендацию по тестам и сделать уже заключение на нашем языке)

Каждый ваш лайкос заставляет меня сделать этот гайд быстрее)
652👍153❤‍🔥3🔥3
AI пишет код, AI его ревьюит — зачем мы до сих пор платим скуфам?

Появилась интеграция CodeRabbit для Cursor и других IDE, и она меняет классический процесс ручного ревью, даже если код был написан нейронкой.

Суть в том, что это не просто очередной линтер, который проверяет синтаксис, — это полноценное AI-ревью, которое в реальном времени определяет реальные проблемы до того, как ты закоммитил свой (ну, в смысле курсоровский) очередной высер в репу.

Но почему это так важно?

1. Ты пишешь промпт в Cursor.
2. AI генерирует код.
3. CodeRabbit автоматически ревьюит этот код.

Вроде ничего нового, но по сути своей это два разных сотрудника, где второй заточен строго под CR и выявление проблем до их наступления, тем самым делая невозможным Cursor loop, когда круговорот багов замкнулся, и он из него не выходит уже.

Почему это только начало?


Потому что это одна из первых интеграций подобного рода сервисов.
Ведь мемы насчёт Vibe-кодинга ходят как раз в вопросах невозможности создания продовых версий, а всё работает только на локалхостах.

И это не MCP, цель которых — дать больше контекста, а именно выполнение функций второго сотрудника.

Поэтому за внедрением код-ревью потянутся нормального качества автотесты, деплой и безопасность, таким образом замкнув цикл вайб-кодинга, ну и параллельно сделав благое дело в виде отправки пхпшников на завод))
👍28🔥13😁63🤔2🫡2🤝1
Скуфам-пхпшникам срочно надо релоцироваться в ЕС, тогда для них ничего не изменится. Будут как и прежде получать зпшки за имитацию деятельности))

Шах и мат, AI-дрочеры.

PS. Ещё наверное нужно будет сдать utility bill чтобы увеличить количество токенов))
😁22🤯4🤡2🤣2
Очень давно я пытаюсь автоматизировать производство контента, в первую очередь рекламных видео-креативов, но главный тут вопрос даже не как произвести, а что именно произвести.

И вот серьёзной автоматизации долгое время не было. Да, есть какие-то сервисы и библиотеки креосов, есть собственные наблюдения и насмотренность, есть постоянная работа по поиску трендов и прочему, и даже можно посадить человека на эту работу, но это всё будет не тем.

Это всё не биг дата, это какой-то детский сад.

Но теперь этот цикл, можно сказать, замкнулся - не идеально, да, но тем не менее работает.

Я думаю, все понимают, что траф - это 80–90% любого бизнеса. Это аксиома, и обсуждать тут нечего.

И вот в моей картине мира разработка стратегии выглядит следующим образом:

1. Этап сбора огромного количества информации о болях клиентов, что там делают и как устроены конкуренты, и многое другое.
2. Использование данной инфы для создания продукта и его позиционирования.
3. Создание правильной связки креатив + точка заземления.

И большая часть работы - это сбор и анализ информации. Чтобы сделать это нормально — нужны сотни и тысячи человеко-часов.

А теперь — внимание — итоговая связка, как это всё сделать за пару дней, сидя дома в кресле.

Нам понадобится мой любимый Claude и Cursor. Cursor тут выполняет вспомогательную роль для удешевления процесса.

В Claude, как вы знаете из моих постов, есть MCP (Model Context Protocol) - это такая штука, которая позволяет загружать в него необходимый вам контекст и работать с ним, а не на обычных датасетах LLM месячной давности.

И вот тут нам понадобится:

1. [Tavily MCP]. Или любая другая поисковая MCP - она нам нужна для более общего поиска, но контекст из неё не является высшим приоритетом.
2. [Sequential thinking MCP]. Нужна нам для последовательного мышления в обработке загруженного контекста.
3. [Firecrawl MCP]. Бесплатный скреппер веба для извлечения инфы уже с конкретных целевых страниц или доменов полностью. Он хорош, но упирается в антибот-ограничения или капчи.
4. [BrightData MCP]. Платный скреппер с двумя главными фичами относительно Firecrawl - это Web Unlocker (правильные прокси и обход капчи) и Browser Auth (возможность брать браузер под контроль, например, чтобы залогиниться).
5. [Ffmpeg MCP]. Это MCP достаточно известного экстрактора audio-to-text. Но главная тут фича, что она может смотреть видео (посекундно делать скрины), в отличие от любых доступных сегодня скрепперов.

Теперь пример с диетами в лоб:

1. С помощью Tavily мы ищем всех конкурентов в нашей нише. У всех с нормальной выручкой есть след в вебе. Делаем, допустим, список из 50.
2. С помощью Firecrawl мы дёргаем их базовые лендосы или страницы в сторе - что они там говорят, какой визуал используют и прочее.
3. Дальше мы идём в любую библиотеку креативов (Facebook Ads Library или аналоги) и качаем все доступные объявы, дёргаем статику, текст и ссылки на лендосы (они под каждый креос разные).
4. В Cursor из говна и палок пишем скрипт, который скачает все видосы в объявах, и кладём их в папочку.
5. Дальше, юзая BrightData, залетаем уже внутрь всех конкурентов и просто парсим продукты полностью, прям вот полностью :)
6. Юзаем Ffmpeg, чтобы дёрнуть все данные, которые есть в видосах.

Тем самым мы буквально за полдня получаем полный датасет всего, что только можно по рынку, конкурентам и их маркетингу.

Но надо помнить, что вам будут написаны сотни промптов в этом процессе, но у тех, кто набил руку, это будет занимать полдня под чаёк :)

Далее мы дробим наш стартап на блоки и начинаем анализировать всё, что мы взяли: ищем общие паттерны, сильные и слабые стороны, что можно улучшить и т.д.

И по итогу мы получаем полноценную go-to-market продуктовую и маркетинговую стратегию - и можем переходить к её реализации.

Но экзекьюшн - это тема уже другого поста :)

Постарался написать по красоте и буду рад вашим лайкам и репостам.

Ну и если хотите лучше въехать в эти наши с Алмасом подходы - велкам: https://go.streetmba.pro/
❤‍🔥47👍2513🔥111👎1👌1
,
👍37🗿33💯18🤷7🔥4🆒3🦄3🙊3🌚21😈1
Как провести масштабные социальные исследования и эксперименты с помощью ИИ-агентов - гайд по мощному фреймворку EDSL на Python!

EDSL использует модели GPT-4 и Llama2 для создания чат-ботов, опросов, A/B-тестов и симуляций с большим количеством ИИ-агентов.

Представьте, что вам нужно протестировать, как люди отреагируют на новый продукт.

Раньше пришлось бы долго искать респондентов, платить им, составлять анкеты.

С EDSL:

1. Просто описываю сценарии на удобном предметно-ориентированном языке прямо в коде на Python - какие вопросы задавать, какие варианты ответов давать.

2. Фреймворк сам генерирует реалистичных ИИ-агентов на базе мощных языковых моделей и прогоняет их через мой сценарий опроса или эксперимента.

В итоге за минуты я получаю результаты, как будто опросил тысячи людей.

Можно быстро протестировать гипотезы, сравнить разные подходы, найти инсайты. При этом агенты ведут себя естественно, как настоящие люди с разными знаниями и мнениями.

EDSL также поддерживает чат-ботов, которые обучаются в процессе общения. Описываю на DSL базовую логику диалога и запускаю - дальше бот сам развивается, отвечая на реплики пользователя.

Фреймворк модульный, расширяемый, работает с разными LLM из коробки.
Есть гибкие инструменты для загрузки своих файлов, датасетов, промптов.

В общем, если вам нужно быстро и эффективно протестировать идеи и гипотезы с помощью ИИ - то EDSL просто незаменим.

Да не идеально, да это не живые люди. Но всё-таки это возможность получить данные для старта, и с учётом последних новостей от Google и Microsoft есть смысл предполагать, что это направление будет развиваться.
25❤‍🔥3👍2
Сегодня хочу поделиться личным опытом поиска нормальной одежды, которая работает и для тренировок, и для повседневности.

Как я писал ранее, последние годы я серьезно занялся физухой – разные адреналиновые виды спорта, регулярные тренировки. И столкнулся с проблемой: найти одежду, которая функционирует как спортивная, но в то же время круто выглядит..

Тут реально крутая новость для тех, кто следит за собой – Alo Yoga официально зашли в Россию через Lamoda. Это калифорнийский бренд, который сейчас в топе популярности в США среди предпринимателей и людей с активным образом жизни.

Раньше приходилось заказывать через знакомых с дикой наценкой, теперь можно напрямую с примеркой и возвратом. Моя жена и мой кошелек теперь очень рады)

Взял на тест несколько вещей из мужской линейки. Особенно зашли их джоггеры с карганами – отлично сидят, материал держит форму и отводит влагу. Реально можно пойти в них на тренировку, а потом сразу на встречу, и никто не поймет, что ты в спортивках. Ты не будешь выглядеть как типичный айтишник в мятых штанах, поверьте.

На женскую коллекцию тоже стоит обратить внимание – у них в леггинсах какая-то особая система поддержки и компрессии, плюс не просвечивают (информация проверена на практике). Из всех брендов, доступных сейчас в России, это реально топ по соотношению цена-качество.

Заказывайте по ссылке)

#дружескоепромо
😁185👍5💅2🔥1🆒1🦄1
Claude 4 Opus и Sonnet были релизнуты.

Должна быть имба.

Все что релизит Anthropic это буквально золото, и делает нас все ближе к айти без айтишников))

Погнали тестить!
👍253🌚1
Феноменальный апгрейд по agentic coding))

Чувствую как будто ДР у меня сегодня!
👀13🤩5🤡21
Продакты не нужны!

Слишком много я накидываю на разработку, пришло время поговорить про продактов)

И тут, и на Практикуме мы говорим, что продуктовый менеджмент - это задача фаундера, и не может быть делегирована, если только вас не устраивает медленная стагнация бизнеса.

Но в то же время, это какой-никакой объём работы, и что-то там знать всё-таки нужно.

Но Vibe PM - это на самом деле куда проще, чем вайб-разработка, но, как я понял среди моих знакомых, ожидание следующее:

Зашёл в ChatGPT - написал «создай мне спеку» - получил хуйню,

и далее такой: ну вот, ваш AI говно, нет ничего лучше аналогово скуфа-продакта)

Короче, на такие комплексные задачи нужен мастер-промпт, при этом мы его прогоняем через создание Claude Project, в котором нейронка будет задавать вопросы умнее любого продакта, тем самым создавая царский мастер-промпт.

Для того чтобы проще было начать, я к посту прикладываю 5 прикольных продуктовых мастер-промптов для проекта в Claude - пробуйте и удивитесь качеству полученного результата)

1. Промпт «Создание Landing Page»
2. Промпт «Сценарии Reels/TikTok/Shorts»
3. Промпт «Cold Outreach»
4. Промпт «Генератор LinkedIn-постов»
5. Промпт «Создание идеального онбординга»

https://orbitonx.notion.site/Claude-4-2007ae65a5e080598bdddd88d5942693

Автоматизируйте свой труд и экономьте бабки)
436👍11🔥2💩2🤡1
Ребят, вижу хорошо зашел мой пост про то, как с помощью MCP за полдня собрать полный датасет по любому рынку - от конкурентов до их креативов.

В целом из общения с подписчиками понял, что написанное не до конца понятно если этим не заниматься каждый день. Фидбек был такой: "Вроде интересно, но половину ваще не понял".

И мы решили с Алмасом эту тему раскрыть нормально, сделав стрим-воркшоп "Vibe Go-To-Market".

Я показывал как с помощью Tavily, Firecrawl, BrightData и других MCP можно автоматически спарсить всех конкурентов, их лендосы, креативы из Facebook Ads Library, залезть внутрь продуктов и проанализировать всё через Ffmpeg. Но это была только техническая часть.

А на воркшопе покажем полный цикл: как из этого огромного датасета выжать go-to-market стратегию, найти слабые места конкурентов, определить правильное позиционирование и получить готовые креативы.

То есть весь путь от "вот у меня есть идея" до "вот конкретный план как её продавать" - за пару дней вместо месяцев исследований.

Разберем на живом примере: возьмем какую-нибудь нишу и прямо на стриме пройдем весь процесс - от сбора данных до готовой стратегии.

Формат живой - стрим в Riverside с возможностью задавать вопросы. Запись пришлем всем участникам.

Тут надо помнить, что вам будут написаны сотни промптов в этом процессе, но у тех, кто набил руку, это занимает полдня под чаёк :)

Оставляй контакт в форме - пришлем ссылку 👇

Ссылка на форму

Стартуем 29.05 в 19:00! timezone Москва/Кипр

P.S. Это новый формат для нас, поэтому делаем камерно и только для своих. Места ограничены. Поэтому будем стримить только в Riverside. Запись также пришлем по контактам из формы, в паблик класть не будем.
2🔥205
Как не остаться джуном без плана

Хорошая новость: рынок джунов в IT пока не перегрелся (таковы результаты исследования от Яндекс Практикума и hh.ru). Шансы пробиться все еще неплохие, даже если ты не закончил топовый вуз и не контрибьютил в Linux.

Исследование охватило 29k+ резюме и 30k+ вакансий по базовому стеку IT-направлений: от аналитики и data science до ПМов.

Теперь к главному — что реально работает на отклики?

Обучение. Но не видео с ютуба на 1.5x, а плотные практико-ориентированные программы. Это выяснили, когда сравнивали тех, кто учился, и тех, кто не делал этого. За основу взяли прошедших курсы от Яндекс Практикума: они получали на 38% больше приглашений на собесы. Тут все просто, ведь в резюме навыки, проекты и реальный стек.

Особенно это решает в горячих нишах:

• Data Science — +23.8% к приглашениям;
• Дизайн — +40.6%;
• Тестирование — +25.7%.

Инсайд для тех, кто хочет зайти в IT с бэкдора: самая низкая конкуренция среди джунов — у маркетологов, продактов и проект-менеджеров. Если страшно соревноваться с 100500 Python-разработчиков, лучше идти в сторону стратегии, роста и GTM.

Вывод простой: нужно учиться, собирать опыт, строить резюме как проект.
127🤣22🔥10👌9🤡6👍3🤔1
Почему текущий AI-хайп вовсе не хайп?

Кто глубоко не следит за индустрией, думают, очередной апдейт чатгпт — это типа что-то важное и всё меняет? Все эти о1, о3, 4, 5 и вроде как отложенный релиз 5 GPT не имеет никакого значения с практической точки зрения, хотя сегодня это самая популярная в мире LLM-ка, превышающая тот же Anthropic в десятки раз по аудитории.

Важно главное: что выдача любой LLM по запросу из коробки будет всегда среднего качества, а среднее — значит говно.

Но запуск двух протоколов навсегда изменил нашу жизнь, потому что теперь LLM использует свой “мозг”, так скажем, для “мышления”, а контекст, с которым надо работать, она берёт уже оттуда, откуда вам надо — и это и есть революция: что достаточно умная штука, которую не надо кормить, поить, давать зарплату, закупать лосось и пиво на пятницу, теперь чётко понимает, что у вас лично происходит, и может выполнять большой спектр правильно поставленных задач.

Кароч, это:

1. Model Context Protocol (MCP) от Anthropic
2. Agent2Agent Protocol от Google
3. Мосты между ними

Что такое MCP

MCP — это как USB-C для AI-приложений. Раньше каждый разработчик изобретал велосипед, пытаясь подключить свою нейронку к файлам, базам данных, API и прочим источникам данных. Получалось криво, медленно и с кучей костылей.

Теперь есть стандартный протокол клиент-сервер, где:

- MCP-сервер предоставляет доступ к данным (файлы, базы, API)
- MCP-клиент (твоя AI-тулза) подключается к серверу
- AI получает нормальный контекст для работы

Что такое A2A

А вот Google пошли дальше и создали протокол для взаимодействия агентов между собой.

В A2A есть клиент-агент (формулирует задачи) и удалённый агент (выполняет их). При этом агенты могут быть от разных вендоров, работать на разных платформах, но общаться по единому стандарту.

И существуют теперь мосты между ними — например, в виде того же A2A MCP, ну или, например, нативно в Windows.

Это самое главное, что вам нужно знать. Забудьте про чатгпт, эппл и другие лососевые конторы — сегодня будущее творят 3 компании, ну и китайцы (правда, они не юзер-френдли для людей вне Китая):

1. Anthropic
2. Google
3. Microsoft (не думал, что когда-то этот день настанет)

Ну а как начать этим нормально пользоваться — мы с Алмасом расскажем на закрытом стриме сегодня в 19:00 по МСК.

Записывайся через форму!
25👍6🤔5
Пока все носятся с Veo3 от Google, потому что она имеет хорошее качество и юзер френдли интерфейс, китайцы из Tencent еще в марте релизнули вторую версию Хуньюань, которую ставим у себя локально или в облаке, и делаем видосы вплоть до FullHD.

Мой хороший товарищ Саша, написал гайд как собственно это китайское творение развернуть, особенно если нужно генерить видосы промышленно и/или без модерации)) Ну и платить только за железо без токенов.

Кто там хотел генерить видосы с моделями в инсту и на онлик, то вот оно)

PS Это не реклама)
9👍3👏2
Forwarded from ИИзи Бизнес
Пошаговый гайд, как развернуть Hunyuan на своем сервере

Что такое Hunyuan, можно почитать ТУТ
Если вкратце — это text2video или image2video) модель от китайских разработчиков без NSFW (без цензуры), где вы, платя только за серверы, можете генерировать видео из текста или картинки.
Но, если вы нашли этот пост, то и так знаете, что это и зачем оно вам нужно)

Чтобы развернуть ML-модель на арендованном сервере, нужно:

1. Арендовать сам сервер
2. Установить все рекомендуемые зависимости (библиотеки, драйверы для карты и CUDA)
3. Запустить сам Hunyuan в режиме, который вам нужен

Теперь по пунктам:

1. Арендуем сервер, нужен сервер с GPU A100 (80 Гб памяти)
Тут сразу несколько вариантов. Я рекомендую выбирать тот, который удобнее именно вам, в зависимости от ваших потребностей и кошелька. Какие сейчас есть варианты:
- Selectel/Яндекс (если нужно платить российской картой и нет иностранной) — это примерно 400-500 руб. в час (видеокарты дорогие). Я тестировал только Selectel, для быстрых тестов нормально.
- AWS/GCP/DigitalOcean — примерно 5 долларов, так что по сути те же деньги. Этот вариант я не рекомендую совсем.
- vast.ai — 1,3 доллара в час. По нашинским это примерно 100 руб. Это мой вариант, его и вам рекомендую.

Остальные параметры не особо важны, я рекомендую выбирать сервер с быстрым интернетом и диском не меньше 250гб, чтобы все быстро скачалось и без проблем уместилось на диск

Все ВМ можно остановить после того, как с ними поработали, тогда вы платите только за диск (в среднем около 100 руб. в сутки). При этом ВМ не уничтожается — вы сможете ее включить, когда вам будет нужно, и продолжить работу.

2. Установить все зависимости
Одна ошибка — и ты ошибся. Тут может начаться веселье, поэтому я рекомендую всегда внимательно изучать, какие конкретно версии использовались в проектах (особенно китайских — они не умеют делать оптимизацию под людей, только под GPU).
Для примера возьмем Hunyuan-I2V:

2.1 CUDA
CUDA — необходимая штука для работы с видеокартами.
Что это такое? Совсем грубо — набор инструментов и библиотек для работы с GPU. Лучше почитать в интернете, если вам интересно.
Идеальный вариант — выбрать сервер с установленной CUDA нужной версии. Почти на всех хостингах есть выпадающий список шаблонов (Templates), иначе придется качать самостоятельно (не наш вариант).

В описании мы видим вот такую фразу:

We recommend CUDA versions 12.4 or 11.8 for the manual installation.


Это враньё — с CUDA 11.8 вы будете плясать с бубном очень долго, поэтому выбирайте сервер с CUDA 12.4 (или выше, но не сильно).

2.2 Python
Также надо выбрать образ с нужной нам версией Python(3.11). Я отметил его на скрине — там и Python, и CUDA нужной версии.

2.3 Conda
Найти инструкцию можно тут. Главное в конце (пункт 7) выбрать yes. В остальном инструкция написана хорошо, так что этот пункт я пропущу.

2.4 Библиотеки
У Hunyuan есть инструкция, как установить все зависимости. Тут есть несколько нюансов. Делайте строго по порядку, но не выключайте голову — если видите ошибки, значит, вы что-то сделали неправильно из шагов выше.

- flash-attention может устанавливаться долго, но если этого не произошло за 10-15 минут, значит, лучше не ждать — где-то ошибка (у меня обычно он устанавливается за 2-3 секунды).

- xfuser — в инструкции есть строчка:

python -m pip install xfuser==0.4.0

Если вы так сделаете, у вас ничего не заработает (лол). Просто не скачивайте его — он и так идет в зависимостях к PyTorch. Он в любом случае нужен, если вы арендуете сервер с несколькими GPU (я пробовал взять 4×A100). В остальных случаях он не нужен.

- Вот это вообще можете не делать — у вас уже все должно быть


pip install nvidia-cublas-cu12==12.4.5.8

export LD_LIBRARY_PATH=/opt/conda/lib/python3.8/site-packages/nvidia/cublas/lib/


3. Осталось самое простое! Скачать нужные модельки и запустить. Инструкция по установке моделей тут (будьте осторожны — они немного ошиблись с командами, добавили cd туда, где он не нужен).
1🔥2011👍3
Ну что, как вам там новый дизайн Apple? Действительно важное обновление, которого так всем не хватало - ведь прозрачная шторка это то, что не хватает всем в 2025 году) Видимо, в Купертино считают, что все мы тут сидим и думаем: "Блин, когда же наконец-то у меня будет прозрачная шторка в интерфейсе?"

Тем временем мы с Алмасом готовим релиз B2B SaaS-ки, которую концептуально продумывали долго, но вот пилили очень быстро.

Главная наша позиция была сделать её по-альфапренерски - без расходов на армию девопсов с кубернетисом и без команды скуфов-пхпшников с лососем на завтрак.

Делали её вместе с ребятами из первого потока Практикума StreetMBA, кстати второй поток стартует через неделю, кто хочет записаться - велкам по ссылке.

Шли чётко от проблемы и болей клиентов, весь процесс создания записали на видео, как мы в дискорде это всё делали, чтобы получился крутой контент.

Но главное тут - к какой vibe-кодинг связке мы пришли, чтобы это, во-первых, дошло до прода, а во-вторых, чтобы в дальнейшем можно было проект поддерживать без особых сложностей.

В итоге у нас получилось Cursor (Claude 4 Sonnet) + Claude Code + n8n + Claude API.

Чтобы снизить уровень неопределённости, выбрали стек, в котором разбираемся. Кор-функционал сделали через n8n, который по большей части тоже был написан Claude Code, но в то же время n8n выступает своего рода админкой, чтобы мы могли легко понять, где чё нужно дебажить и где чё мы хотим изменить.

А вот фронт, логин/регистрация, БД и платёжка была как раз за vibe-кодена почти полностью, т.к. это достаточно базовый простой функционал любого проекта, и с ним всё плюс-минус ок - как с точки зрения качества, так и с точки зрения безопасности.

Так как мы топим сами за такую тему, уже на реальном бизнесе показывать, как это всё работает, считаю нашей обязанностью.

Ну и явно видно, что мир пытается решить главную проблему индустрии - уволить как можно больше "разработчиков". Но в то же время для трушных инженеров это всё возможность, которой наверное не было никогда. С учётом скорости выпуска в прод и расходов на это, им больше не придётся работать в куколдо-компаниях с их непонятной бюрократией, разными мудаками и личной стагнацией. Достаточно просто понять, что нужно делать, и как на это залить траф.

А для этого как раз надо залетать к нам на практикум.
👍21🤡96💩4😁3🤮1🏆1
А че как там с SEO? и там AI?

Знакомый торгует алюминием (да-да, самые что ни на есть металлические листы и профили). Там очень сложный продажный цикл, поэтому и траф сложен, а вот SEO в таких нишах весьма популярно. А я про него совсем как-то и забыл, а оказывается оно там живо и внедряет AI.

Как работает УмныйСервис? Боты имитируют поведение реальных пользователей настолько естественно, что поисковики не видят подвоха. Заходят через органику, кликают, скроллят , проводят время на сайте. Алгоритмы видят активность и думают: "О, людям нравится этот сайт" - и поднимают позиции.

Чем это лучше классического SEO?

- Нет расходов на клики - только органический трафик
- Не накрутка, а умная имитация поведения
- Работает точечно по твоим ключам
- Первые результаты через пару дней, а не месяцев

Главное - у них есть бесплатный тест на 5 дней. Можно потрогать без рисков, посмотреть на первые результаты и только потом решать:

👉 https://news.1rj.ru/str/umnii_servis_bot?start=3707
💩178🤮3👎2😢1
Сегодня с Алмасом замутим стрим - практический разбор того, как за пару часов собрать полный датасет по любой нише и создать работающую go-to-market стратегию.

В моем прошлом посте я писал про автоматизацию сбора маркетинговой инфы через Claude + MCP. Многие спросили, как это выглядит на практике. Поэтому решили показать весь процесс в лайве.

Что будем делать в прямом эфире:

- Выберем нишу и идею для анализа (возможно, голосованием в чате)
- Покажем, как через MCP + Claude собрать данные по всем конкурентам за минуты
- Проанализируем их лендосы, креативы и продуктовые стратегии
- Найдем слабые места рынка и возможности для входа
- Создадим финальную GTM-стратегию с конкретными рекомендациями

Инструменты, которые покажем:

- Claude с MCP-серверами (Tavily, Firecrawl, BrightData, Ffmpeg)
- Cursor для автоматизации скриптов
- Парсинг Facebook Ads Library и конкурентов

Это будет не теоретический разбор, а реальная работа с живыми данными. Покажем весь процесс - как превратить хаос информации в четкую стратегию выхода.

Раньше на такой анализ уходили недели и сотни человеко-часов. Теперь - пара дней в кресле дома. И мы покажем, как именно это работает.

Время: Сегодня в 19:00 по Москве/Кипру
Где: На нашем YouTube-канале БизнесАД или в нашем Телеграм-стрим канале Альфапренеры.

Готовьте чай или пивко.
1👍28🔥217