Архитектура Стартапа - Anton Skogorev Engineering & AI – Telegram
Архитектура Стартапа - Anton Skogorev Engineering & AI
2.1K subscribers
48 photos
1 video
2 files
108 links
Канал про архитектуру быстрорастущего бизнеса.

Привет, меня зовут Антон @skogorev.
Я - Технический Директор AI Center Tinkoff, ex Yandex Go Senior EM.

В переписках остается много полезных материалов, теперь я собираю их на этом канале.
Download Telegram
Тут выяснилось, что я достаточно большой адепт вайб-кодинга. В пятницу на мастер-классе собрал 1200+ человек аудитории. Принёс вам инсайты и лайфхаки.

Давайте сразу поясним за терминологию:
Вайб-кодинг — использование естественного языка для написания ПО.

— На replit.com можно собирать достаточно сложные штуки end-to-end. Прототипировать — best of the best.
— Ассистент Replit-а реализован в виде достаточно классического агента с планированием, сбором контекста с web-IDE и запросом в LLM.
— Агент Replit-а не умеет ходить в интернет, но ему можно подсунуть в каком-то виде базу на старте (например, прикрепить CSV).
— Replit может поднять PG в AWS и проинтегрировать в ваш прототип.
— Мы собирали лендинг инфографики анализа зарплат (перед этим O3 мне собрал из открытых источников таблицу зарплат) и телеграм-бота — скраппера сайтов из личных сообщений (промпты оставлю в комментариях к посту). Первое — отлично собралось, второе — почти ожило.
— Сравнение инструментов для вайб-кодинга — тут.
— Если что-то не собирается с трёх чекпоинтов — лучше перезапустить создание проекта с новым промптом.
— Подписка стоит $25, бесплатно можно создать 3 приложения, чего вполне хватает, чтобы пощупать инструмент.
— Телеграм-бот будет стоить примерно $2 квоты.

Несколько лет назад у нас в команде были споры. Я говорил, что через пару лет все будут писать на джаваскрипте. Прав я был в том, что повышается уровень абстракции программирования. Сейчас странно писать код на ассемблере. Ещё через пару лет будет странно учить синтаксис языка.
💩8🔥4👎3🤔21
Несколько дней читаю "12‑Factor Agents" — понравился инженерный фреймворк из 12 практических пунктов, адаптированный для создания надёжных, масштабируемых и управляемых AI-агентов.

Система предлагает воспринимать LLM-агентов не как магические фреймворки, а как хорошо инженерно спроектированные сервисы с контролируемым потоком, состоянием и надёжным взаимодействием с пользователем.

Кликабельные пункты:
How We Got Here: A Brief History of Software
Factor 1: Natural Language to Tool Calls
Factor 2: Own your prompts
Factor 3: Own your context window
Factor 4: Tools are just structured outputs
Factor 5: Unify execution state and business state
Factor 6: Launch/Pause/Resume with simple APIs
Factor 7: Contact humans with tool calls
Factor 8: Own your control flow
Factor 9: Compact Errors into Context Window
Factor 10: Small, Focused Agents
Factor 11: Trigger from anywhere, meet users where they are
Factor 12: Make your agent a stateless reducer
👍101
T-pro 2.0 – с гибридным ризонингом 🥳

Лучшая модель в своём весе среди всех открытых моделей по широкому ряду русскоязычных бенчмарков. В два раза более быстрая и дешевая чем аналоги по качеству.

Модель с рассуждениями, создана для построения сложных систем и решения сложных задач. Модель в открытом доступе, качай да используй.

– Qwen3 32B based
– Гибридный ризонинг
– Уплотненный токенайзер на русском
– Спекулятивный декодер в комплекте
– Apache 2.0 – используй как хочешь

Больше подробностей выложим в тех репорте – с бенчмарками и накопленными знаниями.

Сама модель и основные бенчмарки
Спекулятивный декодер
Новость
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
Только вернулся из Сириуса. Посчастливилось побыть в жюри конкурса «Большие вызовы». Это когда берут лучших школьников со всей страны, и они за 3 недели делают проекты, которые в индустрии обычно пилят годами. И хотя последнюю ночь нас эвакуировали из отеля из-за атак беспилотников, это не перекрыло впечатлений. Энергия команд была запредельной.

Принёс вам мой субъективный топ проектов:

— Датасет для OCR, созданный на основе генеративных сетей и рендеров из Unreal Engine. Ребята рендерили поезда и генерировали окружение чтобы улучшить качество распознавания составов РЖД.
— Мультиагентная система для решения научных задач в области искусственного интеллекта. Ребята сделали свой мультиагентный Deep Research.
— RL для планирования бурения скважин и оптимизации движения буровых и ремонтных бригад.
— Ну и, конечно, в сердечке — Джуниор-ассистент.

А чем вы занимались в 15 лет?
🔥184
Как избежать кризиса архитектуры AI.
Avoiding a Future AI Architecture Crisis; What the 2025 Numbers Mean for Enterprise AI Strategy

Отличная статья про будущие риски корпоративных AI-архитектур. Интересно, что её выводы сильно совпадают с нашими — хотя мы пришли к ним своим путём. Принёс вам краткие тезисы, но рекомендую прочитать статью полностью.

Проблемы:
— Крупнейшие AI-компании не являются устойчивыми бизнесами (например, OpenAI — убытки на 50% выручки).
— Цены на AI-сервисы занижены субсидиями. Пример: Doubao от ByteDance — $0.0001 за 1k токенов (на 99.8% дешевле GPT‑4).
— Потенциальный вендор-лок: архитектура, промпты, пайплайны и данные часто «зашиваются» под конкретную модель.
— Энергопотребление — слон в комнате. Один запрос в ChatGPT ≈ 0.34 Вт*ч. Общий суточный расход — ~340 МВт*ч (как у небольшого государства).

Что делать:
Архитектурная независимость: Проектируйте с учётом независимости от конкретной модели с самого начала. Тестируйте критичные запросы на разных провайдерах.
Гибридный подход: используйте open-source модели локально для ключевых функций, а внешние API — для некритичных задач. Это позволяет объединить преимущества обоих подходов и одновременно управлять рисками.
Инфраструктура контроля: встраивайте гейтвеи для мониторинга нагрузки, затрат и энергопотребления. Это станет важным параметром SLO.
👍103
Давно хотел поделиться тем, что происходит под капотом LLM Platform, которую мы строим внутри ТБанка.
Пост на грани NDA.

В какой-то момент мы осознали, что без цельного платформенного слоя любые инициативы с GenAI будут буксовать. На схеме — как раз тот каркас, который у нас сложился и который мы продолжаем развивать.
И если ещё год назад мы спорили об отдельных «кубиках», то сегодня то, что мы строим, — де-факто канонический GenAI-стек. (вот тут ещё интересная статья)

Из чего он состоит на высоком уровне:

LLM API Gateway — единая точка доступа до внутренних (qwen?) и внешних (deepseek?) моделей,
RAG Platform — конвейер для превращения любых данных в пайплайн Retrieval-Augmented Generation,
Observability Platform — прозрачность всех LLM-процессов в реальном времени,
Orchestration & automation — набор инструментов построения произвольных GenAI-пайплайнов с минимум кода,
LLM Sec — модули безопасности, политик и аудирования,
Assistant Runtime Platform — среда выполнения произвольных AI-ассистентов.

И если LLM Gateway — это нифига себе высоконагруженный модуль, на базе которого построены как внутренние, так и внешние продукты, то вот как конкретно построить единый Tools Registry, мы всё ещё размышляем и экспериментируем.
51🔥213💩1
Давайте завайбкодим аналог Reddit r/place.

Так как я большой адепт вайб-кодинга, у меня есть цель сделать так, чтобы максимально большое число людей осознало, что можно делать сложные вещи, не написав ни единой строчки кода. Рано или поздно эти инструменты перерастут из нишевых «можно быстро собрать прототип на коленке» в enterprise-среды больших компаний.

Провёл на днях воркшоп, который получился настолько эпичным, что решил принести его сюда. Пятнично.

Знаете ли вы, что такое Reddit r/place?
В 2017 году, Reddit запустил социальный эксперимент:
— огромное онлайн-полотно
— каждый пользователь редактирует его по пикселям
— из миллионов точек складывается общая картина в реальном времени

В чём состоял феномен r/place?
— r/place стал цифровым зеркалом, культурным кодом: мемы, флаги, бренды и искусство.
— люди объединялись в группы, чтобы «отвоёвывать территории» или защищать рисунки.
— в реальном времени возникали альянсы, войны и дипломатия — как в миниатюрном мире.
— 2022: 6+ млн участников, 160 млн пикселей (!).

Воркшоп.

Я предварительно завайбкодил серверную часть — онлайн-полотно:
https://place.skogorev.com

По ссылке доступен UI, и по ней же доступен REST API.
(если вы всё ещё не верите в вайбкодинг, только вдумайтесь — целый сервис с одного промпта).

Теперь ваша очередь — на нём что-то нарисовать! Давайте завайбкодим клиентскую часть.

1) Логинимся в любой инструмент вайбкодинга: Lovable, Replit или, например, в Cursor.
2) Берём промпт отсюда, редактируем его как-нибудь (или берём как есть) и вставляем в выбранный инструмент.
3) Запускаем и смотрим.

Присылайте в комментарии, что получилось. Посмотрим, какой культурный код у этого канала.
🔥12💩73👎1
Действительно ли AI повышает производительность разработчиков?
Does AI Actually Boost Developer Productivity?

Стендфорд провел эксперимент на эффективности 100к разработчиков с AI-копайлотами, результаты очень показательные:
+15–20% к продуктивности в среднем.
— На простых или новых задачах прирост достигает 30–40%.
— На сложных и legacy-задачах эффект может быть нулевым или даже отрицательным.
— На популярных языках (Python, Java) AI помогает значительно сильнее, чем на редких.

Мой коллега, Игорь, поделился пару дней назад важной мыслью — с помощью LLM эффективные люди будут становиться еще более эффективными, а остальные будут терять конкурентоспособность еще быстрее, чем раньше. Игорь советует быть в первом лагере.

@startup_architecture
👍9🔥2
Запускаем AI-агента для разработки от Т-Технологий!

Агент заточен на работу с большими проектами. Сила таких решений в интеграции и правильном создании контекста, а не в моделях.
Context Engineering

Model-agnostic подход: не выпендриваемся и используем лучшие модели, сейчас это Qwen3-Coder

Внутри работает уже вовсю 💅

Форбс тут
Подробности тут
🔥16👎1😁1
AI в SDLC от IT One и Сколково.

Мой коллега, Саша Поломодов разобрал недавнее исследование IT One и Сколково про внедрение AI в SDLC (Software Development Life Cycle).
Цитирую небольшой отрывок результатов с очень интересными цифрами, но советую почитать пост целиком.

Начнем в этом посте с общемировой практики
- Рынку AI-инструментов для разработки : $6,9 млрд → $29,6 млрд к 2032 (х4). Наибольший эффект на этапах разработки и тестирования. Источник Spherical Insights
- 62% разработчиков уже используют ИИ; ещё 13,8% — в планах (по данным 2024 года). Менеджеры оценивают проникновение ниже, но тренд ускоряется. Источник StackOverflow 2024разбирал этот отчет 2024 года, а также разбирал и новый отчет 2025 года)
- Ценность смещается от личной эффективности (быстрее пишет код) к командной: сейчас +10% к скорости кодинга, в горизонте нескольких лет +25–30% к продуктивности команд при работе "ИИ-на-уровне-команд" (чтобы это ни значило). Источник Mia Platform
- Ускорение SDLC: уже 15–20% сейчас (источник: Forrester), потенциал 30–50% на среднесрочном горизонте (источник: medium статья от Сатиш Рама, Director Gen AI @ Paypal)
- Горизонт трансформации процессов - 1–3 года; у 32% техлидеров фактический эффект уже превзошёл ожидания (Источник: MIT, но конкретной ссылки на статью нет)
👍6🤷‍♂2
AI-хайп тихо свернул в копилотные сценарии.

Я тут готовил доклад про то, как развиваются когнитивные архитектуры. Рефлексировал над своим же выступлением «Системный дизайн будущего» полугодовой давности.

Тогда казалось, что вот-вот в проде появятся агенты, которые оркестируют межсервисные и межагентские вызовы по какому-нибудь MCP. Мир, где разработчики микросервисов становятся разработчиками «смыслов».

Случилось ли это? Скорее — нет.

Индустрия и хайп вокруг уехали в более приземлённый сценарий: ускоряем конкретный рабочий процесс, а ответственность оставляем за человеком. Хайп съехал из «AI вместо» в «AI рядом». Добро пожаловать в копилотный мир:

— McKinsey публикует отчёты о том, как компании внедряя LLM ускоряют сотрудников
— Самые громкие LLM-стартапы фокусируются на ускорении конкретных рабочих сценариев (см Cursor raises $2.3 billion funding round)
— Компании «соревнуются», сколько процентов кода написано AI (сколько у вас, кстати?)

Почему так произошло?

Сервисы без детерминизма опасны (кто бы мог подумать?). Никто не готов отдавать бизнес-решения LLM. Поэтому human-in-the-loop выигрывает: AI подсказывает, но человек жмёт «отправить».
Смена парадигмы «AI вместо» к «AI рядом». Продакшен с агентами слишком сложный, а тулы вокруг рабочего места сотрудника — управление и решения у человека — понятны.
Дорого строить продакшен-инфраструктуру: GenAI требует инструментов MLOps / LLMOps, pipelines, observability, retraining и проч.
ROI копилотов проще объяснить. «–30% времени на ответ в саппорте» понятнее CFO, чем «автономный агент оптимизирует операционную нагрузку».

Что сейчас заслуживает внимания почитать:

Schema-Guided Reasoning — популярный топик о том, как сделать LLM более детерминированными. Путь к тем самым агентам, но контролируемым.
Проект NANDA — ребята из MIT делают «интернет будущего» на основе общающихся агентов в распределённой архитектуре. Как IoT, только IoA (Internet of Agents).

А как у вас? Используете агентов?
👍16🔥54
Advanced Context Engineering for Conding Agents.

Тысячу раз слышал "Мы попробовали [вставь_сюда_любой_ai_инструмент], ничего хорошего не генерирует". Знакомо?

Современные LLM-инструменты для разработчиков работают в основном агентно: читают код, вызывают тулзы, делают серии шагов. Вся эта архитектура держится на одном хрупком месте — на "контексте" — на том, что именно модель видит в каждый конкретный момент.

Один кривой TODO в середине кода может сломать всего агента: 1 ошибка приводит к 100 строчкам неправильного кода, а это ломает контекст следующей задачи и всю дальнейшую цепочку.
И потом на Reddit — куча комментариев: "я попробовал на своей кодовой базе, у меня не взлетело".

Для таких инструментов важны далеко не промпты, а управляемый контекст на каждом шаге. “Context engineering” фактически становится задачей №1 при построении надёжных агентов.

Context тут — это ограниченный ресурс, "оперативная память" агента: окно ограничено, а длинные траектории (много ходов + выводы инструментов) быстро переполняют его, что бьёт по качеству, цене и задержкам.

По мере роста контекста возникает "context rot": модели хуже извлекают нужные факты — у трансформеров бюджет внимания конечен (парные связи ~n²), значит каждый лишний токен ухудшает фокус. Отсюда требование: минимальный, но максимально полезный набор токенов. Лишняя тысяча токенов может стереть суть. Поэтому контекст нужно сжимать, резюмировать, обновлять и очищать.

Новая работа инженера, который бустит свою работу с помощью AI — это не писать идеальные промпты, а проектировать рабочее пространство модели: что она знает, что должна забыть и что именно ей показать на следующем шаге.

Попробуйте вот такой промпт для своего проекта:
Сформируй структуру проекта [описание проекта] так, чтобы она была оптимальна для работы LLM-агентов: минимум шума, чёткое разделение ролей, управляемый контекст на каждом шаге, детерминированная логика действий. Используй принципы context engineering.


Ссылки на почитать:

https://youtu.be/IS_y40zY-hc?si=sk3AXg84iC_9aBtd
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents
👍14🔥21
Немного бэкстейджа про канал.

Пошёл я тут на профи.ру, нашёл специалиста по продвижению канала.
Показал статистику: посты читают хорошо — 2к+ (иногда залетают на 10к), хорошо шарят (последний пост — 46 репостов).

Но подписчики почти не растут: с каждого поста приходит 5–10 человек.
При том что каждый текст занимает у меня много времени и сил — и это, мягко говоря, демотивирует.

И вот пришёл специалист и говорит: «Сложный у тебя канал, Антон».

Предложил два пути: нужно либо упрощать контент (рубрика «промпт дня»!), либо больше писать о себе.

Надеюсь, вы подписались сюда не ради лёгкого контента.
Выбираю второй вариант.
Ну и если хотите поддержать — буду благодарен за репост ссылки на канал. Это правда помогает. https://news.1rj.ru/str/startup_architecture
🔥24👍7💯4😁21
C-Connect от Яндекса.

Сходил на CTO/CPO Connect — камерный эвент от Яндекса для C-level руководителей.
Главная тема — AI.

Было несколько действительно интересных рассказов.

Physical AI (роверы, грузовики, роботакси). Интересно было посмотреть на архитектуру AI-решений из реального мира. Любопытно, что там под капотом чаще используются такие же трансформеры, как и в ChatGPT. Генерировать следующий токен — популярная задача не только в чатботах.

— Про обучение в эпоху AI. Как будут появляться сильные инженеры с опытом и насмотренностью, если AI снимает необходимость «набивать шишки» и закрывает пробелы знаниями «из коробки»? (P.S. а вы знаете как?)

И дискуссии: экономия времени, внедрение AI в продукты и разработку. Хорошо показывают, что сейчас в фокусе у C-level Яндекса.

Все понимают потенциал и то, что нужно что-то делать, чтобы оказаться в будущем. Мало кто понимает, какой действительно это всё окажет эффект на индустрию и как его правильно считать.

Yauza Place - лайк.
👍16