Архитектура Стартапа - Anton Skogorev Engineering & AI – Telegram
Архитектура Стартапа - Anton Skogorev Engineering & AI
2.1K subscribers
49 photos
1 video
2 files
109 links
Канал про архитектуру быстрорастущего бизнеса.

Привет, меня зовут Антон @skogorev.
Я - Технический Директор AI Center Tinkoff, ex Yandex Go Senior EM.

В переписках остается много полезных материалов, теперь я собираю их на этом канале.
Download Telegram
Попробовал за вас Codex от OpenAI.

Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу.
Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и даже какой-нибудь Makefile) и отвечать на вопросы по репозиторию.

Натравил его на свой старенький репозиторий с реализацией динамического массива на C.
Codex нашёл пару несуществующих багов, вроде проверки count перед тем как делать memcpy (но мы с вами знаем, как работает memcpy), и проверил либу на актуальность в 2025.
Попросил порефакторить и переписать её так, как пишут C-либы в 2025 году (а пишут?).

Если вдруг пользуетесь и есть реальные рабочие кейсы — поделитесь в комментариях.
👍4💩1
Архитектура Стартапа - Anton Skogorev Engineering & AI
Попробовал за вас Codex от OpenAI. Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу. Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и…
Сижу, изучаю логи работы Codex на своём репозитории и вижу, что агент пытается найти в проекте файл AGENTS.MD. Из документации видно, что это специфичный промпт для LLM-тулов о том, как правильно навигироваться по кодовой базе (т.е. «документация для ИИ»).

Это наводит на мысль. Вот есть закон Конвея, по которому архитектура строится исходя из того, как организованы команды разработки. А вот если все разработчики становятся вайбкодерами, то кодовую базу нужно адаптировать не для того, чтобы её человек лучше понимал, а для того, чтобы агент вроде Codex по ней лучше навигировался и выполнял свои задачи.

Я вот сейчас нанимаю вайбкодера в команду. Это наши первые шаги в смелом эксперименте превратить кодовую базу в AI-adapted.
🔥4👎1😱1🦄1
Системный дизайн будущего: от микросервисов к AI-архитектуре.

Собрал сегодня зал в MTS True Tech с рассказом о том, как меняется парадигма проектирования. Как бизнес-логика становится вероятностной, какие компоненты приходят на смену привычным микросервисам и как должен выглядеть технологический стек AI-компании.

Принес вам основные мысли в четырех слайдах.
🔥223💯2👎1
Forwarded from EasySwift iOS🍏 (Ilia)
Meet the Foundation Models framework

WWDC прошел и, как обычно, показали много нового и интересного (нет, особенно ужасен новый дизайн Liquid Glass). Для меня самое интересное – это новые AI инструменты и возможности и тут на самом деле было много интересного.

Apple показали фрейморк Foundation Models для работы с llm on-device в приложениях. Из основного:
- полностью нативная реализация и интеграция со swift'ом. Сама модель адаптирована под работу на Apple процессорах
- модель: 3B квантизованная до 2х бит модель: создать полноценного чат бота с ней не выйдет, но с задачами суммаризации, генерацией / понимаем текста и другими несложными llm-based задачами она более чем может справится
- есть возможность не промптом, а с помощью макросов управлять и структурировать формат ответа модели. Этот подход назвали "guided generation". Если кратко, то мы описываем энамы и структуры, и говорим, что хотим от модели в таком формате получать ответ и будем его именно так и получать
- появится новый инструмент отладки и тестирования работы с моделью
- самое важное и крутое на мой взгляд: "Tool calling": мы можем "зарегистрировать" функции приложения и сказать модели, что она может к ним обращаться и получать из них информации. Это крутое новшество, которое тянет на отдельный пост, который мы позже принесем

Отдельным пунктом хочу еще выделить, что наконец-то Xcode получит интеграцию с chatgpt и другими llm, в том числе и локально запущенными 🔥

Если хотите глубже погрузиться в архитектуру, узнать больше про пост/пре-трейн и оптимизации моделей, на каких данных и как обучалась, то вам точно нужно зайти сюда. Еще завезли отдельный HIG, посвященный генеративным AI.

#wwdc2025
👍61🔥1
Тут выяснилось, что я достаточно большой адепт вайб-кодинга. В пятницу на мастер-классе собрал 1200+ человек аудитории. Принёс вам инсайты и лайфхаки.

Давайте сразу поясним за терминологию:
Вайб-кодинг — использование естественного языка для написания ПО.

— На replit.com можно собирать достаточно сложные штуки end-to-end. Прототипировать — best of the best.
— Ассистент Replit-а реализован в виде достаточно классического агента с планированием, сбором контекста с web-IDE и запросом в LLM.
— Агент Replit-а не умеет ходить в интернет, но ему можно подсунуть в каком-то виде базу на старте (например, прикрепить CSV).
— Replit может поднять PG в AWS и проинтегрировать в ваш прототип.
— Мы собирали лендинг инфографики анализа зарплат (перед этим O3 мне собрал из открытых источников таблицу зарплат) и телеграм-бота — скраппера сайтов из личных сообщений (промпты оставлю в комментариях к посту). Первое — отлично собралось, второе — почти ожило.
— Сравнение инструментов для вайб-кодинга — тут.
— Если что-то не собирается с трёх чекпоинтов — лучше перезапустить создание проекта с новым промптом.
— Подписка стоит $25, бесплатно можно создать 3 приложения, чего вполне хватает, чтобы пощупать инструмент.
— Телеграм-бот будет стоить примерно $2 квоты.

Несколько лет назад у нас в команде были споры. Я говорил, что через пару лет все будут писать на джаваскрипте. Прав я был в том, что повышается уровень абстракции программирования. Сейчас странно писать код на ассемблере. Ещё через пару лет будет странно учить синтаксис языка.
💩8🔥4👎3🤔21
Несколько дней читаю "12‑Factor Agents" — понравился инженерный фреймворк из 12 практических пунктов, адаптированный для создания надёжных, масштабируемых и управляемых AI-агентов.

Система предлагает воспринимать LLM-агентов не как магические фреймворки, а как хорошо инженерно спроектированные сервисы с контролируемым потоком, состоянием и надёжным взаимодействием с пользователем.

Кликабельные пункты:
How We Got Here: A Brief History of Software
Factor 1: Natural Language to Tool Calls
Factor 2: Own your prompts
Factor 3: Own your context window
Factor 4: Tools are just structured outputs
Factor 5: Unify execution state and business state
Factor 6: Launch/Pause/Resume with simple APIs
Factor 7: Contact humans with tool calls
Factor 8: Own your control flow
Factor 9: Compact Errors into Context Window
Factor 10: Small, Focused Agents
Factor 11: Trigger from anywhere, meet users where they are
Factor 12: Make your agent a stateless reducer
👍101
T-pro 2.0 – с гибридным ризонингом 🥳

Лучшая модель в своём весе среди всех открытых моделей по широкому ряду русскоязычных бенчмарков. В два раза более быстрая и дешевая чем аналоги по качеству.

Модель с рассуждениями, создана для построения сложных систем и решения сложных задач. Модель в открытом доступе, качай да используй.

– Qwen3 32B based
– Гибридный ризонинг
– Уплотненный токенайзер на русском
– Спекулятивный декодер в комплекте
– Apache 2.0 – используй как хочешь

Больше подробностей выложим в тех репорте – с бенчмарками и накопленными знаниями.

Сама модель и основные бенчмарки
Спекулятивный декодер
Новость
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
Только вернулся из Сириуса. Посчастливилось побыть в жюри конкурса «Большие вызовы». Это когда берут лучших школьников со всей страны, и они за 3 недели делают проекты, которые в индустрии обычно пилят годами. И хотя последнюю ночь нас эвакуировали из отеля из-за атак беспилотников, это не перекрыло впечатлений. Энергия команд была запредельной.

Принёс вам мой субъективный топ проектов:

— Датасет для OCR, созданный на основе генеративных сетей и рендеров из Unreal Engine. Ребята рендерили поезда и генерировали окружение чтобы улучшить качество распознавания составов РЖД.
— Мультиагентная система для решения научных задач в области искусственного интеллекта. Ребята сделали свой мультиагентный Deep Research.
— RL для планирования бурения скважин и оптимизации движения буровых и ремонтных бригад.
— Ну и, конечно, в сердечке — Джуниор-ассистент.

А чем вы занимались в 15 лет?
🔥184