Попробовал за вас Codex от OpenAI.
Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу.
Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и даже какой-нибудь Makefile) и отвечать на вопросы по репозиторию.
Натравил его на свой старенький репозиторий с реализацией динамического массива на C.
Codex нашёл пару несуществующих багов, вроде проверки count перед тем как делать memcpy (но мы с вами знаем, как работает memcpy), и проверил либу на актуальность в 2025.
Попросил порефакторить и переписать её так, как пишут C-либы в 2025 году (а пишут?).
Если вдруг пользуетесь и есть реальные рабочие кейсы — поделитесь в комментариях.
Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу.
Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и даже какой-нибудь Makefile) и отвечать на вопросы по репозиторию.
Натравил его на свой старенький репозиторий с реализацией динамического массива на C.
Codex нашёл пару несуществующих багов, вроде проверки count перед тем как делать memcpy (но мы с вами знаем, как работает memcpy), и проверил либу на актуальность в 2025.
Попросил порефакторить и переписать её так, как пишут C-либы в 2025 году (а пишут?).
Если вдруг пользуетесь и есть реальные рабочие кейсы — поделитесь в комментариях.
👍4💩1
Архитектура Стартапа - Anton Skogorev Engineering & AI
Попробовал за вас Codex от OpenAI. Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу. Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и…
Сижу, изучаю логи работы Codex на своём репозитории и вижу, что агент пытается найти в проекте файл AGENTS.MD. Из документации видно, что это специфичный промпт для LLM-тулов о том, как правильно навигироваться по кодовой базе (т.е. «документация для ИИ»).
Это наводит на мысль. Вот есть закон Конвея, по которому архитектура строится исходя из того, как организованы команды разработки. А вот если все разработчики становятся вайбкодерами, то кодовую базу нужно адаптировать не для того, чтобы её человек лучше понимал, а для того, чтобы агент вроде Codex по ней лучше навигировался и выполнял свои задачи.
Я вот сейчас нанимаю вайбкодера в команду. Это наши первые шаги в смелом эксперименте превратить кодовую базу в AI-adapted.
Это наводит на мысль. Вот есть закон Конвея, по которому архитектура строится исходя из того, как организованы команды разработки. А вот если все разработчики становятся вайбкодерами, то кодовую базу нужно адаптировать не для того, чтобы её человек лучше понимал, а для того, чтобы агент вроде Codex по ней лучше навигировался и выполнял свои задачи.
Я вот сейчас нанимаю вайбкодера в команду. Это наши первые шаги в смелом эксперименте превратить кодовую базу в AI-adapted.
🔥4👎1😱1🦄1
Системный дизайн будущего: от микросервисов к AI-архитектуре.
Собрал сегодня зал в MTS True Tech с рассказом о том, как меняется парадигма проектирования. Как бизнес-логика становится вероятностной, какие компоненты приходят на смену привычным микросервисам и как должен выглядеть технологический стек AI-компании.
Принес вам основные мысли в четырех слайдах.
Собрал сегодня зал в MTS True Tech с рассказом о том, как меняется парадигма проектирования. Как бизнес-логика становится вероятностной, какие компоненты приходят на смену привычным микросервисам и как должен выглядеть технологический стек AI-компании.
Принес вам основные мысли в четырех слайдах.
🔥22❤3💯2👎1
Forwarded from EasySwift iOS🍏 (Ilia)
Meet the Foundation Models framework
WWDC прошел и, как обычно, показали много нового и интересного (нет, особенно ужасен новый дизайн Liquid Glass). Для меня самое интересное – это новые AI инструменты и возможности и тут на самом деле было много интересного.
Apple показали фрейморк Foundation Models для работы с llm on-device в приложениях. Из основного:
- полностью нативная реализация и интеграция со swift'ом. Сама модель адаптирована под работу на Apple процессорах
- модель: 3B квантизованная до 2х бит модель: создать полноценного чат бота с ней не выйдет, но с задачами суммаризации, генерацией / понимаем текста и другими несложными llm-based задачами она более чем может справится
- есть возможность не промптом, а с помощью макросов управлять и структурировать формат ответа модели. Этот подход назвали "guided generation". Если кратко, то мы описываем энамы и структуры, и говорим, что хотим от модели в таком формате получать ответ и будем его именно так и получать
- появится новый инструмент отладки и тестирования работы с моделью
- самое важное и крутое на мой взгляд: "Tool calling": мы можем "зарегистрировать" функции приложения и сказать модели, что она может к ним обращаться и получать из них информации. Это крутое новшество, которое тянет на отдельный пост, который мы позже принесем
Отдельным пунктом хочу еще выделить, что наконец-то Xcode получит интеграцию с chatgpt и другими llm, в том числе и локально запущенными 🔥
Если хотите глубже погрузиться в архитектуру, узнать больше про пост/пре-трейн и оптимизации моделей, на каких данных и как обучалась, то вам точно нужно зайти сюда. Еще завезли отдельный HIG, посвященный генеративным AI.
#wwdc2025
WWDC прошел и, как обычно, показали много нового и интересного (нет, особенно ужасен новый дизайн Liquid Glass). Для меня самое интересное – это новые AI инструменты и возможности и тут на самом деле было много интересного.
Apple показали фрейморк Foundation Models для работы с llm on-device в приложениях. Из основного:
- полностью нативная реализация и интеграция со swift'ом. Сама модель адаптирована под работу на Apple процессорах
- модель: 3B квантизованная до 2х бит модель: создать полноценного чат бота с ней не выйдет, но с задачами суммаризации, генерацией / понимаем текста и другими несложными llm-based задачами она более чем может справится
- есть возможность не промптом, а с помощью макросов управлять и структурировать формат ответа модели. Этот подход назвали "guided generation". Если кратко, то мы описываем энамы и структуры, и говорим, что хотим от модели в таком формате получать ответ и будем его именно так и получать
- появится новый инструмент отладки и тестирования работы с моделью
- самое важное и крутое на мой взгляд: "Tool calling": мы можем "зарегистрировать" функции приложения и сказать модели, что она может к ним обращаться и получать из них информации. Это крутое новшество, которое тянет на отдельный пост, который мы позже принесем
Отдельным пунктом хочу еще выделить, что наконец-то Xcode получит интеграцию с chatgpt и другими llm, в том числе и локально запущенными 🔥
Если хотите глубже погрузиться в архитектуру, узнать больше про пост/пре-трейн и оптимизации моделей, на каких данных и как обучалась, то вам точно нужно зайти сюда. Еще завезли отдельный HIG, посвященный генеративным AI.
#wwdc2025
👍6❤1🔥1
Тут выяснилось, что я достаточно большой адепт вайб-кодинга. В пятницу на мастер-классе собрал 1200+ человек аудитории. Принёс вам инсайты и лайфхаки.
Давайте сразу поясним за терминологию:
Вайб-кодинг — использование естественного языка для написания ПО.
— На replit.com можно собирать достаточно сложные штуки end-to-end. Прототипировать — best of the best.
— Ассистент Replit-а реализован в виде достаточно классического агента с планированием, сбором контекста с web-IDE и запросом в LLM.
— Агент Replit-а не умеет ходить в интернет, но ему можно подсунуть в каком-то виде базу на старте (например, прикрепить CSV).
— Replit может поднять PG в AWS и проинтегрировать в ваш прототип.
— Мы собирали лендинг инфографики анализа зарплат (перед этим O3 мне собрал из открытых источников таблицу зарплат) и телеграм-бота — скраппера сайтов из личных сообщений (промпты оставлю в комментариях к посту). Первое — отлично собралось, второе — почти ожило.
— Сравнение инструментов для вайб-кодинга — тут.
— Если что-то не собирается с трёх чекпоинтов — лучше перезапустить создание проекта с новым промптом.
— Подписка стоит $25, бесплатно можно создать 3 приложения, чего вполне хватает, чтобы пощупать инструмент.
— Телеграм-бот будет стоить примерно $2 квоты.
Несколько лет назад у нас в команде были споры. Я говорил, что через пару лет все будут писать на джаваскрипте. Прав я был в том, что повышается уровень абстракции программирования. Сейчас странно писать код на ассемблере. Ещё через пару лет будет странно учить синтаксис языка.
Давайте сразу поясним за терминологию:
Вайб-кодинг — использование естественного языка для написания ПО.
— На replit.com можно собирать достаточно сложные штуки end-to-end. Прототипировать — best of the best.
— Ассистент Replit-а реализован в виде достаточно классического агента с планированием, сбором контекста с web-IDE и запросом в LLM.
— Агент Replit-а не умеет ходить в интернет, но ему можно подсунуть в каком-то виде базу на старте (например, прикрепить CSV).
— Replit может поднять PG в AWS и проинтегрировать в ваш прототип.
— Мы собирали лендинг инфографики анализа зарплат (перед этим O3 мне собрал из открытых источников таблицу зарплат) и телеграм-бота — скраппера сайтов из личных сообщений (промпты оставлю в комментариях к посту). Первое — отлично собралось, второе — почти ожило.
— Сравнение инструментов для вайб-кодинга — тут.
— Если что-то не собирается с трёх чекпоинтов — лучше перезапустить создание проекта с новым промптом.
— Подписка стоит $25, бесплатно можно создать 3 приложения, чего вполне хватает, чтобы пощупать инструмент.
— Телеграм-бот будет стоить примерно $2 квоты.
Несколько лет назад у нас в команде были споры. Я говорил, что через пару лет все будут писать на джаваскрипте. Прав я был в том, что повышается уровень абстракции программирования. Сейчас странно писать код на ассемблере. Ещё через пару лет будет странно учить синтаксис языка.
💩8🔥4👎3🤔2❤1
Несколько дней читаю "12‑Factor Agents" — понравился инженерный фреймворк из 12 практических пунктов, адаптированный для создания надёжных, масштабируемых и управляемых AI-агентов.
Система предлагает воспринимать LLM-агентов не как магические фреймворки, а как хорошо инженерно спроектированные сервисы с контролируемым потоком, состоянием и надёжным взаимодействием с пользователем.
Кликабельные пункты:
— How We Got Here: A Brief History of Software
— Factor 1: Natural Language to Tool Calls
— Factor 2: Own your prompts
— Factor 3: Own your context window
— Factor 4: Tools are just structured outputs
— Factor 5: Unify execution state and business state
— Factor 6: Launch/Pause/Resume with simple APIs
— Factor 7: Contact humans with tool calls
— Factor 8: Own your control flow
— Factor 9: Compact Errors into Context Window
— Factor 10: Small, Focused Agents
— Factor 11: Trigger from anywhere, meet users where they are
— Factor 12: Make your agent a stateless reducer
Система предлагает воспринимать LLM-агентов не как магические фреймворки, а как хорошо инженерно спроектированные сервисы с контролируемым потоком, состоянием и надёжным взаимодействием с пользователем.
Кликабельные пункты:
— How We Got Here: A Brief History of Software
— Factor 1: Natural Language to Tool Calls
— Factor 2: Own your prompts
— Factor 3: Own your context window
— Factor 4: Tools are just structured outputs
— Factor 5: Unify execution state and business state
— Factor 6: Launch/Pause/Resume with simple APIs
— Factor 7: Contact humans with tool calls
— Factor 8: Own your control flow
— Factor 9: Compact Errors into Context Window
— Factor 10: Small, Focused Agents
— Factor 11: Trigger from anywhere, meet users where they are
— Factor 12: Make your agent a stateless reducer
GitHub
GitHub - humanlayer/12-factor-agents: What are the principles we can use to build LLM-powered software that is actually good enough…
What are the principles we can use to build LLM-powered software that is actually good enough to put in the hands of production customers? - humanlayer/12-factor-agents
👍10❤1