Lecture 10.03.2025.DB.Indexes.pdf
4.2 MB
Сегодня из отпуска читаю лекцию в Академии Бэкенда - интересный экспириенс =). Тема - “индексы в СУБД”.
Если вдруг хочется вспомнить теорию, где они располагаются, сколько весят, что такое BRIN индексы и как частичные индексы могут облегчить жизнь — прикладываю презентацию. Пересылай в своих коллег.
Если вдруг хочется вспомнить теорию, где они располагаются, сколько весят, что такое BRIN индексы и как частичные индексы могут облегчить жизнь — прикладываю презентацию. Пересылай в своих коллег.
👍30
Я тут не так давно купил квартиру, делаю ремонт и ломаю голову как обустроить свое рабочее место.
Но вот на днях chatgpt выпустил убийцу фотошопа — в режиме gpt-4o научился редактировать изображения. Работает очень медленно, но очень помогает представить как это может выглядеть.
Попробовать тут.
Как варианты?)
Но вот на днях chatgpt выпустил убийцу фотошопа — в режиме gpt-4o научился редактировать изображения. Работает очень медленно, но очень помогает представить как это может выглядеть.
Попробовать тут.
Как варианты?)
🔥12👍9😢2🦄2🤷♂1👎1
MCP — не production-ready.
24 ноября 2024 года Anthropic представили MCP — унифицированный протокол взаимодействия ассистентов/агентов с тулами (API, плагинами, локальными базами и т.д.), расширяющий возможности GenAI-приложений.
Протокол описывает, как формировать запросы, обрабатывать ответы и какие форматы данных использовать, чтобы всё было совместимо и предсказуемо. В духе plug-and-play. Прикрепляю картинку.
И если вначале это воспринималось как мем "ещё один стандарт", то сейчас — сила комьюнити порешала. Уже можно найти MCP-серверы для чего угодно — от управления Raspberry Pi до интеграции с Miro. Смотри, например, вот такую подборку.
Мы уже достаточно долго на него смотрим, и внутри команды мнения сильно разделились.
Напомню, что Anthropic, выпуская этот гайдлайн, делал больший акцент на локальные агенты, даже более конкретно — на Claude Desktop App, а не для распределённых production-систем. Отсюда появляется ряд минусов:
— небезопасный (разбор) — совсем ничего про то, как делать аутентификацию;
— довольно узкая задача протокола (вся сложность перенесена, по сути, на уровень MCP-клиента и хоста);
— сыроват;
— сложный в реализации — минус к adoption;
— мультиагентность обычно не имплементируют, в итоге получается однопромптовый агент.
В итоге, MCP — классная задумка для локальных use-case'ов, особенно при разработке десктопных агентов. Но строить на нём production-продукты пока рискованно — как минимум из-за незрелости и отсутствия базовой безопасности.
Будущее за локальными агентами?
UPD: пока писал этот пост на прошлой неделе, вышел "ответ от Google" — A2A-протокол. Они попытались учесть большинство болячек MCP, вроде безопасности. Интересно, что из этого выйдет. Краткий разбор можно почитать вот тут.
24 ноября 2024 года Anthropic представили MCP — унифицированный протокол взаимодействия ассистентов/агентов с тулами (API, плагинами, локальными базами и т.д.), расширяющий возможности GenAI-приложений.
Протокол описывает, как формировать запросы, обрабатывать ответы и какие форматы данных использовать, чтобы всё было совместимо и предсказуемо. В духе plug-and-play. Прикрепляю картинку.
И если вначале это воспринималось как мем "ещё один стандарт", то сейчас — сила комьюнити порешала. Уже можно найти MCP-серверы для чего угодно — от управления Raspberry Pi до интеграции с Miro. Смотри, например, вот такую подборку.
Мы уже достаточно долго на него смотрим, и внутри команды мнения сильно разделились.
Напомню, что Anthropic, выпуская этот гайдлайн, делал больший акцент на локальные агенты, даже более конкретно — на Claude Desktop App, а не для распределённых production-систем. Отсюда появляется ряд минусов:
— небезопасный (разбор) — совсем ничего про то, как делать аутентификацию;
— довольно узкая задача протокола (вся сложность перенесена, по сути, на уровень MCP-клиента и хоста);
— сыроват;
— сложный в реализации — минус к adoption;
— мультиагентность обычно не имплементируют, в итоге получается однопромптовый агент.
В итоге, MCP — классная задумка для локальных use-case'ов, особенно при разработке десктопных агентов. Но строить на нём production-продукты пока рискованно — как минимум из-за незрелости и отсутствия базовой безопасности.
Будущее за локальными агентами?
UPD: пока писал этот пост на прошлой неделе, вышел "ответ от Google" — A2A-протокол. Они попытались учесть большинство болячек MCP, вроде безопасности. Интересно, что из этого выйдет. Краткий разбор можно почитать вот тут.
👍10
Practical Design Patterns for Modern AI Systems
Интересная картинка из статьи про архитектурные паттерны AI-систем, ориентированных на взаимодействие с LLM через API: Prompting & Context, Responsible AI, User Experience, AI-Ops и Optimization.
Жаль только, что рассмотрели достаточно простую схему вызовов модели вместо агентской архитектуры.
Интересная картинка из статьи про архитектурные паттерны AI-систем, ориентированных на взаимодействие с LLM через API: Prompting & Context, Responsible AI, User Experience, AI-Ops и Optimization.
Жаль только, что рассмотрели достаточно простую схему вызовов модели вместо агентской архитектуры.
👍11
Попробовал за вас Codex от OpenAI.
Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу.
Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и даже какой-нибудь Makefile) и отвечать на вопросы по репозиторию.
Натравил его на свой старенький репозиторий с реализацией динамического массива на C.
Codex нашёл пару несуществующих багов, вроде проверки count перед тем как делать memcpy (но мы с вами знаем, как работает memcpy), и проверил либу на актуальность в 2025.
Попросил порефакторить и переписать её так, как пишут C-либы в 2025 году (а пишут?).
Если вдруг пользуетесь и есть реальные рабочие кейсы — поделитесь в комментариях.
Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу.
Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и даже какой-нибудь Makefile) и отвечать на вопросы по репозиторию.
Натравил его на свой старенький репозиторий с реализацией динамического массива на C.
Codex нашёл пару несуществующих багов, вроде проверки count перед тем как делать memcpy (но мы с вами знаем, как работает memcpy), и проверил либу на актуальность в 2025.
Попросил порефакторить и переписать её так, как пишут C-либы в 2025 году (а пишут?).
Если вдруг пользуетесь и есть реальные рабочие кейсы — поделитесь в комментариях.
👍4💩1
Архитектура Стартапа - Anton Skogorev Engineering & AI
Попробовал за вас Codex от OpenAI. Под капотом — O3. Агенту можно скормить свой GitHub-репозиторий, и он начнёт выполнять за вас вашу программистскую работу. Тулзе можно давать задания (вроде «порефач за меня»), и она будет писать код, запускать команды (и…
Сижу, изучаю логи работы Codex на своём репозитории и вижу, что агент пытается найти в проекте файл AGENTS.MD. Из документации видно, что это специфичный промпт для LLM-тулов о том, как правильно навигироваться по кодовой базе (т.е. «документация для ИИ»).
Это наводит на мысль. Вот есть закон Конвея, по которому архитектура строится исходя из того, как организованы команды разработки. А вот если все разработчики становятся вайбкодерами, то кодовую базу нужно адаптировать не для того, чтобы её человек лучше понимал, а для того, чтобы агент вроде Codex по ней лучше навигировался и выполнял свои задачи.
Я вот сейчас нанимаю вайбкодера в команду. Это наши первые шаги в смелом эксперименте превратить кодовую базу в AI-adapted.
Это наводит на мысль. Вот есть закон Конвея, по которому архитектура строится исходя из того, как организованы команды разработки. А вот если все разработчики становятся вайбкодерами, то кодовую базу нужно адаптировать не для того, чтобы её человек лучше понимал, а для того, чтобы агент вроде Codex по ней лучше навигировался и выполнял свои задачи.
Я вот сейчас нанимаю вайбкодера в команду. Это наши первые шаги в смелом эксперименте превратить кодовую базу в AI-adapted.
🔥4👎1😱1🦄1
Системный дизайн будущего: от микросервисов к AI-архитектуре.
Собрал сегодня зал в MTS True Tech с рассказом о том, как меняется парадигма проектирования. Как бизнес-логика становится вероятностной, какие компоненты приходят на смену привычным микросервисам и как должен выглядеть технологический стек AI-компании.
Принес вам основные мысли в четырех слайдах.
Собрал сегодня зал в MTS True Tech с рассказом о том, как меняется парадигма проектирования. Как бизнес-логика становится вероятностной, какие компоненты приходят на смену привычным микросервисам и как должен выглядеть технологический стек AI-компании.
Принес вам основные мысли в четырех слайдах.
🔥22❤3💯2👎1
Forwarded from EasySwift iOS🍏 (Ilia)
Meet the Foundation Models framework
WWDC прошел и, как обычно, показали много нового и интересного (нет, особенно ужасен новый дизайн Liquid Glass). Для меня самое интересное – это новые AI инструменты и возможности и тут на самом деле было много интересного.
Apple показали фрейморк Foundation Models для работы с llm on-device в приложениях. Из основного:
- полностью нативная реализация и интеграция со swift'ом. Сама модель адаптирована под работу на Apple процессорах
- модель: 3B квантизованная до 2х бит модель: создать полноценного чат бота с ней не выйдет, но с задачами суммаризации, генерацией / понимаем текста и другими несложными llm-based задачами она более чем может справится
- есть возможность не промптом, а с помощью макросов управлять и структурировать формат ответа модели. Этот подход назвали "guided generation". Если кратко, то мы описываем энамы и структуры, и говорим, что хотим от модели в таком формате получать ответ и будем его именно так и получать
- появится новый инструмент отладки и тестирования работы с моделью
- самое важное и крутое на мой взгляд: "Tool calling": мы можем "зарегистрировать" функции приложения и сказать модели, что она может к ним обращаться и получать из них информации. Это крутое новшество, которое тянет на отдельный пост, который мы позже принесем
Отдельным пунктом хочу еще выделить, что наконец-то Xcode получит интеграцию с chatgpt и другими llm, в том числе и локально запущенными 🔥
Если хотите глубже погрузиться в архитектуру, узнать больше про пост/пре-трейн и оптимизации моделей, на каких данных и как обучалась, то вам точно нужно зайти сюда. Еще завезли отдельный HIG, посвященный генеративным AI.
#wwdc2025
WWDC прошел и, как обычно, показали много нового и интересного (нет, особенно ужасен новый дизайн Liquid Glass). Для меня самое интересное – это новые AI инструменты и возможности и тут на самом деле было много интересного.
Apple показали фрейморк Foundation Models для работы с llm on-device в приложениях. Из основного:
- полностью нативная реализация и интеграция со swift'ом. Сама модель адаптирована под работу на Apple процессорах
- модель: 3B квантизованная до 2х бит модель: создать полноценного чат бота с ней не выйдет, но с задачами суммаризации, генерацией / понимаем текста и другими несложными llm-based задачами она более чем может справится
- есть возможность не промптом, а с помощью макросов управлять и структурировать формат ответа модели. Этот подход назвали "guided generation". Если кратко, то мы описываем энамы и структуры, и говорим, что хотим от модели в таком формате получать ответ и будем его именно так и получать
- появится новый инструмент отладки и тестирования работы с моделью
- самое важное и крутое на мой взгляд: "Tool calling": мы можем "зарегистрировать" функции приложения и сказать модели, что она может к ним обращаться и получать из них информации. Это крутое новшество, которое тянет на отдельный пост, который мы позже принесем
Отдельным пунктом хочу еще выделить, что наконец-то Xcode получит интеграцию с chatgpt и другими llm, в том числе и локально запущенными 🔥
Если хотите глубже погрузиться в архитектуру, узнать больше про пост/пре-трейн и оптимизации моделей, на каких данных и как обучалась, то вам точно нужно зайти сюда. Еще завезли отдельный HIG, посвященный генеративным AI.
#wwdc2025
👍6❤1🔥1