Intelligent Systems Architecture – Telegram
Intelligent Systems Architecture
1.05K subscribers
29 photos
6 files
54 links
Про архитектуру и принципы построения систем на основе искусственного интеллекта — от моделей до AI-платформ.

Контент в канале защищён авторским правом.

Геннадий Круглов
@GKruglov
Download Telegram
Forwarded from DeepTech R&I Board (Eugene Istomin)
Возможно, что это будет непонятный пост, пишу как есть:

- онтологии/метамодели/модели это не просто слова, не просто структуры - если грамотно подходить к их дизайну, то там есть и линтеры (автопроверка схемы + сходимости всего написанного), и базовые нерушимые правила, и много того, с чем сталкивается человек, решивший написать свой язык.

Любой DSL (domain-specific language) это не просто yaml/json/... такой-то формат.

Это, в первую очередь язык.
Онтология/метамодель - это язык для выражения (определения, to define) других языков, на базе которых можно будет указать на объекты-меры-данные-явления-... .

- формальные онтологии для класса задач создаются по вполне понятному, чёткому сценарию.
semi-formal создаются итерациями:
1) уменьшая coupling (связанность) и увеличивая cohesion (связность)
2) оптимально распределяя нагрузку абстрагирования
3) всегда держа в уме, что это не строгая математическая/формальная онтология, и её будут использовать живые люди для предметных задач
4) при этом, строя её от The Unified Foundational Ontology (UFO) и создавая с использованием soft formal подхода

- Temporal Triads. В целом, как я открыто говорил с 2017 года, без временного измерения нет никакой архитектуры.

Нет ни одного решения в мире для Cursor/Windsurf/VSCode, которое решало бы задачи design-time.

!!! Все хотят открыть IDE и писать код !!!
Окей, сейчас пишут промты - но откройте любой CAD, и там workflow отличается инженерный.

Я начинаю понимать, почему BIM "зашел", а в софте топом стал вайб-кодинг.

Чисто мысленное упражнение на ночь )
Попробуйте себя представить живущим в доме, созданном вайб- арх.бюро.
Или школу, созданную вайб-архитектором.

Инженерный подход в software design будет развиваться, в том числе как оппозиция, как контраст vibe-подходу.

Канал Industrial Software Architecture затрагивает многие из тем, которые я описал, присоединяйтесь!

VEX³ Ontology 🤝 Your Personal Growth Team!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥51👍1
DeepTech R&I Board
Возможно, что это будет непонятный пост, пишу как есть: - онтологии/метамодели/модели это не просто слова, не просто структуры - если грамотно подходить к их дизайну, то там есть и линтеры (автопроверка схемы + сходимости всего написанного), и базовые нерушимые…
Прокомменрирую пост Жени Истомина.

Структурный и темпоральный аспекты систем.

Любая «живая» система имеет структуру и подвержена изменениям во времени (темпоральность).

Такие системы можно представить как живые организмы, где структура — это строение тела, а время — поток жизни.

Состояние — это снимок, показывающий, как устроена система в данное мгновение (вплоть до атомов).

Состояние системы можно рассматривать как своего рода мост между структурным и темпоральным аспектами системы.

Напомню, структура — это конфигурация элементов системы и отношений между ними. Она определяет, что представляет собой каждый элемент и как элементы связаны между собой, в отличие от процессов, которые описывают что происходит во времени.

Пример: В организме структура — это анатомия (строение тела), а процессы — это метаболизм, рост, старение.

Человек из-за ограниченных когнитивных способностей не может одновременно охватить все элементы системы (вплоть до мельчайших деталей) и их взаимосвязи. Поэтому мы разделяем структуру системы на разные (вложенные) структуры, выстраиваем иерархии и рассматриваем систему по частям — на разных уровнях абстракции.

В (социотехнических) software-intensive системах, например, можно выделить, как минимум, следующие типы структур:

- Ценностная - кому и какую ценность приносит система;
- Организационная — кто за что отвечает;
- Коммуникационная — кто с кем и по каким каналам взаимодействует;
- Функциональная — какие подсистемы какие функции выполняют;
- Структура данных - какие функции какими данными манипулируют;
- Конструктивная — какие компоненты какие функции воплощают;
- Инфраструктурная (или размещения) — на какой инфраструктуре какие компоненты развёрнуты.

Все эти структуры изменяются со временем и у каждой есть текущее, прошлые и будущие состояния.

Темпоральный аспект проявляется через временные последовательности — такие как алгоритмы и сценарии процессов. Алгоритмы и сценарии при этом не просто фиксируют порядок действий, но и определяют внутреннюю логику и закономерности изменения системы.

Следовательно, модели (включая архитектуру) систем должны учитывать не только их статичные структуры, но и временной аспект.
🔥4
Процессы, протекающие в системе, непрерывно изменяют её структуру хотя бы на микроуровне.

Наш организм меняется непрерывно: состав молекул и их связи обновляются каждое мгновение.

То же самое происходит и с работающей (живой) информационной системой — её структура непрерывно изменяется, пусть даже на уровне байтов.

Мы склонны игнорировать эти микроскопические изменения, пока не сталкиваемся с последствиями: заканчивается место на дисках, падает пропускная способность, замедляется «метаболизм».

О чём это говорит? Структурные изменения происходят как сверху вниз — например, в результате переосмысления ценностей, — так и снизу вверх — как итог накопленных эффектов протекающих процессов.

Можно задать себе вопрос: насколько хорошо наши модели подходят для анализа влияния изменений (impact analysis)?
3👍2🔥1
Немного визионерства.

Как завершится ЭйАй-трансформация уже совсем скоро?

1. LLM по плану заменит всех сотрудников, но людей для суппорта этой трэшанины нужно будет ещё больше
2. Сотрудников переназовут ЭйАй-партнёрами
3. Отпразднуют успешное завершение трансформации и объявят новый тренд - Омницентричность, где в центре будет и LLM, и его партнёры, в завимости от контекста
😁12👍4👏1
Пелевин в Generation "П" был прав.
😁3💊2👍1
Привнесу новый концепт - Agentic Architecture Compliance (AAC).

Не делал rлубокий research, возможно это название уже кто-то использует, но оно пока не гуглится.

Агенты как комплаенс-контролёры:

- ИИ-агенты анализируют архитектурные решения и код на соответствие стандартам
- Принимают контекстуальные решения, которые не могут быть заложены в статичные правила GaC (Governance as Code).
- Адаптируются к новым паттернам

Против традиционного GaC:

- GaC: Жесткие, предопределенные правила, которые блокируют пайплайн при нарушении
- AAC: Интеллектуальная оценка с учетом контекста, объяснением решений и предложениями по исправлению

Преимущества агентного подхода:

- Трактовка намерений разработчиков, а не только формальных правил
- Способность к обучению на основе предыдущих решений
- Более гибкие исключения для обоснованных случаев
- Интерактивное взаимодействие с разработчиками
👍4🔥2
Вывод после беседы с одним умным собеседником: тренды у нас не рождаются — их импортируют. Российские инфлюенсеры, по большей части, репост-машины.
Так что если хочешь, чтобы что-то новое дошло до наших масс, сначала опубликуй это на Западе и желательно в тандеме с кем-то по фамилии Смит или Джонсон.
💯5🤡4🔥2👍1
Neo4j запустила бесплатную GraphAcademy

Компания Neo4j открыла бесплатную онлайн-академию для изучения графовых баз данных.

В программе курсы для новичков и экспертов - от основ Cypher до интеграции с LLM для создания ИИ-приложений.

Особенно интересно направление по Knowledge Graphs + Generative AI - показывают как графовые базы усиливают возможности больших языковых моделей.

Включает практические задания, сертификацию и даже бесплатную футболку за прохождение тестов.

Хороший способ разобраться с графовыми базами, которые становятся все популярнее в ИИ-проектах.

#Graph #RAG #Neo4j #обучение
------
@tsingular
👍12
В продолжение к предыдущему посту: напомню, Cypher — это язык запросов к графовым базам данных, разработанный Neo4j.

В 2024 году был принят стандарт GQL (Graph Query Language) — первый "официальный язык запросов" к графовым базам, вобравший в себя множество наработок из Cypher: https://www.iso.org/standard/76120.html

Google (Spanner), TigerGraph, Neo4j и другие уже заявили о планах по поддержке GQL — полностью или частично.

Если вы разрабатываете агентов или планируете, настоятельно рекомендую подтянуть навыки работы с графовыми базами данных.

Но сразу предупрежу — этого недостаточно. Чтобы эффективно строить графы знаний, нужно сформировать Graph thinking (его не даст LLM).

Если коротко Graph thinking — это умение:
- видеть информацию как сеть связанных сущностей,
- думать не «где лежит информация», а «как всё связано и что из чего вытекает».
👍11
Intelligent Systems Architecture
В дополнение к предыдущему посту — Часть 2/2: Про практику в архитектуре LLM не рационально использовать в роли "калькулятора", потому что она может ошибиться в вычислениях, особенно в тех, что выходят за рамки простейших и часто встречающихся примеров. Хотя…
Как думают дети и ИИ: параллели

К вопросу о рассуждении и эмерджентных способностях моделей.

По теории Выготского, ребенок в раннем возрасте "думает вслух" (эгоцентрическая речь) — проговаривает свои мысли, не обращаясь к собеседнику. Эта речь помогает организовать и структурировать мышление.

А что с ChatGPT и другими генеративными ИИ? Они "думают в тексте" — рассуждение происходит прямо в процессе генерации слов. Каждое следующее слово влияет на ход рассуждения, формируя поток речи в реальном времени.

Главное сходство: И дети в фазе эгоцентрической речи, и ИИ используют проговаривание как сам процесс мышления.

Мысль не предшествует речи — она формируется в процессе говорения.

Ключевое различие:

Ребенок: Постепенно переходит от эгоцентрической речи к внутренней — учится "думать про себя", сохраняя при этом диалогическую структуру мышления.

ИИ: Остается на стадии "говорения вслух" и не может развить внутренний диалог, который формируется у человека через усвоение социального общения.

Парадокс:

ИИ показывает, что эгоцентрическая речь может быть гораздо более мощным инструментом мышления, чем можно было предположить. Возможно, переход к внутренней речи — не единственный путь развития мышления?

#когнитивнаянаука #ИИ #психология #Выготский
👍10🤔3🔥1😐1
Рекомендация:

Если вы интересуетесь ИИ, советую не игнорировать когнитивную науку. Это наука о том, как человек воспринимает, думает, говорит и понимает.

Без опоры на эти знания трудно всерьёз рассуждать о «мышлении» и «понимании» ИИ.

Книга «Мышление и речь» Льва Выготского — ключевая работа о том, как слово становится мыслью, а мысль — словом.

Выготский показал: мышление не возникает в голове "само по себе" — оно развивается через речь и культуру.

В будущих постах поговорим о том, как сети состояния покоя (Resting-State Neural Networks, RSNs) могут быть соотнесены с фоновым дообучением и самоадаптацией LLM.

#когнитивнаянаука #психология #Выготский #книги
👍9🔥32👎1
Одна из тех статей, на которые скоро начнут опираться R&D-команды: Reasoning RAG via System 1 or System 2: A Survey on Reasoning Agentic Retrieval-Augmented Generation for Industry Challenges (12.06.2025).

📄 https://arxiv.org/abs/2506.10408
💻 https://github.com/ByebyeMonica/Reasoning-Agentic-RAG

Полгода назад в дисскуссии к этому каналу мы затрагивали Систему 1 и Систему 2, и что мы видим: "Perspective of Cognitive Science - System 1 and System 2:
To further contextualize predefined and agentic reasoning within the dual-process theory of cognition—commonly referred to as System 1 and System 2 thinking...
we can draw an analogy between these RAG paradigms and human cognitive modes."

Продолжая мысль из предыдущего поста: без базового понимания когнитивной науки и нейронауки невозможно предсказывать развитие ИИ и понимать, какие мотивы заложены в основу архитектур.
🔥21
Reasoning RAG via System 1 or System 2.pdf
166.5 KB
Поделюсь конспектом этой статьи, где я отметил, хоть и не новые для себя, но созвучные вещи.

Ниже подчеркну отдельные моменты, которые коррелируют с контентом этого канала.

Явное упоминание фрейминга:

"By framing these paradigms through the lens of cognitive systems we highlight the trade-off between efficiency and adaptability, and the growing capacity of agentic RAG to emulate more sophisticated, human-like problem solving."

Как раз этот компромисс мы и обсуждали в дискуссии полгода назад.

Дальнейшее направление исследований:

"Future research should focus on techniques that help agents avoid excessive or unnecessary search queries, select the most promising sources, and know when sufficient information has been gathered."

Графы знаний могут помочь сфокусировать запросы и точно выбирать ресурсы, так как они содержат знания об источниках.

А какова роль онтологий, спросите вы?

Онтологии передают LLM язык вашей организации и «принуждают» её (grounding) рассуждать на вашем языке.

В этом и заключается важнейшая практическая значимость онтологий в контексте Reasoning RAG.
🔥4👍32
Детальное ТЗ — новый код

Чтобы получить отдачу от LLM, одного запроса недостаточно. Нужно расписывать всё до болтов: уточнять цели, формулировать задачу, описывать контекст, ограничения, архитектурные решения, примеры и критерии успешности. Ничего не напоминает?

Иными словами, моделям нужно передать замыслы и знания.

Решение задачи теперь начинается с её описания. Чем яснее и структурированнее вы описали задачу, тем лучше результат.

В этом контексте на первый план выходит моделирование и детальное документирование: онтологии и графы знаний, спецификации, схемы.

То, что в Эждайл откладывается «на никогда», теперь становится критически важным с самого начала.

При этом всё чаще наступает разочарование в Cursor-подобных продуктах. Код пишется легко и быстро, но собрать что-то большее, чем MVP, удаётся редко — и непонятно, как это потом развивать.

На верхнем уровне резко возрастает роль бизнес- и корпоративной архитектуры: моделям нужно передавать не только инструкции, но и бизнес-контекст, знания о процессах и ИТ-ландшафте.

#документирование #ИИвбизнесе #БизнесАрхитектура #архитекторы
1👍8🔥4
Самая распространённая ошибка сегодня — убеждение, которое всё чаще прослеживается в кулуарных разговорах инженеров: «бизнес» считает, что ничего структурировать и описывать не нужно — модели сами всё структурируют и придумают, они и так уже содержат все знания мира.

«Любит — не любит, плюнет — поцелует...»
Помните детскую гадалку?

«Верю - не верю»
Именно так принимаются решения о технологиях - без малейшего представления об их устройстве и применимости.
👍6😁31❤‍🔥1🔥1💯1
Стратегия всегда разворачивается во времени
🔥3💯21👍1🤯1
RAG — не R-A G

Представьте, что LLM — это гениальный, но изолированный мозг. Он знает всё, чему его научили, но отрезан от внешнего мира и актуальной информации. Как заставить его работать с последними, актуальными данными? Ответ — RAG (Retrieval-Augmented Generation).

Но давайте посмотрим на это глубже. Возможно, создатели концепции RAG немного поспешили с названием, сделав упор на векторизацию поиска.

RAG — на самом деле не R-A G, а R A-G

Если абстрагироваться от векторного поиска — так называемого традиционного или векторного RAG — мы увидим, что эта концепция становится гораздо шире, и её название трансформируется из Retrieval-Augmented Generation в Retrieval Augmented-Generation — с другим смысловым акцентом.

Ограниченность традиционного понимания RAG

Классический RAG сводится к схеме: "векторизация → поиск в embedding пространстве → генерация". Но современные AI-системы показывают, что это лишь частный случай более фундаментального принципа.

Реальные агенты на этапе Retrieval выходят за рамки векторного поиска:

- Обращаются к API внешних сервисов
- Выполняют SQL/GQL-запросы к базам данных
- Вызывают специализированные модели и обращаются к другим агентам
- Получают real-time данные из IoT устройств
- Интегрируются с корпоративными системами

Это именно то, что сегодня называют Advanced RAG или Agentic RAG. И это уже мейнстрим в разработке AI-систем.

R A-G как архитектурный императив

1. R (Retrieval) — Фундаментальный шаг. Без качественного получения внешней информации (Retrieval) AI-система обречена на изоляцию. Система должна уметь находить, извлекать и интегрировать информацию из множества источников, понимая не просто слова, а контекст и смысл запроса.

2. A-G (Augmented-Generation) — Генерация с усилением внешними данными. Получив информацию извне, модель (как часть AI-системы) органично интегрирует её в процесс рассуждения. Она дополняет свои базовые знания актуальными данными и усиливает (Augmented) свои рассуждения, создавая точный и контекстуальный ответ. Здесь происходит синтез внутренних знаний, контекста и внешних данных.

Пересмотр концепции RAG приводит к важным изменениям

Влияние на архитектуру:

- Системы проектируются как "открытые" по умолчанию
- Множественные источники данных становятся нормой
- Качество внешних данных — критический фактор успеха

Новые метрики:

- Не только точность генерации, но и релевантность найденной информации
- Скорость получения и качество внешних данных
- Качество синтеза внутренних знаний с внешним контекстом

Итог: Мы признаём, что взаимодействие с внешним миром — первично и неизбежно. Генерация с усилением следует за этим как естественное следствие. RAG эволюционирует из частного технического решения в фундаментальный принцип построения AI-систем.

#RAG #AI #LLM #TechExplained #AgenticAI
🔥9👍64