Intelligent Systems Architecture – Telegram
Intelligent Systems Architecture
1.05K subscribers
29 photos
6 files
54 links
Про архитектуру и принципы построения систем на основе искусственного интеллекта — от моделей до AI-платформ.

Контент в канале защищён авторским правом.

Геннадий Круглов
@GKruglov
Download Telegram
В дополнение к предыдущему посту — Часть 2/2: Про практику в архитектуре

LLM не рационально использовать в роли "калькулятора", потому что она может ошибиться в вычислениях, особенно в тех, что выходят за рамки простейших и часто встречающихся примеров. Хотя ошибка в сложении '1+1' сегодня действительно крайне маловероятна.

Кроме того, это дорого — токены чего-то стоят, обучение моделей требует затрат, - видеокарты заметно греют воздух.

И уж тем более LLM не следует использовать как замену систем, выполняющих критически важные расчёты — финансовые, инженерные и другие, где на кону могут стоять человеческие жизни и судьбы.

В итоге возникает вопрос: что же делать в эпоху массовой ИИ-трансформации, когда уже сформированы ожидания, будто в архитектуре останутся только LLM и данные, на которые они будут "смотреть"?

Ответ на этот вопрос лежит в гибридных архитектурах. А это уже промышленная — то есть не vibe-, а рациональная архитектура.

Что же касается решения LLM новых задач — этот вопрос стоит обсудить отдельно и затронуть тему эмерджентных способностей моделей.
👍6
Шутка для тех, кто в теме LLM: температура 1.0 — это Гартнер (крепко), 1.5 — это уже Маккинзи (забористо).
😁10🔥2
Forwarded from DeepTech R&I Board (Eugene Istomin)
Возможно, что это будет непонятный пост, пишу как есть:

- онтологии/метамодели/модели это не просто слова, не просто структуры - если грамотно подходить к их дизайну, то там есть и линтеры (автопроверка схемы + сходимости всего написанного), и базовые нерушимые правила, и много того, с чем сталкивается человек, решивший написать свой язык.

Любой DSL (domain-specific language) это не просто yaml/json/... такой-то формат.

Это, в первую очередь язык.
Онтология/метамодель - это язык для выражения (определения, to define) других языков, на базе которых можно будет указать на объекты-меры-данные-явления-... .

- формальные онтологии для класса задач создаются по вполне понятному, чёткому сценарию.
semi-formal создаются итерациями:
1) уменьшая coupling (связанность) и увеличивая cohesion (связность)
2) оптимально распределяя нагрузку абстрагирования
3) всегда держа в уме, что это не строгая математическая/формальная онтология, и её будут использовать живые люди для предметных задач
4) при этом, строя её от The Unified Foundational Ontology (UFO) и создавая с использованием soft formal подхода

- Temporal Triads. В целом, как я открыто говорил с 2017 года, без временного измерения нет никакой архитектуры.

Нет ни одного решения в мире для Cursor/Windsurf/VSCode, которое решало бы задачи design-time.

!!! Все хотят открыть IDE и писать код !!!
Окей, сейчас пишут промты - но откройте любой CAD, и там workflow отличается инженерный.

Я начинаю понимать, почему BIM "зашел", а в софте топом стал вайб-кодинг.

Чисто мысленное упражнение на ночь )
Попробуйте себя представить живущим в доме, созданном вайб- арх.бюро.
Или школу, созданную вайб-архитектором.

Инженерный подход в software design будет развиваться, в том числе как оппозиция, как контраст vibe-подходу.

Канал Industrial Software Architecture затрагивает многие из тем, которые я описал, присоединяйтесь!

VEX³ Ontology 🤝 Your Personal Growth Team!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥51👍1
DeepTech R&I Board
Возможно, что это будет непонятный пост, пишу как есть: - онтологии/метамодели/модели это не просто слова, не просто структуры - если грамотно подходить к их дизайну, то там есть и линтеры (автопроверка схемы + сходимости всего написанного), и базовые нерушимые…
Прокомменрирую пост Жени Истомина.

Структурный и темпоральный аспекты систем.

Любая «живая» система имеет структуру и подвержена изменениям во времени (темпоральность).

Такие системы можно представить как живые организмы, где структура — это строение тела, а время — поток жизни.

Состояние — это снимок, показывающий, как устроена система в данное мгновение (вплоть до атомов).

Состояние системы можно рассматривать как своего рода мост между структурным и темпоральным аспектами системы.

Напомню, структура — это конфигурация элементов системы и отношений между ними. Она определяет, что представляет собой каждый элемент и как элементы связаны между собой, в отличие от процессов, которые описывают что происходит во времени.

Пример: В организме структура — это анатомия (строение тела), а процессы — это метаболизм, рост, старение.

Человек из-за ограниченных когнитивных способностей не может одновременно охватить все элементы системы (вплоть до мельчайших деталей) и их взаимосвязи. Поэтому мы разделяем структуру системы на разные (вложенные) структуры, выстраиваем иерархии и рассматриваем систему по частям — на разных уровнях абстракции.

В (социотехнических) software-intensive системах, например, можно выделить, как минимум, следующие типы структур:

- Ценностная - кому и какую ценность приносит система;
- Организационная — кто за что отвечает;
- Коммуникационная — кто с кем и по каким каналам взаимодействует;
- Функциональная — какие подсистемы какие функции выполняют;
- Структура данных - какие функции какими данными манипулируют;
- Конструктивная — какие компоненты какие функции воплощают;
- Инфраструктурная (или размещения) — на какой инфраструктуре какие компоненты развёрнуты.

Все эти структуры изменяются со временем и у каждой есть текущее, прошлые и будущие состояния.

Темпоральный аспект проявляется через временные последовательности — такие как алгоритмы и сценарии процессов. Алгоритмы и сценарии при этом не просто фиксируют порядок действий, но и определяют внутреннюю логику и закономерности изменения системы.

Следовательно, модели (включая архитектуру) систем должны учитывать не только их статичные структуры, но и временной аспект.
🔥4
Процессы, протекающие в системе, непрерывно изменяют её структуру хотя бы на микроуровне.

Наш организм меняется непрерывно: состав молекул и их связи обновляются каждое мгновение.

То же самое происходит и с работающей (живой) информационной системой — её структура непрерывно изменяется, пусть даже на уровне байтов.

Мы склонны игнорировать эти микроскопические изменения, пока не сталкиваемся с последствиями: заканчивается место на дисках, падает пропускная способность, замедляется «метаболизм».

О чём это говорит? Структурные изменения происходят как сверху вниз — например, в результате переосмысления ценностей, — так и снизу вверх — как итог накопленных эффектов протекающих процессов.

Можно задать себе вопрос: насколько хорошо наши модели подходят для анализа влияния изменений (impact analysis)?
3👍2🔥1
Немного визионерства.

Как завершится ЭйАй-трансформация уже совсем скоро?

1. LLM по плану заменит всех сотрудников, но людей для суппорта этой трэшанины нужно будет ещё больше
2. Сотрудников переназовут ЭйАй-партнёрами
3. Отпразднуют успешное завершение трансформации и объявят новый тренд - Омницентричность, где в центре будет и LLM, и его партнёры, в завимости от контекста
😁12👍4👏1
Пелевин в Generation "П" был прав.
😁3💊2👍1
Привнесу новый концепт - Agentic Architecture Compliance (AAC).

Не делал rлубокий research, возможно это название уже кто-то использует, но оно пока не гуглится.

Агенты как комплаенс-контролёры:

- ИИ-агенты анализируют архитектурные решения и код на соответствие стандартам
- Принимают контекстуальные решения, которые не могут быть заложены в статичные правила GaC (Governance as Code).
- Адаптируются к новым паттернам

Против традиционного GaC:

- GaC: Жесткие, предопределенные правила, которые блокируют пайплайн при нарушении
- AAC: Интеллектуальная оценка с учетом контекста, объяснением решений и предложениями по исправлению

Преимущества агентного подхода:

- Трактовка намерений разработчиков, а не только формальных правил
- Способность к обучению на основе предыдущих решений
- Более гибкие исключения для обоснованных случаев
- Интерактивное взаимодействие с разработчиками
👍4🔥2
Вывод после беседы с одним умным собеседником: тренды у нас не рождаются — их импортируют. Российские инфлюенсеры, по большей части, репост-машины.
Так что если хочешь, чтобы что-то новое дошло до наших масс, сначала опубликуй это на Западе и желательно в тандеме с кем-то по фамилии Смит или Джонсон.
💯5🤡4🔥2👍1
Neo4j запустила бесплатную GraphAcademy

Компания Neo4j открыла бесплатную онлайн-академию для изучения графовых баз данных.

В программе курсы для новичков и экспертов - от основ Cypher до интеграции с LLM для создания ИИ-приложений.

Особенно интересно направление по Knowledge Graphs + Generative AI - показывают как графовые базы усиливают возможности больших языковых моделей.

Включает практические задания, сертификацию и даже бесплатную футболку за прохождение тестов.

Хороший способ разобраться с графовыми базами, которые становятся все популярнее в ИИ-проектах.

#Graph #RAG #Neo4j #обучение
------
@tsingular
👍12
В продолжение к предыдущему посту: напомню, Cypher — это язык запросов к графовым базам данных, разработанный Neo4j.

В 2024 году был принят стандарт GQL (Graph Query Language) — первый "официальный язык запросов" к графовым базам, вобравший в себя множество наработок из Cypher: https://www.iso.org/standard/76120.html

Google (Spanner), TigerGraph, Neo4j и другие уже заявили о планах по поддержке GQL — полностью или частично.

Если вы разрабатываете агентов или планируете, настоятельно рекомендую подтянуть навыки работы с графовыми базами данных.

Но сразу предупрежу — этого недостаточно. Чтобы эффективно строить графы знаний, нужно сформировать Graph thinking (его не даст LLM).

Если коротко Graph thinking — это умение:
- видеть информацию как сеть связанных сущностей,
- думать не «где лежит информация», а «как всё связано и что из чего вытекает».
👍11
Intelligent Systems Architecture
В дополнение к предыдущему посту — Часть 2/2: Про практику в архитектуре LLM не рационально использовать в роли "калькулятора", потому что она может ошибиться в вычислениях, особенно в тех, что выходят за рамки простейших и часто встречающихся примеров. Хотя…
Как думают дети и ИИ: параллели

К вопросу о рассуждении и эмерджентных способностях моделей.

По теории Выготского, ребенок в раннем возрасте "думает вслух" (эгоцентрическая речь) — проговаривает свои мысли, не обращаясь к собеседнику. Эта речь помогает организовать и структурировать мышление.

А что с ChatGPT и другими генеративными ИИ? Они "думают в тексте" — рассуждение происходит прямо в процессе генерации слов. Каждое следующее слово влияет на ход рассуждения, формируя поток речи в реальном времени.

Главное сходство: И дети в фазе эгоцентрической речи, и ИИ используют проговаривание как сам процесс мышления.

Мысль не предшествует речи — она формируется в процессе говорения.

Ключевое различие:

Ребенок: Постепенно переходит от эгоцентрической речи к внутренней — учится "думать про себя", сохраняя при этом диалогическую структуру мышления.

ИИ: Остается на стадии "говорения вслух" и не может развить внутренний диалог, который формируется у человека через усвоение социального общения.

Парадокс:

ИИ показывает, что эгоцентрическая речь может быть гораздо более мощным инструментом мышления, чем можно было предположить. Возможно, переход к внутренней речи — не единственный путь развития мышления?

#когнитивнаянаука #ИИ #психология #Выготский
👍10🤔3🔥1😐1
Рекомендация:

Если вы интересуетесь ИИ, советую не игнорировать когнитивную науку. Это наука о том, как человек воспринимает, думает, говорит и понимает.

Без опоры на эти знания трудно всерьёз рассуждать о «мышлении» и «понимании» ИИ.

Книга «Мышление и речь» Льва Выготского — ключевая работа о том, как слово становится мыслью, а мысль — словом.

Выготский показал: мышление не возникает в голове "само по себе" — оно развивается через речь и культуру.

В будущих постах поговорим о том, как сети состояния покоя (Resting-State Neural Networks, RSNs) могут быть соотнесены с фоновым дообучением и самоадаптацией LLM.

#когнитивнаянаука #психология #Выготский #книги
👍9🔥32👎1
Одна из тех статей, на которые скоро начнут опираться R&D-команды: Reasoning RAG via System 1 or System 2: A Survey on Reasoning Agentic Retrieval-Augmented Generation for Industry Challenges (12.06.2025).

📄 https://arxiv.org/abs/2506.10408
💻 https://github.com/ByebyeMonica/Reasoning-Agentic-RAG

Полгода назад в дисскуссии к этому каналу мы затрагивали Систему 1 и Систему 2, и что мы видим: "Perspective of Cognitive Science - System 1 and System 2:
To further contextualize predefined and agentic reasoning within the dual-process theory of cognition—commonly referred to as System 1 and System 2 thinking...
we can draw an analogy between these RAG paradigms and human cognitive modes."

Продолжая мысль из предыдущего поста: без базового понимания когнитивной науки и нейронауки невозможно предсказывать развитие ИИ и понимать, какие мотивы заложены в основу архитектур.
🔥21
Reasoning RAG via System 1 or System 2.pdf
166.5 KB
Поделюсь конспектом этой статьи, где я отметил, хоть и не новые для себя, но созвучные вещи.

Ниже подчеркну отдельные моменты, которые коррелируют с контентом этого канала.

Явное упоминание фрейминга:

"By framing these paradigms through the lens of cognitive systems we highlight the trade-off between efficiency and adaptability, and the growing capacity of agentic RAG to emulate more sophisticated, human-like problem solving."

Как раз этот компромисс мы и обсуждали в дискуссии полгода назад.

Дальнейшее направление исследований:

"Future research should focus on techniques that help agents avoid excessive or unnecessary search queries, select the most promising sources, and know when sufficient information has been gathered."

Графы знаний могут помочь сфокусировать запросы и точно выбирать ресурсы, так как они содержат знания об источниках.

А какова роль онтологий, спросите вы?

Онтологии передают LLM язык вашей организации и «принуждают» её (grounding) рассуждать на вашем языке.

В этом и заключается важнейшая практическая значимость онтологий в контексте Reasoning RAG.
🔥4👍32
Детальное ТЗ — новый код

Чтобы получить отдачу от LLM, одного запроса недостаточно. Нужно расписывать всё до болтов: уточнять цели, формулировать задачу, описывать контекст, ограничения, архитектурные решения, примеры и критерии успешности. Ничего не напоминает?

Иными словами, моделям нужно передать замыслы и знания.

Решение задачи теперь начинается с её описания. Чем яснее и структурированнее вы описали задачу, тем лучше результат.

В этом контексте на первый план выходит моделирование и детальное документирование: онтологии и графы знаний, спецификации, схемы.

То, что в Эждайл откладывается «на никогда», теперь становится критически важным с самого начала.

При этом всё чаще наступает разочарование в Cursor-подобных продуктах. Код пишется легко и быстро, но собрать что-то большее, чем MVP, удаётся редко — и непонятно, как это потом развивать.

На верхнем уровне резко возрастает роль бизнес- и корпоративной архитектуры: моделям нужно передавать не только инструкции, но и бизнес-контекст, знания о процессах и ИТ-ландшафте.

#документирование #ИИвбизнесе #БизнесАрхитектура #архитекторы
1👍8🔥4
Самая распространённая ошибка сегодня — убеждение, которое всё чаще прослеживается в кулуарных разговорах инженеров: «бизнес» считает, что ничего структурировать и описывать не нужно — модели сами всё структурируют и придумают, они и так уже содержат все знания мира.

«Любит — не любит, плюнет — поцелует...»
Помните детскую гадалку?

«Верю - не верю»
Именно так принимаются решения о технологиях - без малейшего представления об их устройстве и применимости.
👍6😁31❤‍🔥1🔥1💯1