Intelligent Systems Architecture – Telegram
Intelligent Systems Architecture
1.05K subscribers
29 photos
6 files
54 links
Про архитектуру и принципы построения систем на основе искусственного интеллекта — от моделей до AI-платформ.

Контент в канале защищён авторским правом.

Геннадий Круглов
@GKruglov
Download Telegram
#демократизация

Демократизация [пост 2]

Итак, какую эволюцию прошли нейронные сети, прежде чем любой студент смог начать ими пользоваться.

1. Ранние годы: нейросети — удел учёных

В 1980–90-х нейросети были известны только математикам и исследователям в университетах и научных учреждениях.

- Для создания и обучения моделей нужно было глубоко понимать линейную алгебру, численные методы, теорию оптимизации.
- Обучение на обычных CPU даже простых моделей занимало часы, дни, а иногда и недели.
- Код писали «с нуля» на C/C++, MATLAB или схожих языках — без удобных библиотек.

2. Появление мощных видеокарт (GPU)

- С середины 2000-х стало ясно, что GPU идеально подходят для параллельных вычислений, необходимых для нейросетей.
- NVIDIA начала развивать экосистему CUDA — платформу для запуска вычислений на GPU.
- Однако программировать на CUDA всё ещё было сложно — требовалась высокая квалификация.

3. Эра Python и библиотек

- В 2015–2020 годах появились TensorFlow, PyTorch, Keras — библиотеки с Python-интерфейсом, делающие нейросети доступными даже не-программистам.
- Появились туториалы, курсы, сообщества.
- Началась демократизация нейросетей: теперь программист, студент и вообще любой заинтересованный человек может обучать модели.
👍6
Мы проследили эволюцию нейронных сетей, которая сделала их использование доступным для всех, независимо от уровня квалификации (LLM), а обучение — посильным для каждого заинтересованного.

Ранее я упоминал, что в процессе работы над диссертацией испытал разочарование в нейронных сетях. Причина была не столько в сложности и длительности их обучения, сколько в том, что сами по себе они оказались непригодными для решения моих задач. Работал я тогда над повышением эффективности технических диагностов и видел перспективы в применении методов искусственного интеллекта именно в этой области.

Возникает закономерный вопрос: что же я использовал, если не нейронные сети?

Чтобы ответить на него, давайте совершим небольшой экскурс в историю и вспомним несправедливо забытые направления развития искусственного интеллекта — нейрокибернетику и кибернетику «чёрного ящика».

А затем немного поразмышляем о природе экспертных и рекомендательных систем, а также систем поддержки принятия решений.

Таким образом, я хочу немного забежать вперёд и подвести к тому, над демократизацией чего я сейчас работаю, и что вместе с LLM уже даёт весьма обнадёживающие результаты.
👍5
#оффтоп

Считаю важным привести цитату из книги «Введение в логику и научный метод», Морриса Коэна:

«Как правило, мы делаем выбор между двумя несовместимыми суждениями, выводя следствия из каждого из них и исключая как ложную ту гипотезу, которая приводит к ложным заключениям, т.е. к результатам, не превалирующим в области обозримых фактов
👍2
Формальную онтологию, например на языке OWL с синтаксисом Turtle (точней её TBox, где описываются понятия и связи между ними), можно рассматривать как смысловую метамодель, которая задаёт основу для "умных" моделей — например, моделей предметной области, приложений или данных.

Такие модели можно назвать "умными", потому что онтологии позволяют не просто хранить информацию, но и понимать её смысл, а также выполнять рассуждения (reasoning) — то есть получать новые знания на основе уже описанных.

Продолжая предыдущую тему, стоит сказать, что создание семантических моделей, включая онтологии, можно отнести к кибернетике «чёрного ящика».
🤔2
Важно отметить, что LLM умеют выполнять рассуждения на основе онтологий и делают это весьма неплохо.

А на фронтире (переднем крае исследований) сейчас объединение подходов нейрокибернетики и кибернетики "чёрного ящика" — даже если в публикациях используется другой, зачастую бессистемный, вординг.
👍2
Итак, вернёмся к направлениям развития искусственного интеллекта, нейрокибернетике и кибернетике «чёрного ящика».

Выскажу своё персональное мнение.

Я по-прежнему считаю, что может быть всего два очевидных пути развития искусственного интеллекта (хотя современные классификации уже не укладываются в голове):

1. Нейрокибернетика
Создание искусственного «мозга», вдохновлённое нейрофизиологией. Главное — как устроены нейронные сети, как они обучаются и адаптируются. Это путь современных нейросетей.

2. Кибернетика "чёрного ящика"
Здесь мозг рассматривается как система, поведение которой можно смоделировать, игнорируя её внутреннее устройство. Сюда относятся модели представления знаний, базы знаний и экспертные системы, основанные на формальных описаниях и логических правилах. Это инженерия знаний, а не искусственного «мозга».

Сейчас в тренде — нейросети. Но всё громче звучат голоса в пользу инженерии знаний. И, как я уже писал, будущее ИИ — в объединении этих подходов. Прежде всего потому, что LLM прекрасно справляются с интерпретацией моделей представления знаний, особенно если они хорошо структурированы.

LLM - это элемент, которого раньше так не хватало.
👍5🥴1
Хочу отметить, что базы знаний — это вовсе не то, о чём часто рассказывают на ИТ-конференциях. Здесь речь пойдёт не о псевдоструктурированных вики-страницах, связанными между собой лишь гиперссылками и структурированными, по сути, только в воображении авторов подобных докладов.
👍2🔥1
Forwarded from Eugene Istomin
Мне важно, что доклад на 104 слайда сделан University of Twente, это один из референс-университетов европейского DeepTech.
Очень круто, что академисты двигают онтологию в новом стиле - Giancarlo Guizzardi является Chair of Semantics, Cybersecurity & Services (SCS) в UT.

Вот его страница, лично я ищу людей, компании подтянутся
🔥1
Forwarded from Eugene Istomin
5-6 мая Giancarlo Guizzardi с коллегами был на NASA-related форуме onto:Nexus, смотри как один в один по твоим словам
👍21
Intelligent Systems Architecture
Итак, вернёмся к направлениям развития искусственного интеллекта, нейрокибернетике и кибернетике «чёрного ящика». Выскажу своё персональное мнение. Я по-прежнему считаю, что может быть всего два очевидных пути развития искусственного интеллекта (хотя современные…
Выражу это более современным языком.

Современный взгляд

Сегодня мы наблюдаем слияние двух парадигм: нейронных сетей — статистических машин с вероятностным выводом — и символических систем — с логическим выводом.

Это напоминает работу двух полушарий мозга: левое отвечает за чёткую логику, правое — за ассоциативное мышление, то есть статистику с нечётким соответствием.

Более того, нейро-символическая интеграция уже выделилась в самостоятельное научное направление.

Что это значит для широкой аудитории

- LLM поддерживают креативный, «живой» диалог с пользователем.
- Символические системы (например, онтологии) обеспечивают достоверность и объяснимость вывода.

Что это значит для разработчиков

Пользовательский опыт почти всех программных систем находится на пороге революции, даже если вы не создаёте ассистентов.

Подсказка

Присмотритесь к инструментам вроде Cursor и Windsurf — но не в контексте IDE, а в любых бизнес-доменах. Прибавьте к этому голосовой интерфейс и VR.
5🔥2💯1
Forwarded from DeepTech R&I Board (Eugene Istomin)
На примере software design & development это может звучать так:

На задачах design-to-code вывод Gemini 2.5 Flash сильно отличается от Claude 3.7.
Фокус поставлю не на модели и промты - а на просто факт: осознать новый дизайн, новый набросок рефактора сложно не потому, что не понимаешь логику, а в т.ч. потому, что есть бессознательное сопротивление "вестись" просто так на поток генерации.

В реале мы идём обедать, трём на ходу, за кофе, в переговорках - там утрясаем многое, что напрямую не связано с задачей-дизайном-...
Хорошие модели при хороших промтах дают ускорение, превышающее в моменте возможность его грамотно усвоить (кстати, это один из моментов сопротивления к использованию GenAI в целом).

Какой есть вариант? Класть рядом модель-метамодель-онтологию-.., кто что может.
Это позволяет отображать изменения на более абстрактную - и, одновременно, менее пластичную среду. Она является соглашением между человеком и машиной, и GenAI обязуется менять её на приемлемой для человека-команды-... скорости.

По факту, мгновенный рефактор стал возможен, и прежде чем я "допру" до сути всех изменений, мне нужна абстракция, которую мы с GenAI меняем согласованно - и тогда у меня не возникает отторжения на слоях ниже ("да это же просто другой подход-дизайн-....").

Присмотритесь к инструментам вроде Cursor и Windsurf — но не в контексте IDE, а в любых бизнес-доменах


Главная особенность написанного выше в том, что всё то же самое будет и за пределами софтовой разработки.

Revit, AutoCAD, ...
Photoshop, ....

2025 год - это первый год, в котором (пере)обучение взрослых людей становится драйвером развития.

В культурном коде, который будет защищать людей от (пере)обучения - заранее прописано "обязуемся содержать тебя, хотя-бы как-то".

При всём уважении к любого вида Союзам - образование взрослых людей это их собственная, персональная ответственность.

Modern Design & Development 🤝 Your Personal Growth Team!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Заметки на полях. Про промпты. Кажется, в ближайшее время с нейросетями будет успешно работать тот кто сможет:

1. Концептуализировать процессы, и их алгоритмы
2. Концептуализировать предметную область
3. Ставить корректно задачи

Т.е. генеративные нейросетки не отменят компетентности. Они упростят распознавание лексики. Если с нейросеткой будет работать некомпетентный специалист, его результат ИИ не особо улучшит.

С другой стороны, очевидно, что будет запрос на такие нейросетки, которые смогут учить их пользователя пользоваться нейросетками =)

Отсюда для себя сделаю вывод чему стоит учиться:

1. Разрабатывать целостные, непротиворечивые описания мира
2. Описывать процессы (алгоритмизация)
3. Соблюдать контекст ведения рассуждения
4. Формулировать цели,
5 Декомпозировать цели на задачи
Опубликовал выше два совершенно разных поста моих коллег и соратников по исследованиям. Несмотря на их различие, в обоих выражены схожие идеи — пусть и с разных точек зрения. Эти идеи мне близки, и я полностью их разделяю.
🔥21
Системное_мышление_обзор_определений_и_концепций.pdf
147.1 KB
Начинаю делиться обзорами, которые делаю для себя с помощью инструментов Deep Research от Gemini и Claude.

В этом посте — обзор «Системное мышление: обзор определений и концепций».

В этом обзоре подчёркивается значимость понимания структур — теме, которой мы уже немало внимания уделяли выше в канале.

От себя хочу добавить: архитекторы, по сути, синтезируют структуры, которые во многом определяют будущие характеристики систем — в первую очередь их способность к развитию.

Из всего отчёта приведу лишь одну цитату (хотя и остальная часть текста, на мой взгляд, заслуживает внимания):

"Ричмонд (Richmond) предлагает определение, описывая системное мышление как "the art and science of making reliable inferences about behavior by developing an increasingly deep understanding of underlying structure". Он подчеркивает важность понимания того, что "structure drives behavior".
👍4🔥21
Применение_Фрейминга_и_Рефрейминга_в_Инженерной_Практике.pdf
183.1 KB
В обсуждении канала мы вскользь затронули тему семантики в онтологиях, где я высказал тезис: семантика — это всегда осмысленная интерпретация.

В продолжение этой мысли, в этом посте я делюсь кратким обзором из моего небольшого исследования «Применение фрейминга и рефрейминга в инженерной практике», где поднимается вопрос: как можно целенаправленно влиять на интерпретацию.
👍4🔥2👏1
А чего ты расплываешься по древу знаний? Какая связь между твоими постами? Сам-то ты фреймингом пользуешься?» — спросите вы. А кто-то, решив, что автор — городской сумасшедший, просто отпишется от канала.

Но связь есть, и вот она:

1. В ближайшем будущем моделям (в первую очередь LLM) придётся передавать семантику ваших предметных областей — парадоксально, ведь LLM уже “содержат все знания мира”, — но без этого, как и сейчас, результаты будут неутешительны.

2. Формальные онтологии — точный и мощный инструмент для выражения семантики предметных областей и передачи её между интеллектами — как человеческими, так и искусственными.

3. Даже понять важные структуры систем без системного мышления не возможно.

4. Без понимания структур систем невозможно осознанно применять фрейминг.

5. Без фрейминга не получится эффективно управлять контекстом и вниманием — ни своим, ни моделей.

6. Сейчас я разрабатываю метод концептуализации (построения онтологий), который, помимо прочего, существенно упростит фрейминг контекстов и управление вниманием.
👍6🔥4🫡1🆒1
LLM и логика: видимость мышления или настоящее понимание?

Бенчмарки действительно показывают, что LLM становятся все лучше в решении задач, которые мы классифицируем как "логические".

Разберёмся, почему это так, и в чём принципиальные ограничения таких моделей по сравнению с классическими символьными (логическими) системами при выполнении формального логического вывода.

LLM обучаются на огромных объемах текста. Этот текст включает в себя бесчисленное множество примеров рассуждений, аргументов, математических доказательств, описаний логических головоломок и их решений.

Модели учатся распознавать синтаксические и семантические паттерны, характерные для логических рассуждений.

Улучшение на бенчмарках часто означает, что модель стала лучше распознавать эти паттерны, даже в сложных и запутанных формах, и генерировать текст, который соответствует ожидаемому "логическому" результату.

Вместо того чтобы следовать строгим правилам логического вывода (как это делают, например, OWL-reasoners ), LLM развивают своего рода "статистическую интуицию". Если в обучающих данных определённые типы посылок часто приводят к определённым выводам, модель начинает считать такую связь высоковероятной.

Это можно сравнить с тем, как опытный врач ставит диагноз на основе симптомов, опираясь на тысячекратный опыт наблюдений, — он не всегда проходит весь путь строгой дифференциальной диагностики, но часто оказывается прав. Однако такой подход не защищает от ошибок в нетипичных или новых случаях

Представьте себе студента, который вызубрил решения тысяч математических задач, но не до конца понял фундаментальные теоремы. Он может отлично решать задачи, похожие на те, что он видел, и даже показывать "шаги решения", которые он запомнил. Но если дать ему совершенно новую задачу, требующую глубокого понимания и применения теорем в нестандартной ситуации, он может ошибиться. В то же время, математик, вооруженный формальным аппаратом, сможет решить эту новую задачу, пусть и медленнее.

Именно так и работает LLM.
👍8👏1
В дополнение к предыдущему посту — Часть 1/2: Про “понимание” в LLM

LLM учится ассоциировать определенные входные последовательности с определенными выходными последовательностями, которые часто встречались вместе в обучающих данных.

Основная задача LLM — предсказать следующий токен в последовательности. Когда модель многократно встречает последовательность "1 + 1 =", она замечает, что статистически наиболее вероятным следующим токеном является "2".

Распознавание паттернов:

Модель не "вычисляет" сумму. Она распознает текстовый паттерн. "1 + 1 =" — это для нее такой же паттерн, как "столица Франции -" (после чего наиболее вероятным будет "Париж").

Обобщение (в некоторой степени):

Помимо запоминания конкретного примера "1 + 1 = 2", модель также видит множество других арифметических примеров: "2 + 2 = 4", "5 - 3 = 2", "2 * 3 = 6" и т.д. Это позволяет ей выучить более общие паттерны, связанные с математическими операциями в текстовом виде.

Однако это обобщение все еще основано на текстовых паттернах, а не на понимании математических аксиом.

Что важно понимать:

Это не математическое "понимание": LLM не "понимает" концепцию числа или операции сложения так, как человек. Она просто знает, что после текстовой строки "1 + 1 =" с очень высокой вероятностью должна идти текстовая строка "2".
👍72👏1💯1
В дополнение к предыдущему посту — Часть 2/2: Про практику в архитектуре

LLM не рационально использовать в роли "калькулятора", потому что она может ошибиться в вычислениях, особенно в тех, что выходят за рамки простейших и часто встречающихся примеров. Хотя ошибка в сложении '1+1' сегодня действительно крайне маловероятна.

Кроме того, это дорого — токены чего-то стоят, обучение моделей требует затрат, - видеокарты заметно греют воздух.

И уж тем более LLM не следует использовать как замену систем, выполняющих критически важные расчёты — финансовые, инженерные и другие, где на кону могут стоять человеческие жизни и судьбы.

В итоге возникает вопрос: что же делать в эпоху массовой ИИ-трансформации, когда уже сформированы ожидания, будто в архитектуре останутся только LLM и данные, на которые они будут "смотреть"?

Ответ на этот вопрос лежит в гибридных архитектурах. А это уже промышленная — то есть не vibe-, а рациональная архитектура.

Что же касается решения LLM новых задач — этот вопрос стоит обсудить отдельно и затронуть тему эмерджентных способностей моделей.
👍6
Шутка для тех, кто в теме LLM: температура 1.0 — это Гартнер (крепко), 1.5 — это уже Маккинзи (забористо).
😁10🔥2