Intelligent Systems Architecture – Telegram
Intelligent Systems Architecture
1.06K subscribers
29 photos
6 files
54 links
Про архитектуру и принципы построения систем на основе искусственного интеллекта — от моделей до AI-платформ.

Контент в канале защищён авторским правом.

Геннадий Круглов
@GKruglov
Download Telegram
#микросервисы #оркестрация #хореография #DevOps

К дискуссиям о корнях микросервисов, оркестрации с хореографией и DevOps, и их взаимном сочетании.

Существует несколько точек зрения на этот счёт. Некоторые считают, что оркестрация и хореография «появились» благодаря микросервисам, что оркестрация возникла с Кубернетесом, а микросервисы — с DevOps. Коллег, придерживающихся таких взглядов, переубедить практически невозможно, но я всё же выскажу своё мнение.

Оркестрация и хореография — два (и только два) подхода к организации и координации взаимодействия (их можно комбинировать). Эти подходы стали широко известны в контексте SOA, но, возможно, упоминались и ранее в других распределённых архитектурах. Проводил исследование, пытался найти первое упоминание, но пока безуспешно.

С началом массового применения продуктового подхода в начале 2010-х, а также Agile, который стал востребован в продуктовой разработке из-за необходимости в гибкости для тестирования гипотез, пивотов и адаптации в целом, проявились ограничения SOA — точнее, не самой SOA, а существующих оргструктур и PDLC (SOA актуальна и сейчас). В итоге многие стали адаптировать SOA под новые реалии, в том числе и ваш покорный слуга (SOA Certified Architect)

Два инфлюенсера, Льюис и Фаулер, заметили изменения в SOA, решили застолбить за собой тренд и придумали новый архитектурный стиль — микросервисы. В 2014-м году они закрепили это в статье https://martinfowler.com/articles/microservices.html

Затем, в 2015-м году другой инфлюенсер, Сэм Ньюман, написал книгу https://www.amazon.com/Building-Microservices-Designing-Fine-Grained-Systems/dp/1491950358/ — и началось...

Концепция DevOps начала формироваться в конце 2000-х годов, а официально оформилась — в 2009-м году, когда Патрик Дебуа провёл первую конференцию DevOpsDays в Бельгии. Продуктовый подход без DevOps просто не «взлетает». Нужно быстрее выкатывать (продуктовые) инкременты и мониторить «сложное», а микросервисы, к сожалению, именно так это называется, с их мелкой нарезкой делают системы сложнее. Поэтому DevOps также стал очень востребован.

Пруфов со ссылками на первоисточники почти не будет — это уже тянет на статью. Пусть это останется моим персональным мнением.
👍14
Уважаемые друзья!

Предыдущий пост был прощанием с уходящей эрой. В ближайшие годы разработка изменится до неузнаваемости.

Где-то в 2030 году мы увидим:

Gartner:

- Заявит, что в 70% компаний агенты уже внедрены, но ощутимого бизнес-эффекта нет.
- Представит классификацию агентов по степени агентности, а LLM — по размеру.
- Нарисует новые квадранты (из спонсоров).

Полемики:

- «Ваши агенты недостаточно агентные!»
- «Ваши LLM недостаточно большие!»

Неохипстеры:

- Откроют для себя оркестрацию через оркестрацию агентов и будут этому учить как отцы-основатели
- Будут спорить до драки, что лучше: микроагенты или монолитные агенты.

Книги (древние) почти никто читать не будет. Тут не изменится ничего.
😁21👍7🤯1
#оффтоп #изсообщества

Что должен уметь оверквалифицированный специалист в первую очередь?

Мы нередко выполняем работу, результат которой «проявляется» только в будущем. Мы «видим» чуть дальше, потому что понимаем тренды и учитываем массу деталей.

Оверквалифицированным специалистам нужно в первую очередь уметь "продать себя" — объяснить значимость своих решений и действий ещё до того, как появится видимый результат.

Важный момент. Оверквалифицированным специалистам не платят овер. Платят только за то, что нужно прямо сейчас. Мы «несём крест» в своём роде (Art and Science).
👍8🔥4👏1😁1🌚1
Из дискуссии
Forwarded from Eugene Istomin
Думаю, что оставлять свою овер- часть за периметром, "трудоустраивать" её за рамками формальных контрактов и не вносить без запроса.
Открывать своё дело (в любом смысле), писать книгу, диссертацию, вести канал, общаться с людьми - словом, быть свободным человеком, даже если это часть времени, даже если она не приносит денег (в смысле, Luxury).

Овер- это возможность выкупить себя, и быть профессионалом по-выбору, а не по-необходимости. Даже, если это час в день - то это другое качество жизни, чем в тряске найма.
🔥12💯2👍1🤔1
В последнее время в этом канале, посвящённом инженерии, я публиковал посты не по теме. Я пересматриваю своё видение контента в свете стремительных технологических изменений — и новый контент рождается на ходу. Сегодня я ещё не знаю, о чём буду писать завтра, хотя год назад был уверен, что знаю.

Я снова погружён в научные исследования и работаю над докторской диссертацией — и нахожусь в самом эпицентре этих перемен.

В следующих постах расскажу (без раскрытия коммерческой тайны), каким образом полученные результаты могут повлиять на промышленную инженерию.

Начну с демократизации технологий.
4🔥1
#демократизация

Демократизация [пост 1]

Демократизация технологий — это процесс, при котором новые технологии становятся всё более доступными для широкой аудитории, а не только для узкого круга специалистов или крупных компаний.

Рассмотрим демократизацию технологий на примере нейронных сетей.

Первую нейронную сеть мы обучили в Mathcad, когда я учился в аспирантуре, в 2002 году. Спустя некоторое время меня постигло разочарование в нейронках: обучение моделей было трудным, медленным и слабо масштабируемым.

Тогда я ещё не понимал, что для широкого распространения новых технологий должно пройти время — годы, а иногда и десятилетия. Для демократизации должны сложиться соответствующие предпосылки.
👍3
#демократизация

Демократизация [пост 2]

Итак, какую эволюцию прошли нейронные сети, прежде чем любой студент смог начать ими пользоваться.

1. Ранние годы: нейросети — удел учёных

В 1980–90-х нейросети были известны только математикам и исследователям в университетах и научных учреждениях.

- Для создания и обучения моделей нужно было глубоко понимать линейную алгебру, численные методы, теорию оптимизации.
- Обучение на обычных CPU даже простых моделей занимало часы, дни, а иногда и недели.
- Код писали «с нуля» на C/C++, MATLAB или схожих языках — без удобных библиотек.

2. Появление мощных видеокарт (GPU)

- С середины 2000-х стало ясно, что GPU идеально подходят для параллельных вычислений, необходимых для нейросетей.
- NVIDIA начала развивать экосистему CUDA — платформу для запуска вычислений на GPU.
- Однако программировать на CUDA всё ещё было сложно — требовалась высокая квалификация.

3. Эра Python и библиотек

- В 2015–2020 годах появились TensorFlow, PyTorch, Keras — библиотеки с Python-интерфейсом, делающие нейросети доступными даже не-программистам.
- Появились туториалы, курсы, сообщества.
- Началась демократизация нейросетей: теперь программист, студент и вообще любой заинтересованный человек может обучать модели.
👍6
Мы проследили эволюцию нейронных сетей, которая сделала их использование доступным для всех, независимо от уровня квалификации (LLM), а обучение — посильным для каждого заинтересованного.

Ранее я упоминал, что в процессе работы над диссертацией испытал разочарование в нейронных сетях. Причина была не столько в сложности и длительности их обучения, сколько в том, что сами по себе они оказались непригодными для решения моих задач. Работал я тогда над повышением эффективности технических диагностов и видел перспективы в применении методов искусственного интеллекта именно в этой области.

Возникает закономерный вопрос: что же я использовал, если не нейронные сети?

Чтобы ответить на него, давайте совершим небольшой экскурс в историю и вспомним несправедливо забытые направления развития искусственного интеллекта — нейрокибернетику и кибернетику «чёрного ящика».

А затем немного поразмышляем о природе экспертных и рекомендательных систем, а также систем поддержки принятия решений.

Таким образом, я хочу немного забежать вперёд и подвести к тому, над демократизацией чего я сейчас работаю, и что вместе с LLM уже даёт весьма обнадёживающие результаты.
👍5
#оффтоп

Считаю важным привести цитату из книги «Введение в логику и научный метод», Морриса Коэна:

«Как правило, мы делаем выбор между двумя несовместимыми суждениями, выводя следствия из каждого из них и исключая как ложную ту гипотезу, которая приводит к ложным заключениям, т.е. к результатам, не превалирующим в области обозримых фактов
👍2
Формальную онтологию, например на языке OWL с синтаксисом Turtle (точней её TBox, где описываются понятия и связи между ними), можно рассматривать как смысловую метамодель, которая задаёт основу для "умных" моделей — например, моделей предметной области, приложений или данных.

Такие модели можно назвать "умными", потому что онтологии позволяют не просто хранить информацию, но и понимать её смысл, а также выполнять рассуждения (reasoning) — то есть получать новые знания на основе уже описанных.

Продолжая предыдущую тему, стоит сказать, что создание семантических моделей, включая онтологии, можно отнести к кибернетике «чёрного ящика».
🤔2
Важно отметить, что LLM умеют выполнять рассуждения на основе онтологий и делают это весьма неплохо.

А на фронтире (переднем крае исследований) сейчас объединение подходов нейрокибернетики и кибернетики "чёрного ящика" — даже если в публикациях используется другой, зачастую бессистемный, вординг.
👍2
Итак, вернёмся к направлениям развития искусственного интеллекта, нейрокибернетике и кибернетике «чёрного ящика».

Выскажу своё персональное мнение.

Я по-прежнему считаю, что может быть всего два очевидных пути развития искусственного интеллекта (хотя современные классификации уже не укладываются в голове):

1. Нейрокибернетика
Создание искусственного «мозга», вдохновлённое нейрофизиологией. Главное — как устроены нейронные сети, как они обучаются и адаптируются. Это путь современных нейросетей.

2. Кибернетика "чёрного ящика"
Здесь мозг рассматривается как система, поведение которой можно смоделировать, игнорируя её внутреннее устройство. Сюда относятся модели представления знаний, базы знаний и экспертные системы, основанные на формальных описаниях и логических правилах. Это инженерия знаний, а не искусственного «мозга».

Сейчас в тренде — нейросети. Но всё громче звучат голоса в пользу инженерии знаний. И, как я уже писал, будущее ИИ — в объединении этих подходов. Прежде всего потому, что LLM прекрасно справляются с интерпретацией моделей представления знаний, особенно если они хорошо структурированы.

LLM - это элемент, которого раньше так не хватало.
👍5🥴1
Хочу отметить, что базы знаний — это вовсе не то, о чём часто рассказывают на ИТ-конференциях. Здесь речь пойдёт не о псевдоструктурированных вики-страницах, связанными между собой лишь гиперссылками и структурированными, по сути, только в воображении авторов подобных докладов.
👍2🔥1
Forwarded from Eugene Istomin
Мне важно, что доклад на 104 слайда сделан University of Twente, это один из референс-университетов европейского DeepTech.
Очень круто, что академисты двигают онтологию в новом стиле - Giancarlo Guizzardi является Chair of Semantics, Cybersecurity & Services (SCS) в UT.

Вот его страница, лично я ищу людей, компании подтянутся
🔥1
Forwarded from Eugene Istomin
5-6 мая Giancarlo Guizzardi с коллегами был на NASA-related форуме onto:Nexus, смотри как один в один по твоим словам
👍21
Intelligent Systems Architecture
Итак, вернёмся к направлениям развития искусственного интеллекта, нейрокибернетике и кибернетике «чёрного ящика». Выскажу своё персональное мнение. Я по-прежнему считаю, что может быть всего два очевидных пути развития искусственного интеллекта (хотя современные…
Выражу это более современным языком.

Современный взгляд

Сегодня мы наблюдаем слияние двух парадигм: нейронных сетей — статистических машин с вероятностным выводом — и символических систем — с логическим выводом.

Это напоминает работу двух полушарий мозга: левое отвечает за чёткую логику, правое — за ассоциативное мышление, то есть статистику с нечётким соответствием.

Более того, нейро-символическая интеграция уже выделилась в самостоятельное научное направление.

Что это значит для широкой аудитории

- LLM поддерживают креативный, «живой» диалог с пользователем.
- Символические системы (например, онтологии) обеспечивают достоверность и объяснимость вывода.

Что это значит для разработчиков

Пользовательский опыт почти всех программных систем находится на пороге революции, даже если вы не создаёте ассистентов.

Подсказка

Присмотритесь к инструментам вроде Cursor и Windsurf — но не в контексте IDE, а в любых бизнес-доменах. Прибавьте к этому голосовой интерфейс и VR.
5🔥2💯1
Forwarded from DeepTech R&I Board (Eugene Istomin)
На примере software design & development это может звучать так:

На задачах design-to-code вывод Gemini 2.5 Flash сильно отличается от Claude 3.7.
Фокус поставлю не на модели и промты - а на просто факт: осознать новый дизайн, новый набросок рефактора сложно не потому, что не понимаешь логику, а в т.ч. потому, что есть бессознательное сопротивление "вестись" просто так на поток генерации.

В реале мы идём обедать, трём на ходу, за кофе, в переговорках - там утрясаем многое, что напрямую не связано с задачей-дизайном-...
Хорошие модели при хороших промтах дают ускорение, превышающее в моменте возможность его грамотно усвоить (кстати, это один из моментов сопротивления к использованию GenAI в целом).

Какой есть вариант? Класть рядом модель-метамодель-онтологию-.., кто что может.
Это позволяет отображать изменения на более абстрактную - и, одновременно, менее пластичную среду. Она является соглашением между человеком и машиной, и GenAI обязуется менять её на приемлемой для человека-команды-... скорости.

По факту, мгновенный рефактор стал возможен, и прежде чем я "допру" до сути всех изменений, мне нужна абстракция, которую мы с GenAI меняем согласованно - и тогда у меня не возникает отторжения на слоях ниже ("да это же просто другой подход-дизайн-....").

Присмотритесь к инструментам вроде Cursor и Windsurf — но не в контексте IDE, а в любых бизнес-доменах


Главная особенность написанного выше в том, что всё то же самое будет и за пределами софтовой разработки.

Revit, AutoCAD, ...
Photoshop, ....

2025 год - это первый год, в котором (пере)обучение взрослых людей становится драйвером развития.

В культурном коде, который будет защищать людей от (пере)обучения - заранее прописано "обязуемся содержать тебя, хотя-бы как-то".

При всём уважении к любого вида Союзам - образование взрослых людей это их собственная, персональная ответственность.

Modern Design & Development 🤝 Your Personal Growth Team!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Заметки на полях. Про промпты. Кажется, в ближайшее время с нейросетями будет успешно работать тот кто сможет:

1. Концептуализировать процессы, и их алгоритмы
2. Концептуализировать предметную область
3. Ставить корректно задачи

Т.е. генеративные нейросетки не отменят компетентности. Они упростят распознавание лексики. Если с нейросеткой будет работать некомпетентный специалист, его результат ИИ не особо улучшит.

С другой стороны, очевидно, что будет запрос на такие нейросетки, которые смогут учить их пользователя пользоваться нейросетками =)

Отсюда для себя сделаю вывод чему стоит учиться:

1. Разрабатывать целостные, непротиворечивые описания мира
2. Описывать процессы (алгоритмизация)
3. Соблюдать контекст ведения рассуждения
4. Формулировать цели,
5 Декомпозировать цели на задачи
Опубликовал выше два совершенно разных поста моих коллег и соратников по исследованиям. Несмотря на их различие, в обоих выражены схожие идеи — пусть и с разных точек зрения. Эти идеи мне близки, и я полностью их разделяю.
🔥21