ИИ уничтожает университет и само обучение
Искусственный интеллект стремительно разрушает высшее образование, превращая его в пустую формальность.
Студенты пишут работы с помощью ЧатГПТ, преподаватели оценивают их теми же инструментами, дипломы теряют смысл, а технологические компании получают миллионы.
В крупнейшей публичной университетской системе США (CSU, 23 кампуса, почти полмиллиона студентов) одновременно сокращают сотни преподавателей, ликвидируют целые программы (философию, экономику, физику, гендерные исследования) и заключают контракт на 17 миллионов долларов с OpenAI, раздавая всем бесплатный ChatGPT Edu. Деньги уходят корпорации, а людей увольняют.
Университет давно превратился в бизнес: знания — товар, студенты — потребители, образование — услуга. Партнёрство с OpenAI — это финальная стадия приватизации: публичные вузы становятся филиалами частных техгигантов.
ИИ не просто «инструмент». Он меняет саму природу мышления: студенты учатся грамотно формулировать запросы, а не думать; преподаватели перекладывают на алгоритмы лекции и оценку; администрация празднует «эффективность», на деле уничтожая обучение. Появляется «когнитивный долг»: мозг атрофируется, человек теряет способность самостоятельно рассуждать.
Чтение превращается в симуляцию, критическое мышление — в устаревшую роскошь, университет — в фабрику по выдаче ничего не значащих дипломов.
Обман перестаёт быть нарушением — он становится бизнес-моделью (стартапы открыто продают «умное читерство», университеты раздают инструменты для него).
Рабочие, мигрантские, первопоколенные студенты часто отказываются пользоваться ЧатГПТ: они платят огромные деньги именно за настоящее обучение, а не за автоматизированную подделку. Сопротивление идёт снизу — от студентов и преподавателей, а не от администраций.
В итоге университет перестаёт быть местом, где формируется самостоятельная мысль, и превращается в дорогой сервис по прокси-мышлению под брендом OpenAI. Образование, которое когда-то было пространством поиска смысла, объявлено неэффективным и ликвидировано ради «масштабируемости» и корпоративной прибыли.
https://www.currentaffairs.org/news/ai-is-destroying-the-university-and-learning-itself
Искусственный интеллект стремительно разрушает высшее образование, превращая его в пустую формальность.
Студенты пишут работы с помощью ЧатГПТ, преподаватели оценивают их теми же инструментами, дипломы теряют смысл, а технологические компании получают миллионы.
В крупнейшей публичной университетской системе США (CSU, 23 кампуса, почти полмиллиона студентов) одновременно сокращают сотни преподавателей, ликвидируют целые программы (философию, экономику, физику, гендерные исследования) и заключают контракт на 17 миллионов долларов с OpenAI, раздавая всем бесплатный ChatGPT Edu. Деньги уходят корпорации, а людей увольняют.
Университет давно превратился в бизнес: знания — товар, студенты — потребители, образование — услуга. Партнёрство с OpenAI — это финальная стадия приватизации: публичные вузы становятся филиалами частных техгигантов.
ИИ не просто «инструмент». Он меняет саму природу мышления: студенты учатся грамотно формулировать запросы, а не думать; преподаватели перекладывают на алгоритмы лекции и оценку; администрация празднует «эффективность», на деле уничтожая обучение. Появляется «когнитивный долг»: мозг атрофируется, человек теряет способность самостоятельно рассуждать.
Чтение превращается в симуляцию, критическое мышление — в устаревшую роскошь, университет — в фабрику по выдаче ничего не значащих дипломов.
Обман перестаёт быть нарушением — он становится бизнес-моделью (стартапы открыто продают «умное читерство», университеты раздают инструменты для него).
Рабочие, мигрантские, первопоколенные студенты часто отказываются пользоваться ЧатГПТ: они платят огромные деньги именно за настоящее обучение, а не за автоматизированную подделку. Сопротивление идёт снизу — от студентов и преподавателей, а не от администраций.
В итоге университет перестаёт быть местом, где формируется самостоятельная мысль, и превращается в дорогой сервис по прокси-мышлению под брендом OpenAI. Образование, которое когда-то было пространством поиска смысла, объявлено неэффективным и ликвидировано ради «масштабируемости» и корпоративной прибыли.
https://www.currentaffairs.org/news/ai-is-destroying-the-university-and-learning-itself
www.currentaffairs.org
AI is Destroying the University and Learning Itself
Students use AI to write papers, professors use AI to grade them, degrees become meaningless, and tech companies make fortunes. Welcome to the death of higher education.
🔥6❤3😁1
Похоже, маразм Татьяны Черниговской крепчает, хотя, казалось бы, куда уж дальше.
И еще заметил, что она часто упоминает Канта, но ни разу не сказала о нем ничего по существу; просто: Кант — лучший философ земли, вы, конечно, не читали. И все.
И еще заметил, что она часто упоминает Канта, но ни разу не сказала о нем ничего по существу; просто: Кант — лучший философ земли, вы, конечно, не читали. И все.
👍1👌1
Forwarded from Нейропсихология
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👌1
И тут же зоозащитники Екатеринбурга превзошли своим маразмом даже Татьяну Черниговскую
https://habr.com/ru/news/972272/
https://habr.com/ru/news/972272/
Хабр
Представлен проект «Лай-фай» (lai-fi) — мобильный модуль с Wi-Fi на собаках из приютов
В Екатеринбурге арт-группа Hot Singles, фонд «ЗооЗащита» и оператор связи «Мотив» представили социальный проект « Лай-фай » (lai-fi). Как пояснили авторы решения, это первая в мире сеть...
🤣3❤1👍1
Forwarded from Петя Первый
❗️Бездомные собаки будут раздавать бесплатный Wi-Fi в Екатеринбурге
Зоозащитники запустили в городе проект, где четвероногие «курьеры» в специальных рюкзаках с оборудованием раздают интернет
Отмечается, что кто возьмёт собаку себе, получит в подарок от оператора год бесплатного безлимитного интернета.
📢 Петя Первый. Подписаться
Зоозащитники запустили в городе проект, где четвероногие «курьеры» в специальных рюкзаках с оборудованием раздают интернет
Отмечается, что кто возьмёт собаку себе, получит в подарок от оператора год бесплатного безлимитного интернета.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
Ознакомился с жалкими потугами эпифеноменалистов:
https://en.wikipedia.org/wiki/Epiphenomenalism
Здесь удивляет одно:
Почему они забыли о Канте? Вон — даже Татьяна Черниговская помнит это слово.
Кант же говорил, что вещи — в себе. Точно так же и мозг. То, как мы его воспринимаем, используя свои априорные мотивы, не отражает его сущность полностью. Отсюда и загадка происхождения сознания.
Эх, простофили-эпифеноменалисты, Канта нужно было читать!
https://en.wikipedia.org/wiki/Epiphenomenalism
Здесь удивляет одно:
Почему они забыли о Канте? Вон — даже Татьяна Черниговская помнит это слово.
Кант же говорил, что вещи — в себе. Точно так же и мозг. То, как мы его воспринимаем, используя свои априорные мотивы, не отражает его сущность полностью. Отсюда и загадка происхождения сознания.
Эх, простофили-эпифеноменалисты, Канта нужно было читать!
😁4
Из рубрики «Философские притчи»
Однажды зимой Татьяна Черниговская выступала с лекцией в городе Ульяновске, а вечером решила прогуляться по тамошнему парку.
Вдруг она увидела мальчика с кудрявой головой, на котором были надеты валенки. Мальчик бегал по ледяной горке.
Мальчик был обычной для детей наружности, ничто не выдавало в нем ничего плохого. Но у Татьяны Черниговской была очень сильная интуиция, и она сказала:
— Это очень плохой мальчик. Я не хочу иметь с ним дела.
Как же она догадалась? У мальчика не дергался рот, и даже глазки не бегали.
Может, она подумала, что валенки в 21-м веке — это очень подозрительно? Или было подозрительно то, что мальчик бегал по ледяной горке вверх и вниз и ни разу не поскользнулся?
Нет, все было не так просто, а гораздо сложнее. Дело в том, что Кант — это самый главный из философов. Его никто не читал, а зря. Он учил, что на самом деле нет никакого времени и никакого пространства; это все наши априорные иллюзии.
Об этом очень серьезно задумываются очень крупные ученые. И чем крупнее ученый, тем серьезнее задумывается.
Однажды зимой Татьяна Черниговская выступала с лекцией в городе Ульяновске, а вечером решила прогуляться по тамошнему парку.
Вдруг она увидела мальчика с кудрявой головой, на котором были надеты валенки. Мальчик бегал по ледяной горке.
Мальчик был обычной для детей наружности, ничто не выдавало в нем ничего плохого. Но у Татьяны Черниговской была очень сильная интуиция, и она сказала:
— Это очень плохой мальчик. Я не хочу иметь с ним дела.
Как же она догадалась? У мальчика не дергался рот, и даже глазки не бегали.
Может, она подумала, что валенки в 21-м веке — это очень подозрительно? Или было подозрительно то, что мальчик бегал по ледяной горке вверх и вниз и ни разу не поскользнулся?
Нет, все было не так просто, а гораздо сложнее. Дело в том, что Кант — это самый главный из философов. Его никто не читал, а зря. Он учил, что на самом деле нет никакого времени и никакого пространства; это все наши априорные иллюзии.
Об этом очень серьезно задумываются очень крупные ученые. И чем крупнее ученый, тем серьезнее задумывается.
😁8🔥4👍3💯2
This media is not supported in your browser
VIEW IN TELEGRAM
С точки зрения ИИ:
Мальчик бегал по ледяной горке вверх-вниз.
Черниговская: «Плохой!»
По Канту горки нет. Значит, он — зло.
Мальчик бегал по ледяной горке вверх-вниз.
Черниговская: «Плохой!»
По Канту горки нет. Значит, он — зло.
🤣3❤2🔥2😁1😱1🤨1
Где взять вдохновение и методы для современного образования?
Образование, обучение, развитие вышли далеко за рамки аудиторий и учебников. Сегодня это — фасилитация, геймификация, стратегические сессии и работа с ИИ.
Но где искать работающие методики, свежие кейсы и профессиональный нетворкинг?
Мы собрали для вас специальную папку «Телеграм-отдел обучения и развития». Это — подборка каналов для тех, кто управляет, создаёт, интересуется современными подходами и процессами в образовании и развитии людей.
Здесь всё для вашей работы:
🟣 методология разработки и проведения тренингов
🟣 развитие лидерства и soft skills
🟣 искусство фасилитации и модерации
🟣 креативные и проектные сессии
🟣 бизнес-игры и интерактивные форматы
🟣 организация систем обучения (L&D)
🟣 как использовать ИИ в обучении
🟣 развитие компетенций преподавателя и тренера
Это как матрёшка: здесь есть всё от большой идеи (стратегия) до самых мелких деталей (сценарии, инструменты).
📁 Добавить папку себе ➡️ https://news.1rj.ru/str/addlist/XZa-Fc5lpoRmYzgy
P.S. Перешлите этот пост тому, с кем вместе создаёте культуру развития. Работайте в одном информационном поле!
Образование, обучение, развитие вышли далеко за рамки аудиторий и учебников. Сегодня это — фасилитация, геймификация, стратегические сессии и работа с ИИ.
Но где искать работающие методики, свежие кейсы и профессиональный нетворкинг?
Мы собрали для вас специальную папку «Телеграм-отдел обучения и развития». Это — подборка каналов для тех, кто управляет, создаёт, интересуется современными подходами и процессами в образовании и развитии людей.
Здесь всё для вашей работы:
Это как матрёшка: здесь есть всё от большой идеи (стратегия) до самых мелких деталей (сценарии, инструменты).
P.S. Перешлите этот пост тому, с кем вместе создаёте культуру развития. Работайте в одном информационном поле!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1🙏1
Для эрудитов (согласно Юргену Шмидхуберу):
Кто на самом деле придумал сверточные нейронные сети (CNN)?
Давайте по-честному и популярно, без лишнего шума:
• 1969 год — Кунихико Фукусима (Япония) уже использовал прообраз ReLU (не линейную активацию) в своей модели Cognitron [2].
• 1979 год — тот же Фукусима публикует Neocognitron [1] — это и есть первая настоящая архитектура сверточных сетей: чередование слоев свертки (convolution layers) и подвыборки (downsampling layers). Всё уже было! Только компьютеры тогда были в 100 раз медленнее, чем в 1989-м, и в миллиард раз медленнее, чем сейчас. То есть запустить это по-человечески было почти нереально.
• 1987 год — Алекс Вайбель (Alex Waibel) и команда берут обычный backpropagation (который придумал ещё в 1970 году Сеппо Линнайнмаа) и применяют его к сетям с разделением весов — получается TDNN с одномерными свертками [4].
• 1988 год — Вэй Чжан (Wei Zhang) и коллеги в Китае/Японии уже обучают полноценные двумерные CNN с современным backpropagation’ом на задаче распознавания символов [5]. Опять Япония/Азия.
• 1989 год — Ян ЛеКун (Yann LeCun) и команда заново «открывают» CNN и применяют их к распознаванию почтовых индексов (знаменитая LeNet) [6,10]. Это уже в США, и это работа стала супер-известной на Западе.
• 1990–1993 — подвыборка по Фукусиме (усреднение) постепенно заменяется на max-pooling — сначала в 1D-сетях [7], потом в 2D [8].
• 2011 год — мы с Дэном Чирешаном (Dan Ciresan) и командой в IDSIA (Швейцария) просто взяли эти старые идеи, засунули их в NVIDIA GPU и сделали их реально быстрыми. DanNet стала первой нейросетью, которая превзошла человека в распознавании образов (конкурс IJCNN 2011). С мая 2011 по сентябрь 2012 она выигрывала вообще все конкурсы по классификации изображений, в которых участвовала — 4 подряд. Но давайте честно: это была в основном инженерия и масштабирование идей 30–40-летней давности на новом железе.
Мораль простая:
Саму сверточную архитектуру придумал Кунихико Фукусима ещё в 1979 году (Neocognitron). Всё остальное — это улучшения, адаптация под новое железо и, главное, возможность наконец-то это посчитать.
Некоторые «эксперты по ИИ» любят говорить, что «заставить CNN работать» (LeCun 1989, Ciresan 2011 и т.д.) чуть ли не важнее самого изобретения. На самом деле всё упиралось в бабки: у кого был доступ к самым мощным компьютерам момента — тот и «заставлял работать». Сегодня точно так же. Это классика: есть фундаментальное открытие (R в R&D), а есть разработка и масштабирование (D в R&D). Изобретение случилось в 1979 году в Японии, а не в 1989 в Bell Labs и не в 2012 в эпоху GPU.
References and reference list остаются без перевода, как и просили: [1] Fukushima, 1980 (Neocognitron)
[2] Fukushima, 1969
[3] Linnainmaa, 1970
[4] Waibel et al., 1987/1989
[5] Zhang, 1988
[6] LeCun et al., 1989
[7] Yamaguchi et al., 1990
[8] Weng et al., 1993
[9] Ciresan et al., 2011–2012
[10] LeCun et al., 1998 (LeNet-5)
Кто на самом деле придумал сверточные нейронные сети (CNN)?
Давайте по-честному и популярно, без лишнего шума:
• 1969 год — Кунихико Фукусима (Япония) уже использовал прообраз ReLU (не линейную активацию) в своей модели Cognitron [2].
• 1979 год — тот же Фукусима публикует Neocognitron [1] — это и есть первая настоящая архитектура сверточных сетей: чередование слоев свертки (convolution layers) и подвыборки (downsampling layers). Всё уже было! Только компьютеры тогда были в 100 раз медленнее, чем в 1989-м, и в миллиард раз медленнее, чем сейчас. То есть запустить это по-человечески было почти нереально.
• 1987 год — Алекс Вайбель (Alex Waibel) и команда берут обычный backpropagation (который придумал ещё в 1970 году Сеппо Линнайнмаа) и применяют его к сетям с разделением весов — получается TDNN с одномерными свертками [4].
• 1988 год — Вэй Чжан (Wei Zhang) и коллеги в Китае/Японии уже обучают полноценные двумерные CNN с современным backpropagation’ом на задаче распознавания символов [5]. Опять Япония/Азия.
• 1989 год — Ян ЛеКун (Yann LeCun) и команда заново «открывают» CNN и применяют их к распознаванию почтовых индексов (знаменитая LeNet) [6,10]. Это уже в США, и это работа стала супер-известной на Западе.
• 1990–1993 — подвыборка по Фукусиме (усреднение) постепенно заменяется на max-pooling — сначала в 1D-сетях [7], потом в 2D [8].
• 2011 год — мы с Дэном Чирешаном (Dan Ciresan) и командой в IDSIA (Швейцария) просто взяли эти старые идеи, засунули их в NVIDIA GPU и сделали их реально быстрыми. DanNet стала первой нейросетью, которая превзошла человека в распознавании образов (конкурс IJCNN 2011). С мая 2011 по сентябрь 2012 она выигрывала вообще все конкурсы по классификации изображений, в которых участвовала — 4 подряд. Но давайте честно: это была в основном инженерия и масштабирование идей 30–40-летней давности на новом железе.
Мораль простая:
Саму сверточную архитектуру придумал Кунихико Фукусима ещё в 1979 году (Neocognitron). Всё остальное — это улучшения, адаптация под новое железо и, главное, возможность наконец-то это посчитать.
Некоторые «эксперты по ИИ» любят говорить, что «заставить CNN работать» (LeCun 1989, Ciresan 2011 и т.д.) чуть ли не важнее самого изобретения. На самом деле всё упиралось в бабки: у кого был доступ к самым мощным компьютерам момента — тот и «заставлял работать». Сегодня точно так же. Это классика: есть фундаментальное открытие (R в R&D), а есть разработка и масштабирование (D в R&D). Изобретение случилось в 1979 году в Японии, а не в 1989 в Bell Labs и не в 2012 в эпоху GPU.
References and reference list остаются без перевода, как и просили: [1] Fukushima, 1980 (Neocognitron)
[2] Fukushima, 1969
[3] Linnainmaa, 1970
[4] Waibel et al., 1987/1989
[5] Zhang, 1988
[6] LeCun et al., 1989
[7] Yamaguchi et al., 1990
[8] Weng et al., 1993
[9] Ciresan et al., 2011–2012
[10] LeCun et al., 1998 (LeNet-5)
🔥12
История банкротства и достижений Pixium Vision
Компания Pixium Vision, основанная в 2011 году в Париже как спин-офф Института зрения и Университета Пьера и Марии Кюри, специализировалась на разработке бионических систем для восстановления зрения у слепых пациентов с заболеваниями сетчатки, такими как ретинит пигментоза и возрастная макулярная дегенерация.
Идея возникла в 2004 году у Даниэля Паланкера в Стэнфорде, а развитие велось в сотрудничестве с Pixium в Париже на протяжении более 20 лет с участием свыше 100 человек и инвестициями превышающими 100 миллионов евро.
Достижения включают создание имплантов IRIS I и IRIS II, а также системы PRIMA, которая прошла клинические испытания в Европе и США, демонстрируя возможность восстановления частичного зрения и позволяя пациентам распознавать объекты, читать и улучшать повседневную жизнь. В 2023 году компания столкнулась с финансовыми трудностями и инициировала процедуру защиты от банкротства в Парижском коммерческом суде, что привело к экономическому краху из-за недостатка финансирования и рыночных вызовов.
Несмотря на это, в 2024 году технология была выкуплена компанией Science Corp., основанной бывшим руководителем Neuralink Максом Ходаком, а в 2025 году результаты клинических испытаний опубликованы в престижном New England Journal of Medicine, подтвердив прорывной характер работы и сделав её эталоном для будущих разработок в области нейромодуляции, хотя разрешение и удобство использования ещё требуют улучшений.
Компания Pixium Vision, основанная в 2011 году в Париже как спин-офф Института зрения и Университета Пьера и Марии Кюри, специализировалась на разработке бионических систем для восстановления зрения у слепых пациентов с заболеваниями сетчатки, такими как ретинит пигментоза и возрастная макулярная дегенерация.
Идея возникла в 2004 году у Даниэля Паланкера в Стэнфорде, а развитие велось в сотрудничестве с Pixium в Париже на протяжении более 20 лет с участием свыше 100 человек и инвестициями превышающими 100 миллионов евро.
Достижения включают создание имплантов IRIS I и IRIS II, а также системы PRIMA, которая прошла клинические испытания в Европе и США, демонстрируя возможность восстановления частичного зрения и позволяя пациентам распознавать объекты, читать и улучшать повседневную жизнь. В 2023 году компания столкнулась с финансовыми трудностями и инициировала процедуру защиты от банкротства в Парижском коммерческом суде, что привело к экономическому краху из-за недостатка финансирования и рыночных вызовов.
Несмотря на это, в 2024 году технология была выкуплена компанией Science Corp., основанной бывшим руководителем Neuralink Максом Ходаком, а в 2025 году результаты клинических испытаний опубликованы в престижном New England Journal of Medicine, подтвердив прорывной характер работы и сделав её эталоном для будущих разработок в области нейромодуляции, хотя разрешение и удобство использования ещё требуют улучшений.
🔥2
В отличие от современных ИИ-систем, животные способны быстро и гибко адаптироваться к изменяющимся условиям. В новой статье-перспективе в Nature Machine Intelligence (авторы Даниэль Дурштевиц, Джорджия Коппе и др.) показано, как динамические и пластические механизмы мозга обеспечивают быстрое обучение в контексте и непрерывное обучение, чего пока не хватает ИИ. Ключевые идеи: мозг работает у точек бифуркации, использует множественные временные масштабы, быстро перестраивает аттракторы через нейромодуляторы и краткосрочную пластичность, а новые механизмы вроде behavioral timescale plasticity позволяют закреплять одноразовый опыт. Авторы предлагают унифицировать когнитивные задачи между нейронаукой и ИИ и использовать реконструкцию динамических систем (DSR) для прямого переноса мозговых алгоритмов в архитектуры ИИ.
https://www.nature.com/articles/s42256-025-01146-z.epdf?sharing_token=c-3AK7aSvDSzq1DQgfDPqNRgN0jAjWel9jnR3ZoTv0OIidvwkGz2m0vWBiEM4vf0vsz2zYSt0Zw3Ua6PUJ6ljQrUN6BsQXl-ESn82icK-XIsBMWAasSgQf4TeyqQ2Cs5fJQssnzkn5zb-lZh_yCiBqOOIRYAZt1gj7v80axAB1k%3D
https://www.nature.com/articles/s42256-025-01146-z.epdf?sharing_token=c-3AK7aSvDSzq1DQgfDPqNRgN0jAjWel9jnR3ZoTv0OIidvwkGz2m0vWBiEM4vf0vsz2zYSt0Zw3Ua6PUJ6ljQrUN6BsQXl-ESn82icK-XIsBMWAasSgQf4TeyqQ2Cs5fJQssnzkn5zb-lZh_yCiBqOOIRYAZt1gj7v80axAB1k%3D
Nature
What neuroscience can tell AI about learning in continuously changing environments
Nature Machine Intelligence - Durstewitz et al. explore what artificial intelligence can learn from the brain’s ability to adjust quickly to changing environments. By linking neuroscience...
🔥6🤔1
Татьяна Черниговская была права. Даже у языковых моделей любимое занятие — высказывать суждения о других.
Большие языковые модели формируют социальные связи как люди
Исследование PNAS Nexus.
LLM-агенты, выбирая друзей и коллег, ведут себя как люди: предпочитают популярных (преференциальное присоединение), друзей своих друзей (триадическое замыкание), похожих по хобби и локации (гомофилия) и создают сети «малого мира».
В симуляциях на реальных данных Facebook и рабочих сетей главный приоритет — гомофилия.
Ответы LLM на опрос о выборе связей почти совпадают с ответами людей (~100 участников), но модели более последовательны.
Вывод: LLM могут генерировать синтетические социальные данные вместо реальных, но их человеческое поведение требует внимания к этике и выравниванию ИИ.
https://academic.oup.com/pnasnexus/article/4/12/pgaf317/8361967
Большие языковые модели формируют социальные связи как люди
Исследование PNAS Nexus.
LLM-агенты, выбирая друзей и коллег, ведут себя как люди: предпочитают популярных (преференциальное присоединение), друзей своих друзей (триадическое замыкание), похожих по хобби и локации (гомофилия) и создают сети «малого мира».
В симуляциях на реальных данных Facebook и рабочих сетей главный приоритет — гомофилия.
Ответы LLM на опрос о выборе связей почти совпадают с ответами людей (~100 участников), но модели более последовательны.
Вывод: LLM могут генерировать синтетические социальные данные вместо реальных, но их человеческое поведение требует внимания к этике и выравниванию ИИ.
https://academic.oup.com/pnasnexus/article/4/12/pgaf317/8361967
OUP Academic
Network formation and dynamics among multi-LLMs Open Access
Abstract. Social networks shape how humans form opinions, exchange information, and organize collectively. As large language models (LLMs) become embedded