Похоже, маразм Татьяны Черниговской крепчает, хотя, казалось бы, куда уж дальше.
И еще заметил, что она часто упоминает Канта, но ни разу не сказала о нем ничего по существу; просто: Кант — лучший философ земли, вы, конечно, не читали. И все.
И еще заметил, что она часто упоминает Канта, но ни разу не сказала о нем ничего по существу; просто: Кант — лучший философ земли, вы, конечно, не читали. И все.
👍1👌1
Forwarded from Нейропсихология
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👌1
И тут же зоозащитники Екатеринбурга превзошли своим маразмом даже Татьяну Черниговскую
https://habr.com/ru/news/972272/
https://habr.com/ru/news/972272/
Хабр
Представлен проект «Лай-фай» (lai-fi) — мобильный модуль с Wi-Fi на собаках из приютов
В Екатеринбурге арт-группа Hot Singles, фонд «ЗооЗащита» и оператор связи «Мотив» представили социальный проект « Лай-фай » (lai-fi). Как пояснили авторы решения, это первая в мире сеть...
🤣3❤1👍1
Forwarded from Петя Первый
❗️Бездомные собаки будут раздавать бесплатный Wi-Fi в Екатеринбурге
Зоозащитники запустили в городе проект, где четвероногие «курьеры» в специальных рюкзаках с оборудованием раздают интернет
Отмечается, что кто возьмёт собаку себе, получит в подарок от оператора год бесплатного безлимитного интернета.
📢 Петя Первый. Подписаться
Зоозащитники запустили в городе проект, где четвероногие «курьеры» в специальных рюкзаках с оборудованием раздают интернет
Отмечается, что кто возьмёт собаку себе, получит в подарок от оператора год бесплатного безлимитного интернета.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
Ознакомился с жалкими потугами эпифеноменалистов:
https://en.wikipedia.org/wiki/Epiphenomenalism
Здесь удивляет одно:
Почему они забыли о Канте? Вон — даже Татьяна Черниговская помнит это слово.
Кант же говорил, что вещи — в себе. Точно так же и мозг. То, как мы его воспринимаем, используя свои априорные мотивы, не отражает его сущность полностью. Отсюда и загадка происхождения сознания.
Эх, простофили-эпифеноменалисты, Канта нужно было читать!
https://en.wikipedia.org/wiki/Epiphenomenalism
Здесь удивляет одно:
Почему они забыли о Канте? Вон — даже Татьяна Черниговская помнит это слово.
Кант же говорил, что вещи — в себе. Точно так же и мозг. То, как мы его воспринимаем, используя свои априорные мотивы, не отражает его сущность полностью. Отсюда и загадка происхождения сознания.
Эх, простофили-эпифеноменалисты, Канта нужно было читать!
😁4
Из рубрики «Философские притчи»
Однажды зимой Татьяна Черниговская выступала с лекцией в городе Ульяновске, а вечером решила прогуляться по тамошнему парку.
Вдруг она увидела мальчика с кудрявой головой, на котором были надеты валенки. Мальчик бегал по ледяной горке.
Мальчик был обычной для детей наружности, ничто не выдавало в нем ничего плохого. Но у Татьяны Черниговской была очень сильная интуиция, и она сказала:
— Это очень плохой мальчик. Я не хочу иметь с ним дела.
Как же она догадалась? У мальчика не дергался рот, и даже глазки не бегали.
Может, она подумала, что валенки в 21-м веке — это очень подозрительно? Или было подозрительно то, что мальчик бегал по ледяной горке вверх и вниз и ни разу не поскользнулся?
Нет, все было не так просто, а гораздо сложнее. Дело в том, что Кант — это самый главный из философов. Его никто не читал, а зря. Он учил, что на самом деле нет никакого времени и никакого пространства; это все наши априорные иллюзии.
Об этом очень серьезно задумываются очень крупные ученые. И чем крупнее ученый, тем серьезнее задумывается.
Однажды зимой Татьяна Черниговская выступала с лекцией в городе Ульяновске, а вечером решила прогуляться по тамошнему парку.
Вдруг она увидела мальчика с кудрявой головой, на котором были надеты валенки. Мальчик бегал по ледяной горке.
Мальчик был обычной для детей наружности, ничто не выдавало в нем ничего плохого. Но у Татьяны Черниговской была очень сильная интуиция, и она сказала:
— Это очень плохой мальчик. Я не хочу иметь с ним дела.
Как же она догадалась? У мальчика не дергался рот, и даже глазки не бегали.
Может, она подумала, что валенки в 21-м веке — это очень подозрительно? Или было подозрительно то, что мальчик бегал по ледяной горке вверх и вниз и ни разу не поскользнулся?
Нет, все было не так просто, а гораздо сложнее. Дело в том, что Кант — это самый главный из философов. Его никто не читал, а зря. Он учил, что на самом деле нет никакого времени и никакого пространства; это все наши априорные иллюзии.
Об этом очень серьезно задумываются очень крупные ученые. И чем крупнее ученый, тем серьезнее задумывается.
😁8🔥4👍3💯2
This media is not supported in your browser
VIEW IN TELEGRAM
С точки зрения ИИ:
Мальчик бегал по ледяной горке вверх-вниз.
Черниговская: «Плохой!»
По Канту горки нет. Значит, он — зло.
Мальчик бегал по ледяной горке вверх-вниз.
Черниговская: «Плохой!»
По Канту горки нет. Значит, он — зло.
🤣3❤2🔥2😁1😱1🤨1
Где взять вдохновение и методы для современного образования?
Образование, обучение, развитие вышли далеко за рамки аудиторий и учебников. Сегодня это — фасилитация, геймификация, стратегические сессии и работа с ИИ.
Но где искать работающие методики, свежие кейсы и профессиональный нетворкинг?
Мы собрали для вас специальную папку «Телеграм-отдел обучения и развития». Это — подборка каналов для тех, кто управляет, создаёт, интересуется современными подходами и процессами в образовании и развитии людей.
Здесь всё для вашей работы:
🟣 методология разработки и проведения тренингов
🟣 развитие лидерства и soft skills
🟣 искусство фасилитации и модерации
🟣 креативные и проектные сессии
🟣 бизнес-игры и интерактивные форматы
🟣 организация систем обучения (L&D)
🟣 как использовать ИИ в обучении
🟣 развитие компетенций преподавателя и тренера
Это как матрёшка: здесь есть всё от большой идеи (стратегия) до самых мелких деталей (сценарии, инструменты).
📁 Добавить папку себе ➡️ https://news.1rj.ru/str/addlist/XZa-Fc5lpoRmYzgy
P.S. Перешлите этот пост тому, с кем вместе создаёте культуру развития. Работайте в одном информационном поле!
Образование, обучение, развитие вышли далеко за рамки аудиторий и учебников. Сегодня это — фасилитация, геймификация, стратегические сессии и работа с ИИ.
Но где искать работающие методики, свежие кейсы и профессиональный нетворкинг?
Мы собрали для вас специальную папку «Телеграм-отдел обучения и развития». Это — подборка каналов для тех, кто управляет, создаёт, интересуется современными подходами и процессами в образовании и развитии людей.
Здесь всё для вашей работы:
Это как матрёшка: здесь есть всё от большой идеи (стратегия) до самых мелких деталей (сценарии, инструменты).
P.S. Перешлите этот пост тому, с кем вместе создаёте культуру развития. Работайте в одном информационном поле!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1🙏1
Для эрудитов (согласно Юргену Шмидхуберу):
Кто на самом деле придумал сверточные нейронные сети (CNN)?
Давайте по-честному и популярно, без лишнего шума:
• 1969 год — Кунихико Фукусима (Япония) уже использовал прообраз ReLU (не линейную активацию) в своей модели Cognitron [2].
• 1979 год — тот же Фукусима публикует Neocognitron [1] — это и есть первая настоящая архитектура сверточных сетей: чередование слоев свертки (convolution layers) и подвыборки (downsampling layers). Всё уже было! Только компьютеры тогда были в 100 раз медленнее, чем в 1989-м, и в миллиард раз медленнее, чем сейчас. То есть запустить это по-человечески было почти нереально.
• 1987 год — Алекс Вайбель (Alex Waibel) и команда берут обычный backpropagation (который придумал ещё в 1970 году Сеппо Линнайнмаа) и применяют его к сетям с разделением весов — получается TDNN с одномерными свертками [4].
• 1988 год — Вэй Чжан (Wei Zhang) и коллеги в Китае/Японии уже обучают полноценные двумерные CNN с современным backpropagation’ом на задаче распознавания символов [5]. Опять Япония/Азия.
• 1989 год — Ян ЛеКун (Yann LeCun) и команда заново «открывают» CNN и применяют их к распознаванию почтовых индексов (знаменитая LeNet) [6,10]. Это уже в США, и это работа стала супер-известной на Западе.
• 1990–1993 — подвыборка по Фукусиме (усреднение) постепенно заменяется на max-pooling — сначала в 1D-сетях [7], потом в 2D [8].
• 2011 год — мы с Дэном Чирешаном (Dan Ciresan) и командой в IDSIA (Швейцария) просто взяли эти старые идеи, засунули их в NVIDIA GPU и сделали их реально быстрыми. DanNet стала первой нейросетью, которая превзошла человека в распознавании образов (конкурс IJCNN 2011). С мая 2011 по сентябрь 2012 она выигрывала вообще все конкурсы по классификации изображений, в которых участвовала — 4 подряд. Но давайте честно: это была в основном инженерия и масштабирование идей 30–40-летней давности на новом железе.
Мораль простая:
Саму сверточную архитектуру придумал Кунихико Фукусима ещё в 1979 году (Neocognitron). Всё остальное — это улучшения, адаптация под новое железо и, главное, возможность наконец-то это посчитать.
Некоторые «эксперты по ИИ» любят говорить, что «заставить CNN работать» (LeCun 1989, Ciresan 2011 и т.д.) чуть ли не важнее самого изобретения. На самом деле всё упиралось в бабки: у кого был доступ к самым мощным компьютерам момента — тот и «заставлял работать». Сегодня точно так же. Это классика: есть фундаментальное открытие (R в R&D), а есть разработка и масштабирование (D в R&D). Изобретение случилось в 1979 году в Японии, а не в 1989 в Bell Labs и не в 2012 в эпоху GPU.
References and reference list остаются без перевода, как и просили: [1] Fukushima, 1980 (Neocognitron)
[2] Fukushima, 1969
[3] Linnainmaa, 1970
[4] Waibel et al., 1987/1989
[5] Zhang, 1988
[6] LeCun et al., 1989
[7] Yamaguchi et al., 1990
[8] Weng et al., 1993
[9] Ciresan et al., 2011–2012
[10] LeCun et al., 1998 (LeNet-5)
Кто на самом деле придумал сверточные нейронные сети (CNN)?
Давайте по-честному и популярно, без лишнего шума:
• 1969 год — Кунихико Фукусима (Япония) уже использовал прообраз ReLU (не линейную активацию) в своей модели Cognitron [2].
• 1979 год — тот же Фукусима публикует Neocognitron [1] — это и есть первая настоящая архитектура сверточных сетей: чередование слоев свертки (convolution layers) и подвыборки (downsampling layers). Всё уже было! Только компьютеры тогда были в 100 раз медленнее, чем в 1989-м, и в миллиард раз медленнее, чем сейчас. То есть запустить это по-человечески было почти нереально.
• 1987 год — Алекс Вайбель (Alex Waibel) и команда берут обычный backpropagation (который придумал ещё в 1970 году Сеппо Линнайнмаа) и применяют его к сетям с разделением весов — получается TDNN с одномерными свертками [4].
• 1988 год — Вэй Чжан (Wei Zhang) и коллеги в Китае/Японии уже обучают полноценные двумерные CNN с современным backpropagation’ом на задаче распознавания символов [5]. Опять Япония/Азия.
• 1989 год — Ян ЛеКун (Yann LeCun) и команда заново «открывают» CNN и применяют их к распознаванию почтовых индексов (знаменитая LeNet) [6,10]. Это уже в США, и это работа стала супер-известной на Западе.
• 1990–1993 — подвыборка по Фукусиме (усреднение) постепенно заменяется на max-pooling — сначала в 1D-сетях [7], потом в 2D [8].
• 2011 год — мы с Дэном Чирешаном (Dan Ciresan) и командой в IDSIA (Швейцария) просто взяли эти старые идеи, засунули их в NVIDIA GPU и сделали их реально быстрыми. DanNet стала первой нейросетью, которая превзошла человека в распознавании образов (конкурс IJCNN 2011). С мая 2011 по сентябрь 2012 она выигрывала вообще все конкурсы по классификации изображений, в которых участвовала — 4 подряд. Но давайте честно: это была в основном инженерия и масштабирование идей 30–40-летней давности на новом железе.
Мораль простая:
Саму сверточную архитектуру придумал Кунихико Фукусима ещё в 1979 году (Neocognitron). Всё остальное — это улучшения, адаптация под новое железо и, главное, возможность наконец-то это посчитать.
Некоторые «эксперты по ИИ» любят говорить, что «заставить CNN работать» (LeCun 1989, Ciresan 2011 и т.д.) чуть ли не важнее самого изобретения. На самом деле всё упиралось в бабки: у кого был доступ к самым мощным компьютерам момента — тот и «заставлял работать». Сегодня точно так же. Это классика: есть фундаментальное открытие (R в R&D), а есть разработка и масштабирование (D в R&D). Изобретение случилось в 1979 году в Японии, а не в 1989 в Bell Labs и не в 2012 в эпоху GPU.
References and reference list остаются без перевода, как и просили: [1] Fukushima, 1980 (Neocognitron)
[2] Fukushima, 1969
[3] Linnainmaa, 1970
[4] Waibel et al., 1987/1989
[5] Zhang, 1988
[6] LeCun et al., 1989
[7] Yamaguchi et al., 1990
[8] Weng et al., 1993
[9] Ciresan et al., 2011–2012
[10] LeCun et al., 1998 (LeNet-5)
🔥12
История банкротства и достижений Pixium Vision
Компания Pixium Vision, основанная в 2011 году в Париже как спин-офф Института зрения и Университета Пьера и Марии Кюри, специализировалась на разработке бионических систем для восстановления зрения у слепых пациентов с заболеваниями сетчатки, такими как ретинит пигментоза и возрастная макулярная дегенерация.
Идея возникла в 2004 году у Даниэля Паланкера в Стэнфорде, а развитие велось в сотрудничестве с Pixium в Париже на протяжении более 20 лет с участием свыше 100 человек и инвестициями превышающими 100 миллионов евро.
Достижения включают создание имплантов IRIS I и IRIS II, а также системы PRIMA, которая прошла клинические испытания в Европе и США, демонстрируя возможность восстановления частичного зрения и позволяя пациентам распознавать объекты, читать и улучшать повседневную жизнь. В 2023 году компания столкнулась с финансовыми трудностями и инициировала процедуру защиты от банкротства в Парижском коммерческом суде, что привело к экономическому краху из-за недостатка финансирования и рыночных вызовов.
Несмотря на это, в 2024 году технология была выкуплена компанией Science Corp., основанной бывшим руководителем Neuralink Максом Ходаком, а в 2025 году результаты клинических испытаний опубликованы в престижном New England Journal of Medicine, подтвердив прорывной характер работы и сделав её эталоном для будущих разработок в области нейромодуляции, хотя разрешение и удобство использования ещё требуют улучшений.
Компания Pixium Vision, основанная в 2011 году в Париже как спин-офф Института зрения и Университета Пьера и Марии Кюри, специализировалась на разработке бионических систем для восстановления зрения у слепых пациентов с заболеваниями сетчатки, такими как ретинит пигментоза и возрастная макулярная дегенерация.
Идея возникла в 2004 году у Даниэля Паланкера в Стэнфорде, а развитие велось в сотрудничестве с Pixium в Париже на протяжении более 20 лет с участием свыше 100 человек и инвестициями превышающими 100 миллионов евро.
Достижения включают создание имплантов IRIS I и IRIS II, а также системы PRIMA, которая прошла клинические испытания в Европе и США, демонстрируя возможность восстановления частичного зрения и позволяя пациентам распознавать объекты, читать и улучшать повседневную жизнь. В 2023 году компания столкнулась с финансовыми трудностями и инициировала процедуру защиты от банкротства в Парижском коммерческом суде, что привело к экономическому краху из-за недостатка финансирования и рыночных вызовов.
Несмотря на это, в 2024 году технология была выкуплена компанией Science Corp., основанной бывшим руководителем Neuralink Максом Ходаком, а в 2025 году результаты клинических испытаний опубликованы в престижном New England Journal of Medicine, подтвердив прорывной характер работы и сделав её эталоном для будущих разработок в области нейромодуляции, хотя разрешение и удобство использования ещё требуют улучшений.
🔥2
В отличие от современных ИИ-систем, животные способны быстро и гибко адаптироваться к изменяющимся условиям. В новой статье-перспективе в Nature Machine Intelligence (авторы Даниэль Дурштевиц, Джорджия Коппе и др.) показано, как динамические и пластические механизмы мозга обеспечивают быстрое обучение в контексте и непрерывное обучение, чего пока не хватает ИИ. Ключевые идеи: мозг работает у точек бифуркации, использует множественные временные масштабы, быстро перестраивает аттракторы через нейромодуляторы и краткосрочную пластичность, а новые механизмы вроде behavioral timescale plasticity позволяют закреплять одноразовый опыт. Авторы предлагают унифицировать когнитивные задачи между нейронаукой и ИИ и использовать реконструкцию динамических систем (DSR) для прямого переноса мозговых алгоритмов в архитектуры ИИ.
https://www.nature.com/articles/s42256-025-01146-z.epdf?sharing_token=c-3AK7aSvDSzq1DQgfDPqNRgN0jAjWel9jnR3ZoTv0OIidvwkGz2m0vWBiEM4vf0vsz2zYSt0Zw3Ua6PUJ6ljQrUN6BsQXl-ESn82icK-XIsBMWAasSgQf4TeyqQ2Cs5fJQssnzkn5zb-lZh_yCiBqOOIRYAZt1gj7v80axAB1k%3D
https://www.nature.com/articles/s42256-025-01146-z.epdf?sharing_token=c-3AK7aSvDSzq1DQgfDPqNRgN0jAjWel9jnR3ZoTv0OIidvwkGz2m0vWBiEM4vf0vsz2zYSt0Zw3Ua6PUJ6ljQrUN6BsQXl-ESn82icK-XIsBMWAasSgQf4TeyqQ2Cs5fJQssnzkn5zb-lZh_yCiBqOOIRYAZt1gj7v80axAB1k%3D
Nature
What neuroscience can tell AI about learning in continuously changing environments
Nature Machine Intelligence - Durstewitz et al. explore what artificial intelligence can learn from the brain’s ability to adjust quickly to changing environments. By linking neuroscience...
🔥6🤔1
Татьяна Черниговская была права. Даже у языковых моделей любимое занятие — высказывать суждения о других.
Большие языковые модели формируют социальные связи как люди
Исследование PNAS Nexus.
LLM-агенты, выбирая друзей и коллег, ведут себя как люди: предпочитают популярных (преференциальное присоединение), друзей своих друзей (триадическое замыкание), похожих по хобби и локации (гомофилия) и создают сети «малого мира».
В симуляциях на реальных данных Facebook и рабочих сетей главный приоритет — гомофилия.
Ответы LLM на опрос о выборе связей почти совпадают с ответами людей (~100 участников), но модели более последовательны.
Вывод: LLM могут генерировать синтетические социальные данные вместо реальных, но их человеческое поведение требует внимания к этике и выравниванию ИИ.
https://academic.oup.com/pnasnexus/article/4/12/pgaf317/8361967
Большие языковые модели формируют социальные связи как люди
Исследование PNAS Nexus.
LLM-агенты, выбирая друзей и коллег, ведут себя как люди: предпочитают популярных (преференциальное присоединение), друзей своих друзей (триадическое замыкание), похожих по хобби и локации (гомофилия) и создают сети «малого мира».
В симуляциях на реальных данных Facebook и рабочих сетей главный приоритет — гомофилия.
Ответы LLM на опрос о выборе связей почти совпадают с ответами людей (~100 участников), но модели более последовательны.
Вывод: LLM могут генерировать синтетические социальные данные вместо реальных, но их человеческое поведение требует внимания к этике и выравниванию ИИ.
https://academic.oup.com/pnasnexus/article/4/12/pgaf317/8361967
OUP Academic
Network formation and dynamics among multi-LLMs Open Access
Abstract. Social networks shape how humans form opinions, exchange information, and organize collectively. As large language models (LLMs) become embedded
Искусственный интеллект совершает прорыв в науке о мозге
Маккензи Вейгандт Матис и Александр Матис показывают, как современные модели ИИ одновременно анализируют активность мозга и поведение животных или человека.
Такие совместные модели раскрывают связи между нейронными сигналами и реальными действиями, помогая как фундаментальной науке, так и прикладным задачам.
Авторы выделяют три главных направления развития: дискриминативные модели (лучше различают состояния), генеративные (сами создают правдоподобные мозг-поведенческие данные) и контрастивные (учатся через сравнение похожего и разного).
Также быстро прогрессируют методы анализа поведения: автоматическая оценка поз, иерархическое распознавание сложных действий и мультимодальные модели, которые объединяют видео, звук и даже язык.
В заключение подчёркивается: чтобы эта область по-настоящему взлетела, важно оценивать модели не только по точности, но и по надёжности, прозрачности и понятности для учёных.
https://www.nature.com/articles/s41583-025-00996-1
Маккензи Вейгандт Матис и Александр Матис показывают, как современные модели ИИ одновременно анализируют активность мозга и поведение животных или человека.
Такие совместные модели раскрывают связи между нейронными сигналами и реальными действиями, помогая как фундаментальной науке, так и прикладным задачам.
Авторы выделяют три главных направления развития: дискриминативные модели (лучше различают состояния), генеративные (сами создают правдоподобные мозг-поведенческие данные) и контрастивные (учатся через сравнение похожего и разного).
Также быстро прогрессируют методы анализа поведения: автоматическая оценка поз, иерархическое распознавание сложных действий и мультимодальные модели, которые объединяют видео, звук и даже язык.
В заключение подчёркивается: чтобы эта область по-настоящему взлетела, важно оценивать модели не только по точности, но и по надёжности, прозрачности и понятности для учёных.
https://www.nature.com/articles/s41583-025-00996-1
Nature
Joint modelling of brain and behaviour dynamics with artificial intelligence
Nature Reviews Neuroscience - Artificial intelligence is rapidly advancing our mechanistic understanding of the shared structure between the brain and higher-order behaviours. In this Review,...
🔥1