Михаил Лебедев (Mikhail Lebedev) — нейроученый – Telegram
Михаил Лебедев (Mikhail Lebedev) — нейроученый
5.06K subscribers
4.8K photos
1.68K videos
52 files
7K links
Михаил Альбертович Лебедев (@lebedevmikhaila) — нейроученый. Индекс Хирша — 55 (Google scholar).

https://sites.google.com/site/lebedevneuro/curriculum-vitae

https://scholar.google.com/citations?user=cvd2xxcAAAAJ&hl=en
Download Telegram
Похоже, маразм Татьяны Черниговской крепчает, хотя, казалось бы, куда уж дальше.

И еще заметил, что она часто упоминает Канта, но ни разу не сказала о нем ничего по существу; просто: Кант — лучший философ земли, вы, конечно, не читали. И все.
👍1👌1
Forwarded from Нейропсихология
Media is too big
VIEW IN TELEGRAM
Интуиция: Как Мы Принимаем Решения Вопреки Фактам

😊 Нейропсихология
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👌1
Forwarded from Петя Первый
❗️Бездомные собаки будут раздавать бесплатный Wi-Fi в Екатеринбурге

Зоозащитники запустили в городе проект, где четвероногие «курьеры» в специальных рюкзаках с оборудованием раздают интернет

Отмечается, что кто возьмёт собаку себе, получит в подарок от оператора год бесплатного безлимитного интернета.

📢Петя Первый. Подписаться
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31
Ознакомился с жалкими потугами эпифеноменалистов:

https://en.wikipedia.org/wiki/Epiphenomenalism

Здесь удивляет одно:

Почему они забыли о Канте? Вон — даже Татьяна Черниговская помнит это слово.

Кант же говорил, что вещи — в себе. Точно так же и мозг. То, как мы его воспринимаем, используя свои априорные мотивы, не отражает его сущность полностью. Отсюда и загадка происхождения сознания.

Эх, простофили-эпифеноменалисты, Канта нужно было читать!
😁4
Из рубрики «Философские притчи»

Однажды зимой Татьяна Черниговская выступала с лекцией в городе Ульяновске, а вечером решила прогуляться по тамошнему парку.

Вдруг она увидела мальчика с кудрявой головой, на котором были надеты валенки. Мальчик бегал по ледяной горке.

Мальчик был обычной для детей наружности, ничто не выдавало в нем ничего плохого. Но у Татьяны Черниговской была очень сильная интуиция, и она сказала:

— Это очень плохой мальчик. Я не хочу иметь с ним дела.

Как же она догадалась? У мальчика не дергался рот, и даже глазки не бегали.

Может, она подумала, что валенки в 21-м веке — это очень подозрительно? Или было подозрительно то, что мальчик бегал по ледяной горке вверх и вниз и ни разу не поскользнулся?

Нет, все было не так просто, а гораздо сложнее. Дело в том, что Кант — это самый главный из философов. Его никто не читал, а зря. Он учил, что на самом деле нет никакого времени и никакого пространства; это все наши априорные иллюзии.

Об этом очень серьезно задумываются очень крупные ученые. И чем крупнее ученый, тем серьезнее задумывается.
😁8🔥4👍3💯2
Картинка дня
😁7👍3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
С точки зрения ИИ:

Мальчик бегал по ледяной горке вверх-вниз.
Черниговская: «Плохой!»
По Канту горки нет. Значит, он — зло.
🤣32🔥2😁1😱1🤨1
Где взять вдохновение и методы для современного образования?

Образование, обучение, развитие вышли далеко за рамки аудиторий и учебников. Сегодня это — фасилитация, геймификация, стратегические сессии и работа с ИИ.
Но где искать работающие методики, свежие кейсы и профессиональный нетворкинг?

Мы собрали для вас специальную папку «Телеграм-отдел обучения и развития». Это — подборка каналов для тех, кто управляет, создаёт, интересуется современными подходами и процессами в образовании и развитии людей.

Здесь всё для вашей работы:
🟣методология разработки и проведения тренингов
🟣развитие лидерства и soft skills
🟣искусство фасилитации и модерации
🟣креативные и проектные сессии
🟣бизнес-игры и интерактивные форматы
🟣организация систем обучения (L&D)
🟣как использовать ИИ в обучении
🟣развитие компетенций преподавателя и тренера

Это как матрёшка: здесь есть всё от большой идеи (стратегия) до самых мелких деталей (сценарии, инструменты).

📁 Добавить папку себе ➡️https://news.1rj.ru/str/addlist/XZa-Fc5lpoRmYzgy

P.S. Перешлите этот пост тому, с кем вместе создаёте культуру развития. Работайте в одном информационном поле!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1🙏1
Для эрудитов (согласно Юргену Шмидхуберу):

Кто на самом деле придумал сверточные нейронные сети (CNN)?
Давайте по-честному и популярно, без лишнего шума:
1969 год — Кунихико Фукусима (Япония) уже использовал прообраз ReLU (не линейную активацию) в своей модели Cognitron [2].
1979 год — тот же Фукусима публикует Neocognitron [1] — это и есть первая настоящая архитектура сверточных сетей: чередование слоев свертки (convolution layers) и подвыборки (downsampling layers). Всё уже было! Только компьютеры тогда были в 100 раз медленнее, чем в 1989-м, и в миллиард раз медленнее, чем сейчас. То есть запустить это по-человечески было почти нереально.
1987 год — Алекс Вайбель (Alex Waibel) и команда берут обычный backpropagation (который придумал ещё в 1970 году Сеппо Линнайнмаа) и применяют его к сетям с разделением весов — получается TDNN с одномерными свертками [4].
1988 год — Вэй Чжан (Wei Zhang) и коллеги в Китае/Японии уже обучают полноценные двумерные CNN с современным backpropagation’ом на задаче распознавания символов [5]. Опять Япония/Азия.
1989 год — Ян ЛеКун (Yann LeCun) и команда заново «открывают» CNN и применяют их к распознаванию почтовых индексов (знаменитая LeNet) [6,10]. Это уже в США, и это работа стала супер-известной на Западе.
1990–1993 — подвыборка по Фукусиме (усреднение) постепенно заменяется на max-pooling — сначала в 1D-сетях [7], потом в 2D [8].
2011 год — мы с Дэном Чирешаном (Dan Ciresan) и командой в IDSIA (Швейцария) просто взяли эти старые идеи, засунули их в NVIDIA GPU и сделали их реально быстрыми. DanNet стала первой нейросетью, которая превзошла человека в распознавании образов (конкурс IJCNN 2011). С мая 2011 по сентябрь 2012 она выигрывала вообще все конкурсы по классификации изображений, в которых участвовала — 4 подряд. Но давайте честно: это была в основном инженерия и масштабирование идей 30–40-летней давности на новом железе.
Мораль простая:
Саму сверточную архитектуру придумал Кунихико Фукусима ещё в 1979 году (Neocognitron). Всё остальное — это улучшения, адаптация под новое железо и, главное, возможность наконец-то это посчитать.
Некоторые «эксперты по ИИ» любят говорить, что «заставить CNN работать» (LeCun 1989, Ciresan 2011 и т.д.) чуть ли не важнее самого изобретения. На самом деле всё упиралось в бабки: у кого был доступ к самым мощным компьютерам момента — тот и «заставлял работать». Сегодня точно так же. Это классика: есть фундаментальное открытие (R в R&D), а есть разработка и масштабирование (D в R&D). Изобретение случилось в 1979 году в Японии, а не в 1989 в Bell Labs и не в 2012 в эпоху GPU.
References and reference list остаются без перевода, как и просили: [1] Fukushima, 1980 (Neocognitron)
[2] Fukushima, 1969
[3] Linnainmaa, 1970
[4] Waibel et al., 1987/1989
[5] Zhang, 1988
[6] LeCun et al., 1989
[7] Yamaguchi et al., 1990
[8] Weng et al., 1993
[9] Ciresan et al., 2011–2012
[10] LeCun et al., 1998 (LeNet-5)
🔥12
Илон Маск патологически глуп.
Пассионарность. (По Гумилеву.)
😁2🤔1
История банкротства и достижений Pixium Vision

Компания Pixium Vision, основанная в 2011 году в Париже как спин-офф Института зрения и Университета Пьера и Марии Кюри, специализировалась на разработке бионических систем для восстановления зрения у слепых пациентов с заболеваниями сетчатки, такими как ретинит пигментоза и возрастная макулярная дегенерация.

Идея возникла в 2004 году у Даниэля Паланкера в Стэнфорде, а развитие велось в сотрудничестве с Pixium в Париже на протяжении более 20 лет с участием свыше 100 человек и инвестициями превышающими 100 миллионов евро.

Достижения включают создание имплантов IRIS I и IRIS II, а также системы PRIMA, которая прошла клинические испытания в Европе и США, демонстрируя возможность восстановления частичного зрения и позволяя пациентам распознавать объекты, читать и улучшать повседневную жизнь. В 2023 году компания столкнулась с финансовыми трудностями и инициировала процедуру защиты от банкротства в Парижском коммерческом суде, что привело к экономическому краху из-за недостатка финансирования и рыночных вызовов.

Несмотря на это, в 2024 году технология была выкуплена компанией Science Corp., основанной бывшим руководителем Neuralink Максом Ходаком, а в 2025 году результаты клинических испытаний опубликованы в престижном New England Journal of Medicine, подтвердив прорывной характер работы и сделав её эталоном для будущих разработок в области нейромодуляции, хотя разрешение и удобство использования ещё требуют улучшений.
🔥2
В отличие от современных ИИ-систем, животные способны быстро и гибко адаптироваться к изменяющимся условиям. В новой статье-перспективе в Nature Machine Intelligence (авторы Даниэль Дурштевиц, Джорджия Коппе и др.) показано, как динамические и пластические механизмы мозга обеспечивают быстрое обучение в контексте и непрерывное обучение, чего пока не хватает ИИ. Ключевые идеи: мозг работает у точек бифуркации, использует множественные временные масштабы, быстро перестраивает аттракторы через нейромодуляторы и краткосрочную пластичность, а новые механизмы вроде behavioral timescale plasticity позволяют закреплять одноразовый опыт. Авторы предлагают унифицировать когнитивные задачи между нейронаукой и ИИ и использовать реконструкцию динамических систем (DSR) для прямого переноса мозговых алгоритмов в архитектуры ИИ.

https://www.nature.com/articles/s42256-025-01146-z.epdf?sharing_token=c-3AK7aSvDSzq1DQgfDPqNRgN0jAjWel9jnR3ZoTv0OIidvwkGz2m0vWBiEM4vf0vsz2zYSt0Zw3Ua6PUJ6ljQrUN6BsQXl-ESn82icK-XIsBMWAasSgQf4TeyqQ2Cs5fJQssnzkn5zb-lZh_yCiBqOOIRYAZt1gj7v80axAB1k%3D
🔥6🤔1
Татьяна Черниговская была права. Даже у языковых моделей любимое занятие — высказывать суждения о других.

Большие языковые модели формируют социальные связи как люди
Исследование PNAS Nexus.
LLM-агенты, выбирая друзей и коллег, ведут себя как люди: предпочитают популярных (преференциальное присоединение), друзей своих друзей (триадическое замыкание), похожих по хобби и локации (гомофилия) и создают сети «малого мира».
В симуляциях на реальных данных Facebook и рабочих сетей главный приоритет — гомофилия.
Ответы LLM на опрос о выборе связей почти совпадают с ответами людей (~100 участников), но модели более последовательны.
Вывод: LLM могут генерировать синтетические социальные данные вместо реальных, но их человеческое поведение требует внимания к этике и выравниванию ИИ.

https://academic.oup.com/pnasnexus/article/4/12/pgaf317/8361967
Правильной дорогой. (Не как Байден.)
🔥6👏32🥰2😁1🍓1
Искусственный интеллект совершает прорыв в науке о мозге

Маккензи Вейгандт Матис и Александр Матис показывают, как современные модели ИИ одновременно анализируют активность мозга и поведение животных или человека.

Такие совместные модели раскрывают связи между нейронными сигналами и реальными действиями, помогая как фундаментальной науке, так и прикладным задачам.

Авторы выделяют три главных направления развития: дискриминативные модели (лучше различают состояния), генеративные (сами создают правдоподобные мозг-поведенческие данные) и контрастивные (учатся через сравнение похожего и разного).

Также быстро прогрессируют методы анализа поведения: автоматическая оценка поз, иерархическое распознавание сложных действий и мультимодальные модели, которые объединяют видео, звук и даже язык.

В заключение подчёркивается: чтобы эта область по-настоящему взлетела, важно оценивать модели не только по точности, но и по надёжности, прозрачности и понятности для учёных.

https://www.nature.com/articles/s41583-025-00996-1
🔥1
Чтобы в мозге возникала сложная, упорядоченная активность (похожая на снежный ком или лавину), не обязательно, чтобы он находился в особом, хрупком "критическом" состоянии на грани хаоса.

Достаточно того, что в нём идут процессы с разной скоростью: быстрые нервные импульсы и очень медленное восстановление ресурсов (что похоже на память системы о прошлой активности). Когда медленные процессы сильно отстают от быстрых, это само по себе создает устойчивый дальний порядок в работе нейронов, который выглядит как критичность, но при этом не такой хрупкий и существует в широком диапазоне условий.

https://link.aps.org/doi/10.1103/d7mp-pk1w
👍8