NeuroSyntax – Telegram
NeuroSyntax
4.58K subscribers
399 photos
84 videos
70 files
320 links
Download Telegram
NeuroSyntax pinned a photo
NeuroSyntax
جلسه دوم کارگاه Matrix Decomposition موضوعات: Youtube link Eigendecomposition and Principal Component Analysis: Correlation spaces, Covariance and correlation matrix Eigendecomposition Interpreting PCA output Dimensionality Reduction PCA Assumptions and…
جلسه سوم کارگاه Matrix Decomposition

Principal Component Analysis Applications

Interpreting loadings, scores, and dimensionality reduction
Limitations in interpretation

Examples:
What factors do explain the world happiness the most?
Dataset: https://worldhappiness.report/ed/2021/happiness-trust-and-deaths-under-covid-19/

Discovering structure in gene expression data for 6 cancer types
Dataset: https://www.kaggle.com/datasets/brunogrisci/breast-cancer-gene-expression-cumida

Detecting cell assemblies in neural population spike data

Telegram: https://news.1rj.ru/str/Neuro_Syntax
Instagram: neurosyntax

_______________________________________________
_______________________________________________

CHAPTERS:

00:00 #1. Session 2 summary
09:35 #2. Toy simple examples - MATLAB
30:48 #3. Example 2: World Happiness Report
49:16 #4. Example 3: Breast Cancer Gene Expression
01:36:55 #5. PCA-Applications in Neuroscience
01:37:24 #6. Example 4: Cell assembly detection

#neurosyntax #video #matrixdecomposition
NeuroSyntax
جلسه سوم کارگاه Matrix Decomposition Principal Component Analysis Applications Interpreting loadings, scores, and dimensionality reduction Limitations in interpretation Examples: What factors do explain the world happiness the most? Dataset: https://wo…
اگر مجموعه جلسات نوروسینتکس رو حضوری و یا از کانال تلگرام و یوتیوب دنبال میکنید، لطفا نظرات خودتون رو زیر ویدیوهای یوتیوب قرار بدید. از این روش به بیشتر دیده شدن محتوای نوروسینتکس کمک کنید.
NeuroSyntax
جلسه سوم کارگاه Matrix Decomposition Principal Component Analysis Applications Interpreting loadings, scores, and dimensionality reduction Limitations in interpretation Examples: What factors do explain the world happiness the most? Dataset: https://wo…
جلسه چهارم کارگاه Matrix Decomposition

Latent-state models of observational data

Neural Manifold Hypothesis
Neural trajectory of parallel spike trains
Strong and weak principles of neural dimension reduction
Constraints on dynamics in high-dimensional spaces
Latent state generative model of neural population
Neural Dimensionality Reduction with DataHigh
PCA Assumptions for timeseries
Component Analysis, Manifold Learning, State-space models, and Applications

Neurosyntax Academy
Telegram: https://news.1rj.ru/str/Neuro_Syntax
Instagram: neurosyntax


_______________________________________________
_______________________________________________

CHAPTERS:

00:45 #1. Session 3 summary
05:02 #2. Neural Manifold
5:43 #3. Neural trajectory of parallel spike trains
16:08 #4. Strong and weak principles of neural dimension reduction
18:48 #5. Constraints on dynamics in high-dimensional spaces
25:32 #6. Manifold Hypothesis
37:07 #7. Latent Structures
52:56 #8. Neural Dimensionality Reduction with DataHigh
01:15:21 #9. PCA limitations and assumptions for timeseries latent state analysis
01:24:40 #10. Component Analysis, Manifold Learning, State-space models, and Applications

#neurosyntax #video #matrixdecomposition
جلسه ششم کارگاه تجزیه ماتریس ها ساعت شش برگزار خواهد شد (شنبه و یکشنبه - این هفته دو جلسه خواهیم داشت). محتوای جلسه شنبه:

Review on Singular Value Decomposition
Understanding the connections between PCA, and SVD
Creating latent structures and projection to higher dimensional spaces with linear functions
Spatiotemporal pattern discovery with SVD (Local Field Potential example from Marmosets)
Sparsity modelling
Sparse PCA
NeuroSyntax
جلسه چهارم کارگاه Matrix Decomposition Latent-state models of observational data Neural Manifold Hypothesis Neural trajectory of parallel spike trains Strong and weak principles of neural dimension reduction Constraints on dynamics in high-dimensional spaces…
جلسه پنجم کارگاه Matrix Decomposition

Singular Value Decomposition
Eigenvalues and Singular Values
Low-rank Approximation with SVD
Optimal Truncation

Neurosyntax Academy
Telegram: https://news.1rj.ru/str/Neuro_Syntax
Instagram: neurosyntax

_______________________________________________
_______________________________________________

CHAPTERS:

00:13 #1. Singular Value Decomposition
12:29 #2. Eigenvalues and Singular Values
22:12 #3. MATLAB Example 1
25:45 #4. Low-rank Approximation with SVD
30:17 #5. Eckard-Young Threorem
31:19 #6. [MATLAB] Low-rank Approximation with SVD
36:23 #7. Optimal Truncation
40:55 #8. [MATLAB] Optimal Truncation
جلسه هفتم کارگاه تجزیه ماتریس ها امروز (یکشنبه) ساعت شش برگزار خواهد شد.

محتوای جلسه:

Nonnegative Matrix Factorization
Examples:
Identifying gene expression programs of cell-type identity
Cell assembly detection from Spiking Activity
A gentle introduction to optimization
بچه ها با توجه به اینکه فقط یک نفر این جلسه شرکت کرده حضوری من جلسه رو ضبط نمیکنم ولی داریم پرسش و پاسخ میکنیم. اگر علاقه مند هستید بیاید. میتونید درباره مباحثی که تا اینجا کار کردیم صحبت کنید یا گپ بزنیم درباره علوم اعصاب، مدل سازی و ...
NeuroSyntax
جلسه پنجم کارگاه Matrix Decomposition Singular Value Decomposition Eigenvalues and Singular Values Low-rank Approximation with SVD Optimal Truncation Neurosyntax Academy Telegram: https://news.1rj.ru/str/Neuro_Syntax Instagram: neurosyntax _______________________…
جلسه ششم کارگاه Matrix Decomposition

SVD and Sparse PCA

Review of Singular Value Decomposition (SVD)
Low rank approximation with SVD
Discovering dominant spatiotemporal modes in LFP with SVD
Sparsity in statistics
Sparse PCA
Variance-Sparsity trade-off
Parameter Tuning
PCA as a regression problem
Regularization and variable selection via the elastic net Tuning [LARS-EN]


Neurosyntax Academy
Telegram: https://news.1rj.ru/str/Neuro_Syntax
Instagram: neurosyntax

_______________________________________________
_______________________________________________

CHAPTERS:

00:31 #1. Review of Singular Value Decomposition (SVD)
9:34 #2. [MATLAB] PCA and SVD for finding latent dynamics
52:20 #3. Low rank approximation with SVD
01:04:21 #4. [MATLAB] Discovering dominant spatiotemporal modes in LFP with SVD
01:31:03 #5. Sparse PCA
02:01:54 #6. [MATLAB] Sparse PCA
برنامه پیش روی احتمالی کارگاه تجزیه ماتریس ها:

Nonnegative Matrix Factorization
Independent Component Analysis
jPCA
Linear Discriminant Analysis
GPFA
Factor Analysis
Component Analysis as an optimization problem: a unified perspective

بعد از این موارد به سراغ Dynamic Mode Decomposition میریم که خودش احتمالا چندین قسمت خواهد شد. این مجموعه جلسات بر مبنای کتاب Dynamic Mode Decomposition: Data-driven modeling of complex systems خواهد بود.

و پس از اون روی Linear Dynamical Systems State-space modelling کار خواهیم کرد. دو کارگاه Dynamical Systems و Matrix Decomposition بسیار نزدیک به هم هستن برای پیدا کردن Latent Factor ها و مدلسازی دینامیک
اگر در مقالاتی که مطالعه کردید و یا در پژوهشی که انجام میدید با Dimensionality Reduction روبرو شدید، متدهای معرفی شده در این مقالات و یا پژوهش ها رو با نام بردن مقاله به این پست اضافه کنید. دوست دارم لیستی جامع از انواع متدهایی که استفاده میشن و رویکردهاشون و محدودیت ها و پیش فرض هاشون درست کنیم.

مثال برای نوع پاسخ:

Method: demix PCA
Article: https://elifesciences.org/articles/10989

#neurosyntax
در جلسه یکشنبه، ساعت شش، درباره Independent Component Analysis صحبت خواهیم کرد و در کنارش مفاهیم عمیق و بسیار جالبی رو درباره آمار سیگنال ها خواهیم آموخت.

مثالی که کار خواهیم کرد شامل حذف کردن نویز حرکات چشم از سیگنال EEG خواهد بود.