Onlinebme – Telegram
Onlinebme
4.88K subscribers
1.54K photos
603 videos
367 files
747 links
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ارائه‌دهنده‌ی پکیجهای آموزشی پروژه محور:
برنامه‌نویسی متلب-پایتون
شناسایی الگو
یادگیری ماشین
شبکه‌های عصبی
واسط مغز-کامپیوتر
پردازش تصویر-سیگنالهای حیاتی

تماس👇
09360382687
@onlineBME_admin

www.onlinebme.com
Download Telegram
Onlinebme
مطالعه جدید: استفاده از ChatGPT میتواند تفکر انتقادی را تضعیف کند تضعیف ارتباطات مغزی در سیگنالهای مغزی افراد مشاهده شد!! @Onlinebme
🔍📝 در این پژوهش، اثرات رفتاری و عصبی نوشتن مقاله با کمک مدل‌های زبانی (LLM) بررسی شده است.
شرکت‌کنندگان به سه گروه تقسیم شدند: استفاده از LLM، گروه Search، و فقط مغز brain-only(بدون ابزار).

همه شرکت‌کنندگان سه جلسه مشابه با شرایط کاملا یکسان را گذراندند و در جلسه چهارم، جای گروه LLM و Brain-only با هم عوض شد. یعنی به ترتیب به گروه LLM-to-Brain و Brain-to-LLM تبدیل شدند.

با استفاده از سیگنال‌های مغزی (EEG)، فعالیت شناختی حین نوشتن ارزیابی شد. همچنین کیفیت مقالات با کمک ابزار NLP، معلمان انسانی، و یک ابزار هوش مصنوعی ارزیابی شد.

💡نتایج این مطالعه نشان میدهد که:
🔺گروه Brain-only بیشترین فعالیت مغزی و قویترین شبکه‌های شناختی را داشند.
🔺گروه Search سطح متوسطی را نشان داد.
🔺گروه LLM ضعیفترین ارتباطات مغزی را ارائه داد.

🔷 نکته بعدی اینکه، گروه LLM-to-Brain در جلسه 4 ام سطح زیر مشارکت را نشان دادند، در عوض گروه Brain-to-LLM، سطح بالای یادآوری و فعالیت مغزی در بخش occipital-parietal همانند گروه search داشتند.

🔷 احساس مالکیت در گروه LLM کمترین میزان، و در گروه Brain-only بیشترین میزان گزارش شد. همچنین گروه LLM در به یادآوردن متنهای خودشان چالش اساسی داشتند.

⚠️ نتایج این مطالعه نشان میدهند که استفاده از LLM ها درسته که راحتی آنی به ارمغان میاورند، ولی در بلند مدت استفاده از آنها باعث کاهش عملکرد شناختی را خواهد داشت. این یعنی تضعیف تفکر انتقادی، تضعیف خلاقیت و مرگ تدریجی نوآوری ها و منحصر به فرد بودن ها!!!

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍63🙏1💯1😨1
سلام و وقت بخیر
امیدوارم حالتون خوب باشه🙏

همانطور که قبلا اطلاع داده بودم، تصمیم داشتیم دوره‌ای در زمینه‌ی پیاده‌سازی شبکه‌های عصبی بازگشتی (RNN)  برگزار کنیم. هدف اصلی این دوره، آشنایی با تئوری و ریاضیات این نوع شبکه‌ها، پیاده‌سازی دستی آن‌ها، استفاده از کتابخانه PyTorch، و در نهایت انجام پروژه‌های عملی بود.

در این مدت که مشغول مطالعه‌ی روی شبکه‌های RNN و همچنین بررسی ترکیب آنها با سایر معماری‌ها مانند CNN  در مسائل مختلف بودم. متوجه شدم که عملکرد RNN در ترکیب با سایر شبکه‌های عصبی، به‌ویژه CNNها، بهینه تر و مؤثرتر میشود.

بر همین اساس، تصمیم گرفتم دوره‌ای جامع طراحی کنیم که فصل اول آن به RNN اختصاص داده بشه و در فصلهای بعدی به معرفی و پیاده‌سازی سایر شبکه‌ها مانند CNN و ترکیب آن‌ها با RNN در پروژه‌های مختلف بپردازیم.

این دوره با عنوان "شبکه‌های عصبی با محوریت RNN و CNN" برگزار خواهد شد و محتوای آن به‌ صورت کاربردی طراحی شده است. در این چند ماه تلاش کردم که الگوریتم‌های مختلف را مطالعه و بررسی کنم تا بتونم محتوایی کامل و ساختاریافته ارائه دهم.

الان فهرست مطالب دوره در حال نهایی شدن است و ثبت نام از این هفته آغاز خواهد شد.

سرفصل‌های تقریبی دوره:
فصل اول: مروری بر مفاهیم پایه شبکه‌های عصبی

🔺 پس انتشار خطا، توابع هزینه، روشهای بهینه سازی، dropout، batch normalization ....

فصل دوم: ریاضیات و پیاده‌سازی شبکه‌های بازگشتی (RNN, LSTM, GRU, BiLSTM)
🔺 پروژه‌های عمومی (مسائل قابل تعمیم به کاربردهای مختلف)
🔺 پروژه‌های پردازش سیگنال‌های حیاتی  (EEG, ECG)

فصل سوم: بررسی معماری شبکه‌های CNN
🔺انواع کانولوشن و ساختارهای رایج
🔺پیاده سازی شبکه EEGNet و توسعه‌ی آن
🔺پیاده سازی شبکه‌های ShallowNet و  DeepNet
🔺پروژه‌های عمومی و همچنین پروژه‌های مرتبط با سیگنال EEG و  ECG

فصل چهارم: ترکیب شبکه‌های RNN  و CNN
🔺پروژه‌های تحلیل داده‌های سری زمانی
🔺پروژه‌های پردازش سیگنال‌های حیاتی

فصل پنجم: آشنایی با  Attention
🔺آشنایی با انواع Self-Attention
🔺طراحی لایه Attention برای انتخاب Feature Map/ Channel
🔺طراحی Attention مخصوص شبکه‌های
 
ترکیب RNN+LSTM+Attention و پیاده سازی آن در پروژه های مختلف  (تشخیص و پیش بینی خطا، سیگنالهای حیاتی، ... )

💡تمرکز این دوره بر ترکیب مبانی ریاضی و تئوری شبکه‌های عصبی با پروژه‌های عملی و کاربردی خواهد بود. امیدوارم کنار هم بتونیم تجربه خوبی داشته باشیم و خروجی خوبی از این دوره بدست بیاریم.

پیش نیاز دوره: پایتورچ
https://onlinebme.com/product/implementing-neural-networks-with-pytorch/

ثبت‌نام دوره این هفته شروع خواهد شد...

موفق باشید
محمد نوری‌زاده چرلو
9🤩3🤣2👍1
کاربردهای هوش مصنوعی در پردازش سیگنال های حیاتی
از یادگیری ماشین تا واسط مغز-کامپیوتر
زمان: جمعه ۱۰ مرداد- ساعت ۲۱

https://www.linkedin.com/events/bci7355151563297857536
12👍1👎1🔥1🙏1
Onlinebme
سلام و وقت بخیر امیدوارم حالتون خوب باشه🙏 همانطور که قبلا اطلاع داده بودم، تصمیم داشتیم دوره‌ای در زمینه‌ی پیاده‌سازی شبکه‌های عصبی بازگشتی (RNN)  برگزار کنیم. هدف اصلی این دوره، آشنایی با تئوری و ریاضیات این نوع شبکه‌ها، پیاده‌سازی دستی آن‌ها، استفاده از…
سلام
امیدوارم حالتون خوب باشه،
قصد داریم یک دوره آنلاین با عنوان «دوره جامع یادگیری عمیق»
با محوریت RNNs +CNNs +Attention برگزار کنیم.
در این دوره ریاضیات، پیاده‌سازی و کاربردی عملی شبکه‌های عصبی آموزش داده خواهد شد.

سرفصل دوره
1⃣ مروری بر مباحث مقدماتی
◼️Back propagation
◻️MLP
◼️Cost function
◻️Optimizers
◼️DataLoader
◻️Dropout
◼️Batch Normalization
◻️...
🗂 Projects

2⃣ پیاده‌سازی شبکه های بازگشتی
◼️Elman-Jordan
◻️RNN
◼️LSTM
◻️GRU
◼️BiLSTM
🗂 Projects

3⃣ آشنایی با ساختارهای مختلف شبکه های کانولوشنی
◼️Convolution layer
◻️Pooling layer
◼️Spatial conv
◻️Temporal conv
◼️Seperabale conv
◻️Resent
◼️....
🗂 Projects


4⃣ ترکیب CNN و RNN
🗂 Projects
5⃣ مکانیزم توجه
◻️Attention in CNN
◼️Attention in LSTM
🗂 Projects

6⃣ ترکیب CNN+RNN+Attention


مدرس دوره: محمد نوری زاده چرلو
مدت زمان دوره: 30-50 ساعت

دوستانی که قصد دارند در این دوره شرکت کنند به آیدی زیر پیام دهند.
@onlinebme_admin

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
4🤩4👍1🔥1🎉1
Onlinebme
سلام امیدوارم حالتون خوب باشه، قصد داریم یک دوره آنلاین با عنوان «دوره جامع یادگیری عمیق» با محوریت RNNs +CNNs +Attention برگزار کنیم. در این دوره ریاضیات، پیاده‌سازی و کاربردی عملی شبکه‌های عصبی آموزش داده خواهد شد. سرفصل دوره 1⃣ مروری بر مباحث مقدماتی…
Deep Learning.pdf
547.3 KB
دوره جامع یادگیری عمیق با محوریت RNNs+CNNs+Attention


💡سه هدف اصلی دوره:
🔷 ریاضیات شبکه‌های عصبی
🔷 درک عمیق شبکه های عصبی
🔷 انجام پروژه های عملی


آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🤩62
Onlinebme
Deep Learning.pdf
سلام وقت همگی بخیر
دوره یادگیری عمیق از این هفته برگزار میشه
اولین جلسه روز جمعه خواهد بود«ساعت 1»

🔺این جلسه صرفا جهت آشنایی با چارچوپ کار و هماهنگی بیشتر هست. از هفته دیگه دوره رسماً استارت میخوره.

☑️ برنامه در هر جلسه:
◾️رفع اشکال (حل یکی از پروژه‌های هفته قبل)
◾️آموزش مباحث جدید

☑️ برنامه در طول هر هفته:
◼️ارسال ویدیوهای هر جلسه بعد از ادیت نهایی
◼️ارایه فیدبک لازم در پروژه ها توسط مدرس
◼️آماده‌سازی و ارائه جزوه خام قبل هر جلسه
◻️انجام پروژه‌های تعریف شده

دوستانی که قصد دارند در این دوره شرکت کنند به آیدی زیر پیام دهند.
@onlinebme_admin


امیدوارم که کنار هم تجربه ی خوبی داشته باشیم😊

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
10🤩1🙏1
Onlinebme
DL-Prj#1-Back Propagation and MLP.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق

اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی دوکلاسه
Cost Fun: Binary Cross Entropy
Activation Fun: Sigmoid

🔘بخش کوتاهی از فصل سوم دوره پایتورچ

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
5🥰1
Onlinebme
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی دوکلاسه Cost Fun: Binary Cross Entropy Activation Fun: Sigmoid 🔘بخش کوتاهی از فصل سوم دوره پایتورچ 🏢 آکادمی آنلاین مهندسی پزشکی و هوش…
Media is too big
VIEW IN TELEGRAM
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق

اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی چندکلاسه
Cost Fun: Cross Entropy
Activation Fun: SoftMax

🔘بخش کوتاهی از فصل سوم دوره پایتورچ

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
5🤯1
Onlinebme
DL-Prj#1-Back Propagation and MLP.pdf
DL-Projects#2-RNNs-Manual.pdf
3 MB
《دوره یادگیری عمیق》
🔷  فصل 2: Recurrent neural networks (RNNs)
🔘 تمرینات سری دوم 

▪️ Back Propagation Through Time 
▪️ Pure mathematics behind RNNs
▪️ Elman/Vanilla RNNs
▪️ Jordan RNNs
▪️ Elman-Jordan RNNs
▪️ Time series dataset

🔺مهلت تحویل تمرینات: دو هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🙏43
Onlinebme
DL-Projects#2-RNNs-Manual.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
🔘بخش کوتاهی از فصل دوم دوره یادگیری عمیق
خلاصه اثبات روابط برای تنظیم وزنهای سیناپسی در RNNs

💡 Back Propagation Through Time (BPTT)

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🥰32
Onlinebme
DL-Projects#2-RNNs-Manual.pdf
DL-Projects#3-Bidirectional-RNNs (1).pdf
857.3 KB
《دوره یادگیری عمیق》
🔷   Season 02: Bi-directional RNNs (BiRNNs)

🔘 تمرینات سری سوم 
▪️ Back Propagation Through Time 
▪️ Pure mathematics behind RNNs
▪️ Bi-directional RNNs
▪️ Time series


🔺مهلت تحویل تمرینات: یک هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍32🤩1
Onlinebme
DL-Projects#3-Bidirectional-RNNs (1).pdf
DL-Projects#4-LSTM-math behind NNs.pdf
1.4 MB
《دوره یادگیری عمیق》
🔷   Season 02:
Long short-term memory (LSTMs)
🔘 تمرینات سری چهارم 
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ Back Propagation Through Time 
▪️ Pure mathematics behind LSTMs


🔺مهلت تحویل تمرینات: دو هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
3👍3
Onlinebme
DL-Projects#4-LSTM-math behind NNs.pdf
سلام وقت بخیر،
فصل مربوط به شبکه‌های بازگشتی (RNN) این هفته به پایان رسید. یک هفته استراحت خواهیم داشت و پس از آن وارد فصل سوم دوره (شبکه‌های کانولوشنی) می‌شویم.
در فصل دوم، یکی از پروژه هایی که با استفاده از RNNها انجام دادیم تولید متن بود. این شبکه ها از اولین مدلهایی بودند که برای اینکار استفاده میشدند. با این حال، RNNها محدودیتهایی داشتند و در تولید متن عملکرد چندان دقیق و کارآمدی نداشتند که بعدها با معرفی مکانیزم توجه  و سپس مدل‌های مبتنی بر ترنسفورمرها، یک تحول بزرگ در تولید محتوا رخ داد و نتیجه آن مدل‌های قدرتمندی مانند  ChatGPTاست.

در این پروژه، یک شبکه‌ی سبک LSTM (با تنها یک لایه بازگشتی و تعداد نورون محدود) رو روی یک دیتاست بسیار کوچک آموزش دادیم. سپس با استفاده از مدل آموزش دیده، چند نمونه متن به ازای مقادیر مختلف temperature تولید کردیم که خروجی جالبی داشتند.
 
پارامتر temperature که از مکانیک آماری قرض گرفته شده، در مدل‌های زبانی برای کنترل میزان خلاقیت، ریسک پذیری و تنوع در انتخاب کلمات استفاده میشه. مقادیر پایینتر، خروجی را محافظه‌ کارانه، تکراری و قابل پیش‌ بینی میکنند. و در عوض مقادیر بالاتر، باعث تولید متنهای خلاقانه تر و غیرقابل ‌پیش بینی تر میشوند
در ادامه چند نمونه از متنهای تولید شده را با شما به اشتراک می‌گذارم:
 
Prime text: i like to say
Temperature: 0.99
i like to say my word its time. how i should have to tell you. but they are married who were in any fix they mostly went to badger the dangerous look at the beginning of the stone own under a tree not long to be a leader. he left we thus with sid words that no star is a continual feast. little twoeyes. here we thank you lady mary so did she get a little ashamed of the questions who lived in that way. she said. he came down and carried it quickly about her. asked beth anxiously. so she was an odd merchant seeing that his son might choose. then they went and stood before the door and the one kept a wonderful one. then the kings daughter came with the cattle and went on his way …

 
Prime text: i like to say
Temperature: 0.1
i like to say my word its being rather dirty.
but i cant tell you how we can manage.
i am glad you think that i was a ghost or a man.
i want to be able to find it.
he hesitated.
he forgot all about the ball.
i want to lift my whole in the world to fill such a thing or two.
my brother say a name i have killed many times.
ye have called me a silly ass.
i was dumb.
i hadnt a bit of it out of the window…
 
 
Prime text: the girl
Temperature: 0.3
the girl was afraid of the beautiful character. the poor woman declared with a little milk at once with a ball of dry kind. she began to beat her with a great storm as a sacrifice. the tin woodman followed with the swallow and fell asleep. when she saw him turning she threw her into the basin. she was so beautiful that he hoped it would be wise to him. but he never told anybody except that they should not come. so long after wealth and darling lived only a few hours earlier to …

 
 
Prime text: i love to
Temperature: 0.3
i love to hunt my husband.
it is a pity because i am a capital fellow.
i dont know how to read it.
i have never seen him before.
i dont know how to give him to mine.
i have been married behind.
i am a traveler please excuse me.
i will not tell you how to behave.
but you must not talk about that.
it is a pity because i am a smart toad and i dont know.
i was sweeping my room my lady my lady i bought my mates in...



💡در فصل چهارم مدلهای کارآمدتری بررسی خواهیم کرد😊

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍53
Onlinebme
سلام وقت بخیر، فصل مربوط به شبکه‌های بازگشتی (RNN) این هفته به پایان رسید. یک هفته استراحت خواهیم داشت و پس از آن وارد فصل سوم دوره (شبکه‌های کانولوشنی) می‌شویم. در فصل دوم، یکی از پروژه هایی که با استفاده از RNNها انجام دادیم تولید متن بود. این شبکه ها از…
💡تکنیک Bag of Words در پردازش زبان طبیعی | آموزش کامل همراه با پروژه‌ی عملی spam detection
نویسنده: محمد نوری زاده چرلو

تکنیک  BOW یکی از  پرکاربردترین روش‌ها در استخراج ویژگی‌های متنی در حوزه‌ی NLP است.
یکی از چالشهای اصلی در داده‌های متنی، تفاوت اندازه‌ی بردار ویژگی بین نمونه ها است که فرآیند آموزش مدل‌های یادگیری ماشین را با چالش روبرو میکند. روش BOW با تبدیل متن به یک بردار ویژگی یکسان و قابل پردازش، این مشکل را برطرف می‌کند و پایه‌ی بسیاری از مدل‌های طبقه ‌بندی متون است. در این پست ابتدا با مفهوم BOW، نحوه‌ی ساخت بردار ویژگی و کاربردهای آن در sentiment analysis آشنا می‌شوید. سپس یک پروژه‌ی عملی "تشخیص پیامکهای Spam" رو به صورت گام به گام پیاده سازی خواهیم کرد.

دسترسی به کد پروژه در GitHub
GitHub| Spam detection in python

⭕️جزییات بیشتر در وبسایت Onlinebme 👇👇
Onlinebme| Bag Of Words


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
4👍2
Onlinebme
DL-Projects#4-LSTM-math behind NNs.pdf
DL-Projects#5-RNNs.pdf
1.6 MB
《دوره یادگیری عمیق》
🔷 Season 02: RNNs IN PRACTICE

🔘 تمرینات سری پنجم 
▪️ RNN
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ PyTorch
▪️ Text Generation
▪️ Word-Level & Character-Level
▪️ Regression
▪️ Classification
▪️ Signal processing


🔺مهلت تحویل تمرینات: دو هفته

💡 کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍3🔥1
💡مجموعه ای از پست‌های آموزشی ما در حوزه یادگیری ماشین، شبکه‌های عصبی و PyTorch (از مفاهیم پایه تا مباحث پیشرفته)
 

 
در یکی دو سال گذشته، سعی کرده ایم مجموعه ای از پستهای آموزشی-کاربردی در حوزه برنامه نویسی پایتون، یادگیری ماشین، و یادگیری عمیق با شما به اشتراک بگذاریم. در این پستها، از مفاهیم پایه مانند توابع هزینه و ساختار شبکه‌های عصبی گرفته تا موضوعات پیشرفته تر مثل روش‌های بهینه سازی، نحوه انتخاب معیارهای ارزیابی، ساخت دیتالودرهای سفارشی در پایتورچ...

برای اینکه دسترسی به همه این مطالب راحتتر بشه، تصمیم گرفتم تمام پست‌ها، همراه با لینک وبسایت و PDF را در یک پست مرتب قرار دهم.
💡اگر در مسیر یادگیری ماشین هستید، این مجموعه میتونه برایتان به‌عنوان یک هندبوک آموزشی عمل کند.


🔵 بخش اول: Python & PyTorch — راهنمای عملی
نقشه راه یادگیری ماشین (از روشهای کلاسیک تا دیپ لرنینگ)
PDF | website
 نقشه راه و چالش 10 هفته‌ای یادگیری پایتون
PDF | website
معرفی اجمالی کتابخانه PyTorch
PDF | website
تفاوت تنسور PyTorch با آرایه NumPy 
PDF | website
تنسورفلو یا پایتورچ- چرا PyTorch برای محققین انتخاب مناسبی است؟
PDF | website
خواندن داده‌ با فرمتهای مختلف در پایتون
PDF | website
ساخت dataloader سفارشی با کمک DataLoader و Dataset پایتورچ
PDF | website
 
🔵 بخش دوم: مفاهیم پایه‌ای یادگیری ماشین و شبکه‌های عصبی
شبکه عصبی و اهمیت مدل سازی مغز انسان
PDF | website
انواع «یادگیری» در یادگیری ماشین
PDF | website
پنج موردی که باید در شروع کار با یادگیری عمیق بدانید
PDF | website
نحوه حل یک مسئله در شبکه عصبی
PDF | website
شبکه عصبی پرسپترون چند لایه و مسائل غیرخطی
PDF | website
شبکه عصبی CNN چطور کار میکنه؟!
PDF | website
تکنیک BOW در پردازش زبان طبیعی
PDF | website | GitHub
 
🔵 بخش سوم: توابع هزینه، معیارهای ارزیابی و تحلیل مدل
تابع هزینه cross entropy و تفاوت آن با مربعات خطا  (MSE)
PDF | website
پارامترهای ارزیابی در مسائل رگرسیون و طبقه بندی
PDF | website
نحوه ی انتخاب بهترین معیار ارزیابی برای مسائل رگرسیون
PDF | website
 
🔵 بخش چهارم: بهینه سازی (Optimization)
گرادیان نزولی و نقش آن در فرایند یادگیری شبکه های عصبی
PDF | website
مطالعه مروری روشهای بهینه‌سازی مبتنی بر گرادیان نزولی (از SGD تا Adam)
PDF | website
 
 
 🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
10👍3
Onlinebme
DL-Projects#5-RNNs.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
💡پیاده‌سازی دستی شبکه عصبی کانولوشنی...

@Onlinebme
👍5🔥1😁1
Onlinebme
💡پیاده‌سازی دستی شبکه عصبی کانولوشنی... @Onlinebme
همیشه دوست داشتم شبکه عصبیCNN رو همانند سایر شبکه ها مثل MLP، اول کاملا به صورت دستی پیاده سازی کنم. قبلا یکی دوبار تلاش کردم ولی موفق نشدم کامل پیاده سازی کنم. و این برمیگشت به عدم شناخت دقیق من از چهارچوب CNN و یه سری ریزه کاری ها در کدنویسی.


بعد از یادگیری RNN مجددا شانسم رو امتحان کردم، از اونجا که BPTT پیچیدگی های زیادی داشت، درک اون کمک کرد CNNهارو هم بتونم پیاده سازی کنم. و خب خیلی خوشحال شدم از این اتفاق😊

این هفته، در جلسه اول فصل شبکه های کانولوشنی قراره باهم یک شبکه ی عصبی کانولوشنی رو بدون استفاده از ابزار آماده پایتورچ پیاده سازی کنیم. ریاضیات و یپاده سازی خواهیم داشت😉

از جلسه بعد، میریم سراغ ابزار پایتورچ و معرفی ساختارهای مختلف!

💡 ما در دوره یادگیری عمیق، ابتدا شبکه‌های عصبی رو کاملا دستی پیاده‌سازی میکنیم، بعدش میریم سراغ ابزارهای آماده.

و برای پیاده‌سازی هم، اول ریاضیات و اثبات روابط یادگیری شبکه های عصبی رو کامل یاد میگیریم😊

در آخر هم میریم سراغ پروژه های عملی...
16👍8🤝1