Onlinebme – Telegram
Onlinebme
4.88K subscribers
1.54K photos
603 videos
367 files
747 links
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ارائه‌دهنده‌ی پکیجهای آموزشی پروژه محور:
برنامه‌نویسی متلب-پایتون
شناسایی الگو
یادگیری ماشین
شبکه‌های عصبی
واسط مغز-کامپیوتر
پردازش تصویر-سیگنالهای حیاتی

تماس👇
09360382687
@onlineBME_admin

www.onlinebme.com
Download Telegram
Onlinebme
DL-Prj#1-Back Propagation and MLP.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق

اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی دوکلاسه
Cost Fun: Binary Cross Entropy
Activation Fun: Sigmoid

🔘بخش کوتاهی از فصل سوم دوره پایتورچ

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
5🥰1
Onlinebme
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی دوکلاسه Cost Fun: Binary Cross Entropy Activation Fun: Sigmoid 🔘بخش کوتاهی از فصل سوم دوره پایتورچ 🏢 آکادمی آنلاین مهندسی پزشکی و هوش…
Media is too big
VIEW IN TELEGRAM
💡مطالعه بیشتر برای شرکت کنندگان دوره آنلاین یادگیری عمیق

اثبات روابط مربوط به گرادیان لایه خروجی در مباحث طبقه‌بندی چندکلاسه
Cost Fun: Cross Entropy
Activation Fun: SoftMax

🔘بخش کوتاهی از فصل سوم دوره پایتورچ

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
5🤯1
Onlinebme
DL-Prj#1-Back Propagation and MLP.pdf
DL-Projects#2-RNNs-Manual.pdf
3 MB
《دوره یادگیری عمیق》
🔷  فصل 2: Recurrent neural networks (RNNs)
🔘 تمرینات سری دوم 

▪️ Back Propagation Through Time 
▪️ Pure mathematics behind RNNs
▪️ Elman/Vanilla RNNs
▪️ Jordan RNNs
▪️ Elman-Jordan RNNs
▪️ Time series dataset

🔺مهلت تحویل تمرینات: دو هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🙏43
Onlinebme
DL-Projects#2-RNNs-Manual.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
🔘بخش کوتاهی از فصل دوم دوره یادگیری عمیق
خلاصه اثبات روابط برای تنظیم وزنهای سیناپسی در RNNs

💡 Back Propagation Through Time (BPTT)

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
🥰32
Onlinebme
DL-Projects#2-RNNs-Manual.pdf
DL-Projects#3-Bidirectional-RNNs (1).pdf
857.3 KB
《دوره یادگیری عمیق》
🔷   Season 02: Bi-directional RNNs (BiRNNs)

🔘 تمرینات سری سوم 
▪️ Back Propagation Through Time 
▪️ Pure mathematics behind RNNs
▪️ Bi-directional RNNs
▪️ Time series


🔺مهلت تحویل تمرینات: یک هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍32🤩1
Onlinebme
DL-Projects#3-Bidirectional-RNNs (1).pdf
DL-Projects#4-LSTM-math behind NNs.pdf
1.4 MB
《دوره یادگیری عمیق》
🔷   Season 02:
Long short-term memory (LSTMs)
🔘 تمرینات سری چهارم 
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ Back Propagation Through Time 
▪️ Pure mathematics behind LSTMs


🔺مهلت تحویل تمرینات: دو هفته

💡 از روابط اثبات شده عکس گرفته و به ترتیب روابط شماره گذاری شوند و همراه با کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
3👍3
Onlinebme
DL-Projects#4-LSTM-math behind NNs.pdf
سلام وقت بخیر،
فصل مربوط به شبکه‌های بازگشتی (RNN) این هفته به پایان رسید. یک هفته استراحت خواهیم داشت و پس از آن وارد فصل سوم دوره (شبکه‌های کانولوشنی) می‌شویم.
در فصل دوم، یکی از پروژه هایی که با استفاده از RNNها انجام دادیم تولید متن بود. این شبکه ها از اولین مدلهایی بودند که برای اینکار استفاده میشدند. با این حال، RNNها محدودیتهایی داشتند و در تولید متن عملکرد چندان دقیق و کارآمدی نداشتند که بعدها با معرفی مکانیزم توجه  و سپس مدل‌های مبتنی بر ترنسفورمرها، یک تحول بزرگ در تولید محتوا رخ داد و نتیجه آن مدل‌های قدرتمندی مانند  ChatGPTاست.

در این پروژه، یک شبکه‌ی سبک LSTM (با تنها یک لایه بازگشتی و تعداد نورون محدود) رو روی یک دیتاست بسیار کوچک آموزش دادیم. سپس با استفاده از مدل آموزش دیده، چند نمونه متن به ازای مقادیر مختلف temperature تولید کردیم که خروجی جالبی داشتند.
 
پارامتر temperature که از مکانیک آماری قرض گرفته شده، در مدل‌های زبانی برای کنترل میزان خلاقیت، ریسک پذیری و تنوع در انتخاب کلمات استفاده میشه. مقادیر پایینتر، خروجی را محافظه‌ کارانه، تکراری و قابل پیش‌ بینی میکنند. و در عوض مقادیر بالاتر، باعث تولید متنهای خلاقانه تر و غیرقابل ‌پیش بینی تر میشوند
در ادامه چند نمونه از متنهای تولید شده را با شما به اشتراک می‌گذارم:
 
Prime text: i like to say
Temperature: 0.99
i like to say my word its time. how i should have to tell you. but they are married who were in any fix they mostly went to badger the dangerous look at the beginning of the stone own under a tree not long to be a leader. he left we thus with sid words that no star is a continual feast. little twoeyes. here we thank you lady mary so did she get a little ashamed of the questions who lived in that way. she said. he came down and carried it quickly about her. asked beth anxiously. so she was an odd merchant seeing that his son might choose. then they went and stood before the door and the one kept a wonderful one. then the kings daughter came with the cattle and went on his way …

 
Prime text: i like to say
Temperature: 0.1
i like to say my word its being rather dirty.
but i cant tell you how we can manage.
i am glad you think that i was a ghost or a man.
i want to be able to find it.
he hesitated.
he forgot all about the ball.
i want to lift my whole in the world to fill such a thing or two.
my brother say a name i have killed many times.
ye have called me a silly ass.
i was dumb.
i hadnt a bit of it out of the window…
 
 
Prime text: the girl
Temperature: 0.3
the girl was afraid of the beautiful character. the poor woman declared with a little milk at once with a ball of dry kind. she began to beat her with a great storm as a sacrifice. the tin woodman followed with the swallow and fell asleep. when she saw him turning she threw her into the basin. she was so beautiful that he hoped it would be wise to him. but he never told anybody except that they should not come. so long after wealth and darling lived only a few hours earlier to …

 
 
Prime text: i love to
Temperature: 0.3
i love to hunt my husband.
it is a pity because i am a capital fellow.
i dont know how to read it.
i have never seen him before.
i dont know how to give him to mine.
i have been married behind.
i am a traveler please excuse me.
i will not tell you how to behave.
but you must not talk about that.
it is a pity because i am a smart toad and i dont know.
i was sweeping my room my lady my lady i bought my mates in...



💡در فصل چهارم مدلهای کارآمدتری بررسی خواهیم کرد😊

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍53
Onlinebme
سلام وقت بخیر، فصل مربوط به شبکه‌های بازگشتی (RNN) این هفته به پایان رسید. یک هفته استراحت خواهیم داشت و پس از آن وارد فصل سوم دوره (شبکه‌های کانولوشنی) می‌شویم. در فصل دوم، یکی از پروژه هایی که با استفاده از RNNها انجام دادیم تولید متن بود. این شبکه ها از…
💡تکنیک Bag of Words در پردازش زبان طبیعی | آموزش کامل همراه با پروژه‌ی عملی spam detection
نویسنده: محمد نوری زاده چرلو

تکنیک  BOW یکی از  پرکاربردترین روش‌ها در استخراج ویژگی‌های متنی در حوزه‌ی NLP است.
یکی از چالشهای اصلی در داده‌های متنی، تفاوت اندازه‌ی بردار ویژگی بین نمونه ها است که فرآیند آموزش مدل‌های یادگیری ماشین را با چالش روبرو میکند. روش BOW با تبدیل متن به یک بردار ویژگی یکسان و قابل پردازش، این مشکل را برطرف می‌کند و پایه‌ی بسیاری از مدل‌های طبقه ‌بندی متون است. در این پست ابتدا با مفهوم BOW، نحوه‌ی ساخت بردار ویژگی و کاربردهای آن در sentiment analysis آشنا می‌شوید. سپس یک پروژه‌ی عملی "تشخیص پیامکهای Spam" رو به صورت گام به گام پیاده سازی خواهیم کرد.

دسترسی به کد پروژه در GitHub
GitHub| Spam detection in python

⭕️جزییات بیشتر در وبسایت Onlinebme 👇👇
Onlinebme| Bag Of Words


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
4👍2
Onlinebme
DL-Projects#4-LSTM-math behind NNs.pdf
DL-Projects#5-RNNs.pdf
1.6 MB
《دوره یادگیری عمیق》
🔷 Season 02: RNNs IN PRACTICE

🔘 تمرینات سری پنجم 
▪️ RNN
▪️ LSTM
▪️ GRU
▪️ Bi-directional LSTM
▪️ Bi-directional GRU
▪️ Time series
▪️ PyTorch
▪️ Text Generation
▪️ Word-Level & Character-Level
▪️ Regression
▪️ Classification
▪️ Signal processing


🔺مهلت تحویل تمرینات: دو هفته

💡 کدهای پیاده‌سازی شده برای پروژه ها به صورت فایل زیپ ارسال شوند.


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍3🔥1
💡مجموعه ای از پست‌های آموزشی ما در حوزه یادگیری ماشین، شبکه‌های عصبی و PyTorch (از مفاهیم پایه تا مباحث پیشرفته)
 

 
در یکی دو سال گذشته، سعی کرده ایم مجموعه ای از پستهای آموزشی-کاربردی در حوزه برنامه نویسی پایتون، یادگیری ماشین، و یادگیری عمیق با شما به اشتراک بگذاریم. در این پستها، از مفاهیم پایه مانند توابع هزینه و ساختار شبکه‌های عصبی گرفته تا موضوعات پیشرفته تر مثل روش‌های بهینه سازی، نحوه انتخاب معیارهای ارزیابی، ساخت دیتالودرهای سفارشی در پایتورچ...

برای اینکه دسترسی به همه این مطالب راحتتر بشه، تصمیم گرفتم تمام پست‌ها، همراه با لینک وبسایت و PDF را در یک پست مرتب قرار دهم.
💡اگر در مسیر یادگیری ماشین هستید، این مجموعه میتونه برایتان به‌عنوان یک هندبوک آموزشی عمل کند.


🔵 بخش اول: Python & PyTorch — راهنمای عملی
نقشه راه یادگیری ماشین (از روشهای کلاسیک تا دیپ لرنینگ)
PDF | website
 نقشه راه و چالش 10 هفته‌ای یادگیری پایتون
PDF | website
معرفی اجمالی کتابخانه PyTorch
PDF | website
تفاوت تنسور PyTorch با آرایه NumPy 
PDF | website
تنسورفلو یا پایتورچ- چرا PyTorch برای محققین انتخاب مناسبی است؟
PDF | website
خواندن داده‌ با فرمتهای مختلف در پایتون
PDF | website
ساخت dataloader سفارشی با کمک DataLoader و Dataset پایتورچ
PDF | website
 
🔵 بخش دوم: مفاهیم پایه‌ای یادگیری ماشین و شبکه‌های عصبی
شبکه عصبی و اهمیت مدل سازی مغز انسان
PDF | website
انواع «یادگیری» در یادگیری ماشین
PDF | website
پنج موردی که باید در شروع کار با یادگیری عمیق بدانید
PDF | website
نحوه حل یک مسئله در شبکه عصبی
PDF | website
شبکه عصبی پرسپترون چند لایه و مسائل غیرخطی
PDF | website
شبکه عصبی CNN چطور کار میکنه؟!
PDF | website
تکنیک BOW در پردازش زبان طبیعی
PDF | website | GitHub
 
🔵 بخش سوم: توابع هزینه، معیارهای ارزیابی و تحلیل مدل
تابع هزینه cross entropy و تفاوت آن با مربعات خطا  (MSE)
PDF | website
پارامترهای ارزیابی در مسائل رگرسیون و طبقه بندی
PDF | website
نحوه ی انتخاب بهترین معیار ارزیابی برای مسائل رگرسیون
PDF | website
 
🔵 بخش چهارم: بهینه سازی (Optimization)
گرادیان نزولی و نقش آن در فرایند یادگیری شبکه های عصبی
PDF | website
مطالعه مروری روشهای بهینه‌سازی مبتنی بر گرادیان نزولی (از SGD تا Adam)
PDF | website
 
 
 🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
10👍3
Onlinebme
DL-Projects#5-RNNs.pdf
This media is not supported in your browser
VIEW IN TELEGRAM
💡پیاده‌سازی دستی شبکه عصبی کانولوشنی...

@Onlinebme
👍5🔥1😁1
Onlinebme
💡پیاده‌سازی دستی شبکه عصبی کانولوشنی... @Onlinebme
همیشه دوست داشتم شبکه عصبیCNN رو همانند سایر شبکه ها مثل MLP، اول کاملا به صورت دستی پیاده سازی کنم. قبلا یکی دوبار تلاش کردم ولی موفق نشدم کامل پیاده سازی کنم. و این برمیگشت به عدم شناخت دقیق من از چهارچوب CNN و یه سری ریزه کاری ها در کدنویسی.


بعد از یادگیری RNN مجددا شانسم رو امتحان کردم، از اونجا که BPTT پیچیدگی های زیادی داشت، درک اون کمک کرد CNNهارو هم بتونم پیاده سازی کنم. و خب خیلی خوشحال شدم از این اتفاق😊

این هفته، در جلسه اول فصل شبکه های کانولوشنی قراره باهم یک شبکه ی عصبی کانولوشنی رو بدون استفاده از ابزار آماده پایتورچ پیاده سازی کنیم. ریاضیات و یپاده سازی خواهیم داشت😉

از جلسه بعد، میریم سراغ ابزار پایتورچ و معرفی ساختارهای مختلف!

💡 ما در دوره یادگیری عمیق، ابتدا شبکه‌های عصبی رو کاملا دستی پیاده‌سازی میکنیم، بعدش میریم سراغ ابزارهای آماده.

و برای پیاده‌سازی هم، اول ریاضیات و اثبات روابط یادگیری شبکه های عصبی رو کامل یاد میگیریم😊

در آخر هم میریم سراغ پروژه های عملی...
16👍8🤝1
Forwarded from Onlinebme
⬛️◼️◾️ پکیجهای آموزشی Onlinebme ◾️◼️⬛️

🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆


برنامه‌نویسی متلب

🔲 اصول برنامه‌نویسی در متلب (رایگان)
▪️
مدت دوره: 11 ساعت
🔘 Link


برنامه‌نویسی پایتون 

⚪️ فصل 1: اصول برنامه‌نویسی پایتون 
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link


شناسایی الگو و یادگیری ماشین

⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیاده‌سازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
 
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتم‌های کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7:  الگوریتم‌های انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتم‌های خوشه‌بندی
◽️مدت دوره: 13 ساعت
🔘 Link


شبکه‌های عصبی

⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️
مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️
مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️
مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکه‌های عمیق در بینایی ماشین
◽️
مدت دوره: 16 ساعت
🔘 Link

⚪️ دوره پیاده‌سازی شبکه‌های عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link

پردازش سیگنال مغزی

⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️
مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️
مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️
مدت دوره: 21 ساعت
🔘 Link
⚪️ پیاده‌سازی مقاله CSSP (BCI مبتنی بر MI)
◽️
مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیاده‌سازی مقاله RCSP (BCI مبتنی بر MI)
◽️
مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️
مدت دوره: 8 ساعت
🔘 Link

⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link

دوره جامع پردازش تصویر

⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link


پردازش سیگنال قلبی

⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره:
37 ساعت و 45 دقیقه
🔘 Link


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
3👍2
💡از کشف تصادفی تا جایزه نوبل، داستانی که بینایی ماشین را متحول کرد!

کشف اتفاقی یک لبهٔ نور در آزمایشگاهی ساده در جان‌هاپکینز
به فهم عملکرد نورون‌های بینایی انجامید،
جایزهٔ نوبل گرفت،
و پایهٔ شبکه‌های کانولوشنی (CNN) شد.

اگر امروز مدل‌هایی مانند HMAX، LeNet، AlexNet، ResNet   یا  Vision Transformers وجود دارند، ریشهٔ اصلی آن‌ها به همان روزی برمی‌گردد که یک خط نور، به ‌طور کاملاً تصادفی، یک نورون را فعال کرد.

در دهه‌ی ۱۹۶۰، دو دانشمند جوان به نامهای David Hubel  وTorsten Wiesel در دانشگاه Johns Hopkins، همکاری‌ای را آغاز کردند که بعدها یکی از مهم‌ترین کشفیات علوم اعصاب و بینایی ماشین را رقم زد.
نکته‌ی جالب این بود که آنها تجهیزات بسیار ابتدایی داشتند:
یک میکروالکترود، یک نمایشگر اسلایدی ساده و یک گربهی بیهوش.

⭕️جزییات بیشتر👇👇
PDF | website

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍51
Onlinebme
My ML model makes me happy... @Onlinebme
وضعیت من بعد از پیاده‌سازی هر الگوریتم (بعد از ۳۵۵ روز تلاش برای درک و پیاده‌سازیش)😂

@Onlinebme
🤣22😁43👾1
Onlinebme
💡پیاده‌سازی دستی شبکه عصبی کانولوشنی... @Onlinebme
DL#3-1-CNNs-math.pdf
4.1 MB
🗒جزوه خام: جلسه یک از فصل سوم دوره‌ی جامع یادگیری عمیق

☑️شبکه‌های عصبی کانولوشنی (CNNs)
💡تئوری و ریاضیات+ پیاده‌سازی+ پروژه عملی

@Onlinebme
7👍4