Onlinebme – Telegram
Onlinebme
4.88K subscribers
1.54K photos
603 videos
367 files
747 links
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ارائه‌دهنده‌ی پکیجهای آموزشی پروژه محور:
برنامه‌نویسی متلب-پایتون
شناسایی الگو
یادگیری ماشین
شبکه‌های عصبی
واسط مغز-کامپیوتر
پردازش تصویر-سیگنالهای حیاتی

تماس👇
09360382687
@onlineBME_admin

www.onlinebme.com
Download Telegram
Onlinebme
📺 در این ویدیو فرق بین هوش مصنوعی، یادگیری ماشین و یادگیری عمیق رو توضیح میدهیم #هوش_مصنوعی #یادگیری_ماشین #یادگیری_عمیق اطلاعات بیشتر: https://onlinebme.com/unit/difference-between-ai-machine-learning-and-deep-learning/?id=4621 🏢 آکادمی آنلاین مهندسی…
💡هوش مصنوعی، از Deep Blue تا AlphaGo

نویسنده: محمد نوری زاده چرلو
16 اسفند 1403

هوش مصنوعی که این روزها به موضوعی داغ در اخبار تبدیل شده، برای محققین این حوزه عبارت هوش مصنوعی اصلا تازگی نداره و سالهاست که در این حوزه فعالیت انجام میشه. در این پست میخواهیم یک گذری به گذشته بکنیم و دو مدل کامپیوتری مبتنی بر هوش مصنوعی رو بررسی کنیم که وقتی ارائه شدند، توجه رسانه ای گسترده ای رو به خود جذب کردند و به نوعی سلبریتی بودند و با پیروزیهایی که در مقابل بهترین بازیکنان مطرح شطرنج و Go کسب کردند به طور اساسی طرز فکر مردم نسبت به هوش مصنوعی رو تغییر دادند. 
⭕️جزئیات بیشتر👇
https://onlinebme.com/artificial-intelligence-deep-blue-and-alphago/

🏢آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
7🙏1
Onlinebme
فرمت IMRaD در مقاله نویسی اگر تا الان تجربه‌ی نوشتن یک مقاله رو داشته باشید، احتمالا با این سوال مواجه شده‌اید: IMRaD چیه؟ یا ممکنه استادتون بهتون گفته باشه که حتما متن مقاله رو به فرمت IMRaD بنویسید. وقتی یک مقاله علمی مینویسیم، خیلی مهمه که طبق یک ساختار…
چگونه مقدمه یک مقاله را بنویسیم؟

💡مقدمه یکی از مهم‌ترین بخش‌های یک مقاله است. یک مقدمه خوب بهتره مثل یک داستانی جذابی باشه که خواننده رو مجاب کنه تا آخر بخونه و همراه نویسنده باشد. انگار میخواد بدونه در انتهای داستان چه اتفاقی میخواد بیافته. شخصیت اصلی داستان هم که ایده خود مطالعه هست.

💡یک مقدمه خوب اول خواننده رو با چالش موجود در یک حوزه و اهمیت حل این چالش آشنا میکند. سپس چندین مطالعه ای که سعی بر حل چالش کرده اند، توضیح میده، و بعدش چالشی که هنوز باقی مانده (یا هنوز خوب حل نشده) رو بیان میکند، در انتها هم رویکرد و هدف مقاله برای حل چالش رو مختصر اشاره میکند. با خوندن مقدمه باید خواننده به‌طور کامل متوجه بشه که هدف نویسندگان از انجام این مطالعه چی بوده که مشتاق باشند برن بخش method مقاله و نتایج رو مطالعه کنند.

🔷 اگر تازه‌کار باشیم، معمولاً فهرستی از کارهای انجام‌شده در این حوزه را بدون نظم مشخصی ارائه می‌کنیم. هر مقاله‌ای که پیدا کنیم، مخصوصاً اگر جدید باشد، در مقدمه قرار می‌دهیم و تصور می‌کنیم که هرچه تعداد مقالات ذکرشده بیشتر باشد، بهتر است! اما در واقع، مقدمه باید با دقت و حساب شده نوشته شود.


💡 یک دوستی داشتیم میگفت یک داور حرفه ای معمولا با خوندن مقدمه یک مقاله تصمیم خودش رو در مورد پذیرش یا ریجکت مقاله میگیره. فکر نمیکنم دیگه انقدر بخوان سخت گیری کنند! هدفم از آوردن این نقل قول بیشتر برای تاکید بر اهمیت نوشتن درست یک مقدمه هست.

@Onlinebme
🙏4👍1
Onlinebme
How-to-write-the-introduction-of-a-scientific-arti.pdf
آقای Bardia Safaei در لینکدین نکات مقاله رو به خوبی پوشش دادند که در زیر قرار داده شده اند.

پيشنهادات طلايى در نوشتن “مقدمه“ مقالات!

🔺دكتر Jorge Faber در سال 2012 چنین جواهر نابى را خلق کرد. او در یک صفحه، که در تصویر زير نشان داده شده، به طور مختصر پیشنهادات خود را در مورد نحوه نوشتن مقدمه یک مقاله بیان می کند.

🔺مهمترين مواردى كه او به آن ها اشاره مى كند شامل موارد زير است:
1⃣ مقدمه نباید بیش از 10٪ از کل صفحات مقاله باشد. فابر معتقد است که هیچکس نمی خواهد یک مقدمه بیش از حد طولانی بخواند!

2⃣ برای حفظ انسجام، مقدمه بايد از یک مسئله بزرگتر شروع شود و به تدريج و به دقت به سوال تحقیق برسد.

3⃣ از منابع زیاد استفاده نشود. فابر استدلال می کند که مطالعات پیشگامانه به ندرت دارای تعداد زیادی منابع برای انگیزه بخشی به کار خود هستند.

4⃣ از استفاده از نام نویسندگان به عنوان موضوع جملات خودداری کنید. فابر می گوید که مقدمه های خوب بر ایده ها و شواهد تمرکز دارند، نه نویسندگانی که آن ها را بیان کرده اند.

5⃣ وقتی شک دارید، متن را ساده نگه داريد!

🔺مقاله يك صفحه اى فابر يك راهنمای کوتاه اما جامع برای نوشتن مقدمه است كه شايد از آن بهتر را در اين اندازه نتوانيد پیدا کنید.

Source: LinkedIn (Bardia Safaei)

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
8👍4👌1
Onlinebme
☑️نصب تولباکس WFDB فیزیونت در متلب دسته:پایگاه داده محمد نوری زاده چرلو 17 اردیبهشت 1403 سایت فیزیونت یک وبسایت پایگاه داده پزشکی است که داده های بسیار معتبری ارائه میدهد. سیگنالهای حیاتی این سایت با فرمتهای مختلفی هستند که برای خواندن آنها در متلب لازمه…
معرفی پایگاه داده
Title: A Large Finer-grained Affective Computing EEG Dataset
Journal: Nature

برخلاف مطالعه دیگه که اکثرا داده های مبتنی بر احساسات منفی ثبت میکنند، در این مطالعه یک داده ی جامع و بالانس از احساسات مثبت و منفی ثبت شده است. برای اینکار، سیگنال مغزی (EEG) 32 کاناله از 128 سابجکت ثبت شده است. طول ثبت سیگنال مغزی، افراد مجموعا به 28 کلیپِ تحریک‌‎کننده احساسات نگاه کردند که شامل 9 دسته هیجان (تفریح، الهام، شادی، حساسیت، خشم، ترس، انزجار، غم و عواطف خنثی) بود. محققین این مطالعه انتظار دارند که داده FACED کمک خوبی به توسعه الگوریتم های مبتنی بر EEG در کاربردهای عملی بکند.

💡هم داده و هم کدهای مقاله به صورت رایگان در سایت synapse قابل دسترس است.
https://www.nature.com/articles/s41597-023-02650-w

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍5👏1
Onlinebme
معرفی پایگاه داده Title: A Large Finer-grained Affective Computing EEG Dataset Journal: Nature برخلاف مطالعه دیگه که اکثرا داده های مبتنی بر احساسات منفی ثبت میکنند، در این مطالعه یک داده ی جامع و بالانس از احساسات مثبت و منفی ثبت شده است. برای اینکار، …
تحلیل احساسات مثبت و منفی در این مطالعه نشان میدهد که در باندهای فرکانسی (دلتا، تتا، آلفا، بتا و گاما) در افراد تجربه کننده ترس و شادی تفاوت معناداری وجود دارد، مخصوصا در باند بتا!

@Onlinebme
👍6🤩1
Onlinebme
تحلیل احساسات مثبت و منفی در این مطالعه نشان میدهد که در باندهای فرکانسی (دلتا، تتا، آلفا، بتا و گاما) در افراد تجربه کننده ترس و شادی تفاوت معناداری وجود دارد، مخصوصا در باند بتا! @Onlinebme
اینم از نتایج مقاله
دقت طبقه بندی در بین سابجکت ها برای حالته 9 کلاسه: دقتها از کمترین به بیشترین (از چپ به راست) برای سابجکت ها نشان داده شده اند.

خاکستری روشن: دقت هر سابجکت
نوار روشن: میانگین دقت در بین سابجکتها
خط چین: دقت سطح شانسی (100/9=11.11)
تصویر پایین هم، ماتریس کانفیوژن میانگین گرفته شده است.

@Onlinebme
👍7
Forwarded from Onlinebme
⬛️◼️◾️ پکیجهای آموزشی Onlinebme ◾️◼️⬛️

🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆


برنامه‌نویسی متلب

🔲 اصول برنامه‌نویسی در متلب (رایگان)
▪️
مدت دوره: 11 ساعت
🔘 Link


برنامه‌نویسی پایتون 

⚪️ فصل 1: اصول برنامه‌نویسی پایتون 
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link


شناسایی الگو و یادگیری ماشین

⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیاده‌سازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
 
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتم‌های کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7:  الگوریتم‌های انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتم‌های خوشه‌بندی
◽️مدت دوره: 13 ساعت
🔘 Link


شبکه‌های عصبی

⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️
مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️
مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️
مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکه‌های عمیق در بینایی ماشین
◽️
مدت دوره: 16 ساعت
🔘 Link

⚪️ دوره پیاده‌سازی شبکه‌های عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link

پردازش سیگنال مغزی

⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️
مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️
مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️
مدت دوره: 21 ساعت
🔘 Link
⚪️ پیاده‌سازی مقاله CSSP (BCI مبتنی بر MI)
◽️
مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیاده‌سازی مقاله RCSP (BCI مبتنی بر MI)
◽️
مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️
مدت دوره: 8 ساعت
🔘 Link

⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link

دوره جامع پردازش تصویر

⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link


پردازش سیگنال قلبی

⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره:
37 ساعت و 45 دقیقه
🔘 Link


🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
👍91🤩1
سلام
امیدوارم حالتون خوب باشه
برای سال جدید چندین دوره خواهیم داشت که فعلا در فاز مطالعه و آماده‌سازی محتوا هستم.
دوره های مثل RNN، LSTM و ترکیبشون با CNN در تسکهای مختلف، ترنسفورمرها، یادگیری تقویتی، و یکی سری دوره های پردازش سیگنال (EEG, ECoG--LFB, SPIKE analysis)

پیش نیاز همه دوره ها آشنایی با «برنامه نویسی پایتون، مخصوصا شی گرایی» هست.

پیش نیاز دوره های یادگیری عمیق هم «دوره پیاده‌سازی شبکه های عصبی در پایتورچ» هست.

پیشنهاد میکنم اگه قصد شرکت در این دوره ها رو دارید، در تعطیلات نوروزی پیش نیازهارو نگاه کنید.
موفق باشید
محمد نوری زاده چرلو

🟡 Python 


⚪️ فصل 1: اصول برنامه‌نویسی پایتون 
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
🔘 Link

⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
🔘 Link


🟠 PyTorch 


⚪️ دوره پیاده‌سازی شبکه‌های عصبی با PyTorch
🔘 Link

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
10👍5🤩1
سلام
سال نو مبارک ❤️
امیدوارم سال جدید سالی پر از موفقیت، سلامتی، پر برکت و دل خوش باشه براتون. 🙏

🟣 برای سال جدید چندین دوره تدارک دیدیم که به صورت آنلاین، آفلاین و یا حضوری برگزار خواهند شد.

💡سعی میکنیم در سال جدید دوره ی حضوری هم برگزار کنیم تا دورهمی های علمی کنار هم داشته باشیم و فرصتی باشه برای تعاملات و همکاری های پژوهشی.

سال خوبی را برای همگی آرزو میکنم.
موفق باشید...
محمد نوری زاده چرلو
22👏4🔥2👍1
Onlinebme
نقشه راه یادگیری ماشین @onlinebme
نقشه راه یادگیری عمیق
@onlinebme
🔥73👍2🙏2
Onlinebme
نقشه راه یادگیری عمیق @onlinebme
نقشه راه پردازش سیگنال مغزی EEG
PDF

@Onlinebme
👍54🔥1🤩1🙏1
Onlinebme
تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی 🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود. 💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد. @Onlinebme
💡راهنمای کلی در مورد تنظیم و تعیین هاپیرپارامترهای شبکه های عصبی

نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد می‌شود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
 
تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا می‌کنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص می‌کند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.  
 
تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف می‌شود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین می‌شود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting  بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.

💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
 
تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال می‌کند. 
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
 
روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری می‌کند.
🔷 مقدار بیش از  حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از  حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
 
تعداد تکه ها (batch size): مشخص می‌کند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا می‎کند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض:  32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
 
 🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍8
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI

@Onlinebme
🔥6👍4