Onlinebme
✅ فرمت IMRaD در مقاله نویسی اگر تا الان تجربهی نوشتن یک مقاله رو داشته باشید، احتمالا با این سوال مواجه شدهاید: IMRaD چیه؟ یا ممکنه استادتون بهتون گفته باشه که حتما متن مقاله رو به فرمت IMRaD بنویسید. وقتی یک مقاله علمی مینویسیم، خیلی مهمه که طبق یک ساختار…
چگونه مقدمه یک مقاله را بنویسیم؟
💡مقدمه یکی از مهمترین بخشهای یک مقاله است. یک مقدمه خوب بهتره مثل یک داستانی جذابی باشه که خواننده رو مجاب کنه تا آخر بخونه و همراه نویسنده باشد. انگار میخواد بدونه در انتهای داستان چه اتفاقی میخواد بیافته. شخصیت اصلی داستان هم که ایده خود مطالعه هست.
💡یک مقدمه خوب اول خواننده رو با چالش موجود در یک حوزه و اهمیت حل این چالش آشنا میکند. سپس چندین مطالعه ای که سعی بر حل چالش کرده اند، توضیح میده، و بعدش چالشی که هنوز باقی مانده (یا هنوز خوب حل نشده) رو بیان میکند، در انتها هم رویکرد و هدف مقاله برای حل چالش رو مختصر اشاره میکند. با خوندن مقدمه باید خواننده بهطور کامل متوجه بشه که هدف نویسندگان از انجام این مطالعه چی بوده که مشتاق باشند برن بخش method مقاله و نتایج رو مطالعه کنند.
🔷 اگر تازهکار باشیم، معمولاً فهرستی از کارهای انجامشده در این حوزه را بدون نظم مشخصی ارائه میکنیم. هر مقالهای که پیدا کنیم، مخصوصاً اگر جدید باشد، در مقدمه قرار میدهیم و تصور میکنیم که هرچه تعداد مقالات ذکرشده بیشتر باشد، بهتر است! اما در واقع، مقدمه باید با دقت و حساب شده نوشته شود.
💡 یک دوستی داشتیم میگفت یک داور حرفه ای معمولا با خوندن مقدمه یک مقاله تصمیم خودش رو در مورد پذیرش یا ریجکت مقاله میگیره. فکر نمیکنم دیگه انقدر بخوان سخت گیری کنند! هدفم از آوردن این نقل قول بیشتر برای تاکید بر اهمیت نوشتن درست یک مقدمه هست.
@Onlinebme
💡مقدمه یکی از مهمترین بخشهای یک مقاله است. یک مقدمه خوب بهتره مثل یک داستانی جذابی باشه که خواننده رو مجاب کنه تا آخر بخونه و همراه نویسنده باشد. انگار میخواد بدونه در انتهای داستان چه اتفاقی میخواد بیافته. شخصیت اصلی داستان هم که ایده خود مطالعه هست.
💡یک مقدمه خوب اول خواننده رو با چالش موجود در یک حوزه و اهمیت حل این چالش آشنا میکند. سپس چندین مطالعه ای که سعی بر حل چالش کرده اند، توضیح میده، و بعدش چالشی که هنوز باقی مانده (یا هنوز خوب حل نشده) رو بیان میکند، در انتها هم رویکرد و هدف مقاله برای حل چالش رو مختصر اشاره میکند. با خوندن مقدمه باید خواننده بهطور کامل متوجه بشه که هدف نویسندگان از انجام این مطالعه چی بوده که مشتاق باشند برن بخش method مقاله و نتایج رو مطالعه کنند.
🔷 اگر تازهکار باشیم، معمولاً فهرستی از کارهای انجامشده در این حوزه را بدون نظم مشخصی ارائه میکنیم. هر مقالهای که پیدا کنیم، مخصوصاً اگر جدید باشد، در مقدمه قرار میدهیم و تصور میکنیم که هرچه تعداد مقالات ذکرشده بیشتر باشد، بهتر است! اما در واقع، مقدمه باید با دقت و حساب شده نوشته شود.
💡 یک دوستی داشتیم میگفت یک داور حرفه ای معمولا با خوندن مقدمه یک مقاله تصمیم خودش رو در مورد پذیرش یا ریجکت مقاله میگیره. فکر نمیکنم دیگه انقدر بخوان سخت گیری کنند! هدفم از آوردن این نقل قول بیشتر برای تاکید بر اهمیت نوشتن درست یک مقدمه هست.
@Onlinebme
🙏4👍1
Onlinebme
چگونه مقدمه یک مقاله را بنویسیم؟ 💡مقدمه یکی از مهمترین بخشهای یک مقاله است. یک مقدمه خوب بهتره مثل یک داستانی جذابی باشه که خواننده رو مجاب کنه تا آخر بخونه و همراه نویسنده باشد. انگار میخواد بدونه در انتهای داستان چه اتفاقی میخواد بیافته. شخصیت اصلی داستان…
How-to-write-the-introduction-of-a-scientific-arti.pdf
142.6 KB
گویا این مشکل همگانیه و آقای فابر سعی کرده اند در یک مقاله ی یک صفحه ای نحوه درست نوشتن یک مقدمه مناسب رو توضیح بدهند.
@Onlinebme
@Onlinebme
👍3🙏1
Onlinebme
How-to-write-the-introduction-of-a-scientific-arti.pdf
آقای Bardia Safaei در لینکدین نکات مقاله رو به خوبی پوشش دادند که در زیر قرار داده شده اند.
پيشنهادات طلايى در نوشتن “مقدمه“ مقالات!
🔺دكتر Jorge Faber در سال 2012 چنین جواهر نابى را خلق کرد. او در یک صفحه، که در تصویر زير نشان داده شده، به طور مختصر پیشنهادات خود را در مورد نحوه نوشتن مقدمه یک مقاله بیان می کند.
🔺مهمترين مواردى كه او به آن ها اشاره مى كند شامل موارد زير است:
1⃣ مقدمه نباید بیش از 10٪ از کل صفحات مقاله باشد. فابر معتقد است که هیچکس نمی خواهد یک مقدمه بیش از حد طولانی بخواند!
2⃣ برای حفظ انسجام، مقدمه بايد از یک مسئله بزرگتر شروع شود و به تدريج و به دقت به سوال تحقیق برسد.
3⃣ از منابع زیاد استفاده نشود. فابر استدلال می کند که مطالعات پیشگامانه به ندرت دارای تعداد زیادی منابع برای انگیزه بخشی به کار خود هستند.
4⃣ از استفاده از نام نویسندگان به عنوان موضوع جملات خودداری کنید. فابر می گوید که مقدمه های خوب بر ایده ها و شواهد تمرکز دارند، نه نویسندگانی که آن ها را بیان کرده اند.
5⃣ وقتی شک دارید، متن را ساده نگه داريد!
🔺مقاله يك صفحه اى فابر يك راهنمای کوتاه اما جامع برای نوشتن مقدمه است كه شايد از آن بهتر را در اين اندازه نتوانيد پیدا کنید.
Source: LinkedIn (Bardia Safaei)
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
پيشنهادات طلايى در نوشتن “مقدمه“ مقالات!
🔺دكتر Jorge Faber در سال 2012 چنین جواهر نابى را خلق کرد. او در یک صفحه، که در تصویر زير نشان داده شده، به طور مختصر پیشنهادات خود را در مورد نحوه نوشتن مقدمه یک مقاله بیان می کند.
🔺مهمترين مواردى كه او به آن ها اشاره مى كند شامل موارد زير است:
1⃣ مقدمه نباید بیش از 10٪ از کل صفحات مقاله باشد. فابر معتقد است که هیچکس نمی خواهد یک مقدمه بیش از حد طولانی بخواند!
2⃣ برای حفظ انسجام، مقدمه بايد از یک مسئله بزرگتر شروع شود و به تدريج و به دقت به سوال تحقیق برسد.
3⃣ از منابع زیاد استفاده نشود. فابر استدلال می کند که مطالعات پیشگامانه به ندرت دارای تعداد زیادی منابع برای انگیزه بخشی به کار خود هستند.
4⃣ از استفاده از نام نویسندگان به عنوان موضوع جملات خودداری کنید. فابر می گوید که مقدمه های خوب بر ایده ها و شواهد تمرکز دارند، نه نویسندگانی که آن ها را بیان کرده اند.
5⃣ وقتی شک دارید، متن را ساده نگه داريد!
🔺مقاله يك صفحه اى فابر يك راهنمای کوتاه اما جامع برای نوشتن مقدمه است كه شايد از آن بهتر را در اين اندازه نتوانيد پیدا کنید.
Source: LinkedIn (Bardia Safaei)
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
❤8👍4👌1
Onlinebme
☑️نصب تولباکس WFDB فیزیونت در متلب دسته:پایگاه داده محمد نوری زاده چرلو 17 اردیبهشت 1403 سایت فیزیونت یک وبسایت پایگاه داده پزشکی است که داده های بسیار معتبری ارائه میدهد. سیگنالهای حیاتی این سایت با فرمتهای مختلفی هستند که برای خواندن آنها در متلب لازمه…
معرفی پایگاه داده
Title: A Large Finer-grained Affective Computing EEG Dataset
Journal: Nature
✍برخلاف مطالعه دیگه که اکثرا داده های مبتنی بر احساسات منفی ثبت میکنند، در این مطالعه یک داده ی جامع و بالانس از احساسات مثبت و منفی ثبت شده است. برای اینکار، سیگنال مغزی (EEG) 32 کاناله از 128 سابجکت ثبت شده است. طول ثبت سیگنال مغزی، افراد مجموعا به 28 کلیپِ تحریککننده احساسات نگاه کردند که شامل 9 دسته هیجان (تفریح، الهام، شادی، حساسیت، خشم، ترس، انزجار، غم و عواطف خنثی) بود. محققین این مطالعه انتظار دارند که داده FACED کمک خوبی به توسعه الگوریتم های مبتنی بر EEG در کاربردهای عملی بکند.
💡هم داده و هم کدهای مقاله به صورت رایگان در سایت synapse قابل دسترس است.
https://www.nature.com/articles/s41597-023-02650-w
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
Title: A Large Finer-grained Affective Computing EEG Dataset
Journal: Nature
✍برخلاف مطالعه دیگه که اکثرا داده های مبتنی بر احساسات منفی ثبت میکنند، در این مطالعه یک داده ی جامع و بالانس از احساسات مثبت و منفی ثبت شده است. برای اینکار، سیگنال مغزی (EEG) 32 کاناله از 128 سابجکت ثبت شده است. طول ثبت سیگنال مغزی، افراد مجموعا به 28 کلیپِ تحریککننده احساسات نگاه کردند که شامل 9 دسته هیجان (تفریح، الهام، شادی، حساسیت، خشم، ترس، انزجار، غم و عواطف خنثی) بود. محققین این مطالعه انتظار دارند که داده FACED کمک خوبی به توسعه الگوریتم های مبتنی بر EEG در کاربردهای عملی بکند.
💡هم داده و هم کدهای مقاله به صورت رایگان در سایت synapse قابل دسترس است.
https://www.nature.com/articles/s41597-023-02650-w
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍5👏1
Onlinebme
معرفی پایگاه داده Title: A Large Finer-grained Affective Computing EEG Dataset Journal: Nature ✍برخلاف مطالعه دیگه که اکثرا داده های مبتنی بر احساسات منفی ثبت میکنند، در این مطالعه یک داده ی جامع و بالانس از احساسات مثبت و منفی ثبت شده است. برای اینکار، …
تحلیل احساسات مثبت و منفی در این مطالعه نشان میدهد که در باندهای فرکانسی (دلتا، تتا، آلفا، بتا و گاما) در افراد تجربه کننده ترس و شادی تفاوت معناداری وجود دارد، مخصوصا در باند بتا!
@Onlinebme
@Onlinebme
👍6🤩1
Onlinebme
تحلیل احساسات مثبت و منفی در این مطالعه نشان میدهد که در باندهای فرکانسی (دلتا، تتا، آلفا، بتا و گاما) در افراد تجربه کننده ترس و شادی تفاوت معناداری وجود دارد، مخصوصا در باند بتا! @Onlinebme
اینم از نتایج مقاله
دقت طبقه بندی در بین سابجکت ها برای حالته 9 کلاسه: دقتها از کمترین به بیشترین (از چپ به راست) برای سابجکت ها نشان داده شده اند.
خاکستری روشن: دقت هر سابجکت
نوار روشن: میانگین دقت در بین سابجکتها
خط چین: دقت سطح شانسی (100/9=11.11)
تصویر پایین هم، ماتریس کانفیوژن میانگین گرفته شده است.
@Onlinebme
دقت طبقه بندی در بین سابجکت ها برای حالته 9 کلاسه: دقتها از کمترین به بیشترین (از چپ به راست) برای سابجکت ها نشان داده شده اند.
خاکستری روشن: دقت هر سابجکت
نوار روشن: میانگین دقت در بین سابجکتها
خط چین: دقت سطح شانسی (100/9=11.11)
تصویر پایین هم، ماتریس کانفیوژن میانگین گرفته شده است.
@Onlinebme
👍7
Onlinebme
✅ویژگیهای دوره ◽️بررسی دقیق تئوری و ریاضیات مرتبط با شبکههای عصبی ▪️مشتق گیری ▪️توابع هزینه ▪️روشهای بهینهسازی مبتنی بر SGD ◻️پروژه محور بودن دوره| 101 مثال + 24تمرین + 40 پروژه ◻️تقویت مهارت برنامهنویسی به سبک OOP پایتون ◻️ پیادهسازی…
This media is not supported in your browser
VIEW IN TELEGRAM
🔥7❤2
Forwarded from Onlinebme
⬛️◼️◾️ پکیجهای آموزشی Onlinebme ◾️◼️⬛️
🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆
〰〰〰 برنامهنویسی متلب 〰〰〰
🔲 اصول برنامهنویسی در متلب (رایگان)
▪️مدت دوره: 11 ساعت
🔘 Link
〰〰〰 برنامهنویسی پایتون 〰〰〰
⚪️ فصل 1: اصول برنامهنویسی پایتون
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link
〰〰 شناسایی الگو و یادگیری ماشین 〰〰
⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیادهسازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتمهای کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7: الگوریتمهای انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتمهای خوشهبندی
◽️مدت دوره: 13 ساعت
🔘 Link
〰〰〰〰 شبکههای عصبی 〰〰〰〰
⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکههای عمیق در بینایی ماشین
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link
〰〰〰 پردازش سیگنال مغزی 〰〰〰
⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️ مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️مدت دوره: 21 ساعت
🔘 Link
⚪️ پیادهسازی مقاله CSSP (BCI مبتنی بر MI)
◽️مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیادهسازی مقاله RCSP (BCI مبتنی بر MI)
◽️مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️مدت دوره: 8 ساعت
🔘 Link
⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link
〰〰〰〰 دوره جامع پردازش تصویر 〰〰〰〰
⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link
〰〰〰〰〰 پردازش سیگنال قلبی 〰〰〰〰
⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره: 37 ساعت و 45 دقیقه
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
🔆 اولین گروه آموزشیِ تخصصی و پروژه محور 🔆
〰〰〰 برنامهنویسی متلب 〰〰〰
🔲 اصول برنامهنویسی در متلب (رایگان)
▪️مدت دوره: 11 ساعت
🔘 Link
〰〰〰 برنامهنویسی پایتون 〰〰〰
⚪️ فصل 1: اصول برنامهنویسی پایتون
◽️مدت دوره: 32 ساعت
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
◽️مدت دوره: 14 ساعت 30 دقیقه
🔘 Link
〰〰 شناسایی الگو و یادگیری ماشین 〰〰
⚠️ 140 ساعت ویدیوی آموزشی
🔹آموزش تئوری و مباحث ریاضیاتی طبق مراجع معتبر
🔹پیادهسازی مرحله به مرحله الگوریتمها
🔹انجام پروژه های عملی و تخصصی
🔹پیاده سازی گام به گام مقالات تخصصی
⚪️فصل 1 تا 4: از بیزین تا SVM
◽️مدت دوره: 75 ساعت
🔘 Link
⚪️فصل 5: یادگیری جمعی
◽️مدت دوره: 18 ساعت
🔘 Link
⚪️فصل 6: الگوریتمهای کاهش بعد
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️فصل 7: الگوریتمهای انتخاب ویژگی
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️فصل 8: الگوریتمهای خوشهبندی
◽️مدت دوره: 13 ساعت
🔘 Link
〰〰〰〰 شبکههای عصبی 〰〰〰〰
⚪️ پیاده سازی گام به گام شبکه های عصبی
◽️مدت دوره: 25 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی کانولوشنی (CNN)
◽️مدت دوره: 11 ساعت
🔘 Link
⚪️ دوره پروژه محور شبکه عصبی بازگشتی (RNN)
◽️مدت دوره: 13 ساعت
🔘 Link
⚪️دوره پروژه محور کاربرد شبکههای عمیق در بینایی ماشین
◽️مدت دوره: 16 ساعت
🔘 Link
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
◽️مدت دوره: 70 ساعت
🔘 Link
〰〰〰 پردازش سیگنال مغزی 〰〰〰
⚪️ دوره جامع پردازش سیگنال مغزی(EEG)
◽️مدت دوره: 50 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر P300
◽️مدت دوره: 28 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر SSVEP
◽️ مدت دوره: 33 ساعت
🔘 Link
⚪️ واسط مغز-کامپیوتر مبتنی بر تصور حرکتی
◽️مدت دوره: 21 ساعت
🔘 Link
⚪️ پیادهسازی مقاله CSSP (BCI مبتنی بر MI)
◽️مدت دوره: 7 ساعت و 30 دقیقه
🔘 Link
⚪️پیادهسازی مقاله RCSP (BCI مبتنی بر MI)
◽️مدت دوره: 5 ساعت
🔘 Link
⚪️دوره تبدیل فوریه زمان کوتاه در پردازش سیگنال مغزی
◽️مدت دوره: 8 ساعت
🔘 Link
⚪️دوره پردازش سیگنال مغزی با کتابخانه MNE پایتون
◽️مدت دوره: 33 ساعت
🔘 Link
〰〰〰〰 دوره جامع پردازش تصویر 〰〰〰〰
⚪️فصل 1: آستانه گذاری تصویر، تبدیلات شدت روشنایی و هندسی
◽️مدت دوره: 30 ساعت
🔘 Link
⚪️فصل 2: پردازش هیستوگرام تصویر
◽️مدت دوره: 6 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 3: فیلترهای مکانی
◽️مدت دوره: 15 ساعت و 30 دقیقه
🔘 Link
⚪️فصل 4: عملیات مورفورلوژی
◽️مدت دوره: 6 ساعت
🔘 Link
〰〰〰〰〰 پردازش سیگنال قلبی 〰〰〰〰
⚪️ دوره پردازش سیگنال ECG
◽️مدت زمان دوره: 37 ساعت و 45 دقیقه
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
👍9❤1🤩1
سلام
امیدوارم حالتون خوب باشه
برای سال جدید چندین دوره خواهیم داشت که فعلا در فاز مطالعه و آمادهسازی محتوا هستم.
دوره های مثل RNN، LSTM و ترکیبشون با CNN در تسکهای مختلف، ترنسفورمرها، یادگیری تقویتی، و یکی سری دوره های پردازش سیگنال (EEG, ECoG--LFB, SPIKE analysis)
پیش نیاز همه دوره ها آشنایی با «برنامه نویسی پایتون، مخصوصا شی گرایی» هست.
پیش نیاز دوره های یادگیری عمیق هم «دوره پیادهسازی شبکه های عصبی در پایتورچ» هست.
پیشنهاد میکنم اگه قصد شرکت در این دوره ها رو دارید، در تعطیلات نوروزی پیش نیازهارو نگاه کنید.
موفق باشید
محمد نوری زاده چرلو
🟡 Python
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
⚪️ فصل 1: اصول برنامهنویسی پایتون
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
🔘 Link
🟠 PyTorch
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
امیدوارم حالتون خوب باشه
برای سال جدید چندین دوره خواهیم داشت که فعلا در فاز مطالعه و آمادهسازی محتوا هستم.
دوره های مثل RNN، LSTM و ترکیبشون با CNN در تسکهای مختلف، ترنسفورمرها، یادگیری تقویتی، و یکی سری دوره های پردازش سیگنال (EEG, ECoG--LFB, SPIKE analysis)
پیش نیاز همه دوره ها آشنایی با «برنامه نویسی پایتون، مخصوصا شی گرایی» هست.
پیش نیاز دوره های یادگیری عمیق هم «دوره پیادهسازی شبکه های عصبی در پایتورچ» هست.
پیشنهاد میکنم اگه قصد شرکت در این دوره ها رو دارید، در تعطیلات نوروزی پیش نیازهارو نگاه کنید.
موفق باشید
محمد نوری زاده چرلو
🟡 Python
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
⚪️ فصل 1: اصول برنامهنویسی پایتون
🔘 Link
⚪️ فصل 2-3: کتابخانه NumPy و Matplotlib
🔘 Link
⚪️ فصل 4: برنامه نویسی شیء گرا در پایتون
🔘 Link
🟠 PyTorch
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
⚪️ دوره پیادهسازی شبکههای عصبی با PyTorch
🔘 Link
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
اصول برنامه نویسی پایتون Python - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
پایتون یک زبان برنامهنویسی سطح بالا هست و به خاطر قابلیتهای مهمی که دارد، امروزه محبوبیت زیاید در جامعه علمی پیدا کرده است و میلیونها نفر در سراسر جهان از این زبان برنامه نویسی استفاده میکنند و هر روز به این تعداد افزوده می شود.
❤10👍5🤩1
سلام
سال نو مبارک ❤️
امیدوارم سال جدید سالی پر از موفقیت، سلامتی، پر برکت و دل خوش باشه براتون. 🙏
🟣 برای سال جدید چندین دوره تدارک دیدیم که به صورت آنلاین، آفلاین و یا حضوری برگزار خواهند شد.
💡سعی میکنیم در سال جدید دوره ی حضوری هم برگزار کنیم تا دورهمی های علمی کنار هم داشته باشیم و فرصتی باشه برای تعاملات و همکاری های پژوهشی.
سال خوبی را برای همگی آرزو میکنم.
موفق باشید...
محمد نوری زاده چرلو
سال نو مبارک ❤️
امیدوارم سال جدید سالی پر از موفقیت، سلامتی، پر برکت و دل خوش باشه براتون. 🙏
🟣 برای سال جدید چندین دوره تدارک دیدیم که به صورت آنلاین، آفلاین و یا حضوری برگزار خواهند شد.
💡سعی میکنیم در سال جدید دوره ی حضوری هم برگزار کنیم تا دورهمی های علمی کنار هم داشته باشیم و فرصتی باشه برای تعاملات و همکاری های پژوهشی.
سال خوبی را برای همگی آرزو میکنم.
موفق باشید...
محمد نوری زاده چرلو
❤22👏4🔥2👍1
Onlinebme
نقشه راه پردازش سیگنال مغزی EEG PDF @Onlinebme
✅نقشه راه به همراه توضیحات در وبسایت👇
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
https://onlinebme.com/roadmap-for-onlinebme-courses/
@Onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
در این پست سعی کرده ام نقشه راه برای یادگیری ماشین، یادگیری عمیق و پردازش سیگنال مغزی ارائه بدهم تا یک دید کلی از مسیر هر حوزه بدست بیارید و اگه خواستید با دوره های ما این مباحث رو یاد بگیرید بدونید که چه دوره هایی و با چه ترتیبی ببینید.
❤4
Onlinebme
✅ مفهوم Dropout در یادگیری عمیق 👩💻نویسنده: فاطمه بذری یکی از موانع بزرگ در الگوریتم های یادگیری عمیق، Overfitting است که برای مقابله با این پدیده، راهکارهای متعددی تاکنون توسط محققان ارائه شده است که در قالب تکنیکهای Generalization معرفی و در مقالات مورد…
This media is not supported in your browser
VIEW IN TELEGRAM
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود.
💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد.
@Onlinebme
👍9
Onlinebme
✅ تاثیر dropout و تعداد لایه های پنهان در عملکرد شبکه عصبی 🔷تعداد لایه پنهان بیشتر میتونه باعث overfitting شبکه عصبی شود. 💡از dropout میتوان برای کاهش overfitting شبکه عصبی استفاده کرد. @Onlinebme
💡راهنمای کلی در مورد تنظیم و تعیین هاپیرپارامترهای شبکه های عصبی
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
✅ نرخ یادگیری: میزان یادگیری شبکه عصبی در هر epoch یا به عبارتی میزان تنظیمات وزنهای سیناپسی را کنترل میکند.
🔷 مقدار بیش از حد: باعث میشه مدل مینیمم اصلی رو رد کند و شبکه عصبی به سمت ناپایداری سوق پیدا کند.
🔷 مقدار بیش از حد کم: هم سرعت یادگیری بسیار پایین میاد و هم شبکه میتونه در مینیمم های محلی گیر کند!
💡 چه مقداری در نظر بگیریم بهتره؟ بستگی به هر مسئله و پروژه دارد. معمولا مقدار 0.001 پیشنهاد میشود، مخصوصا در روش بهینه سازی Adam. ولی بهتر است مقادیر دیگه هم بررسی بشه.
✅ تعداد لایه های پنهان: لایه های پنهان معمولا کار نقش انتقال وردی به فضای ویژگی را اجرا میکنند، به عبارتی یک مسئله پیچیده را به مسئله ساده تر تبدیل میکنند. تعداد این لایه ها عمق و میزان پیچیدگی شبکه عصبی را مشخص میکند.
🔷 تعداد لایه های بیشتر: قابلیت شناسایی الگو در داده های پیچیده. اما هرچقدر این تعداد بیشتر شود تعداد پارامترها (وزنها و بایاس ها) به صورت تصاعدی افزایش پیدا میکند و همین مسئله آموزش شبکه عصبی را بسیار سخت میکند، از طرفی هرچقدر لایه ها بیشتر شود احتمال overfitting شبکه عصبی هم افزایش پیدا میکند.
🔷 تعداد لایه های کمتر: آموزش راحت شبکه عصبی و احتمال overfitting پایین. اما ممکن است با تعداد لایه های کمتر شبکه عصبی نتواند مسائل پیچیده را حل کند یا به عبارتی underfit شود.
✅ تعداد نورونها در لایه ها: تعداد نورون های لایه ی خروجی براساس مسئله تعریف میشود، اما تعداد نورنهای لایه های پنهان توسط کاربر تعیین میشود.
🔷 تعداد نورونهای بیشتر در لایه های پنهان: توانایی حل مسائل پیچیده، اما باعث افزایش تعداد پارامترهای یادگیری و احتمال overfitting بالا.
🔷 تعداد نورونهای کمتر در لایه های پنهان: هزینه محاسباتی پایین، اما ممکن است شبکه نتواند مسائل پیچیده را حل کند.
💡چه تعداد در نظر بگیریم؟ بستگی به مسئله دارد، من معمولا تعداد نورونهای لایه های پنهان را برابر یا دو برابر تعداد ویژگی های ورودی در نظر میگیریم و بعدش اگه نیاز بود تعداد دیگری را بررسی میکنم.
✅ تکنیک Dropout: یک روش رگوله سازی هست که به صورت تصادفی یه سری نورونها را در طول آموزش غیرفعال میکند.
🔷 مقدار بیش از حد کم: تاثیر رگوله سازی کم، و شبکه مستعد overfitting هست.
🔷 مقدار بیش از حد زیاد: ممکنه باعث بشه شبکه عصبی نتونه الگوهای خوبی را یاد بگیرد.
💡مقدار پیش فرض: 0.2-0.5
✅ روش L2 Regularization: در طول یادگیری وزنها رو به صورت تدریجی کاهش میدهد تا از weight exploding جلوگیری کند و از اشباع شبکه جلوگیری میکند.
🔷 مقدار بیش از حد پایین: تاثیر کمتر، احتمال overfitting بالای شبکه عصبی
🔷 مقدار بیش از حد بالا: ممکن است باعث underfit شدن مدل شود و نگذارد شبکه عصبی به خوبی یاد بگیرد.
💡مقدار پیش فرض: .0.01-0.001
✅ تعداد تکه ها (batch size): مشخص میکند که چه تعداد نمونه در هر تکرار آموزش وارد شبکه عصبی شود.
بهتره تعداد بر مبنای 2 باشه تا متناسب با سایز بندی حافظه باشه. 1, 2, 4, 8,16, 32, 64, 128, 256, 512,…
🔷 تعداد پایین: میتواند باعث افزایش خاصیت عمومیت (generalization) شبکه عصبی شود، اما شبکه عصبی نیاز به تعداد epoch بیشتری جهت یادگیری پیدا میکند.
🔷 تعداد بالا (بیشتر از 256): باعث یادگیری سریع شبکه عصبی میشود اما ممکن است خاصیت عمومیت شبکه عصبی پایین بیاید.
💡مقدار پیش فرض: 32-256. من خودم معمولا 32 میگذارم، بعدش اگه نیازی بود تغییر میدهم.
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@Onlinebme
👍8
Onlinebme
چندتا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI @Onlinebme
The best of ChatGPT Images.pdf
23.3 MB
✅ 15 تا از بهترین تصاویر تولید شده در روزای اخیر از دید OpenAI
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
💡برای برخی تصاویر Prompt هم قرار داده شده.
@Onlinebme
🔥3