وبینار deep learning
مدرس : مهندس نیما شفیعی
دانشجوی ارشد دانشگاه بلونیا
زمان برگزاری : چهارشنبه 7 اردیبهشت 1401 ساعت 17 الی 18:30
هزینه : رایگان
لینک برگزاری:
https://adobe.kashanu.ac.ir:443/computer-engineering/
@Ai_Events
مدرس : مهندس نیما شفیعی
دانشجوی ارشد دانشگاه بلونیا
زمان برگزاری : چهارشنبه 7 اردیبهشت 1401 ساعت 17 الی 18:30
هزینه : رایگان
لینک برگزاری:
https://adobe.kashanu.ac.ir:443/computer-engineering/
@Ai_Events
❤2👎1
مجموعه سخنرانیهای ششمین دوره مسابقات هوش مصنوعی امیرکبیر
زمان برگزاری: ۲۸ و ۲۹ اردیبهشتماه ۱۴۰۱، دانشگاه صنعتی امیرکبیر
عناوین سخنرانیها
- آموزش تقویتی تعمیمیافته برای گیمپلی
- یادگیری با فاکتورگیری غیرمنفی ماتریس
- تشخیص اخبار جعلی: روشها و چالشها
- مکانیابی مبنتی بر نقشه در خودروهای خودران
- خوشهبندی زیرفضا: الگوریتمها، کاربردها و چالشها
- ویرایش معنایی صفات چهره با استفاده از مدلهای مولد
https://aaic.aut.ac.ir/workshop/1
@Ai_Events
زمان برگزاری: ۲۸ و ۲۹ اردیبهشتماه ۱۴۰۱، دانشگاه صنعتی امیرکبیر
عناوین سخنرانیها
- آموزش تقویتی تعمیمیافته برای گیمپلی
- یادگیری با فاکتورگیری غیرمنفی ماتریس
- تشخیص اخبار جعلی: روشها و چالشها
- مکانیابی مبنتی بر نقشه در خودروهای خودران
- خوشهبندی زیرفضا: الگوریتمها، کاربردها و چالشها
- ویرایش معنایی صفات چهره با استفاده از مدلهای مولد
https://aaic.aut.ac.ir/workshop/1
@Ai_Events
👍4
برنامه نویسی ربات (پایتون)
شرکت ویو رباتیک
دفتر تهران: نزدیک ایستگاه مترو شریف
حقوق: تا 25 میلیون (بسته به سطح تجربه و مهارت شما)
مدل همکاری: تمام وقت
ساعت کاری: انعطاف پذیر و قابل مذاکره
ارسال رزومه: javad@vivetennis.com
@Ai_Events
شرکت ویو رباتیک
دفتر تهران: نزدیک ایستگاه مترو شریف
حقوق: تا 25 میلیون (بسته به سطح تجربه و مهارت شما)
مدل همکاری: تمام وقت
ساعت کاری: انعطاف پذیر و قابل مذاکره
ارسال رزومه: javad@vivetennis.com
@Ai_Events
👍2
Ai Events️
<unknown> – Hauser-&-Petrit-Çeku-Concierto-de-Aranjuez_46679794
.
کسایی که از نزدیک (خیلی نزدیک) من رو میشناسن میدونن چقدر دیوانهوار موسیقی رو دوست دارم، مخصوصا از نوع بیکلامش.
بعد چند سال این قطعه رو دوباره شنیدم، واقعا هیچ encoderی نمیتونه این حجم از memories رو تو چند نت موسیقی جاسازی کنه.
#موقت
کسایی که از نزدیک (خیلی نزدیک) من رو میشناسن میدونن چقدر دیوانهوار موسیقی رو دوست دارم، مخصوصا از نوع بیکلامش.
بعد چند سال این قطعه رو دوباره شنیدم، واقعا هیچ encoderی نمیتونه این حجم از memories رو تو چند نت موسیقی جاسازی کنه.
#موقت
بچهها این رویداد حضوری هستش 😀
چقدر خوشحالم حضوریها شروع شده.
دلم برای نتورکسازی حضوری تنگ شده بود.
@Ai_Events
چقدر خوشحالم حضوریها شروع شده.
دلم برای نتورکسازی حضوری تنگ شده بود.
@Ai_Events
وبینار با موضوع: داغ ترین کاربردهای بینایی ماشین در صنعت
سخنران: دکتر محمد شکوهی یکتا
پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱، ساعت ۱۶:۰۰ به وقت تهران
کلاس مجازی شماره ۱ دانشکده مهندسی:
http://vroom.ut.ac.ir/farabi3
@Ai_Events
سخنران: دکتر محمد شکوهی یکتا
پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱، ساعت ۱۶:۰۰ به وقت تهران
کلاس مجازی شماره ۱ دانشکده مهندسی:
http://vroom.ut.ac.ir/farabi3
@Ai_Events
رویداد تجربهمحور هوش مصنوعی در صنعت
زمان برگزاری: پنجشنبه ۲۹ اردیبهشت ۸ الی ۱۷
محل برگزاری: مرکز همایشهای بینالمللی صداوسیما
کد تخفیف:
کسب اطلاعات بیشتر و ثبتنام:
https://evand.com/events/aixperience01
@Ai_Events
زمان برگزاری: پنجشنبه ۲۹ اردیبهشت ۸ الی ۱۷
محل برگزاری: مرکز همایشهای بینالمللی صداوسیما
کد تخفیف:
Ai_Eventsکسب اطلاعات بیشتر و ثبتنام:
https://evand.com/events/aixperience01
@Ai_Events
👍1
Forwarded from Deep learning channel (Khalooei)
هم اکنون / مجموعه سخنرانی های هوش مصنوعی امیرکبیر
✅ ارائه دکتر نیک آبادی در خصوص ویرایش معنایی صفات چهره با استفاده از مدل های مولد
🌐 https://bluemeet.aut.ac.ir/ch/aaic_lectures/guest
✅ ارائه دکتر نیک آبادی در خصوص ویرایش معنایی صفات چهره با استفاده از مدل های مولد
🌐 https://bluemeet.aut.ac.ir/ch/aaic_lectures/guest
سخنرانی آنلاین: مقدمه ای بر تحلیل توپولوژیکی داده
دکتر نیره الیاسی
پنجشنبه ۵ خرداد ساعت ۱۱
برای ورود به جلسه به عنوان مهمان وارد این لینک شوید.
@Ai_Events
دکتر نیره الیاسی
پنجشنبه ۵ خرداد ساعت ۱۱
برای ورود به جلسه به عنوان مهمان وارد این لینک شوید.
@Ai_Events
👍1
۲۴ ساعت کد زدن به همراه پیتزا و خوش گذرونی
مسابقه ی XeroCTF ترکیبی از چالش های هوش مصنوعی و امنیت سایبریه و طوری طراحی شده میزان یادگیری و تفریح رو به حداکثرترین حالت ممکن خودش برسونه.
تیم Roboepics پنج چالش رو به دقت طراحی کرده تا مهارت های حوزه های بالا رو مورد آزمایش قرار بده.
افراد میتونن به صورت انفرادی یا تیم های حداکثر سه نفری برای مسابقه ثبت نام کنن.
لینک ثبتنام:
Xero.roboepics.com
@Ai_Events
مسابقه ی XeroCTF ترکیبی از چالش های هوش مصنوعی و امنیت سایبریه و طوری طراحی شده میزان یادگیری و تفریح رو به حداکثرترین حالت ممکن خودش برسونه.
تیم Roboepics پنج چالش رو به دقت طراحی کرده تا مهارت های حوزه های بالا رو مورد آزمایش قرار بده.
افراد میتونن به صورت انفرادی یا تیم های حداکثر سه نفری برای مسابقه ثبت نام کنن.
لینک ثبتنام:
Xero.roboepics.com
@Ai_Events
❤5
Things are moving fast in Al. How to stay up-to-date with the latest and greatest in machine learning and data science research and applications?
1. Follow top research and applied scientists on Twitter to stay apprised of new ML publications or blogs. Beware that you'll need to sort through the noise. For example, top institutions tend to get more attention than others – it is not always justified. If you're looking for people to follow, see the list I follow on Twitter: https://buff.ly/37JLDNC
2. Top ML & DS conferences such as NeurlPS, CVPR, ICLR, ICML, or KDD publish their list of award winning papers. These are peer-reviewed and have excited multiple people from the community. You'd get less real-time info than on Twitter, but also less noise. It's also a more academic view. I like to print papers and skim through them (5 min each max) focusing on abstract, methodology, and figures. If I'm interested, I'll spend more time on the paper.
3. Reddit is my favorite place to discuss ML & DS research papers or industry innovations. That's where you can go deeper into your understanding of a new approach by asking questions and scrolling through answers. The point of views are more critical. I recommend the following subreddits: r/ Machine Learning, r/datascience, r/deeplearning, r/ datasets, r/artificial, r/Language Technology, or r/ reinforcementlearning.
Hope it helps!
From: Kian Katanforoush (Stanford lecturer)
@Ai_Events
1. Follow top research and applied scientists on Twitter to stay apprised of new ML publications or blogs. Beware that you'll need to sort through the noise. For example, top institutions tend to get more attention than others – it is not always justified. If you're looking for people to follow, see the list I follow on Twitter: https://buff.ly/37JLDNC
2. Top ML & DS conferences such as NeurlPS, CVPR, ICLR, ICML, or KDD publish their list of award winning papers. These are peer-reviewed and have excited multiple people from the community. You'd get less real-time info than on Twitter, but also less noise. It's also a more academic view. I like to print papers and skim through them (5 min each max) focusing on abstract, methodology, and figures. If I'm interested, I'll spend more time on the paper.
3. Reddit is my favorite place to discuss ML & DS research papers or industry innovations. That's where you can go deeper into your understanding of a new approach by asking questions and scrolling through answers. The point of views are more critical. I recommend the following subreddits: r/ Machine Learning, r/datascience, r/deeplearning, r/ datasets, r/artificial, r/Language Technology, or r/ reinforcementlearning.
Hope it helps!
From: Kian Katanforoush (Stanford lecturer)
@Ai_Events
👍5
عنوان سخنرانی:
Industry in the Big Data Era
سخنران:
Dr. Hossein Badri (Adjunct Assistant Professor at University of Texas – Arlington, Department of Information Systems and Operations Management)
تاریخ سخنرانی: دوشنبه ٩ خردادماه ١۴٠١، ساعت ١٧:٠٠ الی ١٨:٣٠
محل برگزاری:
https://vc.sharif.edu/ch/ie-seminar
@Ai_Events
Industry in the Big Data Era
سخنران:
Dr. Hossein Badri (Adjunct Assistant Professor at University of Texas – Arlington, Department of Information Systems and Operations Management)
تاریخ سخنرانی: دوشنبه ٩ خردادماه ١۴٠١، ساعت ١٧:٠٠ الی ١٨:٣٠
محل برگزاری:
https://vc.sharif.edu/ch/ie-seminar
@Ai_Events
رویداد آموزشی کاربردی
تنظیم هایپرپارامترها(شبکههای عمیق)
hyparameter tuning
چگونه بهترین هایپرپارامترها را برای مدلسازی شبکه های عمیق به روش GRIDSEARCH تنظیم کنیم؟
مدرس :جناب آقای احمد اسدی (دکترای هوش مصنوعی، دانشگاه امیر کبیر)
زمان برگزاری : ١٢ خرداد ساعت:١٦
مهلت ثبت نام تا ١٠ خرداد
مدت رويداد : ٤ ساعت
لینک ثبتنام
کدتخفیف :
@AyehEvent
@Ai_Events
تنظیم هایپرپارامترها(شبکههای عمیق)
hyparameter tuning
چگونه بهترین هایپرپارامترها را برای مدلسازی شبکه های عمیق به روش GRIDSEARCH تنظیم کنیم؟
مدرس :جناب آقای احمد اسدی (دکترای هوش مصنوعی، دانشگاه امیر کبیر)
زمان برگزاری : ١٢ خرداد ساعت:١٦
مهلت ثبت نام تا ١٠ خرداد
مدت رويداد : ٤ ساعت
لینک ثبتنام
کدتخفیف :
Ayehe2424@AyehEvent
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۱)
افزایش دادهها (Data Augmentation):
دستیابی به دادههای بیشتر راهی برای بهبود دقت مدلها است. درک این نکته ساده است که دادههای بیشتر، جزئیات بیشتری در مورد وظیفهای که مدل باید انجام دهد را ارائه می دهد. در اینجا افزایش دادهها میتواند به عنوان راهی برای بزرگ کردن مجموعه دادههای ما در نظر گرفته شود.
برای مثالی ساده در حین کار با مجموعه کوچک دادهی تصویر، میتوانیم تعداد تصاویر را با اضافه کردن نسخههای چرخانده شده و تغییر مقیاسشده تصاویر، در دادهها افزایش دهیم. این باعث افزایش اندازه دادهها میشود و با استفاده از چنین تکنیکهایی میتوانیم دقت مدل را افزایش دهیم و در عین حال آن را از شرایط بیشبرازش نجات دهیم.
این مرحله یک مرحله کلی بوده که میتواند برای هر نوع مدل سازی استفاده شود، خواه شبکه عصبی باشد یا مدل های ایستا مانند random forest و ماشین بردار پشتیبان. روشهای مختلفی برای تقویت دادهها با دادههای طبقهبندی مانند SMOTE وجود دارد، و با بیشنمونهبرداری میتوانیم ایدهای از افزایش دادهها با دادههای تصویری پیدا کنیم.
منبع
@Ai_Events
افزایش دادهها (Data Augmentation):
دستیابی به دادههای بیشتر راهی برای بهبود دقت مدلها است. درک این نکته ساده است که دادههای بیشتر، جزئیات بیشتری در مورد وظیفهای که مدل باید انجام دهد را ارائه می دهد. در اینجا افزایش دادهها میتواند به عنوان راهی برای بزرگ کردن مجموعه دادههای ما در نظر گرفته شود.
برای مثالی ساده در حین کار با مجموعه کوچک دادهی تصویر، میتوانیم تعداد تصاویر را با اضافه کردن نسخههای چرخانده شده و تغییر مقیاسشده تصاویر، در دادهها افزایش دهیم. این باعث افزایش اندازه دادهها میشود و با استفاده از چنین تکنیکهایی میتوانیم دقت مدل را افزایش دهیم و در عین حال آن را از شرایط بیشبرازش نجات دهیم.
این مرحله یک مرحله کلی بوده که میتواند برای هر نوع مدل سازی استفاده شود، خواه شبکه عصبی باشد یا مدل های ایستا مانند random forest و ماشین بردار پشتیبان. روشهای مختلفی برای تقویت دادهها با دادههای طبقهبندی مانند SMOTE وجود دارد، و با بیشنمونهبرداری میتوانیم ایدهای از افزایش دادهها با دادههای تصویری پیدا کنیم.
منبع
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۲)
سادهسازی شبکه عصبی
ممکن است این یک گام اشتباه برای حل مشکل ما به نظر برسد، اما این یکی از گامهای اساسی و آسان برای جلوگیری از بیشبرازش است. این مرحله میتواند شامل 2 روش باشد، یکی حذف لایههای پیچیده و دوم کاهش نورونهای لایهها. در مدلسازی کلی، میتوان دریافت که استفاده از مدلهای پیچیده با دادههای آسان میتواند مشکل بیشبرازش را افزایش دهد در حالی که مدلهای ساده میتوانند عملکرد بسیار بهتری داشته باشند.
قبل از کاهش پیچیدگی شبکه، باید ورودی و خروجی لایه ها را محاسبه کنیم. همیشه پیشنهاد میشود به جای اعمال پیچیدگی در شبکه، از شبکههای ساده استفاده کنید. اگر شبکه دچار بیشبرازش شده است، باید سعی کنیم آن را ساده کنیم.
منبع
@Ai_Events
سادهسازی شبکه عصبی
ممکن است این یک گام اشتباه برای حل مشکل ما به نظر برسد، اما این یکی از گامهای اساسی و آسان برای جلوگیری از بیشبرازش است. این مرحله میتواند شامل 2 روش باشد، یکی حذف لایههای پیچیده و دوم کاهش نورونهای لایهها. در مدلسازی کلی، میتوان دریافت که استفاده از مدلهای پیچیده با دادههای آسان میتواند مشکل بیشبرازش را افزایش دهد در حالی که مدلهای ساده میتوانند عملکرد بسیار بهتری داشته باشند.
قبل از کاهش پیچیدگی شبکه، باید ورودی و خروجی لایه ها را محاسبه کنیم. همیشه پیشنهاد میشود به جای اعمال پیچیدگی در شبکه، از شبکههای ساده استفاده کنید. اگر شبکه دچار بیشبرازش شده است، باید سعی کنیم آن را ساده کنیم.
منبع
@Ai_Events
👍3
👍3
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۳)
رگولهسازی وزن
رگولهسازی وزن مرحلهای است که با کاهش پیچیدگی مدلها به جلوگیری از بیشبرازش کمک میکند. راههای مختلفی برای رگولهسازی مانند L1 و L2 وجود دارد. این روشها عمدتاً با جریمه کردن (penalizing) وزنهای هر تابعی کار میکنند و این وزنهای کوچکتر منجر به مدلهای سادهتر میشوند. همانطور که در پشت قبل توضیح داده شد، مدل های سادهتر به جلوگیری از بیشبرازش کمک میکند.
همانطور که از نام آن پیداست، این مرحله عبارت منظمسازی را به همراه تابع هزینه (Loss Function) اضافه میکند بطوری که ماتریس وزنها میتواند کوچکتر شود. عمل جمع، یک تابع هزینه (Cost Function) میسازد و میتواند به صورت زیر تعریف شود.
تابع هزینه = هزینه + ترم رگولهسازی
با توجه به فرمولها میتوان گفت که رگولهسازی L1 سعی میکند قدر مطلق وزنها را به حداقل برساند اما رگولهسازی L2 تلاش میکند تا قدر مجذور وزنها را به حداقل برساند.
هر دوی این روشها روشهای محبوبی هستند و تفاوت اصلی بین آنها این است که روش L1 قوی، ساده و قابل تفسیر است در حالی که رگولهسازی L2 قادر به یادگیری دادههای پیچیده است و چندان قوی نیست. بنابراین انتخاب هر یک از روش ها به پیچیدگی دادهها بستگی دارد.
منبع
@Ai_Events
رگولهسازی وزن
رگولهسازی وزن مرحلهای است که با کاهش پیچیدگی مدلها به جلوگیری از بیشبرازش کمک میکند. راههای مختلفی برای رگولهسازی مانند L1 و L2 وجود دارد. این روشها عمدتاً با جریمه کردن (penalizing) وزنهای هر تابعی کار میکنند و این وزنهای کوچکتر منجر به مدلهای سادهتر میشوند. همانطور که در پشت قبل توضیح داده شد، مدل های سادهتر به جلوگیری از بیشبرازش کمک میکند.
همانطور که از نام آن پیداست، این مرحله عبارت منظمسازی را به همراه تابع هزینه (Loss Function) اضافه میکند بطوری که ماتریس وزنها میتواند کوچکتر شود. عمل جمع، یک تابع هزینه (Cost Function) میسازد و میتواند به صورت زیر تعریف شود.
تابع هزینه = هزینه + ترم رگولهسازی
با توجه به فرمولها میتوان گفت که رگولهسازی L1 سعی میکند قدر مطلق وزنها را به حداقل برساند اما رگولهسازی L2 تلاش میکند تا قدر مجذور وزنها را به حداقل برساند.
هر دوی این روشها روشهای محبوبی هستند و تفاوت اصلی بین آنها این است که روش L1 قوی، ساده و قابل تفسیر است در حالی که رگولهسازی L2 قادر به یادگیری دادههای پیچیده است و چندان قوی نیست. بنابراین انتخاب هر یک از روش ها به پیچیدگی دادهها بستگی دارد.
منبع
@Ai_Events
👍2