Ai Events️ – Telegram
Ai Events️
6.04K subscribers
948 photos
83 videos
26 files
760 links
This channel aims to cover all events related to artificial intelligence, data science, etc.
Hamid Mahmoodabadi

در این کانال تمام رویدادهای مرتبط با هوش مصنوعی، علوم داده و ... پوشش داده می‌شود.
حمید محمودآبادی

Contact me:
@MahmoodabadiHamid
Download Telegram
برنامه نویسی ربات (پایتون)
شرکت ویو رباتیک
دفتر تهران: نزدیک ایستگاه مترو شریف
حقوق: تا 25 میلیون (بسته به سطح تجربه و مهارت شما)
مدل همکاری: تمام وقت
ساعت کاری: انعطاف پذیر و قابل مذاکره‌
ارسال رزومه: javad@vivetennis.com

@Ai_Events
👍2
Hauser-&-Petrit-Çeku-Concierto-de-Aranjuez_46679794
<unknown>
پروردگارا!
قبولم کن، به گونه‌ی عاشقی که به‌جز عشق هیچ چیز ندارد ...

@Ai_Events
Ai Events️
<unknown> – Hauser-&-Petrit-Çeku-Concierto-de-Aranjuez_46679794
.
کسایی که از نزدیک (خیلی نزدیک) من رو می‌شناسن می‌دونن چقدر دیوانه‌وار موسیقی رو دوست دارم، مخصوصا از نوع بی‌کلامش.

بعد چند سال این قطعه رو دوباره شنیدم، واقعا هیچ encoderی نمی‌تونه این حجم از memories رو تو چند نت موسیقی جاسازی کنه.

#موقت
بچه‌ها این رویداد حضوری هستش 😀
چقدر خوشحالم حضوری‌ها شروع شده.
دلم برای نتورک‌سازی حضوری تنگ شده بود.

@Ai_Events
وبینار با موضوع: داغ ترین کاربردهای بینایی ماشین در صنعت


سخنران: دکتر محمد شکوهی یکتا


پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱، ساعت ۱۶:۰۰ به وقت تهران

کلاس مجازی شماره ۱ دانشکده مهندسی:
http://vroom.ut.ac.ir/farabi3

@Ai_Events
رویداد تجربه‌محور هوش مصنوعی در صنعت

زمان برگزاری: پنج‌شنبه ۲۹ اردیبهشت ۸ الی ۱۷

محل برگزاری: مرکز همایش‌های بین‌المللی صداوسیما

کد تخفیف: Ai_Events

کسب اطلاعات بیشتر و ثبت‌نام:
https://evand.com/events/aixperience01

@Ai_Events
👍1
Forwarded from Deep learning channel (Khalooei)
هم اکنون / مجموعه سخنرانی های هوش مصنوعی امیرکبیر

ارائه دکتر نیک آبادی در خصوص ویرایش معنایی صفات چهره با استفاده از مدل های مولد

🌐 https://bluemeet.aut.ac.ir/ch/aaic_lectures/guest
تهران، همین حالا!

لوکیشن: مطهری، نبش قائم مقام

@Ai_Events
1
سخنرانی آنلاین: مقدمه ای بر تحلیل توپولوژیکی داده

دکتر نیره الیاسی

پنجشنبه ۵ خرداد ساعت ۱۱

برای ورود به جلسه به عنوان مهمان وارد این لینک شوید.

@Ai_Events
👍1
۲۴ ساعت کد زدن به همراه پیتزا و خوش گذرونی
مسابقه ی XeroCTF ترکیبی از چالش های هوش مصنوعی و امنیت سایبریه و طوری طراحی شده میزان یادگیری و تفریح رو به حداکثرترین حالت ممکن خودش برسونه.
تیم Roboepics پنج چالش رو به دقت طراحی کرده تا مهارت های حوزه های بالا رو مورد آزمایش قرار بده.
افراد میتونن به صورت انفرادی یا تیم های حداکثر سه نفری برای مسابقه ثبت نام کنن.

لینک ثبت‌نام:
Xero.roboepics.com

@Ai_Events
5
Things are moving fast in Al. How to stay up-to-date with the latest and greatest in machine learning and data science research and applications?

1. Follow top research and applied scientists on Twitter to stay apprised of new ML publications or blogs. Beware that you'll need to sort through the noise. For example, top institutions tend to get more attention than others – it is not always justified. If you're looking for people to follow, see the list I follow on Twitter: https://buff.ly/37JLDNC

2. Top ML & DS conferences such as NeurlPS, CVPR, ICLR, ICML, or KDD publish their list of award winning papers. These are peer-reviewed and have excited multiple people from the community. You'd get less real-time info than on Twitter, but also less noise. It's also a more academic view. I like to print papers and skim through them (5 min each max) focusing on abstract, methodology, and figures. If I'm interested, I'll spend more time on the paper.

3. Reddit is my favorite place to discuss ML & DS research papers or industry innovations. That's where you can go deeper into your understanding of a new approach by asking questions and scrolling through answers. The point of views are more critical. I recommend the following subreddits: r/ Machine Learning, r/datascience, r/deeplearning, r/ datasets, r/artificial, r/Language Technology, or r/ reinforcementlearning.

Hope it helps!

From: Kian Katanforoush (Stanford lecturer)

@Ai_Events
👍5
عنوان سخنرانی:
Industry in the Big Data Era

سخنران:
Dr. Hossein Badri (Adjunct Assistant Professor at University of Texas – Arlington, Department of Information Systems and Operations Management)

تاریخ سخنرانی: دوشنبه ٩ خردادماه ١۴٠١، ساعت ١٧:٠٠ الی ١٨:٣٠

محل برگزاری:
https://vc.sharif.edu/ch/ie-seminar

@Ai_Events
رویداد آموزشی کاربردی
تنظیم هایپرپارامترها(شبکه‌های عمیق)
hyparameter tuning


چگونه بهترین هایپرپارامترها را برای مدلسازی شبکه های عمیق به روش GRIDSEARCH تنظیم کنیم؟


مدرس :جناب آقای احمد اسدی (دکترای هوش مصنوعی، دانشگاه امیر کبیر)

زمان برگزاری : ١٢ خرداد ساعت:١٦
مهلت ثبت نام تا ١٠ خرداد
مدت رويداد : ٤ ساعت

لینک ثبت‌نام

کدتخفیف : Ayehe2424

@AyehEvent
@Ai_Events
👍2
گام‌هایی برای جلوگیری از بیش‌برازش (overfitting) شبکه عصبی (۱)

افزایش داده‌ها (Data Augmentation):
دستیابی به داده‌های بیشتر راهی برای بهبود دقت مدل‌ها است. درک این نکته ساده است که داده‌های بیشتر، جزئیات بیشتری در مورد وظیفه‌ای که مدل باید انجام دهد را ارائه می دهد. در اینجا افزایش داده‌ها می‌تواند به عنوان راهی برای بزرگ کردن مجموعه داده‌های ما در نظر گرفته شود.

برای مثالی ساده در حین کار با مجموعه کوچک داده‌ی تصویر، می‌توانیم تعداد تصاویر را با اضافه کردن نسخه‌های چرخانده شده و تغییر مقیاس‌شده تصاویر، در داده‌ها افزایش دهیم. این باعث افزایش اندازه داده‌ها می‌شود و با استفاده از چنین تکنیک‌هایی می‌توانیم دقت مدل را افزایش دهیم و در عین حال آن را از شرایط بیش‌برازش نجات دهیم.

این مرحله یک مرحله کلی بوده که می‌تواند برای هر نوع مدل سازی استفاده شود، خواه شبکه عصبی باشد یا مدل های ایستا مانند random forest و ماشین بردار پشتیبان. روش‌های مختلفی برای تقویت داده‌ها با داده‌های طبقه‌بندی مانند SMOTE وجود دارد، و با بیش‌نمونه‌برداری می‌توانیم ایده‌ای از افزایش داده‌ها با داده‌های تصویری پیدا کنیم.
منبع
@Ai_Events
👍2
گام‌هایی برای جلوگیری از بیش‌برازش (overfitting) شبکه عصبی (۲)

ساده‌سازی شبکه عصبی

ممکن است این یک گام اشتباه برای حل مشکل ما به نظر برسد، اما این یکی از گام‌های اساسی و آسان برای جلوگیری از بیش‌برازش است. این مرحله می‌تواند شامل 2 روش باشد، یکی حذف لایه‌های پیچیده و دوم کاهش نورون‌های لایه‌ها. در مدل‌سازی کلی، می‌توان دریافت که استفاده از مدل‌های پیچیده با داده‌های آسان می‌تواند مشکل بیش‌برازش را افزایش دهد در حالی که مدل‌های ساده می‌توانند عملکرد بسیار بهتری داشته باشند.

قبل از کاهش پیچیدگی شبکه، باید ورودی و خروجی لایه ها را محاسبه کنیم. همیشه پیشنهاد می‌شود به جای اعمال پیچیدگی در شبکه، از شبکه‌های ساده استفاده کنید. اگر شبکه دچار بیش‌برازش شده است، باید سعی کنیم آن را ساده کنیم.
منبع
@Ai_Events
👍3
Google has banned the training of Deepfake models on Colab!

https://lnkd.in/geCw4Vjc

@Ai_Events
👍3
گام‌هایی برای جلوگیری از بیش‌برازش (overfitting) شبکه عصبی (۳)

رگوله‌سازی وزن

رگوله‌سازی وزن مرحله‌ای است که با کاهش پیچیدگی مدل‌ها به جلوگیری از بیش‌برازش کمک می‌کند. راه‌های مختلفی برای رگوله‌سازی  مانند L1 و L2 وجود دارد. این روش‌ها عمدتاً با جریمه کردن (penalizing) وزن‌های هر تابعی کار می‌کنند و این وزن‌های کوچکتر منجر به مدل‌های ساده‌تر می‌شوند. همانطور که در پشت قبل توضیح داده شد، مدل های ساده‌تر به جلوگیری از بیش‌برازش کمک می‌کند.

همانطور که از نام آن پیداست، این مرحله عبارت منظم‌سازی را به همراه تابع هزینه (Loss Function) اضافه می‌کند بطوری که ماتریس وزن‌ها می‌تواند کوچکتر شود. عمل جمع، یک تابع هزینه (Cost Function) می‌سازد و می‌تواند به صورت زیر تعریف شود.

تابع هزینه = هزینه + ترم رگوله‌سازی

با توجه به فرمول‌ها می‌توان گفت که رگوله‌سازی L1 سعی می‌کند قدر مطلق وزن‌ها را به حداقل برساند اما رگوله‌سازی L2 تلاش می‌کند تا قدر مجذور وزن‌ها را به حداقل برساند.

هر دوی این روش‌ها روش‌های محبوبی هستند و تفاوت اصلی بین آنها این است که روش L1 قوی، ساده و قابل تفسیر است در حالی که رگوله‌سازی L2 قادر به یادگیری داده‌های پیچیده است و چندان قوی نیست. بنابراین انتخاب هر یک از روش ها به پیچیدگی داده‌ها بستگی دارد.
منبع
@Ai_Events
👍2
گام‌هایی برای جلوگیری از بیش‌برازش (overfitting) شبکه عصبی (۴)

استفاده از روش Dropout

این مرحله به ما کمک می‌کند تا با کاهش تعداد نورون‌های شبکه تا زمانی که شبکه آموزش ببیند، از بیش برازش جلوگیری کنیم. همچنین می‌توان گفت که این یک تکنیک رگوله‌سازی  است اما برخلاف تابع هزینه، با نورون‌ها کار می‌کند.

این روش ساده است و نورون‌ها را در حین آموزش در هر تکرار(epoch) از شبکه حذف می‌کند. همچنین می‌توانیم به این فرآیند به‌گونه ای فکر کنیم که شبکه را در حین آموزش ساده و متفاوت می‌کند، زیرا درنهایت باعث کاهش پیچیدگی شبکه و تمایل به آماده‌سازی یک شبکه جدید می‌شود. اثر خالص اعمال لایه‌های Dropout در شبکه، به کاهش میزان بیش‌برازش شبکه همگرا می‌شود.
منبع
@Ai_Events
👍2
گام‌هایی برای جلوگیری از بیش‌برازش (overfitting) شبکه عصبی (۵)

توقف زودهنگام آموزش 

همانطور که از نام آن پیداست این مرحله روشی برای توقف آموزش شبکه در مراحل اولیه نسبت به مرحله نهایی است. ما می‌توانیم آن را با تکنیک اعتبارسنجی متقابل مقایسه کنیم، زیرا برخی از بخش‌های داده‌های آموزشی به عنوان داده‌های اعتبارسنجی استفاده می‌شوند؛ تا بتوان عملکرد مدل را در برابر این داده‌های اعتبارسنجی اندازه‌گیری کرد. با افزایش عملکرد مدل به نقطه اوج، می‌توان آموزش را متوقف کرد.

این مرحله در حالی که ما مدل را آموزش می‌دهیم نیز کار می‌کند. همانطور که مدل در آموزش یاد می‌گیرد، ما سعی می‌کنیم عملکرد آن را روی داده‌های دیده نشده اندازه‌گیری کنیم و آموزش را تا نقطه‌ای ادامه دهیم که مدل شروع به کاهش دقت در اعتبارسنجی یا داده‌های دیده نشده کند. اگر عملکرد این مجموعه اعتبارسنجی کاهش یابد یا برای تکرارهای خاص ثابت بماند، آموزش متوقف می شود.
منبع
@Ai_Events