The Misgeneralization Mind – Telegram
The Misgeneralization Mind
154 subscribers
208 photos
14 videos
40 files
109 links
اینجا چیزایی که برام جالب باشه رو میذارم.

ناشناس:
https://news.1rj.ru/str/BiChatBot?start=sc-6e66d9fc9f
Download Telegram
✳️ چندتا دستور کاربردی در Pandas
🟢 Hyperparameter Tuning in Machine Learning
این کورس رباتیک دانشگاه پنسیلوانیا برای افرادی که علاقه دارن توی این حوزه کار کنن بنظرم جالب بود. مباحثی مثل کامپیوتر ویژن هم توی سیلابس دوره وجود داره و آموزش میدن.

https://www.coursera.org/specializations/robotics#courses
🔹 لیست آموزش‌هایی که توی کانال قرار داده شده به ترتیب

◽️ آموزش Numpy

◼️ آموزش Pandas

◽️ تحلیل اکتشافی داده‌ها (EDA) + آمار توصیفی و آمار تفسیری

◼️ آموزش مصورسازی داده‌ها

◽️ رسم انواع نمودار

◼️ رسم heatmap برای مقایسه اعداد

◽️ نمونه‌گیری در آمار استنباطی

◼️ انواع تست برای بررسی رابطه علت و معلول بین داده‌ها

◽️ تست خی (Chi Squared Test)

◼️ پیش‌پردازش داده‌ها

◽️ نرمال‌سازی داده‌ها برای استفاده در مدل (عملیات scale کردن، OHE، جداسازی تارگت، پر کردن مقادیر null و...)

◼️ مدیریت داده‌های outlier

◽️ الگوریتم‌های یادگیری ماشین پارت اول

◼️ الگوریتم‌های یادگیری ماشین پارت دوم

◽️ الگوریتم‌های یادگیری ماشین پارت سوم

◼️ الگوریتم‌های یادگیری ماشین پارت چهارم

◽️ مسائل Supervised learning و Unsupervised learning

◼️ روش Q-Cut

◽️ الگوریتم‌های Outlier Detection

◼️ روش RUS و ROS

◽️ آموزش دیپ لرنینگ

◼️ آموزش شبکه‌های عصبی

◽️ نکاتی در مورد دیپ لرنینگ و معماری شبکه‌های عصبی

◼️ توابع callbacks

◽️ تقسیم‌بندی داده‌ها

◼️ لایه Batch Normalization

◽️ شبکه‌های عصبی چند کاناله

◼️ معماری RNN

◽️ انواع معماری RNN

◼️ معماری Encoder-Decoder

◽️ ترانسفورمرها

◼️ مدل SAM

◽️ معماری Multi Modal

◼️ مفاهیم اولیه داکر
2
The Misgeneralization Mind pinned «🔹 لیست آموزش‌هایی که توی کانال قرار داده شده به ترتیب ◽️ آموزش Numpy ◼️ آموزش Pandas ◽️ تحلیل اکتشافی داده‌ها (EDA) + آمار توصیفی و آمار تفسیری ◼️ آموزش مصورسازی داده‌ها ◽️ رسم انواع نمودار ◼️ رسم heatmap برای مقایسه اعداد ◽️ نمونه‌گیری در آمار استنباطی…»
🔸 ثبت‌نام در SharifML.ir
7 Categorical Data Encoding Techniques
▫️Supervised Learning, Unsupervised Learning, Reinforcement Learning
📈 Activation Functions
برای خوندن مقالاتی که توی مدیوم هستن و نیاز به اکانت پریمیوم دارن می‌تونید لینک مقاله رو به وبسایت زیر بدید تا اون رو بطور کامل بهتون نشون بده.

🌐 https://readmedium.com
Computer scientists:
log(x) = log2(x)
🔹 Git commands
The Misgeneralization Mind
🔹 Git commands
معمولا چندتا دستور بیشتر از همه استفاده میشه چه توی پروژه‌های شخصی چه توی یه تیم شرکتی. چیزی که خودم تجربه‌ش رو داشتم رو پایین‌تر قرار میدم.

🔹 اگر بخواید یه ریپازیتوری که روی گیتهاب هست رو بصورت لوکال بیارید روی سیستم‌تون:
git clone آدرس ریپو

🔸 بعد ازینکه تغییرات مورد نظرتون رو اعمال کردین، با دستور زیر تمامی تغییرات به فاز stage منتقل میشن:
git add .

🔹 برای دیدن وضعیت فایل‌ها و تغییرات که در چه فازی قرار دارن (توی خروجی اونایی که رنگ‌شون سبزه توی فاز stage هستن):
git status

🔸 کامیت کردن تغییرات و نوشتن یه مسیج برای تغییرات اعمال شده تا بقیه بفهمن چیکار کردید. کامیت مسیج باید کوتاه و در عین حال واضح باشه.
git commit -m "commit message"

🔹 فرستادن تغییرات روی ریپازیتوری:
git push
بهترین پاسخ برای رابطه بازگشتی زیر چیه؟
T(n) = T(n/4) + T(3n/4) + n^2
T(1) = 1
Anonymous Quiz
15%
θ(nlgn)
54%
θ(n^2 lgn)
15%
θ(n^3)
15%
θ(n^2)
The Misgeneralization Mind
بهترین پاسخ برای رابطه بازگشتی زیر چیه؟
T(n) = T(n/4) + T(3n/4) + n^2
T(1) = 1
این اولین سوال کتاب ۶۰۰ مسئله دکتر قدسی هست که بشخصه وقتی کتاب رو باز کردم و اومدم سراغ حل کردن‌ش، یکم عجیب بنظر رسید برام.

اولین راه حلی که برای این سوال به ذهنم رسید، حل از طریق درخت بازگشت بود (خود دکتر قدسی هم از این روش استفاده کردن). اگه درخت بازگشت این رابطه رو بررسی کنیم و حداقل و حداکثر ارتفاع درخت رو بدست بیاریم میبینیم که مرتبه‌‌ی زمانی این رابطه از تتای گزینه دوم میشه (خود دکتر قدسی هم گزینه درست رو همین اعلام کردن).

اما این نوع رابطه یه روش دیگه برای حل داره و اونم روشی به نام آکرا هست. اگه از این روش استفاده کنیم چنین چیزی داریم:

(1/4)^2 + (3/4)^2 = (1/16) + (9/16) = (10/16)

و چون 1 > (10/16) مرتبه میشه از تتای n^2.
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی با Pandas کار میکنیم، می‌دونیم که با افزایش حجم داده‌ها سرعت اون به مرور کاهش پیدا می‌کنه و این می‌تونه پروسه‌ تحلیل داده‌هامون رو کند کنه. FireDucks با بهینه‌سازی‌هایی که در بخش‌های مختلف انجام داده، می‌تونه سرعت عملیات‌های پانداس رو تا ۲۰ برابر (یا حتی بیشتر) افزایش بده.

توی لینک زیر توضیحات بیشتر در مورد این ابزار و طریقه استفاده ازش داده شده.
https://blog.dailydoseofds.com/p/accelerate-pandas-20x-using-fireducks
ثبت‌نام توی مسابقه المپیک فناوری همچنان امکان پذیره و تا ۶ مهر ساعت ۱۶ هم میشه این کار رو انجام داد.

⚠️ حتما باید در قالب تیم‌های دو نفره ثبت‌نام کرد.

https://quera.org/events/techolympics-ai-0307