The Misgeneralization Mind – Telegram
The Misgeneralization Mind
154 subscribers
208 photos
14 videos
40 files
109 links
اینجا چیزایی که برام جالب باشه رو میذارم.

ناشناس:
https://news.1rj.ru/str/BiChatBot?start=sc-6e66d9fc9f
Download Telegram
🔸 ثبت‌نام در SharifML.ir
7 Categorical Data Encoding Techniques
▫️Supervised Learning, Unsupervised Learning, Reinforcement Learning
📈 Activation Functions
برای خوندن مقالاتی که توی مدیوم هستن و نیاز به اکانت پریمیوم دارن می‌تونید لینک مقاله رو به وبسایت زیر بدید تا اون رو بطور کامل بهتون نشون بده.

🌐 https://readmedium.com
Computer scientists:
log(x) = log2(x)
🔹 Git commands
The Misgeneralization Mind
🔹 Git commands
معمولا چندتا دستور بیشتر از همه استفاده میشه چه توی پروژه‌های شخصی چه توی یه تیم شرکتی. چیزی که خودم تجربه‌ش رو داشتم رو پایین‌تر قرار میدم.

🔹 اگر بخواید یه ریپازیتوری که روی گیتهاب هست رو بصورت لوکال بیارید روی سیستم‌تون:
git clone آدرس ریپو

🔸 بعد ازینکه تغییرات مورد نظرتون رو اعمال کردین، با دستور زیر تمامی تغییرات به فاز stage منتقل میشن:
git add .

🔹 برای دیدن وضعیت فایل‌ها و تغییرات که در چه فازی قرار دارن (توی خروجی اونایی که رنگ‌شون سبزه توی فاز stage هستن):
git status

🔸 کامیت کردن تغییرات و نوشتن یه مسیج برای تغییرات اعمال شده تا بقیه بفهمن چیکار کردید. کامیت مسیج باید کوتاه و در عین حال واضح باشه.
git commit -m "commit message"

🔹 فرستادن تغییرات روی ریپازیتوری:
git push
بهترین پاسخ برای رابطه بازگشتی زیر چیه؟
T(n) = T(n/4) + T(3n/4) + n^2
T(1) = 1
Anonymous Quiz
15%
θ(nlgn)
54%
θ(n^2 lgn)
15%
θ(n^3)
15%
θ(n^2)
The Misgeneralization Mind
بهترین پاسخ برای رابطه بازگشتی زیر چیه؟
T(n) = T(n/4) + T(3n/4) + n^2
T(1) = 1
این اولین سوال کتاب ۶۰۰ مسئله دکتر قدسی هست که بشخصه وقتی کتاب رو باز کردم و اومدم سراغ حل کردن‌ش، یکم عجیب بنظر رسید برام.

اولین راه حلی که برای این سوال به ذهنم رسید، حل از طریق درخت بازگشت بود (خود دکتر قدسی هم از این روش استفاده کردن). اگه درخت بازگشت این رابطه رو بررسی کنیم و حداقل و حداکثر ارتفاع درخت رو بدست بیاریم میبینیم که مرتبه‌‌ی زمانی این رابطه از تتای گزینه دوم میشه (خود دکتر قدسی هم گزینه درست رو همین اعلام کردن).

اما این نوع رابطه یه روش دیگه برای حل داره و اونم روشی به نام آکرا هست. اگه از این روش استفاده کنیم چنین چیزی داریم:

(1/4)^2 + (3/4)^2 = (1/16) + (9/16) = (10/16)

و چون 1 > (10/16) مرتبه میشه از تتای n^2.
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی با Pandas کار میکنیم، می‌دونیم که با افزایش حجم داده‌ها سرعت اون به مرور کاهش پیدا می‌کنه و این می‌تونه پروسه‌ تحلیل داده‌هامون رو کند کنه. FireDucks با بهینه‌سازی‌هایی که در بخش‌های مختلف انجام داده، می‌تونه سرعت عملیات‌های پانداس رو تا ۲۰ برابر (یا حتی بیشتر) افزایش بده.

توی لینک زیر توضیحات بیشتر در مورد این ابزار و طریقه استفاده ازش داده شده.
https://blog.dailydoseofds.com/p/accelerate-pandas-20x-using-fireducks
ثبت‌نام توی مسابقه المپیک فناوری همچنان امکان پذیره و تا ۶ مهر ساعت ۱۶ هم میشه این کار رو انجام داد.

⚠️ حتما باید در قالب تیم‌های دو نفره ثبت‌نام کرد.

https://quera.org/events/techolympics-ai-0307
- Multiple Linear Regression exemplified

- Simple Linear Regression exemplified
1
این ریپازیتوری گیتهاب خیلی جالب و کاربردی بود. داخل ریپو بهترین مقالات حوزه ماشین لرنینگ بصورت هفتگی قرار داده میشه.

https://github.com/dair-ai/ML-Papers-of-the-Week
اگر هدف اپلای دارین وبسایت apply kite میتونه کمک خوبی بهتون بکنه توی این مسیر.
داخل وبسایت لیست پوزیشن‌هایی که برای مقطع phd و تک و توک برای مقطع master وجود داره رو قرار دادن و میشه بر اساس کشور و جدیدا هم بر اساس دانشگاه مد نظر فیلتر کرد.

توی لیست اساتید هم اساتیدی که پوزیشن باز دارن و دانشجو میگیرن وجود داره و این امکان هم هست که بر اساس اساتیدی که گرنت دارن فیلتر کنید.

یسری خدمات دیگه هم مثل جنریت کردن sop و ایمیل بر اساس رزومه خودتون، پوزیشنی که هست و همچنین فعالیت‌های علمی استاد مورد نظر وجود داره که خیلی کاربردیه و نهایتا شاید نیاز به یه تغییر خیلی کوچیک باشه.

توی ربات تلگرامی‌شون هم همین قابلیت‌هایی که بالا گفتم هست به علاوه اینکه یه بخش پارتنریابی هم داره که اونجا میتونید برای زبان خوندن، نوشتن مقاله یا اپلای، پارتنر پیدا کنید.

http://applykite.com
@applykitebot

⚠️ توی پست بعدی هم یه فولدر از کانال‌ها و گروه‌های تلگرامی اپلای تحصیلی میفرستم که میتونه مفید باشه.
2
دانشکده کامپیوتر و کتابخونه‌ی دانشگاه علم و صنعت
ارسالی از طرف دوستان عزیز :)

(تصورم از علم و صنعت این نبود، مخصوصا کتابخونه‌ش خیلی خفنه)
6👍1👎1