Ridge, Lasso, and Elastic-Net Regression
رگولاریزیشن تکنیکی هست که برای جلوگیری از برازش بیش از حد (اورفیتینگ) با اضافه کردن یه پنالتی به پیچیدگی مدل استفاده میشه. هدف ساده نگه داشتن مدل (با جلوگیری از بیش از حد بزرگ شدن پارامترها) هست که به تعمیم بهتر داده های جدید کمک میکنه. Ridge regression که بعنوان L2 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه عبارت جریمه اصلاح میکنه. این جریمه مجموع مجذور ضرایب مدل (بدون احتساب بایاس) هست. Lasso regression که یه تکنیک دیگه رگولاریزیشن هست و با نام L1 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه پنالتی به اون که مجموع مقادیر مطلق ضرایب مدل (بدون احتساب بایاس) هست اصلاح میکنه. و Elastic-Net regression هم پنالتی های دو متد Lasso (L1 regularization) و Ridge (L2 regularization) رو ترکیب میکنه. هر دو رو به cost function اضافه میکنه.اما در حالی که این متدها برای مسیله رگرسیون توسعه دادن شدن اما میشه از اونها در مسیله کلاسیفیکیشن هم استفاده کرد.
رگولاریزیشن تکنیکی هست که برای جلوگیری از برازش بیش از حد (اورفیتینگ) با اضافه کردن یه پنالتی به پیچیدگی مدل استفاده میشه. هدف ساده نگه داشتن مدل (با جلوگیری از بیش از حد بزرگ شدن پارامترها) هست که به تعمیم بهتر داده های جدید کمک میکنه. Ridge regression که بعنوان L2 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه عبارت جریمه اصلاح میکنه. این جریمه مجموع مجذور ضرایب مدل (بدون احتساب بایاس) هست. Lasso regression که یه تکنیک دیگه رگولاریزیشن هست و با نام L1 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه پنالتی به اون که مجموع مقادیر مطلق ضرایب مدل (بدون احتساب بایاس) هست اصلاح میکنه. و Elastic-Net regression هم پنالتی های دو متد Lasso (L1 regularization) و Ridge (L2 regularization) رو ترکیب میکنه. هر دو رو به cost function اضافه میکنه.اما در حالی که این متدها برای مسیله رگرسیون توسعه دادن شدن اما میشه از اونها در مسیله کلاسیفیکیشن هم استفاده کرد.
👍1🤩1
سلام. میخوام در مورد Decision Tree برای دیتاست iris حرف بزنم و یکم هم کد بزنیم
🤩1
اینجا Pairplotش رو با seaborn نشون دادم. Pairplot گریدی از اسکتر پلاتها (و گاهی histograms یا density plots) هست که روابط پِیری بین فیچرهای یه دیتاست رو نشون میده. عناصر خارج از قطر اصلی اسکتر پلاتها رو برای پِیر فیچرها نشون میده. عناصر قطر اصلی معمولا Histograms یا Kernel Density Plots (KDE Plots) رو نشون میده. هیستوگرام داده هارو به binsها تقسیم میکنه و مشاهدات هر bin رو میشماره. KDE رو میشه ورژن smooth شده ی هیستوگرام دونست. این برای تجسم تابع چگالی احتمال یه متغیر تصادفی پیوسته بکار میره. از یه kernel function برای تخمین چگالی احتمال استفاده میکنه. فرض کنید روی هر نقطه داده یه نمودار یکسان بزاریم و در آخر این نمودارهارو با هم جمع کنیم. نمودار حاصل میشه KDE.
⚡1👍1
segformer.ipynb
32.2 KB
اینم یه کد که ممکنه بدردتون بخوره. clothes segmentation انجام میده و از مدل segformer_b2_clothes استفاده میکنه. یه فانکشن نوشتم که لباسهای خاصی که میخوایید رو جدا میکنه و جداگانه ذخیره میکنه. این میتونه توی پروژه های try on خیلی مفید باشه
❤1💯1
در باب شکست
نیچه میگفت آنچه ما را نکشد قویترمان میکند، اما او سالهای پایانی عمر خویش را در جنون گذراند. ذهن انسان شکننده تر از آن چیزی بود که نیچه میگفت. روان ما ابزار ظریفی است که به راحتی شکسته می شود و هرگز واقعا ترمیم نمی شود. سنگینی شکست های مکرر نیز می تواند اراده انسان را خم کند و بشکند. شکست، زمانی که اغلب به اندازه کافی تجربه شود، به یک پیشگو تبدیل می شود و تمام تلاش های ما را تحت الشعاع قرار می دهد. ناامیدکننده است اما مفهوم بیرون آمدن قوی تر از چالشها اغلب فقط یک مکانیسم مقابله است. ما از این مکانیسم مقابله ای استقبال می کنیم زیرا جایگزین آن - پذیرش شکنندگی اساسی ما - بسیار دردناکتر است که نمی توان به آن فکر کرد. راه حل، اگر هم وجود داشته باشد، ما را از دور دست به سخره میگیرد. به نظر می رسد راه حل این است که بپذیریم راه حلی وجود ندارد. راستی کوبنده ترین شکست، درک آهسته این است که ما تبدیل به آن چیزی شده ایم که زمانی تحقیر می کردیم...
امیر موسوی
نیچه میگفت آنچه ما را نکشد قویترمان میکند، اما او سالهای پایانی عمر خویش را در جنون گذراند. ذهن انسان شکننده تر از آن چیزی بود که نیچه میگفت. روان ما ابزار ظریفی است که به راحتی شکسته می شود و هرگز واقعا ترمیم نمی شود. سنگینی شکست های مکرر نیز می تواند اراده انسان را خم کند و بشکند. شکست، زمانی که اغلب به اندازه کافی تجربه شود، به یک پیشگو تبدیل می شود و تمام تلاش های ما را تحت الشعاع قرار می دهد. ناامیدکننده است اما مفهوم بیرون آمدن قوی تر از چالشها اغلب فقط یک مکانیسم مقابله است. ما از این مکانیسم مقابله ای استقبال می کنیم زیرا جایگزین آن - پذیرش شکنندگی اساسی ما - بسیار دردناکتر است که نمی توان به آن فکر کرد. راه حل، اگر هم وجود داشته باشد، ما را از دور دست به سخره میگیرد. به نظر می رسد راه حل این است که بپذیریم راه حلی وجود ندارد. راستی کوبنده ترین شکست، درک آهسته این است که ما تبدیل به آن چیزی شده ایم که زمانی تحقیر می کردیم...
امیر موسوی
👍3🔥1💩1💯1
صبح بخیر
اینجا پاتوق منه. اینم قهوه Godfather هست😊
اینجا پاتوق منه. اینم قهوه Godfather هست😊
❤1
Golf_Play_Dataset.csv
304 B
یه دیتاست براتون ساختم. این شامل 10 سطر هست. حاوی فیچرهای کیفی و متغیر هدف PlayGolf. میخوام decision tree رو برای این دیتاست برسی کنیم
🤩1
من یه decision tree رو برای دیتاست بالا پلات کردم. ما یکسری node داریم. هر node یه decision point رو بر اساس یه فیچر نشون میده. و اولین decision point در واقع root node نامیده میشه. شاخه های-Branches هر نود (اون نود نه😁) مقادیر ممکن هر فیچر رو نشون میده. برگها (end nodes) هم final decision (class) رو نشون میده. که در این مورد yes یا no هست. رنگها majority class رو در هر نود نشون میده. نودهای تیره تر نشون دهنده خلوص بیشتر از همون کلاس هست(نمونه های بیشتر از همون کلاس).
🤩1
میخوام در مورد چندتا چیز جالب حرف بزنم. یکیش رابطه بین Entropy و probability هست که نمودارش رو پلات کردم. در این پلات محور x نشون دهنده احتمال وقوع یه رویداد دودویی هست (مثل پرتاب سکه). محور y نشون دهنده آنتروپی هست. آنتروپی عدم قطعیت یا بی نظمی توی سیستم رو اندازه گیری می کنه. زمانی که احتمال یه رویداد 0.5 باشه (حداکثر عدم قطعیت) بیشترین مقدار و زمانی که احتمال 0 یا 1 باشه (بدون عدم قطعیت) کمترین اونه. حداکثر آنتروپی زمانی رخ میده که احتمالات برابر باشن. یعنی 0.5 برای شیر و 0.5 برای روباه (بر فرض که یه روی سکه شیره و روی دیگه روباه!)
💯1
Machine Learning Melodies
میخوام در مورد چندتا چیز جالب حرف بزنم. یکیش رابطه بین Entropy و probability هست که نمودارش رو پلات کردم. در این پلات محور x نشون دهنده احتمال وقوع یه رویداد دودویی هست (مثل پرتاب سکه). محور y نشون دهنده آنتروپی هست. آنتروپی عدم قطعیت یا بی نظمی توی سیستم…
حالا جالب میشه بدونید چطور محاسبه شده. طبق فرمول زیر. ابتدا با probabilities = np.linspace(0.01, 0.99, 100) یه رنج از احتمالات رو ساختم. بعد با فرمول آنتروپی مقدار آنتروپی سیستم رو محاسبه کردم. در حالت های مختلف. مثلا حالتی که احتمال شیر اومدن 0.1 و احتمال روباه اومدن 1منهای 0.1 باشه. من در مورد آنتروپی سیستم بالاتر صحبت کرده بودم. میتونید مطالعه کنید.
entropy = -probabilities * np.log2(probabilities) - (1 - probabilities) * np.log2(1 - probabilities)
entropy = -probabilities * np.log2(probabilities) - (1 - probabilities) * np.log2(1 - probabilities)
💯1
در مورد Probability و frequency. اولی theoretical و دومی empirical هست. هر دو مفهوم از فرمول ریاضی یکسانی برای آنتروپی استفاده می کنن اما در contextهای مختلف اعمال میشن: یکی بر اساس مدل های نظری هست و دیگری بر اساس داده های مشاهده شده. توی درخت تصمیم برای یک گره معین آنتروپی بر اساس فرکانس هر کلاس در اون گره محاسبه میشه.
💯1