Machine Learning Melodies – Telegram
Machine Learning Melodies
215 subscribers
28 photos
3 files
5 links
توی این کانال، من تجربیات و علایق شخصی‌ام رو در زمینه ماشین لرنینگ، موسیقی و چند چیز دیگه به اشتراک می‌گذارم
Download Telegram
نشستم براتون یکم کد زدم. این بهترین سیستم طراحی داخلی هست که میتونید با اون فضای زندگی خودتون رو از نو تصور کنید. با چند سلول کد میشه چنین سیستمی ساخت. میتونید توی colab ران کنید. همچنین پیشنهاد میکنم متناسب با کاری که میخوایید انجام بدید از یه مدل lora برای بهتر شدن نتایج استفاده کنید.
مدلی که اینجا استفاده کردم stable-diffusion-xl-1.0-inpainting-0.1 هست. این بهترین مدل اوپن سورس ممکنه. بنابراین اگر جایی نتایج بهتری دیدید یا فیکه یا خودشون ترین کردن.
کدش رو زیر قرار میدم
2
Ridge, Lasso, and Elastic-Net Regression
رگولاریزیشن تکنیکی هست که برای جلوگیری از برازش بیش از حد (اورفیتینگ) با اضافه کردن یه پنالتی به پیچیدگی مدل استفاده میشه. هدف ساده نگه داشتن مدل (با جلوگیری از بیش از حد بزرگ شدن پارامترها) هست که به تعمیم بهتر داده های جدید کمک میکنه. Ridge regression که بعنوان L2 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه عبارت جریمه اصلاح میکنه. این جریمه مجموع مجذور ضرایب مدل (بدون احتساب بایاس) هست. Lasso regression که یه تکنیک دیگه رگولاریزیشن هست و با نام L1 regularization هم شناخته میشه cost function رگرسیون رو با اضافه کردن یه پنالتی به اون که مجموع مقادیر مطلق ضرایب مدل (بدون احتساب بایاس) هست اصلاح میکنه. و Elastic-Net regression هم پنالتی های دو متد Lasso (L1 regularization) و Ridge (L2 regularization) رو ترکیب میکنه. هر دو رو به cost function اضافه میکنه.اما در حالی که این متدها برای مسیله رگرسیون توسعه دادن شدن اما میشه از اونها در مسیله کلاسیفیکیشن هم استفاده کرد.
👍1🤩1
1
Machine Learning Melodies
GIF
Stable Video Diffusion - Img2Vid - XT
🤩1
سلام. میخوام در مورد Decision Tree برای دیتاست iris حرف بزنم و یکم هم کد بزنیم
🤩1
این دیتاست گل های زنبق هست. یکسری فیچر داره-اندازه گیری گل های زنبق. و یکسری هم لیبل-گونه های گل زنبق. هدش رو نشون دادم توی تصویر
1
اینجا Pairplotش رو با seaborn نشون دادم. Pairplot گریدی از اسکتر پلات‌ها (و گاهی histograms یا density plots) هست که روابط پِیری بین فیچرهای یه دیتاست رو نشون میده. عناصر خارج از قطر اصلی اسکتر پلات‌ها رو برای پِیر فیچرها نشون میده. عناصر قطر اصلی معمولا Histograms یا Kernel Density Plots (KDE Plots) رو نشون میده. هیستوگرام داده هارو به binsها تقسیم میکنه و مشاهدات هر bin رو میشماره. KDE رو میشه ورژن smooth شده ی هیستوگرام دونست. این برای تجسم تابع چگالی احتمال یه متغیر تصادفی پیوسته بکار میره. از یه kernel function برای تخمین چگالی احتمال استفاده میکنه. فرض کنید روی هر نقطه داده یه نمودار یکسان بزاریم و در آخر این نمودارهارو با هم جمع کنیم. نمودار حاصل میشه KDE.
1👍1
اینم box plots دیتاست هست که توزیع هر فیچر رو نشون میده
1
segformer.ipynb
32.2 KB
اینم یه کد که ممکنه بدردتون بخوره. clothes segmentation انجام میده و از مدل segformer_b2_clothes استفاده میکنه. یه فانکشن نوشتم که لباسهای خاصی که میخوایید رو جدا میکنه و جداگانه ذخیره میکنه. این میتونه توی پروژه های try on خیلی مفید باشه
1💯1
dress
در باب شکست
نیچه میگفت آنچه ما را نکشد قوی‌ترمان می‌کند، اما او سال‌های پایانی عمر خویش را در جنون گذراند. ذهن انسان شکننده تر از آن چیزی بود که نیچه میگفت. روان ما ابزار ظریفی است که به راحتی شکسته می شود و هرگز واقعا ترمیم نمی شود. سنگینی شکست های مکرر نیز می تواند اراده انسان را خم کند و بشکند. شکست، زمانی که اغلب به اندازه کافی تجربه شود، به یک پیشگو تبدیل می شود و تمام تلاش های ما را تحت الشعاع قرار می دهد. ناامیدکننده است اما مفهوم بیرون آمدن قوی تر از چالش‌ها اغلب فقط یک مکانیسم مقابله است. ما از این مکانیسم مقابله ای استقبال می کنیم زیرا جایگزین آن - پذیرش شکنندگی اساسی ما - بسیار دردناک‌تر است که نمی توان به آن فکر کرد. راه حل، اگر هم وجود داشته باشد، ما را از دور دست به سخره میگیرد. به نظر می رسد راه حل این است که بپذیریم راه حلی وجود ندارد. راستی کوبنده ترین شکست، درک آهسته این است که ما تبدیل به آن چیزی شده ایم که زمانی تحقیر می کردیم...

امیر موسوی
👍3🔥1💩1💯1
صبح بخیر
اینجا پاتوق منه. اینم قهوه Godfather هست😊
1
Golf_Play_Dataset.csv
304 B
یه دیتاست براتون ساختم. این شامل 10 سطر هست. حاوی فیچرهای کیفی و متغیر هدف PlayGolf. میخوام decision tree رو برای این دیتاست برسی کنیم
🤩1
من یه decision tree رو برای دیتاست بالا پلات کردم. ما یکسری node داریم. هر node یه decision point رو بر اساس یه فیچر نشون میده. و اولین decision point در واقع root node نامیده میشه. شاخه های-Branches هر نود (اون نود نه😁) مقادیر ممکن هر فیچر رو نشون میده. برگها (end nodes) هم final decision (class) رو نشون میده. که در این مورد yes یا no هست. رنگها majority class رو در هر نود نشون میده. نودهای تیره تر نشون دهنده خلوص بیشتر از همون کلاس هست(نمونه های بیشتر از همون کلاس).
🤩1
میخوام در مورد چندتا چیز جالب حرف بزنم. یکیش رابطه بین Entropy و probability هست که نمودارش رو پلات کردم. در این پلات محور x نشون دهنده احتمال وقوع یه رویداد دودویی هست (مثل پرتاب سکه). محور y نشون دهنده آنتروپی هست. آنتروپی عدم قطعیت یا بی نظمی توی سیستم رو اندازه گیری می کنه. زمانی که احتمال یه رویداد 0.5 باشه (حداکثر عدم قطعیت) بیشترین مقدار و زمانی که احتمال 0 یا 1 باشه (بدون عدم قطعیت) کمترین اونه. حداکثر آنتروپی زمانی رخ می‌ده که احتمالات برابر باشن. یعنی 0.5 برای شیر و 0.5 برای روباه (بر فرض که یه روی سکه شیره و روی دیگه روباه!)
💯1