FaraData | فرا داده: علم داده و داده‌کاوی – Telegram
FaraData | فرا داده: علم داده و داده‌کاوی
1.32K subscribers
50 photos
11 videos
246 links
فرا داده — کانال تخصصی علم داده و داده کاوی

🔸کلان داده
🔸 داده کاوی
🔸 پردازش داده
🔸 یادگیری عمیق
🔸 یادگیری ماشین
🔸 کلان داده و Big Data
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ds
Download Telegram
✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها

‏در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب می‌شد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسب‌ها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمی‌کرد که چنین سازه‌هایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکت‌ها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب می‌شدند، قدرت‌های بلامنازع قرن رایانه و داده‌ها بودند. ولی امروزه کسانی که بتوانند ابزارها و روش‌های کشف اطلاعات و استخراج دانش از داده‌ها را رهبری کنند، قدرتمند خواهند بود. یکی از روش‌های تفسیر و تشکیل یا تشخیص الگو از روی داده‌ها، استفاده از تکنیک‌های مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بسته‌ها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.

══ فهرست مطالب ══

‏ ○ مصور سازی داده‌ و ابزارهای آن
‏ ○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
‏ ○ خلاصه و جمع‌بندی


🔸 مصور سازی داده‌ و ابزارهای آن

‏به کارگیری و نمایش مجموعه‌های بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده‌ آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آن‌ها بدون ابزارهای رایانه‌ای، کاملاً غیرممکن است. در اینجا لازم است که از نرم‌افزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکان‌پذیر می‌سازند.

‏ایجاد تجسم برای داده‌ها اغلب کار ساده‌ای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرم‌افزارهای معروف که در مصور سازی داده به کار می‌روند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهره‌گیری از این نرم‌افزارها، در هزینه و زمان صرفه‌جویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه می‌کند.

‏ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایش‌های تصویری و بصری از مجموعه داده‌های بزرگ را به طراحان ارائه می‌دهند. هنگام کار با مجموعه‌ای که شامل صدها هزار یا میلیون‌ها نقطه داده باشد، کار مشکلی است. با استفاده از این نرم‌افزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده می‌کند.


🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲

‏در تحلیل داده، بسیار مهم است که ابتدا آن‌ها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آن‌ها، روش‌های مناسبی را انتخاب کنیم. توصیف داده‌ها و کشف قوانین آن‌ها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبان‌ها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین داده‌ها به مخاطبان آموزش داده می‌شود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.

‏این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصل‌های آموزشی به قرار زیر هستند.

‏– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)

‏– درس دوم: نکاتی در مورد نمودارهای پرکاربرد

‏– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲

‏– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting

‏– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)

‏– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr

‏– درس هفتم: مقدمه ای بر پکیج‌های GGally و Plotly



مطالعه ادامه مطلب 👇👇

🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍1
✳️ تحلیل شبکه های اجتماعی از صفر تا صد — راهنمای جامع

‏یک «شبکه اجتماعی» (Social Network)، ساختار اجتماعی تشکیل شده از افراد (یا سازمان‌ها) است. تحلیل شبکه‌‌های اجتماعی، رویکردی است که در آن شبکه را به صورت مجموعه‌ای از «گره‌ها» (Nodes) و روابط میان آن ها در نظر می‌گیرند. گره‌ها، اشخاص و در واقع بازیگران درون شبکه هستند و روابط میان آن‌ها به صورت اتصالاتی بین گره‌ها نمایش داده می‌شود. ساختار شبکه‌های اجتماعی که ساختارهایی مبتنی بر گراف است، معمولا بسیار پیچیده‌اند. انواع گوناگونی از روابط مانند دوستی، همکاری، خویشاوندی، علاقمندی و مبادلات مالی ممکن است بین گره‌ها وجود داشته باشد. در واقع «تحلیل شبکه‌های اجتماعی» (Social Network Analysis | SNA) یک استراتژی برای بررسی ساختارهای اجتماعی با استفاده از نظریه‌های شبکه و گراف است.

══ فهرست مطالب ══

‏ ○ تاریخچه تحلیل شبکه‌های اجتماعی
‏ ○ سنجه‌ها
‏ ○ مدل‌سازی و بصری‌سازی شبکه
‏ ○ نظریه گراف در مدل‌سازی شبکه
‏ ○ چرایی و کاربردهای تحلیل


🔸 تاریخچه تحلیل شبکه‌های اجتماعی

‏تحلیل شبکه‌های اجتماعی ریشه‌های نظری در کارهای جامعه‌شناسان اولیه مانند «گئورگ زیمل» (Georg Simmel) و «امیل دورکیم» (Émile Durkheim) که در رابطه با اهمیت مطالعه الگوهای روابطی که بازیگران اجتماعی را به یکدیگر متصل می‌کند آثار مکتوبی منتشر کرده‌اند دارد. دانشمندان اجتماعی مفهوم «شبکه‌های اجتماعی» را از اوایل قرن بیستم به منظور اشاره ضمنی به مجموعه‌های پیچیده از روابط بین اعضای سیستم‌های اجتماعی در همه مقیاس‌ها از بین‌شخصی گرفته تا بین‌المللی استفاده کردند. در سال۱۹۳۰ میلادی، «جاکوب مورنو» (Jacob L. Moreno) و «هلن جنگینز» (Helen Jennings)، روش‌های تحلیلی پایه‌ای را برای شبکه‌های اجتماعی معرفی کردند.

‏در سال ۱۹۵۴، «جی‌ای بارنز» (John Arundel Barnes)، از اصطلاحات گروه‌های محدود (مانند قبایل و خانواده‌ها) و دسته‌های اجتماعی (مانند جنسیت و قومیت) استفاده کرد. پژوهشگرانی مانند «رونالد برت» (Ronald Burt)، «کاتلین کارلی» (Kathleen Carley)، «مارک گرانوتر» (Mark Granovetter)، «دیوید کراکخاردت» (David Krackhardt)، «ادوارد لوامان» (Edward Laumann)، «آناتول راپوپورت» (Anatol Rapoport)، «بری ولمن» (Barry Wellman)، «داگلاس آروایت» (Douglas R. White) و «هریسون وایت» (Harrison Whit)، استفاده از تحلیل‌های سیستماتیک شبکه‌های اجتماعی را گسترش دادند. امروزه تحلیل‌های شبکه‌های اجتماعی در رشته‌های آکادمیک گوناگون کاربرد پیدا کرده است.


🔸 سنجه‌ها

‏در تحلیل شبکه‌های اجتماعی برخط، مفاهیم، اصطلاحات و سنجه‌هایی وجود دارد که در پژوهش‌های گوناگون و توسط دانشمندان این حوزه استفاده شده‌اند. سه دسته اصلی از این سنجه‌ها، «ارتباطات» (Connections)، «توزیع‌ها» (Distributions) و «بخش‌بندی» (Segmentation) هستند.

‏از این سنجه‌ها برای اندازه‌گیری مسائل گوناگونی که در گراف ساختاری مربوط به شبکه‌های اجتماعی برخط به وقوع می‌پیوندد بهره ‌می‎برند. آشنایی با این مفاهیم به منظور تحلیل شبکه‌های اجتماعی الزامی است. در ادامه هر یک از این دسته‌ها توضیح داده شده است.

‏ارتباطات: این دسته از سنجه‌ها به مفاهیم و اصطلاحات مربوط به ویژگی‌های ارتباطات میان بازیگران در یک شبکه اجتماعی برخط می‌پردازند. «هوموفیلی» (Homophily)، رابطه متقابل، Multiplexity، بسته بودن شبکه و قرابت از این جمله هستند. اینکه بازیگران تا چه میزان با دیگر بازیگران شبیه یا غیرشبیه خود رابطه ایجاد می‌کنند را هوموفیلی گویند.



مطالعه ادامه مطلب 👇👇

🔗 تحلیل شبکه های اجتماعی از صفر تا صد — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

✳️ پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده

‏«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «داده‌کاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده می‌شود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیاده‌سازی روش‌ها و الگوریتم‌های یادگیری ماشین از آن‌ها استفاده می‌شود، زبان‌های برنامه‌نویسی پایتون و R‌ هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روش‌های یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام می‌شود.

══ فهرست مطالب ══

‏ ○ این راهنما برای چه افرادی مناسب است؟
‏ ○ الگوریتم‌های یادگیری ماشین
‏ ○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
‏ ○ ۱. رگرسیون خطی
‏ ○ ۲. رگرسیون لجستیک
‏ ○ ۳. درخت تصمیم
‏ ○ ۴. ماشین بردار پشتیبان
‏ ○ ۵. نایو بیز
‏ ○ ۶. k نزدیک‌ترین همسایگی
‏ ○ ۷. K-Means
‏ ○ ۸. جنگل تصادفی
‏ ○ ۹. الگوریتم‌های کاهش ابعاد
‏ ○ ۱۰. الگوریتم‌های گرادیان تقویتی
‏ ○ جمع‌بندی


🔸 این راهنما برای چه افرادی مناسب است؟

‏ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسان‌تر سازد. با بهره‌گیری از این راهنما، افراد قادر می‌شوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتم‌های یادگیری ماشین متعدد مطرح شده در این مطلب ارائه می‌کنند، کدهای پایتون و R هر یک از الگوریتم‌ها نیز ارائه شده‌اند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتم‌ها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه می‌شود.


🔸 الگوریتم‌های یادگیری ماشین

‏در حالت کلی، سه دسته از الگوریتم‌های یادگیری ماشین وجود دارند. این دسته‌ها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شده‌اند.

‏این نوع از الگوریتم‌ها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیش‌بین‌ها» (Predictors)، پیش‌بینی شود. با استفاده از این مجموعه متغیرها، می‌توان تابعی ساخت که ورودی‌ها را به خروجی‌های موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا می‌کند که مدل به سطح مناسبی از «صحت» (Accuracy) روی داده‌های آموزش دست پیدا کند. از جمله الگوریتم‌های یادگیری نظارت شده می‌توان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیک‌ترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.

‏در الگوریتم‌های یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیش‌بینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتم‌ها برای «خوشه‌بندی» (Clustering) جامعه در گروه‌های مختلف مورد استفاده قرار می‌گیرند و برای مثال به طور گسترده‌ای برای بخش‌بندی مشتریان در گروه‌های مختلف استفاده می‌شوند. از جمله الگوریتم‌های نظارت نشده می‌توان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.


مطالعه ادامه مطلب 👇👇

🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍1
✳️ یادگیری ماشین (Machine Learning) چیست؟ — راهنمای کامل

‏در علم یادگیری ماشین (Machine Learning)، به موضوع طراحی ماشین‌هایی پرداخته می‌شود که با استفاده از مثال‌های داده شده به آن‌ها و تجربیات خودشان، بیاموزند. در واقع، در این علم تلاش می‌شود تا با بهره‌گیری از الگوریتم‌ها، یک ماشین به شکلی طراحی شود که بدون آنکه صراحتا برنامه‌ریزی و تک تک اقدامات به آن دیکته شود بتواند بیاموزد و عمل کند. در یادگیری ماشین، به جای برنامه‌نویسی همه چیز، داده‌ها به یک الگوریتم عمومی داده می‌شوند و این الگوریتم است که براساس داده‌هایی که به آن داده شده منطق خود را می‌سازد. یادگیری ماشین روش‌های گوناگونی دارد که از آن جمله می‌توان به یادگیری نظارت شده، نظارت نشده و یادگیری تقویتی اشاره کرد. الگوریتم‌های مورد استفاده در یادگیری ماشین جزو این سه دسته هستند.

══ فهرست مطالب ══

‏ ○ مثال‌هایی از یادگیری ماشین
‏ ○ نیازهای یادگیری ماشین
‏ ○ انواع یادگیری ماشین
‏ ○ یادگیری تقویتی
‏ ○ ریاضیات هوشمندی


🔸 مثال‌هایی از یادگیری ماشین

‏مثال‌های متعددی برای یادگیری ماشین وجود دارند. در اینجا چند مثال از مسائل طبقه‌بندی زده می‌شود که در آن‌ها هدف دسته‌بندی اشیا به مجموعه‌ای مشخص از گروه‌ها است.

‏– تشخیص چهره: شناسایی چهره در یک تصویر (یا تشخیص اینکه آیا چهره‌ای وجود دارد یا خیر).

‏– فیلتر کردن ایمیل‌ها: دسته‌بندی ایمیل‌ها در دو دسته هرزنامه و غیر هرزنامه.

‏– تشخیص پزشکی: تشخیص اینکه آیا بیمار مبتلا به یک بیماری است یا خیر.

‏– پیش‌بینی آب و هوا: پیش‌بینی اینکه برای مثال فردا باران می‌بارد یا خیر.


🔸 نیازهای یادگیری ماشین

‏یادگیری ماشین زمینه مطالعاتی است که از هوش مصنوعی سر بر آورده. بشر با استفاده از هوش مصنوعی به‌دنبال ساخت ماشین‌های بهتر و هوشمند است. اما پژوهشگران در ابتدا به جز چند وظیفه ساده، مانند یافتن کوتاه‌ترین مسیر بین نقطه A و B، در برنامه‌ریزی ماشین‌ها برای انجام وظایف پیچیده‌تری که به‌طور مداوم با چالش همراه هستند ناتوان بودند. بر همین اساس، ادراکی مبنی بر این شکل گرفت که تنها راه ممکن برای تحقق بخشیدن این مهم، طراحی ماشین‌هایی است که بتوانند از خودشان یاد بگیرند. ماشین در این رویکرد به مثابه کودکی است که از خودش می‌آموزد. بنابراین، یادگیری ماشین به‌عنوان یک توانایی جدید برای رایانه‌ها مطرح شد. امروزه این علم در بخش‌های گوناگون فناوری مورد استفاده قرار می‌گیرد، و بهره‌گیری از آن به اندازه‌ای زیاد شده که افراد اغلب از وجودش در ابزارها و لوازم روزمره‌ خود بی‌خبرند.

‏یافتن الگوها در داده‌های موجود در سیاره زمین، تنها برای مغز انسان امکان‌پذیر است. اما هنگامی که حجم داده‌ها بسیار زیاد می‌شود و زمان لازم برای انجام محاسبات افزایش می‌یابد، نیاز به یادگیری ماشین به عنوان علمی مطرح می‌شود که به افراد در کار با داده‌های انبوه در حداقل زمان کمک می‌کند.

‏با وجود آنکه مباحث مِه‌داده (کلان داده/big data) و پردازش ابری به دلیل کاربردی که در جنبه‌های گوناگون زندگی بشر دارند حائز اهمیت شده‌اند، اما در حقیقت یادگیری ماشین فناوری است که به دانشمندان داده در تحلیل بخش‌های بزرگ داده، خودکارسازی فرآیندها، بازشناسی الگوها و ارزش‌آفرینی کمک می‌کند.



مطالعه ادامه مطلب 👇👇


🔗 یادگیری ماشین (Machine Learning) چیست؟ — راهنمای کامل — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎‌‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس


🟢 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 برای مشاهده آموزش‌های پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزش‌های مورد علاقه خود را رایگان دانلود کنید:👇

🔸 آموزش‌های رایگان داده‌کاوی [+]


🔹 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars - فرادرس
✳️ الگوریتم K-نزدیک‌ترین همسایگی به همراه کد پایتون

‏«k-نزدیک‌ترین همسایگی» (k-Nearest Neighbors) یک روش ناپارامتری است که در داده‌کاوی، یادگیری ماشین و تشخیص الگو مورد استفاده قرار می‌گیرد. بر اساس آمارهای ارائه شده در وب‌سایت kdnuggets الگوریتم k-نزدیک‌ترین همسایگی یکی از ده الگوریتمی است که بیشترین استفاده را در پروژه‌های گوناگون یادگیری ماشین و داده‌کاوی، هم در صنعت و هم در دانشگاه داشته است.

══ فهرست مطالب ══

‏ ○ چه زمانی باید از الگوریتم k-نزدیک‌ترین همسایگی استفاده کرد؟
‏ ○ الگوریتم k-نزدیک‌ترین همسایگی چگونه کار می‌کند؟
‏ ○ شبه کد k-نزدیک‌ترین همسایگی
‏ ○ مقایسه مدل ارائه شده در این نوشتار با scikit-learn
‏ ○ سخن پایانی


🔸 چه زمانی باید از الگوریتم k-نزدیک‌ترین همسایگی استفاده کرد؟

‏الگوریتم k-نزدیک‌ترین همسایگی برای مسائل طبقه‌بندی و رگرسیون قابل استفاده است. اگرچه، در اغلب مواقع از آن برای مسائل طبقه‌بندی استفاده می‌شود. برای ارزیابی هر روشی به طور کلی به سه جنبه مهم آن توجه می‌شود:

‏– سهولت تفسیر خروجی‌ها

‏– زمان محاسبه

‏– قدرت پیش‌بینی

‏در جدول ۱ الگوریتم نزدیک‌ترین همسایگی با الگوریتم‌های «رگرسیون لجستیک»، «CART» و «جنگل‌های تصادفی» (random forests) مقایسه شده است. همان‌گونه که از جدول مشخص است، الگوریتم k-نزدیک‌ترین همسایگی بر اساس جنبه‌های بیان شده در بالا، نسبت به دیگر الگوریتم‌های موجود در جایگاه مناسبی قرار دارد. این الگوریتم اغلب به دلیل سهولت تفسیر نتایج و زمان محاسبه پایین مورد استفاده قرار می‌گیرد.


🔸 الگوریتم k-نزدیک‌ترین همسایگی چگونه کار می‌کند؟

‏برای درک بهتر شیوه کار این الگوریتم، عملکرد آن با یک مثال ساده مورد بررسی قرار گرفته است.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم K-نزدیک‌ترین همسایگی به همراه کد پایتون — کلیک کنید (+)


📌 کانال اختصاصی آموزشی برنامه نویسی پایتون

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇

@FaraPython — مطالب و آموزش‌های برنامه نویسی پایتون فرادرس

1
✳️ مباحث ریاضی مورد نیاز برای علم داده — راهنمای کاربردی

‏ریاضیات سنگ بنای همه رشته‌های علوم معاصر به حساب می‌آید. تقریباً همه تکنیک‌های علم داده مدرن که شامل «یادگیری ماشین» (Machine Learning) نیز می‌شود، زیرساخت عمیقی از ریاضیات دارند. البته بدیهی است که یک «دانشمند داده» (Data Scientist) به انواع مختلفی از علوم مانند توانایی برنامه‌نویسی، قدرت داوری در مورد مسائل تجاری و ذهنیت منحصربه‌فرد تحلیلی و کاوشگر در مورد داده‌ها هم برای رشد در این حوزه نیاز دارد. اما می‌دانیم که این کسب اطلاع از زیرساخت‌های یک دانش به هزینه‌های زیادی نیاز دارد. از این رو کسب اطلاعات از سازوکارهای ریاضیاتی که در پسِ الگوریتم‌های زیبا قرار دارند، باعث می‌شود که نسبت به همکاران خود یک پله بالاتر بایستید.

══ فهرست مطالب ══

‏ ○ تابع‌ها، متغیرها، معادله‌ها و گراف‌ها
‏ ○ آمار
‏ ○ جبر خطی
‏ ○ حسابان
‏ ○ ریاضیات گسسته
‏ ○ موضوعات بهینه‌سازی و تحقیق عملیات


🔸 تابع‌ها، متغیرها، معادله‌ها و گراف‌ها

‏این حوزه از ریاضیات شامل مباحث مقدماتی از معادله یک خط تا قضیه دوجمله‌ای و مشخصات آن می‌شود:

‏– توابع لگاریتم، توابع نمایی، اعداد گویا

‏– مفاهیم و قضیه‌های هندسه مقدماتی، مباحث مثلثات

‏– اعداد حقیقی، مختلط و مشخصات مقدماتی

‏– سری‌ها، سری هندسی، تصاعد حسابی و نامعادلات

‏– رسم گراف و نمودار، مختصات دکارتی، قطبی، استوانه‌ای، کروی و مقاطع مخروطی

‏اگر می‌خواهید درک کنید چگونه یک جستجو روی پایگاه داده با چند میلیون آیتم به صورت سریع اجرا می‌شود، باید با مفهوم «جستجوی دودویی» آشنا باشید. برای درک دینامیک این مسئله باید لگاریتم‌ها و معادلات بازگشتی را بشناسید. همچنین اگر می‌خواهید یک سری زمانی را تحلیل کنید، باید با مفاهیمی مانند «تابع‌های متناوب» و «نزول نمایی» آشنا باشید.

‏بهترین منبع برای شروع یادگیری این مفاهیم، مراجعه به مجموعه آموزش‌های «ریاضیات» و انتخاب مباحث مورد نیاز با توجه به راهنمایی فوق است.


🔸 آمار

‏اهمیت کسب دانشی قوی از مفاهیم ضروری آمار و احتمال در زمینه علم داده غیر قابل انکار است. بسیاری از متخصصان این حوزه، «یادگیری ماشین» کلاسیک (بدون شبکه عصبی) را اساساً چیزی به جز یادگیری آماری نمی‌شمارند. این حوزه بسیار گسترده است و برنامه‌ریزی متمرکزی برای مطالعه همه مفاهیم ضروری مورد نیاز است:

‏– آمار توصیفی و جمع‌بندی داده‌ها، گرایش به مرکز، واریانس، کوواریانس، همبستگی

‏– احتمال مقدماتی: ایده مقدماتی، امید ریاضی، حسابان احتمال، قضیه بیز، احتمال شرطی

‏– تابع‌های توزیع احتمال شامل تابع توزیع یکنواخت، نرمال، دوجمله‌ای، کای ۲، توزیع t استیودنت و قضیه حد مرکزی

‏– نمونه‌گیری، اندازه‌گیری، خطا، تولید عدد تصادفی

‏– تست کردن فرضیه، تست A/B، بازه‌های اطمینان، مقادیر p

‏– آنووا (ANOVA)، آزمون t

‏– رگرسیون خطی، منظم‌سازی (regularization)

‏این مفاهیم در مصاحبه‌های شغلی به کار می‌آیند. اگر بتوانید در این مصاحبه‌ها نشان دهید که بر این مفاهیم تسلط دارید، می‌توانید مصاحبه‌شونده خود را بسیار سریع‌تر تحت تأثیر قرار دهید. همچنین از این مفاهیم تقریباً به صورت روزمره به عنوان یک دانشمند داده استفاده خواهید کرد.

‏یکی از جامع‌ترین مجموعه آموزش‌های ویدیویی آمار، احتمالات و داده‌کاوی از طریق این لینک در دسترس است و می‌توانید از این مجموعه برای یادگیری مفاهیمی که پیش‌تر ذکر شد به بهترین شکل ممکن بهره بگیرید.



مطالعه ادامه مطلب 👇👇

🔗 مباحث ریاضی مورد نیاز برای علم داده — راهنمای کاربردی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍21
Forwarded from مجله فرادرس

✳️ طرح استوار و ابزارهای نوین کیفیت | با رویکرد تاگوچی

‏با توجه به رویکرد تاکوچی در مورد کیفیت و آزمایش یا طرح استوار ابزارهایی لازم است که به کمک آن‌ها قادر به اجرای استراتژی طرح استوار باشیم. در این متن از مجله فرادرس به این عنوان یعنی استراتژی طرح استوار و روش تاگوچی خواهیم پرداخت و مولفه‌های اصلی آن را بازگو خواهیم کرد. البته در نوشتارهای دیگر نیز به اهمیت استفاده از رویکرد تاگوچی اشاره داشته‌ایم. در این مطلب، طرح استوار و ابزارهای نوین کیفیت را مورد توجه قرار داده و با رویکرد تاگوچی به آن‌ها می‌پردازیم.

══ فهرست مطالب ══

‏ ○ طرح استوار و ابزارهای نوین کیفیت
‏ ○ معرفی فیلم آموزش مقدماتی طراحی آزمایش ها با Minitab
‏ ○ خلاصه و جمع‌بندی


🔸 طرح استوار و ابزارهای نوین کیفیت

‏کاهش تنوع و پراکندگی در پارامتر محصول تولید شده و یکسان بودن خدمات یا تولید، به عنوان یک کلید برای اطمینان و بهبود بهره‌وری شناخته شده است. رویکردهای زیادی برای کاهش این پراکندگی یا «تغییر پذیری» (Variability) وجود دارد که هر کدام جایگاه خود را در چرخه توسعه محصول دارند.

‏با پرداختن به کاهش پراکندگی در یک مرحله خاص از چرخه عمر یک محصول، می‌توان از شکست در مراحل پایین دست، یا گام‌های بعدی تولید، جلوگیری کرد. «رویکرد شش سیگما» (Six Sigma Method) با یافتن مشکلاتی که در عملیات تولید ایجاد می‌شوند و رفع علل فوری، دستاوردهای چشمگیری در کاهش هزینه‌ها به دست آورده است. استراتژی استوار و طراحی استوار برای جلوگیری از مشکلات احتمالی از طریق بهینه‌سازی طرح‌های محصول و طرح‌های فرآیند تولید است. ابتدا به یک مثال در این مورد توجه کنید.

‏نکته: به عنوان رویکرد دیگری در این زمینه می‌توان به «تکنیک پوکایوکه» (Poka-Yoke) نیز اشاره کرد که برای کاهش و حتی از بین بردن ضایعات و خطای فرآیند تولید به کار می‌رود.


🔸 معرفی فیلم آموزش مقدماتی طراحی آزمایش ها با Minitab

‏وجود رقابت بین شرکت‌ها به منظور کاهش هزینه تولید باعث شده، به جنبه‌های طراحی آزمایش ها و همچنین جلوگیری از تولید ظایعات توجه بیشتری شود. تجزیه و طراحی آزمایش‌ها (Design of Experiments) به عنوان یکی از مهم ترین رویکردها، سعی در کاهش تغییرات در فرآیند تولید یا ارائه خدمات شده در نتیجه بهبود کیفیت در سازمان یا شرکت‌ها را به همراه داشته باشد. در این فرادرس، به موضوع طراحی آزمایش‌ها و بخصوص طرح استوار به نحوی کاملا کاربردی و به کمک نرم‌افزار MINITAB پرداخته شده است و زوایا و شیوه‌های مختلف اجرای آن براساس سرفصل ارائه شده، آموزش داده می‌شود.

‏– درس یکم: شامل آشنایی با مفاهیم طراحی آزمایش ها و تعریف طراحی آزمایش‌ها، مدل کردن فرایند طراحی آزمایش‌ها است.

‏– درس دوم: به معرفی طرح‌های عاملی، طرح های عاملی کسری، طراحی طرح های عاملی و نمودار Split – Plot، طراحی طرح‌های «پلاکت
برمن» (Plackett-Burman) اختصاص دارد.


درس سوم: از بخش‌هایی به منظور معرفی طرح های سطح پاسخ با عنوان‌های فرعی، نظیر مواردی چون معرفی طرح های سطح پاسخ، ایجاد طرح مرکب مرکزی، ایجاد طرح «باکس – بنکن» (Box-Behnken)، انتخاب طرح بهینه در طرح های سطح پاسخ، تجزیه و تحلیل طرح های سطح پاسخ، استفاده از نمودارها در طرح های سطح پاسخ، بهینه سازی پاسخ در طرح های سطح پاسخ، تشکیل شده است.

درس چهارم: «روش تاگوچی»، اصطلاحات روش تاگوچی، طراحی آزمایش‌های ایستا و پویا، تجزیه و تحلیل طرح‌های در رویکرد تاگوچی و پیش بینی نتایج حاصل از طرح آزمایش‌های تاگوچی، را معرفی کرده است.





مطالعه ادامه مطلب 👇👇

🔗 طرح استوار و ابزارهای نوین کیفیت | با رویکرد تاگوچی — کلیک کنید (+)

📚 طبقه‌بندی موضوعی: صنایع | مهندسی


📖 مجله فرادرس
بزرگ‌ترین رسانه متنی آموزشی در ایران

@FaraDarsMag — مجله فرادرس
1

🔴 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 معرفی آموزش‌های رایگان و پرطرفدار فرادرس

♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط ده‌ها هزار دانشجو مورد مطالعه قرار می‌گیرند.

شما عزیزان نیز می‌توانید با مراجعه به لینک‌های زیر، آموزش‌های پرمخاطب در دسته‌بندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇


آموزش‌های رایگان داده‌کاوی [+]


📚 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars — فرادرس

✳️ کلان داده یا مِه داده (Big Data) — از صفر تا صد

‏کلان داده (مِه داده | Big Data)، یکی از موضوعات داغ روز است. پژوهشگران زیادی به تحقیق و بررسی در این حوزه مشغول هستند و در عین حال کسب‌و‌کارهای زیادی نیز با اهداف گوناگون به آن گرایش پیدا کرده‌اند. همچنین، صنایع و علوم گوناگون به ویژه بهداشت و درمان، علوم اجتماعی، بیمه، بانکداری و حتی دولت‌ها نیز به دلیل کاربردهای قابل توجه تحلیل کلان‌داده‌ها (تحلیل مِه‌داده‌ها) به آن روی آورده‌اند.

══ فهرست مطالب ══

‏ ○ کلان داده چیست و چرا اهمیت دارد؟
‏ ○ ارزش کسب‌و‌کار تحلیل‌های کلان‌داده
‏ ○ کاربردهای کلان داده در بخش صنعتی
‏ ○ دانشمند داده
‏ ○ مولفه اصلی فناوری در اکوسیستم کلان‌داده
‏ ○ بصری‌سازی
‏ ○ خلاصه


🔸 کلان داده چیست و چرا اهمیت دارد؟

‏پرداختن به مبحثی مانند کلان‌داده (مِه‌داده) که به طور گسترده و سریع توجهات را به خود جلب کرده کاری دشوار است. در حالیکه مبحث کلان‌داده تا چند سال پیش بسیار ناشناخته بود، امروزه یکی از پربحث‌ترین موضوعات در بخش‌های صنعتی است. در این قسمت از مقاله پیش رو، چیستی کلان‌داده (مِه‌داده)، دلایل اهمیت و مزایای تحلیل آن تشریح شده.

‏با وجود آنکه کلان‌داده (مِه‌داده) یکی از مورد توجه‌ترین اصطلاحات در بازار این روزها است، اما هیچ اتفاق نظری میان پژوهشگران گوناگون در رابطه با چگونگی تعریف آن وجود ندارد. این عبارت اغلب به عنوان مترادفی برای دیگر مفاهیم مرتبط مانند «هوش تجاری» (Business Intelligence) و داده‌کاوی (data mining) مورد استفاده قرار می‌گیرد.

‏درست است که هر سه این عبارات در رابطه با تحلیل داده‌ها هستند و در اغلب شرایط برای تحلیل‌های پیشرفته داده مورد استفاده قرار می‌گیرند، اما مفهوم کلان‌داده (مِه‌داده) هنگامی که حجم داده‌ها و تعداد منابع داده بسیار زیاد و پیچیدگی روش‌ها و فناوری‌های لازم برای کسب بینش از آن‌ها بالا باشد، از دو مورد دیگر متمایز و متفاوت خواهد بود (برای مثال، راهکارهای سنتی انبار داده ممکن است در کار با کلان‌داده‌ها کم بیاوردند). آنچه بیان شد، مبانی لازم برای ارائه پرکاربردترین تعریف کلان‌داده (مِه‌داده) که در برگیرنده سه «V» یعنی «حجم» (Volume)، «سرعت» (Velocity) و «تنوع» (Variety) است، را فراهم می‌کند. شکل زیر نمای کلی این تعریف را نشان می‌دهد.


🔸 ارزش کسب‌و‌کار تحلیل‌های کلان‌داده

‏مجددا تعریف گارتنر برای کلان‌داده (مِه‌داده) مورد بررسی قرار می‌گیرد: «کلان‌داده دارایی اطلاعاتی با حجم، سرعت و تنوع بالا محسوب می‌شود که نیازمند شکلی از پردازش اطلاعات نوآورانه و مقرون به صرفه است که بینش، تصمیم‌سازی و خودکارسازی فرآیندها را به طور بهینه فراهم می‌کند.» این تعریف از گارتنر مزایای تحلیل‌های کلان‌داده را خلاصه‌سازی کرده است. این مزایا در ادامه بیان شده‌اند:

‏– کسب بینش از داده‌ها

‏– تصمیم‌سازی بهتر بر مبنای بینش

‏– خودکارسازی تصمیم‌سازی و گنجاندن آن در فرآیندهای کسب‌و‌کار و در نتیجه خودکارسازی فرآیندها

‏در یک سطح همراه با جزئیات بیشتر، هر راهکار کلان داده ممکن است یک مشکل کسب‌و‌کاری خاص که سازمان امکان مواجهه با آن را دارد حل کند و همچنین ارزش کسب‌و‌کاری راهکار را به مساله اصلی مرتبط سازد. برای مثال، پیش‌بینی رویگردانی مشتریان می‌تواند این امر را کاهش دهد و بنابراین از کاهش درآمد پیشگیری کند. حائز اهمیت است که ساخت یک «مورد کسب‌و‌کار» (Business case) برای پروژه تحلیل کلان‌داده (تحلیل مِه‌داده)، با مساله کسب‌و‌کار آغاز شود نه با داده یا فناوری موجود یا مورد نیاز. گردآوری داده یا خرید فناوری بدون هدف‌گذاری صحیح کسب‌و‌کار یک استراتژی بازنده است. یک مورد کسب‌و‌کار برای تحلیل‌ها باید یک مساله واقعی که سازمان با آن مواجه می‌شود را حل کند.



مطالعه ادامه مطلب 👇👇

🔗 کلان داده یا مِه داده (Big Data) — از صفر تا صد — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

1👍1

✳️ ۸ کتابخانه یادگیری ماشین پایتون — راهنمای کاربردی

‏«پایتون» (Python)، همچنان هنگامی که صحبت از «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence)، «یادگیری عمیق» (Deep Learning) و وظایف «علم داده» (Data Science) می‌شود پیشگام است. مطابق آمار ارائه شده توسط سایت «builtwith» (+)، بالغ بر ٪۴۵ از شرکت‌های فناوری استفاده از پایتون را برای پیاده‌سازی هوش‌مصنوعی و یادگیری ماشین ترجیح می‌دهند. به همین دلیل، در این مقاله ۸ کتابخانه یادگیری ماشین پایتون معرفی شده‌اند.

══ فهرست مطالب ══

‏ ○ ۱. سایکیت لِرن (scikit-learn)
‏ ○ ۲. کِرَس (Keras)
‏ ○ ۳. XGBoost
‏ ○ ۴. StatsModels
‏ ○ ۵. LightGBM
‏ ○ ۶. CatBoost
‏ ○ ۷. PyBrain
‏ ○ ۸. Eli۵


🔸 ۱. سایکیت لِرن (scikit-learn)

‏(+) (مشارکت‌کنندگان: ۱۱۷۵ نفر، کامیت‌ها: ۲۳۳۰۱، ستاره‌ها: ۳۰۸۶۷)

‏سایکیت لِرن (scikit-learn) یک کتابخانه پایتون «نرم‌افزار آزاد» (free software) برای یادگیری ماشین است که بر مبنای SciPy ،NumPy و matplotlib ساخته شده است. این ماژول ابزارهای ساده و موثری برای «داده‌کاوی» (Data Mining) و «تحلیل داده» فراهم می‌کند. SKLearn برای همه در دسترس و قابل استفاده مجدد در زمینه‌های گوناگون است.


🔸 ۲. کِرَس (Keras)

‏(+) (مشارکت‌کنندگان: ۷۲۶ نفر، کامیت‌ها: ۴۸۱۸، ستاره‌ها: ۳۴۰۶۶)

‏کِرَس (Keras) یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface | API) نوشته شده در پایتون است که می‌تواند روی تنسورفلو، ثینو و یا CNTK اجرا شود. این کتابخانه با تمرکز بر قابلیت آزمایش سریع توسعه داده شده است. رسیدن از ایده به نتیجه با حداقل تاخیر ممکن کلید انجام پژوهش‌های خوب است و این نکته در ساخت این کتابخانه همواره لحاظ شده.



مطالعه ادامه مطلب 👇👇

🔗 ۸ کتابخانه یادگیری ماشین پایتون — راهنمای کاربردی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍2

✳️ آموزش اصول و روش‌های داده‌کاوی Data Mining

چکیده —
در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.

کسب اطلاعات بیشتر 👇👇

🔗 آموزش اصول و روش‌های داده‌کاوی Data Mining — کلیک کنید [+]

🤩 پیشنهاد ویژه: این آموزش‌ و سایر آموزش‌های فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.


🎁 کد تخفیف: EYD49

🔗 جشنواره به سوی بهار – [کلیک کنید]


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس


2🤩1
‏‌
✳️ دانشمند داده شدن؛ آری یا خیر؟ — راهنمای کاربردی

‏اغلب افراد طی سال‌های اخیر درباره «علم داده» (Data Science)، «داده‌کاوی» (Data Mining)، «یادگیری ماشین» (Machine Learning) و «هوش مصنوعی» (Artificial Intelligence | AI) شنیده‌اند. نقش‌های (جایگاه‌های شغلی) زیادی وجود دارند که زیر چتر علم داده ایجاد شده‌اند و از آن جمله می‌توان به دانشمند داده (Data Scientist)، تحلیل‌گر داده، مهندس یادگیری ماشین و دانشمند پژوهش اشاره کرد.

══ فهرست مطالب ══

‏ ○ آیا من باید یک دانشمند داده شوم؟
‏ ○ آیا مهارت‌های من منسوخ شده محسوب می‌شود؟
‏ ○ همچنان علاقمند پای نهادن در مسیر علم داده هستید؟
‏ ○ آیا واقعا نیاز به آموختن این حجم از جبر خطی هست؟
‏ ○ چگونه می‌توان در زمینه علم داده و داده‌کاوی تجربه کسب کرد؟
‏ ○ من ایده‌ای برای یک پروژه داده‌کاوی دارم. چگونه مدیرم را متقاعد کنم که اجازه انجام آن را در محل کار بدهد؟
‏ ○ به نظر می‌رسد راه مبدل شدن به دانشمند داده بسیار طولانی است، آیا راه دیگری وجود ندارد؟


🔸 آیا من باید یک دانشمند داده شوم؟

‏این پرسشی است که هر فردی باید پیش از عمیق شدن بیش از حد در زمینه علم داده مطرح کند. بسیاری از مطالب منتشر شده در حوزه علم داده و داده‌کاوی به این امر گرایش دارند که بگویند جادویی فوق‌العاده در علم داده و مشخصا یادگیری ماشین وجود دارد. برای مهندس‌ها اما نیاز به بازنگری در چنین رویکردی است. بسیاری از افراد هنوز هم احساسی که اولین بار هنگام استفاده از یک برنامه کاربردی موبایل، فیس‌بوک، و حتی برای افراد قدیمی‌تر اولین تجربه کار با اینترنت یا کامپیوتر به آن‌ها دست داده را به خاطر دارند. ساخت اولین برنامه‌های کاربردی احساس شگفتی، به هدف زدن و اشتیاق برای ساخت برنامه‌های بیشتر را ایجاد می‌کرد.

‏اکنون و پس از اینکه این کارها برای سال‌های متمادی انجام شده‌اند، دیگر زرق و برق و هیجان خود را از دست داده‌اند. چه کسی هست که طالب آن شور و هیجان نباشد؟ به ویژه در یک حوزه جدید که به نظر می‌رسد آینده را پیش‌بینی و هر صنعتی را متحول می‌کند. این کار برای افرادی که اولین مدل خود را می‌سازند بسیار هیجان‌انگیز خواهد بود. دیدن اینکه کار فرد قابلیت‌هایی را به همراه دارد که پیش از این امکان‌پذیر نبوده هیجان‌انگیز است. اگرچه عناصری برای نقش دانشمند داده وجود دارد که در این هیجانات نادیده گرفته می‌شوند.

‏اولین موضوع آن است که نقش دانشمند داده در میان سازمان‌های گوناگون متفاوت است و بیشتر وقت دانشمندان داده در پروژه‌های این حوزه به پاک‌سازی و آماده‌سازی داده‌ها اختصاص پیدا می‌کند. تخصیص ۸۰ الی ۹۰ درصد روز کاری به مدیریت و دستکاری داده‌ها نیازمند صبر قابل توجهی است و البته انجام این کار به اندازه مدل‌سازی و تحلیل خروجی‌های مدل جذاب نیست.


🔸 آیا مهارت‌های من منسوخ شده محسوب می‌شود؟

‏نه! تقاضا برای مهندسانی که در «معماری کامپیوتر» (Computer Architecture)، زیرساخت، «فرانت اند» (front-end) و «بک اند» (back-end) عملکرد خوبی دارند زیاد است و این تقاضا در آینده پیش‌بینی شده نیز همچنان زیاد خواهد بود. مهندسان می‌توانند بدون دانشمندان داده نیز نرم‌افزار بسازند، این در حالیست که دانشمندان داده گاه نمی‌توانند بدون وجود یک مهندس در تیم پروژه، این کار را انجام دهند.

‏دامنه‌های مهندسی سنتی از دیرباز بنا شده و پیشرفته‌تر است، بنابراین این احتمال وجود دارد که مهارت‌های مهندسی که امروز ایجاد می‌شوند طی ۵ سال آتی کاربردهای بسیار زیادی داشته باشند. این در حالیست که یادگیری ماشین یکی از اجزای مهم و جدایی ناپذیر چشم‌انداز فناوری است. بنابراین این احتمال وجود دارد که فرد به عنوان یک مهندس حتی اگر دانشمند داده نیز نباشد در کنار یک کارشناس یادگیری ماشین یا دانشمند داده کار کند و بنابراین همچنان حائز اهمیت است که مهندس‌ها نیز مفاهیم سطح بالاتری (در زمینه علم داده) را بیاموزند.



مطالعه ادامه مطلب 👇👇

🔗 دانشمند داده شدن؛ آری یا خیر؟ — راهنمای کاربردی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍21

❇️ فیلم آموزشی «ایجاد ماتریس سطری پلکانی» در ۷ دقیقه | به زبان ساده


📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید.


‌‏✳️ هوش تجاری چیست؟ — به زبان ساده

‏«هوش تجاری» (Business intelligence | BI)، یک فرایند فناوری محور برای تحلیل داده‌ها و ارائه اطلاعات کاربردی به مدیران اجرایی، مدیران بخش‌ها و تصمیم‌سازان یک سازمان و دیگر کاربران نهایی درون سازمانی محسوب می‌شود که به تصمیم‌گیری مبتنی بر اطلاعات کمک می‌کند. این مبحث گستره وسیعی از ابزارها، کاربردها و روش‌ها را در بر می‌گیرد که سازمان‌ها را قادر به گردآوری داده‌ها از سیستم‌های خارجی و منابع داخلی، آماده‌سازی این داده‌ها برای تحلیل، توسعه و اجرای کوئری‌ها روی آن‌ها و ساخت گزارش‌ها، دشبوردها و بصری‌سازی داده‌ها می‌سازد. چنین دشبوردها و بصری‌سازی‌هایی به منظور در دسترس قرار دادن نتایج تحلیلی برای تصمیم‌گیرندگان سازمان و همچنین نیروهای عملیاتی انجام می‌شود.

══ فهرست مطالب ══

‏ ○ هوش تجاری و تحلیل داده
‏ ○ اهمیت هوش تجاری
‏ ○ انواع ابزارهای هوش تجاری
‏ ○ گرایش‌های هوش تجاری
‏ ○ هوش تجاری برای کلان داده


🔸 هوش تجاری و تحلیل داده

‏استفاده از اصطلاح هوش تجاری برای اولین بار، دستکم به اواخر ۱۸۶۰ باز می‌گردد. این در حالی است که «هاوارد درسنر» (Howard Dresner) برای اولین بار در سال ۱۹۸۹، این واژه را به عنوان یک عبارت پوششی برای اعمال روش‌های تحلیل داده به منظور پشتیبانی از فرایندهای تصمیم‌گیری تجاری مطرح کرد. آنچه با عنوان ابزارهای هوش تجاری از آن یاد می‌شود، معمولا سیستم‌های تحلیلی مبتنی بر «کامپیوترهای بزرگ» (Mainframe-based) مانند «سیستم پشتیبان تصمیم» (Decision Support Systems) و «سیستم‌های اطلاعات اجرایی» (Executive Information Systems) هستند. از عبارت هوش تجاری گاهی به جای تحلیل‌های تجاری استفاده می‌شود. در دیگر شرایط، هوش تجاری به طور خاص برای ارجاع به تحلیل‌های داده یا به طور گسترده‌تر برای اشاره به Business intelligence و تحلیل‌های پیشرفته مورد استفاده قرار می‌گیرد.


🔸 اهمیت هوش تجاری

‏از مزایای بالقوه ابزارهای هوش تجاری، می‌توان به شتاب‌دهی و بهبود تصمیم‌گیری، بهینه‌سازی فرایندهای داخلی کسب‌و‌کار، راه‌اندازی راه‌های درآمدزایی جدید و کسب مزایای رقابتی جدید در مقایسه با رقبای تجاری اشاره کرد. داده‌های مورد استفاده در این حوزه، شامل اطلاعات تاریخی ذخیره شده در یک «انبار داده» (Data Warehouse) و داده‌های جدید گردآوری شده از سیستم‌های منبع – ضمن تولید آن‌ها – هستند. این داده‌ها، ابزارهای هوش تجاری را قادر به پشتیبانی از فرآیندهای تصمیم‌سازی استراتژیک و تاکتیکی می‌سازند.

‏ابزارهای هوش تجاری اولیه، در ابتدا توسط تحلیل‌گران داده و دیگر کارشناسان فناوری اطلاعات مورد استفاده قرار می‌گرفتند. این افراد با انجام تحلیل‌ها، گزارش‌هایی را در نتیجه کوئری‌های انجام شده روی اطلاعات کاربران کسب و کار فراهم می‌کنند. با افزایش استفاده از هوش تجاری، مدیران اجرایی و کارکنان سازمان‌ها، خود با پلتفرم‌های هوش تجاری کار می‌کنند. این امر، به لطف توسعه «هوش تجاری سلف سرویس» (Self-Service BI) و ابزارها و دشبوردهای کاوش داده محقق شده است.



مطالعه ادامه مطلب 👇👇

🔗 هوش تجاری چیست؟ — به زبان ساده — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس


✳️ آشنایی با شبکه‌های عصبی پیچشی (CNN)

‏«شبکه‌های عصبی پیچشی» (convolutional neural network) رده‌ای از شبکه‌های عصبی عمیق هستند که معمولاً برای انجام تحلیل‌های تصویری یا گفتاری در یادگیری ماشین استفاده می‌شوند. برای توضیح CNN کار خود را با اساسی‌ترین عنصر این شبکه عصبی یعنی «پرسپترون» (perceptron) آغاز می‌کنیم.

══ فهرست مطالب ══

‏ ○ پرسپترون
‏ ○ بردار ویژگی
‏ ○ کلاس‌بندی
‏ ○ الگوریتم تمرین
‏ ○ تمرین دادن پرسپترون
‏ ○ مبدأ (epoch)
‏ ○ تمرین دادن عملی پرسپترون


🔸 پرسپترون

‏پرسپترون جزء اساسی و پایه‌ای شبکه عصبی است که می‌تواند یادگیری نیز داشته باشد. توسعه این جزء درنتیجه الهام از یک عنصر زیست‌شناختی به نام نورون بوده است. چراکه پرسپترون مانند نورون یک سیگنال ورودی را دریافت می‌کند، آن را پردازش می‌کند و یک پاسخ را شبیه‌سازی می‌کند. پرسپترون سیگنال میتواند برای تمییز مسائل قابل جداسازی خطی مورداستفاده قرار گیرد.


🔸 بردار ویژگی

‏وظایف یادگیری ماشینی معمولاً بدین‌صورت تعریف می‌شوند که سیستم یادگیری ماشینی چگونه باید یک نمونه را پردازش کند. معمولاً این وظایف مجموعه‌ای از ویژگی‌ها هستند که از برخی از اشیا یا رویدادها به‌صورت کمی اندازه‌گیری می‌شوند و از سیستم یادگیری ماشینی می‌خواهیم که آن‌ها را برای ما پردازش کند. معمولاً این نمونه را به‌صورت بردار x ∈ Rn نمایش می‌دهیم که هر مؤلفه xi خود یک بردار ویژگی است.



مطالعه ادامه مطلب 👇👇

🔗 آشنایی با شبکه‌های عصبی پیچشی (CNN) — کلیک کنید (+)

📌کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

4👍1

✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده

‏در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.

══ فهرست مطالب ══

‏ ○ چکیده مطلب ریکامندر چیست ؟
‏ ○ مقدمه‌ای بر مبحث ریکامندر چیست ؟
‏ ○ ریکامندر معادل چه کلمه‌ای در فارسی و انگلیسی است؟
‏ ○ ریکامندر چیست ؟
‏ ○ دلیل استفاده از سیستم ریکامندر چیست ؟
‏ ○ کاربرد سیستم ریکامندر چیست ؟
‏ ○ چه زمانی کسب و کار باید ریکامندر سیستم پیاده‌سازی کند؟
‏ ○ پیش‌نیازهای لازم برای راه‌اندازی یک سیستم ریکامندر چیست ؟
‏ ○ ریکامندر سیستم چگونه کار می‌کند؟
‏ ○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
‏ ○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
‏ ○ رابطه و داده در ریکامندر سیستم ها
‏ ○ انواع سیستم‌های ریکامندر چه هستند؟
‏ ○ از چه روش‌هایی برای ساخت ریکامندر سیستم استفاده می‌شود؟
‏ ○ چطور می‌توان یک ریکامندر سیستم را ارزیابی کرد؟
‏ ○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
‏ ○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
‏ ○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
‏ ○ پرسش‌های متداول پیرامون ریکامندر سیستم


🔸 چکیده مطلب ریکامندر چیست ؟

‏اینترنت به عنوان منبعی برای حجم انبوه داده‌ها و اطلاعات محسوب می‌شود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویت‌بندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکن‌وار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید می‌شوند و محتوا و خدمات شخصی‌سازی شده برای هر کاربر را در اختیار او قرار دهد.

‏در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیش‌نیازهای لازم برای یک ریکامندر سیستم تشریح شده‌اند و به روش‌های تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثال‌هایی از پیاده‌سازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسش‌های متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.


🔸 مقدمه‌ای بر مبحث ریکامندر چیست ؟

‏رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد می‌کند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت می‌شود. سیستم‌های بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازه‌ای این مشکل را حل کرده‌اند.



مطالعه ادامه مطلب 👇👇

🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)



📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

👍1

✳️ تفسیر نتایج رگرسیون در SPSS | گام به گام و تشریحی

‏رگرسیون خطی چه در حالت تک متغیره (ساده)، یا چندگانه و چند متغیره، در نرم‌افزار SPSS قابل اجرا است. در اغلب موارد خروجی حاصل از این مدل‌ها در این نرم‌افزار، مشابه یکدیگر هستند. از آنجایی که تفسیر و توجیه مدل ارائه شده، در تحلیل و مدل‌سازی آماری، امری مهم تلقی می‌شود، در این نوشتار از مجله فرادرس، به بررسی خروجی و تفسیر نتایج رگرسیون در SPSS پرداخته‌ایم. البته در این متن، مبنا مدل رگرسیونی چندگانه است و مسیر اجرا و نتایج حاصل براساس این تکنیک مورد توجه قرار گرفته است.

══ فهرست مطالب ══

‏ ○ تفسیر نتایج رگرسیون در SPSS
‏ ○ معرفی فیلم آموزش آمار استنباطی برای مدیریت و علوم انسانی
‏ ○ خلاصه و جمع‌بندی


🔸 تفسیر نتایج رگرسیون در SPSS

‏همانطور که گفته شد، در این نوشتار قرار است با نتایج حاصل از اجرای رگرسیون خطی در SPSS آشنا شده و از آن‌ها، تفسیر درستی ارائه کنیم. در این بین از یک فایل داده آموزشی استفاده خواهیم کرد.

‏اطلاعات مربوط به نمرات ۲۰۰ دانش آموز دبیرستان در سه درس «ریاضیات» (Math)، «مطالعات اجتماعی» (Socst) و «خواندن» و … معرفی شده‌اند. جدول ۱، این متغیرها را مشخص و ویژگی‌های آن را معرفی کرده است.

‏جدول ۱: ویژگی‌های متغیرهای مورد تحلیل


🔸 معرفی فیلم آموزش آمار استنباطی برای مدیریت و علوم انسانی

‏آمار استنباطی، یکی از شیوه‌های تعمیم خصوصیات نمونه به جامعه آماری است. این مباحث شامل تخمین نقطه‌ای و تخمین فاصله‌ای، آزمون فرض و مدل‌سازی است. بر این اساس، در این آموزش فرادرس موضوعات استنباط آماری به زبان ساده و به کمک نرم‌افزارهای آماری مانند اکسل و SPSS مطرح شده و با ذکر مثال‌های کاربردی، اهمیت به کارگیری آن‌ها به کاربران آموخته می‌شود.

‏بحث تفسیر نتایج رگرسیون در SPSS از مواردی است که در این آموزش به طور مفصل مورد توجه قرار گرفته و رگرسیون چندگانه و غیرخطی نیز مطرح می‌شود. فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:

‏– درس یکم: جامعه و نمونه و ارتباط بین آن ها

‏– درس دوم: برآورد آماری

‏– درس سوم: آزمون فرضیه

‏– درس چهارم: آزمون تحلیل واریانس

‏– درس پنجم: رگرسیون و همبستگی

‏– درس ششم: رگرسیون چندگانه و غیر خطی

‏این آموزش مناسب برای سطوح تحصیلی، کارشناسی و کارشناسی ارشد برای رشته‌های مدیریت، آمار، اقتصاد، حسابداری و مهندسی صنایع است. نرم افزارهای مرتبط با آموزش Microsoft Excel و IBM SPSS ۱۹ هستند. در مجموع فیلم آموزشی شامل ۵ ساعت و ۲۷ دقیقه محتوایی ویدیویی است.



مطالعه ادامه مطلب 👇👇

🔗 تفسیر نتایج رگرسیون در SPSS | گام به گام و تشریحی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

‌‎

✳️ تحلیل کلان داده (Big Data)، چالش‌ها و فناوری‌های مرتبط — راهنما به زبان ساده

‏در قسمت اول از مجموعه مطالب «کلان داده» (Big Data)، در مطلبی با عنوان «مفاهیم کلان داده (Big Data) و انواع تحلیل داده — راهنمای جامع»، تعاریف و ۴۲ «V» کلان داده و همچنین انواع روش‌های تحلیل داده مورد بررسی قرار گرفتند. در این بخش به چالش‌های این حوزه و فناوری‌های مرتبط با آن از جمله «رایانش ابری» (Cloud Computing)، «رایانش کوانتومی» ( Quantum Computing) و «رایانش الهام گرفته از زیست» (Bio Inspired Computing) پرداخته خواهد شد. لازم به ذکر است، همانطور که در بخش پیشین نیز تاکید شده کلان‌داده ترجمه متداول و پرکاربرد عبارت Big Data محسوب می‌شود، در حالیکه معادل فارسی برگزیده شده توسط فرهنگستان زبان و ادب پارسی «مِه‌داده» است. در این متن از هر دو معادل استفاده خواهد شد.

══ فهرست مطالب ══

‏ ○ فناوری‌های مرتبط با کلان‌داده


🔸 فناوری‌های مرتبط با کلان‌داده

‏تحلیل‌های کلان‌داده و علم داده به کانون پژوهش‌های صنعت و دانشگاه مبدل شده‌اند. هدف علم داده پژوهش در کلان‌داده و استخراج دانش از آن است. کاربردهای کلان‌داده و علم داده شامل علم اطلاعات، مدل‌سازی عدم قطعیت، تحلیل داده‌های غیر قطعی، یادگیری ماشین، یادگیری آماری، تشخیص الگو، انبارسازی داده و پردازش سیگنال می‌شود. یکپارچه‌سازی موثر فناوری‌ها و تحلیل‌ها امکان پیش‌بینی حوادث در حال وقوع آتی را فراهم می‌کند. تمرکز اصلی مطالبی که در ادامه می‌آید فناوری‌های مرتبط و موضوعات نیازمند پژوهش در حوزه کلان‌داده است.

‏در این مطلب، مباحث مورد بررسی در چهار دسته گسترده «اینترنت چیزها» (Internet of Things | IoT)، رایانش ابری، «محاسبات الهام گرفته از زیست» (bio inspired computing) و «رایانش کوانتومی» (quantum computing) قرار داده شده‌اند. اگرچه در حقیقت این موضوعات محدود به این چهار دسته نیستند و بسیار گسترده‌تر محسوب می‌شوند. از دیگر زمینه‌های پژوهشی مرتبط می‌توان به کلان‌داده‌های حوزه سلامت اشاره کرد که «کو» (Kuo) و همکاران در مقاله‌ای با عنوان «تحلیل‌های کلان‌داده سلامت: چشم‌انداز کنونی، چالش‌ها و راهکارهای بالقوه» (Health big data analytics: current perspectives, challenges and potential solutions) به آن پرداخته‌اند.

‏اینترنت، ارتباطات جهانی، کسب‌و‌کار، انقلاب‌های فرهنگی و تعداد قابل توجهی از خصوصیات فردی انسان‌ها را شکل و ساختاری مجدد بخشیده است. در حال حاضر، فعالات حوزه «فناوری اطلاعات» (Information Technology) در تلاش برای کنترل تعداد بی‌شماری گجت خودکار در اینترنت و ساخت اینترنت چیزها (IoT) هستند.



مطالعه ادامه مطلب 👇👇

🔗 تحلیل کلان داده (Big Data)، چالش ها و فناوری های مرتبط — راهنما به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس
‌‌
‏‌
✳️ درخت تصمیم با پایتون — راهنمای کاربردی

‏در این مطلب، چگونگی ساخت «درخت تصمیم» (Decision Trees) در «زبان برنامه‌نویسی پایتون» (Python Programming Language) آموزش داده شده است. یک درخت تصمیم، مدلی است که برای حل وظایف «دسته‌بندی» (Classification) و «رگرسیون» (Regression) مورد استفاده قرار می‌گیرد. مدل، امکان تولید خروجی‌های گوناگون را فراهم کرده و امکان انجام تصمیم‌گیری با داده‌ها را فراهم می‌کند. در مثال بیان شده در این مطلب، تاثیر «متغیرهای توصیفی» (explanatory variables) (از جمله سن، جنسیت، صفحات وب بازدید شده در روز، ساعت ویدئوهای بازدید شده در هفته و درآمد فرد) در استفاده از اینترنت (مصرف مگابایت در هفته) تحلیل خواهد شد. شایان توجه است که مجموعه داده مورد استفاده در این مطلب، از این مسیر (+) قابل دانلود است. شایان توجه است که ورودی و خروجی ها با توجه به محل قرارگیری مجموعه داده در سیستم افراد گوناگون، تفاوت‌هایی را با کدهای موجود در این مطلب خواهد داشت.

══ فهرست مطالب ══

‏ ○ گام ۱: بارگذاری کتابخانه‌ها
‏ ○ گام ۲: بارگذاری مجموعه داده و متغیرها
‏ ○ گام ۳: ایمپورت کردن DecisionTreeRegressor از sklearn
‏ ○ گام ۴: تعیین صحت مجموعه آموزش و آزمون
‏ ○ گام ۵: انجام پیش‌بینی‌ها از درخت تصمیم
‏ ○ گام ۶: محاسبه درصد خطای بین پیش‌بینی‌ها و داده‌های واقعی
‏ ○ گام ۷: ترسیم گراف درخت تصمیم
‏ ○ نتیجه‌گیری


🔸 گام ۱: بارگذاری کتابخانه‌ها

‏ابتدا، کتابخانه «نام‌پای» (Numpy) و traintestsplit از کتابخانه «سایکیت‌لِرن» (Scikit-Learn) وارد (Import) می‌شود. با استفاده از کلاس فراخوانی شده از کتابخانه sklearn، مجموعه داده به داده‌های «آموزش» (Training) و «آزمون» (Test) شکسته می‌شود، و به موجب آن، مدل روی داده‌های آموزش ساخته و صحت این مدل در مقابل داده‌های «آزمون» (Test) آزموده می‌شود.



🔸 گام ۲: بارگذاری مجموعه داده و متغیرها

‏اکنون از np.loadtxt برای بارگذاری داده‌ها در فرمت csv استفاده می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 درخت تصمیم با پایتون — راهنمای کاربردی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی علم داده


آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس
‌‌
👍2

🚀 اپلیکیشن فرادرس منتشر شد‼️

📱 اپلیکیشن آموزشی فرادرس، در گوگل پلی منتشر شد و هم‌اکنون در دسترس عموم است.

⭕️ با دانلود و نصب اپلیکیشن فرادرس، کاربران موبایل می‌توانند با سادگی بیشتر و تجربه‌ای بهتر، آموزش‌های مورد نظر خود را از فرادرس جست‌و‌جو و مشاهده کنند.

✔️ برخی از قابلیت‌های اپلیکیشن:

✓ امکان جستجو در کتابخانه آموزش‌های ویدئویی با بیش از ۵,۰۰۰ عنوان آموزش (۱۹,۰۰۰ ساعت آموزش)

✓مشاهده فهرست جدیدترین آموزش‌ها، آموزش‌های پرمخاطب، وبینارها و آموزش‌های رایگان به صورت دسته‌بندی شده

✓ دسترسی به آموزش‌های رایگان فرادرس و مشاهده آن‌ها

✓ قابلیت جستجوی پیشرفته در کتابخانه آموزش‌های فرادرس با تعیین فیلترهای خاص

✓امکان مشاهده دوره‌های تهیه شده توسط کاربر در پلیر سازگار با موبایل

✓ امکان ورود به پنل کاربری، ویرایش پروفایل و شارژ حساب


📲 با نصب این اپلیکیشن، می‌توانید آموزش‌های مورد علاقه‌ خود را ذخیره و در فرصت مناسب‌تر آن‌ها را با دقت مشاهده کنید.

📌
دریافت اپلیکیشن فرادرس از گوگل پلی (+)


📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا

@FaraDars — فرادرس
2