FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ محاسبات نرم چیست ؟ — به زبان ساده

‏در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش)‌ شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیش‌تری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.

══ فهرست مطالب ══

‏ ○ رایانش چیست؟
‏ ○ محاسبات سخت چیست؟
‏ ○ محاسبات نرم چیست؟
‏ ○ کاربردهای محاسبات نرم چیست؟
‏ ○ منابع و فیلم آموزشی محاسبات نرم
‏ ○ جمع‌بندی


🔸 رایانش چیست؟

‏قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | ‌Computing) پرداخته شود. به بیانی ساده، ‌رایانش به معنی نگاشت مجموعه داده‌های دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته می‌شود.

‏روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راه‌حل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدل‌سازی ریاضیاتی ساده‌ای دارند مناسب است.


🔸 محاسبات سخت چیست؟

‏اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علی‌عسگرزاده، ریاضی‌دان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار می‌گیرد که:

‏– نتایج دقیقی فراهم کند.

‏– الگوریتمی که برای حل مسئله استفاده می‌شود، صریح و بدون ابهام باشد.

‏– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.

‏مسائلی مانند مشتق‌گیری، انتگرال، الگوریتم‌های جستجو و مرتب‌سازی، یافتن کوتا‌ه‌ترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آن‌ها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار می‌گیرند.



مطالعه ادامه مطلب 👇👇

🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ شناسایی آماری الگو | آموزش جامع و رایگان

‏در این مطلب از مجله فرادرس، مفهوم و روش‌های شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته می‌شود، شناسایی خودکار الگوها و قواعد موجود در داده‌ها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشرده‌سازی داده‌ها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته می‌شود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته می‌شود.

══ فهرست مطالب ══

‏ ○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
‏ ○ شناسایی آماری الگو و یادگیری ماشین
‏ ○ هدف تشخیص الگو و شناسایی آماری الگو
‏ ○ مقدمه‌ای بر شناسایی آماری الگو
‏ ○ تشخیص الگو چیست؟
‏ ○ شناسایی آماری الگو
‏ ○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
‏ ○ گام‌های موجود در شناسایی آماری الگو
‏ ○ روش‌های شناسایی آماری الگو
‏ ○ کاربردهای شناسایی آماری الگو
‏ ○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو


🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو

‏عموما، هدف الگوریتم‌های تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودی‌های ممکن و انجام محتمل‌ترین «تطبیق» برای ورودی‌ها با در نظر گرفتن تنوع آماری آن‌ها است. این مورد، برعکس الگوریتم‌های «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان داده‌ها می‌گردند. به عنوان مثالی از الگوریتم‌های تطبیق الگو می‌توان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شده‌ای، در یک داده متنی می‌گردد.

‏از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتم‌های تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شده‌اند) گاهی می‌توانند در فراهم کردن خروجی درست با کیفیت مشابه خروجی‌های تولید شده توسط الگوریتم‌های تشخیص الگو کار کنند.


🔸 شناسایی آماری الگو و یادگیری ماشین

‏ریشه‌های بازشناسی الگو به آمار و مهندسی بازمی‌گردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب می‌شود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب می‌شوند. دلیل این امر افزایش حجم داده‌ها و در واقع تولید «کلان داده‌ها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را می‌توان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سال‌های مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:

‏در واژه‌شناسی یادگیری ماشین، دسته‌بندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعه‌ای از مشاهدات که دسته آن‌ها به درستی تشخیص داده شده است (و برچسب‌گذرای شده‌اند)، گفته می‌شود. سیستم‌های تشخیص الگو در اغلب موارد با استفاده از داده‌های «برچسب‌گذاری شده» (Labeled) (یادگیری نظارت شده) آموزش می‌بینند. اما هنگامی که هیچ داده برچسب‌گذاری شده‌ای موجود نباشد، انواع دیگری از الگوریتم‌ها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بی‌ناظر | Unsupervised Learning).



مطالعه ادامه مطلب 👇👇

🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی

‏«تحلیل داده‌های چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیل‌ها است که امروزه با توجه به افزایش حجم و البته، ابعاد داده‌ها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیل‌ها، روابط گوناگون موجود میان متغیرها و به طور کل، داده‌ها، در نظر گرفته می‌شوند. در ادامه، برخی از روش‌های تحلیل داده های چند بعدی در پایتون مورد بررسی قرار می‌گیرد.

══ فهرست مطالب ══

‏ ○ مجموعه داده مورد استفاده برای تحلیل داده‌های چند بعدی و چند متغیره
‏ ○ تحلیل داده های چند بعدی در پایتون
‏ ○ تحلیل خوشه
‏ ○ تحلیل EDA


🔸 مجموعه داده مورد استفاده برای تحلیل داده‌های چند بعدی و چند متغیره

‏مجموعه داده‌ای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.

‏این مجموعه داده را می‌توان از اینجا دانلود کرد.


🔸 تحلیل داده های چند بعدی در پایتون

‏در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، می‌توان از قطعه کد زیر استفاده کرد.

‏خروجی قطعه کد بالا، به صورت زیر است.

‏نکته: نوع ویژگی‌هایی که در این مجموعه داده وجود دارند، معمولا «دسته‌ای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل داده‌های دسته‌ای، بسیار ساده و قابل درک است و تفسیر و پیاده‌سازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

‌‌
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی

‏در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر حذف کلمات توقف متن در پایتون
‏ ○ کلمات توقف چه هستند؟
‏ ○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
‏ ○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
‏ ○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی


🔸 مقدمه‌ای بر حذف کلمات توقف متن در پایتون

‏فرایند تبدیل داده‌ها (داده‌های خام) به داده‌هایی که توسط کامپیوتر قابل درک باشند را «پیش‌پردازش» (Pre-Processing) می‌گویند. یکی از اشکال اصلی پیش‌پردازش، فیلتر کردن داده‌های بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) می‌گویند. از دیگر معادل‌هایی که در زبان فارسی برای کلمات توقف استفاده می‌شود، می‌توان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.


🔸 کلمات توقف چه هستند؟

‏کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده می‌شوند و موتورهای جستجو از جمله گوگل، به گونه‌ای برنامه‌نویسی شده‌اند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آن‌ها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول می‌توان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.

‏در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، می‌توان این کلمات را به راحتی و با ذخیره‌سازی لیست کلمات توقف، حذف کرد.



مطالعه ادامه مطلب 👇👇

🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری

‏در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از داده‌ها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهره‌گیری از داده‌ها کمک کند.

══ فهرست مطالب ══

‏ ○ مهارت های مهم برای دانشمندان داده در سال ۹۹


🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹

‏آگاهی از اینکه چه مهارت‌هایی در راستای شغل فرد می‌تواند به او در ارتقای سطح مهارت‌هایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارت‌هایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.

‏در علم داده، از فرایندها، الگوریتم‌ها و یا سیستم‌ها برای استخراج دانش، بینش و انجام تصمیم‌گیری‌های آگاهانه بر اساس داده‌ها، استفاده می‌شود. در این حالت، استنتاج کردن، تخمین زدن یا پیش‌بینی، بخش مهمی از علم داده را شکل می‌دهد. احتمال به کمک روش‌های آماری، امکان انجام تحلیل‌های بیشتر را فراهم می‌کند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان ساده‌تر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را می‌توان در علم داده، با استفاده از آمار و احتمالات انجام داد؟

‏– اکتشاف و درک بیشتر پیرامون داده‌ها

‏– شناسایی روابط اساسی یا وابستگی‌های موجود بین دو یا چند متغیر

‏– پیش‌بینی گرایش‌های آینده یا پیش‌بینی یک جهش (Drift) بر اساس گرایش‌های پیشین داده‌ها

‏– تعیین الگوها یا گرایش‌های داده‌ها

‏– پرده‌برداری از «ناهنجاری» (Anomaly) در داده‌ها

‏به طور خاص، برای شرکت‌های داده‌محوری که ذینفعان آن‌ها برای انجام تصمیم‌گیری‌های خود به داده‌ها و طراحی و ارزیابی مدل‌های داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی

‏«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب می‌شوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینه‌ها داشته‌اند و سرمایه‌گذاری‌های زیادی در این راستا انجام داده‌اند. با این وجود، هنوز بسیاری از افراد حتی آن‌هایی که در این حوزه‌ها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمی‌دانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.

══ فهرست مطالب ══

‏ ○ هوش مصنوعی
‏ ○ رایانش نرم
‏ ○ تفاوت هوش مصنوعی و رایانش نرم


🔸 هوش مصنوعی

‏پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روش‌ها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.

‏– هوش مصنوعی و تعاریف متعدد آن

‏– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی

‏– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ

‏– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی

‏– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل

‏– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها

‏– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها

‏– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها

‏– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق

‏– هوش مصنوعی در کسب و کار — بررسی جامع

‏– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع

‏– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست

‏– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی

‏– علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها

‏در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخش‌های بعدی، تفاوت‌های آن با رایانش نرم به طور کامل بیان می‌شود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیده‌تری در زمینه خودکارسازی سیستم‌ها را حل می‌کند. این خودکارسازی با به کارگیری هر زمینه‌ای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستم‌های عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل می‌شود. هوش مصنوعی، ساخت ماشین‌ها، چارچوب‌ها و گجت‌های گوناگون دانا با قادر ساختن آن‌ها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آن‌ها وجود دارد.


🔸 رایانش نرم

‏رایانش نرم می‌تواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل می‌شوند.



مطالعه ادامه مطلب 👇👇

🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

1👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها — راهنمای کاربردی

‏در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار می‌گیرد. در ادامه مطلب، روش پیاده‌سازی امتیاز ادراکی با استفاده از کتابخانه‌های پایتون «نام‌پای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان می‌شود.

══ فهرست مطالب ══

‏ ○ امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها
‏ ○ امتیاز ادراکی چیست؟
‏ ○ روش محاسبه امتیاز ادراکی
‏ ○ روش پیاده‌سازی امتیاز ادراکی با نام‌پای
‏ ○ روش پیاده‌سازی امتیاز ادراکی با کرس
‏ ○ مشکلات موجود پیرامون امتیاز ادراکی


🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها

‏«شبکه‌های مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدل‌های مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آن‌ها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دوره‌ای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده می‌شود.

‏تاکنون، تلاش‌های زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکه‌های مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکه‌های مولد تخاصمی استفاده می‌شود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:

‏– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه می‌کند.

‏– چگونگی پیاده‌سازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نام‌پای» (NumPy) و «کرس» (Keras)

‏– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.

‏برای مطالعه بیشتر پیرامون GAN‌ها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثال‌های کاربردی ــ بخش هفتم» توصیه می‌شود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخش‌ها عبارتند از:


🔸 امتیاز ادراکی چیست؟

‏امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدل‌های شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقاله‌ای با عنوان «روش‌های بهبود یافته برای آموزش دادن شبکه‌های مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمع‌سپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GAN‌ها استفاده کرده است. آن‌ها، امتیاز ادراکی را طی تلاش‌های خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کرده‌اند که امتیاز به دست آمده توسط آن‌ها، با ارزیابی فاعلی مرتبط است. در کتاب «روش‌های بهبود یافته برای آموزش دادن شبکه‌های مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:

‏امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دسته‌بندی تصاویر، به منظور دسته‌بندی تصاویر تولید شده توسط GAN‌ها می‌شود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقاله‌ای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دسته‌بندی شده‌اند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیش‌بینی می‌شود. سپس، این پیش‌بینی‌ها در امتیاز ادراکی خلاصه شده‌اند.



مطالعه ادامه مطلب 👇👇

🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی

‏وسایل نقلیه خودران، فرصت‌های جذاب و بی‌نظیری را در زمینه‌های گوناگون و از جمله، حوزه‌های فنی فراهم کرده‌اند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.

══ فهرست مطالب ══

‏ ○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
‏ ○ حل مسئله پیدا کردن خط عبور


🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر

‏منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بی‌نهایت علامت‌های خط عبور (ترابری) است.


🔸 حل مسئله پیدا کردن خط عبور

‏در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روش‌های گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.

‏– استخراج پیکسل‌های مربوط به سفید و زرد از قاب ویدئویی داده شده

‏– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)

‏– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)

‏– اعمال ماسک خاص منطقه‌ای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.

‏– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست

‏– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آن‌ها

‏– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x

‏– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر

‏– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب

‏ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.

‏برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته می‌شود. اگر مستقیم به سراغ «تشخیص لبه‌ها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگ‌هایی که برای کاربر اهمیت دارند استخراج شوند، لبه‌های حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.



مطالعه ادامه مطلب 👇👇

🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی

‏از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان می‌گذرد. این برنامه کامپیوتری به دلیل قابلیت‌های جالب توجهی که فراهم می‌کرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزه‌های گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.

══ فهرست مطالب ══

‏ ○ داکر چیست؟
‏ ○ دلایل استفاده از داکر چیست؟
‏ ○ تعاریف داکر
‏ ○ نصب داکر
‏ ○ ساخت اولین ایمیج داکر
‏ ○ دستور From
‏ ○ دستور LABEL
‏ ○ دستور ENV
‏ ○ دستور RUN
‏ ○ دستور EXPOSE
‏ ○ دستور VOLUME
‏ ○ دستور WORKDIR
‏ ○ دستور ADD
‏ ○ دستور CMD
‏ ○ ساخت ایمیج داکر
‏ ○ ساخت و اجرای یک کانتینر از داکر ایمیج
‏ ○ تعامل با کانتینر
‏ ○ دست یافتن به قدرت‌های جادویی داکر (Docker) و کاربرد آن در علم داده
‏ ○ داکر انویدیا


🔸 داکر چیست؟

‏«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیه‌سازی سطح سیستم‌عامل انجام می‌شود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده می‌شود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بسته‌های نرم‌افزاری استفاده می‌شود که به آن‌ها «کانتینر» (Container) گفته می‌شود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامه‌های خود، ابزارها، کتابخانه‌ها و فایل‌های پیکربندی خود را دارند. این کانتینرها می‌توانند با یکدیگر از طریق کانال‌های خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا می‌شوند و بنابراین، نسبت به ماشین‌های مجازی سبک‌تر هستند.

‏کانتینرها از ایمیج‌هایی (Images) ساخته شده‌اند که محتوای دقیق آن‌ها را مشخص می‌کند. ایمیج‌ها معمولا با ترکیب و ویرایش ایمیج‌های استاندارد دانلود شده از مخازن عمومی ساخته می‌شوند. داکر، ابتدا برای سیستم‌عامل لینوکس ساخته شده بود تا از قابلیت ایزوله‌سازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایل‌های یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام می‌شد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشین‌های مجازی اجتناب کند.

‏اما بعدها، برای سیستم‌عامل‌های ویندوز و مک‌او‌اس نیز توسعه یافت. داکر یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیاده‌سازی می‌کند که می‌تواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها می‌تواند چندین ظریف را به طور هم‌زمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش‌ داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه می‌شود.


🔸 دلایل استفاده از داکر چیست؟

‏تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکان‌پذیر می‌سازد، بلکه اطمینان حاصل می‌کند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم می‌آورد.



مطالعه ادامه مطلب 👇👇

🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ پروژه پیش بینی سری زمانی در پایتون — به زبان ساده

‏ایجاد یک مبنا برای انجام «پیش‌بینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیش‌بینی این ایده را به پژوهشگر می‌دهد که دیگر مدل‌ها چقدر خوب روی یک مسئله مشخص کار می‌کنند. در این راهنما، چگونگی توسعه یک مدل پیش‌بینی پایدار که می‌توان از آن برای محاسبه سطح پایه‌ای کارایی مدل‌های مختلف در مجموعه داده‌های سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار می‌گیرند.

══ فهرست مطالب ══

‏ ○ مبنای کارایی پیش‌بینی
‏ ○ الگوریتم مانا
‏ ○ مجموعه داده فروش شامپو
‏ ○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
‏ ○ جمع‌بندی


🔸 مبنای کارایی پیش‌بینی

‏مبنا در پیش‌بینی کارایی، یک نقطه مقایسه را فراهم می‌کند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرف‌نظر کرد و یا آن را بهبود بخشید. پیاده‌سازی روشی که برای تولید یک پیش‌بینی برای محاسبه کارایی مبنا مورد استفاده قرار می‌گیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیش‌بینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:

‏– مجموعه داده‌ای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.

‏– روش «بازنمونه‌گیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه داده‌های آموزش و تست)

‏– معیار کارایی که فرد تمایل دارد برای ارزیابی پیش‌بینی‌ها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)

‏سه مشخصه یک روش خوب برای ساخت پیش‌بینی مبنا، عبارتند از:

‏– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.

‏– سریع: روشی که پیاده‌سازی آن سریع و به لحاظ محاسباتی برای انجام پیش‌بینی ساده باشد.

‏– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.

‏یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.


🔸 الگوریتم مانا

‏متداول‌ترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دسته‌بندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین می‌کند. از این الگوریتم می‌توان برای سری‌های زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه داده‌های سری زمانی را در نظر نمی‌گیرد.

‏روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیش‌بینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده می‌کند. این امر موجب می‌شود هر سه شرط بیان شده در بالا برای پیش‌بینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار می‌گیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تک‌متغیره (Univariate) استفاده می‌کند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی

‏در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیاده‌سازی‌هایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامه‌نویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبان‌های طبیعی غیر انگلیسی به طور کامل انجام شده است.

══ فهرست مطالب ══

‏ ○ پردازش زبان های غیر انگلیسی با پایتون
‏ ○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
‏ ○ راه‌اندازی StanfordNLP در پایتون
‏ ○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
‏ ○ استفاده از StanfordNLP برای انجام وظایف پایه‌ای پردازش زبان طبیعی
‏ ○ پیاده‌سازی StanfordNLP روی زبان هندی
‏ ○ استفاده از رابط برنامه‌نویسی کاربردی CoreNLP’s برای تحلیل متن
‏ ○ نکاتی پیرامون استفاده از StanfordNLP
‏ ○ جمع‌بندی


🔸 پردازش زبان های غیر انگلیسی با پایتون

‏یکی از چالش‌های متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا می‌توانند برای زبان‌های غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوت‌های زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان می‌آید. توسعه‌دهندگان این کتابخانه ادعا کرده‌اند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی می‌کند. StanfordNLP حاوی مدل‌های از پیش آموزش داده شده برای زبان‌های آسیایی مانند هندی، چینی و ژاپنی برای اسکریپت‌های اصلی آن‌ها است.


🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟

‏StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدل‌ها توسط پژوهشگران در رقابت‌های سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدل‌ها بر پایه کتابخانه «پای‌تورچ» (PyTorch) ساخته شده‌اند و قابل آموزش دادن و ارزیابی شدن روی داده‌های مورد نظر کاربر هستند.

‏علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.



مطالعه ادامه مطلب 👇👇

🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تشخیص اشیا در تصاویر با پایتون — به زبان ساده

‏در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام می‌شود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.

══ فهرست مطالب ══

‏ ○ Mask R-CNN برای تشخیص اشیا در تصاویر
‏ ○ پروژه Matterport Mask R-CNN
‏ ○ نصب Mask R-CNN
‏ ○ مثالی از محلی‌سازی تصویر
‏ ○ مثالی از تشخیص اشیا


🔸 Mask R-CNN برای تشخیص اشیا در تصاویر

‏تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلی‌سازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دسته‌بندی هر شی در تصویر می‌شود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب می‌شود که نیازمند محلی‌سازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دسته‌بندی اشیا برای پیش‌بینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیت‌یابی شده‌اند.

‏یک افزونه از تشخیص اشیا شامل نشانه‌گذاری پیکسل‌های خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبه‌های محصور کننده، ضمن موقعیت‌یابی اشیا استفاده می‌شود. این نسخه سخت‌تر از برنامه، معمولا «قطعه‌بندی اشیا» (Object Segmentation) یا «بخش‌بندی معنایی» (Semantic Segmentation) نامیده می‌شود. شبکه‌های عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانواده‌ای از مدل‌های شبکه‌های عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شده‌اند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شده‌اند. جنبه‌های برجسته هر یک از انواع را می‌توان به صورت زیر خلاصه کرد.

‏– R-CNN: جعبه‌های محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم می‌شوند؛ هر یک از آن‌ها توسعه داده می‌شوند و با استفاده از شبکه‌های عصبی پیچشی عمیق ویژگی‌های آن‌ها استخراج می‌شود. همچون AlexNet، پیش از گام نهایی، طبقه‌بندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام می‌شود.

‏– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبه‌های محصور کننده آن به عنوان ورودی مشخص می‌شوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار می‌گیرد و مدل، برچسب کلاس‌ها و منطقه مورد نظر را به طور مستتقیم پیش‌بینی می‌کند.

‏– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگی‌های استخراج شده از یک CNN عمیق را تفسیر می‌کند و یاد می‌گیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.

‏– Mask R-CNN: افزونه R-CNN سریع‌تر که خروجی مدل را برای پیش‌بینی یک ماسک برای هر شی شناسایی شده اضافه می‌کند.

‏مدل Mask R-CNN در سال ۲۰۱۸ در مقاله‌ای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدل‌های خانواده معرفی شد و از تشخیص اشیا و بخش‌بندی اشیا پشتیبانی می‌کند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخش‌هایی از مقاله عینا آورده شده‌اند.


🔸 پروژه Matterport Mask R-CNN

‏Mask R-CNN یک مدل پیچیده برای پیاده‌سازی است، به ویژه در مقایسه با دیگر روش‌های لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیت‌هاب مجزایی با مدل‌های نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:

‏– R-CNN: مناطق با ویژگی‌های شبکه عصبی پیچشی +

‏– Fast R-CNN +

‏– کد پایتون Faster R-CNN +

‏– دِتِکرون (Detectron) +



مطالعه ادامه مطلب 👇👇

🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی

‏«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کرده‌اند. در این مطلب، روش بازشناسی چهره با استفاده از «ری‌اکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آن‌ها حتی با چشم انسانی هم کار دشواری است.

══ فهرست مطالب ══

‏ ○ تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ توضیحات کوتاهی پیرامون تشخیص چهره
‏ ○ پیاده‌سازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ رابط برنامه‌نویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
‏ ○ جعبه تشخیص چهره
‏ ○ بازشناسی چهره
‏ ○ تطبیق‌دهنده چهره
‏ ○ ورودی ویدئو زنده
‏ ○ استقرار پروژه در صفحه گیت‌هاب


🔸 تشخیص چهره با جاوا اسکریپت و ری اکت

‏در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جی‌اس» (TensorFlow.js) کار می‌کند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بک‌اند لازم برای این کار، انجام شوند.

‏اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، می‌توان امکان بازشناسی چهره با ری‌اکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ری‌اکت در صفحه گیت‌هاب، آموزش داده شده است.

‏همانطور که پیش‌تر نیز بیان شد، در اینجا پیاده‌سازی یک برنامه کاربردی تک صفحه‌ای برای تشخیص و بازشناسی چهره، با استفاده از ری‌اکت و کتابخانه تشخیص چهره ace-api.js انجام می‌شود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی می‌کند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.


🔸 توضیحات کوتاهی پیرامون تشخیص چهره

‏در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه می‌کند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت می‌کند. او از فرد می‌خواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه می‌کند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه می‌کند. همچنین، در حالت پیشرفته‌تری، اسم نوشته شده در کارت هویتی را وارد سیستم می‌کند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه می‌کند.

‏به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده می‌شود، سیستم تلاش می‌کند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز می‌گراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام می‌شود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نام‌گذاری، سایز کوچک و موبایل‌پسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیص‌دهنده چهره استفاده می‌کند؛ اما در حال حاضر به ان پرداخته نخواهد شد.


مطالعه ادامه مطلب 👇👇

🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع

‏در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثال‌های متعدد و متنوع مورد بررسی قرار گرفته است.

══ فهرست مطالب ══

‏ ○ بهینه سازی در پایتون
‏ ○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
‏ ○ آشنایی با ماژول‌های SciPy
‏ ○ روش نصب SciPy روی کامپیوتر
‏ ○ استفاده از ماژول Cluster در کتابخانه SciPy
‏ ○ معرفی فیلم‌های آموزش بهینه سازی فرادرس
‏ ○ استفاده از ماژول بهینه‌سازی در SciPy
‏ ○ کمینه کردن یک تابع تک متغیره در SciPy
‏ ○ کمینه‌سازی تابع چندمتغیره در SciPy
‏ ○ معرفی فیلم‌های آموزش پایتون و بهینه سازی با پایتون فرادرس
‏ ○ جمع‌بندی


🔸 بهینه سازی در پایتون

‏هنگامی که افراد می‌خواهند کارهای علمی را در زبان برنامه‌نویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانه‌ای که می‌توان از آن استفاده کرد «سای‌پای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سای‌پای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانه‌ها است که با یکدیگر کار می‌کنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:

‏– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy

‏– نصب SciPy روی کامپیوتر

‏– استفاده از SciPy برای خوشه‌بندی یک مجموعه داده با چندین متغیر

‏– استفاده از SciPy برای پیدا کردن بهینه یک تابع


🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy

‏هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند،‌ چندین کتابخانه وجود دارد که استفاده از آن‌ها به او توصیه می‌شود. این کتابخانه‌های پایتون عبارتند از:

‏– نام‌پای (NumPy)

‏– سای‌پای (SciPy)

‏– مت‌پلات‌لیب (Matplotlib)

‏– آی‌پایتون (IPython)

‏– سیم‌پای (SymPy)

‏– پانداس (Pandas)

‏این کتابخانه‌ها در کنار هم، اکوسیستم سای‌پای را می‌سازند و برای آن طراحی شده‌اند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایه‌های نام‌پای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایه‌های نام‌پای و انجام پردازش‌هایی روی آن‌ها آشنایی دارد. به کاربرانی که با کتابخانه نام‌پای به خوبی آشنایی ندارند‌، مطالعه مطالب زیر توصیه می‌شود.

‏– برنامه‌نویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده

‏– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول

‏– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم

‏همچنین، برای مطالعه بیشتر پیرامون کتابخانه‌های هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده

‏در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.

══ فهرست مطالب ══

‏ ○ چکیده مطلب ریکامندر چیست ؟
‏ ○ مقدمه‌ای بر مبحث ریکامندر چیست ؟
‏ ○ ریکامندر معادل چه کلمه‌ای در فارسی و انگلیسی است؟
‏ ○ ریکامندر چیست ؟
‏ ○ دلیل استفاده از سیستم ریکامندر چیست ؟
‏ ○ کاربرد سیستم ریکامندر چیست ؟
‏ ○ چه زمانی کسب و کار باید ریکامندر سیستم پیاده‌سازی کند؟
‏ ○ پیش‌نیازهای لازم برای راه‌اندازی یک سیستم ریکامندر چیست ؟
‏ ○ ریکامندر سیستم چگونه کار می‌کند؟
‏ ○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
‏ ○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
‏ ○ رابطه و داده در ریکامندر سیستم ها
‏ ○ انواع سیستم‌های ریکامندر چه هستند؟
‏ ○ از چه روش‌هایی برای ساخت ریکامندر سیستم استفاده می‌شود؟
‏ ○ چطور می‌توان یک ریکامندر سیستم را ارزیابی کرد؟
‏ ○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
‏ ○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
‏ ○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
‏ ○ پرسش‌های متداول پیرامون ریکامندر سیستم


🔸 چکیده مطلب ریکامندر چیست ؟

‏اینترنت به عنوان منبعی برای حجم انبوه داده‌ها و اطلاعات محسوب می‌شود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویت‌بندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکن‌وار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید می‌شوند و محتوا و خدمات شخصی‌سازی شده برای هر کاربر را در اختیار او قرار دهد.

‏در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیش‌نیازهای لازم برای یک ریکامندر سیستم تشریح شده‌اند و به روش‌های تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثال‌هایی از پیاده‌سازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسش‌های متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.


🔸 مقدمه‌ای بر مبحث ریکامندر چیست ؟

‏رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد می‌کند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت می‌شود. سیستم‌های بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازه‌ای این مشکل را حل کرده‌اند. اما سیستم‌های مذکور، راهکارهای لازم را برای اولویت‌بندی و شخصی‌سازی اطلاعات را فراهم نمی‌کنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصی‌سازی نتایج استفاده می‌کند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصی‌سازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.


مطالعه ادامه مطلب 👇👇

🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده

‏AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه می‌شود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبت‌وار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده می‌شود، سپس چند مورد از روش‌های مختلف پیاده‌سازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.

══ فهرست مطالب ══

‏ ○ یادگیری ماشین چیست؟
‏ ○ AutoML چیست؟
‏ ○ سطوح مختلف AutoML
‏ ○ تفاوت یادگیری ماشین با AutoML چیست؟
‏ ○ روش های پیاده‌سازی AutoML
‏ ○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
‏ ○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
‏ ○ جمع‌بندی و نتیجه‌گیری


🔸 یادگیری ماشین چیست؟

‏قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دست‌یابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:

‏برای اطلاعات بیش‌تر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال‌ های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد می‌شود.

‏ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.


🔸 AutoML چیست؟

‏AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف ساده‌سازی و سرعت بخشیدن به وظایف آن به حساب می‌آید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟

‏برای پاسخ به این سوال باید گفت که از ۱۰ مرحله‌ای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین ساده‌تر و سریع‌تر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:

‏– مهندسی ویژگی‌ها

‏– انتخاب ویژگی‌ها

‏– انتخاب الگوریتم

‏– بهینه سازی ابرپارامتر

‏– پشته‌سازی

‏– تجمیع

‏یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیاده‌سازی آن چالش‌های مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالش‌های اصلی یادگیری ماشین خودکار پرداخته شده است.



مطالعه ادامه مطلب 👇👇

🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع

‏در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیاده‌سازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینه‌سازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح می‌شود. همچنین، روش‌های ترکیبی موجود با بهره‌گیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روش‌های بهینه‌سازی هیوریستیک و قطعی هستند نیز معرفی می‌شوند.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر بهینه‌سازی و الگوریتم‌های آن
‏ ○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
‏ ○ ترکیب الگوریتم ازدحام ذرات با روش‌های قطعی
‏ ○ کاربردهای الگوریتم PSO و چالش‌های آن
‏ ○ مثال از الگوریتم PSO: هزینه یک سیستم تولید هم‌زمان
‏ ○ معرفی فیلم‌های آموزش بهینه سازی فرادرس
‏ ○ پیاده‌سازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
‏ ○ کد الگوریتم بهینه‌سازی ازدحام ذرات در متلب
‏ ○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
‏ ○ معرفی فیلم‌های آموزش الگوریتم PSO فرادرس
‏ ○ نتیجه‌گیری


🔸 مقدمه‌ای بر بهینه‌سازی و الگوریتم‌های آن

‏«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینه‌های گوناگون از جمله حوزه‌های فنی و مهندسی است. در یک تعریف ساده و کوتاه می‌توان گفت که مسائلی که در آن‌ها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینه‌سازی» (Optimization Problem) می‌گویند. برای مطالعه بیشتر پیرامون بهینه‌سازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد می‌شود.

‏با توسعه فناوری، تعداد و پیچیدگی مسائل بهینه‌سازی نیز در زمینه‌های علمی گوناگون افزایش پیدا کرده است. از متداول‌ترین مسائل موجود در حوزه‌های مهندسی که نیاز به استفاده از روش‌های بهینه‌سازی برای حل آن‌ها وجود دارد می‌توان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هسته‌ای اشاره کرد. مسائل بهینه‌سازی در دیگر زمینه‌ها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینه‌های اصلی کاربرد بهینه‌سازی می‌توان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.

‏برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتم‌های بهینه‌سازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینه‌سازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگی‌های گوناگونی دارد که از جمله آن‌ها می‌توان به مشتق‌پذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.


🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)

‏در اوایل سال ۱۹۹۰ میلادی، پژوهش‌های گوناگونی پیرامون رفتار اجتماعی گروه‌های حیوانات انجام شد. این پژوهش‌ها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهی‌ها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروه‌های (دسته‌های | گله‌های) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا می‌کرد.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها

‏در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب می‌شد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسب‌ها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمی‌کرد که چنین سازه‌هایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکت‌ها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب می‌شدند، قدرت‌های بلامنازع قرن رایانه و داده‌ها بودند. ولی امروزه کسانی که بتوانند ابزارها و روش‌های کشف اطلاعات و استخراج دانش از داده‌ها را رهبری کنند، قدرتمند خواهند بود. یکی از روش‌های تفسیر و تشکیل یا تشخیص الگو از روی داده‌ها، استفاده از تکنیک‌های مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بسته‌ها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.

══ فهرست مطالب ══

‏ ○ مصور سازی داده‌ و ابزارهای آن
‏ ○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
‏ ○ خلاصه و جمع‌بندی


🔸 مصور سازی داده‌ و ابزارهای آن

‏به کارگیری و نمایش مجموعه‌های بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده‌ آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آن‌ها بدون ابزارهای رایانه‌ای، کاملاً غیرممکن است. در اینجا لازم است که از نرم‌افزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکان‌پذیر می‌سازند.

‏ایجاد تجسم برای داده‌ها اغلب کار ساده‌ای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرم‌افزارهای معروف که در مصور سازی داده به کار می‌روند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهره‌گیری از این نرم‌افزارها، در هزینه و زمان صرفه‌جویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه می‌کند.

‏ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایش‌های تصویری و بصری از مجموعه داده‌های بزرگ را به طراحان ارائه می‌دهند. هنگام کار با مجموعه‌ای که شامل صدها هزار یا میلیون‌ها نقطه داده باشد، کار مشکلی است. با استفاده از این نرم‌افزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده می‌کند.


🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲

‏در تحلیل داده، بسیار مهم است که ابتدا آن‌ها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آن‌ها، روش‌های مناسبی را انتخاب کنیم. توصیف داده‌ها و کشف قوانین آن‌ها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبان‌ها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین داده‌ها به مخاطبان آموزش داده می‌شود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.

‏این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصل‌های آموزشی به قرار زیر هستند.

‏– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)

‏– درس دوم: نکاتی در مورد نمودارهای پرکاربرد

‏– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲

‏– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting

‏– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)

‏– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr

‏– درس هفتم: مقدمه ای بر پکیج‌های GGally و Plotly



مطالعه ادامه مطلب 👇👇

🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R

‏اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیک‌تر است، یک امر عقلانی است. ولی اگر با پدیده‌های تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامه‌ها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.

══ فهرست مطالب ══

‏ ○ انتخاب دو وضعیتی و تحلیل آماری
‏ ○ معرفی فیلم آموزش نرم ‌افزار مدل‌ سازی داده ‌ها Eureqa Formulize
‏ ○ خلاصه و جمع‌بندی


🔸 انتخاب دو وضعیتی و تحلیل آماری

‏هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجه‌گیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده می‌شود و البته در انتها نیز به برخی از محدودیت‌های آن اشاره خواهیم کرد.

‏آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته می‌شود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار می‌دهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.

‏فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل می‌کند یا خیر.


🔸 معرفی فیلم آموزش نرم ‌افزار مدل‌ سازی داده ‌ها Eureqa Formulize

‏نرم‌افزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدل‌سازی آماری را می‌دهد. به همین دلیل یادگیری و اجرای مدل‌ها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرم‌افزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار می‌دهد.

‏این آموزش در زمانی کوتاه، مبانی اولیه مدل‌سازی و همچنین توانایی کار و انجام عملیات با نرم‌افزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گام‌های مدل‌سازی را بازگو می‌کند. سرفصل‌های اصلی این آموزش به صورت زیر فهرست شده‌اند.

‏– درس اول: معرفی نرم ‌افزار و آشنایی با مفاهیم پایه مدل ‌سازی

‏– درس دوم: پیش‌ پردازش داده‎ ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج

‏زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی

‏با انفجار اطلاعات و افزایش داده‌هایی که روزانه از منابع مختلف تولید می‌شود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شده‌ایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از داده‌ها را داشته باشیم. پیشرفت دستگاه‌های محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این داده‌ها و پردازش آن‌ها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونه‌گیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداخته‌ایم. در این بین به تکنیک شبکه‌ای کردن و ارتباط گره‌ها اشاره کرده و مثال‌های عینی نتایج را مورد بررسی قرار داده‌ایم.

══ فهرست مطالب ══

‏ ○ آنالیز کلان داده و ساختار شبکه اجتماعی
‏ ○ آنالیز کلان داده و تحلیل شبکه‌های اجتماعی
‏ ○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
‏ ○ خلاصه و جمع‌بندی


🔸 آنالیز کلان داده و ساختار شبکه اجتماعی

‏داده های بزرگ یا «مِه داده» (Big data) زمینه‌ای است که روش‌های تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از داده‌ها را میسر می‌کند. در اغلب موارد نمی‌توان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه داده‌ها اگر به ساختار جدولی ثبت شوند، دارای ستون‌ها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.

‏چالش‌های آنالیز کلان داده‌ شامل «دریافت داده‌ها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل داده‌ها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.

‏کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روش‌های تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.


🔸 آنالیز کلان داده و تحلیل شبکه‌های اجتماعی

‏شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روش‌های ریاضی قابل درک و تجزیه و تحلیل است. شبکه‌ها، گروهی از «گره‌ها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شده‌اند و می‌توانند نشانگر هدایت جهت‌دار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونه‌هایی از شبکه‌های جهت‌دار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.

‏اغلب از شبکه‌ها برای یافتن دقیق اجتماعات نیز استفاده می‌کنند. این گره‌ها راس‌هایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروه‌های دیگر دارند، این امر به مانند افرادی است که در شبکه‌های اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص می‌کند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشه‌ها» (Clusters) کمک کند. با گسترش «شبکه‌های اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقاله‌ای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج می‌کند.

‏شناخت جوامع درون شبکه، ساختار آن‌ها را روشن می‌کند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروه‌های شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیه‌ها یا پیشنهادات یکسانی را می‌توان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آن‌ها، درست به هدف زده و انتظارمان از آن سیاست برآورده می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی

‏یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرم‌افزارهای محاسبات رایانه‌ای مانند SPSS را ناگزیر می‌کند. در هر طرح تحقیق آماری، گام‌ها و مراحلی باید طی شود که آن‌ها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گام‌های گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت می‌کند. این گام‌ها از تعیین هدف، جمع‌آوری داده‌ها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با داده‌ها و روش‌های آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.

══ فهرست مطالب ══

‏ ○ انجام تحلیل آماری با SPSS
‏ ○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
‏ ○ خلاصه و جمع‌بندی


🔸 انجام تحلیل آماری با SPSS

‏اگر به منظور انجام تحقیق علمی با داده‌ها روبرو هستید، باید روش‌های آماری مناسب را به کار ببرید. نوع داده‌ها، هدف تحقیق، محدودیت‌ها و امکانات سخت‌افزاری و نرم‌افزاری و حتی نحوه نمونه‌برداری و اندازه یا حجم نمونه‌گیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرم‌افزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشته‌های علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کرده‌ایم که نتایج بدست آمده از چنین طرح‌هایی، حداقل به اشتباه برداشت نشود.

‏قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدف‌های زیر را برای تحقیقات آماری تصور کرد.

‏– توصیف خصوصیات یک جامعه آماری

‏– برآورد بهترین آماره برای پارامتر جامعه

‏– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری

‏– مقایسه بین دو جامعه آماری

‏– شناسایی و تعیین رابطه بین جوامع آماری

‏– مدل‌سازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی

‏به یاد داشته باشید که نوع داده و مقیاس اندازه‌گیری آن‌ها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگی‌ها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، می‌توانیم نوع روش تحقیق را یکی از گونه‌های کمی، کیفی یا ترکیبی انتخاب کنیم.


🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس

‏استفاده نرم افزارهای محاسبات رایانه‌ای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشته‌های مختلفی از محاسبات و انجام آزمون‌های آماره بهره می‌برند. از طرفی بار محاسباتی بعضی از تکنیک‌های آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرم‌افزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرم‌افزار SPSS است که از طرف شرکت IBM پشتیبانی می‌گردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجی‌های آن نیز شرح داده شده. با استفاده از این آموزش می‌توانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.



مطالعه ادامه مطلب 👇👇

🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس