✳️ پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص اشیا در تصاویر با پایتون — به زبان ساده
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
Forwarded from FaraDars_Course
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
✳️ معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس