FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ تشخیص اشیا در تصاویر با پایتون — به زبان ساده

‏در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام می‌شود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.

══ فهرست مطالب ══

‏ ○ Mask R-CNN برای تشخیص اشیا در تصاویر
‏ ○ پروژه Matterport Mask R-CNN
‏ ○ نصب Mask R-CNN
‏ ○ مثالی از محلی‌سازی تصویر
‏ ○ مثالی از تشخیص اشیا


🔸 Mask R-CNN برای تشخیص اشیا در تصاویر

‏تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلی‌سازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دسته‌بندی هر شی در تصویر می‌شود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب می‌شود که نیازمند محلی‌سازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دسته‌بندی اشیا برای پیش‌بینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیت‌یابی شده‌اند.

‏یک افزونه از تشخیص اشیا شامل نشانه‌گذاری پیکسل‌های خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبه‌های محصور کننده، ضمن موقعیت‌یابی اشیا استفاده می‌شود. این نسخه سخت‌تر از برنامه، معمولا «قطعه‌بندی اشیا» (Object Segmentation) یا «بخش‌بندی معنایی» (Semantic Segmentation) نامیده می‌شود. شبکه‌های عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانواده‌ای از مدل‌های شبکه‌های عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شده‌اند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شده‌اند. جنبه‌های برجسته هر یک از انواع را می‌توان به صورت زیر خلاصه کرد.

‏– R-CNN: جعبه‌های محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم می‌شوند؛ هر یک از آن‌ها توسعه داده می‌شوند و با استفاده از شبکه‌های عصبی پیچشی عمیق ویژگی‌های آن‌ها استخراج می‌شود. همچون AlexNet، پیش از گام نهایی، طبقه‌بندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام می‌شود.

‏– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبه‌های محصور کننده آن به عنوان ورودی مشخص می‌شوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار می‌گیرد و مدل، برچسب کلاس‌ها و منطقه مورد نظر را به طور مستتقیم پیش‌بینی می‌کند.

‏– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگی‌های استخراج شده از یک CNN عمیق را تفسیر می‌کند و یاد می‌گیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.

‏– Mask R-CNN: افزونه R-CNN سریع‌تر که خروجی مدل را برای پیش‌بینی یک ماسک برای هر شی شناسایی شده اضافه می‌کند.

‏مدل Mask R-CNN در سال ۲۰۱۸ در مقاله‌ای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدل‌های خانواده معرفی شد و از تشخیص اشیا و بخش‌بندی اشیا پشتیبانی می‌کند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخش‌هایی از مقاله عینا آورده شده‌اند.


🔸 پروژه Matterport Mask R-CNN

‏Mask R-CNN یک مدل پیچیده برای پیاده‌سازی است، به ویژه در مقایسه با دیگر روش‌های لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیت‌هاب مجزایی با مدل‌های نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:

‏– R-CNN: مناطق با ویژگی‌های شبکه عصبی پیچشی +

‏– Fast R-CNN +

‏– کد پایتون Faster R-CNN +

‏– دِتِکرون (Detectron) +



مطالعه ادامه مطلب 👇👇

🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی

‏«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کرده‌اند. در این مطلب، روش بازشناسی چهره با استفاده از «ری‌اکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آن‌ها حتی با چشم انسانی هم کار دشواری است.

══ فهرست مطالب ══

‏ ○ تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ توضیحات کوتاهی پیرامون تشخیص چهره
‏ ○ پیاده‌سازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ رابط برنامه‌نویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
‏ ○ جعبه تشخیص چهره
‏ ○ بازشناسی چهره
‏ ○ تطبیق‌دهنده چهره
‏ ○ ورودی ویدئو زنده
‏ ○ استقرار پروژه در صفحه گیت‌هاب


🔸 تشخیص چهره با جاوا اسکریپت و ری اکت

‏در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جی‌اس» (TensorFlow.js) کار می‌کند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بک‌اند لازم برای این کار، انجام شوند.

‏اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، می‌توان امکان بازشناسی چهره با ری‌اکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ری‌اکت در صفحه گیت‌هاب، آموزش داده شده است.

‏همانطور که پیش‌تر نیز بیان شد، در اینجا پیاده‌سازی یک برنامه کاربردی تک صفحه‌ای برای تشخیص و بازشناسی چهره، با استفاده از ری‌اکت و کتابخانه تشخیص چهره ace-api.js انجام می‌شود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی می‌کند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.


🔸 توضیحات کوتاهی پیرامون تشخیص چهره

‏در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه می‌کند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت می‌کند. او از فرد می‌خواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه می‌کند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه می‌کند. همچنین، در حالت پیشرفته‌تری، اسم نوشته شده در کارت هویتی را وارد سیستم می‌کند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه می‌کند.

‏به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده می‌شود، سیستم تلاش می‌کند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز می‌گراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام می‌شود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نام‌گذاری، سایز کوچک و موبایل‌پسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیص‌دهنده چهره استفاده می‌کند؛ اما در حال حاضر به ان پرداخته نخواهد شد.


مطالعه ادامه مطلب 👇👇

🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع

‏در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثال‌های متعدد و متنوع مورد بررسی قرار گرفته است.

══ فهرست مطالب ══

‏ ○ بهینه سازی در پایتون
‏ ○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
‏ ○ آشنایی با ماژول‌های SciPy
‏ ○ روش نصب SciPy روی کامپیوتر
‏ ○ استفاده از ماژول Cluster در کتابخانه SciPy
‏ ○ معرفی فیلم‌های آموزش بهینه سازی فرادرس
‏ ○ استفاده از ماژول بهینه‌سازی در SciPy
‏ ○ کمینه کردن یک تابع تک متغیره در SciPy
‏ ○ کمینه‌سازی تابع چندمتغیره در SciPy
‏ ○ معرفی فیلم‌های آموزش پایتون و بهینه سازی با پایتون فرادرس
‏ ○ جمع‌بندی


🔸 بهینه سازی در پایتون

‏هنگامی که افراد می‌خواهند کارهای علمی را در زبان برنامه‌نویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانه‌ای که می‌توان از آن استفاده کرد «سای‌پای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سای‌پای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانه‌ها است که با یکدیگر کار می‌کنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:

‏– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy

‏– نصب SciPy روی کامپیوتر

‏– استفاده از SciPy برای خوشه‌بندی یک مجموعه داده با چندین متغیر

‏– استفاده از SciPy برای پیدا کردن بهینه یک تابع


🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy

‏هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند،‌ چندین کتابخانه وجود دارد که استفاده از آن‌ها به او توصیه می‌شود. این کتابخانه‌های پایتون عبارتند از:

‏– نام‌پای (NumPy)

‏– سای‌پای (SciPy)

‏– مت‌پلات‌لیب (Matplotlib)

‏– آی‌پایتون (IPython)

‏– سیم‌پای (SymPy)

‏– پانداس (Pandas)

‏این کتابخانه‌ها در کنار هم، اکوسیستم سای‌پای را می‌سازند و برای آن طراحی شده‌اند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایه‌های نام‌پای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایه‌های نام‌پای و انجام پردازش‌هایی روی آن‌ها آشنایی دارد. به کاربرانی که با کتابخانه نام‌پای به خوبی آشنایی ندارند‌، مطالعه مطالب زیر توصیه می‌شود.

‏– برنامه‌نویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده

‏– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول

‏– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم

‏همچنین، برای مطالعه بیشتر پیرامون کتابخانه‌های هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده

‏در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.

══ فهرست مطالب ══

‏ ○ چکیده مطلب ریکامندر چیست ؟
‏ ○ مقدمه‌ای بر مبحث ریکامندر چیست ؟
‏ ○ ریکامندر معادل چه کلمه‌ای در فارسی و انگلیسی است؟
‏ ○ ریکامندر چیست ؟
‏ ○ دلیل استفاده از سیستم ریکامندر چیست ؟
‏ ○ کاربرد سیستم ریکامندر چیست ؟
‏ ○ چه زمانی کسب و کار باید ریکامندر سیستم پیاده‌سازی کند؟
‏ ○ پیش‌نیازهای لازم برای راه‌اندازی یک سیستم ریکامندر چیست ؟
‏ ○ ریکامندر سیستم چگونه کار می‌کند؟
‏ ○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
‏ ○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
‏ ○ رابطه و داده در ریکامندر سیستم ها
‏ ○ انواع سیستم‌های ریکامندر چه هستند؟
‏ ○ از چه روش‌هایی برای ساخت ریکامندر سیستم استفاده می‌شود؟
‏ ○ چطور می‌توان یک ریکامندر سیستم را ارزیابی کرد؟
‏ ○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
‏ ○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
‏ ○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
‏ ○ پرسش‌های متداول پیرامون ریکامندر سیستم


🔸 چکیده مطلب ریکامندر چیست ؟

‏اینترنت به عنوان منبعی برای حجم انبوه داده‌ها و اطلاعات محسوب می‌شود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویت‌بندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکن‌وار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید می‌شوند و محتوا و خدمات شخصی‌سازی شده برای هر کاربر را در اختیار او قرار دهد.

‏در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیش‌نیازهای لازم برای یک ریکامندر سیستم تشریح شده‌اند و به روش‌های تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثال‌هایی از پیاده‌سازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسش‌های متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.


🔸 مقدمه‌ای بر مبحث ریکامندر چیست ؟

‏رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد می‌کند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت می‌شود. سیستم‌های بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازه‌ای این مشکل را حل کرده‌اند. اما سیستم‌های مذکور، راهکارهای لازم را برای اولویت‌بندی و شخصی‌سازی اطلاعات را فراهم نمی‌کنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصی‌سازی نتایج استفاده می‌کند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصی‌سازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.


مطالعه ادامه مطلب 👇👇

🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده

‏AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه می‌شود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبت‌وار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده می‌شود، سپس چند مورد از روش‌های مختلف پیاده‌سازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.

══ فهرست مطالب ══

‏ ○ یادگیری ماشین چیست؟
‏ ○ AutoML چیست؟
‏ ○ سطوح مختلف AutoML
‏ ○ تفاوت یادگیری ماشین با AutoML چیست؟
‏ ○ روش های پیاده‌سازی AutoML
‏ ○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
‏ ○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
‏ ○ جمع‌بندی و نتیجه‌گیری


🔸 یادگیری ماشین چیست؟

‏قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دست‌یابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:

‏برای اطلاعات بیش‌تر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال‌ های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد می‌شود.

‏ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.


🔸 AutoML چیست؟

‏AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف ساده‌سازی و سرعت بخشیدن به وظایف آن به حساب می‌آید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟

‏برای پاسخ به این سوال باید گفت که از ۱۰ مرحله‌ای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین ساده‌تر و سریع‌تر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:

‏– مهندسی ویژگی‌ها

‏– انتخاب ویژگی‌ها

‏– انتخاب الگوریتم

‏– بهینه سازی ابرپارامتر

‏– پشته‌سازی

‏– تجمیع

‏یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیاده‌سازی آن چالش‌های مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالش‌های اصلی یادگیری ماشین خودکار پرداخته شده است.



مطالعه ادامه مطلب 👇👇

🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع

‏در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیاده‌سازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینه‌سازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح می‌شود. همچنین، روش‌های ترکیبی موجود با بهره‌گیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روش‌های بهینه‌سازی هیوریستیک و قطعی هستند نیز معرفی می‌شوند.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر بهینه‌سازی و الگوریتم‌های آن
‏ ○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
‏ ○ ترکیب الگوریتم ازدحام ذرات با روش‌های قطعی
‏ ○ کاربردهای الگوریتم PSO و چالش‌های آن
‏ ○ مثال از الگوریتم PSO: هزینه یک سیستم تولید هم‌زمان
‏ ○ معرفی فیلم‌های آموزش بهینه سازی فرادرس
‏ ○ پیاده‌سازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
‏ ○ کد الگوریتم بهینه‌سازی ازدحام ذرات در متلب
‏ ○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
‏ ○ معرفی فیلم‌های آموزش الگوریتم PSO فرادرس
‏ ○ نتیجه‌گیری


🔸 مقدمه‌ای بر بهینه‌سازی و الگوریتم‌های آن

‏«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینه‌های گوناگون از جمله حوزه‌های فنی و مهندسی است. در یک تعریف ساده و کوتاه می‌توان گفت که مسائلی که در آن‌ها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینه‌سازی» (Optimization Problem) می‌گویند. برای مطالعه بیشتر پیرامون بهینه‌سازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد می‌شود.

‏با توسعه فناوری، تعداد و پیچیدگی مسائل بهینه‌سازی نیز در زمینه‌های علمی گوناگون افزایش پیدا کرده است. از متداول‌ترین مسائل موجود در حوزه‌های مهندسی که نیاز به استفاده از روش‌های بهینه‌سازی برای حل آن‌ها وجود دارد می‌توان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هسته‌ای اشاره کرد. مسائل بهینه‌سازی در دیگر زمینه‌ها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینه‌های اصلی کاربرد بهینه‌سازی می‌توان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.

‏برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتم‌های بهینه‌سازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینه‌سازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگی‌های گوناگونی دارد که از جمله آن‌ها می‌توان به مشتق‌پذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.


🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)

‏در اوایل سال ۱۹۹۰ میلادی، پژوهش‌های گوناگونی پیرامون رفتار اجتماعی گروه‌های حیوانات انجام شد. این پژوهش‌ها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهی‌ها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروه‌های (دسته‌های | گله‌های) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا می‌کرد.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها

‏در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب می‌شد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسب‌ها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمی‌کرد که چنین سازه‌هایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکت‌ها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب می‌شدند، قدرت‌های بلامنازع قرن رایانه و داده‌ها بودند. ولی امروزه کسانی که بتوانند ابزارها و روش‌های کشف اطلاعات و استخراج دانش از داده‌ها را رهبری کنند، قدرتمند خواهند بود. یکی از روش‌های تفسیر و تشکیل یا تشخیص الگو از روی داده‌ها، استفاده از تکنیک‌های مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بسته‌ها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.

══ فهرست مطالب ══

‏ ○ مصور سازی داده‌ و ابزارهای آن
‏ ○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
‏ ○ خلاصه و جمع‌بندی


🔸 مصور سازی داده‌ و ابزارهای آن

‏به کارگیری و نمایش مجموعه‌های بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده‌ آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آن‌ها بدون ابزارهای رایانه‌ای، کاملاً غیرممکن است. در اینجا لازم است که از نرم‌افزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکان‌پذیر می‌سازند.

‏ایجاد تجسم برای داده‌ها اغلب کار ساده‌ای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرم‌افزارهای معروف که در مصور سازی داده به کار می‌روند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهره‌گیری از این نرم‌افزارها، در هزینه و زمان صرفه‌جویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه می‌کند.

‏ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایش‌های تصویری و بصری از مجموعه داده‌های بزرگ را به طراحان ارائه می‌دهند. هنگام کار با مجموعه‌ای که شامل صدها هزار یا میلیون‌ها نقطه داده باشد، کار مشکلی است. با استفاده از این نرم‌افزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده می‌کند.


🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲

‏در تحلیل داده، بسیار مهم است که ابتدا آن‌ها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آن‌ها، روش‌های مناسبی را انتخاب کنیم. توصیف داده‌ها و کشف قوانین آن‌ها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبان‌ها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین داده‌ها به مخاطبان آموزش داده می‌شود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.

‏این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصل‌های آموزشی به قرار زیر هستند.

‏– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)

‏– درس دوم: نکاتی در مورد نمودارهای پرکاربرد

‏– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲

‏– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting

‏– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)

‏– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr

‏– درس هفتم: مقدمه ای بر پکیج‌های GGally و Plotly



مطالعه ادامه مطلب 👇👇

🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R

‏اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیک‌تر است، یک امر عقلانی است. ولی اگر با پدیده‌های تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامه‌ها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.

══ فهرست مطالب ══

‏ ○ انتخاب دو وضعیتی و تحلیل آماری
‏ ○ معرفی فیلم آموزش نرم ‌افزار مدل‌ سازی داده ‌ها Eureqa Formulize
‏ ○ خلاصه و جمع‌بندی


🔸 انتخاب دو وضعیتی و تحلیل آماری

‏هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجه‌گیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده می‌شود و البته در انتها نیز به برخی از محدودیت‌های آن اشاره خواهیم کرد.

‏آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته می‌شود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار می‌دهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.

‏فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل می‌کند یا خیر.


🔸 معرفی فیلم آموزش نرم ‌افزار مدل‌ سازی داده ‌ها Eureqa Formulize

‏نرم‌افزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدل‌سازی آماری را می‌دهد. به همین دلیل یادگیری و اجرای مدل‌ها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرم‌افزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار می‌دهد.

‏این آموزش در زمانی کوتاه، مبانی اولیه مدل‌سازی و همچنین توانایی کار و انجام عملیات با نرم‌افزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گام‌های مدل‌سازی را بازگو می‌کند. سرفصل‌های اصلی این آموزش به صورت زیر فهرست شده‌اند.

‏– درس اول: معرفی نرم ‌افزار و آشنایی با مفاهیم پایه مدل ‌سازی

‏– درس دوم: پیش‌ پردازش داده‎ ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج

‏زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی

‏با انفجار اطلاعات و افزایش داده‌هایی که روزانه از منابع مختلف تولید می‌شود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شده‌ایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از داده‌ها را داشته باشیم. پیشرفت دستگاه‌های محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این داده‌ها و پردازش آن‌ها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونه‌گیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداخته‌ایم. در این بین به تکنیک شبکه‌ای کردن و ارتباط گره‌ها اشاره کرده و مثال‌های عینی نتایج را مورد بررسی قرار داده‌ایم.

══ فهرست مطالب ══

‏ ○ آنالیز کلان داده و ساختار شبکه اجتماعی
‏ ○ آنالیز کلان داده و تحلیل شبکه‌های اجتماعی
‏ ○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
‏ ○ خلاصه و جمع‌بندی


🔸 آنالیز کلان داده و ساختار شبکه اجتماعی

‏داده های بزرگ یا «مِه داده» (Big data) زمینه‌ای است که روش‌های تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از داده‌ها را میسر می‌کند. در اغلب موارد نمی‌توان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه داده‌ها اگر به ساختار جدولی ثبت شوند، دارای ستون‌ها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.

‏چالش‌های آنالیز کلان داده‌ شامل «دریافت داده‌ها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل داده‌ها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.

‏کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روش‌های تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.


🔸 آنالیز کلان داده و تحلیل شبکه‌های اجتماعی

‏شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روش‌های ریاضی قابل درک و تجزیه و تحلیل است. شبکه‌ها، گروهی از «گره‌ها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شده‌اند و می‌توانند نشانگر هدایت جهت‌دار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونه‌هایی از شبکه‌های جهت‌دار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.

‏اغلب از شبکه‌ها برای یافتن دقیق اجتماعات نیز استفاده می‌کنند. این گره‌ها راس‌هایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروه‌های دیگر دارند، این امر به مانند افرادی است که در شبکه‌های اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص می‌کند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشه‌ها» (Clusters) کمک کند. با گسترش «شبکه‌های اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقاله‌ای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج می‌کند.

‏شناخت جوامع درون شبکه، ساختار آن‌ها را روشن می‌کند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروه‌های شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیه‌ها یا پیشنهادات یکسانی را می‌توان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آن‌ها، درست به هدف زده و انتظارمان از آن سیاست برآورده می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی

‏یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرم‌افزارهای محاسبات رایانه‌ای مانند SPSS را ناگزیر می‌کند. در هر طرح تحقیق آماری، گام‌ها و مراحلی باید طی شود که آن‌ها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گام‌های گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت می‌کند. این گام‌ها از تعیین هدف، جمع‌آوری داده‌ها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با داده‌ها و روش‌های آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.

══ فهرست مطالب ══

‏ ○ انجام تحلیل آماری با SPSS
‏ ○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
‏ ○ خلاصه و جمع‌بندی


🔸 انجام تحلیل آماری با SPSS

‏اگر به منظور انجام تحقیق علمی با داده‌ها روبرو هستید، باید روش‌های آماری مناسب را به کار ببرید. نوع داده‌ها، هدف تحقیق، محدودیت‌ها و امکانات سخت‌افزاری و نرم‌افزاری و حتی نحوه نمونه‌برداری و اندازه یا حجم نمونه‌گیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرم‌افزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشته‌های علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کرده‌ایم که نتایج بدست آمده از چنین طرح‌هایی، حداقل به اشتباه برداشت نشود.

‏قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدف‌های زیر را برای تحقیقات آماری تصور کرد.

‏– توصیف خصوصیات یک جامعه آماری

‏– برآورد بهترین آماره برای پارامتر جامعه

‏– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری

‏– مقایسه بین دو جامعه آماری

‏– شناسایی و تعیین رابطه بین جوامع آماری

‏– مدل‌سازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی

‏به یاد داشته باشید که نوع داده و مقیاس اندازه‌گیری آن‌ها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگی‌ها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، می‌توانیم نوع روش تحقیق را یکی از گونه‌های کمی، کیفی یا ترکیبی انتخاب کنیم.


🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس

‏استفاده نرم افزارهای محاسبات رایانه‌ای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشته‌های مختلفی از محاسبات و انجام آزمون‌های آماره بهره می‌برند. از طرفی بار محاسباتی بعضی از تکنیک‌های آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرم‌افزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرم‌افزار SPSS است که از طرف شرکت IBM پشتیبانی می‌گردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجی‌های آن نیز شرح داده شده. با استفاده از این آموزش می‌توانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.



مطالعه ادامه مطلب 👇👇

🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی

‏«یادگیری ماشین» (Machine Learning | ML) از روش‌های «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامه‌ریزی صریح را می‌دهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشین‌های هوشمندی است که با استفاده از مجموعه‌ای از داده‌ها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامه‌های هوشمندی است که بتوانند به داده‌ها دسترسی پیدا کنند و از آن‌ها برای یادگیری استفاده کنند.

══ فهرست مطالب ══

‏ ○ روش‌های ماشین لرنینگ
‏ ○ معرفی فیلم آموزش یادگیری ماشین فرادرس
‏ ○ جمع‌بندی


🔸 روش‌های ماشین لرنینگ

‏ماشین لرنینگ روش‌های گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمه‌نظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار می‌گیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمه‌نظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روش‌های یادگیری ماشین پرداخته شده است.

‏روش‌های نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه داده‌های ورودی (داده‌های آموزش | Train Data | Train Set) می‌کند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجی‌های مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط می‌کند که داده‌های ورودی بر اساس آن به داده‌های خروجی مبدل می‌شوند.

‏ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه داده‌های جدید با یک ضریب خطای مشخص، پیش‌بینی کند. این الگوریتم می‌تواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.


🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس

‏طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانی‌پور است. این دوره آموزشی برای علاقه‌مندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزه‌های مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانش‌شناسی، برنامه‌نویس‌ها و دیگر علاقه‌مندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین می‌توان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روش‌های کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.

‏– None



مطالعه ادامه مطلب 👇👇

🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی

‏در این مطلب، فهرستی از محبوب‌ترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.

══ فهرست مطالب ══

‏ ○ روش های بهینه سازی در یادگیری ماشین
‏ ○ گرادیان کاهشی
‏ ○ گرادیان کاهشی تصادفی
‏ ○ روش نرخ یادگیری تطبیقی
‏ ○ روش گرادیان مزدوج
‏ ○ بهینه‌سازی بدون مشتق
‏ ○ بهینه‌سازی مرتبه صفر
‏ ○ یادگیری متا
‏ ○ منابع آموزش روش های بهینه سازی در یادگیری ماشین


🔸 روش های بهینه سازی در یادگیری ماشین

‏«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکه‌های بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین می‌گوید:

‏تقلیل یافته‌ترین شکل «یادگیری ماشین» (Machine Learning) را می‌توان برازش منحنی دانست. از جهاتی می‌توان گفت که داشتن چنین رویکردی درست است. مدل‌های یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) داده‌ها در مدل بنا نهاده شده‌اند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) می‌شود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکه‌های عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب می‌شوند و از «روش‌های بهینه‌سازی» (Optimization) برای رسیدن به هدف استفاده می‌کنند.

‏روش‌های بهینه‌سازی پایه‌ای معمولا به سه دسته روش‌های «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روش‌های بهینه‌سازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم می‌شوند. به طور معمول، روش‌های بهینه‌سازی موجود، در دسته بهینه سازی مرتبه اول قرار می‌گیرند؛ از جمله این روش‌ها می‌توان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینه‌سازی، مطالب زیر پیشنهاد می‌شوند.


🔸 گرادیان کاهشی

‏«روش گرادیان کاهشی» (Gradient Descent Method) محبوب‌ترین روش بهینه‌سازی محسوب می‌شود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت می‌کند و به تدریج به مقدار بهینه تابع هدف همگرا می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟

‏آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاه‌های مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلم‌ها و داستان‌های علمی-تخیلی بسیار دیده‌ایم که ربات‌های دست‌یافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام می‌کنند. مسئله حمایت از حقوق سامانه‌های مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانه‌های مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کرده‌اند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه می‌کنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان می‌دهیم.

══ فهرست مطالب ══

‏ ○ آخرین دستاوردهای هوش مصنوعی
‏ ○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
‏ ○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
‏ ○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
‏ ○ استدلال‌هایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
‏ ○ نتیجه‌گیری


🔸 آخرین دستاوردهای هوش مصنوعی

‏امروزه بسیاری از دولت‌ها و شرکت‌های بزرگ بین‌المللی سرمایه‌گذاری عظیمی برای توسعه هوش مصنوعی و نرم‌افزارهای یادگیری ماشین کرده‌اند. هر کارآفرین دوراندیشی می‌داند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایه‌گذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاه‌های اقتصادی که از فناوری‌های هوش مصنوعی بهره می‌گیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشته‌اند.

‏بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همه‌گیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.

‏تحقیقات و پیشرفت‌های فناورانه در حوزه هوش مصنوعی می‌تواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفت‌های جدید باشیم. همین الآن قابلیت‌های هوش مصنوعی در بسیاری از حوزه‌ها تحولات جدی ایجاد کرده است؛ حوزه‌هایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمان‌های پزشکی شخصی‌شده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.


🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری

‏مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینه‌ها نیاز به مقررات جدید و روزآمد حس می‌شود. حقوق مالکیت فکری یکی از حوزه‌هایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانه‌های هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آن‌ها می‌توانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.

‏تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته می‌شدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کرده‌اند. آیا می‌توانیم برای ربات‌ها و نرم‌افزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر می‌گیریم. در نظام‌های حقوقی فعلی دنیا شخصیت حقوقی برای شرکت‌ها و سازمان‌ها و کشورها به رسمیت شناخته شده است. یعنی آن‌ها هم مثل انسان‌ها صاحب حقوق و تکالیفی هستند.



مطالعه ادامه مطلب 👇👇

🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from FaraDars_Course
‌‌
📣 به کدام زبان برنامه نویسی علاقه دارید؟

🌟 با پیوستن به کانال‌های «برنامه نویسی» فرادرس، یک بار و برای همیشه برنامه نویسی را یاد بگیرید.👇👇👇
‌‌‌

❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایش‌ها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده


🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]

📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.

Forwarded from FaraDars_Course

📣 معرفی «کانال‌های موضوعی فرادرس» در رشته‌های مختلف تحصیلی و تخصصی

🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇


📌کانال آموزش برنامه‌نویسی:
@FaraProg

📌کانال آموزش برنامه‌نویسی پایتون:
@FaraPython

📌کانال آموزش برنامه‌نویسی اندروید:
@FaraAnd

📌کانال آموزش برنامه‌نویسی جاوا:
@Fara_Java

📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev

📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim

📌کانال آموزش رباتیک:
@FaraRobotics

📌کانال آموزش هوش مصنوعی:
@FaraAI

📌کانال آموزش علم داده:
@Fara_DS

📌کانال آموزش علوم مهندسی:
@FaraEng

📌کانال آموزش مهندسی مکانیک:
@FaraMechanical

📌کانال آموزش مهندسی برق:
@FaraElectrical

📌کانال آموزش مهندسی عمران:
@FaraCivil

📌کانال آموزش معماری:
@FaraArch

📌کانال آموزش شیمی:
@FaraChem

📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng

📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign

📌کانال آموزش زبان‌های خارجی:
@FaraLang

📌کانال آموزش زیست‌شناسی:
@FaraBio

📌کانال آموزش فیزیک:
@FaraPhys

📌کانال آموزش ریاضیات:
@FaraMathematic

📌کانال آموزش آمار و احتمالات:
@FaraStatistics

📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice

📌کانال آموزش بورس و بازار سهام:
@FaraVest

📌کانال آموزش بازاریابی دیجیتال:
@Kaprila


@FaraDars — کانال اصلی فرادرس
✳️ معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل

‏«یادگیری ماشین» (Machine Learning) از جمله زمینه‌های پژوهشی روز است که کسب‌و‌کارهای زیادی در صدد بهره‌مندی از مزایای آن هستند. جذابیت موضوع از یک‌سو و فرصت‌های شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.

══ فهرست مطالب ══

‏ ○ یادگیری عمیق چیست؟
‏ ○ چرا باید از یادگیری عمیق استفاده کرد؟
‏ ○ ریاضیات پیش‌نیاز
‏ ○ دوره‌های هوش مصنوعی
‏ ○ پروژه‌های قابل انجام
‏ ○ مطالعات تکمیلی
‏ ○ نکته پایانی


🔸 یادگیری عمیق چیست؟

‏در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها» نیز پیشنهاد می‌شود.

‏به‌طور کلی، در هوش مصنوعی به مبحث ساخت برنامه‌های کامپیوتری حل مساله‌ای پرداخته می‌شود که برای حل یک مساله خاص به صراحت برنامه‌نویسی نشده‌اند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار می‌رود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جست‌و‌جوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.

‏در یادگیری ماشین، مدل‌های احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار می‌گیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکه‌های عصبی به عنوان مدل‌های آماری به منظور یادگیری استفاده می‌شود. شبکه‌های عصبی عمیق قدرتمند هستند زیرا می‌توانند هر تابعی را تخمین بزنند، و از این منظر با ساده‌ترین شکل «رگرسیون خطی» (linear regression) که تنها می‌تواند روابط خطی را تشریح کند قابل مقایسه هستند.


🔸 چرا باید از یادگیری عمیق استفاده کرد؟

‏یکی از انتقادهایی که از یادگیری عمیق می‌شود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام می‌دهد که انسان توانایی انجام آن را دارد. اما، مثال‌های جالب توجه بسیاری از هوش مصنوعی موجود است که نشان می‌دهد ماشین‌ها می‌توانند بیاموزند که در سطح ابرانسان بازی‌هایی مانند «گو» (Go) را انجام داده و یا بیماری‌ها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی می‌تواند بسیاری از کارها را در جوامع کنونی ارزان‌تر و موثرتر کند.



مطالعه ادامه مطلب 👇👇

🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی

‏درس هوش مصنوعی یکی از درس‌های تخصصی رشته‌های علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، می‌توان گفت این درس یکی از مهم‌ترین دروس رشته کامپیوتر به حساب می‌آید. به ویژه، برای دانشجویان و فارغ‌التحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیش‌نیازهای این درس فهرست شده‌اند. همچنین، چکیده‌ای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصل‌های درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شده‌اند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلم‌ها و دوره‌های آموزشی مرتبط با درس هوش مصنوعی معرفی شده‌اند.

══ فهرست مطالب ══

‏ ○ درس هوش مصنوعی چیست ؟
‏ ○ پیش نیاز درس هوش مصنوعی چیست ؟
‏ ○ منابع درس هوش مصنوعی چه هستند ؟
‏ ○ کتاب هوش مصنوعی راسل و نورویگ
‏ ○ هوش مصنوعی چیست ؟
‏ ○ چکیده درس هوش مصنوعی
‏ ○ معرفی فیلم آموزش درس هوش مصنوعی
‏ ○ فصل اول: معرفی هوش مصنوعی
‏ ○ فصل دوم: عامل‌های هوشمند
‏ ○ فصل سوم: حل مسائل با جستجو
‏ ○ فصل چهارم: فراتر از جستجوی سنتی
‏ ○ فصل پنجم: جستجوی خصمانه
‏ ○ فصل ششم: مسئله ارضای محدودیت
‏ ○ فصل هفتم: عامل‌های منطقی
‏ ○ معرفی فیلم های آموزش هوش مصنوعی
‏ ○ جمع‌بندی


🔸 درس هوش مصنوعی چیست ؟

‏درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستم‌های خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاه‌های ایران ارائه می‌شود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شده‌اند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک می‌کنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی می‌گذرانند.

‏درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار می‌رود. این درس برای دانشجویان و فارغ‌التحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب می‌شود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب می‌آید. در ادامه، به معرفی دروسی پرداخته شده است که پیش‌نیاز درس هوش مصنوعی به شمار می‌روند.


🔸 پیش نیاز درس هوش مصنوعی چیست ؟

‏پیش‌نیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتم‌ها است. در واقع، پیش‌نیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتم‌ها، ساختمان داده و پیچیدگی محاسباتی است.‌ پیش‌نیازهای درس ساختمان داده‌ها و الگوریتم‌ها درس‌های برنامه‌نویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامه‌نویسی پیش‌نیاز درس‌های برنامه‌نویسی پیشرفته و ریاضیات گسسته به حساب می‌آید.

‏کارگاه مبانی کامپیوتر هم‌نیاز درس مبانی برنامه‌نویسی و کارگاه برنامه‌نویسی پیشرفته نیز هم‌نیاز درس برنامه‌نویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز هم‌نیاز درس هوش مصنوعی محسوب می‌شود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیش‌نیاز درس ریاضی ۲ به شمار می‌رود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درس‌های زیر لازم است:

‏– ریاضی عمومی ۱
‏– ریاضی عمومی ۲
‏– ریاضیات گسسته
‏– مبانی برنامه‌نویسی
‏– کارگاه مبانی برنامه‌نویسی
‏– برنامه‌نویسی پیشرفته
‏– کارگاه برنامه‌نویسی پیشرفته
‏– ساختمان داده و الگوریتم‌ها


مطالعه ادامه مطلب 👇👇

🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده

‏یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته می‌شود، نوعی عملیات هک رمزنگاری‌شده (هک پنهانی | Cryptographic Hack) به حساب می‌آید. Brute Force حمله‌ای است که در آن ترکیب‌های ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان می‌شوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روش‌های فاقد بهره‌وری، با دقت برنامه‌ریزی شده و در مقیاس بزرگ انجام می‌شود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام می‌شود. در ادامه، توضیحات بیش‌تر و دقیق‌تری در این خصوص ارائه شده است.

══ فهرست مطالب ══

‏ ○ حمله Brute Force چیست ؟
‏ ○ حمله Brute Force با چه اهدافی انجام می‌شود؟
‏ ○ انواع حمله Brute Force
‏ ○ فیلم های آموزش شبکه های کامپیوتری
‏ ○ ابزارهای حمله Brute Force
‏ ○ دفاع در برابر Brute Force
‏ ○ معرفی فیلم های آموزش امنیت شبکه
‏ ○ جمع‌بندی


🔸 حمله Brute Force چیست ؟

‏حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالت‌های ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان می‌شود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها می‌سپارند تا آن‌ها ترکیب‌های مختلفی از نام‌های کاربری و گذرواژه‌ها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیده‌تر و دشوارتر خواهد بود.

‏هرچه یک پسورد طولانی‌تر باشد، طبیعتاً نیاز به امتحان کردن حالت‌های ممکن و ترکیب‌های بیش‌تری وجود خواهد داشت. یک حمله Brute Force می‌تواند بسیار زمان‌بر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهان‌سازی داده‌ها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکان‌پذیر است.

‏رمزگشایی گذرواژه‌های ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمان‌ها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانه‌های خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام می‌شود؟ در ادامه، به این سوال مهم پاسخ داده شده است.


🔸 حمله Brute Force با چه اهدافی انجام می‌شود؟

‏حملات Brute Force معمولاً‌ برای به‌دست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نام‌های کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته می‌شوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هک‌کننده یا پردازش‌هایی از این دست جهت اجرای رشته‌ای از اقدامات مکرر برای دست‌یابی به اطلاعات مورد نیاز استفاده می‌شود.

‏حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام می‌شود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روش‌های Brute Force راهی سریع برای انجام این کار به حساب می‌آیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان می‌توانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.



مطالعه ادامه مطلب 👇👇

🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش تصویر با پایتون — راهنمای کاربردی

‏در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزه‌های تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود و در حوزه‌های دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از داده‌های تصویری، نقش بسیار مهمی ایفا می‌کند.

══ فهرست مطالب ══

‏ ○ پردازش تصویر با پایتون
‏ ○ پردازش تصاویر با پایتون با ابزار SciKit-Image
‏ ○ کتابخانه Numpy و پردازش تصویر با پایتون
‏ ○ کتابخانه SciPy
‏ ○ کتابخانه‌های PIL و Pillow
‏ ○ کتابخانه OpenCV-Python
‏ ○ کتابخانه SimpleCV
‏ ○ کتابخانه Mahotas
‏ ○ کتابخانه SimpleITK
‏ ○ کتابخانه pgmagick
‏ ○ ابزار Pycairo
‏ ○ جمع‌بندی‌


🔸 پردازش تصویر با پایتون

‏تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شده‌اند. این دسته از ابزارها، «کتابخانه‌ها» (Libraries) و «بسته‌های» (Packages) برنامه‌نویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این داده‌ها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامه‌نویسان قرار می‌دهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را می‌دهند تا به شکل بسیار ساده و «شهودی» (Intuitive) داده‌های تصویری را تحلیل و اطلاعات بامعنی از آن‌ها استخراج کنند.

‏جهان امروز و زندگی انسان‌ها، توسط داده‌ها احاطه شده‌اند و تصاویر بخش عمده‌ای از این داده‌ها را تشکیل می‌دهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آن‌ها یا استخراج اطلاعات مفید از تصاویر انجام می‌شود.

‏زبان پایتون می‌تواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداول‌ترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانه‌های این زبان برنامه‌نویسی قابل اجرا هستند، می‌توان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعه‌بندی تصویر» (Image Segmentation)، «دسته‌بندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.


🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image

‏ابزار SciKit-Image، یک بسته برنامه‌نویسی «منبع باز» (Open Source) است که با ساختار آرایه‌ای تعریف شده توسط کتابخانه NumPy کار می‌کند. این ابزار، یکی از مهم‌ترین کتابخانه‌های پردازش تصویر با پایتون محسوب می‌شود که به طور رایگان در دسترس کاربران و برنامه‌نویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعه‌ای از الگوریتم‌ها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.

‏کار کردن با توابع و الگوریتم‌های SciKit-Image (که جهت پردازش تصویر با پایتون استفاده می‌شوند)، حتی برای کسانی که برنامه‌نویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیاده‌سازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامه‌نویسی بسیار فعال و متشکل از برنامه‌نویسان داوطلب پشتیبانی و به‌روزرسانی می‌شوند.

‏این بسته را می‌توان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتم‌های پیاده‌سازی شده را می‌توان در «زیر واحدهای» (Submodules) این بسته برنامه‌نویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده


📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
‌‌‌