FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده

‏یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته می‌شود، نوعی عملیات هک رمزنگاری‌شده (هک پنهانی | Cryptographic Hack) به حساب می‌آید. Brute Force حمله‌ای است که در آن ترکیب‌های ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان می‌شوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روش‌های فاقد بهره‌وری، با دقت برنامه‌ریزی شده و در مقیاس بزرگ انجام می‌شود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام می‌شود. در ادامه، توضیحات بیش‌تر و دقیق‌تری در این خصوص ارائه شده است.

══ فهرست مطالب ══

‏ ○ حمله Brute Force چیست ؟
‏ ○ حمله Brute Force با چه اهدافی انجام می‌شود؟
‏ ○ انواع حمله Brute Force
‏ ○ فیلم های آموزش شبکه های کامپیوتری
‏ ○ ابزارهای حمله Brute Force
‏ ○ دفاع در برابر Brute Force
‏ ○ معرفی فیلم های آموزش امنیت شبکه
‏ ○ جمع‌بندی


🔸 حمله Brute Force چیست ؟

‏حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالت‌های ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان می‌شود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها می‌سپارند تا آن‌ها ترکیب‌های مختلفی از نام‌های کاربری و گذرواژه‌ها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیده‌تر و دشوارتر خواهد بود.

‏هرچه یک پسورد طولانی‌تر باشد، طبیعتاً نیاز به امتحان کردن حالت‌های ممکن و ترکیب‌های بیش‌تری وجود خواهد داشت. یک حمله Brute Force می‌تواند بسیار زمان‌بر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهان‌سازی داده‌ها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکان‌پذیر است.

‏رمزگشایی گذرواژه‌های ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمان‌ها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانه‌های خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام می‌شود؟ در ادامه، به این سوال مهم پاسخ داده شده است.


🔸 حمله Brute Force با چه اهدافی انجام می‌شود؟

‏حملات Brute Force معمولاً‌ برای به‌دست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نام‌های کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته می‌شوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هک‌کننده یا پردازش‌هایی از این دست جهت اجرای رشته‌ای از اقدامات مکرر برای دست‌یابی به اطلاعات مورد نیاز استفاده می‌شود.

‏حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام می‌شود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روش‌های Brute Force راهی سریع برای انجام این کار به حساب می‌آیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان می‌توانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.



مطالعه ادامه مطلب 👇👇

🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش تصویر با پایتون — راهنمای کاربردی

‏در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزه‌های تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود و در حوزه‌های دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از داده‌های تصویری، نقش بسیار مهمی ایفا می‌کند.

══ فهرست مطالب ══

‏ ○ پردازش تصویر با پایتون
‏ ○ پردازش تصاویر با پایتون با ابزار SciKit-Image
‏ ○ کتابخانه Numpy و پردازش تصویر با پایتون
‏ ○ کتابخانه SciPy
‏ ○ کتابخانه‌های PIL و Pillow
‏ ○ کتابخانه OpenCV-Python
‏ ○ کتابخانه SimpleCV
‏ ○ کتابخانه Mahotas
‏ ○ کتابخانه SimpleITK
‏ ○ کتابخانه pgmagick
‏ ○ ابزار Pycairo
‏ ○ جمع‌بندی‌


🔸 پردازش تصویر با پایتون

‏تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شده‌اند. این دسته از ابزارها، «کتابخانه‌ها» (Libraries) و «بسته‌های» (Packages) برنامه‌نویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این داده‌ها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامه‌نویسان قرار می‌دهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را می‌دهند تا به شکل بسیار ساده و «شهودی» (Intuitive) داده‌های تصویری را تحلیل و اطلاعات بامعنی از آن‌ها استخراج کنند.

‏جهان امروز و زندگی انسان‌ها، توسط داده‌ها احاطه شده‌اند و تصاویر بخش عمده‌ای از این داده‌ها را تشکیل می‌دهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آن‌ها یا استخراج اطلاعات مفید از تصاویر انجام می‌شود.

‏زبان پایتون می‌تواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداول‌ترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانه‌های این زبان برنامه‌نویسی قابل اجرا هستند، می‌توان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعه‌بندی تصویر» (Image Segmentation)، «دسته‌بندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.


🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image

‏ابزار SciKit-Image، یک بسته برنامه‌نویسی «منبع باز» (Open Source) است که با ساختار آرایه‌ای تعریف شده توسط کتابخانه NumPy کار می‌کند. این ابزار، یکی از مهم‌ترین کتابخانه‌های پردازش تصویر با پایتون محسوب می‌شود که به طور رایگان در دسترس کاربران و برنامه‌نویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعه‌ای از الگوریتم‌ها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.

‏کار کردن با توابع و الگوریتم‌های SciKit-Image (که جهت پردازش تصویر با پایتون استفاده می‌شوند)، حتی برای کسانی که برنامه‌نویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیاده‌سازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامه‌نویسی بسیار فعال و متشکل از برنامه‌نویسان داوطلب پشتیبانی و به‌روزرسانی می‌شوند.

‏این بسته را می‌توان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتم‌های پیاده‌سازی شده را می‌توان در «زیر واحدهای» (Submodules) این بسته برنامه‌نویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده


📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
‌‌‌
✳️ شبکه‌های عصبی مصنوعی – از صفر تا صد

‏مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازنده‌اش، بیشتر از پردازنده‌های ابررایانه‌های امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصال‌های فراوان موجود میان اجزای آن بازمی‌گردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستم‌های دیگر متمایز می کند.

══ فهرست مطالب ══

‏ ○ پرسپترون چند‌لایه یا MLP
‏ ○ شبکه های عصبی شعاعی یا RBF
‏ ○ ماشین‌های بردار پشتیبان یا SVM
‏ ○ نگاشت‌های خود‌سازمان‌ده یا SOM
‏ ○ یادگیرنده رقمی‌ساز بردار یا LVQ
‏ ○ شبکه عصبی هاپفیلد یا Hopfield
‏ ○ مراجع مطالعاتی و منابع آموزشی مهم
‏ ○ کتاب های خارجی
‏ ○
‏ ○ کتاب های فارسی
‏ ○ منابع آموزشی آنلاین


🔸 پرسپترون چند‌لایه یا MLP

‏یکی از پایه‌ای‌ترین مدل‌های عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیه‌سازی می‌کند. در این نوع شبکه عصبی، بیشتر رفتار شبکه‌ای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکه‌های پیش‌خورد (Feedforward Networks) نیز خوانده می‌شوند. هر یک از سلول‌های عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام می‌دهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال می‌دهند. این رفتار تا حصول نتیجه‌ای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.


🔸 شبکه های عصبی شعاعی یا RBF

‏مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آن‌ها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدل‌سازی می‌شود. از نظر ساختار کلی، شبکه‌های عصبی RBF تفاوت چندانی با شبکه‌های MLP ندارند و صرفا نوع پردازشی که نورون‌ها روی ورودهای‌شان انجام می‌دهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آماده‌سازی سریع‌تری هستند. در واقع، به دلیل تمرکز نورون‌ها بر محدوده عملکردی خاص، کار تنظیم آن‌ها، راحت‌تر خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 شبکه‌های عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ الگوریتم ژنتیک – از صفر تا صد

‏الگوریتم‌ ژنتیک (GA | Genetic Algorithms)، خانواده‌ای از «مدل‌های محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته‌ شده‌اند. این دسته از الگوریتم‌ها، «جواب‌های محتمل» (Potential Solutions) یا «جواب‌های کاندید» (Candidate Solutions) و یا «فرضیه‌های محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار داده‌ای «کروموزوم مانند» (Chromosome-like) کدبندی می‌کنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای داده‌ای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای داده‌ای را حفظ می‌کند.

══ فهرست مطالب ══

‏ ○ مقدمه
‏ ○ انتخاب طبیعی
‏ ○ تکامل شبیه‌سازی شده
‏ ○ فرهنگ لغات الگوریتم ژنتیک
‏ ○
‏ ○ الگوریتم ژنتیک متعارف
‏ ○ نمایش عملکرد الگوریتم ژنتیک در بهینه‌سازی توابع
‏ ○ تفاوت الگوریتم ژنتیک و الگوریتم‌های بهینه‌سازی و جستجوی سنتی
‏ ○ کاربردهای الگوریتم ژنتیک
‏ ○ کدهای پیاده‌سازی الگوریتم ژنتیک در زبان‌های برنامه‌نویسی مختلف
‏ ○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
‏ ○ جمع‌بندی


🔸 مقدمه

‏بسیاری از اختراعات بشری از طبیعت الهام گرفته شده‌اند. «شبکه‌های عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتم‌های ژنتیک، با «شبیه‌سازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جواب‌های کاندید» (Candidate Solution Space) می‌پردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جواب‌های ابتدایی تولید می‌شود. سپس، در «نسل‌های» (Generations) متوالی، مجموعه‌ای از جواب‌های تغییر یافته تولید می‌شوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژن‌های کروموزوم‌های تشکیل دهنده جمعیت ایجاد می‌شود). جواب‌های اولیه معمولا به شکلی تغییر می‌کنند که در هر نسل، جمعیت جواب‌ها به سمت جواب بهینه «همگرا» (Converge) می‌شوند.

‏این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونه‌های موفق‌تر و برازنده‌تر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتم‌های ژنتیک، «بقای برازنده‌ترین‌ها» (Survival of the Fittest) است.

‏یک کروموزوم، رشته‌ای بلند و پیچیده از «اسید دی‌اکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگی‌ها یا خصیصه‌های یک «فرد» (Individual) را مشخص می‌کنند، در طول این کروموزوم‌ها نقش یافته‌اند. هر یک از خصیصه‌های موجود در افراد، به وسیله ترکیبی از DNA، در ژن‌های انسان کدبندی می‌شوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزوم‌ها از روی DNA وجود دارد:


🔸 انتخاب طبیعی

‏در طبیعت، موجوداتی که ویژگی‌های برازنده‌تری نسبت به دیگر گونه‌ها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه می‌دهند. چنین ویژگی‌ای، این امکان را در اختیار برازنده‌ترین موجودات زنده قرار می‌دهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگی‌های ارثی خود را از «ژن‌های» (Genes) موجودات برتر و تعداد کمی از ویژگی‌های خود را از ژن‌های موجودات «رده پایین» (Inferior) با ژن‌ها یا ویژگی‌های نامرغوب به ارث خواهند برد.

‏به بیان ساده‌تر، موجودات برازنده‌تر زنده می‌مانند و موجودات نامناسب از بین می‌روند. به این فرایند و نیروی شگفت‌انگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته می‌شود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونه‌های مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمی‌دهند، بلکه صرفا موجودات برازنده‌تر به بقاء خود ادامه می‌دهند.



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش تصویر در متلب — راهنمای جامع

‏در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروف‌ترین «تولباکس‌های» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).

══ فهرست مطالب ══

‏ ○ پردازش تصویر
‏ ○ متلب
‏ ○ تصویر دیجیتالی چیست؟
‏ ○ دستورات ابتدایی پردازش تصویر در متلب
‏ ○ تکنیک‌های پیشرفته پردازش تصویر در متلب
‏ ○ انواع تصاویر
‏ ○ کیفیت تصویر
‏ ○ هیستوگرام تصویر
‏ ○ روش آستانه‌گذاری در تولباکس پردازش تصویر در متلب
‏ ○ دقیق کردن و نمایان‌سازی ویژگی‌های بارز موجود در تصاویر (Image Sharpening)
‏ ○ جمع‌بندی


🔸 پردازش تصویر

‏«پردازش تصویر» (Image Processing) به مجموعه‌ای از تکنیک‌هایی اطلاق می‌شود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفته‌اند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخه‌ای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آن‌ها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق می‌افتند، معمولا به طور خودکار و بر پایه مجموعه‌ای از الگوریتم‌های به دقت طراحی شده انجام می‌شوند. این دسته از الگوریتم‌های پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.

‏حوزه پردازش تصویری، یک حوزه «چند رشته‌ای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشته‌های علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، هم‌پوشانی بسیار زیادی با حوزه‌های تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.

‏برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسط‌هایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربین‌های دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) می‌شوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشرده‌سازی داده‌ها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید می‌شوند.


🔸 متلب

‏محیط محاسبات عددی و زبان برنامه‌نویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامه‌نویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.

‏در این محیط برنامه‌نویسی، توسعه‌دهندگان قادرند تا از روش‌های «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روش‌های نمایش داده و الگوریتم‌های توسعه داده شده در متلب، برای پیاده‌سازی روش‌های هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامه‌نویسی مستقیم را با برنامه‌های نوشته شده به زبان‌های دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعه‌دهندگان فراهم آورده است.

‏الگوریتم‌های پردازش تصویر در متلب، مجموعه‌ای از توابع هستند که قابلیت‌های محیط محاسبات عددی متلب را گسترش می‌دهند. تولباکس پردازش تصویر در متلب، مجموعه‌ای از «الگوریتم‌های مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتم‌های پردازش تصویر در متلب فراهم می‌آورد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مقدمه‌ای بر الگوریتم ژنتیک

‏مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزوم‌ها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح می‌دهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب می‌توانند به اینجا مراجعه کنند.

══ فهرست مطالب ══

‏ ○ ۱. منبع الهام الگوریتم ژنتیک
‏ ○ ۲. ارتباط با زیست‌شناسی
‏ ○ ۳. الگوریتم ژنتیک چیست؟
‏ ○ ۴. گام‌های الگوریتم ژنتیک
‏ ○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
‏ ○ کاربرد الگوریتم ژنتیک در دنیای واقعی


🔸 ۱. منبع الهام الگوریتم ژنتیک

‏چارلز داروین (Charles Darwin) یک نقل‌قول معروف دارد: “نه قوی‌ترین فرد یک گونه زنده می‌ماند نه باهوش‌ترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده می‌ماند.” در واقع کل مفهوم الگوریتم ژنتیک بر‌اساس این نقل ‌قول است. برای فهم بهتر به مثال زیر توجه کنید:

‏فرض کنید شما رهبر یک شهر هستید و می‌خواهید شهرتان را از اتفاقات بد مصون نگه‌دارید. پس سیاست زیر را درپیش بگیرید:

‏– تمام انسان‌های خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.

‏– این کار را تا چند نسل تکرار کنید.

‏– حال کل جمعیت شهر انسانهای خوب هستند.

‏این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیست‌شناسی مربوط است. در‌ادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.


🔸 ۲. ارتباط با زیست‌شناسی

‏می‌دانیم، سلول‌ها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشته‌های DNA هستند.

‏عموماً، این کروموزوم‌ها به‌صورت رشته‌های صفر‌و‌یکی نمایش داده می‌شوند.

‏کروموزوم از ژن‌ (Gene) تشکیل شده‌است. هر ژن یک ویژگی خاص را رمزگذاری می‌کند. مثل رنگ مو و چشم.



مطالعه ادامه مطلب 👇👇

🔗 مقدمه‌ای بر الگوریتم ژنتیک — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


🔴 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 معرفی آموزش‌های رایگان و پرطرفدار فرادرس

♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط ده‌ها هزار دانشجو مورد مطالعه قرار می‌گیرند.
شما عزیزان نیز می‌توانید با مراجعه به لینک‌های زیر، آموزش‌های پرمخاطب در دسته‌بندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇


آموزش‌های رایگان هوش مصنوعی و یادگیری ماشین [+]


📚 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars - فرادرس
✳️ اصطلاحات یادگیری عمیق — راهنمای کاربردی

‏در این مطلب، مهم‌ترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفته‌اند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر می‌کند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسان‌ها را تشکیل می‌دهند. (مارک کوبان) در این مورد می‌گوید:

══ فهرست مطالب ══

‏ ○ این مقاله برای چه کسانی مناسب است؟
‏ ○ برخی اصطلاحات یادگیری عمیق
‏ ○ ۱. مقدمات شبکه‌های عصبی
‏ ○ شبکه‌های عصبی کانولوشن
‏ ○ ۵) تقویت داده‌ها
‏ ○ شبکه‌های عصبی بازگشتی


🔸 این مقاله برای چه کسانی مناسب است؟

‏اگر علاقه‌مند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده می‌شوند، می‌پردازیم. درک یادگیری عمیق می‌تواند کمی سخت و طاقت‌فرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» می‌باشد که در هرکجا به واژه‌ای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.


🔸 برخی اصطلاحات یادگیری عمیق

‏برای اینکه درک اصطلاحات راحت‌تر باشد، آن‌ها را به ۳ گروه تقسیم کرده‌ایم. اگر فقط دنبال یک مفهوم خاصی می‌گردید، می‌توانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه می‌شود.

‏– مقدمات شبکه‌های عصبی

‏– شبکه‌های عصبی کانولوشن

‏– شبکه‌های عصبی بازگشتی



مطالعه ادامه مطلب 👇👇

🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع

‏اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شده‌اید. سیستم‌های دیپ فیک (جعل عمیق) ‌که سیستم‌های مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب می‌شوند، در نگاه اول شاید فناوری سرگرم کننده‌ای به نظر برسند، با این حال، با بررسی دقیق کاربرد آن‌ها می‌توان دریافت از این دسته از فناوری‌ها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایل‌های ویدیوئی مورد استفاده قرار می‌گیرند.

══ فهرست مطالب ══

‏ ○ دیپ فیک (جعل عمیق | DeepFake)
‏ ○ شبکه‌های مولد تخاصمی
‏ ○ شبکه‌های مولد تخاصمی برای تولید ویدئوهای دیپ فیک‌
‏ ○ تاریخچه دیپ فیک (جعل عمیق)
‏ ○ محدودیت‌های سیستم‌های تولید دیپ فیک
‏ ○ کاربرد سیستم‌های تولید دیپ فیک در جهان واقعی
‏ ○ جمع‌بندی


🔸 دیپ فیک (جعل عمیق | DeepFake)

‏دیپ فیک (جعل عمیق)، یکی از فناوری‌های نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایل‌های ویدئویی مورد استفاده قرار می‌گیرد؛ به گونه‌ای که محتویات نمایش داده شده در فایل‌های ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.

‏نام‌گذاری چنین فناوری‌هایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکه‌های اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته می‌شود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آن‌ها روی بازیگران فیلم‌های غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.

‏غالب سیستم‌های دیپ فیک مبتنی بر روش‌های یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آن‌ها ویدئوهای دیپ فیک تولید می‌شوند، مبتنی بر تکنیک‌های خاصی به نام شبکه‌های مولد تخاصمی هستند. شبکه‌های مولد تخاصمی که به اختصار به آن‌ها شبکه‌های GAN نیز گفته می‌شود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.


🔸 شبکه‌های مولد تخاصمی

‏شبکه‌های مولد تخاصمی (GAN)، کلاسی از الگوریتم‌‌های یادگیری ماشین محسوب می‌شوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکه‌‎های مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت می‌کند) با یکدیگر به رقابت می‌پردازند.

‏با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکه‌های مولد تخاصمی یاد می‌گیرد تا داده‌های جدیدی تولید کند که آماره برابری با آماره داده‌های آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر می‌رسند و بسیاری از ویژگی‌های مشخصه یک تصویر دیجیتالی واقعی را از خود نشان می‌دهند.

‏شبکه‌های مولد تخاصمی از دو بخش تشکیل شده‌اند: «شبکه‌های مولد» (Generative Network) و «شبکه‌های متمایزگر یا تمایزی» (Discriminator). شبکه‌های مولد وظیفه تولید داده‌های کاندید را بر عهده دارند، در حالی که شبکه‌های متمایزگر، وظیفه ارزیابی داده‌های کاندید تولید شده را بر عهده دارند.



مطالعه ادامه مطلب 👇👇

🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from مجله فرادرس

📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس


1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد

‏───────────────

2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی

‏───────────────

3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع

‏───────────────

4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع

‏───────────────

5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها


#هوش_مصنوعی


📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog


@FaraDarsMag — مجله فرادرس
👍1
✳️ الگوریتم کلونی مورچگان — از صفر تا صد

‏الگوریتم کلونی مورچگان یا در حقیقت «بهینه‌سازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونی‌های مورچگان و مورچگان کارگر شاغل در آن‌ها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچه‌ها عملیات کاوش برای یافتن منابع غذایی را آغاز می‌کنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا می‌کنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیه‌سازی چنین رفتار بهینه‌ای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل می‌دهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته می‌شود.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر الگوریتم کلونی مورچگان
‏ ○ گذار از ویژگی‌های زیستی به الگوریتم‌های کامپیوتری
‏ ○ روش فرا اکتشافی الگوریتم کلونی مورچگان
‏ ○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دوره‌گرد» (TSP)
‏ ○ پیاده‌سازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دوره‌گرد در متلب
‏ ○ کاربردهای الگوریتم کلونی مورچگان
‏ ○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
‏ ○ جمع‌بندی


🔸 مقدمه‌ای بر الگوریتم کلونی مورچگان

‏در این مطب سعی بر آن است تا ویژگی‌ها و مراحل پیاده‌سازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچه‌ها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینه‌سازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب می‌شود.

‏الگوریتم‌های مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعه‌ای از روش‌های «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روش‌ها، حوزه تحقیقاتی و مطالعاتی به شمار می‌آیند که به مطالعه الگوریتم‌های الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) می‌پردازند. الگوریتم‌های هوش ازدحامی از مجموعه‌ای از موجودیت‌های فردی ساده تشکیل شده‌اند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری می‌کنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.


🔸 گذار از ویژگی‌های زیستی به الگوریتم‌های کامپیوتری

‏پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچه‌ها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط می‌شوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچه‌ها در طبیعت مورد بررسی قرار داده می‌شود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهام‌بخش تولید الگوریتم کلونی مورچگان شده‌اند.

‏حشره‌شناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سال‌های اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانه‌ها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشره‌ای می‌تواند به سیگنال‌های «محرک‌» (Stimuli) محیطی واکنش نشان دهد. چنین محرک‌هایی، به نوبه خود، نوعی واکنش برنامه‌نویسی شده ژنتیکی در این موجودات را فعال می‌کند.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها

‏«علم داده» (data science)، «تحلیل داده‌ها» (Data analytics)، «یادگیری ماشین» (machine learning) و «داده‌کاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از این‌رو شرکت‌ها به‌دنبال کارشناسانی می‌گردند که با کیمیاگری داده‌ها به آن‌ها در اتخاذ تصمیم‌های چابک، اثرگذار و کارا در کسب‌و‌کار کمک کنند.

══ فهرست مطالب ══

‏ ○ علم داده چیست؟
‏ ○ چه مهارت‌هایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
‏ ○ تحلیل‌گر داده کیست؟
‏ ○ چه مهارت‌هایی برای مبدل شدن به یک تحلیل‌گر داده مورد نیاز است؟
‏ ○ آیا بین علم داده و تحلیل داده هم‌پوشانی وجود دارد؟
‏ ○ یادگیری ماشین چیست؟
‏ ○ چه مهارت‌هایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
‏ ○ آیا بین یادگیری ماشین و علم داده هم‌پوشانی وجود دارد؟
‏ ○ داده‌کاوی چیست؟
‏ ○ چه مهارت‌هایی برای تبدیل شدن به یک داده‌کاو مورد نیاز است؟
‏ ○ آیا همپوشانی بین داده‌کاوی و علم داده وجود دارد؟


🔸 علم داده چیست؟

‏افراد زیادی برای بیش از یک دهه تلاش کرده‌اند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنه‌ای که محاسبات و خلاصه‌سازی در آن انجام می‌شود) و مهارت‌های هک می‌شود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.

‏علم داده مفهومی است که برای کار با داده‌های کلان (مِه‌داده) به کار می‌رود و شامل پاکسازی، آماده‌سازی و تحلیل داده می‌شود. یک دانشمند داده، داده‌ها را از چندین منبع گردآوردی کرده و تحلیل‌های پیش‌بین و یادگیری ماشین را بر آن‌ها اعمال می‌کند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه داده‌های گردآوری شده بهره می‌برد. این دانشمندان، داده‌ها را از نقطه نظر کسب‌و‌کار درک می‌کنند و قادر به فراهم کردن پیش‌بینی‌ها و بینش‌های صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسب‌وکار قابل استفاده است.


🔸 چه مهارت‌هایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟

‏هر کسی که به ساخت موقعیت شغلی قدرتمند‌تر در این دامنه علاقمند است، باید مهارت‌های کلیدی در سه حوزه تحلیل، برنامه‌نویسی و دانش دامنه را کسب کند. با نگاهی عمیق‌تر، می‌توان گفت مهارت‌های بیان شده در زیر می‌تواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.

‏– دانش قوی از پایتون، R، اسکالا و SAS

‏– مهارت داشتن در نوشتن کدهای پایگاه داده SQL

‏– توانایی کار با داده‌های ساختار نیافته از منابع گوناگون مانند ویدئو و شبکه‌های اجتماعی

‏– درک توابع تحلیل چندگانه

‏– دانش یادگیری ماشین



مطالعه ادامه مطلب 👇👇

🔗 علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس


📱 در شبکه‌های اجتماعی فرادرس چه مطالبی منتشر می‌شود؟

✔️ اطلاع‌رسانی فرصت‌های ویژه و جشنواره‌های تخفیف

✔️ اطلاع‌رسانی جدیدترین آموزش‌های منتشر شده همراه با تخفیف ویژه انتشار

✔️ انتشار مطالب، مقالات و ویدئوهای آموزشی رایگان

✔️ اطلاع‌رسانی آخرین رویدادها و وبینارها

✔️ برگزاری مسابقات و طرح‌های تخفیف همراه با هدایای آموزشی


☸️ فرادرس را در شبکه‌های اجتماعی و کانال‌های ارتباطی مختلف دنبال کنید.👇👇👇


📌 اینستاگرام
🔗 instagram.com/FaraDars

📌 یوتیوب
🔗 youtube.com/c/FaraDarsCourses

📌 لینکدین
🔗 linkedin.com/company/FaraDars

📌 توئیتر
🔗 twitter.com/FaraDars

📌 کانال رسمی تلگرام
🔗 t.me/FaraDars

📌 کانال فرصت‌های ویژه (فراپُن)
🔗 t.me/FaraPon

📌 کانال تازه‌های نشر
🔗 t.me/FDPub

📌 کانال‌های موضوعی و تخصصی
🔗 t.me/faradars/5006



_______________

📚 فرادرس
دانش در دسترس همه
همیشه و همه جا


@FaraDars — فرادرس
✳️ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی


══ فهرست مطالب ══

‏ ○ دوره‌های هوش مصنوعی یودمی
‏ ○ دوره‌های هوش مصنوعی کورسرا
‏ ○ دوره‌های هوش مصنوعی EdX
‏ ○ دوره‌های هوش مصنوعی یوداسیتی
‏ ○ آموزش‌های هوش مصنوعی و یادگیری ماشین فرادرس


🔸 دوره‌های هوش مصنوعی یودمی

‏دوره‌های آموزشی ارائه شده در این وب‌سایت دارای سه سطح مقدماتی، متوسطه و پیشرفته (دارای جنبه‌های تخصصی و فنی برجسته) هستند، لذا محتوای آموزشی یودمی در ادامه در دو بخش «مبتدی» جهت افراد غیر متخصص و «تخصصی» ویژه دانشجویان دارای توانایی برنامه‌نویسی، معرفی شده است.

‏در این دوره که تاکنون بیش از ۱۱۰۰ دانشجو داشته، به مباحث هوش مصنوعی، علوم داده و کشف داده پرداخته شده است. با مشاهده مجموعه آموزشی یاد شده و انجام تمرینات لازم، دانشجو می‌آموزد که چگونه از ابزار هوش مصنوعی Einstein Discovery برای خودکارسازی فرآیندها و تصمیم‌سازی استفاده کند. پیش‌نیازهای دوره داشتن دسترسی به رایانه، اینترنت و علاقمندی به مباحث یادگیری ماشین و هوش مصنوعی است. این دوره ۲۶ ویدئو آموزشی با مدت زمان کل ۱:۵۲:۳۶ را شامل می‌شود.

لینک صفحه این دوره آموزشی(+)


🔸 دوره‌های هوش مصنوعی کورسرا

‏کورسرا دوره‌های آموزشی متنوعی در زمینه هوش مصنوعی ارائه می‌کند که دانشجو با مشاهده آن‌ها می‌تواند طی چند هفته دانش خوبی در این حوزه کسب کند. برخی از این دوره‌ها در ادامه معرفی شده‌اند.

‏مدرس این دوره «اندرو وو»، یکی از بانفوذترین افراد در حوزه هوش مصنوعی و دانشمند علوم رایانه‌ای است. دوره «یادگیری ماشین» به زبان‌های انگلیسی، فرانسوی، هندی و ژاپنی در دسترس قرار دارد و به‌گونه‌ای تنظیم شده که دانشجو طی یازده هفته بتواند سطح دانش خوبی از مبحث یادگیری ماشین داشته باشد. رگرسیون خطی تک متغیره و چند متغیره، رگرسیون لوجستیک، جبر خطی، شبکه‌های عصبی، طراحی سیستم یادگیری ماشین، ماشین بردار پشتیبان، یادگیری نظارت نشده، کاهش ابعاد، تشخیص ناهنجاری، سیستم‌های توصیه‌گر و یادگیری ماشین بزرگ مقیاس، برخی از سرفصل‌های ارائه شده در این دوره آموزشی هستند.

‏لینک صفحه این دوره آموزشی(+)



مطالعه ادامه مطلب 👇👇

🔗 معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ الگوریتم تپه نوردی – مبانی و مفاهیم

‏تپه‌نوردی یک تکنیک بهینه‌سازی متعلق به خانواده الگوریتم‌های جستجوی محلی است؛ یک تکنیک تکرارشونده که با یک راه‌حل دلخواه شروع به کار کرده و سپس تلاش می‌کند تا با تغییر بر روی یک عنصر از راه حل، به پاسخ بهتری دست پیدا کند. اگر این تغییر منجر به ایجاد یک راه حل بهتر شود، تغییر دیگری بر روی این راه حل جدید انجام خواهد گرفت. این روال تا زمانی که بهبود بیشتری در راه حل میسر نباشد ادامه می‌یابد.

══ فهرست مطالب ══

‏ ○ تعریف ریاضی الگوریتم تپه‌نوردی


🔸 تعریف ریاضی الگوریتم تپه‌نوردی

‏تپه‌نوردی تلاش می‌کند تا تابع هدف (f(x را بیشینه (یا کمینه) کند، که x برداری از مقادیر پیوسته و/یا گسسته است. در هر تکرار، تپه‌نوردی یک عنصر از x را تنظیم کرده و بررسی می‌کند که آیا این تغییر باعث بهبود مقدار (f(x شده است یا خیر. (توجه کنید که این با متدهای گرادیان نزولی متفاوت است. در گرادیان نزولی تمام مقادیر x در هر تکرار بر حسب گرادیان تپه با هم تنظیم می‌شوند.) در تپه‌نوردی هر تغییری که باعث بهبود (f(x شود قابل قبول است و این پروسه تا زمانی که هیچ تغییری منجر به بهبود مقدار (f(x نگردد، ادامه می‌یابد. در این مرحله، x به عنوان “بهینه محلی” و خروجی الگوریتم خواهد بود.

‏تا کنون نسخه‌های بهبود یافته مختلفی از این تکنیک ارائه شده‌اند که می‌توان در آن بین به steepest ascent hill climbing، Stochastic hill climbing، و Shotgun hill climbing اشاره کرد.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم تپه نوردی – مبانی و مفاهیم — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ الگوریتم کرم شب تاب — از صفر تا صد

‏«الگوریتم‌های الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتم‌های «بهینه‌سازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینه‌سازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار می‌گیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتم‌های بهینه‌سازی مشابه متمایز می‌کند، عملکرد بسیار خوب آن در جستجوی جواب‌های بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایده‌آلی برای کاربردهای بهینه‌سازی چندمُدی تبدیل شود.

══ فهرست مطالب ══

‏ ○ مقدمه
‏ ○ الگوریتم بهینه‌سازی ازدحام ذرات (PSO)
‏ ○ الگوریتم کرم شب تاب
‏ ○ بهینه‌سازی چندمُدی با بهینه‌های چندگانه
‏ ○ پیاده‌سازی الگوریتم کرم شب تاب در زبان‌های برنامه‌نویسی مختلف
‏ ○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
‏ ○ جمع‌بندی


🔸 مقدمه

‏«بهینه‌سازی» (Optimization)، به فرآیند تغییر و دستکاری ورودی‌ها، عملیات ریاضی یا خصوصیات یک دستگاه گفته می‌شود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام می‌شود. ورودی‌ فرآیند بهینه‌سازی، متغیرهای مسأله‌ای هستند که قرار است به وسیله یکی از الگوریتم‌های خانواده روش‌های «بهینه‌سازی عددی» (Numerical Optimization) پردازش و جواب‌های بهینه آن مشخص شود. خروجی فرآیند بهینه‌سازی، «برازندگی» (Fitness) نامیده می‌شود؛ به فرآیند یا تابعی که قرار است توسط الگوریتم‌های بهینه‌سازی پردازش شود، «تابع هدف» (Objective Function) گفته می‌شود.

‏الگوریتم‌های بهینه‌سازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهم‌ترین زیر شاخه‌های حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شده‌اند. این دسته از روش‌های محاسباتی، الگوریتم‌هایی هستند که برای حل مسائل مختلف و بهینه‌سازی عددی آن‌ها پیاده‌سازی شده‌اند.

‏یکی از مهم‌ترین نمونه‌های چنین الگوریتم‌هایی، الگوریتم ژنتیک (و دیگر الگوریتم‌های مبتنی بر این روش محاسباتی) است که از مکانیزم‌های الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترین‌ها» (Survival of Fittest)) برای تولید جواب‌های کاندید، جهت حل یک مسأله بهینه‌سازی، استفاده می‌کنند. به این مکانیزم‌ها، عملگرهای تکاملی نیز گفته می‌شود.


🔸 الگوریتم بهینه‌سازی ازدحام ذرات (PSO)

‏پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینه‌سازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگی‌های الگوریتم بهینه‌سازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک می‌کند تا شباهت‌‌ها و تفاوت‌های میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آن‌ها در حل مسائل مختلف بهینه‌سازی را به شکل بهتری درک کنند.

‏در الگوریتم بهینه‌سازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته می‌شود. در الگوریتم PSO، به موازات شکل‌گیری شبه تصادفی «مسیرهای تکه‌ای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو می‌شود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).

‏در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینه‌سازی ازدحام ذرات معرفی شده است. در این بخش، ساده‌ترین و البته محبوب‌ترین نسخه الگوریتم بهینه‌سازی ازدحام ذرات (الگوریتم استاندارد بهینه‌سازی ازدحام ذرات) معرفی خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from مجله فرادرس

📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس


1️⃣ بینایی ماشین

‏───────────────

2️⃣ الگوریتم تپه نوردی

‏───────────────

3️⃣ الگوریتم کرم شب تاب

‏───────────────

4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)

‏───────────────

5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی


#هوش_مصنوعی


📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog


@FaraDarsMag — مجله فرادرس
✳️ محاسبات نرم چیست ؟ — به زبان ساده

‏در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش)‌ شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیش‌تری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.

══ فهرست مطالب ══

‏ ○ رایانش چیست؟
‏ ○ محاسبات سخت چیست؟
‏ ○ محاسبات نرم چیست؟
‏ ○ کاربردهای محاسبات نرم چیست؟
‏ ○ منابع و فیلم آموزشی محاسبات نرم
‏ ○ جمع‌بندی


🔸 رایانش چیست؟

‏قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | ‌Computing) پرداخته شود. به بیانی ساده، ‌رایانش به معنی نگاشت مجموعه داده‌های دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته می‌شود.

‏روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راه‌حل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدل‌سازی ریاضیاتی ساده‌ای دارند مناسب است.


🔸 محاسبات سخت چیست؟

‏اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علی‌عسگرزاده، ریاضی‌دان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار می‌گیرد که:

‏– نتایج دقیقی فراهم کند.

‏– الگوریتمی که برای حل مسئله استفاده می‌شود، صریح و بدون ابهام باشد.

‏– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.

‏مسائلی مانند مشتق‌گیری، انتگرال، الگوریتم‌های جستجو و مرتب‌سازی، یافتن کوتا‌ه‌ترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آن‌ها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار می‌گیرند.



مطالعه ادامه مطلب 👇👇

🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ بینایی ماشین — از صفر تا صد

‏در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را می‌توان به عنوان مقدمه‌ای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبه‌های کاربردی آن، پیاده‌سازی‌های خاص انجام شده از سیستم‌های بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر بینایی ماشین
‏ ○ تفاوت بینایی ماشین و بینایی کامپیوتر
‏ ○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
‏ ○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
‏ ○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
‏ ○ نتایج تحقیقات و جهت‌گیری‌های پژوهشی آینده در زمینه بینایی ماشین
‏ ○ جمع‌بندی


🔸 مقدمه‌ای بر بینایی ماشین

‏تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستان‌های «علمی-تخیلی» (Science Fiction) تصور می‌کردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزه‌های تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخه‌های مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهت‌گیری‌های پژوهشی و تکنیک‌هایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.

‏شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکت‌های صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامه‌های کامپیوتری اجازه می‌دهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام‌ آن‌ها، بهره‌گیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.

‏وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستم‌های بینایی ماشین و تکنیک‌های توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.


🔸 تفاوت بینایی ماشین و بینایی کامپیوتر

‏بسیاری از افراد گمان می‌کنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوری‌های هم‌پوشان مورد استفاده قرار می‌گیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته می‌شود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستم‌های بینایی کامپیوتر بیشتر روی قابلیت‌های تحلیل تصاویر، استخراج اطلاعات مفید از آن‌ها و درک و فهم اشیاء یا موجودیت‌های موجود در آن‌ها است.

‏در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستم‌هایی به کار گرفته می‌شود که از تکنیک‌های بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده می‌کنند. همچنین، در صورتی که از تکنیک‌های بینایی کامپیوتر در سیستم‌ها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آن‌ها، اجرای یک تابع تحلیل تصویر یا دست‌یابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیاده‌سازی شده است.

‏معمولا، مؤلفه‌های ابتدایی لازم برای توسعه سیستم‌های بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:



مطالعه ادامه مطلب 👇👇

🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع

‏شاید برای بسیاری انسان‌ها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روش‌ها، برنامه‌های کاربردی و دستگاه‌ها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسان‌ها برای فعالیت‌های روزمره خود به آن‌ها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کرده‌اید. زمانی که برای یافتن آدرس مورد نظر خود، از نرم‌افزارهای مسیریاب تلفن همراه خود استفاده می‌کنید، در اصل از روش‌های هوش مصنوعی استفاده می‌کنید. اگر شما به ویژگی‌های یک «ربات انسان‌نما» (Humanoid Robots) علاقه‌مند باشید، در اصل به ویژگی‌های هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویس‌های مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کرده‌اید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیت‌های روزانه انسان‌ها، کار چندان سختی نیست.

══ فهرست مطالب ══

‏ ○ هوش مصنوعی چیست؟
‏ ○ انواع فناوری های هوش مصنوعی
‏ ○ نقشه دانش فناوری های هوش مصنوعی
‏ ○ دامنه مسائل هوش مصنوعی
‏ ○ الگوهای هوش مصنوعی
‏ ○ طبقه‌‌بندی الگوریتم‌های شناخته شده هوش مصنوعی
‏ ○ مسائل دیگر در حوزه هوش مصنوعی
‏ ○ جمع‌بندی


🔸 هوش مصنوعی چیست؟

‏اگر بخواهیم تعریف ساده‌ای از هوش مصنوعی داشته باشیم، می‌توان هوش مصنوعی را در قالب شبیه‌سازی فرآیندهای هوش انسانی توسط ماشین‌ها، به ویژه سیستم‌های کامپیوتری، تعریف کرد. این فرآیندها می‌تواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق می‌شود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشین‌های هوشمند، به ویژه برنامه‌های کامپیوتری هوشمند» تعریف کرده است.


🔸 انواع فناوری های هوش مصنوعی

‏انواع فناوری های هوش مصنوعی را می‌توان به دو روش مختلف دسته‌بندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیت‌ها، نحوه کاربرد و دامنه مسائلی که می‌تواند در آن اقدام به حل مسأله کنند، دسته‌بندی می‌شوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگی‌ها و قابلیت‌های ذاتی به گروه‌های مختلف دسته‌بندی می‌شوند.

‏در این دسته‌بندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دسته‌بندی می‌شوند:

مطالعه ادامه مطلب 👇👇

🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس