✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
✳️ شبکههای عصبی مصنوعی – از صفر تا صد
مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازندهاش، بیشتر از پردازندههای ابررایانههای امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصالهای فراوان موجود میان اجزای آن بازمیگردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستمهای دیگر متمایز می کند.
══ فهرست مطالب ══
○ پرسپترون چندلایه یا MLP
○ شبکه های عصبی شعاعی یا RBF
○ ماشینهای بردار پشتیبان یا SVM
○ نگاشتهای خودسازمانده یا SOM
○ یادگیرنده رقمیساز بردار یا LVQ
○ شبکه عصبی هاپفیلد یا Hopfield
○ مراجع مطالعاتی و منابع آموزشی مهم
○ کتاب های خارجی
○
○ کتاب های فارسی
○ منابع آموزشی آنلاین
🔸 پرسپترون چندلایه یا MLP
یکی از پایهایترین مدلهای عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیهسازی میکند. در این نوع شبکه عصبی، بیشتر رفتار شبکهای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکههای پیشخورد (Feedforward Networks) نیز خوانده میشوند. هر یک از سلولهای عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام میدهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال میدهند. این رفتار تا حصول نتیجهای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.
🔸 شبکه های عصبی شعاعی یا RBF
مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آنها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدلسازی میشود. از نظر ساختار کلی، شبکههای عصبی RBF تفاوت چندانی با شبکههای MLP ندارند و صرفا نوع پردازشی که نورونها روی ورودهایشان انجام میدهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آمادهسازی سریعتری هستند. در واقع، به دلیل تمرکز نورونها بر محدوده عملکردی خاص، کار تنظیم آنها، راحتتر خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 شبکههای عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازندهاش، بیشتر از پردازندههای ابررایانههای امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصالهای فراوان موجود میان اجزای آن بازمیگردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستمهای دیگر متمایز می کند.
══ فهرست مطالب ══
○ پرسپترون چندلایه یا MLP
○ شبکه های عصبی شعاعی یا RBF
○ ماشینهای بردار پشتیبان یا SVM
○ نگاشتهای خودسازمانده یا SOM
○ یادگیرنده رقمیساز بردار یا LVQ
○ شبکه عصبی هاپفیلد یا Hopfield
○ مراجع مطالعاتی و منابع آموزشی مهم
○ کتاب های خارجی
○
○ کتاب های فارسی
○ منابع آموزشی آنلاین
🔸 پرسپترون چندلایه یا MLP
یکی از پایهایترین مدلهای عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیهسازی میکند. در این نوع شبکه عصبی، بیشتر رفتار شبکهای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکههای پیشخورد (Feedforward Networks) نیز خوانده میشوند. هر یک از سلولهای عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام میدهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال میدهند. این رفتار تا حصول نتیجهای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.
🔸 شبکه های عصبی شعاعی یا RBF
مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آنها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدلسازی میشود. از نظر ساختار کلی، شبکههای عصبی RBF تفاوت چندانی با شبکههای MLP ندارند و صرفا نوع پردازشی که نورونها روی ورودهایشان انجام میدهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آمادهسازی سریعتری هستند. در واقع، به دلیل تمرکز نورونها بر محدوده عملکردی خاص، کار تنظیم آنها، راحتتر خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 شبکههای عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم ژنتیک – از صفر تا صد
الگوریتم ژنتیک (GA | Genetic Algorithms)، خانوادهای از «مدلهای محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته شدهاند. این دسته از الگوریتمها، «جوابهای محتمل» (Potential Solutions) یا «جوابهای کاندید» (Candidate Solutions) و یا «فرضیههای محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار دادهای «کروموزوم مانند» (Chromosome-like) کدبندی میکنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای دادهای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای دادهای را حفظ میکند.
══ فهرست مطالب ══
○ مقدمه
○ انتخاب طبیعی
○ تکامل شبیهسازی شده
○ فرهنگ لغات الگوریتم ژنتیک
○
○ الگوریتم ژنتیک متعارف
○ نمایش عملکرد الگوریتم ژنتیک در بهینهسازی توابع
○ تفاوت الگوریتم ژنتیک و الگوریتمهای بهینهسازی و جستجوی سنتی
○ کاربردهای الگوریتم ژنتیک
○ کدهای پیادهسازی الگوریتم ژنتیک در زبانهای برنامهنویسی مختلف
○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمه
بسیاری از اختراعات بشری از طبیعت الهام گرفته شدهاند. «شبکههای عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتمهای ژنتیک، با «شبیهسازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جوابهای کاندید» (Candidate Solution Space) میپردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جوابهای ابتدایی تولید میشود. سپس، در «نسلهای» (Generations) متوالی، مجموعهای از جوابهای تغییر یافته تولید میشوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژنهای کروموزومهای تشکیل دهنده جمعیت ایجاد میشود). جوابهای اولیه معمولا به شکلی تغییر میکنند که در هر نسل، جمعیت جوابها به سمت جواب بهینه «همگرا» (Converge) میشوند.
این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونههای موفقتر و برازندهتر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتمهای ژنتیک، «بقای برازندهترینها» (Survival of the Fittest) است.
یک کروموزوم، رشتهای بلند و پیچیده از «اسید دیاکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگیها یا خصیصههای یک «فرد» (Individual) را مشخص میکنند، در طول این کروموزومها نقش یافتهاند. هر یک از خصیصههای موجود در افراد، به وسیله ترکیبی از DNA، در ژنهای انسان کدبندی میشوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزومها از روی DNA وجود دارد:
🔸 انتخاب طبیعی
در طبیعت، موجوداتی که ویژگیهای برازندهتری نسبت به دیگر گونهها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه میدهند. چنین ویژگیای، این امکان را در اختیار برازندهترین موجودات زنده قرار میدهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگیهای ارثی خود را از «ژنهای» (Genes) موجودات برتر و تعداد کمی از ویژگیهای خود را از ژنهای موجودات «رده پایین» (Inferior) با ژنها یا ویژگیهای نامرغوب به ارث خواهند برد.
به بیان سادهتر، موجودات برازندهتر زنده میمانند و موجودات نامناسب از بین میروند. به این فرایند و نیروی شگفتانگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته میشود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونههای مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمیدهند، بلکه صرفا موجودات برازندهتر به بقاء خود ادامه میدهند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
الگوریتم ژنتیک (GA | Genetic Algorithms)، خانوادهای از «مدلهای محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته شدهاند. این دسته از الگوریتمها، «جوابهای محتمل» (Potential Solutions) یا «جوابهای کاندید» (Candidate Solutions) و یا «فرضیههای محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار دادهای «کروموزوم مانند» (Chromosome-like) کدبندی میکنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای دادهای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای دادهای را حفظ میکند.
══ فهرست مطالب ══
○ مقدمه
○ انتخاب طبیعی
○ تکامل شبیهسازی شده
○ فرهنگ لغات الگوریتم ژنتیک
○
○ الگوریتم ژنتیک متعارف
○ نمایش عملکرد الگوریتم ژنتیک در بهینهسازی توابع
○ تفاوت الگوریتم ژنتیک و الگوریتمهای بهینهسازی و جستجوی سنتی
○ کاربردهای الگوریتم ژنتیک
○ کدهای پیادهسازی الگوریتم ژنتیک در زبانهای برنامهنویسی مختلف
○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمه
بسیاری از اختراعات بشری از طبیعت الهام گرفته شدهاند. «شبکههای عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتمهای ژنتیک، با «شبیهسازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جوابهای کاندید» (Candidate Solution Space) میپردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جوابهای ابتدایی تولید میشود. سپس، در «نسلهای» (Generations) متوالی، مجموعهای از جوابهای تغییر یافته تولید میشوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژنهای کروموزومهای تشکیل دهنده جمعیت ایجاد میشود). جوابهای اولیه معمولا به شکلی تغییر میکنند که در هر نسل، جمعیت جوابها به سمت جواب بهینه «همگرا» (Converge) میشوند.
این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونههای موفقتر و برازندهتر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتمهای ژنتیک، «بقای برازندهترینها» (Survival of the Fittest) است.
یک کروموزوم، رشتهای بلند و پیچیده از «اسید دیاکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگیها یا خصیصههای یک «فرد» (Individual) را مشخص میکنند، در طول این کروموزومها نقش یافتهاند. هر یک از خصیصههای موجود در افراد، به وسیله ترکیبی از DNA، در ژنهای انسان کدبندی میشوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزومها از روی DNA وجود دارد:
🔸 انتخاب طبیعی
در طبیعت، موجوداتی که ویژگیهای برازندهتری نسبت به دیگر گونهها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه میدهند. چنین ویژگیای، این امکان را در اختیار برازندهترین موجودات زنده قرار میدهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگیهای ارثی خود را از «ژنهای» (Genes) موجودات برتر و تعداد کمی از ویژگیهای خود را از ژنهای موجودات «رده پایین» (Inferior) با ژنها یا ویژگیهای نامرغوب به ارث خواهند برد.
به بیان سادهتر، موجودات برازندهتر زنده میمانند و موجودات نامناسب از بین میروند. به این فرایند و نیروی شگفتانگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته میشود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونههای مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمیدهند، بلکه صرفا موجودات برازندهتر به بقاء خود ادامه میدهند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش تصویر در متلب — راهنمای جامع
در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروفترین «تولباکسهای» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).
══ فهرست مطالب ══
○ پردازش تصویر
○ متلب
○ تصویر دیجیتالی چیست؟
○ دستورات ابتدایی پردازش تصویر در متلب
○ تکنیکهای پیشرفته پردازش تصویر در متلب
○ انواع تصاویر
○ کیفیت تصویر
○ هیستوگرام تصویر
○ روش آستانهگذاری در تولباکس پردازش تصویر در متلب
○ دقیق کردن و نمایانسازی ویژگیهای بارز موجود در تصاویر (Image Sharpening)
○ جمعبندی
🔸 پردازش تصویر
«پردازش تصویر» (Image Processing) به مجموعهای از تکنیکهایی اطلاق میشود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفتهاند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخهای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آنها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق میافتند، معمولا به طور خودکار و بر پایه مجموعهای از الگوریتمهای به دقت طراحی شده انجام میشوند. این دسته از الگوریتمهای پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.
حوزه پردازش تصویری، یک حوزه «چند رشتهای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشتههای علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، همپوشانی بسیار زیادی با حوزههای تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.
برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسطهایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربینهای دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) میشوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشردهسازی دادهها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید میشوند.
🔸 متلب
محیط محاسبات عددی و زبان برنامهنویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامهنویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.
در این محیط برنامهنویسی، توسعهدهندگان قادرند تا از روشهای «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روشهای نمایش داده و الگوریتمهای توسعه داده شده در متلب، برای پیادهسازی روشهای هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامهنویسی مستقیم را با برنامههای نوشته شده به زبانهای دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعهدهندگان فراهم آورده است.
الگوریتمهای پردازش تصویر در متلب، مجموعهای از توابع هستند که قابلیتهای محیط محاسبات عددی متلب را گسترش میدهند. تولباکس پردازش تصویر در متلب، مجموعهای از «الگوریتمهای مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتمهای پردازش تصویر در متلب فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروفترین «تولباکسهای» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).
══ فهرست مطالب ══
○ پردازش تصویر
○ متلب
○ تصویر دیجیتالی چیست؟
○ دستورات ابتدایی پردازش تصویر در متلب
○ تکنیکهای پیشرفته پردازش تصویر در متلب
○ انواع تصاویر
○ کیفیت تصویر
○ هیستوگرام تصویر
○ روش آستانهگذاری در تولباکس پردازش تصویر در متلب
○ دقیق کردن و نمایانسازی ویژگیهای بارز موجود در تصاویر (Image Sharpening)
○ جمعبندی
🔸 پردازش تصویر
«پردازش تصویر» (Image Processing) به مجموعهای از تکنیکهایی اطلاق میشود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفتهاند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخهای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آنها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق میافتند، معمولا به طور خودکار و بر پایه مجموعهای از الگوریتمهای به دقت طراحی شده انجام میشوند. این دسته از الگوریتمهای پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.
حوزه پردازش تصویری، یک حوزه «چند رشتهای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشتههای علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، همپوشانی بسیار زیادی با حوزههای تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.
برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسطهایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربینهای دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) میشوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشردهسازی دادهها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید میشوند.
🔸 متلب
محیط محاسبات عددی و زبان برنامهنویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامهنویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.
در این محیط برنامهنویسی، توسعهدهندگان قادرند تا از روشهای «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روشهای نمایش داده و الگوریتمهای توسعه داده شده در متلب، برای پیادهسازی روشهای هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامهنویسی مستقیم را با برنامههای نوشته شده به زبانهای دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعهدهندگان فراهم آورده است.
الگوریتمهای پردازش تصویر در متلب، مجموعهای از توابع هستند که قابلیتهای محیط محاسبات عددی متلب را گسترش میدهند. تولباکس پردازش تصویر در متلب، مجموعهای از «الگوریتمهای مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتمهای پردازش تصویر در متلب فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مقدمهای بر الگوریتم ژنتیک
مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزومها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح میدهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب میتوانند به اینجا مراجعه کنند.
══ فهرست مطالب ══
○ ۱. منبع الهام الگوریتم ژنتیک
○ ۲. ارتباط با زیستشناسی
○ ۳. الگوریتم ژنتیک چیست؟
○ ۴. گامهای الگوریتم ژنتیک
○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
○ کاربرد الگوریتم ژنتیک در دنیای واقعی
🔸 ۱. منبع الهام الگوریتم ژنتیک
چارلز داروین (Charles Darwin) یک نقلقول معروف دارد: “نه قویترین فرد یک گونه زنده میماند نه باهوشترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده میماند.” در واقع کل مفهوم الگوریتم ژنتیک براساس این نقل قول است. برای فهم بهتر به مثال زیر توجه کنید:
فرض کنید شما رهبر یک شهر هستید و میخواهید شهرتان را از اتفاقات بد مصون نگهدارید. پس سیاست زیر را درپیش بگیرید:
– تمام انسانهای خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.
– این کار را تا چند نسل تکرار کنید.
– حال کل جمعیت شهر انسانهای خوب هستند.
این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیستشناسی مربوط است. درادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.
🔸 ۲. ارتباط با زیستشناسی
میدانیم، سلولها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشتههای DNA هستند.
عموماً، این کروموزومها بهصورت رشتههای صفرویکی نمایش داده میشوند.
کروموزوم از ژن (Gene) تشکیل شدهاست. هر ژن یک ویژگی خاص را رمزگذاری میکند. مثل رنگ مو و چشم.
مطالعه ادامه مطلب 👇👇
🔗 مقدمهای بر الگوریتم ژنتیک — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزومها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح میدهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب میتوانند به اینجا مراجعه کنند.
══ فهرست مطالب ══
○ ۱. منبع الهام الگوریتم ژنتیک
○ ۲. ارتباط با زیستشناسی
○ ۳. الگوریتم ژنتیک چیست؟
○ ۴. گامهای الگوریتم ژنتیک
○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
○ کاربرد الگوریتم ژنتیک در دنیای واقعی
🔸 ۱. منبع الهام الگوریتم ژنتیک
چارلز داروین (Charles Darwin) یک نقلقول معروف دارد: “نه قویترین فرد یک گونه زنده میماند نه باهوشترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده میماند.” در واقع کل مفهوم الگوریتم ژنتیک براساس این نقل قول است. برای فهم بهتر به مثال زیر توجه کنید:
فرض کنید شما رهبر یک شهر هستید و میخواهید شهرتان را از اتفاقات بد مصون نگهدارید. پس سیاست زیر را درپیش بگیرید:
– تمام انسانهای خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.
– این کار را تا چند نسل تکرار کنید.
– حال کل جمعیت شهر انسانهای خوب هستند.
این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیستشناسی مربوط است. درادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.
🔸 ۲. ارتباط با زیستشناسی
میدانیم، سلولها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشتههای DNA هستند.
عموماً، این کروموزومها بهصورت رشتههای صفرویکی نمایش داده میشوند.
کروموزوم از ژن (Gene) تشکیل شدهاست. هر ژن یک ویژگی خاص را رمزگذاری میکند. مثل رنگ مو و چشم.
مطالعه ادامه مطلب 👇👇
🔗 مقدمهای بر الگوریتم ژنتیک — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
✳️ اصطلاحات یادگیری عمیق — راهنمای کاربردی
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع
اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شدهاید. سیستمهای دیپ فیک (جعل عمیق) که سیستمهای مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب میشوند، در نگاه اول شاید فناوری سرگرم کنندهای به نظر برسند، با این حال، با بررسی دقیق کاربرد آنها میتوان دریافت از این دسته از فناوریها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایلهای ویدیوئی مورد استفاده قرار میگیرند.
══ فهرست مطالب ══
○ دیپ فیک (جعل عمیق | DeepFake)
○ شبکههای مولد تخاصمی
○ شبکههای مولد تخاصمی برای تولید ویدئوهای دیپ فیک
○ تاریخچه دیپ فیک (جعل عمیق)
○ محدودیتهای سیستمهای تولید دیپ فیک
○ کاربرد سیستمهای تولید دیپ فیک در جهان واقعی
○ جمعبندی
🔸 دیپ فیک (جعل عمیق | DeepFake)
دیپ فیک (جعل عمیق)، یکی از فناوریهای نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایلهای ویدئویی مورد استفاده قرار میگیرد؛ به گونهای که محتویات نمایش داده شده در فایلهای ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.
نامگذاری چنین فناوریهایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکههای اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته میشود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آنها روی بازیگران فیلمهای غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.
غالب سیستمهای دیپ فیک مبتنی بر روشهای یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آنها ویدئوهای دیپ فیک تولید میشوند، مبتنی بر تکنیکهای خاصی به نام شبکههای مولد تخاصمی هستند. شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN نیز گفته میشود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.
🔸 شبکههای مولد تخاصمی
شبکههای مولد تخاصمی (GAN)، کلاسی از الگوریتمهای یادگیری ماشین محسوب میشوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکههای مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت میکند) با یکدیگر به رقابت میپردازند.
با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکههای مولد تخاصمی یاد میگیرد تا دادههای جدیدی تولید کند که آماره برابری با آماره دادههای آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر میرسند و بسیاری از ویژگیهای مشخصه یک تصویر دیجیتالی واقعی را از خود نشان میدهند.
شبکههای مولد تخاصمی از دو بخش تشکیل شدهاند: «شبکههای مولد» (Generative Network) و «شبکههای متمایزگر یا تمایزی» (Discriminator). شبکههای مولد وظیفه تولید دادههای کاندید را بر عهده دارند، در حالی که شبکههای متمایزگر، وظیفه ارزیابی دادههای کاندید تولید شده را بر عهده دارند.
مطالعه ادامه مطلب 👇👇
🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شدهاید. سیستمهای دیپ فیک (جعل عمیق) که سیستمهای مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب میشوند، در نگاه اول شاید فناوری سرگرم کنندهای به نظر برسند، با این حال، با بررسی دقیق کاربرد آنها میتوان دریافت از این دسته از فناوریها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایلهای ویدیوئی مورد استفاده قرار میگیرند.
══ فهرست مطالب ══
○ دیپ فیک (جعل عمیق | DeepFake)
○ شبکههای مولد تخاصمی
○ شبکههای مولد تخاصمی برای تولید ویدئوهای دیپ فیک
○ تاریخچه دیپ فیک (جعل عمیق)
○ محدودیتهای سیستمهای تولید دیپ فیک
○ کاربرد سیستمهای تولید دیپ فیک در جهان واقعی
○ جمعبندی
🔸 دیپ فیک (جعل عمیق | DeepFake)
دیپ فیک (جعل عمیق)، یکی از فناوریهای نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایلهای ویدئویی مورد استفاده قرار میگیرد؛ به گونهای که محتویات نمایش داده شده در فایلهای ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.
نامگذاری چنین فناوریهایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکههای اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته میشود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آنها روی بازیگران فیلمهای غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.
غالب سیستمهای دیپ فیک مبتنی بر روشهای یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آنها ویدئوهای دیپ فیک تولید میشوند، مبتنی بر تکنیکهای خاصی به نام شبکههای مولد تخاصمی هستند. شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN نیز گفته میشود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.
🔸 شبکههای مولد تخاصمی
شبکههای مولد تخاصمی (GAN)، کلاسی از الگوریتمهای یادگیری ماشین محسوب میشوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکههای مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت میکند) با یکدیگر به رقابت میپردازند.
با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکههای مولد تخاصمی یاد میگیرد تا دادههای جدیدی تولید کند که آماره برابری با آماره دادههای آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر میرسند و بسیاری از ویژگیهای مشخصه یک تصویر دیجیتالی واقعی را از خود نشان میدهند.
شبکههای مولد تخاصمی از دو بخش تشکیل شدهاند: «شبکههای مولد» (Generative Network) و «شبکههای متمایزگر یا تمایزی» (Discriminator). شبکههای مولد وظیفه تولید دادههای کاندید را بر عهده دارند، در حالی که شبکههای متمایزگر، وظیفه ارزیابی دادههای کاندید تولید شده را بر عهده دارند.
مطالعه ادامه مطلب 👇👇
🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد
───────────────
2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی
───────────────
3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع
───────────────
4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع
───────────────
5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد
───────────────
2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی
───────────────
3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع
───────────────
4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع
───────────────
5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
👍1
✳️ الگوریتم کلونی مورچگان — از صفر تا صد
الگوریتم کلونی مورچگان یا در حقیقت «بهینهسازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونیهای مورچگان و مورچگان کارگر شاغل در آنها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچهها عملیات کاوش برای یافتن منابع غذایی را آغاز میکنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا میکنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیهسازی چنین رفتار بهینهای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل میدهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته میشود.
══ فهرست مطالب ══
○ مقدمهای بر الگوریتم کلونی مورچگان
○ گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
○ روش فرا اکتشافی الگوریتم کلونی مورچگان
○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دورهگرد» (TSP)
○ پیادهسازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دورهگرد در متلب
○ کاربردهای الگوریتم کلونی مورچگان
○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمهای بر الگوریتم کلونی مورچگان
در این مطب سعی بر آن است تا ویژگیها و مراحل پیادهسازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچهها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینهسازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب میشود.
الگوریتمهای مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعهای از روشهای «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روشها، حوزه تحقیقاتی و مطالعاتی به شمار میآیند که به مطالعه الگوریتمهای الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) میپردازند. الگوریتمهای هوش ازدحامی از مجموعهای از موجودیتهای فردی ساده تشکیل شدهاند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری میکنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.
🔸 گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچهها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط میشوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچهها در طبیعت مورد بررسی قرار داده میشود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهامبخش تولید الگوریتم کلونی مورچگان شدهاند.
حشرهشناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سالهای اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانهها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشرهای میتواند به سیگنالهای «محرک» (Stimuli) محیطی واکنش نشان دهد. چنین محرکهایی، به نوبه خود، نوعی واکنش برنامهنویسی شده ژنتیکی در این موجودات را فعال میکند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
الگوریتم کلونی مورچگان یا در حقیقت «بهینهسازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونیهای مورچگان و مورچگان کارگر شاغل در آنها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچهها عملیات کاوش برای یافتن منابع غذایی را آغاز میکنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا میکنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیهسازی چنین رفتار بهینهای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل میدهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته میشود.
══ فهرست مطالب ══
○ مقدمهای بر الگوریتم کلونی مورچگان
○ گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
○ روش فرا اکتشافی الگوریتم کلونی مورچگان
○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دورهگرد» (TSP)
○ پیادهسازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دورهگرد در متلب
○ کاربردهای الگوریتم کلونی مورچگان
○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمهای بر الگوریتم کلونی مورچگان
در این مطب سعی بر آن است تا ویژگیها و مراحل پیادهسازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچهها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینهسازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب میشود.
الگوریتمهای مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعهای از روشهای «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روشها، حوزه تحقیقاتی و مطالعاتی به شمار میآیند که به مطالعه الگوریتمهای الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) میپردازند. الگوریتمهای هوش ازدحامی از مجموعهای از موجودیتهای فردی ساده تشکیل شدهاند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری میکنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.
🔸 گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچهها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط میشوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچهها در طبیعت مورد بررسی قرار داده میشود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهامبخش تولید الگوریتم کلونی مورچگان شدهاند.
حشرهشناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سالهای اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانهها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشرهای میتواند به سیگنالهای «محرک» (Stimuli) محیطی واکنش نشان دهد. چنین محرکهایی، به نوبه خود، نوعی واکنش برنامهنویسی شده ژنتیکی در این موجودات را فعال میکند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
«علم داده» (data science)، «تحلیل دادهها» (Data analytics)، «یادگیری ماشین» (machine learning) و «دادهکاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از اینرو شرکتها بهدنبال کارشناسانی میگردند که با کیمیاگری دادهها به آنها در اتخاذ تصمیمهای چابک، اثرگذار و کارا در کسبوکار کمک کنند.
══ فهرست مطالب ══
○ علم داده چیست؟
○ چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
○ تحلیلگر داده کیست؟
○ چه مهارتهایی برای مبدل شدن به یک تحلیلگر داده مورد نیاز است؟
○ آیا بین علم داده و تحلیل داده همپوشانی وجود دارد؟
○ یادگیری ماشین چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
○ آیا بین یادگیری ماشین و علم داده همپوشانی وجود دارد؟
○ دادهکاوی چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک دادهکاو مورد نیاز است؟
○ آیا همپوشانی بین دادهکاوی و علم داده وجود دارد؟
🔸 علم داده چیست؟
افراد زیادی برای بیش از یک دهه تلاش کردهاند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنهای که محاسبات و خلاصهسازی در آن انجام میشود) و مهارتهای هک میشود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.
علم داده مفهومی است که برای کار با دادههای کلان (مِهداده) به کار میرود و شامل پاکسازی، آمادهسازی و تحلیل داده میشود. یک دانشمند داده، دادهها را از چندین منبع گردآوردی کرده و تحلیلهای پیشبین و یادگیری ماشین را بر آنها اعمال میکند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه دادههای گردآوری شده بهره میبرد. این دانشمندان، دادهها را از نقطه نظر کسبوکار درک میکنند و قادر به فراهم کردن پیشبینیها و بینشهای صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسبوکار قابل استفاده است.
🔸 چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
هر کسی که به ساخت موقعیت شغلی قدرتمندتر در این دامنه علاقمند است، باید مهارتهای کلیدی در سه حوزه تحلیل، برنامهنویسی و دانش دامنه را کسب کند. با نگاهی عمیقتر، میتوان گفت مهارتهای بیان شده در زیر میتواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.
– دانش قوی از پایتون، R، اسکالا و SAS
– مهارت داشتن در نوشتن کدهای پایگاه داده SQL
– توانایی کار با دادههای ساختار نیافته از منابع گوناگون مانند ویدئو و شبکههای اجتماعی
– درک توابع تحلیل چندگانه
– دانش یادگیری ماشین
مطالعه ادامه مطلب 👇👇
🔗 علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
«علم داده» (data science)، «تحلیل دادهها» (Data analytics)، «یادگیری ماشین» (machine learning) و «دادهکاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از اینرو شرکتها بهدنبال کارشناسانی میگردند که با کیمیاگری دادهها به آنها در اتخاذ تصمیمهای چابک، اثرگذار و کارا در کسبوکار کمک کنند.
══ فهرست مطالب ══
○ علم داده چیست؟
○ چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
○ تحلیلگر داده کیست؟
○ چه مهارتهایی برای مبدل شدن به یک تحلیلگر داده مورد نیاز است؟
○ آیا بین علم داده و تحلیل داده همپوشانی وجود دارد؟
○ یادگیری ماشین چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
○ آیا بین یادگیری ماشین و علم داده همپوشانی وجود دارد؟
○ دادهکاوی چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک دادهکاو مورد نیاز است؟
○ آیا همپوشانی بین دادهکاوی و علم داده وجود دارد؟
🔸 علم داده چیست؟
افراد زیادی برای بیش از یک دهه تلاش کردهاند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنهای که محاسبات و خلاصهسازی در آن انجام میشود) و مهارتهای هک میشود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.
علم داده مفهومی است که برای کار با دادههای کلان (مِهداده) به کار میرود و شامل پاکسازی، آمادهسازی و تحلیل داده میشود. یک دانشمند داده، دادهها را از چندین منبع گردآوردی کرده و تحلیلهای پیشبین و یادگیری ماشین را بر آنها اعمال میکند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه دادههای گردآوری شده بهره میبرد. این دانشمندان، دادهها را از نقطه نظر کسبوکار درک میکنند و قادر به فراهم کردن پیشبینیها و بینشهای صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسبوکار قابل استفاده است.
🔸 چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
هر کسی که به ساخت موقعیت شغلی قدرتمندتر در این دامنه علاقمند است، باید مهارتهای کلیدی در سه حوزه تحلیل، برنامهنویسی و دانش دامنه را کسب کند. با نگاهی عمیقتر، میتوان گفت مهارتهای بیان شده در زیر میتواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.
– دانش قوی از پایتون، R، اسکالا و SAS
– مهارت داشتن در نوشتن کدهای پایگاه داده SQL
– توانایی کار با دادههای ساختار نیافته از منابع گوناگون مانند ویدئو و شبکههای اجتماعی
– درک توابع تحلیل چندگانه
– دانش یادگیری ماشین
مطالعه ادامه مطلب 👇👇
🔗 علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
Forwarded from FaraDars | فرادرس
📱 در شبکههای اجتماعی فرادرس چه مطالبی منتشر میشود؟
✔️ اطلاعرسانی فرصتهای ویژه و جشنوارههای تخفیف
✔️ اطلاعرسانی جدیدترین آموزشهای منتشر شده همراه با تخفیف ویژه انتشار
✔️ انتشار مطالب، مقالات و ویدئوهای آموزشی رایگان
✔️ اطلاعرسانی آخرین رویدادها و وبینارها
✔️ برگزاری مسابقات و طرحهای تخفیف همراه با هدایای آموزشی
☸️ فرادرس را در شبکههای اجتماعی و کانالهای ارتباطی مختلف دنبال کنید.👇👇👇
📌 اینستاگرام
🔗 instagram.com/FaraDars
📌 یوتیوب
🔗 youtube.com/c/FaraDarsCourses
📌 لینکدین
🔗 linkedin.com/company/FaraDars
📌 توئیتر
🔗 twitter.com/FaraDars
📌 کانال رسمی تلگرام
🔗 t.me/FaraDars
📌 کانال فرصتهای ویژه (فراپُن)
🔗 t.me/FaraPon
📌 کانال تازههای نشر
🔗 t.me/FDPub
📌 کانالهای موضوعی و تخصصی
🔗 t.me/faradars/5006
_______________
📚 فرادرس
دانش در دسترس همه
همیشه و همه جا
@FaraDars — فرادرس
📱 در شبکههای اجتماعی فرادرس چه مطالبی منتشر میشود؟
✔️ اطلاعرسانی فرصتهای ویژه و جشنوارههای تخفیف
✔️ اطلاعرسانی جدیدترین آموزشهای منتشر شده همراه با تخفیف ویژه انتشار
✔️ انتشار مطالب، مقالات و ویدئوهای آموزشی رایگان
✔️ اطلاعرسانی آخرین رویدادها و وبینارها
✔️ برگزاری مسابقات و طرحهای تخفیف همراه با هدایای آموزشی
☸️ فرادرس را در شبکههای اجتماعی و کانالهای ارتباطی مختلف دنبال کنید.👇👇👇
📌 اینستاگرام
🔗 instagram.com/FaraDars
📌 یوتیوب
🔗 youtube.com/c/FaraDarsCourses
📌 لینکدین
🔗 linkedin.com/company/FaraDars
📌 توئیتر
🔗 twitter.com/FaraDars
📌 کانال رسمی تلگرام
🔗 t.me/FaraDars
📌 کانال فرصتهای ویژه (فراپُن)
🔗 t.me/FaraPon
📌 کانال تازههای نشر
🔗 t.me/FDPub
📌 کانالهای موضوعی و تخصصی
🔗 t.me/faradars/5006
_______________
📚 فرادرس
دانش در دسترس همه
همیشه و همه جا
@FaraDars — فرادرس
✳️ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
══ فهرست مطالب ══
○ دورههای هوش مصنوعی یودمی
○ دورههای هوش مصنوعی کورسرا
○ دورههای هوش مصنوعی EdX
○ دورههای هوش مصنوعی یوداسیتی
○ آموزشهای هوش مصنوعی و یادگیری ماشین فرادرس
🔸 دورههای هوش مصنوعی یودمی
دورههای آموزشی ارائه شده در این وبسایت دارای سه سطح مقدماتی، متوسطه و پیشرفته (دارای جنبههای تخصصی و فنی برجسته) هستند، لذا محتوای آموزشی یودمی در ادامه در دو بخش «مبتدی» جهت افراد غیر متخصص و «تخصصی» ویژه دانشجویان دارای توانایی برنامهنویسی، معرفی شده است.
در این دوره که تاکنون بیش از ۱۱۰۰ دانشجو داشته، به مباحث هوش مصنوعی، علوم داده و کشف داده پرداخته شده است. با مشاهده مجموعه آموزشی یاد شده و انجام تمرینات لازم، دانشجو میآموزد که چگونه از ابزار هوش مصنوعی Einstein Discovery برای خودکارسازی فرآیندها و تصمیمسازی استفاده کند. پیشنیازهای دوره داشتن دسترسی به رایانه، اینترنت و علاقمندی به مباحث یادگیری ماشین و هوش مصنوعی است. این دوره ۲۶ ویدئو آموزشی با مدت زمان کل ۱:۵۲:۳۶ را شامل میشود.
لینک صفحه این دوره آموزشی(+)
🔸 دورههای هوش مصنوعی کورسرا
کورسرا دورههای آموزشی متنوعی در زمینه هوش مصنوعی ارائه میکند که دانشجو با مشاهده آنها میتواند طی چند هفته دانش خوبی در این حوزه کسب کند. برخی از این دورهها در ادامه معرفی شدهاند.
مدرس این دوره «اندرو وو»، یکی از بانفوذترین افراد در حوزه هوش مصنوعی و دانشمند علوم رایانهای است. دوره «یادگیری ماشین» به زبانهای انگلیسی، فرانسوی، هندی و ژاپنی در دسترس قرار دارد و بهگونهای تنظیم شده که دانشجو طی یازده هفته بتواند سطح دانش خوبی از مبحث یادگیری ماشین داشته باشد. رگرسیون خطی تک متغیره و چند متغیره، رگرسیون لوجستیک، جبر خطی، شبکههای عصبی، طراحی سیستم یادگیری ماشین، ماشین بردار پشتیبان، یادگیری نظارت نشده، کاهش ابعاد، تشخیص ناهنجاری، سیستمهای توصیهگر و یادگیری ماشین بزرگ مقیاس، برخی از سرفصلهای ارائه شده در این دوره آموزشی هستند.
لینک صفحه این دوره آموزشی(+)
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
══ فهرست مطالب ══
○ دورههای هوش مصنوعی یودمی
○ دورههای هوش مصنوعی کورسرا
○ دورههای هوش مصنوعی EdX
○ دورههای هوش مصنوعی یوداسیتی
○ آموزشهای هوش مصنوعی و یادگیری ماشین فرادرس
🔸 دورههای هوش مصنوعی یودمی
دورههای آموزشی ارائه شده در این وبسایت دارای سه سطح مقدماتی، متوسطه و پیشرفته (دارای جنبههای تخصصی و فنی برجسته) هستند، لذا محتوای آموزشی یودمی در ادامه در دو بخش «مبتدی» جهت افراد غیر متخصص و «تخصصی» ویژه دانشجویان دارای توانایی برنامهنویسی، معرفی شده است.
در این دوره که تاکنون بیش از ۱۱۰۰ دانشجو داشته، به مباحث هوش مصنوعی، علوم داده و کشف داده پرداخته شده است. با مشاهده مجموعه آموزشی یاد شده و انجام تمرینات لازم، دانشجو میآموزد که چگونه از ابزار هوش مصنوعی Einstein Discovery برای خودکارسازی فرآیندها و تصمیمسازی استفاده کند. پیشنیازهای دوره داشتن دسترسی به رایانه، اینترنت و علاقمندی به مباحث یادگیری ماشین و هوش مصنوعی است. این دوره ۲۶ ویدئو آموزشی با مدت زمان کل ۱:۵۲:۳۶ را شامل میشود.
لینک صفحه این دوره آموزشی(+)
🔸 دورههای هوش مصنوعی کورسرا
کورسرا دورههای آموزشی متنوعی در زمینه هوش مصنوعی ارائه میکند که دانشجو با مشاهده آنها میتواند طی چند هفته دانش خوبی در این حوزه کسب کند. برخی از این دورهها در ادامه معرفی شدهاند.
مدرس این دوره «اندرو وو»، یکی از بانفوذترین افراد در حوزه هوش مصنوعی و دانشمند علوم رایانهای است. دوره «یادگیری ماشین» به زبانهای انگلیسی، فرانسوی، هندی و ژاپنی در دسترس قرار دارد و بهگونهای تنظیم شده که دانشجو طی یازده هفته بتواند سطح دانش خوبی از مبحث یادگیری ماشین داشته باشد. رگرسیون خطی تک متغیره و چند متغیره، رگرسیون لوجستیک، جبر خطی، شبکههای عصبی، طراحی سیستم یادگیری ماشین، ماشین بردار پشتیبان، یادگیری نظارت نشده، کاهش ابعاد، تشخیص ناهنجاری، سیستمهای توصیهگر و یادگیری ماشین بزرگ مقیاس، برخی از سرفصلهای ارائه شده در این دوره آموزشی هستند.
لینک صفحه این دوره آموزشی(+)
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم تپه نوردی – مبانی و مفاهیم
تپهنوردی یک تکنیک بهینهسازی متعلق به خانواده الگوریتمهای جستجوی محلی است؛ یک تکنیک تکرارشونده که با یک راهحل دلخواه شروع به کار کرده و سپس تلاش میکند تا با تغییر بر روی یک عنصر از راه حل، به پاسخ بهتری دست پیدا کند. اگر این تغییر منجر به ایجاد یک راه حل بهتر شود، تغییر دیگری بر روی این راه حل جدید انجام خواهد گرفت. این روال تا زمانی که بهبود بیشتری در راه حل میسر نباشد ادامه مییابد.
══ فهرست مطالب ══
○ تعریف ریاضی الگوریتم تپهنوردی
🔸 تعریف ریاضی الگوریتم تپهنوردی
تپهنوردی تلاش میکند تا تابع هدف (f(x را بیشینه (یا کمینه) کند، که x برداری از مقادیر پیوسته و/یا گسسته است. در هر تکرار، تپهنوردی یک عنصر از x را تنظیم کرده و بررسی میکند که آیا این تغییر باعث بهبود مقدار (f(x شده است یا خیر. (توجه کنید که این با متدهای گرادیان نزولی متفاوت است. در گرادیان نزولی تمام مقادیر x در هر تکرار بر حسب گرادیان تپه با هم تنظیم میشوند.) در تپهنوردی هر تغییری که باعث بهبود (f(x شود قابل قبول است و این پروسه تا زمانی که هیچ تغییری منجر به بهبود مقدار (f(x نگردد، ادامه مییابد. در این مرحله، x به عنوان “بهینه محلی” و خروجی الگوریتم خواهد بود.
تا کنون نسخههای بهبود یافته مختلفی از این تکنیک ارائه شدهاند که میتوان در آن بین به steepest ascent hill climbing، Stochastic hill climbing، و Shotgun hill climbing اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم تپه نوردی – مبانی و مفاهیم — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
تپهنوردی یک تکنیک بهینهسازی متعلق به خانواده الگوریتمهای جستجوی محلی است؛ یک تکنیک تکرارشونده که با یک راهحل دلخواه شروع به کار کرده و سپس تلاش میکند تا با تغییر بر روی یک عنصر از راه حل، به پاسخ بهتری دست پیدا کند. اگر این تغییر منجر به ایجاد یک راه حل بهتر شود، تغییر دیگری بر روی این راه حل جدید انجام خواهد گرفت. این روال تا زمانی که بهبود بیشتری در راه حل میسر نباشد ادامه مییابد.
══ فهرست مطالب ══
○ تعریف ریاضی الگوریتم تپهنوردی
🔸 تعریف ریاضی الگوریتم تپهنوردی
تپهنوردی تلاش میکند تا تابع هدف (f(x را بیشینه (یا کمینه) کند، که x برداری از مقادیر پیوسته و/یا گسسته است. در هر تکرار، تپهنوردی یک عنصر از x را تنظیم کرده و بررسی میکند که آیا این تغییر باعث بهبود مقدار (f(x شده است یا خیر. (توجه کنید که این با متدهای گرادیان نزولی متفاوت است. در گرادیان نزولی تمام مقادیر x در هر تکرار بر حسب گرادیان تپه با هم تنظیم میشوند.) در تپهنوردی هر تغییری که باعث بهبود (f(x شود قابل قبول است و این پروسه تا زمانی که هیچ تغییری منجر به بهبود مقدار (f(x نگردد، ادامه مییابد. در این مرحله، x به عنوان “بهینه محلی” و خروجی الگوریتم خواهد بود.
تا کنون نسخههای بهبود یافته مختلفی از این تکنیک ارائه شدهاند که میتوان در آن بین به steepest ascent hill climbing، Stochastic hill climbing، و Shotgun hill climbing اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم تپه نوردی – مبانی و مفاهیم — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ الگوریتم کرم شب تاب — از صفر تا صد
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
Forwarded from FaraAI | فرا هوش: هوش مصنوعی و علم داده
✳️ محاسبات نرم چیست ؟ — به زبان ساده
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بینایی ماشین — از صفر تا صد
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس