✳️ بینایی ماشین — از صفر تا صد
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
Forwarded from FaraPython | فرا پایتون: آموزش برنامهنویسی پایتون
✳️ کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
❤1👍1
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
👍4
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤2👍1
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1👍1
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
❤1
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍3
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود.
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود.
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام
مکانیزم «کپچا» (CAPTCHA) که مخفف اصطلاح «مکانیزم کاملا خودکار شده و عمومی تورینگ جهت تمایز قائل شدن میان انسان و کامپیوتر» (Completely Automated Public Turing to tell Computers and Humans Apart) است، یک مکانیزم امنیتی به شمار میآید که در بسترهای آنلاین و برای تشخیص انسان یا ربات بودن متقاضی سرویس اینترنتی بهکار میرود.
══ فهرست مطالب ══
○ ساختن مدل یادگیری برای دور زدن کپچا
○ آمادهسازی دادههای آموزشی
○ ساختن و آموزش مدل شبکه عصبی پیچشی برای دور زدن کپچا
○ جمعبندی
🔸 ساختن مدل یادگیری برای دور زدن کپچا
جهت تشخیص متنهای موجود در تصاویر کپچا، از مدلهای «شبکه عصبی پیچشی» (Convolutional Neural Network) استفاده خواهد شد. مدل شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر کپچا آموزش خواهید دید. برای ساختن مدل یادگیری لازم برای دور زدن کپچا، لازم است تا ابتدا هر کدام از حروف موجود در تصاویر جداسازی شوند و برای آموزش شبکه عصبی پیچشی، مورد پردازش قرار بگیرند. پس از آموزش شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر، مدل قادر خواهد بود تا «تصاویر کپچای دیده نشده» (Unseen CAPTCHA Images) را به عنوان ورودی دریافت کند و متنهای موجود در آنها را تشخیص دهد.
همانطور که پیش از این نیز اشاره شد، برای استخراج متن از تصاویر و دور زدن کپچا، از کتابخانههای Keras و openCV در زبان برنامهنویسی پایتون استفاده خواهد شد.
🔸 آمادهسازی دادههای آموزشی
اولین قدم برای پیادهسازی مدل شبکه عصبی پیچشی، آمادهسازی دادههای لازم برای آموزش مدل یادگیری است. برای چنین کاری، هر کدام از تصاویر موجود در مجموعه داده آموزشی، به ترتیب وارد سیستم میشوند. سپس، حروف موجود در تصاویر جداسازی و به عنوان یک فایل تصویری جدید ذخیره میشوند. همانطور که در تصویر بالا نیز قابل مشاهده است، ساختار مجموعه داده آموزشی و تست به این گونه است که نام انتخاب شده برای هر کدام از تصاویر، نمایش دهنده حروف موجود در تصویر است.
بنابراین، در مرحله اول از پیادهسازی شبکه عصبی پیچشی جهت دور زدن کپچا و هک کردن آن، تمامی «وابستگیهای برنامهنویسی» (Programming Dependencies) بارگیری و تصاویر توسط کتابخانه openCV در محیط برنامهنویسی پایتون خوانده خواهند شد.
در هنگام بررسی تصاویر موجود در مجموعه آموزشی، مشاهده شده است که بعضا حروف موجود در تصاویر کپچا، به «مرز» (Border) تصویر بسیار نزدیک هستند. چنین نقیصهای ممکن است فرایند تشخیص حرفهای موجود در تصاویر را با اختلال مواجه کند. برای رفع چنین نقیصهای در تصاویر کپچا، از فرایند «لایهگذاری» (Padding) استفاده میشود تا دو پیکسل به حاشیه تصاویر اضافه شود.
مطالعه ادامه مطلب 👇👇
🔗 دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام
مکانیزم «کپچا» (CAPTCHA) که مخفف اصطلاح «مکانیزم کاملا خودکار شده و عمومی تورینگ جهت تمایز قائل شدن میان انسان و کامپیوتر» (Completely Automated Public Turing to tell Computers and Humans Apart) است، یک مکانیزم امنیتی به شمار میآید که در بسترهای آنلاین و برای تشخیص انسان یا ربات بودن متقاضی سرویس اینترنتی بهکار میرود.
══ فهرست مطالب ══
○ ساختن مدل یادگیری برای دور زدن کپچا
○ آمادهسازی دادههای آموزشی
○ ساختن و آموزش مدل شبکه عصبی پیچشی برای دور زدن کپچا
○ جمعبندی
🔸 ساختن مدل یادگیری برای دور زدن کپچا
جهت تشخیص متنهای موجود در تصاویر کپچا، از مدلهای «شبکه عصبی پیچشی» (Convolutional Neural Network) استفاده خواهد شد. مدل شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر کپچا آموزش خواهید دید. برای ساختن مدل یادگیری لازم برای دور زدن کپچا، لازم است تا ابتدا هر کدام از حروف موجود در تصاویر جداسازی شوند و برای آموزش شبکه عصبی پیچشی، مورد پردازش قرار بگیرند. پس از آموزش شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر، مدل قادر خواهد بود تا «تصاویر کپچای دیده نشده» (Unseen CAPTCHA Images) را به عنوان ورودی دریافت کند و متنهای موجود در آنها را تشخیص دهد.
همانطور که پیش از این نیز اشاره شد، برای استخراج متن از تصاویر و دور زدن کپچا، از کتابخانههای Keras و openCV در زبان برنامهنویسی پایتون استفاده خواهد شد.
🔸 آمادهسازی دادههای آموزشی
اولین قدم برای پیادهسازی مدل شبکه عصبی پیچشی، آمادهسازی دادههای لازم برای آموزش مدل یادگیری است. برای چنین کاری، هر کدام از تصاویر موجود در مجموعه داده آموزشی، به ترتیب وارد سیستم میشوند. سپس، حروف موجود در تصاویر جداسازی و به عنوان یک فایل تصویری جدید ذخیره میشوند. همانطور که در تصویر بالا نیز قابل مشاهده است، ساختار مجموعه داده آموزشی و تست به این گونه است که نام انتخاب شده برای هر کدام از تصاویر، نمایش دهنده حروف موجود در تصویر است.
بنابراین، در مرحله اول از پیادهسازی شبکه عصبی پیچشی جهت دور زدن کپچا و هک کردن آن، تمامی «وابستگیهای برنامهنویسی» (Programming Dependencies) بارگیری و تصاویر توسط کتابخانه openCV در محیط برنامهنویسی پایتون خوانده خواهند شد.
در هنگام بررسی تصاویر موجود در مجموعه آموزشی، مشاهده شده است که بعضا حروف موجود در تصاویر کپچا، به «مرز» (Border) تصویر بسیار نزدیک هستند. چنین نقیصهای ممکن است فرایند تشخیص حرفهای موجود در تصاویر را با اختلال مواجه کند. برای رفع چنین نقیصهای در تصاویر کپچا، از فرایند «لایهگذاری» (Padding) استفاده میشود تا دو پیکسل به حاشیه تصاویر اضافه شود.
مطالعه ادامه مطلب 👇👇
🔗 دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس