✳️ الگوریتم کرم شب تاب — از صفر تا صد
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
Forwarded from FaraAI | فرا هوش: هوش مصنوعی و علم داده
✳️ محاسبات نرم چیست ؟ — به زبان ساده
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بینایی ماشین — از صفر تا صد
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
Forwarded from FaraPython | فرا پایتون: آموزش برنامهنویسی پایتون
✳️ کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
❤1👍1
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
👍4
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤2👍1
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1👍1
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
❤1
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍3
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1