FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ الگوریتم کرم شب تاب — از صفر تا صد

‏«الگوریتم‌های الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتم‌های «بهینه‌سازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینه‌سازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار می‌گیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتم‌های بهینه‌سازی مشابه متمایز می‌کند، عملکرد بسیار خوب آن در جستجوی جواب‌های بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایده‌آلی برای کاربردهای بهینه‌سازی چندمُدی تبدیل شود.

══ فهرست مطالب ══

‏ ○ مقدمه
‏ ○ الگوریتم بهینه‌سازی ازدحام ذرات (PSO)
‏ ○ الگوریتم کرم شب تاب
‏ ○ بهینه‌سازی چندمُدی با بهینه‌های چندگانه
‏ ○ پیاده‌سازی الگوریتم کرم شب تاب در زبان‌های برنامه‌نویسی مختلف
‏ ○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
‏ ○ جمع‌بندی


🔸 مقدمه

‏«بهینه‌سازی» (Optimization)، به فرآیند تغییر و دستکاری ورودی‌ها، عملیات ریاضی یا خصوصیات یک دستگاه گفته می‌شود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام می‌شود. ورودی‌ فرآیند بهینه‌سازی، متغیرهای مسأله‌ای هستند که قرار است به وسیله یکی از الگوریتم‌های خانواده روش‌های «بهینه‌سازی عددی» (Numerical Optimization) پردازش و جواب‌های بهینه آن مشخص شود. خروجی فرآیند بهینه‌سازی، «برازندگی» (Fitness) نامیده می‌شود؛ به فرآیند یا تابعی که قرار است توسط الگوریتم‌های بهینه‌سازی پردازش شود، «تابع هدف» (Objective Function) گفته می‌شود.

‏الگوریتم‌های بهینه‌سازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهم‌ترین زیر شاخه‌های حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شده‌اند. این دسته از روش‌های محاسباتی، الگوریتم‌هایی هستند که برای حل مسائل مختلف و بهینه‌سازی عددی آن‌ها پیاده‌سازی شده‌اند.

‏یکی از مهم‌ترین نمونه‌های چنین الگوریتم‌هایی، الگوریتم ژنتیک (و دیگر الگوریتم‌های مبتنی بر این روش محاسباتی) است که از مکانیزم‌های الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترین‌ها» (Survival of Fittest)) برای تولید جواب‌های کاندید، جهت حل یک مسأله بهینه‌سازی، استفاده می‌کنند. به این مکانیزم‌ها، عملگرهای تکاملی نیز گفته می‌شود.


🔸 الگوریتم بهینه‌سازی ازدحام ذرات (PSO)

‏پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینه‌سازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگی‌های الگوریتم بهینه‌سازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک می‌کند تا شباهت‌‌ها و تفاوت‌های میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آن‌ها در حل مسائل مختلف بهینه‌سازی را به شکل بهتری درک کنند.

‏در الگوریتم بهینه‌سازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته می‌شود. در الگوریتم PSO، به موازات شکل‌گیری شبه تصادفی «مسیرهای تکه‌ای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو می‌شود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).

‏در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینه‌سازی ازدحام ذرات معرفی شده است. در این بخش، ساده‌ترین و البته محبوب‌ترین نسخه الگوریتم بهینه‌سازی ازدحام ذرات (الگوریتم استاندارد بهینه‌سازی ازدحام ذرات) معرفی خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from مجله فرادرس

📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس


1️⃣ بینایی ماشین

‏───────────────

2️⃣ الگوریتم تپه نوردی

‏───────────────

3️⃣ الگوریتم کرم شب تاب

‏───────────────

4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)

‏───────────────

5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی


#هوش_مصنوعی


📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog


@FaraDarsMag — مجله فرادرس
✳️ محاسبات نرم چیست ؟ — به زبان ساده

‏در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش)‌ شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیش‌تری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.

══ فهرست مطالب ══

‏ ○ رایانش چیست؟
‏ ○ محاسبات سخت چیست؟
‏ ○ محاسبات نرم چیست؟
‏ ○ کاربردهای محاسبات نرم چیست؟
‏ ○ منابع و فیلم آموزشی محاسبات نرم
‏ ○ جمع‌بندی


🔸 رایانش چیست؟

‏قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | ‌Computing) پرداخته شود. به بیانی ساده، ‌رایانش به معنی نگاشت مجموعه داده‌های دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته می‌شود.

‏روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راه‌حل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدل‌سازی ریاضیاتی ساده‌ای دارند مناسب است.


🔸 محاسبات سخت چیست؟

‏اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علی‌عسگرزاده، ریاضی‌دان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار می‌گیرد که:

‏– نتایج دقیقی فراهم کند.

‏– الگوریتمی که برای حل مسئله استفاده می‌شود، صریح و بدون ابهام باشد.

‏– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.

‏مسائلی مانند مشتق‌گیری، انتگرال، الگوریتم‌های جستجو و مرتب‌سازی، یافتن کوتا‌ه‌ترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آن‌ها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار می‌گیرند.



مطالعه ادامه مطلب 👇👇

🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ بینایی ماشین — از صفر تا صد

‏در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را می‌توان به عنوان مقدمه‌ای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبه‌های کاربردی آن، پیاده‌سازی‌های خاص انجام شده از سیستم‌های بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر بینایی ماشین
‏ ○ تفاوت بینایی ماشین و بینایی کامپیوتر
‏ ○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
‏ ○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
‏ ○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
‏ ○ نتایج تحقیقات و جهت‌گیری‌های پژوهشی آینده در زمینه بینایی ماشین
‏ ○ جمع‌بندی


🔸 مقدمه‌ای بر بینایی ماشین

‏تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستان‌های «علمی-تخیلی» (Science Fiction) تصور می‌کردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزه‌های تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخه‌های مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهت‌گیری‌های پژوهشی و تکنیک‌هایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.

‏شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکت‌های صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامه‌های کامپیوتری اجازه می‌دهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام‌ آن‌ها، بهره‌گیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.

‏وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستم‌های بینایی ماشین و تکنیک‌های توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.


🔸 تفاوت بینایی ماشین و بینایی کامپیوتر

‏بسیاری از افراد گمان می‌کنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوری‌های هم‌پوشان مورد استفاده قرار می‌گیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته می‌شود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستم‌های بینایی کامپیوتر بیشتر روی قابلیت‌های تحلیل تصاویر، استخراج اطلاعات مفید از آن‌ها و درک و فهم اشیاء یا موجودیت‌های موجود در آن‌ها است.

‏در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستم‌هایی به کار گرفته می‌شود که از تکنیک‌های بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده می‌کنند. همچنین، در صورتی که از تکنیک‌های بینایی کامپیوتر در سیستم‌ها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آن‌ها، اجرای یک تابع تحلیل تصویر یا دست‌یابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیاده‌سازی شده است.

‏معمولا، مؤلفه‌های ابتدایی لازم برای توسعه سیستم‌های بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:



مطالعه ادامه مطلب 👇👇

🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع

‏شاید برای بسیاری انسان‌ها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روش‌ها، برنامه‌های کاربردی و دستگاه‌ها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسان‌ها برای فعالیت‌های روزمره خود به آن‌ها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کرده‌اید. زمانی که برای یافتن آدرس مورد نظر خود، از نرم‌افزارهای مسیریاب تلفن همراه خود استفاده می‌کنید، در اصل از روش‌های هوش مصنوعی استفاده می‌کنید. اگر شما به ویژگی‌های یک «ربات انسان‌نما» (Humanoid Robots) علاقه‌مند باشید، در اصل به ویژگی‌های هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویس‌های مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کرده‌اید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیت‌های روزانه انسان‌ها، کار چندان سختی نیست.

══ فهرست مطالب ══

‏ ○ هوش مصنوعی چیست؟
‏ ○ انواع فناوری های هوش مصنوعی
‏ ○ نقشه دانش فناوری های هوش مصنوعی
‏ ○ دامنه مسائل هوش مصنوعی
‏ ○ الگوهای هوش مصنوعی
‏ ○ طبقه‌‌بندی الگوریتم‌های شناخته شده هوش مصنوعی
‏ ○ مسائل دیگر در حوزه هوش مصنوعی
‏ ○ جمع‌بندی


🔸 هوش مصنوعی چیست؟

‏اگر بخواهیم تعریف ساده‌ای از هوش مصنوعی داشته باشیم، می‌توان هوش مصنوعی را در قالب شبیه‌سازی فرآیندهای هوش انسانی توسط ماشین‌ها، به ویژه سیستم‌های کامپیوتری، تعریف کرد. این فرآیندها می‌تواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق می‌شود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشین‌های هوشمند، به ویژه برنامه‌های کامپیوتری هوشمند» تعریف کرده است.


🔸 انواع فناوری های هوش مصنوعی

‏انواع فناوری های هوش مصنوعی را می‌توان به دو روش مختلف دسته‌بندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیت‌ها، نحوه کاربرد و دامنه مسائلی که می‌تواند در آن اقدام به حل مسأله کنند، دسته‌بندی می‌شوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگی‌ها و قابلیت‌های ذاتی به گروه‌های مختلف دسته‌بندی می‌شوند.

‏در این دسته‌بندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دسته‌بندی می‌شوند:

مطالعه ادامه مطلب 👇👇

🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

‏‌
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد

‏الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتم‌های توسعه داده شده برای حل «مسائل بهینه‌سازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینه‌سازی پیوسته» (Continuous Optimization Problems) محسوب می‌شود.

‌ این الگوریتم، از زندگی خانواده‌ای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگی‌های جالب این گونه، نظیر تخم‌گذاری و تولید مثل آن‌ها ساخته شده است.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای از الگوریتم‌های تکاملی
‏ ○ فاخته‌ها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
‏ ○ الگوریتم بهینه سازی فاخته
‏ ○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
‏ ○ پیاده‌سازی الگوریتم بهینه سازی فاخته در متلب
‏ ○ پیاده‌سازی تابع هدف Rastrigin در متلب


🔸 مقدمه‌ای از الگوریتم‌های تکاملی

‏به فرآیند تغییر و دستکاری ورودی‌ها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام می‌شود، بهینه‌سازی گفته می‌شود. در فرآیند بهینه‌سازی، ورودی‌، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده می‌شود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.

‏روش‌های متفاوتی برای حل یک مسأله بهینه‌سازی وجود دارد. دسته‌ای از این روش‌ها، روش‌های «بهینه‌سازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شده‌اند. به این دسته فرآیندهای بهینه‌سازی، «برنامه‌نویسی ریاضی» (Mathematical Programming) نیز گفته می‌شود.


🔸 فاخته‌ها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل

‏شیوه زندگی بیشتر گونه‌های پرندگان شبیه به هم است. پرنده ماده تخم‌گذاری می‌کند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخم‌های گذاشته شده در برابر انواع مختلف شکارچیان، آن‌ها را در مکان‌های امن نگه‌داری کنند.

‌پیدا کردن مکان مناسب برای مراقبت از تخم‌ها و بزرگ کردن آن‌ها، تا زمانی که به استقلال برسند، یکی از چالش برانگیز‌ترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگ‌ها و شاخه‌های درختان می‌سازند و از تخم‌های خود در آن‌ها مراقبت می‌کنند.

‏در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخم‌های خود و بزرگ کردن آن‌ها به حیله‌گری متوسل می‌شوند. این دسته پرندگان، «انگل‌های جوجه‌گذاری» (Brood Parasite) نامیده می‌شوند.

‌فاخته‌ها شناخته شده‌ترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانه‌ای برای مراقبت از تخم‌هایش پیدا می‌کند. سپس یکی از تخم‌های موجود در لانه پرنده میزبان را با یکی از تخم‌های خود جا به جا می‌کند و با تخم پرنده میزبان از آن منطقه فرار می‌کند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.



مطالعه ادامه مطلب 👇👇

‌‏🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‌‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1

🟢 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 برای مشاهده آموزش‌های پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزش‌های مورد علاقه خود را رایگان دانلود کنید:👇

🔸 آموزش‌های رایگان هوش مصنوعی [+]


🔹 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars - فرادرس
✳️ پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده

‏«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «داده‌کاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده می‌شود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیاده‌سازی روش‌ها و الگوریتم‌های یادگیری ماشین از آن‌ها استفاده می‌شود، زبان‌های برنامه‌نویسی پایتون و R‌ هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روش‌های یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام می‌شود.

══ فهرست مطالب ══

‏ ○ این راهنما برای چه افرادی مناسب است؟
‏ ○ الگوریتم‌های یادگیری ماشین
‏ ○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
‏ ○ ۱. رگرسیون خطی
‏ ○ ۲. رگرسیون لجستیک
‏ ○ ۳. درخت تصمیم
‏ ○ ۴. ماشین بردار پشتیبان
‏ ○ ۵. نایو بیز
‏ ○ ۶. k نزدیک‌ترین همسایگی
‏ ○ ۷. K-Means
‏ ○ ۸. جنگل تصادفی
‏ ○ ۹. الگوریتم‌های کاهش ابعاد
‏ ○ ۱۰. الگوریتم‌های گرادیان تقویتی
‏ ○ جمع‌بندی


🔸 این راهنما برای چه افرادی مناسب است؟

‏ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسان‌تر سازد. با بهره‌گیری از این راهنما، افراد قادر می‌شوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتم‌های یادگیری ماشین متعدد مطرح شده در این مطلب ارائه می‌کنند، کدهای پایتون و R هر یک از الگوریتم‌ها نیز ارائه شده‌اند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتم‌ها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه می‌شود.


🔸 الگوریتم‌های یادگیری ماشین

‏در حالت کلی، سه دسته از الگوریتم‌های یادگیری ماشین وجود دارند. این دسته‌ها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شده‌اند.

‏این نوع از الگوریتم‌ها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیش‌بین‌ها» (Predictors)، پیش‌بینی شود. با استفاده از این مجموعه متغیرها، می‌توان تابعی ساخت که ورودی‌ها را به خروجی‌های موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا می‌کند که مدل به سطح مناسبی از «صحت» (Accuracy) روی داده‌های آموزش دست پیدا کند. از جمله الگوریتم‌های یادگیری نظارت شده می‌توان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیک‌ترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.

‏در الگوریتم‌های یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیش‌بینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتم‌ها برای «خوشه‌بندی» (Clustering) جامعه در گروه‌های مختلف مورد استفاده قرار می‌گیرند و برای مثال به طور گسترده‌ای برای بخش‌بندی مشتریان در گروه‌های مختلف استفاده می‌شوند. از جمله الگوریتم‌های نظارت نشده می‌توان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.


مطالعه ادامه مطلب 👇👇

🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس

✳️ کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی

‏«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوب‌ترین زبان‌های برنامه‌نویسی دهه کنونی است که طی سال‌های اخیر، همواره جزو پنج زبان برنامه‌نویسی محبوب موجود در دنیا بوده است. پایتون، در رده‌بندی‌های گوناگونی که برای زبان‌های برنامه‌نویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصت‌های شغلی آن‌ها ارائه می‌شود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامه‌نویسی پایتون در میان توسعه‌دهندگان نرم‌افزار، شرکت‌ها، پژوهشگران آکادمیک و افراد تازه‌واردی که در صدد یادگیری برنامه‌نویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن می‌توان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آن‌ها در کاربردپذیری این زبان برنامه‌نویسی پرداخته شده است. سپس، کاربرد پایتون در حوزه‌های علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیت‌های مختلف پایتون برای هر یک از این حوزه‌ها، مورد بررسی قرار گرفته است.

══ فهرست مطالب ══

‏ ○ آشنایی با زبان برنامه‌نویسی پایتون
‏ ○ ویژگی‌های پایتون و نقش آن در کاربردپذیری این زبان چیست؟
‏ ○ چطور و از کجا پایتون را یاد بگیرم؟
‏ ○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
‏ ○ کاربرد پایتون در برنامه‌ها و دوره‌های آموزشی شامل چه مواردی است؟
‏ ○ کاربرد پایتون در توسعه نرم‌افزار چیست؟
‏ ○ موارد کاربرد پایتون در برنامه‌های کاربردی تجاری چه هستند؟
‏ ○ کاربرد پایتون در توسعه زبان‌های برنامه‌نویسی چیست؟
‏ ○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
‏ ○ کاربرد پایتون در برنامه‌های کاربردی کنسول چه مواردی هستند؟
‏ ○ کاربرد پایتون در خودکارسازی چیست؟
‏ ○ کاربرد پایتون در برنامه‌های کاربردی صوتی و تصویری چیست؟
‏ ○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
‏ ○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
‏ ○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
‏ ○ کاربرد پایتون در توسعه بازی‌های کامپیوتری چیست؟
‏ ○ کاربرد پایتون در توسعه وب چیست؟
‏ ○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
‏ ○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
‏ ○ کاربرد پایتون در علم داده و بصری سازی داده‌ها چگونه است؟
‏ ○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
‏ ○ کاربرد پایتون در برنامه‌های کاربردی سیستم‌های توکار چیست؟
‏ ○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
‏ ○ موارد کاربرد پایتون در اندروید و برنامه‌نویسی موبایل چه هستند؟
‏ ○ کاربرد پایتون در حوزه مالی و فناوری مالی (فین‌تک) چیست؟
‏ ○ مورد کاربرد پایتون در فارکس چیست؟
‏ ○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
‏ ○ کاربرد پایتون در بیوانفورماتیک و زیست‌شناسی چیست؟
‏ ○ مورد کاربرد پایتون در فیزیک چیست؟
‏ ○ کاربرد پایتون در مهندسی در چه مواردی است؟
‏ ○ جمع‌بندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟


🔸 آشنایی با زبان برنامه‌نویسی پایتون

‏پایتون یک «زبان برنامه‌نویسی سطح بالا» (High Level Programming Language)، «همه‌منظوره» (General Purposes)، «متن‌باز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامه‌نویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامه‌نویسی «ای‌بی‌سی» (ABC Programming Language) شکل گرفت. زبان ای‌بی‌سی خود از «زبان برنامه‌نویسی SETL» الهام گرفته شده است.

‏«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات می‌توان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آن‌ها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبه‌بندی‌های گوناگون انجام شده برای زبان‌های برنامه‌نویسی هستند.



مطالعه ادامه مطلب 👇👇

🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی برنامه نویسی پایتون

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇

@FaraPython — مطالب و آموزش‌های برنامه نویسی پایتون فرادرس

1👍1
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه

‏لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکه‌های حسگر بی‌سیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بی‌سیم می‌باشد.

══ فهرست مطالب ══

‏ ○ عملکرد لیچ
‏ ○ ویژگی‌های لیچ
‏ ○ شبیه‌سازی
‏ ○ بعضی نقاط ضعف لیچ


🔸 عملکرد لیچ

‏در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطه‌شان ارسال کرده و سپس سرخوشه‌ها داده‌های دریافتی را جمع‌آوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) می‌فرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده می‌کند. لیچ فرض می‌کند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیک‌ترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی می‌شود).

‏نودهایی که سرخوشه می‌شوند، تا p چرخه نمی‌توانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشه‌هاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیک‌ترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن می‌پیوندد. سپس هر سرخوشه برای هر نود عضو خوشه‌‌اش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد می‌کند (هر نود فقط در زمان مشخص شده می‌تواند به سرخوشه اطلاعات ارسال کند).

‏تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار می‌کنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام می‌دهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه می‌دارند.


🔸 ویژگی‌های لیچ

‏ویژگی‌های این الگوریتم عبارتند از:

‏– مبتنی بر خوشه

‏– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی

‏– عضویت تطبیقی در خوشه‌ها

‏– تجمیع داده در سرخوشه

‏– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر

‏– ارتباط با سرخوشه با استفاده از متد TDMA



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from مجله فرادرس
‏‌‌
✳️ پردازش تصویر با پایتون — راهنمای کاربردی

‏در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزه‌های تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود و در حوزه‌های دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از داده‌های تصویری، نقش بسیار مهمی ایفا می‌کند.

══ فهرست مطالب ══

‏ ○ پردازش تصویر با پایتون
‏ ○ پردازش تصاویر با پایتون با ابزار SciKit-Image
‏ ○ کتابخانه Numpy و پردازش تصویر با پایتون
‏ ○ کتابخانه SciPy
‏ ○ کتابخانه‌های PIL و Pillow
‏ ○ کتابخانه OpenCV-Python
‏ ○ کتابخانه SimpleCV
‏ ○ کتابخانه Mahotas
‏ ○ کتابخانه SimpleITK
‏ ○ کتابخانه pgmagick
‏ ○ ابزار Pycairo
‏ ○ جمع‌بندی‌


🔸 پردازش تصویر با پایتون

‏تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شده‌اند. این دسته از ابزارها، «کتابخانه‌ها» (Libraries) و «بسته‌های» (Packages) برنامه‌نویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این داده‌ها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامه‌نویسان قرار می‌دهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را می‌دهند تا به شکل بسیار ساده و «شهودی» (Intuitive) داده‌های تصویری را تحلیل و اطلاعات بامعنی از آن‌ها استخراج کنند.

‏جهان امروز و زندگی انسان‌ها، توسط داده‌ها احاطه شده‌اند و تصاویر بخش عمده‌ای از این داده‌ها را تشکیل می‌دهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آن‌ها یا استخراج اطلاعات مفید از تصاویر انجام می‌شود.

‏زبان پایتون می‌تواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداول‌ترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانه‌های این زبان برنامه‌نویسی قابل اجرا هستند، می‌توان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعه‌بندی تصویر» (Image Segmentation)، «دسته‌بندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.


🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image

‏ابزار SciKit-Image، یک بسته برنامه‌نویسی «منبع باز» (Open Source) است که با ساختار آرایه‌ای تعریف شده توسط کتابخانه NumPy کار می‌کند. این ابزار، یکی از مهم‌ترین کتابخانه‌های پردازش تصویر با پایتون محسوب می‌شود که به طور رایگان در دسترس کاربران و برنامه‌نویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعه‌ای از الگوریتم‌ها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.

‏کار کردن با توابع و الگوریتم‌های SciKit-Image (که جهت پردازش تصویر با پایتون استفاده می‌شوند)، حتی برای کسانی که برنامه‌نویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیاده‌سازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامه‌نویسی بسیار فعال و متشکل از برنامه‌نویسان داوطلب پشتیبانی و به‌روزرسانی می‌شوند.

‏این بسته را می‌توان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتم‌های پیاده‌سازی شده را می‌توان در «زیر واحدهای» (Submodules) این بسته برنامه‌نویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)

📚 طبقه‌بندی موضوعی: هوش مصنوعی


📖 مجله فرادرس
بزرگ‌ترین رسانه متنی آموزشی در ایران

@FaraDarsMag — مجله فرادرس

👍4

🔴 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 معرفی آموزش‌های رایگان و پرطرفدار فرادرس

♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط ده‌ها هزار دانشجو مورد مطالعه قرار می‌گیرند.

شما عزیزان نیز می‌توانید با مراجعه به لینک‌های زیر، آموزش‌های پرمخاطب در دسته‌بندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇


آموزش‌های رایگان هوش مصنوعی و یادگیری ماشین [+]


📚 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars — فرادرس
‏‌
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه

‏لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکه‌های حسگر بی‌سیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بی‌سیم می‌باشد.

══ فهرست مطالب ══

‏ ○ عملکرد لیچ
‏ ○ ویژگی‌های لیچ
‏ ○ شبیه‌سازی
‏ ○ بعضی نقاط ضعف لیچ


🔸 عملکرد لیچ

‏در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطه‌شان ارسال کرده و سپس سرخوشه‌ها داده‌های دریافتی را جمع‌آوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) می‌فرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده می‌کند. لیچ فرض می‌کند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیک‌ترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی می‌شود).

‏نودهایی که سرخوشه می‌شوند، تا p چرخه نمی‌توانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشه‌هاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیک‌ترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن می‌پیوندد. سپس هر سرخوشه برای هر نود عضو خوشه‌‌اش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد می‌کند (هر نود فقط در زمان مشخص شده می‌تواند به سرخوشه اطلاعات ارسال کند).

‏تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار می‌کنند و این کار را با توجه به جدول زمان‌بندی ساخته شده توسط سرخوشه انجام می‌دهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه می‌دارند.


🔸 ویژگی‌های لیچ

‏ویژگی‌های این الگوریتم عبارتند از:

‏– مبتنی بر خوشه

‏– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی

‏– عضویت تطبیقی در خوشه‌ها

‏– تجمیع داده در سرخوشه

‏– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر

‏– ارتباط با سرخوشه با استفاده از متد TDMA



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

2👍1

✳️ شبکه LVQ در پایتون — از صفر تا صد

‏در «علوم کامپیوتر» (Computer Science)، روش‌های «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آن‌ها شبکه LVQ نیز گفته می‌شود، خانواده‌ای از الگوریتم‌های «دسته‌بندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستم‌های «رقمی‌سازی بردار» (Vector Quantization) است.

══ فهرست مطالب ══

‏ ○ شبکه LVQ
‏ ○ استراتژی شبکه LVQ در دسته‌بندی داده‌ها به زبان ساده
‏ ○ نمایش مدل شبکه LVQ
‏ ○ پیش‌بینی با استفاده از شبکه LVQ
‏ ○ یادگیری یک مدل شبکه LVQ از روی داده‌های آموزشی
‏ ○ آماده‌سازی داده‌ها و بهینه‌سازی‌ عملکرد شبکه LVQ
‏ ○ پیاده‌سازی شبکه LVQ در پایتون


🔸 شبکه LVQ

‏شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتم‌های یادگیری ماشین به شمار می‌آید که در خانواده مدل‌های شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقه‌بندی می‌شود؛ در یک طبقه‌بندی گسترده‌تر، شبکه LVQ زیر مجموعه‌ای از خانواده روش‌های «هوش محاسباتی» (Computational Intelligence) محسوب می‌شود.

‏شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دسته‌بندی داده‌ها استفاده می‌کند. از این جهت، شبکه LVQ، به دیگر مدل‌های شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکه‌های عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشت‌های خود سازمان‌ده (Self-Organizing Maps | SOM) دارد.

‏الگوریتم‌های نگاشت‌های خود سازمان‌ده، دسته ‌ای از روش‌های «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدل‌سازی ارتباط میان «نرون‌های» (Neurons) تعریف شده در یک شبکه، جهت «خوشه‌بندی» (Clustering) داده‌ها استفاده می‌کنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتم‌های LVQ محسوب می‌شود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دسته‌بندی داده‌ها معرفی شده‌اند.


🔸 استراتژی شبکه LVQ در دسته‌بندی داده‌ها به زبان ساده

‏شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونه‌ای توسعه داده شده است که ابتدا مجموعه‌ای از بردارهای «رمزنگار» (Codebook) یا «الگو‌» (Prototype) را در دامنه ورودی‌های «مشاهده شده» (Observed) مشخص می‌کند. در مرحله بعد، از بردارهای رمزنگار جهت دسته‌بندی داده‌های «دیده نشده» (Unseen) استفاده می‌شود.

‏برای پیاده‌سازی این استراتژی در شبکه LVQ، ابتدا مجموعه‌ای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آماده‌سازی می‌شوند. سپس، شبکه LVQ این بردارها را در معرض نمونه‌های آموزشی قرار می‌دهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دسته‌بندی نمونه‌های آموزشی به کار گرفته می‌شود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب می‌شوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر می‌یابند (به‌روزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دسته‌بندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ به‌روزرسانی می‌شوند (تغییر می‌یابند) که این بردار از الگوی ورودی فاصله بگیرد.

‏تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت می‌کنند و یا از آن‌ها دور می‌شوند) در «فضای ورودی» (Input Space) می‌شود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونه‌های موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) می‌زند؛ اینکه تقریب‌های تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی داده‌های تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

1👍1

✳️ آموزش اصول و روش‌های داده‌کاوی Data Mining

چکیده —
در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.

کسب اطلاعات بیشتر 👇👇

🔗 آموزش اصول و روش‌های داده‌کاوی Data Mining — کلیک کنید [+]

🤩 پیشنهاد ویژه: این آموزش‌ و سایر آموزش‌های فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.


🎁 کد تخفیف: EYD49

🔗 جشنواره به سوی بهار – [کلیک کنید]


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [‎@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس


1
‏‌
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی

هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته می‌شود، به هوشمند شدن ماشین‌ها اشاره دارد. در این مبحث، هوشمندی ماشین‌ها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسان‌ها و دیگر حیوانات مورد بررسی قرار می‌گیرد.

در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عامل‌های هوشمند» نیز می‌گویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیت‌آمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیم‌گیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده می‌شود. در واقع، عبارت «هوش مصنوعی» زمانی به‌کار می‌رود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید می‌کند.

══ فهرست مطالب ══

‏ ○ تاریخچه
‏ ○ مبانی


🔸 تاریخچه

‏در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاه‌های سخن‌گو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آن‌ها به نقش‌آفرینی می‌پردازند می‌توان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه ربات‌سازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیت‌های هوشمند موجود در این داستان‌ها با چالش‌های بسیاری مواجهند. امروزه نیز چالش‌های مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.

‏مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضی‌دانان باز می‌گردد. طی همین پژوهش‌ها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، می‌تواند هرگونه استنتاج ریاضیاتی امکان‌پذیری را انجام دهد. این نگرش که رایانه‌های دیجیتال می‌توانند هرگونه فرآیند استدلال رسمی را شبیه‌سازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.

‏با وقوع هم‌زمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه می‌گوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت می‌کند و پاسخ یک انسان، تمایزی قائل شود، می‌توان گفت ماشین هوشمند است». تلاش‌های اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته می‌شوند و حاصل طراحی رسمی «مک‌کلوچ» و «پیتز» جهت ساخت «عصب‌های مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر داده‌ها در حالتی تورینگ کامل نامیده می‌شود که بتوان برای شبیه‌سازی آن‌ها از ماشین تورینگ تک نواری استفاده کرد.



مطالعه ادامه مطلب 👇👇

🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده


📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید.
‌‌‌

✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی

بسیاری از افراد معتقد هستند که روش‌های سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آن‌ها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روش‌ها در گذشته به طور مناسبی جوابگو بوده‌اند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام می‌دهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمی‌شوند. فعالیت‌هایی وجود دارند که در اغلب سازمان‌ها و همه جای جهان انجام می‌شوند و شاید همه این سازمان‌ها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.

══ فهرست مطالب ══

‏ ○ هوش مصنوعی چگونه می‌تواند کمک کند؟
‏ ○ هوش مصنوعی باید جزوی از تیم باشد


🔸 هوش مصنوعی چگونه می‌تواند کمک کند؟

‏سیستم‌های مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آن‌ها از سال ۲۰۱۵ آغاز شده، چشم‌اندازی از این موضوع ارائه می‌کند که هوش مصنوعی چگونه می‌تواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را می‌دهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه می‌کند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتم‌های «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامه‌ای را توسعه داده و ثبت کرده‌اند که الگوهای موجود در کل داده‌های IBM را بررسی کرده و پیش‌بینی می‌کند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزش‌های بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد می‌دهد تا مانع ترک سازمان توسط نیروها شود.

‏آیا مدیران باید بر اساس آنچه سیستم هوشمند به آن‌ها دیکته می‌کند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش می‌گوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال می‌کنند، موفق‌تر هستند».

‏وی در این رابطه می‌افزاید: «از یک سو، داده‌ها حاکی از آن است که دادن افزایش حقوق ٪‍۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آن‌ها را تا ٪۹۰ کاهش می‌دهد. مدیرانی که به پیشنهادات سیستم توجه نکرده‌اند، نرخ ریزش نیروی بالاتری در تیم‌های خود داشته‌اند و در واقع، این میزان برای آن‌ها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کرده‌اند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و داده‌ها را به افراد نشان داد».


🔸 هوش مصنوعی باید جزوی از تیم باشد

‏«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلان‌شهری واشینگتن، دی.سی هدایت می‌کند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد می‌کند که برای مدیران بینش فراهم می‌کند، نه آنکه به آن‌ها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانی‌های چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبه‌های شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم می‌کند.

‏ونگل در این رابطه می‌گوید: «این کار، موجب ذخیره زمان بسیار زیادی می‌شود و باعث می‌شود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».

‏حرکت کردن روی موج‌های موفقیت برای سازمان‌ها بسیار حائز اهمیت است. مدیریت کارایی کمک می‌کند تا مهارت‌ها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوق‌ها در چنینی شرایطی حتی مهم‌تر از دیگر مواقع خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍2

✳️ ساخت شبکه عصبی — راهنمای مقدماتی

‏در این نوشته قصد داریم پرده از ابهامات شبکه‌های عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق می‌افتد آشنا شویم.

══ فهرست مطالب ══

‏ ○ شبکه عصبی مصنوعی چیست؟
‏ ○ مبانی شبکه عصبی
‏ ○ اندازه لایه‌های مختلف
‏ ○ تعداد نورون‌های هر لایه
‏ ○ بهینه‌ساز
‏ ○ تابع فعال‌سازی
‏ ○ مقداردهی مدل


🔸 شبکه عصبی مصنوعی چیست؟

‏شبکه‌های عصبی (مصنوعی) به دلیل شباهت نسبی‌شان به شبکه‌های عصبی در مغز به این صورت نامگذاری شده‌اند و شامل اتصال‌هایی از جنس نورون‌های مصنوعی هستند. این شبکه‌ها از طریق اتصال‌های بین نورون‌ها که سیناپس نام دارد فعالیت می‌کنند. سیناپس‌ها اطلاعات را از یک نورون به نورون دیگر ارسال می‌کنند. یک نورون می‌تواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورون‌های دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.


🔸 مبانی شبکه عصبی

‏جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر می‌خواهید مدل‌ها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، می‌بایست همه کتابخانه‌های مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثال‌های این مقاله، کاربر نیازمند کتابخانه‌های Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

‌‌
👍2

✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین

‏در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسب‌وکار وارد هر حیطه‌ای که بشوید ردپای قانون را در گوشه و کنار آن پیدا می‌کنید. مثلاً فعالیت‌هایی را در نظر بگیرید که یک شرکت فرضی انجام می‌شود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه این‌ها با قراردادهای الزام‌آور قانونی انجام می‌شوند. برای به ثمر نشستن اختراعات و نوآوری‌ها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آن‌ها وارد جدال می‌شویم و گاهی از چتر حمایتی آن‌ها بهره می‌بریم.

══ فهرست مطالب ══

‏ ○ تهیه قرارداد با استفاده از هوش مصنوعی
‏ ○ تحلیل قراردادها با استفاده از هوش مصنوعی
‏ ○ ماشین‌های پیشگو در راه هستند
‏ ○ تحقیقات حقوقی با کمک هوش مصنوعی
‏ ○ نتیجه‌گیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین


🔸 تهیه قرارداد با استفاده از هوش مصنوعی

‏در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگ‌های نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خسته‌کننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم می‌کند و برای طرف دیگر می‌فرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام می‌کند و قرارداد را به آن باز می‌گرداند و این تبادل ممکن است بارها و بارها تکرار شود.

‏طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکت‌ها به اهداف تجاری خود می‌شود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمی‌افتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه می‌رسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.

‏خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکس‌چک (LexCheck) برنامه‌هایی برای آن تهیه کرده‌اند. این برنامه‌ها به این شکل کار می‌کنند که یک قرارداد پیشنهادی وارد آن می‌شود، نرم‌افزار با تحلیل متن تعیین می‌کند که کدام بخش‌های قرارداد قابل قبول است و در کدام قسمت‌ها ایراد و اشکالی وجود دارد.


🔸 تحلیل قراردادها با استفاده از هوش مصنوعی

‏مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفته‌اند را اجرا و رعایت کنند و این یک چالش مهم برای شرکت‌های بزرگی است که میلیون‌ها قرارداد با هزاران شخص در موضوعات متنوع دارند.

‏در حال حاضر شرکت‌ها عملاً نمی‌توانند به تمام جزئیات قراردادهایی که امضا کرده‌اند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آن‌ها قرار می‌دهد. برنامه‌های مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیت‌های مختلف داشته باشند. نرم‌افزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانه‌هایی برای ارائه این خدمات هستند.

‏این راهکارهای فناورانه به تمام اجزای شرکت‌ها کمک می‌کند تا تصمیمات آگاهانه بگیرند. گروه فروش می‌داند چه زمانی باید برای تأمین سرمایه و پیش‌فروشی اقدام کند. گروه‌های تدارکات این امکان را پیدا می‌کنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیم‌گیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکت‌های امروزی در آن فعالیت می‌کنند به خاطره‌ها خواهد پیوست.



مطالعه ادامه مطلب 👇👇

🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍3

✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی

‏در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر حذف کلمات توقف متن در پایتون
‏ ○ کلمات توقف چه هستند؟
‏ ○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
‏ ○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
‏ ○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی


🔸 مقدمه‌ای بر حذف کلمات توقف متن در پایتون

‏فرایند تبدیل داده‌ها (داده‌های خام) به داده‌هایی که توسط کامپیوتر قابل درک باشند را «پیش‌پردازش» (Pre-Processing) می‌گویند. یکی از اشکال اصلی پیش‌پردازش، فیلتر کردن داده‌های بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) می‌گویند. از دیگر معادل‌هایی که در زبان فارسی برای کلمات توقف استفاده می‌شود، می‌توان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.


🔸 کلمات توقف چه هستند؟

‏کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده می‌شوند و موتورهای جستجو از جمله گوگل، به گونه‌ای برنامه‌نویسی شده‌اند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آن‌ها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول می‌توان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.

‏در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، می‌توان این کلمات را به راحتی و با ذخیره‌سازی لیست کلمات توقف، حذف کرد.



مطالعه ادامه مطلب 👇👇

🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1