✳️ اصطلاحات یادگیری عمیق — راهنمای کاربردی
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع
اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شدهاید. سیستمهای دیپ فیک (جعل عمیق) که سیستمهای مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب میشوند، در نگاه اول شاید فناوری سرگرم کنندهای به نظر برسند، با این حال، با بررسی دقیق کاربرد آنها میتوان دریافت از این دسته از فناوریها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایلهای ویدیوئی مورد استفاده قرار میگیرند.
══ فهرست مطالب ══
○ دیپ فیک (جعل عمیق | DeepFake)
○ شبکههای مولد تخاصمی
○ شبکههای مولد تخاصمی برای تولید ویدئوهای دیپ فیک
○ تاریخچه دیپ فیک (جعل عمیق)
○ محدودیتهای سیستمهای تولید دیپ فیک
○ کاربرد سیستمهای تولید دیپ فیک در جهان واقعی
○ جمعبندی
🔸 دیپ فیک (جعل عمیق | DeepFake)
دیپ فیک (جعل عمیق)، یکی از فناوریهای نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایلهای ویدئویی مورد استفاده قرار میگیرد؛ به گونهای که محتویات نمایش داده شده در فایلهای ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.
نامگذاری چنین فناوریهایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکههای اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته میشود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آنها روی بازیگران فیلمهای غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.
غالب سیستمهای دیپ فیک مبتنی بر روشهای یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آنها ویدئوهای دیپ فیک تولید میشوند، مبتنی بر تکنیکهای خاصی به نام شبکههای مولد تخاصمی هستند. شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN نیز گفته میشود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.
🔸 شبکههای مولد تخاصمی
شبکههای مولد تخاصمی (GAN)، کلاسی از الگوریتمهای یادگیری ماشین محسوب میشوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکههای مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت میکند) با یکدیگر به رقابت میپردازند.
با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکههای مولد تخاصمی یاد میگیرد تا دادههای جدیدی تولید کند که آماره برابری با آماره دادههای آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر میرسند و بسیاری از ویژگیهای مشخصه یک تصویر دیجیتالی واقعی را از خود نشان میدهند.
شبکههای مولد تخاصمی از دو بخش تشکیل شدهاند: «شبکههای مولد» (Generative Network) و «شبکههای متمایزگر یا تمایزی» (Discriminator). شبکههای مولد وظیفه تولید دادههای کاندید را بر عهده دارند، در حالی که شبکههای متمایزگر، وظیفه ارزیابی دادههای کاندید تولید شده را بر عهده دارند.
مطالعه ادامه مطلب 👇👇
🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شدهاید. سیستمهای دیپ فیک (جعل عمیق) که سیستمهای مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب میشوند، در نگاه اول شاید فناوری سرگرم کنندهای به نظر برسند، با این حال، با بررسی دقیق کاربرد آنها میتوان دریافت از این دسته از فناوریها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایلهای ویدیوئی مورد استفاده قرار میگیرند.
══ فهرست مطالب ══
○ دیپ فیک (جعل عمیق | DeepFake)
○ شبکههای مولد تخاصمی
○ شبکههای مولد تخاصمی برای تولید ویدئوهای دیپ فیک
○ تاریخچه دیپ فیک (جعل عمیق)
○ محدودیتهای سیستمهای تولید دیپ فیک
○ کاربرد سیستمهای تولید دیپ فیک در جهان واقعی
○ جمعبندی
🔸 دیپ فیک (جعل عمیق | DeepFake)
دیپ فیک (جعل عمیق)، یکی از فناوریهای نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایلهای ویدئویی مورد استفاده قرار میگیرد؛ به گونهای که محتویات نمایش داده شده در فایلهای ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.
نامگذاری چنین فناوریهایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکههای اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته میشود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آنها روی بازیگران فیلمهای غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.
غالب سیستمهای دیپ فیک مبتنی بر روشهای یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آنها ویدئوهای دیپ فیک تولید میشوند، مبتنی بر تکنیکهای خاصی به نام شبکههای مولد تخاصمی هستند. شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN نیز گفته میشود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.
🔸 شبکههای مولد تخاصمی
شبکههای مولد تخاصمی (GAN)، کلاسی از الگوریتمهای یادگیری ماشین محسوب میشوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکههای مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت میکند) با یکدیگر به رقابت میپردازند.
با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکههای مولد تخاصمی یاد میگیرد تا دادههای جدیدی تولید کند که آماره برابری با آماره دادههای آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر میرسند و بسیاری از ویژگیهای مشخصه یک تصویر دیجیتالی واقعی را از خود نشان میدهند.
شبکههای مولد تخاصمی از دو بخش تشکیل شدهاند: «شبکههای مولد» (Generative Network) و «شبکههای متمایزگر یا تمایزی» (Discriminator). شبکههای مولد وظیفه تولید دادههای کاندید را بر عهده دارند، در حالی که شبکههای متمایزگر، وظیفه ارزیابی دادههای کاندید تولید شده را بر عهده دارند.
مطالعه ادامه مطلب 👇👇
🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد
───────────────
2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی
───────────────
3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع
───────────────
4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع
───────────────
5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد
───────────────
2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی
───────────────
3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع
───────────────
4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع
───────────────
5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
👍1
✳️ الگوریتم کلونی مورچگان — از صفر تا صد
الگوریتم کلونی مورچگان یا در حقیقت «بهینهسازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونیهای مورچگان و مورچگان کارگر شاغل در آنها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچهها عملیات کاوش برای یافتن منابع غذایی را آغاز میکنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا میکنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیهسازی چنین رفتار بهینهای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل میدهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته میشود.
══ فهرست مطالب ══
○ مقدمهای بر الگوریتم کلونی مورچگان
○ گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
○ روش فرا اکتشافی الگوریتم کلونی مورچگان
○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دورهگرد» (TSP)
○ پیادهسازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دورهگرد در متلب
○ کاربردهای الگوریتم کلونی مورچگان
○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمهای بر الگوریتم کلونی مورچگان
در این مطب سعی بر آن است تا ویژگیها و مراحل پیادهسازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچهها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینهسازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب میشود.
الگوریتمهای مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعهای از روشهای «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روشها، حوزه تحقیقاتی و مطالعاتی به شمار میآیند که به مطالعه الگوریتمهای الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) میپردازند. الگوریتمهای هوش ازدحامی از مجموعهای از موجودیتهای فردی ساده تشکیل شدهاند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری میکنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.
🔸 گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچهها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط میشوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچهها در طبیعت مورد بررسی قرار داده میشود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهامبخش تولید الگوریتم کلونی مورچگان شدهاند.
حشرهشناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سالهای اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانهها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشرهای میتواند به سیگنالهای «محرک» (Stimuli) محیطی واکنش نشان دهد. چنین محرکهایی، به نوبه خود، نوعی واکنش برنامهنویسی شده ژنتیکی در این موجودات را فعال میکند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
الگوریتم کلونی مورچگان یا در حقیقت «بهینهسازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونیهای مورچگان و مورچگان کارگر شاغل در آنها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچهها عملیات کاوش برای یافتن منابع غذایی را آغاز میکنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا میکنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیهسازی چنین رفتار بهینهای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل میدهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته میشود.
══ فهرست مطالب ══
○ مقدمهای بر الگوریتم کلونی مورچگان
○ گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
○ روش فرا اکتشافی الگوریتم کلونی مورچگان
○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دورهگرد» (TSP)
○ پیادهسازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دورهگرد در متلب
○ کاربردهای الگوریتم کلونی مورچگان
○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمهای بر الگوریتم کلونی مورچگان
در این مطب سعی بر آن است تا ویژگیها و مراحل پیادهسازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچهها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینهسازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب میشود.
الگوریتمهای مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعهای از روشهای «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روشها، حوزه تحقیقاتی و مطالعاتی به شمار میآیند که به مطالعه الگوریتمهای الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) میپردازند. الگوریتمهای هوش ازدحامی از مجموعهای از موجودیتهای فردی ساده تشکیل شدهاند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری میکنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.
🔸 گذار از ویژگیهای زیستی به الگوریتمهای کامپیوتری
پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچهها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط میشوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچهها در طبیعت مورد بررسی قرار داده میشود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهامبخش تولید الگوریتم کلونی مورچگان شدهاند.
حشرهشناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سالهای اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانهها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشرهای میتواند به سیگنالهای «محرک» (Stimuli) محیطی واکنش نشان دهد. چنین محرکهایی، به نوبه خود، نوعی واکنش برنامهنویسی شده ژنتیکی در این موجودات را فعال میکند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
«علم داده» (data science)، «تحلیل دادهها» (Data analytics)، «یادگیری ماشین» (machine learning) و «دادهکاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از اینرو شرکتها بهدنبال کارشناسانی میگردند که با کیمیاگری دادهها به آنها در اتخاذ تصمیمهای چابک، اثرگذار و کارا در کسبوکار کمک کنند.
══ فهرست مطالب ══
○ علم داده چیست؟
○ چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
○ تحلیلگر داده کیست؟
○ چه مهارتهایی برای مبدل شدن به یک تحلیلگر داده مورد نیاز است؟
○ آیا بین علم داده و تحلیل داده همپوشانی وجود دارد؟
○ یادگیری ماشین چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
○ آیا بین یادگیری ماشین و علم داده همپوشانی وجود دارد؟
○ دادهکاوی چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک دادهکاو مورد نیاز است؟
○ آیا همپوشانی بین دادهکاوی و علم داده وجود دارد؟
🔸 علم داده چیست؟
افراد زیادی برای بیش از یک دهه تلاش کردهاند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنهای که محاسبات و خلاصهسازی در آن انجام میشود) و مهارتهای هک میشود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.
علم داده مفهومی است که برای کار با دادههای کلان (مِهداده) به کار میرود و شامل پاکسازی، آمادهسازی و تحلیل داده میشود. یک دانشمند داده، دادهها را از چندین منبع گردآوردی کرده و تحلیلهای پیشبین و یادگیری ماشین را بر آنها اعمال میکند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه دادههای گردآوری شده بهره میبرد. این دانشمندان، دادهها را از نقطه نظر کسبوکار درک میکنند و قادر به فراهم کردن پیشبینیها و بینشهای صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسبوکار قابل استفاده است.
🔸 چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
هر کسی که به ساخت موقعیت شغلی قدرتمندتر در این دامنه علاقمند است، باید مهارتهای کلیدی در سه حوزه تحلیل، برنامهنویسی و دانش دامنه را کسب کند. با نگاهی عمیقتر، میتوان گفت مهارتهای بیان شده در زیر میتواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.
– دانش قوی از پایتون، R، اسکالا و SAS
– مهارت داشتن در نوشتن کدهای پایگاه داده SQL
– توانایی کار با دادههای ساختار نیافته از منابع گوناگون مانند ویدئو و شبکههای اجتماعی
– درک توابع تحلیل چندگانه
– دانش یادگیری ماشین
مطالعه ادامه مطلب 👇👇
🔗 علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
«علم داده» (data science)، «تحلیل دادهها» (Data analytics)، «یادگیری ماشین» (machine learning) و «دادهکاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از اینرو شرکتها بهدنبال کارشناسانی میگردند که با کیمیاگری دادهها به آنها در اتخاذ تصمیمهای چابک، اثرگذار و کارا در کسبوکار کمک کنند.
══ فهرست مطالب ══
○ علم داده چیست؟
○ چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
○ تحلیلگر داده کیست؟
○ چه مهارتهایی برای مبدل شدن به یک تحلیلگر داده مورد نیاز است؟
○ آیا بین علم داده و تحلیل داده همپوشانی وجود دارد؟
○ یادگیری ماشین چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
○ آیا بین یادگیری ماشین و علم داده همپوشانی وجود دارد؟
○ دادهکاوی چیست؟
○ چه مهارتهایی برای تبدیل شدن به یک دادهکاو مورد نیاز است؟
○ آیا همپوشانی بین دادهکاوی و علم داده وجود دارد؟
🔸 علم داده چیست؟
افراد زیادی برای بیش از یک دهه تلاش کردهاند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنهای که محاسبات و خلاصهسازی در آن انجام میشود) و مهارتهای هک میشود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.
علم داده مفهومی است که برای کار با دادههای کلان (مِهداده) به کار میرود و شامل پاکسازی، آمادهسازی و تحلیل داده میشود. یک دانشمند داده، دادهها را از چندین منبع گردآوردی کرده و تحلیلهای پیشبین و یادگیری ماشین را بر آنها اعمال میکند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه دادههای گردآوری شده بهره میبرد. این دانشمندان، دادهها را از نقطه نظر کسبوکار درک میکنند و قادر به فراهم کردن پیشبینیها و بینشهای صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسبوکار قابل استفاده است.
🔸 چه مهارتهایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
هر کسی که به ساخت موقعیت شغلی قدرتمندتر در این دامنه علاقمند است، باید مهارتهای کلیدی در سه حوزه تحلیل، برنامهنویسی و دانش دامنه را کسب کند. با نگاهی عمیقتر، میتوان گفت مهارتهای بیان شده در زیر میتواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.
– دانش قوی از پایتون، R، اسکالا و SAS
– مهارت داشتن در نوشتن کدهای پایگاه داده SQL
– توانایی کار با دادههای ساختار نیافته از منابع گوناگون مانند ویدئو و شبکههای اجتماعی
– درک توابع تحلیل چندگانه
– دانش یادگیری ماشین
مطالعه ادامه مطلب 👇👇
🔗 علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
Forwarded from FaraDars | فرادرس
📱 در شبکههای اجتماعی فرادرس چه مطالبی منتشر میشود؟
✔️ اطلاعرسانی فرصتهای ویژه و جشنوارههای تخفیف
✔️ اطلاعرسانی جدیدترین آموزشهای منتشر شده همراه با تخفیف ویژه انتشار
✔️ انتشار مطالب، مقالات و ویدئوهای آموزشی رایگان
✔️ اطلاعرسانی آخرین رویدادها و وبینارها
✔️ برگزاری مسابقات و طرحهای تخفیف همراه با هدایای آموزشی
☸️ فرادرس را در شبکههای اجتماعی و کانالهای ارتباطی مختلف دنبال کنید.👇👇👇
📌 اینستاگرام
🔗 instagram.com/FaraDars
📌 یوتیوب
🔗 youtube.com/c/FaraDarsCourses
📌 لینکدین
🔗 linkedin.com/company/FaraDars
📌 توئیتر
🔗 twitter.com/FaraDars
📌 کانال رسمی تلگرام
🔗 t.me/FaraDars
📌 کانال فرصتهای ویژه (فراپُن)
🔗 t.me/FaraPon
📌 کانال تازههای نشر
🔗 t.me/FDPub
📌 کانالهای موضوعی و تخصصی
🔗 t.me/faradars/5006
_______________
📚 فرادرس
دانش در دسترس همه
همیشه و همه جا
@FaraDars — فرادرس
📱 در شبکههای اجتماعی فرادرس چه مطالبی منتشر میشود؟
✔️ اطلاعرسانی فرصتهای ویژه و جشنوارههای تخفیف
✔️ اطلاعرسانی جدیدترین آموزشهای منتشر شده همراه با تخفیف ویژه انتشار
✔️ انتشار مطالب، مقالات و ویدئوهای آموزشی رایگان
✔️ اطلاعرسانی آخرین رویدادها و وبینارها
✔️ برگزاری مسابقات و طرحهای تخفیف همراه با هدایای آموزشی
☸️ فرادرس را در شبکههای اجتماعی و کانالهای ارتباطی مختلف دنبال کنید.👇👇👇
📌 اینستاگرام
🔗 instagram.com/FaraDars
📌 یوتیوب
🔗 youtube.com/c/FaraDarsCourses
📌 لینکدین
🔗 linkedin.com/company/FaraDars
📌 توئیتر
🔗 twitter.com/FaraDars
📌 کانال رسمی تلگرام
🔗 t.me/FaraDars
📌 کانال فرصتهای ویژه (فراپُن)
🔗 t.me/FaraPon
📌 کانال تازههای نشر
🔗 t.me/FDPub
📌 کانالهای موضوعی و تخصصی
🔗 t.me/faradars/5006
_______________
📚 فرادرس
دانش در دسترس همه
همیشه و همه جا
@FaraDars — فرادرس
✳️ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
══ فهرست مطالب ══
○ دورههای هوش مصنوعی یودمی
○ دورههای هوش مصنوعی کورسرا
○ دورههای هوش مصنوعی EdX
○ دورههای هوش مصنوعی یوداسیتی
○ آموزشهای هوش مصنوعی و یادگیری ماشین فرادرس
🔸 دورههای هوش مصنوعی یودمی
دورههای آموزشی ارائه شده در این وبسایت دارای سه سطح مقدماتی، متوسطه و پیشرفته (دارای جنبههای تخصصی و فنی برجسته) هستند، لذا محتوای آموزشی یودمی در ادامه در دو بخش «مبتدی» جهت افراد غیر متخصص و «تخصصی» ویژه دانشجویان دارای توانایی برنامهنویسی، معرفی شده است.
در این دوره که تاکنون بیش از ۱۱۰۰ دانشجو داشته، به مباحث هوش مصنوعی، علوم داده و کشف داده پرداخته شده است. با مشاهده مجموعه آموزشی یاد شده و انجام تمرینات لازم، دانشجو میآموزد که چگونه از ابزار هوش مصنوعی Einstein Discovery برای خودکارسازی فرآیندها و تصمیمسازی استفاده کند. پیشنیازهای دوره داشتن دسترسی به رایانه، اینترنت و علاقمندی به مباحث یادگیری ماشین و هوش مصنوعی است. این دوره ۲۶ ویدئو آموزشی با مدت زمان کل ۱:۵۲:۳۶ را شامل میشود.
لینک صفحه این دوره آموزشی(+)
🔸 دورههای هوش مصنوعی کورسرا
کورسرا دورههای آموزشی متنوعی در زمینه هوش مصنوعی ارائه میکند که دانشجو با مشاهده آنها میتواند طی چند هفته دانش خوبی در این حوزه کسب کند. برخی از این دورهها در ادامه معرفی شدهاند.
مدرس این دوره «اندرو وو»، یکی از بانفوذترین افراد در حوزه هوش مصنوعی و دانشمند علوم رایانهای است. دوره «یادگیری ماشین» به زبانهای انگلیسی، فرانسوی، هندی و ژاپنی در دسترس قرار دارد و بهگونهای تنظیم شده که دانشجو طی یازده هفته بتواند سطح دانش خوبی از مبحث یادگیری ماشین داشته باشد. رگرسیون خطی تک متغیره و چند متغیره، رگرسیون لوجستیک، جبر خطی، شبکههای عصبی، طراحی سیستم یادگیری ماشین، ماشین بردار پشتیبان، یادگیری نظارت نشده، کاهش ابعاد، تشخیص ناهنجاری، سیستمهای توصیهگر و یادگیری ماشین بزرگ مقیاس، برخی از سرفصلهای ارائه شده در این دوره آموزشی هستند.
لینک صفحه این دوره آموزشی(+)
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
══ فهرست مطالب ══
○ دورههای هوش مصنوعی یودمی
○ دورههای هوش مصنوعی کورسرا
○ دورههای هوش مصنوعی EdX
○ دورههای هوش مصنوعی یوداسیتی
○ آموزشهای هوش مصنوعی و یادگیری ماشین فرادرس
🔸 دورههای هوش مصنوعی یودمی
دورههای آموزشی ارائه شده در این وبسایت دارای سه سطح مقدماتی، متوسطه و پیشرفته (دارای جنبههای تخصصی و فنی برجسته) هستند، لذا محتوای آموزشی یودمی در ادامه در دو بخش «مبتدی» جهت افراد غیر متخصص و «تخصصی» ویژه دانشجویان دارای توانایی برنامهنویسی، معرفی شده است.
در این دوره که تاکنون بیش از ۱۱۰۰ دانشجو داشته، به مباحث هوش مصنوعی، علوم داده و کشف داده پرداخته شده است. با مشاهده مجموعه آموزشی یاد شده و انجام تمرینات لازم، دانشجو میآموزد که چگونه از ابزار هوش مصنوعی Einstein Discovery برای خودکارسازی فرآیندها و تصمیمسازی استفاده کند. پیشنیازهای دوره داشتن دسترسی به رایانه، اینترنت و علاقمندی به مباحث یادگیری ماشین و هوش مصنوعی است. این دوره ۲۶ ویدئو آموزشی با مدت زمان کل ۱:۵۲:۳۶ را شامل میشود.
لینک صفحه این دوره آموزشی(+)
🔸 دورههای هوش مصنوعی کورسرا
کورسرا دورههای آموزشی متنوعی در زمینه هوش مصنوعی ارائه میکند که دانشجو با مشاهده آنها میتواند طی چند هفته دانش خوبی در این حوزه کسب کند. برخی از این دورهها در ادامه معرفی شدهاند.
مدرس این دوره «اندرو وو»، یکی از بانفوذترین افراد در حوزه هوش مصنوعی و دانشمند علوم رایانهای است. دوره «یادگیری ماشین» به زبانهای انگلیسی، فرانسوی، هندی و ژاپنی در دسترس قرار دارد و بهگونهای تنظیم شده که دانشجو طی یازده هفته بتواند سطح دانش خوبی از مبحث یادگیری ماشین داشته باشد. رگرسیون خطی تک متغیره و چند متغیره، رگرسیون لوجستیک، جبر خطی، شبکههای عصبی، طراحی سیستم یادگیری ماشین، ماشین بردار پشتیبان، یادگیری نظارت نشده، کاهش ابعاد، تشخیص ناهنجاری، سیستمهای توصیهگر و یادگیری ماشین بزرگ مقیاس، برخی از سرفصلهای ارائه شده در این دوره آموزشی هستند.
لینک صفحه این دوره آموزشی(+)
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم تپه نوردی – مبانی و مفاهیم
تپهنوردی یک تکنیک بهینهسازی متعلق به خانواده الگوریتمهای جستجوی محلی است؛ یک تکنیک تکرارشونده که با یک راهحل دلخواه شروع به کار کرده و سپس تلاش میکند تا با تغییر بر روی یک عنصر از راه حل، به پاسخ بهتری دست پیدا کند. اگر این تغییر منجر به ایجاد یک راه حل بهتر شود، تغییر دیگری بر روی این راه حل جدید انجام خواهد گرفت. این روال تا زمانی که بهبود بیشتری در راه حل میسر نباشد ادامه مییابد.
══ فهرست مطالب ══
○ تعریف ریاضی الگوریتم تپهنوردی
🔸 تعریف ریاضی الگوریتم تپهنوردی
تپهنوردی تلاش میکند تا تابع هدف (f(x را بیشینه (یا کمینه) کند، که x برداری از مقادیر پیوسته و/یا گسسته است. در هر تکرار، تپهنوردی یک عنصر از x را تنظیم کرده و بررسی میکند که آیا این تغییر باعث بهبود مقدار (f(x شده است یا خیر. (توجه کنید که این با متدهای گرادیان نزولی متفاوت است. در گرادیان نزولی تمام مقادیر x در هر تکرار بر حسب گرادیان تپه با هم تنظیم میشوند.) در تپهنوردی هر تغییری که باعث بهبود (f(x شود قابل قبول است و این پروسه تا زمانی که هیچ تغییری منجر به بهبود مقدار (f(x نگردد، ادامه مییابد. در این مرحله، x به عنوان “بهینه محلی” و خروجی الگوریتم خواهد بود.
تا کنون نسخههای بهبود یافته مختلفی از این تکنیک ارائه شدهاند که میتوان در آن بین به steepest ascent hill climbing، Stochastic hill climbing، و Shotgun hill climbing اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم تپه نوردی – مبانی و مفاهیم — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
تپهنوردی یک تکنیک بهینهسازی متعلق به خانواده الگوریتمهای جستجوی محلی است؛ یک تکنیک تکرارشونده که با یک راهحل دلخواه شروع به کار کرده و سپس تلاش میکند تا با تغییر بر روی یک عنصر از راه حل، به پاسخ بهتری دست پیدا کند. اگر این تغییر منجر به ایجاد یک راه حل بهتر شود، تغییر دیگری بر روی این راه حل جدید انجام خواهد گرفت. این روال تا زمانی که بهبود بیشتری در راه حل میسر نباشد ادامه مییابد.
══ فهرست مطالب ══
○ تعریف ریاضی الگوریتم تپهنوردی
🔸 تعریف ریاضی الگوریتم تپهنوردی
تپهنوردی تلاش میکند تا تابع هدف (f(x را بیشینه (یا کمینه) کند، که x برداری از مقادیر پیوسته و/یا گسسته است. در هر تکرار، تپهنوردی یک عنصر از x را تنظیم کرده و بررسی میکند که آیا این تغییر باعث بهبود مقدار (f(x شده است یا خیر. (توجه کنید که این با متدهای گرادیان نزولی متفاوت است. در گرادیان نزولی تمام مقادیر x در هر تکرار بر حسب گرادیان تپه با هم تنظیم میشوند.) در تپهنوردی هر تغییری که باعث بهبود (f(x شود قابل قبول است و این پروسه تا زمانی که هیچ تغییری منجر به بهبود مقدار (f(x نگردد، ادامه مییابد. در این مرحله، x به عنوان “بهینه محلی” و خروجی الگوریتم خواهد بود.
تا کنون نسخههای بهبود یافته مختلفی از این تکنیک ارائه شدهاند که میتوان در آن بین به steepest ascent hill climbing، Stochastic hill climbing، و Shotgun hill climbing اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم تپه نوردی – مبانی و مفاهیم — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ الگوریتم کرم شب تاب — از صفر تا صد
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«الگوریتمهای الهام گرفته شده از طبیعت» (Nature-Inspired Algorithms)، در زمره قدرتمندترین الگوریتمهای «بهینهسازی» (Optimization) قرار دارند. در این مطلب، یک الگوریتم بهینهسازی به نام «الگوریتم کرم شب تاب» (FA | Firefly Algorithm) مورد بررسی قرار میگیرد. ویژگی مهم الگوریتم کرم شب تاب، که آن را از برخی از الگوریتمهای بهینهسازی مشابه متمایز میکند، عملکرد بسیار خوب آن در جستجوی جوابهای بهینه مرتبط با مسائل و توابع «چندمُدی» (Multimodality) است. چنین ویژگی مهمی در الگوریتم کرم شب تاب سبب شده است تا این الگوریتم، به انتخاب ایدهآلی برای کاربردهای بهینهسازی چندمُدی تبدیل شود.
══ فهرست مطالب ══
○ مقدمه
○ الگوریتم بهینهسازی ازدحام ذرات (PSO)
○ الگوریتم کرم شب تاب
○ بهینهسازی چندمُدی با بهینههای چندگانه
○ پیادهسازی الگوریتم کرم شب تاب در زبانهای برنامهنویسی مختلف
○ دوره ویدیویی آموزش الگوریتم کرم شب تاب یا Firefly Algorithm در متلب
○ جمعبندی
🔸 مقدمه
«بهینهسازی» (Optimization)، به فرآیند تغییر و دستکاری ورودیها، عملیات ریاضی یا خصوصیات یک دستگاه گفته میشود که با هدف رسیدن به یک خروجی یا جواب بهینه انجام میشود. ورودی فرآیند بهینهسازی، متغیرهای مسألهای هستند که قرار است به وسیله یکی از الگوریتمهای خانواده روشهای «بهینهسازی عددی» (Numerical Optimization) پردازش و جوابهای بهینه آن مشخص شود. خروجی فرآیند بهینهسازی، «برازندگی» (Fitness) نامیده میشود؛ به فرآیند یا تابعی که قرار است توسط الگوریتمهای بهینهسازی پردازش شود، «تابع هدف» (Objective Function) گفته میشود.
الگوریتمهای بهینهسازی عددی مبتنی بر فرایندهای طبیعی، به یکی از مهمترین زیر شاخههای حوزه «محاسبات تکاملی» (Evolutionary Computation) تبدیل شدهاند. این دسته از روشهای محاسباتی، الگوریتمهایی هستند که برای حل مسائل مختلف و بهینهسازی عددی آنها پیادهسازی شدهاند.
یکی از مهمترین نمونههای چنین الگوریتمهایی، الگوریتم ژنتیک (و دیگر الگوریتمهای مبتنی بر این روش محاسباتی) است که از مکانیزمهای الهام گرفته شده از تکامل زیستی (نظیر «جهش» (Mutation)، «ترکیب» (Recombination)، «تولید مثل» (Reproduction)، «انتخاب طبیعی» (Natural Selection) و «بقای بهترینها» (Survival of Fittest)) برای تولید جوابهای کاندید، جهت حل یک مسأله بهینهسازی، استفاده میکنند. به این مکانیزمها، عملگرهای تکاملی نیز گفته میشود.
🔸 الگوریتم بهینهسازی ازدحام ذرات (PSO)
پیش از اینکه الگوریتم کرم شب تاب و ساختار آن مورد بررسی قرار بگیرد، الگوریتم بهینهسازی ازدحام ذرات به طور مختصر معرفی خواهد شد. مطالعه ویژگیهای الگوریتم بهینهسازی ازدحام ذرات به خوانندگان و مخاطبان این مطلب کمک میکند تا شباهتها و تفاوتهای میان این دو الگوریتم و همچنین، نقاط ضعف و قوت آنها در حل مسائل مختلف بهینهسازی را به شکل بهتری درک کنند.
در الگوریتم بهینهسازی ازدحام ذرات (PSO)، به هر کدام از «عوامل» (Agents) موجود در جمعیت «ذره» (Particles) گفته میشود. در الگوریتم PSO، به موازات شکلگیری شبه تصادفی «مسیرهای تکهای» (Piecewise Paths) متناظر با هر یک از عوامل توسط «بردارهای مکانی» (Positional Vectors)، فضای جستجوی «توابع هدف» (Objective Functions) از طریق «تنظیم» (Adjust) کردن «مسیرهای» (Trajectories) هر کدام از عوامل موجود در جمعیت (ذرات) جستجو میشود (برای یافتن جواب بهینه یا ناحیه در بر گیرنده جواب بهینه).
در حال حاضر بیش از ۲۰ نسخه مختلف از الگوریتم بهینهسازی ازدحام ذرات معرفی شده است. در این بخش، سادهترین و البته محبوبترین نسخه الگوریتم بهینهسازی ازدحام ذرات (الگوریتم استاندارد بهینهسازی ازدحام ذرات) معرفی خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم کرم شب تاب — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس
1️⃣ بینایی ماشین
───────────────
2️⃣ الگوریتم تپه نوردی
───────────────
3️⃣ الگوریتم کرم شب تاب
───────────────
4️⃣ شبکه های مولد تخاصمی (Generative Adversarial Networks)
───────────────
5️⃣ معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
#هوش_مصنوعی
📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog
@FaraDarsMag — مجله فرادرس
Forwarded from FaraAI | فرا هوش: هوش مصنوعی و علم داده
✳️ محاسبات نرم چیست ؟ — به زبان ساده
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بینایی ماشین — از صفر تا صد
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با حوزه «بینایی ماشین» (Machine Vision) از منظر «علوم کامپیوتر» (Computer Science) آشنا خواهید شد. مطلب پیش رو را میتوان به عنوان مقدمهای جامع بر حوزه بینایی ماشین قلمداد کرد. علاوه بر این، جهت درک بهتر این حوزه و آشنایی بیشتر با جنبههای کاربردی آن، پیادهسازیهای خاص انجام شده از سیستمهای بینایی ماشین در این حوزه، برای خوانندگان و مخاطبان این مطلب نمایش داده خواهد شد.
══ فهرست مطالب ══
○ مقدمهای بر بینایی ماشین
○ تفاوت بینایی ماشین و بینایی کامپیوتر
○ مطابقت دو سویی (Stereo Correspondence) در بینایی ماشین
○ بازسازی صحنه (Scene Reconstruction) در بینایی ماشین
○ بازشناسی اشیاء (Object Recognition) در بینایی ماشین
○ نتایج تحقیقات و جهتگیریهای پژوهشی آینده در زمینه بینایی ماشین
○ جمعبندی
🔸 مقدمهای بر بینایی ماشین
تا چند دهه پیش بسیاری از مردم، حوزه بینایی ماشین را متناظر با داستانهای «علمی-تخیلی» (Science Fiction) تصور میکردند. ولی در یک دهه گذشته، بینایی ماشین تبدیل به یکی از حوزههای تحقیقاتی بالغ در علوم کامپیوتر، هوش مصنوعی و زیر شاخههای مرتبط آن تبدیل شده است. تحقیقات بنیادی و اساسی که توسط محققان و دانشمندان پیشین در حوزه بینایی ماشین انجام شده است، بنیان مستحکمی را برای تحقیقات بدیع و مدرن در این زمینه فراهم آورده است. در این مطلب، مرور جامعی بر رویکردهای پیشین و رویکردهای مدرن در حوزه بینایی ماشین ارائه خواهد شد. همچنین، ساختار مورد انتظار برای تحقیقات، جهتگیریهای پژوهشی و تکنیکهایی که ممکن است در آینده، در این حوزه توسعه داده شوند، ارائه خواهد شد.
شاید سؤالی که برای بسیاری از خوانندگان و مخاطبان این مطلب پدید آمده باشد این است که چرا حوزه بینایی ماشین اهمیت دارد؟ دلیل اهمیت روز افزون حوزه تحقیقاتی بینایی ماشین برای دانشمندان و شرکتهای صنعتی و تجاری چیست؟ بینایی ماشین از این جهت حائز اهمیت است که به برنامههای کامپیوتری اجازه میدهد تا وظایف و کاربردهای مختلف را به صورت «خودکار» (Automated) انجام دهند؛ وظایفی که پیش از این و برای انجام آنها، بهرهگیری از فاکتور «نظارت انسانی» (Human Supervision) ضروری بود.
وظایفی نظیر «بازشناسی قطعات در خط تولید» (Assembly Line Part Recognition)، «بازشناسی چهره» (Face Recognition)، «وسایل نقلیه هوایی بدون سرنشین» (Unmanned Aerial Vehicles)، «بازسازی صحنه جرم» (Crime Scene Reconstruction) و حتی «وسایل نقلیه بدون سرنشین» (Unmanned Automobiles)، از جمله وظایف و کاربردهایی هستند که توسط سیستمهای بینایی ماشین و تکنیکهای توسعه داده شده در این حوزه کاربردی، قابلیت خودکارسازی دارند.
🔸 تفاوت بینایی ماشین و بینایی کامپیوتر
بسیاری از افراد گمان میکنند که بینایی ماشین و «بینایی کامپیوتر» (Computer Vision) دو اصطلاح معادل یکدیگر هستند. در حالی که بینایی ماشین و بینایی کامپیوتر اصطلاحات متفاوتی هستند که برای توصیف فناوریهای همپوشان مورد استفاده قرار میگیرند. به صورت کلی، بینایی کامپیوتر به فرایند خودکارسازی «دریافت» (Capture) و «تحلیل تصاویر» (Image Analysis) گفته میشود. در دامنه وسیع کاربردهای عملی و تئوری حوزه بینایی کامپیوتر، تأکید سیستمهای بینایی کامپیوتر بیشتر روی قابلیتهای تحلیل تصاویر، استخراج اطلاعات مفید از آنها و درک و فهم اشیاء یا موجودیتهای موجود در آنها است.
در نقطه مقابل، بینایی ماشین اصطلاحی است که برای توصیف سیستمهایی به کار گرفته میشود که از تکنیکهای بینایی کامپیوتر در کاربردهای صنعتی و عملی استفاده میکنند. همچنین، در صورتی که از تکنیکهای بینایی کامپیوتر در سیستمها یا فرایندهایی استفاده شود که جهت تضمین عملکرد بهینه آنها، اجرای یک تابع تحلیل تصویر یا دستیابی به یک خروجی خاص (مبتنی بر تحلیل تصویر) ضروری باشد، عملا یک سیستم بینایی ماشین پیادهسازی شده است.
معمولا، مؤلفههای ابتدایی لازم برای توسعه سیستمهای بینایی کامپیوتر و بینایی ماشین مشابه یکدیگر هستند:
مطالعه ادامه مطلب 👇👇
🔗 بینایی ماشین — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
شاید برای بسیاری انسانها، درک این واقعیت که روزانه با انواع مختلفی از فناوری های هوش مصنوعی (روشها، برنامههای کاربردی و دستگاهها) در حال تعامل هستند، کار سختی باشد. اما واقعیت این است که امروزه، بسیاری از کارهایی که انسانها برای فعالیتهای روزمره خود به آنها نیاز دارند، بدون وجود فناوری های «هوش مصنوعی» (Artificial Intelligence) ممکن نیستند. شما، به عنوان کاربر، زمانی که این مطلب را در صفحات موتور جستجوی گوگل پیدا کردید و وارد آن شدید، بدون شک از فناوری های هوش مصنوعی استفاده کردهاید. زمانی که برای یافتن آدرس مورد نظر خود، از نرمافزارهای مسیریاب تلفن همراه خود استفاده میکنید، در اصل از روشهای هوش مصنوعی استفاده میکنید. اگر شما به ویژگیهای یک «ربات انساننما» (Humanoid Robots) علاقهمند باشید، در اصل به ویژگیهای هوش مصنوعی آن علاقه دارید. هر زمان که از سرویس ترجمه آنلاین گوگل یا دیگر سرویسهای مشابه استفاده کنید یا به صورت آنلاین با دوستان خود ارتباط برقرار کنید و یا به جستجو در سطح وب بپردازید، از فناوری های هوش مصنوعی استفاده کردهاید. بنابراین، درک تاثیر فناوری های هوش مصنوعی بر فعالیتهای روزانه انسانها، کار چندان سختی نیست.
══ فهرست مطالب ══
○ هوش مصنوعی چیست؟
○ انواع فناوری های هوش مصنوعی
○ نقشه دانش فناوری های هوش مصنوعی
○ دامنه مسائل هوش مصنوعی
○ الگوهای هوش مصنوعی
○ طبقهبندی الگوریتمهای شناخته شده هوش مصنوعی
○ مسائل دیگر در حوزه هوش مصنوعی
○ جمعبندی
🔸 هوش مصنوعی چیست؟
اگر بخواهیم تعریف سادهای از هوش مصنوعی داشته باشیم، میتوان هوش مصنوعی را در قالب شبیهسازی فرآیندهای هوش انسانی توسط ماشینها، به ویژه سیستمهای کامپیوتری، تعریف کرد. این فرآیندها میتواند شامل «یادگیری» (Learning)، «استدلال» (Reasoning) و «خود اصلاحی» (Self Correction) باشند. منظور از یادگیری، فرآیند تصاحب (یا تغییر) دانش، اطلاعات، قوانین، مقادیر یا ترجیحات جدید (یا موجود) در جهت بهبود تعامل با محیط عملیاتی است. استدلال، به استفاده از قوانین برای رسیدن به نتایج «تقریبی» (Approximate) یا «قطعی» (Definite) اطلاق میشود. «آلن تورینگ» (Alan Turing)، که به او لقب پدر «علوم کامپیوتر نظری» (Theoretical Computer Science) و هوش مصنوعی داده شود، هوش مصنوعی را به عنوان «علم و مهندسی ساختن ماشینهای هوشمند، به ویژه برنامههای کامپیوتری هوشمند» تعریف کرده است.
🔸 انواع فناوری های هوش مصنوعی
انواع فناوری های هوش مصنوعی را میتوان به دو روش مختلف دستهبندی کرد. در روش اول، فناوری های هوش مصنوعی بر اساس قابلیتها، نحوه کاربرد و دامنه مسائلی که میتواند در آن اقدام به حل مسأله کنند، دستهبندی میشوند. در روش دوم، فناوری های هوش مصنوعی بر اساس ویژگیها و قابلیتهای ذاتی به گروههای مختلف دستهبندی میشوند.
در این دستهبندی، فناوری های هوش مصنوعی به دو گروه «هوش مصنوعی ضعیف» (Weak Artificial Intelligence) و «هوش مصنوعی عمومی» (General Artificial Intelligence) یا «هوش مصنوعی قوی» (Strong Artificial Intelligence) دستهبندی میشوند:
مطالعه ادامه مطلب 👇👇
🔗 نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی فاخته – از صفر تا صد
الگوریتم بهینه سازی فاخته (Cuckoo Optimization Algorithm) یکی از الگوریتمهای توسعه داده شده برای حل «مسائل بهینهسازی غیرخطی» (Non-Linear Optimization Problems) و «مسائل بهینهسازی پیوسته» (Continuous Optimization Problems) محسوب میشود.
این الگوریتم، از زندگی خانوادهای از پرندگان به نام «فاخته» (Cuckoo) الهام گرفته شده است. الگوریتم بهینه سازی فاخته براساس شیوه زندگی بهینه و ویژگیهای جالب این گونه، نظیر تخمگذاری و تولید مثل آنها ساخته شده است.
══ فهرست مطالب ══
○ مقدمهای از الگوریتمهای تکاملی
○ فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
○ الگوریتم بهینه سازی فاخته
○ ارزیابی عملکرد الگوریتم بهینه سازی فاخته روی توابع هدف معیار
○ پیادهسازی الگوریتم بهینه سازی فاخته در متلب
○ پیادهسازی تابع هدف Rastrigin در متلب
🔸 مقدمهای از الگوریتمهای تکاملی
به فرآیند تغییر و دستکاری ورودیها و یا خصوصیات یک دستگاه، عملیات ریاضی یا یک آزمایش علمی که در جهت رسیدن به یک خروجی با جواب بهینه انجام میشود، بهینهسازی گفته میشود. در فرآیند بهینهسازی، ورودی، متغیرهای مسأله هستند. خروجی این فرآیند، «برازندگی» (Fitness) نامیده میشود و فرآیند یا تابعی که قرار است بهینه شود، «تابع هدف» (Objective Function) نام دارد.
روشهای متفاوتی برای حل یک مسأله بهینهسازی وجود دارد. دستهای از این روشها، روشهای «بهینهسازی ریاضیاتی» (Mathematical Optimization) هستند که بر پایه فرآیندهای «قطعی» (Deterministic) ریاضی بنا نهاده شدهاند. به این دسته فرآیندهای بهینهسازی، «برنامهنویسی ریاضی» (Mathematical Programming) نیز گفته میشود.
🔸 فاختهها و شیوه زندگی منحصر به فرد این گونه برای تولید مثل
شیوه زندگی بیشتر گونههای پرندگان شبیه به هم است. پرنده ماده تخمگذاری میکند. از آنجا که تخم پرندگان حاوی مقادیر زیادی پروتئین و مواد غذایی است، بیشتر پرندگان مجبور هستند تا برای محافظت از تخمهای گذاشته شده در برابر انواع مختلف شکارچیان، آنها را در مکانهای امن نگهداری کنند.
پیدا کردن مکان مناسب برای مراقبت از تخمها و بزرگ کردن آنها، تا زمانی که به استقلال برسند، یکی از چالش برانگیزترین وظایف غریزی پرندگان گوناگون است. بیشتر پرندگان لانه خود را در میان انبوهی از برگها و شاخههای درختان میسازند و از تخمهای خود در آنها مراقبت میکنند.
در این میان، گونه خاصی از پرندگان وجود دارند که برای مراقبت از تخمهای خود و بزرگ کردن آنها به حیلهگری متوسل میشوند. این دسته پرندگان، «انگلهای جوجهگذاری» (Brood Parasite) نامیده میشوند.
فاختهها شناخته شدهترین گونه از این دسته پرندگان هستند. در ابتدا، فاخته ماده لانهای برای مراقبت از تخمهایش پیدا میکند. سپس یکی از تخمهای موجود در لانه پرنده میزبان را با یکی از تخمهای خود جا به جا میکند و با تخم پرنده میزبان از آن منطقه فرار میکند؛ فرآیندی که بیش از ده ثانیه به طول نخواهد انجامید.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی فاخته – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
🟢 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 برای مشاهده آموزشهای پرطرفدار فرادرس روی لینک زیر کلیک کنید و آموزشهای مورد علاقه خود را رایگان دانلود کنید:👇
🔸 آموزشهای رایگان هوش مصنوعی [+]
🔹 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
«هوش مصنوعی» (Artificial Intelligence)، «یادگیری ماشین» (Machine Learning)، «علم داده» (Data Scientist) و «دادهکاوی» (Data Mining) از جمله موضوعات داغ روز هستند. این روزها، کمتر صنعتی مشاهده میشود که در آن به طور مستقیم یا غیرمستقیم از یادگیری ماشین استفاده نشود. از جمله ابزارهای مهمی که برای پیادهسازی روشها و الگوریتمهای یادگیری ماشین از آنها استفاده میشود، زبانهای برنامهنویسی پایتون و R هستند. در این مطلب، علاوه بر ارائه توضیحات پیرامون انواع روشهای یادگیری ماشین، پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R نیز انجام میشود.
══ فهرست مطالب ══
○ این راهنما برای چه افرادی مناسب است؟
○ الگوریتمهای یادگیری ماشین
○ پیاده سازی الگوریتم های یادگیری ماشین با پایتون
○ ۱. رگرسیون خطی
○ ۲. رگرسیون لجستیک
○ ۳. درخت تصمیم
○ ۴. ماشین بردار پشتیبان
○ ۵. نایو بیز
○ ۶. k نزدیکترین همسایگی
○ ۷. K-Means
○ ۸. جنگل تصادفی
○ ۹. الگوریتمهای کاهش ابعاد
○ ۱۰. الگوریتمهای گرادیان تقویتی
○ جمعبندی
🔸 این راهنما برای چه افرادی مناسب است؟
ایده نهفته در پس این راهنما آن است که سفر دانشمندان داده مشتاق و علاقمندان به یادگیری ماشین را آسانتر سازد. با بهرهگیری از این راهنما، افراد قادر میشوند مسائل یادگیری ماشین را حل و ضمن آن تجربه کسب کنند. در ادامه، علاوه بر ارائه توضیحات مناسب و کافی که درک خوبی از الگوریتمهای یادگیری ماشین متعدد مطرح شده در این مطلب ارائه میکنند، کدهای پایتون و R هر یک از الگوریتمها نیز ارائه شدهاند. اما از پرداختن به جزئیات مباحث آماری نهفته در پس این الگوریتم ها اجتناب شده است. زیرا افراد در آغاز راه، نیازی به دانستن حجم بالایی از مباحث ریاضیاتی ندارند. بنابراین، به افرادی که به دنبال یادگیری مفاهیم آماری نهفته در پس این الگوریتمها هستند، استفاده از دیگر مطالب موجود در «مجله فرادرس» توصیه میشود.
🔸 الگوریتمهای یادگیری ماشین
در حالت کلی، سه دسته از الگوریتمهای یادگیری ماشین وجود دارند. این دستهها عبارتند از «یادگیری نظارت شده» (Supervised Learning)، «یادگیری نظارت نشده» (Unsupervised Learning) و «یادگیری تقویتی» (Reinforcement Learning)، که هر یک در ادامه شرح داده شدهاند.
این نوع از الگوریتمها دارای یک متغیر «هدف» (Target)/«خروجی» (Outcome)/«متغیر وابسته» (Dependent Variable) هستند که باید برای یک مجموعه از «پیشبینها» (Predictors)، پیشبینی شود. با استفاده از این مجموعه متغیرها، میتوان تابعی ساخت که ورودیها را به خروجیهای موردنظر نگاشت کند. فرآیند آموزش تا هنگامی ادامه پیدا میکند که مدل به سطح مناسبی از «صحت» (Accuracy) روی دادههای آموزش دست پیدا کند. از جمله الگوریتمهای یادگیری نظارت شده میتوان به «رگرسیون» (Regression)، «درخت تصمیم» (Decision Tree)، «جنگل تصادفی» (Random Forest)، «رگرسیون لوجستیک» (Logistic Regression) و «K-نزدیکترین همسایگی» (K Nearest Neighbors) و دیگر موارد اشاره کرد.
در الگوریتمهای یادگیری نظارت نشده، هیچ متغیر هدف یا خروجی وجود ندارد که برای پیشبینی/«برآورد» (Estimate) مورد استفاده قرار بگیرد. این الگوریتمها برای «خوشهبندی» (Clustering) جامعه در گروههای مختلف مورد استفاده قرار میگیرند و برای مثال به طور گستردهای برای بخشبندی مشتریان در گروههای مختلف استفاده میشوند. از جمله الگوریتمهای نظارت نشده میتوان به «K-میانگین» (K-means) و «اَپریوری» (Apriori) اشاره کرد.
مطالعه ادامه مطلب 👇👇
🔗 پیاده سازی الگوریتم های یادگیری ماشین با پایتون و R — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
Forwarded from FaraPython | فرا پایتون: آموزش برنامهنویسی پایتون
✳️ کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
«زبان برنامه نویسی پایتون» (Python Programming Language) یکی از محبوبترین زبانهای برنامهنویسی دهه کنونی است که طی سالهای اخیر، همواره جزو پنج زبان برنامهنویسی محبوب موجود در دنیا بوده است. پایتون، در ردهبندیهای گوناگونی که برای زبانهای برنامهنویسی و پیرامون محبوبیت، قدرتمندی، تنوع و تعدد فرصتهای شغلی آنها ارائه میشود، نه فقط جزو پنج زبان صدرنشین، که معمولا یکی از دو گزینه اول یا دوم است. محبوبیت زبان برنامهنویسی پایتون در میان توسعهدهندگان نرمافزار، شرکتها، پژوهشگران آکادمیک و افراد تازهواردی که در صدد یادگیری برنامهنویسی هستند، دلایل گوناگونی دارد. در مطلب کاربرد پایتون چیست و چه کارهایی با آن میتوان کرد، ابتدا به دلایل محبوبیت پایتون و نقش آنها در کاربردپذیری این زبان برنامهنویسی پرداخته شده است. سپس، کاربرد پایتون در حوزههای علمی، مهندسی و کاربردی گوناگون به طور کامل و جامع، همراه با معرفی قابلیتهای مختلف پایتون برای هر یک از این حوزهها، مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ آشنایی با زبان برنامهنویسی پایتون
○ ویژگیهای پایتون و نقش آن در کاربردپذیری این زبان چیست؟
○ چطور و از کجا پایتون را یاد بگیرم؟
○ موارد کاربرد پایتون در دنیای واقعی چه هستند؟
○ کاربرد پایتون در برنامهها و دورههای آموزشی شامل چه مواردی است؟
○ کاربرد پایتون در توسعه نرمافزار چیست؟
○ موارد کاربرد پایتون در برنامههای کاربردی تجاری چه هستند؟
○ کاربرد پایتون در توسعه زبانهای برنامهنویسی چیست؟
○ موارد کاربرد پایتون در طراحی سیستم عامل چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی کنسول چه مواردی هستند؟
○ کاربرد پایتون در خودکارسازی چیست؟
○ کاربرد پایتون در برنامههای کاربردی صوتی و تصویری چیست؟
○ کاربرد پایتون در طراحی به کمک کامپیوتر شامل چه مواردی است؟
○ موارد کاربرد پایتون در پردازش تصویر و طراحی گرافیکی چه هستند؟
○ کاربرد پایتون در رابط کاربری گرافیکی دسکتاپ چیست؟
○ کاربرد پایتون در توسعه بازیهای کامپیوتری چیست؟
○ کاربرد پایتون در توسعه وب چیست؟
○ مورد کاربرد پایتون در وب اسکرپینگ چیست؟
○ کاربرد پایتون در محاسبات علمی و عددی در چه مواردی است؟
○ کاربرد پایتون در علم داده و بصری سازی دادهها چگونه است؟
○ موارد کاربرد پایتون در هوش مصنوعی و یادگیری ماشین چه هستند؟
○ کاربرد پایتون در برنامههای کاربردی سیستمهای توکار چیست؟
○ کاربرد پایتون در اینترنت اشیا شامل چه مواردی است؟
○ موارد کاربرد پایتون در اندروید و برنامهنویسی موبایل چه هستند؟
○ کاربرد پایتون در حوزه مالی و فناوری مالی (فینتک) چیست؟
○ مورد کاربرد پایتون در فارکس چیست؟
○ کاربرد پایتون در پزشکی شامل چه مواردی است؟
○ کاربرد پایتون در بیوانفورماتیک و زیستشناسی چیست؟
○ مورد کاربرد پایتون در فیزیک چیست؟
○ کاربرد پایتون در مهندسی در چه مواردی است؟
○ جمعبندی پیرامون کاربرد پایتون و پاسخ به پرسش کاربرد پایتون چیست؟
🔸 آشنایی با زبان برنامهنویسی پایتون
پایتون یک «زبان برنامهنویسی سطح بالا» (High Level Programming Language)، «همهمنظوره» (General Purposes)، «متنباز» (Open Source)، «چند سکویی» (Multi Platform)، «چند پارادایمی» (Multi Paradigm) و با پشتیبانی از «انواع پویا» (Dynamic Types) است. ایده ساخت این زبان برنامهنویسی در اواخر سال ۱۹۸۰ میلادی به عنوان جایگزینی برای زبان برنامهنویسی «ایبیسی» (ABC Programming Language) شکل گرفت. زبان ایبیسی خود از «زبان برنامهنویسی SETL» الهام گرفته شده است.
«خیدو فان روسوم» (Guido van Rossum)، خالق زبان پایتون، کار طراحی و توسعه زبان برنامه نویسی پایتون را در تعطیلات سال نو آغاز کرد. او برای طراحی و توسعه این زبان، چند هدف اصلی بیان کرده بود که امروزه به جرات میتوان گفت که به همه آن اهداف رسیده است. این اهداف و رسیدن به آنها، خود به خوبی گواهی بر چرایی محبوبیت زبان پایتون و صدرنشینی آن در رتبهبندیهای گوناگون انجام شده برای زبانهای برنامهنویسی هستند.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد پایتون چیست و با آن چه می توان کرد؟ | راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی برنامه نویسی پایتون
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی برنامه نویسی پایتون را در کانال اختصاصی [@FaraPython] دنبال کنید. 👇
@FaraPython — مطالب و آموزشهای برنامه نویسی پایتون فرادرس
❤1👍1
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
👍4
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤2👍1