✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📚 طبقهبندی موضوعی: هوش مصنوعی
📖 مجله فرادرس
بزرگترین رسانه متنی آموزشی در ایران
@FaraDarsMag — مجله فرادرس
👍4
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars — فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه
لیچ یک پروتکل مسیریابی مبتنی بر خوشه در شبکههای حسگر بیسیم است که اولین بار در سال ۲۰۰۰ توسط هاینزلمن و همکارانش معرفی شد. هدف از این پروتکل کم کردن انرژی مصرفی نودها به منظور بهبود طول عمر شبکه حسگر بیسیم میباشد.
══ فهرست مطالب ══
○ عملکرد لیچ
○ ویژگیهای لیچ
○ شبیهسازی
○ بعضی نقاط ضعف لیچ
🔸 عملکرد لیچ
در لیچ نودها (حسگرها) اطلاعات خود را به سرخوشه مربوطهشان ارسال کرده و سپس سرخوشهها دادههای دریافتی را جمعآوری و فشرده کرده و در قالب یک بسته به سمت ایستگاه اصلی (یا سینک) میفرستند. هر نود از یک الگوریتم تصادفی برای تعیین اینکه آیا در چرخه جاری نقش سرخوشه را بگیرد یا خیر استفاده میکند. لیچ فرض میکند که هر نود توان رادیویی لازم برای ارسال به پایگاه اصلی یا نزدیکترین سرخوشه را دارد (هرچند استفاده از حداکثر توان رادیویی به صورت مداوم سبب مصرف هدر رفتن انرژی میشود).
نودهایی که سرخوشه میشوند، تا p چرخه نمیتوانند دوباره نقش سرخوشه را بگیرند. P درصد دلخواهی از تعداد خوشههاست. بنابراین در هر چرخه هر نود با احتمال ۱/p امکان دارد سرخوشه شود. در پایان هر چرخه، نودهایی که سرخوشه نیستند نزدیکترین سرخوشه به خود را انتخاب کرده و به خوشه مربوط به آن میپیوندد. سپس هر سرخوشه برای هر نود عضو خوشهاش یک جدول زمابندی جهت مشخص کردن زمان ارسال داده، ایجاد میکند (هر نود فقط در زمان مشخص شده میتواند به سرخوشه اطلاعات ارسال کند).
تمام نودهای غیرسرخوشه، تنها از طریق پروتکل TDMA با سرخوشه ارتباط برقرار میکنند و این کار را با توجه به جدول زمانبندی ساخته شده توسط سرخوشه انجام میدهند. برای هدر نرفتن انرژی، نودها تنها در اسلات زمانی اختصاصی مشخص شده رادیوهایشان را روشن نگه میدارند.
🔸 ویژگیهای لیچ
ویژگیهای این الگوریتم عبارتند از:
– مبتنی بر خوشه
– انتخاب تصادفی سرخوشه در هر چرخه به صورت چرخشی، و یا انتخاب سرخوشه بر اساس داشتن بالاترین سطح انرژی
– عضویت تطبیقی در خوشهها
– تجمیع داده در سرخوشه
– برقراری ارتباط مستقیم بین سرخوشه با نود سینک و یا کاربر
– ارتباط با سرخوشه با استفاده از متد TDMA
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم مسیریابی لیچ (Leach) – مبانی اولیه — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤2👍1
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ شبکه LVQ در پایتون — از صفر تا صد
در «علوم کامپیوتر» (Computer Science)، روشهای «رقمی ساز بردار یادگیر» (Learning Vector Quantization | LVQ) که به اختصار، به آنها شبکه LVQ نیز گفته میشود، خانوادهای از الگوریتمهای «دستهبندی نظارت شده مبتنی بر الگو» (Prototype-based Supervised Classification) هستند. شبکه LVQ، نقطه مقابل سیستمهای «رقمیسازی بردار» (Vector Quantization) است.
══ فهرست مطالب ══
○ شبکه LVQ
○ استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
○ نمایش مدل شبکه LVQ
○ پیشبینی با استفاده از شبکه LVQ
○ یادگیری یک مدل شبکه LVQ از روی دادههای آموزشی
○ آمادهسازی دادهها و بهینهسازی عملکرد شبکه LVQ
○ پیادهسازی شبکه LVQ در پایتون
🔸 شبکه LVQ
شبکه LVQ که مخفف عبارت Learning Vector Quantization است، یکی از الگوریتمهای یادگیری ماشین به شمار میآید که در خانواده مدلهای شبکه عصبی مصنوعی و «محاسبات عصبی» (Neural Computation) طبقهبندی میشود؛ در یک طبقهبندی گستردهتر، شبکه LVQ زیر مجموعهای از خانواده روشهای «هوش محاسباتی» (Computational Intelligence) محسوب میشود.
شبکه LVQ، یک شبکه عصبی نظارت شده است که از استراتژی «یادگیری رقابتی» (Competitive Learning) و به طور ویژه، رویکرد «همه مال برنده» (Winner-Take-All) برای یادگیری و دستهبندی دادهها استفاده میکند. از این جهت، شبکه LVQ، به دیگر مدلهای شبکه عصبی مصنوعی نظیر «پرسپترون» (Perceptron) و الگوریتم «پس انتشار» (BackPropagation) مرتبط است. همچنین، شبکه LVQ ارتباط معناداری با برخی دیگر از شبکههای عصبی مبتنی بر یادگیری رقابتی، نظیر الگوریتم نگاشتهای خود سازمانده (Self-Organizing Maps | SOM) دارد.
الگوریتمهای نگاشتهای خود سازمانده، دسته ای از روشهای «یادگیری نظارت نشده» (Unsupervised Learning) هستند که از مدلسازی ارتباط میان «نرونهای» (Neurons) تعریف شده در یک شبکه، جهت «خوشهبندی» (Clustering) دادهها استفاده میکنند. شایان توجه است که شبکه LVQ یک الگوریتم «مبنا» (Baseline) برای خانواده الگوریتمهای LVQ محسوب میشود؛ تاکنون انواع مختلفی از شبکه LVQ نظیر LVQ۱ ،LVQ۲ ،LVQ۳ ،OLVQ۱ و OLVQ۲ برای دستهبندی دادهها معرفی شدهاند.
🔸 استراتژی شبکه LVQ در دستهبندی دادهها به زبان ساده
شبکه LVQ و استراتژی «پردازش اطلاعات» (Information Processing) تعبیه شده در این روش یادگیری به گونهای توسعه داده شده است که ابتدا مجموعهای از بردارهای «رمزنگار» (Codebook) یا «الگو» (Prototype) را در دامنه ورودیهای «مشاهده شده» (Observed) مشخص میکند. در مرحله بعد، از بردارهای رمزنگار جهت دستهبندی دادههای «دیده نشده» (Unseen) استفاده میشود.
برای پیادهسازی این استراتژی در شبکه LVQ، ابتدا مجموعهای اولیه و تصادفی از بردارها (بردارهای رمزنگار) آمادهسازی میشوند. سپس، شبکه LVQ این بردارها را در معرض نمونههای آموزشی قرار میدهد. در مرحله بعد، استراتژی همه مال برنده (Winner-Take-All) جهت دستهبندی نمونههای آموزشی به کار گرفته میشود؛ در این استراتژی، یک یا چند برداری که بیشترین شباهت را به به یک الگوی ورودی داشته باشند، انتخاب میشوند. مقادیر بردار انتخاب شده، به نحوی توسط شبکه LVQ، تغییر مییابند (بهروزرسانی) که این بردار به سمت الگوی ورودی حرکت داده شود. در برخی موارد نیز، در صورتی که الگوی ورودی و بردار انتخاب شده در یک کلاس یکسان دستهبندی نشوند، مقادیر بردار انتخاب شده به نحوی توسط شبکه LVQ بهروزرسانی میشوند (تغییر مییابند) که این بردار از الگوی ورودی فاصله بگیرد.
تکرار چنین فرایندی، سبب توزیع شدن بردارهای رمزنگار (بردارهایی که در مرحله آموزش، یا به سمت الگوهای ورودی حرکت میکنند و یا از آنها دور میشوند) در «فضای ورودی» (Input Space) میشود. در واقع، توزیع بردارهای رمزنگار در فضای ورودی مسأله، توزیع نمونههای موجود در «مجموعه داده تست» (Test Dataset) را برای سیستم «تقریب» (Approximate) میزند؛ اینکه تقریبهای تولید شده (در مرحله آموزش) تا چه حدی با توزیع واقعی دادههای تست مطابقت دارد، در مرحله تست و بر اساس معیارهای ارزیابی عملکرد سیستم مشخص میشود.
مطالعه ادامه مطلب 👇👇
🔗 شبکه LVQ در پایتون — از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1👍1
Forwarded from FaraData | فرا داده: علم داده و دادهکاوی
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
✳️ آموزش اصول و روشهای دادهکاوی Data Mining
چکیده — در اغلب مسائل، وجود حجم زیاد داده ها، منجر به ایجاد اشکالات جدی در امر شناسایی و کشف روابط و الگوهای پنهان در این داده ها شده است. دانش داده کاوی با هدف فراهم آوردن روش هایی برای پردازش هوشمند حجم زیاد داده ها و استخراج روال ها و قوانین حاکم بر آن ها، مطرح شده است. این دانش در کاربردهای مختلف و اصولا در هر جا با مساله تجزیه و تحلیل اطلاعات مواجه هستیم، قابل استفاده است. در این دوره به بیان اصول و روش های داده کاوی به منظور استخراج روندها و الگوهای پنهان در داده ها، پرداخته خواهد شد.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش اصول و روشهای دادهکاوی Data Mining — کلیک کنید [+]
🤩 پیشنهاد ویژه: این آموزش و سایر آموزشهای فرادرس را در «بزرگترین جشنواره سال ۱۴۰۰ فرادرس»، با ۵۵ درصد تخفیف تهیه کنید.
🎁 کد تخفیف: EYD49
🔗 جشنواره به سوی بهار – [کلیک کنید]
📌 کانال اختصاصی آموزشی علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇
@Fara_DS — مطالب و آموزشهای علم داده فرادرس
❤1
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته میشود، به هوشمند شدن ماشینها اشاره دارد. در این مبحث، هوشمندی ماشینها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسانها و دیگر حیوانات مورد بررسی قرار میگیرد.
در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عاملهای هوشمند» نیز میگویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیتآمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیمگیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده میشود. در واقع، عبارت «هوش مصنوعی» زمانی بهکار میرود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید میکند.
══ فهرست مطالب ══
○ تاریخچه
○ مبانی
🔸 تاریخچه
در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاههای سخنگو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آنها به نقشآفرینی میپردازند میتوان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه رباتسازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیتهای هوشمند موجود در این داستانها با چالشهای بسیاری مواجهند. امروزه نیز چالشهای مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.
مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضیدانان باز میگردد. طی همین پژوهشها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، میتواند هرگونه استنتاج ریاضیاتی امکانپذیری را انجام دهد. این نگرش که رایانههای دیجیتال میتوانند هرگونه فرآیند استدلال رسمی را شبیهسازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.
با وقوع همزمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه میگوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت میکند و پاسخ یک انسان، تمایزی قائل شود، میتوان گفت ماشین هوشمند است». تلاشهای اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته میشوند و حاصل طراحی رسمی «مککلوچ» و «پیتز» جهت ساخت «عصبهای مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر دادهها در حالتی تورینگ کامل نامیده میشود که بتوان برای شبیهسازی آنها از ماشین تورینگ تک نواری استفاده کرد.
مطالعه ادامه مطلب 👇👇
🔗 هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی
بسیاری از افراد معتقد هستند که روشهای سنتی بررسی و ارزیابی سالانه نیروها جهت تعیین مبلغ افزایش حقوق و ارتقای شغلی آنها، دیگر به خوبی پاسخگو نیست؛ البته اگر بتوان گفت که این روشها در گذشته به طور مناسبی جوابگو بودهاند. نباید چنین پنداشت که الزاما کارهایی که یک کسب و کار به طور معمول انجام میدهد در دیگر نقاط جهان و دیگر کسب و کارها انجام نمیشوند. فعالیتهایی وجود دارند که در اغلب سازمانها و همه جای جهان انجام میشوند و شاید همه این سازمانها نیاز به بهبود بخشیدن روال انجام کارهای خود داشته باشند. در این مطلب، به بحث تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی پرداخته شده است.
══ فهرست مطالب ══
○ هوش مصنوعی چگونه میتواند کمک کند؟
○ هوش مصنوعی باید جزوی از تیم باشد
🔸 هوش مصنوعی چگونه میتواند کمک کند؟
سیستمهای مدیریت کارایی قدرت گرفته از هوش مصنوعی IBM، که ساخت آنها از سال ۲۰۱۵ آغاز شده، چشماندازی از این موضوع ارائه میکند که هوش مصنوعی چگونه میتواند هوش انسانی را در حالی تقویت کند که همچنان به مدیران امکان اعمال دانش و نظرات خودشان را میدهد. برای مثال، یکی از انواع پیشنهادهایی که سیستم IBM ارائه میکند آن است که «چه زمانی و چگونه، مدیران باید به طور فعال یک نیروی کلیدی که قصد ترک سازمان را دارد، تشویق به ماندن در سازمان کنند؟». با استفاده از الگوریتمهای «واتسون» (Watson algorithms)، تیم منابع انسانی، برنامهای را توسعه داده و ثبت کردهاند که الگوهای موجود در کل دادههای IBM را بررسی کرده و پیشبینی میکند که احتمال دارد کدام کارکنان در آینده نزدیک، محل کار خود را ترک کنند. الگوریتم سپس اقداماتی مانند ارائه آموزشهای بیشتر یا دادن ارتقای شغلی به عنوان پاداش را پیشنهاد میدهد تا مانع ترک سازمان توسط نیروها شود.
آیا مدیران باید بر اساس آنچه سیستم هوشمند به آنها دیکته میکند عمل کنند؟ «دایان گرسون» (Diane Gherson)، مدیر ارشد منابع انسانی در پاسخ به این پرسش میگوید: «نه؛ اما به طور کلی، مدیرانی که پیشنهادات سیستم را دنبال میکنند، موفقتر هستند».
وی در این رابطه میافزاید: «از یک سو، دادهها حاکی از آن است که دادن افزایش حقوق ٪۱۰ درصدی به کارکنان، احتمال ترک سازمان توسط آنها را تا ٪۹۰ کاهش میدهد. مدیرانی که به پیشنهادات سیستم توجه نکردهاند، نرخ ریزش نیروی بالاتری در تیمهای خود داشتهاند و در واقع، این میزان برای آنها دو برابر بیشتر از مدیرانی بوده که به پیشنهادات سیستم توجه کردهاند. راهکار دیگری که موجب شده تا سیستم هوشمند IBM در مقابل مدیران دیرباور پیروز شود، تشریح دلیل پیشنهاد یک اقدام خاص بوده است. در حقیقت، باید جعبه سیاه را کمی باز کرد و دادهها را به افراد نشان داد».
🔸 هوش مصنوعی باید جزوی از تیم باشد
«مارک ونگل» (Marc Wangel)، مدیر کارآزموده IBM که در حال حاضر یک تیم فنی و استراتژی ۱۲ نفری را در منطقه کلانشهری واشینگتن، دی.سی هدایت میکند، از سیستم مبتنی بر داده IBM به عنوان سیستمی یاد میکند که برای مدیران بینش فراهم میکند، نه آنکه به آنها دستور دهد. ارزیابی کارایی کارکنان به شیوه سنتی، نیازمند آن است که اطلاعات موجود در بایگانیهای چندین دپارتمان منابع انسانی سازمان مورد بررسی قرار بگیرند. در مقابل، سیستم جدید، اطلاعاتی پیرامون کلیه جنبههای شغلی هر فرد را به طور آنی برای خود فرد یا رئیس او فراهم میکند.
ونگل در این رابطه میگوید: «این کار، موجب ذخیره زمان بسیار زیادی میشود و باعث میشود تا من بتوانم مدیر بهتری باشم. اما چگونه؟ من زمان بیشتری را برای ملاقات با اعضای تیم خودم و داشتن مکالمات آموزنده دارم».
حرکت کردن روی موجهای موفقیت برای سازمانها بسیار حائز اهمیت است. مدیریت کارایی کمک میکند تا مهارتها و استعدادهای خوب، در زمان مناسب، در جایگاه خوبی قرار بگیرند. اگرچه، نقش مدیران به عنوان مربی، مشاور و راهنما، استعدادیاب و مشوقها در چنینی شرایطی حتی مهمتر از دیگر مواقع خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 تعیین مبلغ افزایش حقوق کارکنان با هوش مصنوعی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ساخت شبکه عصبی — راهنمای مقدماتی
در این نوشته قصد داریم پرده از ابهامات شبکههای عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق میافتد آشنا شویم.
══ فهرست مطالب ══
○ شبکه عصبی مصنوعی چیست؟
○ مبانی شبکه عصبی
○ اندازه لایههای مختلف
○ تعداد نورونهای هر لایه
○ بهینهساز
○ تابع فعالسازی
○ مقداردهی مدل
🔸 شبکه عصبی مصنوعی چیست؟
شبکههای عصبی (مصنوعی) به دلیل شباهت نسبیشان به شبکههای عصبی در مغز به این صورت نامگذاری شدهاند و شامل اتصالهایی از جنس نورونهای مصنوعی هستند. این شبکهها از طریق اتصالهای بین نورونها که سیناپس نام دارد فعالیت میکنند. سیناپسها اطلاعات را از یک نورون به نورون دیگر ارسال میکنند. یک نورون میتواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورونهای دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.
🔸 مبانی شبکه عصبی
جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر میخواهید مدلها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، میبایست همه کتابخانههای مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثالهای این مقاله، کاربر نیازمند کتابخانههای Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍3
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود.
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود.
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام
مکانیزم «کپچا» (CAPTCHA) که مخفف اصطلاح «مکانیزم کاملا خودکار شده و عمومی تورینگ جهت تمایز قائل شدن میان انسان و کامپیوتر» (Completely Automated Public Turing to tell Computers and Humans Apart) است، یک مکانیزم امنیتی به شمار میآید که در بسترهای آنلاین و برای تشخیص انسان یا ربات بودن متقاضی سرویس اینترنتی بهکار میرود.
══ فهرست مطالب ══
○ ساختن مدل یادگیری برای دور زدن کپچا
○ آمادهسازی دادههای آموزشی
○ ساختن و آموزش مدل شبکه عصبی پیچشی برای دور زدن کپچا
○ جمعبندی
🔸 ساختن مدل یادگیری برای دور زدن کپچا
جهت تشخیص متنهای موجود در تصاویر کپچا، از مدلهای «شبکه عصبی پیچشی» (Convolutional Neural Network) استفاده خواهد شد. مدل شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر کپچا آموزش خواهید دید. برای ساختن مدل یادگیری لازم برای دور زدن کپچا، لازم است تا ابتدا هر کدام از حروف موجود در تصاویر جداسازی شوند و برای آموزش شبکه عصبی پیچشی، مورد پردازش قرار بگیرند. پس از آموزش شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر، مدل قادر خواهد بود تا «تصاویر کپچای دیده نشده» (Unseen CAPTCHA Images) را به عنوان ورودی دریافت کند و متنهای موجود در آنها را تشخیص دهد.
همانطور که پیش از این نیز اشاره شد، برای استخراج متن از تصاویر و دور زدن کپچا، از کتابخانههای Keras و openCV در زبان برنامهنویسی پایتون استفاده خواهد شد.
🔸 آمادهسازی دادههای آموزشی
اولین قدم برای پیادهسازی مدل شبکه عصبی پیچشی، آمادهسازی دادههای لازم برای آموزش مدل یادگیری است. برای چنین کاری، هر کدام از تصاویر موجود در مجموعه داده آموزشی، به ترتیب وارد سیستم میشوند. سپس، حروف موجود در تصاویر جداسازی و به عنوان یک فایل تصویری جدید ذخیره میشوند. همانطور که در تصویر بالا نیز قابل مشاهده است، ساختار مجموعه داده آموزشی و تست به این گونه است که نام انتخاب شده برای هر کدام از تصاویر، نمایش دهنده حروف موجود در تصویر است.
بنابراین، در مرحله اول از پیادهسازی شبکه عصبی پیچشی جهت دور زدن کپچا و هک کردن آن، تمامی «وابستگیهای برنامهنویسی» (Programming Dependencies) بارگیری و تصاویر توسط کتابخانه openCV در محیط برنامهنویسی پایتون خوانده خواهند شد.
در هنگام بررسی تصاویر موجود در مجموعه آموزشی، مشاهده شده است که بعضا حروف موجود در تصاویر کپچا، به «مرز» (Border) تصویر بسیار نزدیک هستند. چنین نقیصهای ممکن است فرایند تشخیص حرفهای موجود در تصاویر را با اختلال مواجه کند. برای رفع چنین نقیصهای در تصاویر کپچا، از فرایند «لایهگذاری» (Padding) استفاده میشود تا دو پیکسل به حاشیه تصاویر اضافه شود.
مطالعه ادامه مطلب 👇👇
🔗 دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام
مکانیزم «کپچا» (CAPTCHA) که مخفف اصطلاح «مکانیزم کاملا خودکار شده و عمومی تورینگ جهت تمایز قائل شدن میان انسان و کامپیوتر» (Completely Automated Public Turing to tell Computers and Humans Apart) است، یک مکانیزم امنیتی به شمار میآید که در بسترهای آنلاین و برای تشخیص انسان یا ربات بودن متقاضی سرویس اینترنتی بهکار میرود.
══ فهرست مطالب ══
○ ساختن مدل یادگیری برای دور زدن کپچا
○ آمادهسازی دادههای آموزشی
○ ساختن و آموزش مدل شبکه عصبی پیچشی برای دور زدن کپچا
○ جمعبندی
🔸 ساختن مدل یادگیری برای دور زدن کپچا
جهت تشخیص متنهای موجود در تصاویر کپچا، از مدلهای «شبکه عصبی پیچشی» (Convolutional Neural Network) استفاده خواهد شد. مدل شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر کپچا آموزش خواهید دید. برای ساختن مدل یادگیری لازم برای دور زدن کپچا، لازم است تا ابتدا هر کدام از حروف موجود در تصاویر جداسازی شوند و برای آموزش شبکه عصبی پیچشی، مورد پردازش قرار بگیرند. پس از آموزش شبکه عصبی پیچشی روی تصاویر مربوط به حروف موجود در تصاویر، مدل قادر خواهد بود تا «تصاویر کپچای دیده نشده» (Unseen CAPTCHA Images) را به عنوان ورودی دریافت کند و متنهای موجود در آنها را تشخیص دهد.
همانطور که پیش از این نیز اشاره شد، برای استخراج متن از تصاویر و دور زدن کپچا، از کتابخانههای Keras و openCV در زبان برنامهنویسی پایتون استفاده خواهد شد.
🔸 آمادهسازی دادههای آموزشی
اولین قدم برای پیادهسازی مدل شبکه عصبی پیچشی، آمادهسازی دادههای لازم برای آموزش مدل یادگیری است. برای چنین کاری، هر کدام از تصاویر موجود در مجموعه داده آموزشی، به ترتیب وارد سیستم میشوند. سپس، حروف موجود در تصاویر جداسازی و به عنوان یک فایل تصویری جدید ذخیره میشوند. همانطور که در تصویر بالا نیز قابل مشاهده است، ساختار مجموعه داده آموزشی و تست به این گونه است که نام انتخاب شده برای هر کدام از تصاویر، نمایش دهنده حروف موجود در تصویر است.
بنابراین، در مرحله اول از پیادهسازی شبکه عصبی پیچشی جهت دور زدن کپچا و هک کردن آن، تمامی «وابستگیهای برنامهنویسی» (Programming Dependencies) بارگیری و تصاویر توسط کتابخانه openCV در محیط برنامهنویسی پایتون خوانده خواهند شد.
در هنگام بررسی تصاویر موجود در مجموعه آموزشی، مشاهده شده است که بعضا حروف موجود در تصاویر کپچا، به «مرز» (Border) تصویر بسیار نزدیک هستند. چنین نقیصهای ممکن است فرایند تشخیص حرفهای موجود در تصاویر را با اختلال مواجه کند. برای رفع چنین نقیصهای در تصاویر کپچا، از فرایند «لایهگذاری» (Padding) استفاده میشود تا دو پیکسل به حاشیه تصاویر اضافه شود.
مطالعه ادامه مطلب 👇👇
🔗 دور زدن کپچا با شبکه عصبی پیچشی در پایتون — راهنمای گام به گام — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
Forwarded from FaraDars | فرادرس
🚀 اپلیکیشن فرادرس منتشر شد‼️
📱 اپلیکیشن آموزشی فرادرس، در گوگل پلی منتشر شد و هماکنون در دسترس عموم است.
⭕️ با دانلود و نصب اپلیکیشن فرادرس، کاربران موبایل میتوانند با سادگی بیشتر و تجربهای بهتر، آموزشهای مورد نظر خود را از فرادرس جستوجو و مشاهده کنند.
✔️ برخی از قابلیتهای اپلیکیشن:
✓ امکان جستجو در کتابخانه آموزشهای ویدئویی با بیش از ۵,۰۰۰ عنوان آموزش (۱۹,۰۰۰ ساعت آموزش)
✓مشاهده فهرست جدیدترین آموزشها، آموزشهای پرمخاطب، وبینارها و آموزشهای رایگان به صورت دستهبندی شده
✓ دسترسی به آموزشهای رایگان فرادرس و مشاهده آنها
✓ قابلیت جستجوی پیشرفته در کتابخانه آموزشهای فرادرس با تعیین فیلترهای خاص
✓امکان مشاهده دورههای تهیه شده توسط کاربر در پلیر سازگار با موبایل
✓ امکان ورود به پنل کاربری، ویرایش پروفایل و شارژ حساب
📲 با نصب این اپلیکیشن، میتوانید آموزشهای مورد علاقه خود را ذخیره و در فرصت مناسبتر آنها را با دقت مشاهده کنید.
📌 دریافت اپلیکیشن فرادرس از گوگل پلی (+)
📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا
@FaraDars — فرادرس
🚀 اپلیکیشن فرادرس منتشر شد‼️
📱 اپلیکیشن آموزشی فرادرس، در گوگل پلی منتشر شد و هماکنون در دسترس عموم است.
⭕️ با دانلود و نصب اپلیکیشن فرادرس، کاربران موبایل میتوانند با سادگی بیشتر و تجربهای بهتر، آموزشهای مورد نظر خود را از فرادرس جستوجو و مشاهده کنند.
✔️ برخی از قابلیتهای اپلیکیشن:
✓ امکان جستجو در کتابخانه آموزشهای ویدئویی با بیش از ۵,۰۰۰ عنوان آموزش (۱۹,۰۰۰ ساعت آموزش)
✓مشاهده فهرست جدیدترین آموزشها، آموزشهای پرمخاطب، وبینارها و آموزشهای رایگان به صورت دستهبندی شده
✓ دسترسی به آموزشهای رایگان فرادرس و مشاهده آنها
✓ قابلیت جستجوی پیشرفته در کتابخانه آموزشهای فرادرس با تعیین فیلترهای خاص
✓امکان مشاهده دورههای تهیه شده توسط کاربر در پلیر سازگار با موبایل
✓ امکان ورود به پنل کاربری، ویرایش پروفایل و شارژ حساب
📲 با نصب این اپلیکیشن، میتوانید آموزشهای مورد علاقه خود را ذخیره و در فرصت مناسبتر آنها را با دقت مشاهده کنید.
📌 دریافت اپلیکیشن فرادرس از گوگل پلی (+)
📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا
@FaraDars — فرادرس
👍3
✳️ رگرسیون خطی چندگانه (Multiple Linear Regression) برای پایگاههای داده مبتنی گراف
در این نوشته به شما نشان خواهیم داد که چگونه میتوانید با استفاده از یک مجموعه رویههای تعریف شده از سوی کاربر، یک مدل رگرسیون خطی با چندین متغیر مستقل برای مجموعه دادههایی در خصوص املاک برای اجاره کوتاهمدت بسازید. چنین رگرسیونهایی بنام رگرسیون خطی چندگانه نامیده میشوند.
══ فهرست مطالب ══
○ پیشزمینه
○ انواع مختلف رگرسیونهای خطی چندگانه
○ کاربرد عملی رگرسیون خطی چندگانه
○ یک گام به پس
○ خلاصه
🔸 پیشزمینه
پیش از آن که بخواهیم به بررسی بازار املاک اجارهای آستین بپردازیم، برخی جزییات مهم رگرسیون خطی چندگانه را بررسی میکنیم. به خاطر داشته باشید که در رگرسیون خطی ساده قصد ما این است که متغیر وابسته یعنی y را با استفاده از مقدار یک متغیر منفرد مستقل به نام x پیشبینی کنیم. اما در رگرسیون خطی چندگانه قصد بر این است که از متغیرهای چندگانه مستقل (x۱, x۲, …,xp) برای پیشبینی متغیر وابسته y استفاده شود.
درک بصری رگرسیون خطی چندگانه اندکی دشوارتر است و به تعداد متغیرهای مستقل (p) بستگی دارد. اگر p=۱ باشد، رگرسیون چندگانه به یک رگرسیون خطی ساده تبدیل میشود و نقاط دادهای (x۱,y) بر روی یک سیستم مختصات دوبعدی استاندارد (با محورهای x و y) قرار میگیرد. رگرسیون خطی را که بیشترین برازش را بر روی همه دادهها دارد مییابد.
اگر p=۲ باشد، نقاط دادهای (x۱,x۲,y) در یک سیستم مختصات ۳ بعدی (با محورهای x، y و z) قرار میگیرد و رگرسیون خطی چندگانه صفحهای که بیشترین برازش را روی همه نقاط دادهای دارد مییابد.
🔸 انواع مختلف رگرسیونهای خطی چندگانه
میبایست توجه کنید که دو نوع رگرسیون خطی چندگانه وجود دارد، یکی کمترین مربعات معمولی (OLS) و دیگری کمترین مربعات تعمیم یافته (GLS) است. تفاوت اصلی بین این دو نوع آن است که در OLS فرض میشود همبستگی قوی بین هیچ دو متغیر مستقل وجود ندارد. GLS با متغیرهای مستقل همبسته سروکار دارد و در آن ابتدا دادهها تبدیل میشوند و سپس از OLS برای ساخت مدلی از دادههای تبدیل یافته استفاده میشود.
هر دو رویههای فوق از OLS استفاده میکنند. از این رو برای ساخت یک مدل موفق ابتدا باید در مورد رابطه بین متغیرها به خوبی اندیشه کنید. شاید درست نباشد که تعداد اتاق خواب bedrooms و فضای موجود accommodates را به عنوان دو متغیر مستقل از هم در نظر بگیریم چون مشخص است که تعداد اتاقهای خواب یک بنا با فضای موجود آن همبستگی کامل دارند. از سوی دیگر رابطه منطقی روشنی بین تعداد نظرات و تعداد اتاقهای خواب یک بنا وجود ندارد. برای تحلیل کمّیتر میتوانید متغیرهای مستقل را طوری انتخاب کنید که هر جفت ضریب همبستگی پیرسون نزدیک به صفر داشته باشند.
مطالعه ادامه مطلب 👇👇
🔗 رگرسیون خطی چندگانه (Multiple Linear Regression) برای پایگاه های داده مبتنی گراف — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ رگرسیون خطی چندگانه (Multiple Linear Regression) برای پایگاههای داده مبتنی گراف
در این نوشته به شما نشان خواهیم داد که چگونه میتوانید با استفاده از یک مجموعه رویههای تعریف شده از سوی کاربر، یک مدل رگرسیون خطی با چندین متغیر مستقل برای مجموعه دادههایی در خصوص املاک برای اجاره کوتاهمدت بسازید. چنین رگرسیونهایی بنام رگرسیون خطی چندگانه نامیده میشوند.
══ فهرست مطالب ══
○ پیشزمینه
○ انواع مختلف رگرسیونهای خطی چندگانه
○ کاربرد عملی رگرسیون خطی چندگانه
○ یک گام به پس
○ خلاصه
🔸 پیشزمینه
پیش از آن که بخواهیم به بررسی بازار املاک اجارهای آستین بپردازیم، برخی جزییات مهم رگرسیون خطی چندگانه را بررسی میکنیم. به خاطر داشته باشید که در رگرسیون خطی ساده قصد ما این است که متغیر وابسته یعنی y را با استفاده از مقدار یک متغیر منفرد مستقل به نام x پیشبینی کنیم. اما در رگرسیون خطی چندگانه قصد بر این است که از متغیرهای چندگانه مستقل (x۱, x۲, …,xp) برای پیشبینی متغیر وابسته y استفاده شود.
درک بصری رگرسیون خطی چندگانه اندکی دشوارتر است و به تعداد متغیرهای مستقل (p) بستگی دارد. اگر p=۱ باشد، رگرسیون چندگانه به یک رگرسیون خطی ساده تبدیل میشود و نقاط دادهای (x۱,y) بر روی یک سیستم مختصات دوبعدی استاندارد (با محورهای x و y) قرار میگیرد. رگرسیون خطی را که بیشترین برازش را بر روی همه دادهها دارد مییابد.
اگر p=۲ باشد، نقاط دادهای (x۱,x۲,y) در یک سیستم مختصات ۳ بعدی (با محورهای x، y و z) قرار میگیرد و رگرسیون خطی چندگانه صفحهای که بیشترین برازش را روی همه نقاط دادهای دارد مییابد.
🔸 انواع مختلف رگرسیونهای خطی چندگانه
میبایست توجه کنید که دو نوع رگرسیون خطی چندگانه وجود دارد، یکی کمترین مربعات معمولی (OLS) و دیگری کمترین مربعات تعمیم یافته (GLS) است. تفاوت اصلی بین این دو نوع آن است که در OLS فرض میشود همبستگی قوی بین هیچ دو متغیر مستقل وجود ندارد. GLS با متغیرهای مستقل همبسته سروکار دارد و در آن ابتدا دادهها تبدیل میشوند و سپس از OLS برای ساخت مدلی از دادههای تبدیل یافته استفاده میشود.
هر دو رویههای فوق از OLS استفاده میکنند. از این رو برای ساخت یک مدل موفق ابتدا باید در مورد رابطه بین متغیرها به خوبی اندیشه کنید. شاید درست نباشد که تعداد اتاق خواب bedrooms و فضای موجود accommodates را به عنوان دو متغیر مستقل از هم در نظر بگیریم چون مشخص است که تعداد اتاقهای خواب یک بنا با فضای موجود آن همبستگی کامل دارند. از سوی دیگر رابطه منطقی روشنی بین تعداد نظرات و تعداد اتاقهای خواب یک بنا وجود ندارد. برای تحلیل کمّیتر میتوانید متغیرهای مستقل را طوری انتخاب کنید که هر جفت ضریب همبستگی پیرسون نزدیک به صفر داشته باشند.
مطالعه ادامه مطلب 👇👇
🔗 رگرسیون خطی چندگانه (Multiple Linear Regression) برای پایگاه های داده مبتنی گراف — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ آموزش مقدمهای در رابطه با یادگیری ماشین با پایتون (Python) (رایگان)
چکیده — امروزه، یادگیری ماشین در اکثر صنایع و کسب و کارها مورد استفاده قرار می گیرد و تصمیمات بسیار تاثیرگذار دنیای امروز بر اساس پردازش ها و نتایج به دست آمده از یادگیری ماشین است. همچنین زبان برنامه نویسی پایتون (Python) با رشد و گسترده تر شدن روزافزون جامعه کاربری اش، بستر بسیار مناسبی جهت فعالیت های یادگیری ماشین را فراهم کرده است.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش مقدمه ای در رابطه با یادگیری ماشین با پایتون (Python) (رایگان) — کلیک کنید [+]
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ آموزش مقدمهای در رابطه با یادگیری ماشین با پایتون (Python) (رایگان)
چکیده — امروزه، یادگیری ماشین در اکثر صنایع و کسب و کارها مورد استفاده قرار می گیرد و تصمیمات بسیار تاثیرگذار دنیای امروز بر اساس پردازش ها و نتایج به دست آمده از یادگیری ماشین است. همچنین زبان برنامه نویسی پایتون (Python) با رشد و گسترده تر شدن روزافزون جامعه کاربری اش، بستر بسیار مناسبی جهت فعالیت های یادگیری ماشین را فراهم کرده است.
کسب اطلاعات بیشتر 👇👇
🔗 آموزش مقدمه ای در رابطه با یادگیری ماشین با پایتون (Python) (رایگان) — کلیک کنید [+]
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍2
✨ در کانالهای موضوعی و تخصصیِ فرادرس، چه مطالبی به صورت رایگان ارائه میشود؟
🔹 جدیدترین و بهروز ترین مقالات آموزشی در رشتههای مختلف تحصیلی و تخصصی
🔹 خلاصه دروس دانشگاهی
🔹 مطالب جذاب علمی و ویدئوهای آموزشی
🔹 آموزش مهارتهای کاربردی
🌟 برای دسترسی سریعتر به مطالب و مقالات آموزشی رایگان فرادرس، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزشی برنامهنویسی:
@FaraProg
📌کانال آموزشی برنامهنویسی پایتون:
@FaraPython
📌کانال آموزشی برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزشی برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزشی طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزشی متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزشی رباتیک:
@FaraRobotics
📌کانال آموزشی هوش مصنوعی:
@FaraAI
📌کانال آموزشی علم داده:
@Fara_DS
📌کانال آموزشی مهندسی:
@FaraEng
📌کانال آموزشی مهندسی مکانیک:
@FaraMechanical
📌کانال آموزشی مهندسی برق:
@FaraElectrical
📌کانال آموزشی مهندسی عمران:
@FaraCivil
📌کانال آموزشی معماری:
@FaraArch
📌کانال آموزشی شیمی:
@FaraChem
📌کانال آموزشی مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزشی طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزشی زبان:
@FaraLang
📌کانال آموزشی زیستشناسی:
@FaraBio
📌کانال آموزشی فیزیک:
@FaraPhys
📌کانال آموزشی ریاضیات:
@FaraMathematic
📌کانال آموزشی آمار و احتمالات:
@FaraStatistics
📌کانال آموزشی آفیس:
@FaraOffice
📌کانال آموزشی بورس:
@FaraVest
📌کانال آموزشی بازاریابی دیجیتال:
@Kaprila
📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا
@FaraDars — فرادرس
✨ در کانالهای موضوعی و تخصصیِ فرادرس، چه مطالبی به صورت رایگان ارائه میشود؟
🔹 جدیدترین و بهروز ترین مقالات آموزشی در رشتههای مختلف تحصیلی و تخصصی
🔹 خلاصه دروس دانشگاهی
🔹 مطالب جذاب علمی و ویدئوهای آموزشی
🔹 آموزش مهارتهای کاربردی
🌟 برای دسترسی سریعتر به مطالب و مقالات آموزشی رایگان فرادرس، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزشی برنامهنویسی:
@FaraProg
📌کانال آموزشی برنامهنویسی پایتون:
@FaraPython
📌کانال آموزشی برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزشی برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزشی طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزشی متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزشی رباتیک:
@FaraRobotics
📌کانال آموزشی هوش مصنوعی:
@FaraAI
📌کانال آموزشی علم داده:
@Fara_DS
📌کانال آموزشی مهندسی:
@FaraEng
📌کانال آموزشی مهندسی مکانیک:
@FaraMechanical
📌کانال آموزشی مهندسی برق:
@FaraElectrical
📌کانال آموزشی مهندسی عمران:
@FaraCivil
📌کانال آموزشی معماری:
@FaraArch
📌کانال آموزشی شیمی:
@FaraChem
📌کانال آموزشی مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزشی طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزشی زبان:
@FaraLang
📌کانال آموزشی زیستشناسی:
@FaraBio
📌کانال آموزشی فیزیک:
@FaraPhys
📌کانال آموزشی ریاضیات:
@FaraMathematic
📌کانال آموزشی آمار و احتمالات:
@FaraStatistics
📌کانال آموزشی آفیس:
@FaraOffice
📌کانال آموزشی بورس:
@FaraVest
📌کانال آموزشی بازاریابی دیجیتال:
@Kaprila
📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا
@FaraDars — فرادرس
👍3
Forwarded from FaraDars | فرادرس
🎁 پکیج برنامهنویسی مورد علاقه خود را انتخاب کنید و هدیه بگیرید!
✨ فرادرس امروز برای شما ۷ پکیج آموزشی در حوزه برنامهنویسی، آماده کرده است:
▫️ اندروید Android
▫️ طراحی سایت
▫️ پایتون Python
▫️ سی شارپ #C
▫️ جاوا Java
▫️ سی پلاس پلاس ++C
▫️ پایگاه داده
❓از بین این عنوانها، به کدام حوزه از برنامهنویسی علاقه دارید؟
🎊 برای شرکت قرعهکشی و دریافت یک پکیج رایگان برنامهنویسی، از طریق لینک زیر وارد صفحه اینستاگرام فرادرس شوید و در زیر پست مربوط به این چالش(+)، نام پکیج مورد علاقه خود را کامنت کنید. 👇
🔗 شرکت در قرعهکشی — [کلیک کنید]
🎁 ۱۰ پکیج رایگان برای ۱۰ نفر
🎉 فرادرس به قید قرعه از بین تمام کسانی که نام پکیج مورد علاقه خود را در کامنت بنویسند، به ۱۰ نفر پکیج مورد نظرشان را به صورت رایگان هدیه میدهد.
⏰ مهلت مشارکت: پایان روز دوشنبه، ۳ مرداد
📆 اعلام نتایج: روز سهشنبه، ۴ مرداد
برای اطلاع از سایر مسابقهها و دریافت هدایای ویژه، صفحه اینستاگرام فرادرس را دنبال کنید:
🔗 instagram.com/FaraDars
🥰 این پست را با دوستان خود به اشتراک بگذارید تا از این فرصت ویژه باخبر شوند.🗣
@FaraDars — فرادرس
🎁 پکیج برنامهنویسی مورد علاقه خود را انتخاب کنید و هدیه بگیرید!
✨ فرادرس امروز برای شما ۷ پکیج آموزشی در حوزه برنامهنویسی، آماده کرده است:
▫️ اندروید Android
▫️ طراحی سایت
▫️ پایتون Python
▫️ سی شارپ #C
▫️ جاوا Java
▫️ سی پلاس پلاس ++C
▫️ پایگاه داده
❓از بین این عنوانها، به کدام حوزه از برنامهنویسی علاقه دارید؟
🎊 برای شرکت قرعهکشی و دریافت یک پکیج رایگان برنامهنویسی، از طریق لینک زیر وارد صفحه اینستاگرام فرادرس شوید و در زیر پست مربوط به این چالش(+)، نام پکیج مورد علاقه خود را کامنت کنید. 👇
🔗 شرکت در قرعهکشی — [کلیک کنید]
🎁 ۱۰ پکیج رایگان برای ۱۰ نفر
🎉 فرادرس به قید قرعه از بین تمام کسانی که نام پکیج مورد علاقه خود را در کامنت بنویسند، به ۱۰ نفر پکیج مورد نظرشان را به صورت رایگان هدیه میدهد.
⏰ مهلت مشارکت: پایان روز دوشنبه، ۳ مرداد
📆 اعلام نتایج: روز سهشنبه، ۴ مرداد
برای اطلاع از سایر مسابقهها و دریافت هدایای ویژه، صفحه اینستاگرام فرادرس را دنبال کنید:
🔗 instagram.com/FaraDars
🥰 این پست را با دوستان خود به اشتراک بگذارید تا از این فرصت ویژه باخبر شوند.🗣
@FaraDars — فرادرس