✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ محاسبات نرم چیست ؟ — به زبان ساده
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ شناسایی آماری الگو | آموزش جامع و رایگان
در این مطلب از مجله فرادرس، مفهوم و روشهای شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته میشود، شناسایی خودکار الگوها و قواعد موجود در دادهها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشردهسازی دادهها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته میشود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته میشود.
══ فهرست مطالب ══
○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
○ شناسایی آماری الگو و یادگیری ماشین
○ هدف تشخیص الگو و شناسایی آماری الگو
○ مقدمهای بر شناسایی آماری الگو
○ تشخیص الگو چیست؟
○ شناسایی آماری الگو
○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
○ گامهای موجود در شناسایی آماری الگو
○ روشهای شناسایی آماری الگو
○ کاربردهای شناسایی آماری الگو
○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو
🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
عموما، هدف الگوریتمهای تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودیهای ممکن و انجام محتملترین «تطبیق» برای ورودیها با در نظر گرفتن تنوع آماری آنها است. این مورد، برعکس الگوریتمهای «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان دادهها میگردند. به عنوان مثالی از الگوریتمهای تطبیق الگو میتوان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شدهای، در یک داده متنی میگردد.
از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتمهای تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شدهاند) گاهی میتوانند در فراهم کردن خروجی درست با کیفیت مشابه خروجیهای تولید شده توسط الگوریتمهای تشخیص الگو کار کنند.
🔸 شناسایی آماری الگو و یادگیری ماشین
ریشههای بازشناسی الگو به آمار و مهندسی بازمیگردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب میشود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب میشوند. دلیل این امر افزایش حجم دادهها و در واقع تولید «کلان دادهها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را میتوان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سالهای مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:
در واژهشناسی یادگیری ماشین، دستهبندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعهای از مشاهدات که دسته آنها به درستی تشخیص داده شده است (و برچسبگذرای شدهاند)، گفته میشود. سیستمهای تشخیص الگو در اغلب موارد با استفاده از دادههای «برچسبگذاری شده» (Labeled) (یادگیری نظارت شده) آموزش میبینند. اما هنگامی که هیچ داده برچسبگذاری شدهای موجود نباشد، انواع دیگری از الگوریتمها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بیناظر | Unsupervised Learning).
مطالعه ادامه مطلب 👇👇
🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب از مجله فرادرس، مفهوم و روشهای شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته میشود، شناسایی خودکار الگوها و قواعد موجود در دادهها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشردهسازی دادهها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته میشود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته میشود.
══ فهرست مطالب ══
○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
○ شناسایی آماری الگو و یادگیری ماشین
○ هدف تشخیص الگو و شناسایی آماری الگو
○ مقدمهای بر شناسایی آماری الگو
○ تشخیص الگو چیست؟
○ شناسایی آماری الگو
○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
○ گامهای موجود در شناسایی آماری الگو
○ روشهای شناسایی آماری الگو
○ کاربردهای شناسایی آماری الگو
○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو
🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
عموما، هدف الگوریتمهای تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودیهای ممکن و انجام محتملترین «تطبیق» برای ورودیها با در نظر گرفتن تنوع آماری آنها است. این مورد، برعکس الگوریتمهای «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان دادهها میگردند. به عنوان مثالی از الگوریتمهای تطبیق الگو میتوان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شدهای، در یک داده متنی میگردد.
از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتمهای تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شدهاند) گاهی میتوانند در فراهم کردن خروجی درست با کیفیت مشابه خروجیهای تولید شده توسط الگوریتمهای تشخیص الگو کار کنند.
🔸 شناسایی آماری الگو و یادگیری ماشین
ریشههای بازشناسی الگو به آمار و مهندسی بازمیگردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب میشود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب میشوند. دلیل این امر افزایش حجم دادهها و در واقع تولید «کلان دادهها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را میتوان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سالهای مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:
در واژهشناسی یادگیری ماشین، دستهبندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعهای از مشاهدات که دسته آنها به درستی تشخیص داده شده است (و برچسبگذرای شدهاند)، گفته میشود. سیستمهای تشخیص الگو در اغلب موارد با استفاده از دادههای «برچسبگذاری شده» (Labeled) (یادگیری نظارت شده) آموزش میبینند. اما هنگامی که هیچ داده برچسبگذاری شدهای موجود نباشد، انواع دیگری از الگوریتمها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بیناظر | Unsupervised Learning).
مطالعه ادامه مطلب 👇👇
🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی
«تحلیل دادههای چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیلها است که امروزه با توجه به افزایش حجم و البته، ابعاد دادهها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیلها، روابط گوناگون موجود میان متغیرها و به طور کل، دادهها، در نظر گرفته میشوند. در ادامه، برخی از روشهای تحلیل داده های چند بعدی در پایتون مورد بررسی قرار میگیرد.
══ فهرست مطالب ══
○ مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
○ تحلیل داده های چند بعدی در پایتون
○ تحلیل خوشه
○ تحلیل EDA
🔸 مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
مجموعه دادهای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.
این مجموعه داده را میتوان از اینجا دانلود کرد.
🔸 تحلیل داده های چند بعدی در پایتون
در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، میتوان از قطعه کد زیر استفاده کرد.
خروجی قطعه کد بالا، به صورت زیر است.
نکته: نوع ویژگیهایی که در این مجموعه داده وجود دارند، معمولا «دستهای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل دادههای دستهای، بسیار ساده و قابل درک است و تفسیر و پیادهسازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) میشود.
مطالعه ادامه مطلب 👇👇
🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«تحلیل دادههای چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیلها است که امروزه با توجه به افزایش حجم و البته، ابعاد دادهها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیلها، روابط گوناگون موجود میان متغیرها و به طور کل، دادهها، در نظر گرفته میشوند. در ادامه، برخی از روشهای تحلیل داده های چند بعدی در پایتون مورد بررسی قرار میگیرد.
══ فهرست مطالب ══
○ مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
○ تحلیل داده های چند بعدی در پایتون
○ تحلیل خوشه
○ تحلیل EDA
🔸 مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
مجموعه دادهای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.
این مجموعه داده را میتوان از اینجا دانلود کرد.
🔸 تحلیل داده های چند بعدی در پایتون
در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، میتوان از قطعه کد زیر استفاده کرد.
خروجی قطعه کد بالا، به صورت زیر است.
نکته: نوع ویژگیهایی که در این مجموعه داده وجود دارند، معمولا «دستهای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل دادههای دستهای، بسیار ساده و قابل درک است و تفسیر و پیادهسازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) میشود.
مطالعه ادامه مطلب 👇👇
🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری
در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از دادهها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهرهگیری از دادهها کمک کند.
══ فهرست مطالب ══
○ مهارت های مهم برای دانشمندان داده در سال ۹۹
🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹
آگاهی از اینکه چه مهارتهایی در راستای شغل فرد میتواند به او در ارتقای سطح مهارتهایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارتهایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.
در علم داده، از فرایندها، الگوریتمها و یا سیستمها برای استخراج دانش، بینش و انجام تصمیمگیریهای آگاهانه بر اساس دادهها، استفاده میشود. در این حالت، استنتاج کردن، تخمین زدن یا پیشبینی، بخش مهمی از علم داده را شکل میدهد. احتمال به کمک روشهای آماری، امکان انجام تحلیلهای بیشتر را فراهم میکند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان سادهتر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را میتوان در علم داده، با استفاده از آمار و احتمالات انجام داد؟
– اکتشاف و درک بیشتر پیرامون دادهها
– شناسایی روابط اساسی یا وابستگیهای موجود بین دو یا چند متغیر
– پیشبینی گرایشهای آینده یا پیشبینی یک جهش (Drift) بر اساس گرایشهای پیشین دادهها
– تعیین الگوها یا گرایشهای دادهها
– پردهبرداری از «ناهنجاری» (Anomaly) در دادهها
به طور خاص، برای شرکتهای دادهمحوری که ذینفعان آنها برای انجام تصمیمگیریهای خود به دادهها و طراحی و ارزیابی مدلهای داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب میشود.
مطالعه ادامه مطلب 👇👇
🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از دادهها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهرهگیری از دادهها کمک کند.
══ فهرست مطالب ══
○ مهارت های مهم برای دانشمندان داده در سال ۹۹
🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹
آگاهی از اینکه چه مهارتهایی در راستای شغل فرد میتواند به او در ارتقای سطح مهارتهایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارتهایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.
در علم داده، از فرایندها، الگوریتمها و یا سیستمها برای استخراج دانش، بینش و انجام تصمیمگیریهای آگاهانه بر اساس دادهها، استفاده میشود. در این حالت، استنتاج کردن، تخمین زدن یا پیشبینی، بخش مهمی از علم داده را شکل میدهد. احتمال به کمک روشهای آماری، امکان انجام تحلیلهای بیشتر را فراهم میکند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان سادهتر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را میتوان در علم داده، با استفاده از آمار و احتمالات انجام داد؟
– اکتشاف و درک بیشتر پیرامون دادهها
– شناسایی روابط اساسی یا وابستگیهای موجود بین دو یا چند متغیر
– پیشبینی گرایشهای آینده یا پیشبینی یک جهش (Drift) بر اساس گرایشهای پیشین دادهها
– تعیین الگوها یا گرایشهای دادهها
– پردهبرداری از «ناهنجاری» (Anomaly) در دادهها
به طور خاص، برای شرکتهای دادهمحوری که ذینفعان آنها برای انجام تصمیمگیریهای خود به دادهها و طراحی و ارزیابی مدلهای داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب میشود.
مطالعه ادامه مطلب 👇👇
🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی
«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب میشوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینهها داشتهاند و سرمایهگذاریهای زیادی در این راستا انجام دادهاند. با این وجود، هنوز بسیاری از افراد حتی آنهایی که در این حوزهها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمیدانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ هوش مصنوعی
○ رایانش نرم
○ تفاوت هوش مصنوعی و رایانش نرم
🔸 هوش مصنوعی
پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روشها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.
– هوش مصنوعی و تعاریف متعدد آن
– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی
– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ
– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل
– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها
– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها
– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها
– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق
– هوش مصنوعی در کسب و کار — بررسی جامع
– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست
– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
– علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخشهای بعدی، تفاوتهای آن با رایانش نرم به طور کامل بیان میشود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیدهتری در زمینه خودکارسازی سیستمها را حل میکند. این خودکارسازی با به کارگیری هر زمینهای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستمهای عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل میشود. هوش مصنوعی، ساخت ماشینها، چارچوبها و گجتهای گوناگون دانا با قادر ساختن آنها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آنها وجود دارد.
🔸 رایانش نرم
رایانش نرم میتواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل میشوند.
مطالعه ادامه مطلب 👇👇
🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب میشوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینهها داشتهاند و سرمایهگذاریهای زیادی در این راستا انجام دادهاند. با این وجود، هنوز بسیاری از افراد حتی آنهایی که در این حوزهها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمیدانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ هوش مصنوعی
○ رایانش نرم
○ تفاوت هوش مصنوعی و رایانش نرم
🔸 هوش مصنوعی
پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روشها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.
– هوش مصنوعی و تعاریف متعدد آن
– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی
– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ
– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل
– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها
– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها
– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها
– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق
– هوش مصنوعی در کسب و کار — بررسی جامع
– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست
– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
– علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخشهای بعدی، تفاوتهای آن با رایانش نرم به طور کامل بیان میشود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیدهتری در زمینه خودکارسازی سیستمها را حل میکند. این خودکارسازی با به کارگیری هر زمینهای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستمهای عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل میشود. هوش مصنوعی، ساخت ماشینها، چارچوبها و گجتهای گوناگون دانا با قادر ساختن آنها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آنها وجود دارد.
🔸 رایانش نرم
رایانش نرم میتواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل میشوند.
مطالعه ادامه مطلب 👇👇
🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخشها عبارتند از:
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخشها عبارتند از:
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پروژه پیش بینی سری زمانی در پایتون — به زبان ساده
ایجاد یک مبنا برای انجام «پیشبینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیشبینی این ایده را به پژوهشگر میدهد که دیگر مدلها چقدر خوب روی یک مسئله مشخص کار میکنند. در این راهنما، چگونگی توسعه یک مدل پیشبینی پایدار که میتوان از آن برای محاسبه سطح پایهای کارایی مدلهای مختلف در مجموعه دادههای سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار میگیرند.
══ فهرست مطالب ══
○ مبنای کارایی پیشبینی
○ الگوریتم مانا
○ مجموعه داده فروش شامپو
○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
○ جمعبندی
🔸 مبنای کارایی پیشبینی
مبنا در پیشبینی کارایی، یک نقطه مقایسه را فراهم میکند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرفنظر کرد و یا آن را بهبود بخشید. پیادهسازی روشی که برای تولید یک پیشبینی برای محاسبه کارایی مبنا مورد استفاده قرار میگیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیشبینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:
– مجموعه دادهای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.
– روش «بازنمونهگیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه دادههای آموزش و تست)
– معیار کارایی که فرد تمایل دارد برای ارزیابی پیشبینیها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)
سه مشخصه یک روش خوب برای ساخت پیشبینی مبنا، عبارتند از:
– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.
– سریع: روشی که پیادهسازی آن سریع و به لحاظ محاسباتی برای انجام پیشبینی ساده باشد.
– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.
یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.
🔸 الگوریتم مانا
متداولترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دستهبندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین میکند. از این الگوریتم میتوان برای سریهای زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه دادههای سری زمانی را در نظر نمیگیرد.
روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیشبینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده میکند. این امر موجب میشود هر سه شرط بیان شده در بالا برای پیشبینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار میگیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تکمتغیره (Univariate) استفاده میکند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
ایجاد یک مبنا برای انجام «پیشبینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیشبینی این ایده را به پژوهشگر میدهد که دیگر مدلها چقدر خوب روی یک مسئله مشخص کار میکنند. در این راهنما، چگونگی توسعه یک مدل پیشبینی پایدار که میتوان از آن برای محاسبه سطح پایهای کارایی مدلهای مختلف در مجموعه دادههای سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار میگیرند.
══ فهرست مطالب ══
○ مبنای کارایی پیشبینی
○ الگوریتم مانا
○ مجموعه داده فروش شامپو
○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
○ جمعبندی
🔸 مبنای کارایی پیشبینی
مبنا در پیشبینی کارایی، یک نقطه مقایسه را فراهم میکند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرفنظر کرد و یا آن را بهبود بخشید. پیادهسازی روشی که برای تولید یک پیشبینی برای محاسبه کارایی مبنا مورد استفاده قرار میگیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیشبینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:
– مجموعه دادهای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.
– روش «بازنمونهگیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه دادههای آموزش و تست)
– معیار کارایی که فرد تمایل دارد برای ارزیابی پیشبینیها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)
سه مشخصه یک روش خوب برای ساخت پیشبینی مبنا، عبارتند از:
– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.
– سریع: روشی که پیادهسازی آن سریع و به لحاظ محاسباتی برای انجام پیشبینی ساده باشد.
– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.
یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.
🔸 الگوریتم مانا
متداولترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دستهبندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین میکند. از این الگوریتم میتوان برای سریهای زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه دادههای سری زمانی را در نظر نمیگیرد.
روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیشبینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده میکند. این امر موجب میشود هر سه شرط بیان شده در بالا برای پیشبینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار میگیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تکمتغیره (Univariate) استفاده میکند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص اشیا در تصاویر با پایتون — به زبان ساده
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس