FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین

‏در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسب‌وکار وارد هر حیطه‌ای که بشوید ردپای قانون را در گوشه و کنار آن پیدا می‌کنید. مثلاً فعالیت‌هایی را در نظر بگیرید که یک شرکت فرضی انجام می‌شود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه این‌ها با قراردادهای الزام‌آور قانونی انجام می‌شوند. برای به ثمر نشستن اختراعات و نوآوری‌ها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آن‌ها وارد جدال می‌شویم و گاهی از چتر حمایتی آن‌ها بهره می‌بریم.

══ فهرست مطالب ══

‏ ○ تهیه قرارداد با استفاده از هوش مصنوعی
‏ ○ تحلیل قراردادها با استفاده از هوش مصنوعی
‏ ○ ماشین‌های پیشگو در راه هستند
‏ ○ تحقیقات حقوقی با کمک هوش مصنوعی
‏ ○ نتیجه‌گیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین


🔸 تهیه قرارداد با استفاده از هوش مصنوعی

‏در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگ‌های نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خسته‌کننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم می‌کند و برای طرف دیگر می‌فرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام می‌کند و قرارداد را به آن باز می‌گرداند و این تبادل ممکن است بارها و بارها تکرار شود.

‏طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکت‌ها به اهداف تجاری خود می‌شود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمی‌افتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه می‌رسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.

‏خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکس‌چک (LexCheck) برنامه‌هایی برای آن تهیه کرده‌اند. این برنامه‌ها به این شکل کار می‌کنند که یک قرارداد پیشنهادی وارد آن می‌شود، نرم‌افزار با تحلیل متن تعیین می‌کند که کدام بخش‌های قرارداد قابل قبول است و در کدام قسمت‌ها ایراد و اشکالی وجود دارد.


🔸 تحلیل قراردادها با استفاده از هوش مصنوعی

‏مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفته‌اند را اجرا و رعایت کنند و این یک چالش مهم برای شرکت‌های بزرگی است که میلیون‌ها قرارداد با هزاران شخص در موضوعات متنوع دارند.

‏در حال حاضر شرکت‌ها عملاً نمی‌توانند به تمام جزئیات قراردادهایی که امضا کرده‌اند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آن‌ها قرار می‌دهد. برنامه‌های مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیت‌های مختلف داشته باشند. نرم‌افزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانه‌هایی برای ارائه این خدمات هستند.

‏این راهکارهای فناورانه به تمام اجزای شرکت‌ها کمک می‌کند تا تصمیمات آگاهانه بگیرند. گروه فروش می‌داند چه زمانی باید برای تأمین سرمایه و پیش‌فروشی اقدام کند. گروه‌های تدارکات این امکان را پیدا می‌کنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیم‌گیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکت‌های امروزی در آن فعالیت می‌کنند به خاطره‌ها خواهد پیوست.



مطالعه ادامه مطلب 👇👇

🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ محاسبات نرم چیست ؟ — به زبان ساده

‏در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش)‌ شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیش‌تری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.

══ فهرست مطالب ══

‏ ○ رایانش چیست؟
‏ ○ محاسبات سخت چیست؟
‏ ○ محاسبات نرم چیست؟
‏ ○ کاربردهای محاسبات نرم چیست؟
‏ ○ منابع و فیلم آموزشی محاسبات نرم
‏ ○ جمع‌بندی


🔸 رایانش چیست؟

‏قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | ‌Computing) پرداخته شود. به بیانی ساده، ‌رایانش به معنی نگاشت مجموعه داده‌های دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته می‌شود.

‏روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راه‌حل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدل‌سازی ریاضیاتی ساده‌ای دارند مناسب است.


🔸 محاسبات سخت چیست؟

‏اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علی‌عسگرزاده، ریاضی‌دان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار می‌گیرد که:

‏– نتایج دقیقی فراهم کند.

‏– الگوریتمی که برای حل مسئله استفاده می‌شود، صریح و بدون ابهام باشد.

‏– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.

‏مسائلی مانند مشتق‌گیری، انتگرال، الگوریتم‌های جستجو و مرتب‌سازی، یافتن کوتا‌ه‌ترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آن‌ها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار می‌گیرند.



مطالعه ادامه مطلب 👇👇

🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ شناسایی آماری الگو | آموزش جامع و رایگان

‏در این مطلب از مجله فرادرس، مفهوم و روش‌های شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته می‌شود، شناسایی خودکار الگوها و قواعد موجود در داده‌ها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشرده‌سازی داده‌ها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته می‌شود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته می‌شود.

══ فهرست مطالب ══

‏ ○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
‏ ○ شناسایی آماری الگو و یادگیری ماشین
‏ ○ هدف تشخیص الگو و شناسایی آماری الگو
‏ ○ مقدمه‌ای بر شناسایی آماری الگو
‏ ○ تشخیص الگو چیست؟
‏ ○ شناسایی آماری الگو
‏ ○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
‏ ○ گام‌های موجود در شناسایی آماری الگو
‏ ○ روش‌های شناسایی آماری الگو
‏ ○ کاربردهای شناسایی آماری الگو
‏ ○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو


🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو

‏عموما، هدف الگوریتم‌های تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودی‌های ممکن و انجام محتمل‌ترین «تطبیق» برای ورودی‌ها با در نظر گرفتن تنوع آماری آن‌ها است. این مورد، برعکس الگوریتم‌های «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان داده‌ها می‌گردند. به عنوان مثالی از الگوریتم‌های تطبیق الگو می‌توان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شده‌ای، در یک داده متنی می‌گردد.

‏از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتم‌های تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شده‌اند) گاهی می‌توانند در فراهم کردن خروجی درست با کیفیت مشابه خروجی‌های تولید شده توسط الگوریتم‌های تشخیص الگو کار کنند.


🔸 شناسایی آماری الگو و یادگیری ماشین

‏ریشه‌های بازشناسی الگو به آمار و مهندسی بازمی‌گردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب می‌شود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب می‌شوند. دلیل این امر افزایش حجم داده‌ها و در واقع تولید «کلان داده‌ها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را می‌توان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سال‌های مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:

‏در واژه‌شناسی یادگیری ماشین، دسته‌بندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعه‌ای از مشاهدات که دسته آن‌ها به درستی تشخیص داده شده است (و برچسب‌گذرای شده‌اند)، گفته می‌شود. سیستم‌های تشخیص الگو در اغلب موارد با استفاده از داده‌های «برچسب‌گذاری شده» (Labeled) (یادگیری نظارت شده) آموزش می‌بینند. اما هنگامی که هیچ داده برچسب‌گذاری شده‌ای موجود نباشد، انواع دیگری از الگوریتم‌ها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بی‌ناظر | Unsupervised Learning).



مطالعه ادامه مطلب 👇👇

🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی

‏«تحلیل داده‌های چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیل‌ها است که امروزه با توجه به افزایش حجم و البته، ابعاد داده‌ها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیل‌ها، روابط گوناگون موجود میان متغیرها و به طور کل، داده‌ها، در نظر گرفته می‌شوند. در ادامه، برخی از روش‌های تحلیل داده های چند بعدی در پایتون مورد بررسی قرار می‌گیرد.

══ فهرست مطالب ══

‏ ○ مجموعه داده مورد استفاده برای تحلیل داده‌های چند بعدی و چند متغیره
‏ ○ تحلیل داده های چند بعدی در پایتون
‏ ○ تحلیل خوشه
‏ ○ تحلیل EDA


🔸 مجموعه داده مورد استفاده برای تحلیل داده‌های چند بعدی و چند متغیره

‏مجموعه داده‌ای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.

‏این مجموعه داده را می‌توان از اینجا دانلود کرد.


🔸 تحلیل داده های چند بعدی در پایتون

‏در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، می‌توان از قطعه کد زیر استفاده کرد.

‏خروجی قطعه کد بالا، به صورت زیر است.

‏نکته: نوع ویژگی‌هایی که در این مجموعه داده وجود دارند، معمولا «دسته‌ای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل داده‌های دسته‌ای، بسیار ساده و قابل درک است و تفسیر و پیاده‌سازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

‌‌
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی

‏در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر حذف کلمات توقف متن در پایتون
‏ ○ کلمات توقف چه هستند؟
‏ ○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
‏ ○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
‏ ○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی


🔸 مقدمه‌ای بر حذف کلمات توقف متن در پایتون

‏فرایند تبدیل داده‌ها (داده‌های خام) به داده‌هایی که توسط کامپیوتر قابل درک باشند را «پیش‌پردازش» (Pre-Processing) می‌گویند. یکی از اشکال اصلی پیش‌پردازش، فیلتر کردن داده‌های بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) می‌گویند. از دیگر معادل‌هایی که در زبان فارسی برای کلمات توقف استفاده می‌شود، می‌توان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.


🔸 کلمات توقف چه هستند؟

‏کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده می‌شوند و موتورهای جستجو از جمله گوگل، به گونه‌ای برنامه‌نویسی شده‌اند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آن‌ها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول می‌توان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.

‏در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، می‌توان این کلمات را به راحتی و با ذخیره‌سازی لیست کلمات توقف، حذف کرد.



مطالعه ادامه مطلب 👇👇

🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری

‏در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از داده‌ها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهره‌گیری از داده‌ها کمک کند.

══ فهرست مطالب ══

‏ ○ مهارت های مهم برای دانشمندان داده در سال ۹۹


🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹

‏آگاهی از اینکه چه مهارت‌هایی در راستای شغل فرد می‌تواند به او در ارتقای سطح مهارت‌هایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارت‌هایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.

‏در علم داده، از فرایندها، الگوریتم‌ها و یا سیستم‌ها برای استخراج دانش، بینش و انجام تصمیم‌گیری‌های آگاهانه بر اساس داده‌ها، استفاده می‌شود. در این حالت، استنتاج کردن، تخمین زدن یا پیش‌بینی، بخش مهمی از علم داده را شکل می‌دهد. احتمال به کمک روش‌های آماری، امکان انجام تحلیل‌های بیشتر را فراهم می‌کند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان ساده‌تر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را می‌توان در علم داده، با استفاده از آمار و احتمالات انجام داد؟

‏– اکتشاف و درک بیشتر پیرامون داده‌ها

‏– شناسایی روابط اساسی یا وابستگی‌های موجود بین دو یا چند متغیر

‏– پیش‌بینی گرایش‌های آینده یا پیش‌بینی یک جهش (Drift) بر اساس گرایش‌های پیشین داده‌ها

‏– تعیین الگوها یا گرایش‌های داده‌ها

‏– پرده‌برداری از «ناهنجاری» (Anomaly) در داده‌ها

‏به طور خاص، برای شرکت‌های داده‌محوری که ذینفعان آن‌ها برای انجام تصمیم‌گیری‌های خود به داده‌ها و طراحی و ارزیابی مدل‌های داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی

‏«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب می‌شوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینه‌ها داشته‌اند و سرمایه‌گذاری‌های زیادی در این راستا انجام داده‌اند. با این وجود، هنوز بسیاری از افراد حتی آن‌هایی که در این حوزه‌ها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمی‌دانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.

══ فهرست مطالب ══

‏ ○ هوش مصنوعی
‏ ○ رایانش نرم
‏ ○ تفاوت هوش مصنوعی و رایانش نرم


🔸 هوش مصنوعی

‏پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روش‌ها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.

‏– هوش مصنوعی و تعاریف متعدد آن

‏– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی

‏– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ

‏– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی

‏– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل

‏– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها

‏– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها

‏– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها

‏– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق

‏– هوش مصنوعی در کسب و کار — بررسی جامع

‏– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آن‌ها — راهنمای جامع

‏– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست

‏– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی

‏– علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها

‏در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخش‌های بعدی، تفاوت‌های آن با رایانش نرم به طور کامل بیان می‌شود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیده‌تری در زمینه خودکارسازی سیستم‌ها را حل می‌کند. این خودکارسازی با به کارگیری هر زمینه‌ای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستم‌های عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل می‌شود. هوش مصنوعی، ساخت ماشین‌ها، چارچوب‌ها و گجت‌های گوناگون دانا با قادر ساختن آن‌ها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آن‌ها وجود دارد.


🔸 رایانش نرم

‏رایانش نرم می‌تواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل می‌شوند.



مطالعه ادامه مطلب 👇👇

🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

1👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها — راهنمای کاربردی

‏در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار می‌گیرد. در ادامه مطلب، روش پیاده‌سازی امتیاز ادراکی با استفاده از کتابخانه‌های پایتون «نام‌پای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان می‌شود.

══ فهرست مطالب ══

‏ ○ امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها
‏ ○ امتیاز ادراکی چیست؟
‏ ○ روش محاسبه امتیاز ادراکی
‏ ○ روش پیاده‌سازی امتیاز ادراکی با نام‌پای
‏ ○ روش پیاده‌سازی امتیاز ادراکی با کرس
‏ ○ مشکلات موجود پیرامون امتیاز ادراکی


🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها

‏«شبکه‌های مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدل‌های مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آن‌ها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دوره‌ای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده می‌شود.

‏تاکنون، تلاش‌های زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکه‌های مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکه‌های مولد تخاصمی استفاده می‌شود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:

‏– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه می‌کند.

‏– چگونگی پیاده‌سازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نام‌پای» (NumPy) و «کرس» (Keras)

‏– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.

‏برای مطالعه بیشتر پیرامون GAN‌ها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثال‌های کاربردی ــ بخش هفتم» توصیه می‌شود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخش‌ها عبارتند از:


🔸 امتیاز ادراکی چیست؟

‏امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدل‌های شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقاله‌ای با عنوان «روش‌های بهبود یافته برای آموزش دادن شبکه‌های مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمع‌سپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GAN‌ها استفاده کرده است. آن‌ها، امتیاز ادراکی را طی تلاش‌های خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کرده‌اند که امتیاز به دست آمده توسط آن‌ها، با ارزیابی فاعلی مرتبط است. در کتاب «روش‌های بهبود یافته برای آموزش دادن شبکه‌های مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:

‏امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دسته‌بندی تصاویر، به منظور دسته‌بندی تصاویر تولید شده توسط GAN‌ها می‌شود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقاله‌ای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دسته‌بندی شده‌اند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیش‌بینی می‌شود. سپس، این پیش‌بینی‌ها در امتیاز ادراکی خلاصه شده‌اند.



مطالعه ادامه مطلب 👇👇

🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GAN‌ها — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی

‏وسایل نقلیه خودران، فرصت‌های جذاب و بی‌نظیری را در زمینه‌های گوناگون و از جمله، حوزه‌های فنی فراهم کرده‌اند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.

══ فهرست مطالب ══

‏ ○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
‏ ○ حل مسئله پیدا کردن خط عبور


🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر

‏منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بی‌نهایت علامت‌های خط عبور (ترابری) است.


🔸 حل مسئله پیدا کردن خط عبور

‏در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روش‌های گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.

‏– استخراج پیکسل‌های مربوط به سفید و زرد از قاب ویدئویی داده شده

‏– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)

‏– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)

‏– اعمال ماسک خاص منطقه‌ای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.

‏– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست

‏– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آن‌ها

‏– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x

‏– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر

‏– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب

‏ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.

‏برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته می‌شود. اگر مستقیم به سراغ «تشخیص لبه‌ها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگ‌هایی که برای کاربر اهمیت دارند استخراج شوند، لبه‌های حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.



مطالعه ادامه مطلب 👇👇

🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی

‏از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان می‌گذرد. این برنامه کامپیوتری به دلیل قابلیت‌های جالب توجهی که فراهم می‌کرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزه‌های گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.

══ فهرست مطالب ══

‏ ○ داکر چیست؟
‏ ○ دلایل استفاده از داکر چیست؟
‏ ○ تعاریف داکر
‏ ○ نصب داکر
‏ ○ ساخت اولین ایمیج داکر
‏ ○ دستور From
‏ ○ دستور LABEL
‏ ○ دستور ENV
‏ ○ دستور RUN
‏ ○ دستور EXPOSE
‏ ○ دستور VOLUME
‏ ○ دستور WORKDIR
‏ ○ دستور ADD
‏ ○ دستور CMD
‏ ○ ساخت ایمیج داکر
‏ ○ ساخت و اجرای یک کانتینر از داکر ایمیج
‏ ○ تعامل با کانتینر
‏ ○ دست یافتن به قدرت‌های جادویی داکر (Docker) و کاربرد آن در علم داده
‏ ○ داکر انویدیا


🔸 داکر چیست؟

‏«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیه‌سازی سطح سیستم‌عامل انجام می‌شود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده می‌شود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بسته‌های نرم‌افزاری استفاده می‌شود که به آن‌ها «کانتینر» (Container) گفته می‌شود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامه‌های خود، ابزارها، کتابخانه‌ها و فایل‌های پیکربندی خود را دارند. این کانتینرها می‌توانند با یکدیگر از طریق کانال‌های خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا می‌شوند و بنابراین، نسبت به ماشین‌های مجازی سبک‌تر هستند.

‏کانتینرها از ایمیج‌هایی (Images) ساخته شده‌اند که محتوای دقیق آن‌ها را مشخص می‌کند. ایمیج‌ها معمولا با ترکیب و ویرایش ایمیج‌های استاندارد دانلود شده از مخازن عمومی ساخته می‌شوند. داکر، ابتدا برای سیستم‌عامل لینوکس ساخته شده بود تا از قابلیت ایزوله‌سازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایل‌های یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام می‌شد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشین‌های مجازی اجتناب کند.

‏اما بعدها، برای سیستم‌عامل‌های ویندوز و مک‌او‌اس نیز توسعه یافت. داکر یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیاده‌سازی می‌کند که می‌تواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها می‌تواند چندین ظریف را به طور هم‌زمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش‌ داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه می‌شود.


🔸 دلایل استفاده از داکر چیست؟

‏تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکان‌پذیر می‌سازد، بلکه اطمینان حاصل می‌کند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم می‌آورد.



مطالعه ادامه مطلب 👇👇

🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ پروژه پیش بینی سری زمانی در پایتون — به زبان ساده

‏ایجاد یک مبنا برای انجام «پیش‌بینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیش‌بینی این ایده را به پژوهشگر می‌دهد که دیگر مدل‌ها چقدر خوب روی یک مسئله مشخص کار می‌کنند. در این راهنما، چگونگی توسعه یک مدل پیش‌بینی پایدار که می‌توان از آن برای محاسبه سطح پایه‌ای کارایی مدل‌های مختلف در مجموعه داده‌های سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار می‌گیرند.

══ فهرست مطالب ══

‏ ○ مبنای کارایی پیش‌بینی
‏ ○ الگوریتم مانا
‏ ○ مجموعه داده فروش شامپو
‏ ○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
‏ ○ جمع‌بندی


🔸 مبنای کارایی پیش‌بینی

‏مبنا در پیش‌بینی کارایی، یک نقطه مقایسه را فراهم می‌کند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرف‌نظر کرد و یا آن را بهبود بخشید. پیاده‌سازی روشی که برای تولید یک پیش‌بینی برای محاسبه کارایی مبنا مورد استفاده قرار می‌گیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیش‌بینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:

‏– مجموعه داده‌ای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.

‏– روش «بازنمونه‌گیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه داده‌های آموزش و تست)

‏– معیار کارایی که فرد تمایل دارد برای ارزیابی پیش‌بینی‌ها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)

‏سه مشخصه یک روش خوب برای ساخت پیش‌بینی مبنا، عبارتند از:

‏– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.

‏– سریع: روشی که پیاده‌سازی آن سریع و به لحاظ محاسباتی برای انجام پیش‌بینی ساده باشد.

‏– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.

‏یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.


🔸 الگوریتم مانا

‏متداول‌ترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دسته‌بندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین می‌کند. از این الگوریتم می‌توان برای سری‌های زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه داده‌های سری زمانی را در نظر نمی‌گیرد.

‏روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیش‌بینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده می‌کند. این امر موجب می‌شود هر سه شرط بیان شده در بالا برای پیش‌بینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار می‌گیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تک‌متغیره (Univariate) استفاده می‌کند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی

‏در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیاده‌سازی‌هایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامه‌نویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبان‌های طبیعی غیر انگلیسی به طور کامل انجام شده است.

══ فهرست مطالب ══

‏ ○ پردازش زبان های غیر انگلیسی با پایتون
‏ ○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
‏ ○ راه‌اندازی StanfordNLP در پایتون
‏ ○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
‏ ○ استفاده از StanfordNLP برای انجام وظایف پایه‌ای پردازش زبان طبیعی
‏ ○ پیاده‌سازی StanfordNLP روی زبان هندی
‏ ○ استفاده از رابط برنامه‌نویسی کاربردی CoreNLP’s برای تحلیل متن
‏ ○ نکاتی پیرامون استفاده از StanfordNLP
‏ ○ جمع‌بندی


🔸 پردازش زبان های غیر انگلیسی با پایتون

‏یکی از چالش‌های متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا می‌توانند برای زبان‌های غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوت‌های زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان می‌آید. توسعه‌دهندگان این کتابخانه ادعا کرده‌اند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی می‌کند. StanfordNLP حاوی مدل‌های از پیش آموزش داده شده برای زبان‌های آسیایی مانند هندی، چینی و ژاپنی برای اسکریپت‌های اصلی آن‌ها است.


🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟

‏StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدل‌ها توسط پژوهشگران در رقابت‌های سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدل‌ها بر پایه کتابخانه «پای‌تورچ» (PyTorch) ساخته شده‌اند و قابل آموزش دادن و ارزیابی شدن روی داده‌های مورد نظر کاربر هستند.

‏علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.



مطالعه ادامه مطلب 👇👇

🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس