✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسبوکار وارد هر حیطهای که بشوید ردپای قانون را در گوشه و کنار آن پیدا میکنید. مثلاً فعالیتهایی را در نظر بگیرید که یک شرکت فرضی انجام میشود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه اینها با قراردادهای الزامآور قانونی انجام میشوند. برای به ثمر نشستن اختراعات و نوآوریها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آنها وارد جدال میشویم و گاهی از چتر حمایتی آنها بهره میبریم.
══ فهرست مطالب ══
○ تهیه قرارداد با استفاده از هوش مصنوعی
○ تحلیل قراردادها با استفاده از هوش مصنوعی
○ ماشینهای پیشگو در راه هستند
○ تحقیقات حقوقی با کمک هوش مصنوعی
○ نتیجهگیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین
🔸 تهیه قرارداد با استفاده از هوش مصنوعی
در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگهای نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خستهکننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم میکند و برای طرف دیگر میفرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام میکند و قرارداد را به آن باز میگرداند و این تبادل ممکن است بارها و بارها تکرار شود.
طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکتها به اهداف تجاری خود میشود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمیافتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه میرسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.
خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکسچک (LexCheck) برنامههایی برای آن تهیه کردهاند. این برنامهها به این شکل کار میکنند که یک قرارداد پیشنهادی وارد آن میشود، نرمافزار با تحلیل متن تعیین میکند که کدام بخشهای قرارداد قابل قبول است و در کدام قسمتها ایراد و اشکالی وجود دارد.
🔸 تحلیل قراردادها با استفاده از هوش مصنوعی
مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفتهاند را اجرا و رعایت کنند و این یک چالش مهم برای شرکتهای بزرگی است که میلیونها قرارداد با هزاران شخص در موضوعات متنوع دارند.
در حال حاضر شرکتها عملاً نمیتوانند به تمام جزئیات قراردادهایی که امضا کردهاند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آنها قرار میدهد. برنامههای مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیتهای مختلف داشته باشند. نرمافزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانههایی برای ارائه این خدمات هستند.
این راهکارهای فناورانه به تمام اجزای شرکتها کمک میکند تا تصمیمات آگاهانه بگیرند. گروه فروش میداند چه زمانی باید برای تأمین سرمایه و پیشفروشی اقدام کند. گروههای تدارکات این امکان را پیدا میکنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیمگیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکتهای امروزی در آن فعالیت میکنند به خاطرهها خواهد پیوست.
مطالعه ادامه مطلب 👇👇
🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ محاسبات نرم چیست ؟ — به زبان ساده
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش) شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیشتری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.
══ فهرست مطالب ══
○ رایانش چیست؟
○ محاسبات سخت چیست؟
○ محاسبات نرم چیست؟
○ کاربردهای محاسبات نرم چیست؟
○ منابع و فیلم آموزشی محاسبات نرم
○ جمعبندی
🔸 رایانش چیست؟
قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | Computing) پرداخته شود. به بیانی ساده، رایانش به معنی نگاشت مجموعه دادههای دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته میشود.
روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راهحل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدلسازی ریاضیاتی سادهای دارند مناسب است.
🔸 محاسبات سخت چیست؟
اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علیعسگرزاده، ریاضیدان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار میگیرد که:
– نتایج دقیقی فراهم کند.
– الگوریتمی که برای حل مسئله استفاده میشود، صریح و بدون ابهام باشد.
– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.
مسائلی مانند مشتقگیری، انتگرال، الگوریتمهای جستجو و مرتبسازی، یافتن کوتاهترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آنها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار میگیرند.
مطالعه ادامه مطلب 👇👇
🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ شناسایی آماری الگو | آموزش جامع و رایگان
در این مطلب از مجله فرادرس، مفهوم و روشهای شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته میشود، شناسایی خودکار الگوها و قواعد موجود در دادهها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشردهسازی دادهها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته میشود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته میشود.
══ فهرست مطالب ══
○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
○ شناسایی آماری الگو و یادگیری ماشین
○ هدف تشخیص الگو و شناسایی آماری الگو
○ مقدمهای بر شناسایی آماری الگو
○ تشخیص الگو چیست؟
○ شناسایی آماری الگو
○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
○ گامهای موجود در شناسایی آماری الگو
○ روشهای شناسایی آماری الگو
○ کاربردهای شناسایی آماری الگو
○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو
🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
عموما، هدف الگوریتمهای تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودیهای ممکن و انجام محتملترین «تطبیق» برای ورودیها با در نظر گرفتن تنوع آماری آنها است. این مورد، برعکس الگوریتمهای «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان دادهها میگردند. به عنوان مثالی از الگوریتمهای تطبیق الگو میتوان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شدهای، در یک داده متنی میگردد.
از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتمهای تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شدهاند) گاهی میتوانند در فراهم کردن خروجی درست با کیفیت مشابه خروجیهای تولید شده توسط الگوریتمهای تشخیص الگو کار کنند.
🔸 شناسایی آماری الگو و یادگیری ماشین
ریشههای بازشناسی الگو به آمار و مهندسی بازمیگردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب میشود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب میشوند. دلیل این امر افزایش حجم دادهها و در واقع تولید «کلان دادهها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را میتوان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سالهای مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:
در واژهشناسی یادگیری ماشین، دستهبندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعهای از مشاهدات که دسته آنها به درستی تشخیص داده شده است (و برچسبگذرای شدهاند)، گفته میشود. سیستمهای تشخیص الگو در اغلب موارد با استفاده از دادههای «برچسبگذاری شده» (Labeled) (یادگیری نظارت شده) آموزش میبینند. اما هنگامی که هیچ داده برچسبگذاری شدهای موجود نباشد، انواع دیگری از الگوریتمها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بیناظر | Unsupervised Learning).
مطالعه ادامه مطلب 👇👇
🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب از مجله فرادرس، مفهوم و روشهای شناسایی آماری الگو به صورت جامع و رایگان مورد بررسی قرار گرفته است. منظور از شناسایی الگو که به آن تشخیص الگو و بازشناسی الگو نیز گفته میشود، شناسایی خودکار الگوها و قواعد موجود در دادهها است. تشخیص الگو، در آمار، «تحلیل داده» (Data Analysis)، «پردازش سیگنال» (Signal Processing)، «تحلیل تصاویر» (Image Analysis)، «بازیابی اطلاعات» (Information Retrieval)، «بیوانفورماتیک» (Bioinformatics)، فشردهسازی دادهها، گرافیک کامپیوتری و «یادگیری ماشین» (Machine Learning) کاربرد دارد. در ادامه، ضمن معرفی مفهوم تشخیص الگو و شناسایی آماری الگو به تفاوت این موارد با تطبیق الگو پرداخته میشود. سپس، ارتباط شناسایی آماری الگو و یادگیری ماشین بررسی و در ادامه، به طور جامع به شناسایی آماری الگو پرداخته میشود.
══ فهرست مطالب ══
○ تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
○ شناسایی آماری الگو و یادگیری ماشین
○ هدف تشخیص الگو و شناسایی آماری الگو
○ مقدمهای بر شناسایی آماری الگو
○ تشخیص الگو چیست؟
○ شناسایی آماری الگو
○ بازشناسی الگو و شناسایی آماری الگو از منظر یادگیری ماشین
○ گامهای موجود در شناسایی آماری الگو
○ روشهای شناسایی آماری الگو
○ کاربردهای شناسایی آماری الگو
○ معرفی منابع آموزش تشخیص الگو و شناسایی آماری الگو
🔸 تفاوت تشخیص الگو و شناسایی آماری الگو با تطبیق الگو
عموما، هدف الگوریتمهای تشخیص الگو و شناسایی آماری الگو فراهم کردن پاسخی منصفانه برای همه ورودیهای ممکن و انجام محتملترین «تطبیق» برای ورودیها با در نظر گرفتن تنوع آماری آنها است. این مورد، برعکس الگوریتمهای «تطبیق الگو» (Pattern Matching) است که به دنبال موارد دقیقا مطابق با یک الگوی از پیش تعیین شده، در میان دادهها میگردند. به عنوان مثالی از الگوریتمهای تطبیق الگو میتوان به تطبیق «عبارات با قاعده» (Regular Expressions) اشاره کرد که به دنبال الگوی مشخص داده شدهای، در یک داده متنی میگردد.
از عبارات با قاعده در قسمت جستجوی بسیاری از «ویرایشگرهای متن» (Text Editors | Linear Discriminant Analysis) و «پردازشگرهای کلمات» (Word Processors) استفاده شده است. برخلاف بازشناسی الگو، تطبیق الگو عموما نوعی از یادگیری ماشین نیست. شایان توجه است که الگوریتمهای تطبیق الگو (به ویژه برای الگوهایی که به طور مناسبی عمومی هستند و به دقت مشخص شدهاند) گاهی میتوانند در فراهم کردن خروجی درست با کیفیت مشابه خروجیهای تولید شده توسط الگوریتمهای تشخیص الگو کار کنند.
🔸 شناسایی آماری الگو و یادگیری ماشین
ریشههای بازشناسی الگو به آمار و مهندسی بازمیگردد و شناسایی آماری الگو مبحثی بسیار قدیمی محسوب میشود. این در حالی است که برخی از رویکردهای مورد استفاده در بحث شناسایی الگو، در حوزه یادگیری ماشین محسوب میشوند. دلیل این امر افزایش حجم دادهها و در واقع تولید «کلان دادهها» (Big Data) و افزایش روزافزون قدرت پردازش است. اگرچه بحث شناسایی آماری الگو و شناسایی الگو در یادگیری ماشین را میتوان به عنوان دو چهره یک زمینه کاربردی واحد دید که طی سالهای مدید، رشد و تغییر پیدا کرده است. تعریف مدرن بازشناسی الگو به صورت زیر است:
در واژهشناسی یادگیری ماشین، دستهبندی به عنوان «یادگیری نظارت شده» (یادگیری با ناظر | Supervised Learning) و یا در واقع، یادگیری بر اساس مجموعهای از مشاهدات که دسته آنها به درستی تشخیص داده شده است (و برچسبگذرای شدهاند)، گفته میشود. سیستمهای تشخیص الگو در اغلب موارد با استفاده از دادههای «برچسبگذاری شده» (Labeled) (یادگیری نظارت شده) آموزش میبینند. اما هنگامی که هیچ داده برچسبگذاری شدهای موجود نباشد، انواع دیگری از الگوریتمها برای حل مسئله قابل استفاده هستند (یادگیری نظارت نشده | یادگیری بدون نظارت | یادگیری بیناظر | Unsupervised Learning).
مطالعه ادامه مطلب 👇👇
🔗 شناسایی آماری الگو | آموزش جامع و رایگان — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی
«تحلیل دادههای چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیلها است که امروزه با توجه به افزایش حجم و البته، ابعاد دادهها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیلها، روابط گوناگون موجود میان متغیرها و به طور کل، دادهها، در نظر گرفته میشوند. در ادامه، برخی از روشهای تحلیل داده های چند بعدی در پایتون مورد بررسی قرار میگیرد.
══ فهرست مطالب ══
○ مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
○ تحلیل داده های چند بعدی در پایتون
○ تحلیل خوشه
○ تحلیل EDA
🔸 مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
مجموعه دادهای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.
این مجموعه داده را میتوان از اینجا دانلود کرد.
🔸 تحلیل داده های چند بعدی در پایتون
در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، میتوان از قطعه کد زیر استفاده کرد.
خروجی قطعه کد بالا، به صورت زیر است.
نکته: نوع ویژگیهایی که در این مجموعه داده وجود دارند، معمولا «دستهای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل دادههای دستهای، بسیار ساده و قابل درک است و تفسیر و پیادهسازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) میشود.
مطالعه ادامه مطلب 👇👇
🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«تحلیل دادههای چند بعدی» (Multidimensional Data Aanalysis)، نوع مهم و مفیدی از تحلیلها است که امروزه با توجه به افزایش حجم و البته، ابعاد دادهها، از اهمیت به سزایی برخوردار است. در این نوع از تحلیلها، روابط گوناگون موجود میان متغیرها و به طور کل، دادهها، در نظر گرفته میشوند. در ادامه، برخی از روشهای تحلیل داده های چند بعدی در پایتون مورد بررسی قرار میگیرد.
══ فهرست مطالب ══
○ مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
○ تحلیل داده های چند بعدی در پایتون
○ تحلیل خوشه
○ تحلیل EDA
🔸 مجموعه داده مورد استفاده برای تحلیل دادههای چند بعدی و چند متغیره
مجموعه دادهای که در این مطلب برای تحلیل داده های چندبُعدی در پایتون مورد استفاده قرار گرفته است، «Zoo Data Set» نام دارد. مشخصات این مجموعه داده در جدول زیر ارائه شده است.
این مجموعه داده را میتوان از اینجا دانلود کرد.
🔸 تحلیل داده های چند بعدی در پایتون
در راستای انجام تحلیل، ابتدا باید مجموعه داده را «وارد» (Import | ایمپورت) کرد. بدین منظور، میتوان از قطعه کد زیر استفاده کرد.
خروجی قطعه کد بالا، به صورت زیر است.
نکته: نوع ویژگیهایی که در این مجموعه داده وجود دارند، معمولا «دستهای» (Categorical) هستند. روش مورد استفاده در این مطلب برای تحلیل دادههای دستهای، بسیار ساده و قابل درک است و تفسیر و پیادهسازی آن نیز آسان خواهد بود. روش مورد استفاده در این مطلب، شامل «تحلیل همبستگی» (Correlation Analysis)، «تحلیل مولفه اساسی» (Principal Component Analysis | PCA) و «تحلیل داده اکتشافی» (Exploratory Data Analysis | EDA) میشود.
مطالعه ادامه مطلب 👇👇
🔗 تحلیل داده های چند بعدی در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ حذف کلمات توقف متن در پایتون — راهنمای کاربردی
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، روش حذف کلمات توقف متن در پایتون با استفاده از جعبه «ابزار زبان طبیعی» (Natural Language Toolkit | NLTK) و بسته پایتون stop-words بیان شده است. همچنین، فهرست کلمات توقف فارسی نیز به منظور انجام پردازش زبان طبیعی، ارائه شده است.
══ فهرست مطالب ══
○ مقدمهای بر حذف کلمات توقف متن در پایتون
○ کلمات توقف چه هستند؟
○ جعبه ابزار پردازش زبان طبیعی (NLTK) در پایتون
○ حذف کلمات توقف متن با استفاده از بسته پایتون stop-words
○ کلمات توقف در زبان فارسی برای پردازش زبان فارسی
🔸 مقدمهای بر حذف کلمات توقف متن در پایتون
فرایند تبدیل دادهها (دادههای خام) به دادههایی که توسط کامپیوتر قابل درک باشند را «پیشپردازش» (Pre-Processing) میگویند. یکی از اشکال اصلی پیشپردازش، فیلتر کردن دادههای بدون استفاده (غیر مفید و بیهوده) است. در «پردازش زبان طبیعی» (Natural Language Processing)، کلمات بدون استفاده (غیر مفید در حین پردازش) را «کلمات توقف» (Stop words) میگویند. از دیگر معادلهایی که در زبان فارسی برای کلمات توقف استفاده میشود، میتوان به کلمات بازدارنده، کلمات ممنوعه و یا Stop Word اشاره کرد.
🔸 کلمات توقف چه هستند؟
کلمات توقف، در واقع کلماتی هستند که به طور متداول استفاده میشوند و موتورهای جستجو از جمله گوگل، به گونهای برنامهنویسی شدهاند که این کلمات را هم در هنگام ایندکس کردن صفحات وب و هم در هنگام بازیابی آنها در نتیجه یک کوئری جستجو، نادیده بگیرد. از جمله این کلمات متداول میتوان به «از، به، و، را» و چنین مواردی در زبان فارسی و «the, a, an, in» در زبان انگلیسی اشاره کرد.
در هنگام پردازش زبان طبیعی، تمایلی به این وجود ندارد که کلمات توقف در «پایگاه داده» (Data Base) فضا اشغال کنند و یا از زمان ارزشمند پردازش چیزی را به خود اختصاص دهند. به همین دلیل، میتوان این کلمات را به راحتی و با ذخیرهسازی لیست کلمات توقف، حذف کرد.
مطالعه ادامه مطلب 👇👇
🔗 حذف کلمات توقف متن در پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری
در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از دادهها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهرهگیری از دادهها کمک کند.
══ فهرست مطالب ══
○ مهارت های مهم برای دانشمندان داده در سال ۹۹
🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹
آگاهی از اینکه چه مهارتهایی در راستای شغل فرد میتواند به او در ارتقای سطح مهارتهایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارتهایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.
در علم داده، از فرایندها، الگوریتمها و یا سیستمها برای استخراج دانش، بینش و انجام تصمیمگیریهای آگاهانه بر اساس دادهها، استفاده میشود. در این حالت، استنتاج کردن، تخمین زدن یا پیشبینی، بخش مهمی از علم داده را شکل میدهد. احتمال به کمک روشهای آماری، امکان انجام تحلیلهای بیشتر را فراهم میکند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان سادهتر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را میتوان در علم داده، با استفاده از آمار و احتمالات انجام داد؟
– اکتشاف و درک بیشتر پیرامون دادهها
– شناسایی روابط اساسی یا وابستگیهای موجود بین دو یا چند متغیر
– پیشبینی گرایشهای آینده یا پیشبینی یک جهش (Drift) بر اساس گرایشهای پیشین دادهها
– تعیین الگوها یا گرایشهای دادهها
– پردهبرداری از «ناهنجاری» (Anomaly) در دادهها
به طور خاص، برای شرکتهای دادهمحوری که ذینفعان آنها برای انجام تصمیمگیریهای خود به دادهها و طراحی و ارزیابی مدلهای داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب میشود.
مطالعه ادامه مطلب 👇👇
🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مهارت های مهم برای دانشمندان داده در سال ۹۹ مورد بررسی قرار گرفته است. «علم داده» (Data Science) هنر ترکیب ابزارهای مناسب برای حل یک مسئله خاص است. در واقع، علم داده به معنای استخراج دانش از دادهها برای پاسخ دادن به یک پرسش مشخص و توانمندی آن است که به کسب و کارها و ذینفعان برای اتخاذ تصمیمات آگاهانه و حل مسائل با بهرهگیری از دادهها کمک کند.
══ فهرست مطالب ══
○ مهارت های مهم برای دانشمندان داده در سال ۹۹
🔸 مهارت های مهم برای دانشمندان داده در سال ۹۹
آگاهی از اینکه چه مهارتهایی در راستای شغل فرد میتواند به او در ارتقای سطح مهارتهایش و در نتیجه بهبود شرایط شغلی کمک کند، موضوع مهم و جالب توجهی است. در این مطلب، این موضوع برای «دانشمندان داده» (Data Scientists) مورد بررسی قرار گرفته است. در واقع، مهارتهایی که افراد باید برای مبدل شدن به یک دانشمند داده و کسب یک جایگاه شغلی در این حوزه بیاموزند، مورد بررسی قرار گرفته است.
در علم داده، از فرایندها، الگوریتمها و یا سیستمها برای استخراج دانش، بینش و انجام تصمیمگیریهای آگاهانه بر اساس دادهها، استفاده میشود. در این حالت، استنتاج کردن، تخمین زدن یا پیشبینی، بخش مهمی از علم داده را شکل میدهد. احتمال به کمک روشهای آماری، امکان انجام تحلیلهای بیشتر را فراهم میکند. آمار بیشتر وابسته بر نظریه احتمالات است. به بیان سادهتر، هر دو این مباحث به یکدیگر مرتبط هستند. چه کارهایی را میتوان در علم داده، با استفاده از آمار و احتمالات انجام داد؟
– اکتشاف و درک بیشتر پیرامون دادهها
– شناسایی روابط اساسی یا وابستگیهای موجود بین دو یا چند متغیر
– پیشبینی گرایشهای آینده یا پیشبینی یک جهش (Drift) بر اساس گرایشهای پیشین دادهها
– تعیین الگوها یا گرایشهای دادهها
– پردهبرداری از «ناهنجاری» (Anomaly) در دادهها
به طور خاص، برای شرکتهای دادهمحوری که ذینفعان آنها برای انجام تصمیمگیریهای خود به دادهها و طراحی و ارزیابی مدلهای داده وابسته هستند، آمار و احتمال، بخش مهمی از علم داده محسوب میشود.
مطالعه ادامه مطلب 👇👇
🔗 مهارت های مهم برای دانشمندان داده در سال ۹۹ — به همراه منابع یادگیری — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی
«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب میشوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینهها داشتهاند و سرمایهگذاریهای زیادی در این راستا انجام دادهاند. با این وجود، هنوز بسیاری از افراد حتی آنهایی که در این حوزهها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمیدانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ هوش مصنوعی
○ رایانش نرم
○ تفاوت هوش مصنوعی و رایانش نرم
🔸 هوش مصنوعی
پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روشها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.
– هوش مصنوعی و تعاریف متعدد آن
– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی
– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ
– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل
– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها
– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها
– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها
– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق
– هوش مصنوعی در کسب و کار — بررسی جامع
– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست
– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
– علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخشهای بعدی، تفاوتهای آن با رایانش نرم به طور کامل بیان میشود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیدهتری در زمینه خودکارسازی سیستمها را حل میکند. این خودکارسازی با به کارگیری هر زمینهای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستمهای عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل میشود. هوش مصنوعی، ساخت ماشینها، چارچوبها و گجتهای گوناگون دانا با قادر ساختن آنها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آنها وجود دارد.
🔸 رایانش نرم
رایانش نرم میتواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل میشوند.
مطالعه ادامه مطلب 👇👇
🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«هوش مصنوعی» (Artificial Intelligence) و «رایانش نرم» (Soft Computing) از جمله مباحث داغ این روزها در حوزه فناوری محسوب میشوند. پژوهشگران، فناوران و کسب و کارهای بزرگ، متوسط و کوچک، توجهات زیادی را به این زمینهها داشتهاند و سرمایهگذاریهای زیادی در این راستا انجام دادهاند. با این وجود، هنوز بسیاری از افراد حتی آنهایی که در این حوزهها مشغول به کار هستند، مفهوم و تفاوت این مباحث با یکدیگر را به خوبی نمیدانند. در این مطلب، تفاوت هوش مصنوعی و رایانش نرم مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ هوش مصنوعی
○ رایانش نرم
○ تفاوت هوش مصنوعی و رایانش نرم
🔸 هوش مصنوعی
پیش از این طی مجموعه مقالات جامع، کاربردی، به روز و متعددی، به مفهوم هوش مصنوعی، کاربردها، روشها و مسائل آن پرداخته شد. برخی از این مطالب که برای آشنایی هر چه بیشتر با مفهوم هوش مصنوعی مفید هستند، در ادامه معرفی شده است.
– هوش مصنوعی و تعاریف متعدد آن
– اصطلاحات متداول هوش مصنوعی — راهنمای کاربردی
– اصطلاحات مهم و رایج هوش مصنوعی — پادکست پرسش و پاسخ
– هوش مصنوعی چیست؟ — بخش اول: مقدمه، تاریخچه و مبانی
– هوش مصنوعی چیست؟ ــ بخش دوم: مسائل
– هوش مصنوعی چیست؟ ــ بخش سوم: رویکردها
– هوش مصنوعی چیست؟ ــ بخش چهارم: ابزارها
– هوش مصنوعی چیست؟ ــ بخش پنجم: کاربردها
– هوش مصنوعی چیست؟ ــ بخش ششم: فلسفه و اخلاق
– هوش مصنوعی در کسب و کار — بررسی جامع
– نقشه دانش فناوری های هوش مصنوعی و دسته بندی آنها — راهنمای جامع
– هوش مصنوعی و چشم اندازی از آینده پیش رو — آنچه باید دانست
– معرفی منابع آموزش ویدئویی هوش مصنوعی به زبان فارسی و انگلیسی
– علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها
در اینجا، مفهوم و تفاوت هوش مصنوعی با رایانش نرم به طور اجمالی بیان و در بخشهای بعدی، تفاوتهای آن با رایانش نرم به طور کامل بیان میشود. هوش مصنوعی، نسبت به رایانش نرم، مسائل پیچیدهتری در زمینه خودکارسازی سیستمها را حل میکند. این خودکارسازی با به کارگیری هر زمینهای از «پردازش تصویر» (Image Processing) و علوم ادراکی گرفته تا «سیستمهای عصبی» (Neural Systems) و «یادگیری ماشین» (Machine Learning) را شامل میشود. هوش مصنوعی، ساخت ماشینها، چارچوبها و گجتهای گوناگون دانا با قادر ساختن آنها به تفکر و انجام کارهایی است که نیاز به هوش انسانی برای حل آنها وجود دارد.
🔸 رایانش نرم
رایانش نرم میتواند یک مدل کامپیوتری باشد که برای حل مسائل غیرخطی که مستلزم راهکارهای غیر مطمئن، غیر دقیق و تقریبی است. این گونه از مسائل، به عنوان مشکلات جهان واقعی در جایی که هوش انسانی مورد نیاز است، حل میشوند.
مطالعه ادامه مطلب 👇👇
🔗 تفاوت هوش مصنوعی و رایانش نرم — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1👍1
✳️ امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخشها عبارتند از:
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، امتیاز ادراکی (Inception Score) برای ارزیابی GANها مورد بررسی قرار گرفته است. در این راستا، ابتدا مفهوم امتیاز ادراکی بیان و سپس، چگونگی محاسبه آن مورد بررسی قرار میگیرد. در ادامه مطلب، روش پیادهسازی امتیاز ادراکی با استفاده از کتابخانههای پایتون «نامپای» (NumPy) و «کرس» (Keras) بررسی و در نهایت، مشکلات امتیاز ادراکی بیان میشود.
══ فهرست مطالب ══
○ امتیاز ادراکی (Inception Score) برای ارزیابی GANها
○ امتیاز ادراکی چیست؟
○ روش محاسبه امتیاز ادراکی
○ روش پیادهسازی امتیاز ادراکی با نامپای
○ روش پیادهسازی امتیاز ادراکی با کرس
○ مشکلات موجود پیرامون امتیاز ادراکی
🔸 امتیاز ادراکی (Inception Score) برای ارزیابی GANها
«شبکههای مولد تخاصمی» (Generative Adversarial Networks | GANs)، یک معماری «شبکه عصبی یادگیری عمیق» (Deep Learning Neural Network) برای آموزش دادن یک مدل مولد جهت تولید تصاویر مصنوعی است. مشکلی که پیرامون مدلهای مولد وجود دارد آن است که هیچ راه هدفمندی برای ارزیابی کیفیت تصاویر تولید شده توسط آنها، وجود ندارد. متداول است که تصاویر طی فرایند آموزش دادن مدل، به طور دورهای تولید و ذخیره شوند و از عامل انسانی برای ارزیابی تصاویر تولید شده و انتخاب مدل نهایی استفاده میشود.
تاکنون، تلاشهای زیادی برای ایجاد یک سنجه جهت ارزیابی تصاویر تولید شده انجام شده است. یک نمونه اولیه که توسط بخش زیادی نیز پذیرفته شده، «امتیاز ادراکی» (Inception Score | IS) است. در این راهنما، امتیاز ادراکی برای ارزیابی شبکههای مولد تخاصمی مورد بررسی قرار گرفته است. همانطور که پیش از این نیز بیان شد، از این امتیاز برای ارزیابی کیفیت تصاویر تولید شده توسط شبکههای مولد تخاصمی استفاده میشود. در این مطلب، مباحث زیر مورد بررسی قرار خواهند گرفت:
– روش محاسبه امتیاز ادراکی و بینش نهفته در پس آنچه محاسبه میکند.
– چگونگی پیادهسازی امتیاز ادراکی در پایتون با کتابخانه یادگیری عمیق «نامپای» (NumPy) و «کرس» (Keras)
– روش محاسبه امتیاز ادراکی برای تصاویر کوچک مانند مواردی که در مجموعه داده CIFAR-۱۰ وجود دارند.
برای مطالعه بیشتر پیرامون GANها، مطالعه مطلب «شبکه های مولد تخاصمی (Generative Adversarial Networks) — به زبان ساده» و «آموزش یادگیری ماشین با مثالهای کاربردی ــ بخش هفتم» توصیه میشود. شایان ذکر است که این راهنما، به پنج بخش کلی تقسیم شده است؛ این بخشها عبارتند از:
🔸 امتیاز ادراکی چیست؟
امتیاز ادراکی یا به طور خلاصه IS، یک سنجه – مفعولی – برای ارزیابی کیفیت تصاویر تولید شده، به ویژه تصاویر مصنوعی خروجی مدلهای شبکه عصبی مولد است. امتیاز ادراکی اولین بار توسط «تیم سالیمانز» (Tim Salimans) و همکاران در سال ۲۰۱۶، در مقالهای با عنوان «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (Improved Techniques for Training GANs) منتشر شد. در مقاله مذکور، نویسنده از یک پلتفرم جمعسپاری شده (Crowd-Sourcing Platform)، یعنی «Amazon Mechanical Turk» برای ارزیابی تعداد زیادی از تصاویر تولید شده توسط GANها استفاده کرده است. آنها، امتیاز ادراکی را طی تلاشهای خود برای حذف ارزیابی عامل انسانی معرفی کردند. نویسندگان این مقاله کشف کردهاند که امتیاز به دست آمده توسط آنها، با ارزیابی فاعلی مرتبط است. در کتاب «روشهای بهبود یافته برای آموزش دادن شبکههای مولد تخاصمی» (چاپ ۲۰۱۶)، در این رابطه چنین آمده است:
امتیاز ادراکی شامل استفاده از مدل شبکه عصبی یادگیری عمیق از پیش آموزش داده شده برای دستهبندی تصاویر، به منظور دستهبندی تصاویر تولید شده توسط GANها میشود. به طور مشخص، مدل Inception v۳ توسط «کریستین سزگدی» (Christian Szegedy) و همکاران در مقالهای در سال ۲۰۱۵ با عنوان «بازنگری معماری ادراکی برای بینایی کامپیوتری» (Rethinking the Inception Architecture for Computer Vision) معرفی شد. با تکیه بر «مدل ادراکی»، نام «امتیاز ادراکی» نیز برای آن برگزیده شد. تعداد زیادی از تصاویر تولید شده با استفاده از مدل، دستهبندی شدهاند. به طور ویژه، احتمال آنکه یک تصویر به هر کلاس تعلق داشته باشد، پیشبینی میشود. سپس، این پیشبینیها در امتیاز ادراکی خلاصه شدهاند.
مطالعه ادامه مطلب 👇👇
🔗 امتیاز ادراکی (Inception Score) برای ارزیابی GANها — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
وسایل نقلیه خودران، فرصتهای جذاب و بینظیری را در زمینههای گوناگون و از جمله، حوزههای فنی فراهم کردهاند. در این مطلب، یکی از مسائل مرتبط با وسایل نقلیه خودران یعنی پیدا کردن خط عبور با روش های بینایی کامپیوتری مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ پیدا کردن خط عبور با روش های بینایی کامپیوتر
○ حل مسئله پیدا کردن خط عبور
🔸 پیدا کردن خط عبور با روش های بینایی کامپیوتر
منظور و هدف از پیدا کردن خط عبور با روش های بینایی کامپیوتر (Computer Vision)، دریافت ویدئو از رانندگی در بزرگراه و ترسیم خط عبور خودرو با ساخت یک سلسله مراتب تصویر برای شناسایی و ترسیم بینهایت علامتهای خط عبور (ترابری) است.
🔸 حل مسئله پیدا کردن خط عبور
در ادامه، مراحل انجام کار پیدا کردن خط عبور با روش های بینایی کامپیوتر بیان شده است. شایان توجه است که روشهای گوناگونی برای این کار وجود دارند و در اینجا، صرفا یکی از راهکارها مورد بررسی قرار گرفته است. مراحل رویکرد مورد استفاده در اینجا، در ادامه آمده است.
– استخراج پیکسلهای مربوط به سفید و زرد از قاب ویدئویی داده شده
– تبدیل تصویر به یک تصویر سیاه و سفید و اعمال جزئی «تاری گاوسی» (Gaussian Blur)
– محاسبه مرزها با استفاده از «آشکارساز لبه کنی» (Canny Edge Detector)
– اعمال ماسک خاص منطقهای برای آنکه تمرکز صرفا بر جلوی خودرو باشد.
– اجرای «تبدیل هاف» (Hough Transform) برای شناسایی خطوط سر راست
– تقسیم کردن خطوط به دو دسته خطوط راست و چپ بر اساس شیب آنها
– محاسبه نقطه محل تقاطعی خط و نقاط طول از مبدا x
– پیگیری آخرین نقاط تقاطع خطوط و نقاط طول از مبدا x در عین هموارسازی از یک فرم به فرم دیگر
– ترسیم تقاطع هموار شده و نقاط طول از مبدا x روی قاب
ویدئوی مورد استفاده در این مطلب، در ادامه آمده است.
برای شروع کار، به نقش این مرحله در انجام این کار و اهمیت آن پرداخته میشود. اگر مستقیم به سراغ «تشخیص لبهها» (Edge Detection) و محاسبه خطوط رفته شود، بدون آنکه ابتدا رنگهایی که برای کاربر اهمیت دارند استخراج شوند، لبههای حاصل شده در خروجی ممکن است چیزی شبیه تصویر زیر باشند.
مطالعه ادامه مطلب 👇👇
🔗 پیدا کردن خط عبور با روش های بینایی کامپیوتر — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1