✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان میگذرد. این برنامه کامپیوتری به دلیل قابلیتهای جالب توجهی که فراهم میکرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزههای گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.
══ فهرست مطالب ══
○ داکر چیست؟
○ دلایل استفاده از داکر چیست؟
○ تعاریف داکر
○ نصب داکر
○ ساخت اولین ایمیج داکر
○ دستور From
○ دستور LABEL
○ دستور ENV
○ دستور RUN
○ دستور EXPOSE
○ دستور VOLUME
○ دستور WORKDIR
○ دستور ADD
○ دستور CMD
○ ساخت ایمیج داکر
○ ساخت و اجرای یک کانتینر از داکر ایمیج
○ تعامل با کانتینر
○ دست یافتن به قدرتهای جادویی داکر (Docker) و کاربرد آن در علم داده
○ داکر انویدیا
🔸 داکر چیست؟
«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیهسازی سطح سیستمعامل انجام میشود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده میشود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بستههای نرمافزاری استفاده میشود که به آنها «کانتینر» (Container) گفته میشود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامههای خود، ابزارها، کتابخانهها و فایلهای پیکربندی خود را دارند. این کانتینرها میتوانند با یکدیگر از طریق کانالهای خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا میشوند و بنابراین، نسبت به ماشینهای مجازی سبکتر هستند.
کانتینرها از ایمیجهایی (Images) ساخته شدهاند که محتوای دقیق آنها را مشخص میکند. ایمیجها معمولا با ترکیب و ویرایش ایمیجهای استاندارد دانلود شده از مخازن عمومی ساخته میشوند. داکر، ابتدا برای سیستمعامل لینوکس ساخته شده بود تا از قابلیت ایزولهسازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایلهای یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام میشد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشینهای مجازی اجتناب کند.
اما بعدها، برای سیستمعاملهای ویندوز و مکاواس نیز توسعه یافت. داکر یک «رابط برنامهنویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیادهسازی میکند که میتواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها میتواند چندین ظریف را به طور همزمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه میشود.
🔸 دلایل استفاده از داکر چیست؟
تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکانپذیر میسازد، بلکه اطمینان حاصل میکند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ پروژه پیش بینی سری زمانی در پایتون — به زبان ساده
ایجاد یک مبنا برای انجام «پیشبینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیشبینی این ایده را به پژوهشگر میدهد که دیگر مدلها چقدر خوب روی یک مسئله مشخص کار میکنند. در این راهنما، چگونگی توسعه یک مدل پیشبینی پایدار که میتوان از آن برای محاسبه سطح پایهای کارایی مدلهای مختلف در مجموعه دادههای سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار میگیرند.
══ فهرست مطالب ══
○ مبنای کارایی پیشبینی
○ الگوریتم مانا
○ مجموعه داده فروش شامپو
○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
○ جمعبندی
🔸 مبنای کارایی پیشبینی
مبنا در پیشبینی کارایی، یک نقطه مقایسه را فراهم میکند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرفنظر کرد و یا آن را بهبود بخشید. پیادهسازی روشی که برای تولید یک پیشبینی برای محاسبه کارایی مبنا مورد استفاده قرار میگیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیشبینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:
– مجموعه دادهای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.
– روش «بازنمونهگیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه دادههای آموزش و تست)
– معیار کارایی که فرد تمایل دارد برای ارزیابی پیشبینیها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)
سه مشخصه یک روش خوب برای ساخت پیشبینی مبنا، عبارتند از:
– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.
– سریع: روشی که پیادهسازی آن سریع و به لحاظ محاسباتی برای انجام پیشبینی ساده باشد.
– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.
یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.
🔸 الگوریتم مانا
متداولترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دستهبندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین میکند. از این الگوریتم میتوان برای سریهای زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه دادههای سری زمانی را در نظر نمیگیرد.
روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیشبینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده میکند. این امر موجب میشود هر سه شرط بیان شده در بالا برای پیشبینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار میگیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تکمتغیره (Univariate) استفاده میکند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
ایجاد یک مبنا برای انجام «پیشبینی» (Prediction) در مسائل «سری زمانی» (Time Series)، بسیار حائز اهمیت است. یک مبنا برای انجام پیشبینی این ایده را به پژوهشگر میدهد که دیگر مدلها چقدر خوب روی یک مسئله مشخص کار میکنند. در این راهنما، چگونگی توسعه یک مدل پیشبینی پایدار که میتوان از آن برای محاسبه سطح پایهای کارایی مدلهای مختلف در مجموعه دادههای سری زمانی استفاده کرد با ارائه یک مثال کاربردی، آموزش داده شده است. در مطلب پروژه پیش بینی سری زمانی در پایتون مباحث زیر مورد بررسی قرار میگیرند.
══ فهرست مطالب ══
○ مبنای کارایی پیشبینی
○ الگوریتم مانا
○ مجموعه داده فروش شامپو
○ پروژه پیش بینی سری زمانی در پایتون و الگوریتم مانا
○ جمعبندی
🔸 مبنای کارایی پیشبینی
مبنا در پیشبینی کارایی، یک نقطه مقایسه را فراهم میکند. اگر مدل به کارایی کمتر از مبنا دست پیدا کند، باید از آن صرفنظر کرد و یا آن را بهبود بخشید. پیادهسازی روشی که برای تولید یک پیشبینی برای محاسبه کارایی مبنا مورد استفاده قرار میگیرد، باید آسان و دارای جزئیات ویژه مسئله باشد. پیش از آنکه پژوهشگر مبنای کارایی را برای مسئله پیشبینی تعیین کند، باید یک «چارچوب تست خودکار» (Automated Test Framework) را توسعه دهد. این چارچوب، شامل موارد زیر است:
– مجموعه دادهای که کاربر تمایل دارد برای آموزش و ارزیابی مدل از آن استفاده کند.
– روش «بازنمونهگیری» (Resampling) که کاربر برای تخمین کارایی روش استفاده خواهد کرد (برای مثال، مجموعه دادههای آموزش و تست)
– معیار کارایی که فرد تمایل دارد برای ارزیابی پیشبینیها مورد استفاده قرار دهد (برای مثال، میانگین مربعات خطا یا همان Mean Squared Error)
سه مشخصه یک روش خوب برای ساخت پیشبینی مبنا، عبارتند از:
– سادگی: روش به میزان کمی داده آموزش نیاز داشته باشد و یا به طور کل به هیچ داده یا هوشمندی نیاز نداشته باشد.
– سریع: روشی که پیادهسازی آن سریع و به لحاظ محاسباتی برای انجام پیشبینی ساده باشد.
– تکرار پذیر: روش باید قطعی باشد، بدین معنا که خروجی مورد انتظار را با دادن یک ورودی مشابه تولید کند.
یک الگوریتم متداول برای ایجاد کارایی مبنا، «الگوریتم مانا» (Persistence Algorithm) است.
🔸 الگوریتم مانا
متداولترین روش مبنا برای یادگیری ماشین نظارت شده، الگوریتم «قاعده صفر» است. این الگوریتم، کلاس اکثریت را در دستهبندی و یا، میانگین خروجی را در تحلیل رگرسیون تعیین میکند. از این الگوریتم میتوان برای سریهای زمانی استفاده کرد؛ اما الگوریتم ساختار همبستگی سریالی در مجموعه دادههای سری زمانی را در نظر نمیگیرد.
روش معادل برای استفاده با مجموعه داده سری زمانی «الگوریتم مانا» (Persistence Algorithm) است. الگوریتم مانا، از مقدار موجود در گام زمانی پیشین (t-۱) برای پیشبینی خروجی مورد انتظار در گام زمانی بعدی (t+۱) استفاده میکند. این امر موجب میشود هر سه شرط بیان شده در بالا برای پیشبینی خط مبنا محقق شود. در ادامه، چگونگی توسعه یک مدل مانا مورد بررسی قرار میگیرد و از این مدل برای ایجاد کارایی پایه برای یک مسئله سری زمانی تکمتغیره (Univariate) استفاده میکند. ابتدا، بررسی موردی روی مجموعه داده فروش شامپو انجام خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پروژه پیش بینی سری زمانی در پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، روش پردازش زبان های غیر انگلیسی با پایتون همراه با انجام یک مثال، مورد بررسی قرار گرفته است. در واقع، این نوشتار راهنمایی برای آخرین کتابخانه استنفورد، یعنی StanfordNLP است. برای درک بهتر مطلب، پیادهسازیهایی نیز بر اساس وظایف «پردازش زبان طبیعی» (Natural Language Processing | NLP)، در «زبان برنامهنویسی پایتون» (Python Programming Language) انجام شده است. در نهایت نیز یک بررسی موردی جالب، به عنوان مثالی از چگونگی پردازش زبانهای طبیعی غیر انگلیسی به طور کامل انجام شده است.
══ فهرست مطالب ══
○ پردازش زبان های غیر انگلیسی با پایتون
○ StanfordNLP چیست و چرا باید از آن استفاده کرد؟
○ راهاندازی StanfordNLP در پایتون
○ نکات مهم پیرامون کار با کتابخانه StanfordNLP
○ استفاده از StanfordNLP برای انجام وظایف پایهای پردازش زبان طبیعی
○ پیادهسازی StanfordNLP روی زبان هندی
○ استفاده از رابط برنامهنویسی کاربردی CoreNLP’s برای تحلیل متن
○ نکاتی پیرامون استفاده از StanfordNLP
○ جمعبندی
🔸 پردازش زبان های غیر انگلیسی با پایتون
یکی از چالشهای متداولی که افراد ضمن فراگیری پردازش زبان طبیعی با آن مواجه هستند، این است که آیا میتوانند برای زبانهای غیر انگلیسی مدل بسازند؟ پاسخ این پرسش تا چندی پیش «خیر» بود. نباید فراموش کرد که هر زبانی دارای الگوهای گرامری و تفاوتهای زبانی خاص خود است. در اینجا است که پای آخرین کتابخانه پردازش زبان طبیعی استنفورد یعنی StanfordNLP به میان میآید. توسعهدهندگان این کتابخانه ادعا کردهاند که StanfordNLP از ۵۳ زبان زنده دنیا پشتیبانی میکند. StanfordNLP حاوی مدلهای از پیش آموزش داده شده برای زبانهای آسیایی مانند هندی، چینی و ژاپنی برای اسکریپتهای اصلی آنها است.
🔸 StanfordNLP چیست و چرا باید از آن استفاده کرد؟
StanfordNLP یک مجموعه از ابزارهای از پیش آموزش داده شده لبه علم است. این مدلها توسط پژوهشگران در رقابتهای سال ۲۰۱۷ و ۲۰۱۸ CoNLL مورد استفاده قرار گرفتند. همه مدلها بر پایه کتابخانه «پایتورچ» (PyTorch) ساخته شدهاند و قابل آموزش دادن و ارزیابی شدن روی دادههای مورد نظر کاربر هستند.
علاوه بر آن، StanfordNLP حاوی یک پوشش دهنده رسمی برای کتابخانه محبوب پردازش زبان طبیعی یعنی CoreNLP است. کتابخانه CoreNLP تاکنون محدود به اکوسیستم جاوا بوده است.
مطالعه ادامه مطلب 👇👇
🔗 پردازش زبان های غیر انگلیسی با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص اشیا در تصاویر با پایتون — به زبان ساده
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، تشخیص اشیا در تصاویر با پایتون همراه با ارائه چند مثال به طور کامل مورد بررسی قرار گرفته است. تشخیص اشیا در تصاویر، یکی از وظایفی است که در «بینایی کامپیوتری» (Computer Vision) انجام میشود و شامل شناسایی «وجود» (Presence)، «موقعیت» (Location) و نوع یک یا تعداد بیشتری از اشیا در یک تصویر است.
══ فهرست مطالب ══
○ Mask R-CNN برای تشخیص اشیا در تصاویر
○ پروژه Matterport Mask R-CNN
○ نصب Mask R-CNN
○ مثالی از محلیسازی تصویر
○ مثالی از تشخیص اشیا
🔸 Mask R-CNN برای تشخیص اشیا در تصاویر
تشخیص اشیا یک وظیفه بینایی کامپیوتری است که شامل محلیسازی یک یا تعداد بیشتری از اشیا درون یک تصویر و دستهبندی هر شی در تصویر میشود. این کار، یک وظیفه چالش برانگیز در حوزه بینایی ماشین محسوب میشود که نیازمند محلیسازی اشیا به منظور تعیین محل و ترسیم جعبه مرزها در اطراف هر شی موجود در تصویر است. همچنین، دستهبندی اشیا برای پیشبینی کلاس صحیح اشیایی نیز باید انجام شود که موقعیتیابی شدهاند.
یک افزونه از تشخیص اشیا شامل نشانهگذاری پیکسلهای خاصی در تصویر است که به هر شی شناسایی شده تعلق دارند. این کار به جای استفاده از جعبههای محصور کننده، ضمن موقعیتیابی اشیا استفاده میشود. این نسخه سختتر از برنامه، معمولا «قطعهبندی اشیا» (Object Segmentation) یا «بخشبندی معنایی» (Semantic Segmentation) نامیده میشود. شبکههای عصبی پیچشی مبتنی بر منطقه یا R-CNN، خانوادهای از مدلهای شبکههای عصبی پیچشی هستند که برای تشخیص اشیا توسط «روس گیرشیک» و همکاران اون توسعه داده شدهاند. احتمالا، چهار نوع مشخص از این رویکرد وجود دارد که منجر به دستاوردهای قابل توجه در روش جدید کنونی با عنوان Mask R-CNN شدهاند. جنبههای برجسته هر یک از انواع را میتوان به صورت زیر خلاصه کرد.
– R-CNN: جعبههای محصور کننده به وسیله الگوریتم «جستجوی انتخابی» (Selective Search) فراهم میشوند؛ هر یک از آنها توسعه داده میشوند و با استفاده از شبکههای عصبی پیچشی عمیق ویژگیهای آنها استخراج میشود. همچون AlexNet، پیش از گام نهایی، طبقهبندی اشیا با «ماشین بردار پشتیبان» (Support Vector Machine) خطی انجام میشود.
– Fast R-CNN: طراحی ساده با مدل مجرد دارد و جعبههای محصور کننده آن به عنوان ورودی مشخص میشوند؛ اما لایه pooling پس از CNN برای تحکیم مناطق مورد استفاده قرار میگیرد و مدل، برچسب کلاسها و منطقه مورد نظر را به طور مستتقیم پیشبینی میکند.
– Faster R-CNN: افزودن «شبکه پیشنهاد منطقه» (Region Proposal Network) که ویژگیهای استخراج شده از یک CNN عمیق را تفسیر میکند و یاد میگیرد که منطقه مورد نظر را به طور مستقیم پیشنهاد بدهد.
– Mask R-CNN: افزونه R-CNN سریعتر که خروجی مدل را برای پیشبینی یک ماسک برای هر شی شناسایی شده اضافه میکند.
مدل Mask R-CNN در سال ۲۰۱۸ در مقالهای با عنوان «Mask R-CNN» به عنوان جدیدترین عضو از مدلهای خانواده معرفی شد و از تشخیص اشیا و بخشبندی اشیا پشتیبانی میکند. در مقاله اصلی که این مدل در آن معرفی شده است، خلاصه خوبی از عملکرد این مدل ارائه شده است. در ادامه، بخشهایی از مقاله عینا آورده شدهاند.
🔸 پروژه Matterport Mask R-CNN
Mask R-CNN یک مدل پیچیده برای پیادهسازی است، به ویژه در مقایسه با دیگر روشهای لبه علم مانند مدل شبکه عصبی پیچشی عمیق. کد منبع هر نسخه از مدل R-CNN در مخازن گیتهاب مجزایی با مدلهای نمونه بر پایه چارچوب یادگیری عمیق Caffe + موجود هستند. برای مثال:
– R-CNN: مناطق با ویژگیهای شبکه عصبی پیچشی +
– Fast R-CNN +
– کد پایتون Faster R-CNN +
– دِتِکرون (Detectron) +
مطالعه ادامه مطلب 👇👇
🔗 تشخیص اشیا در تصاویر با پایتون — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کردهاند. در این مطلب، روش بازشناسی چهره با استفاده از «ریاکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آنها حتی با چشم انسانی هم کار دشواری است.
══ فهرست مطالب ══
○ تشخیص چهره با جاوا اسکریپت و ری اکت
○ توضیحات کوتاهی پیرامون تشخیص چهره
○ پیادهسازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
○ رابط برنامهنویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
○ جعبه تشخیص چهره
○ بازشناسی چهره
○ تطبیقدهنده چهره
○ ورودی ویدئو زنده
○ استقرار پروژه در صفحه گیتهاب
🔸 تشخیص چهره با جاوا اسکریپت و ری اکت
در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامهنویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جیاس» (TensorFlow.js) کار میکند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بکاند لازم برای این کار، انجام شوند.
اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، میتوان امکان بازشناسی چهره با ریاکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ریاکت در صفحه گیتهاب، آموزش داده شده است.
همانطور که پیشتر نیز بیان شد، در اینجا پیادهسازی یک برنامه کاربردی تک صفحهای برای تشخیص و بازشناسی چهره، با استفاده از ریاکت و کتابخانه تشخیص چهره ace-api.js انجام میشود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی میکند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.
🔸 توضیحات کوتاهی پیرامون تشخیص چهره
در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه میکند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت میکند. او از فرد میخواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه میکند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه میکند. همچنین، در حالت پیشرفتهتری، اسم نوشته شده در کارت هویتی را وارد سیستم میکند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه میکند.
به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده میشود، سیستم تلاش میکند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز میگراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام میشود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نامگذاری، سایز کوچک و موبایلپسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیصدهنده چهره استفاده میکند؛ اما در حال حاضر به ان پرداخته نخواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مبحث بهینه سازی در پایتون همراه با شرح جزئیات و ارائه مثالهای متعدد و متنوع مورد بررسی قرار گرفته است.
══ فهرست مطالب ══
○ بهینه سازی در پایتون
○ متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
○ آشنایی با ماژولهای SciPy
○ روش نصب SciPy روی کامپیوتر
○ استفاده از ماژول Cluster در کتابخانه SciPy
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ استفاده از ماژول بهینهسازی در SciPy
○ کمینه کردن یک تابع تک متغیره در SciPy
○ کمینهسازی تابع چندمتغیره در SciPy
○ معرفی فیلمهای آموزش پایتون و بهینه سازی با پایتون فرادرس
○ جمعبندی
🔸 بهینه سازی در پایتون
هنگامی که افراد میخواهند کارهای علمی را در زبان برنامهنویسی پایتون (Python Programming Language) انجام دهند، اولین کتابخانهای که میتوان از آن استفاده کرد «سایپای» (SciPy) است. همانطور که در مطلب بهینه سازی در پایتون بیان شده است، سایپای فقط یک کتابخانه نیست، بلکه یک اکوسیستم کامل از کتابخانهها است که با یکدیگر کار میکنند تا به افراد در انجام وظایف علمی پیچیده به صورت سریع و قابل اعتماد کمک کنند. در این راهنما، مطالب زیر مورد بررسی قرار گرفته است:
– بررسی کارهای قابل انجام با استفاده از کتابخانه SciPy
– نصب SciPy روی کامپیوتر
– استفاده از SciPy برای خوشهبندی یک مجموعه داده با چندین متغیر
– استفاده از SciPy برای پیدا کردن بهینه یک تابع
🔸 متمایز کردن اکوسیستم SciPy و کتابخانه SciPy
هنگامی که کاربر قصد دارد از پایتون برای وظایف محاسبات کامپیوتری استفاده کند، چندین کتابخانه وجود دارد که استفاده از آنها به او توصیه میشود. این کتابخانههای پایتون عبارتند از:
– نامپای (NumPy)
– سایپای (SciPy)
– متپلاتلیب (Matplotlib)
– آیپایتون (IPython)
– سیمپای (SymPy)
– پانداس (Pandas)
این کتابخانهها در کنار هم، اکوسیستم سایپای را میسازند و برای آن طراحی شدهاند که در کنار یکدیگر کار کنند. بسیاری از این موارد به طور مستقیم برای انجام محاسبات بر آرایههای نامپای تکیه دارند. در این راهنما، فرض شده است که کاربر با ساخت آرایههای نامپای و انجام پردازشهایی روی آنها آشنایی دارد. به کاربرانی که با کتابخانه نامپای به خوبی آشنایی ندارند، مطالعه مطالب زیر توصیه میشود.
– برنامهنویسی پایتون (Python) با کتابخانه NumPy — به زبان ساده
– کتابخانه NumPy پایتون – راهنمای جامع — بخش اول
– کتابخانه NumPy پایتون – راهنمای جامع — بخش دوم
همچنین، برای مطالعه بیشتر پیرامون کتابخانههای هوش مصنوعی و علم داده پایتون، مطالعه مطالب زیر پیشنهاد میشود.
مطالعه ادامه مطلب 👇👇
🔗 بهینه سازی در پایتون | Optimization در پایتون با SciPy | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، ضمن پاسخگویی به پرسش ریکامندر چیست به بررسی مبانی سیستم پیشنهاد دهنده به زبان ساده، به طور جامع و کامل و همراه با ارائه مثال پرداخته شده است. شایان توجه است که در سراسر این مطلب از کلمه قلم و اقلام برای اشاره به مفهوم «Item» و «Items» استفاده شده است.
══ فهرست مطالب ══
○ چکیده مطلب ریکامندر چیست ؟
○ مقدمهای بر مبحث ریکامندر چیست ؟
○ ریکامندر معادل چه کلمهای در فارسی و انگلیسی است؟
○ ریکامندر چیست ؟
○ دلیل استفاده از سیستم ریکامندر چیست ؟
○ کاربرد سیستم ریکامندر چیست ؟
○ چه زمانی کسب و کار باید ریکامندر سیستم پیادهسازی کند؟
○ پیشنیازهای لازم برای راهاندازی یک سیستم ریکامندر چیست ؟
○ ریکامندر سیستم چگونه کار میکند؟
○ منابع اطلاعاتی سیستم ریکامندر چیست ؟
○ روش فراهم کردن داده برای سیستم ریکامندر چیست ؟
○ رابطه و داده در ریکامندر سیستم ها
○ انواع سیستمهای ریکامندر چه هستند؟
○ از چه روشهایی برای ساخت ریکامندر سیستم استفاده میشود؟
○ چطور میتوان یک ریکامندر سیستم را ارزیابی کرد؟
○ مثال از ریکامندر سیستم: موتور پیشنهاد هوشمند با پالایش گروهی
○ مثال از ریکامندر سیستم: ریکامندر سیستم محتوا محور پیشنهاد مقالات
○ معرفی یک پروژه ریکامندر سیستم فعال و تجاری ایرانی: کاپریلا
○ پرسشهای متداول پیرامون ریکامندر سیستم
🔸 چکیده مطلب ریکامندر چیست ؟
اینترنت به عنوان منبعی برای حجم انبوه دادهها و اطلاعات محسوب میشود. در عین حال، کالاها و خدمات متنوعی نیز از طریق اینترنت در دسترس عموم مردم هستند. در این اقیانوس، نیاز به ابزاری برای پالایش، اولویتبندی و تحویل موثر اطلاعات مورد نیاز و مرتبط به هر کاربر به او محسوس است. این کار به عنوان راهکاری مُسَکنوار برای مسئله وجود سرریز اطلاعات (Information Overload) در نظر گرفته شده است. امروزه، سرریز اطلاعات مشکلات متعددی را برای کاربران اینترنت به وجود آورده است. ریکامندر سیستم در صدد است تا این مشکل را با جستجو در میان حجم انبوهی از اطلاعاتی حل کند که همه روزه به صورت پویا تولید میشوند و محتوا و خدمات شخصیسازی شده برای هر کاربر را در اختیار او قرار دهد.
در مطلب ریکامندر چیست ابتدا مفهوم ریکامندر سیستم بیان و به پرسش ریکامندر چیست پاسخ داده شده است. سپس، به پرسش دلیل استفاده از سیستم ریکامندر چیست پاسخ داده شده و کاربرد ریکامندر سیستم مورد بررسی قرار گرفته است. در ادامه، پیشنیازهای لازم برای یک ریکامندر سیستم تشریح شدهاند و به روشهای تامین منابع اطلاعاتی برای ریکامندر سیستم پرداخته شده است. پس از آن، روش کار و روش ساخت ریکامندر سیستم مورد بررسی قرار گرفته و انواع ریکامندر سیستم تشریح شده است. سپس، مثالهایی از پیادهسازی ریکامندر سیستم همراه با ارائه کدهای لازم برای آن ارائه شده است تا مخاطب بتواند هر چه بهتر پاسخ پرسش ریکامندر چیست را دریافت کند. در نهایت، به پرسشهای متداول پیرامون ریکامندر سیستم یا همان سیستم پیشنهاد دهنده پاسخ داده شده است.
🔸 مقدمهای بر مبحث ریکامندر چیست ؟
رشد انفجاری اطلاعات دیجیتالی در دسترس و تعداد کاربران اینترنت، مشکل بالقوه سرریز اطلاعاتی را ایجاد میکند. این سرریز اطلاعاتی مانع دسترسی سریع و به موقع کاربران به اطلاعات مورد نظر خودشان در اینترنت میشود. سیستمهای بازیابی اطلاعات (Information Retrieval Systems) مانند گوگل، آلتاویستا و دیگر موارد، تا اندازهای این مشکل را حل کردهاند. اما سیستمهای مذکور، راهکارهای لازم را برای اولویتبندی و شخصیسازی اطلاعات را فراهم نمیکنند (البته گوگل چند سالی است که برای موتور جستجوی خود نیز از بحث شخصیسازی نتایج استفاده میکند و جمله بیان شده، صرفا به ماهیت خود موتور جستجو بودن اشاره دارد). منظور از شخصیسازی، نگاشت محتوای موجود بر اساس علایق و ترجیحات کاربر به منظور ارائه به او است. آنچه بیان شد منجر به افزایش بیش از پیش تقاضا برای ریکامندر سیستم شده است.
مطالعه ادامه مطلب 👇👇
🔗 ریکامندر چیست ؟ | مبانی سیستم پیشنهاد دهنده — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
AutoML یا یادگیری ماشین خودکار روش جدیدی است که در آن فرآیند ساخت یک مدل یادگیری ماشین خودکارسازی یا مکانیزه میشود. در نگاه اول ممکن است اینطور به نظر برسد که قرار است AutoML جایگزین دانشمند داده شده و او را از کار بیکار کند. اما موضوع به این سادگی و تا این حد مصیبتوار نیست. در این مطلب، ابتدا به این سوال که «AutoML چیست» به بیان ساده پاسخ داده میشود، سپس چند مورد از روشهای مختلف پیادهسازی آن شرح داده شده و در پایان هم به سوال مهم «آیا AutoML جایگزین دانشمندان داده خواهد شد»، پاسخ داده شده است.
══ فهرست مطالب ══
○ یادگیری ماشین چیست؟
○ AutoML چیست؟
○ سطوح مختلف AutoML
○ تفاوت یادگیری ماشین با AutoML چیست؟
○ روش های پیادهسازی AutoML
○ آیا AutoML جایگزین دانشمندان داده خواهد شد؟
○ معرفی فیلم های آموزش یادگیری ماشین و هوش مصنوعی
○ جمعبندی و نتیجهگیری
🔸 یادگیری ماشین چیست؟
قبل از تمرکز بر این سوال که «AutoML چیست»، ابتدا باید این مسئله مشخص شود که یادگیری ماشین در تلاش برای دستیابی به چه هدفی است؟ برای پاسخگویی به این سوال، ابتدا بهتر است تعریفی از یادگیری ماشین ارائه شود:
برای اطلاعات بیشتر در خصوص چیستی یادگیری ماشین، مطالعه مطلب «آموزش یادگیری ماشین با مثال های کاربردی — مجموعه مقالات جامع وبلاگ فرادرس» پیشنهاد میشود.
ساخت یک کاربرد و عملکرد یادگیری ماشین به طی کردن فرآیند مشخصی نیاز دارد که در ادامه در این خصوص بحث شده است.
🔸 AutoML چیست؟
AutoML سرنامی برای Automated Machine Learning به معنی یادگیری ماشین خودکار (یادگیری ماشین اتوماتیک) است. AutoML عملیات خودکارسازی فرآیند یادگیری ماشین با هدف سادهسازی و سرعت بخشیدن به وظایف آن به حساب میآید. ممکن است این سوال به وجود بیاید که چه چیزی قرار است مکانیزه و خودکارسازی شود؟
برای پاسخ به این سوال باید گفت که از ۱۰ مرحلهای که در بخش فرآیند ساخت مدل یادگیری ماشین فهرست شد، عموماً یادگیری ماشین خودکار تنها شامل مکانیزه کردن وظایف بیان شده در مرحله ششم است. با خودکارسازی و مکانیزه کردن کارهای انجام شده در مرحله ششم، فرآیند یادگیری ماشین سادهتر و سریعتر خواهد شد. بهتر است فرآیند انجام شده در مرحله ششم بار دیگر در اینجا فهرست شود:
– مهندسی ویژگیها
– انتخاب ویژگیها
– انتخاب الگوریتم
– بهینه سازی ابرپارامتر
– پشتهسازی
– تجمیع
یادگیری ماشین خودکار یک فناوری نوظهور است که همچنان در پیادهسازی آن چالشهای مختلفی وجود دارد. در ادامه مطلب «AutoML چیست» به چالشهای اصلی یادگیری ماشین خودکار پرداخته شده است.
مطالعه ادامه مطلب 👇👇
🔗 AutoML چیست ؟ | یادگیری ماشین خودکار — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، الگوریتم بهینه سازی ازدحام ذرات (Particle Swarm Optimization | PSO) به طور کامل و همراه با مثال مورد بررسی قرار گرفته و پیادهسازی الگوریتم PSO در پایتون، متلب و جاوا انجام شده است. شایان توجه است که به منظور تشریح محاسبات ریاضی نهفته در پس الگوریتم بهینه سازی ازدحام ذرات یا همان الگوریتم PSO از نسخه کلاسیک این الگوریتم استفاده خواهد شد. در مطلب «الگوریتم بهینه سازی ازدحام ذرات | کد الگوریتم PSO در پایتون ، متلب و جاوا | راهنمای جامع» ابتدا به مفهوم بهینهسازی پرداخته شده و سپس، الگوریتم بهینه سازی ازدحام ذرات به طور جامع و کامل مورد بررسی قرار گرفته است. در ادامه مطلب، انواع الگوریتم بهینه سازی ازدحام ذرات تشریح میشود. همچنین، روشهای ترکیبی موجود با بهرهگیری از الگوریتم بهینه سازی ازدحام ذرات که ترکیبی از روشهای بهینهسازی هیوریستیک و قطعی هستند نیز معرفی میشوند.
══ فهرست مطالب ══
○ مقدمهای بر بهینهسازی و الگوریتمهای آن
○ الگوریتم بهینه سازی ازدحام ذرات (PSO)
○ ترکیب الگوریتم ازدحام ذرات با روشهای قطعی
○ کاربردهای الگوریتم PSO و چالشهای آن
○ مثال از الگوریتم PSO: هزینه یک سیستم تولید همزمان
○ معرفی فیلمهای آموزش بهینه سازی فرادرس
○ پیادهسازی الگوریتم بهینه سازی ازدحام ذرات در پایتون
○ کد الگوریتم بهینهسازی ازدحام ذرات در متلب
○ کد الگوریتم بهینه سازی ازدحام ذرات در جاوا
○ معرفی فیلمهای آموزش الگوریتم PSO فرادرس
○ نتیجهگیری
🔸 مقدمهای بر بهینهسازی و الگوریتمهای آن
«بیشینه» (Maximizing) کردن «سود» یا «کمینه» (Minimizing) کردن «زیان» (Loss) از جمله مسائل بسیار حائز اهمیت در زمینههای گوناگون از جمله حوزههای فنی و مهندسی است. در یک تعریف ساده و کوتاه میتوان گفت که مسائلی که در آنها هدف بیشینه یا کمینه کردن یک تابع است را «مسئله بهینهسازی» (Optimization Problem) میگویند. برای مطالعه بیشتر پیرامون بهینهسازی، مطالعه مطالب «بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع» و «بهینه سازی چند هدفه چیست؟ — راهنمای جامع» پیشنهاد میشود.
با توسعه فناوری، تعداد و پیچیدگی مسائل بهینهسازی نیز در زمینههای علمی گوناگون افزایش پیدا کرده است. از متداولترین مسائل موجود در حوزههای مهندسی که نیاز به استفاده از روشهای بهینهسازی برای حل آنها وجود دارد میتوان به تبدیل و توزیع انرژی، لجستیک (Logistics | آمادگاری) و بارگذاری مجدد رآکتورهای هستهای اشاره کرد. مسائل بهینهسازی در دیگر زمینهها از جمله هندسه و اقتصاد نیز کاربرد دارند. از دیگر زمینههای اصلی کاربرد بهینهسازی میتوان به «هوش مصنوعی» (Artificial Intelligence | AI) و یادگیری ماشین «Machine Learning» اشاره کرد.
برای بیشینه یا کمینه کردن یک تابع به منظور پیدا کردن نقطه یا نقاط بهینه، رویکردهای گوناگونی وجود دارند و قابل استفاده هستند. با وجود طیف گسترده الگوریتمهای بهینهسازی که وجود دارند، یک الگوریتم خاص که برای همه مسائل بهترین گزینه باشد وجود ندارد. در واقع، یک روش بهینهسازی که برای یک مسئله مناسب است، ممکن است برای مسئله دیگری مناسب نباشد. مناسب بودن یک الگوریتم برای یک مسئله، بستگی به ویژگیهای گوناگونی دارد که از جمله آنها میتوان به مشتقپذیر بودن تابع و تقعر آن (محدب یا مقعر بودن) اشاره کرد.
🔸 الگوریتم بهینه سازی ازدحام ذرات (PSO)
در اوایل سال ۱۹۹۰ میلادی، پژوهشهای گوناگونی پیرامون رفتار اجتماعی گروههای حیوانات انجام شد. این پژوهشها حاکی از آن بودند که برخی از حیوانات که به یک گروه خاص متعلق هستند، مانند پرندگان، ماهیها و دیگر موارد، قادر به آن هستند که اطلاعات را در گروههای (دستههای | گلههای) خودشان به اشتراک بگذارند و چنین قابلیتی به این حیوانات مزایای قابل توجهی برای بقا اعطا میکرد.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم بهینه سازی ازدحام ذرات — کد الگوریتم PSO | راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
Forwarded from FaraDars_Course
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
✳️ معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1