FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram

✳️ آموزش محاسبات تکاملی و بهینه سازی هوشمند – روش های برخورد با قیدها – بخش یکم – رایگان


چکیده —
مبحث بهینه سازی (Optimization) شامل خانواده بزرگی از مسائل کاربردی و روش های پیشنهادی برای حل این مسائل است. تقریبا هیچ رشته کاربردی و تخصصی را نمی توان یافت که نیازمند حل مسائل بهینه سازی نباشد. علاوه بر این، زندگی روزمره ما انسان ها نیز تقریبا بدون حل روازنه ده ها مساله بهینه سازی ریز و درشت نیست. از منظر آکادمیک و یا حرفه ای، دانستن مفاهیم پایه بهینه سازی و آشنایی با روش های حل مسائل بهینه سازی، یکی از ضرورت های مهم است. از این رو، دانشجویان رشته های مختلف و همین طور متخصصین شاغل در صنایع مختلف، نیازمند آشنایی با مفاهیم و روش های بهینه سازی هستند. ما در این آموزش قصد داریم تا محاسبات تکاملی و بهینه سازی هوشمند - روش‌ های برخورد با قیدها را مورد بحث و بررسی قرار دهیم.

کسب اطلاعات بیشتر 👇👇

🔗 آموزش محاسبات تکاملی و بهینه سازی هوشمند – روش های برخورد با قیدها – بخش یکم – رایگان — کلیک کنید [+]

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
‌‌
👍1

در کانال‌های موضوعی و تخصصیِ فرادرس، چه مطالبی به صورت رایگان ارائه می‌شود؟

🔹 جدیدترین و به‌روز ترین مقالات آموزشی
در رشته‌های مختلف تحصیلی و تخصصی
🔹
خلاصه دروس دانشگاهی
🔹 مطالب جذاب علمی و ویدئوهای آموزشی
🔹
آموزش مهارت‌های کاربردی

🌟 برای دسترسی سریع‌تر به مطالب و مقالات آموزشی رایگان فرادرس، عضو کانال مورد نظر خود شوید👇👇👇


📌کانال آموزشی برنامه‌نویسی:
@FaraProg

📌کانال آموزشی برنامه‌نویسی پایتون:
@FaraPython

📌کانال آموزشی برنامه‌نویسی اندروید:
@FaraAnd

📌کانال آموزشی برنامه‌نویسی جاوا:
@Fara_Java

📌کانال آموزشی طراحی و توسعه وب:
@FaraWebDev

📌کانال آموزشی متلب و سیمولینک:
@FaraMatlabSim

📌کانال آموزشی رباتیک:
@FaraRobotics

📌کانال آموزشی هوش مصنوعی:
@FaraAI

📌کانال آموزشی علم داده:
@Fara_DS

📌کانال آموزشی مهندسی:
@FaraEng

📌کانال آموزشی مهندسی مکانیک:
@FaraMechanical

📌کانال آموزشی مهندسی برق:
@FaraElectrical

📌کانال آموزشی مهندسی عمران:
@FaraCivil

📌کانال آموزشی معماری:
@FaraArch

📌کانال آموزشی شیمی:
@FaraChem

📌کانال آموزشی مهندسی و علوم کامپیوتر:
@FaraCompEng

📌کانال آموزشی طراحی گرافیک:
@FaraGraphDesign

📌کانال آموزشی زبان:
@FaraLang

📌کانال آموزشی زیست‌شناسی:
@FaraBio

📌کانال آموزشی فیزیک:
@FaraPhys

📌کانال آموزشی ریاضیات:
@FaraMathematic

📌کانال آموزشی آمار و احتمالات:
@FaraStatistics

📌کانال آموزشی آفیس:
@FaraOffice

📌کانال آموزشی بورس:
@FaraVest

📌کانال آموزشی بازاریابی دیجیتال:
@Kaprila


📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا

@FaraDars — فرادرس
👍4

✳️ آموزش آشنایی با پردازش زبان های طبیعی (NLP) در پایتون (Python) – رایگان


چکیده —
همان طور که می دانید داده ها را در بستر وب می توان به فرم های: متن، تصویر، صوت یا ویدئو مشاهده نمود ولی از آن جا که بیشتر این داده ها به صورت متن هستند، در این فرادرس به پردازش زبان های طبیعی می پردازیم. این درس با عنوان مبانی پردازش زبان و گفتار برای دانشجویان کامپیوتر در برخی از دانشگاه ها ارائه می گردد ولی از آن جا که بیشتر به صورت تئوری ارائه می شود و منبع فارسی عملی نیز برای آن وجود ندارد، بر آن شدیم که این درس را ارائه دهیم.

کسب اطلاعات بیشتر 👇👇

🔗 آموزش آشنایی با پردازش زبان های طبیعی (NLP) در پایتون (Python) – رایگان — کلیک کنید [+]

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
‌‌
👍2

🚀 آخرین بهبودها و تحولات فرادرسی

بخش «ادامه مسیر تا ورود به بازار کار»، به آموزش‌های فرادرس اضافه شد.

⭕️ گام بعدی چیست؟ این یکی از مهم ترین سوالاتی است که پس از اتمام یک آموزش، احتمالا در ذهن دانشجویان شکل می‌گیرد.

🔴 در پاسخ به این سوال، فرادرس به انتهای صفحه آموزش، یک بخش با عنوان «ادامه مسیر تا ورود به بازار کار» اضافه کرده است. در این قسمت، مسیری که بعد از دیدن آموزش برای توسعه مهارت‌های خود باید طی کنید، تشریح شده است تا بتوانید تصویر روشن تری از ادامه مسیر یادگیری داشته باشید.

📌 برای تکمیل و توسعه یادگیری و استفاده از این قابلیت جذاب، از قسمت حساب کاربری وارد آموزشی که تهیه کرده‌اید شوید و در انتهای قسمت سرفصل‌ها، گزینه ادامه مسیر تا ورود به بازار کار را مشاهده کنید. 👇

🔗 ورود به حساب کاربری — [کلیک کنید]

⚠️
گزینه "ادامه مسیر تا ورود به بازار کار" به اکثر آموزش‌های فرادرس اضافه شده است و به زودی برای همه آموزش‌ها قابل دسترسی خواهد شد.

📚 فرادرس | دانش در دسترس همه؛ همیشه و همه جا

@FaraDars — فرادرس
👍21
✳️ کاربرد هوش مصنوعی در خدمات حقوقی آنلاین

‏در این مطلب، کاربرد هوش مصنوعی در خدمات حقوقی آنلاین مورد بررسی قرار گرفته است. در دنیای کسب‌وکار وارد هر حیطه‌ای که بشوید ردپای قانون را در گوشه و کنار آن پیدا می‌کنید. مثلاً فعالیت‌هایی را در نظر بگیرید که یک شرکت فرضی انجام می‌شود؛ خرید، فروش، مشارکت، استخدام، ادغام. همه این‌ها با قراردادهای الزام‌آور قانونی انجام می‌شوند. برای به ثمر نشستن اختراعات و نوآوری‌ها نیز به نظام کارآمد حمایت از حقوق مالکیت فکری نیاز است. حتی در زندگی روزمره به طور پیوسته با قوانین و مقررات نظام حقوقی خود در کشاکش هستیم، گاهی با آن‌ها وارد جدال می‌شویم و گاهی از چتر حمایتی آن‌ها بهره می‌بریم.

══ فهرست مطالب ══

‏ ○ تهیه قرارداد با استفاده از هوش مصنوعی
‏ ○ تحلیل قراردادها با استفاده از هوش مصنوعی
‏ ○ ماشین‌های پیشگو در راه هستند
‏ ○ تحقیقات حقوقی با کمک هوش مصنوعی
‏ ○ نتیجه‌گیری پیرامون کاربرد هوش مصنوعی در خدمات حقوقی آنلاین


🔸 تهیه قرارداد با استفاده از هوش مصنوعی

‏در این بخش از مطلب کاربرد هوش مصنوعی در خدمات حقوقی آنلاین به موضوع تهیه قرارداد با استفاده از هوش مصنوعی پرداخته شده است. قراردادها خون جاری در رگ‌های نظام اقتصادی هستند و هر معامله تجاری به تنظیم قرارداد نیاز دارد؛ اما فرایند مذاکره و تنظیم قرارداد بسیار خسته‌کننده است. روال معمول این است که یکی از طرفین قرارداد را تنظیم می‌کند و برای طرف دیگر می‌فرستد. طرف مقابل نظرات خود را در مورد جرح و تعدیل مفاد قرارداد به دیگری اعلام می‌کند و قرارداد را به آن باز می‌گرداند و این تبادل ممکن است بارها و بارها تکرار شود.

‏طولانی شدن این روند گاهی باعث تأخیر در امضای قرارداد شده و مانع رسیدن شرکت‌ها به اهداف تجاری خود می‌شود. خطاهای انسانی هم در هنگام نگارش قرارداد کم اتفاق نمی‌افتند. به یاد داشته باشید که در یک قرارداد اصولی بایستی تا به تمام جزئیات توجه شود و گاهی حجم قرارداد به هزاران صفحه می‌رسد، پس وقوع انواع اشتباهات و خطاهای انسانی اصلاً عجیب نیست.

‏خوشبختانه امکان خودکارسازی فرایند نگارش قرارداد وجود دارد و چندین استارتاپ حقوقی از جمله لاگیکس (Lawgeex)، کلاریتی (Klarity)، کلرلا (Clearlaw) و لکس‌چک (LexCheck) برنامه‌هایی برای آن تهیه کرده‌اند. این برنامه‌ها به این شکل کار می‌کنند که یک قرارداد پیشنهادی وارد آن می‌شود، نرم‌افزار با تحلیل متن تعیین می‌کند که کدام بخش‌های قرارداد قابل قبول است و در کدام قسمت‌ها ایراد و اشکالی وجود دارد.


🔸 تحلیل قراردادها با استفاده از هوش مصنوعی

‏مذاکره و امضای قرارداد تازه ابتدای راه است. طرفین یک قرارداد باید تمام شروط و تعهداتی که پذیرفته‌اند را اجرا و رعایت کنند و این یک چالش مهم برای شرکت‌های بزرگی است که میلیون‌ها قرارداد با هزاران شخص در موضوعات متنوع دارند.

‏در حال حاضر شرکت‌ها عملاً نمی‌توانند به تمام جزئیات قراردادهایی که امضا کرده‌اند تسلط داشته باشند اما هوش مصنوعی فرصتی را برای حل این مشکل در اختیار آن‌ها قرار می‌دهد. برنامه‌های مسلط به فناوری «پردازش زبان طبیعی» (Natural Language Processing) این توانایی را دارند که نکات کلیدی قراردادها را از بین مجموعه اسناد قراردادی شرکت استخراج و معنایابی کنند تا مدیران اجرایی شرکت امکان درک تعهدات تجاری شرکت خود را در موقعیت‌های مختلف داشته باشند. نرم‌افزار کایرا سیستمز (Kira Systems) و سیل (Seal Software) دو شرکت فناوری خدمات حقوقی آنلاین با سرمایه مالی قابل توجه هستند که در حال توسعه سامانه‌هایی برای ارائه این خدمات هستند.

‏این راهکارهای فناورانه به تمام اجزای شرکت‌ها کمک می‌کند تا تصمیمات آگاهانه بگیرند. گروه فروش می‌داند چه زمانی باید برای تأمین سرمایه و پیش‌فروشی اقدام کند. گروه‌های تدارکات این امکان را پیدا می‌کنند که به موقع مذاکرات و معاملات را انجام دهند. گروه مالی برای اقدام به موقع در زمینه ارزیابی اعتبار و تصمیم‌گیری در مورد شروع فرایند تملیک و ادغام آمادگی خواهد داشت. به کمک این فناوری تا یک دهه دیگر فضای پر گرد و غبار تعهدات قراردادی که شرکت‌های امروزی در آن فعالیت می‌کنند به خاطره‌ها خواهد پیوست.



مطالعه ادامه مطلب 👇👇

🔗 کاربرد هوش مصنوعی در خدمات حقوقی آنلاین — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍3
✳️ ساخت شبکه عصبی — راهنمای مقدماتی

‏در این نوشته قصد داریم پرده از ابهامات شبکه‌های عصبی برداریم، همراه با شما اقدام به ساخت شبکه عصبی کنیم و با آنچه در پشت صحنه اتفاق می‌افتد آشنا شویم.

══ فهرست مطالب ══

‏ ○ شبکه عصبی مصنوعی چیست؟
‏ ○ مبانی شبکه عصبی
‏ ○ اندازه لایه‌های مختلف
‏ ○ تعداد نورون‌های هر لایه
‏ ○ بهینه‌ساز
‏ ○ تابع فعال‌سازی
‏ ○ مقداردهی مدل


🔸 شبکه عصبی مصنوعی چیست؟

‏شبکه‌های عصبی (مصنوعی) به دلیل شباهت نسبی‌شان به شبکه‌های عصبی در مغز به این صورت نامگذاری شده‌اند و شامل اتصال‌هایی از جنس نورون‌های مصنوعی هستند. این شبکه‌ها از طریق اتصال‌های بین نورون‌ها که سیناپس نام دارد فعالیت می‌کنند. سیناپس‌ها اطلاعات را از یک نورون به نورون دیگر ارسال می‌کنند. یک نورون می‌تواند اطلاعات را از یک نورون ورودی بگیرد و سپس آن اطلاعات را به همه نورون‌های دیگر که به نورون مزبور وصل هستند، بفرستد. این وضعیت در حالتی که شبکه خود را بسازیم و فعالیت آن را در عمل مشاهده کنیم، معنی بیشتری خواهد یافت.


🔸 مبانی شبکه عصبی

‏جهت برآورده ساختن مقاصد آموزشی این مقاله، خواننده باید درکی مقدماتی از برخی مباحث ابتدایی ریاضیات و آمار نیز داشته باشد. به علاوه اگر می‌خواهید مدل‌ها را روی سیستم خود اجرا کنید (که البته ضروری نیست)، می‌بایست همه کتابخانه‌های مورد نیاز را به درستی نصب کرده باشید و آشنایی متوسطی با پایتون داشته باشید. برای اجرای همه مثال‌های این مقاله، کاربر نیازمند کتابخانه‌های Pandas Numpy ،Matplotlib ،Scikit-Learn ،TensorFlow و Keras خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 ساخت شبکه عصبی — راهنمای مقدماتی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [‎@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
✳️ داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی

‏از زمانی که «داکر» (Docker) به طور عمومی انتشار یافت تا به امروز، حدود شش سال زمان می‌گذرد. این برنامه کامپیوتری به دلیل قابلیت‌های جالب توجهی که فراهم می‌کرد، توانست خیلی سریع به محبوبیت بالایی دست پیدا کند و در حوزه‌های گوناگون مورد استفاده قرار بگیرد. در این مطلب، به مبحث داکر (Docker) و کاربرد آن در علم داده پرداخته خواهد شد. در همین راستا، ابتدا چیستی داکر، دلایل استفاده از آن، تعاریف داکر، نحوه نصب و ساخت ایمیج داکر و در نهایت، چگونگی استفاده از آن در راستای «علم داده» (Data Science) مورد بررسی قرار خواهد گرفت.

══ فهرست مطالب ══

‏ ○ داکر چیست؟
‏ ○ دلایل استفاده از داکر چیست؟
‏ ○ تعاریف داکر
‏ ○ نصب داکر
‏ ○ ساخت اولین ایمیج داکر
‏ ○ دستور From
‏ ○ دستور LABEL
‏ ○ دستور ENV
‏ ○ دستور RUN
‏ ○ دستور EXPOSE
‏ ○ دستور VOLUME
‏ ○ دستور WORKDIR
‏ ○ دستور ADD
‏ ○ دستور CMD
‏ ○ ساخت ایمیج داکر
‏ ○ ساخت و اجرای یک کانتینر از داکر ایمیج
‏ ○ تعامل با کانتینر
‏ ○ دست یافتن به قدرت‌های جادویی داکر (Docker) و کاربرد آن در علم داده
‏ ○ داکر انویدیا


🔸 داکر چیست؟

‏«داکر» (Docker)، یک برنامه کامپیوتری است که با استفاده از آن شبیه‌سازی سطح سیستم‌عامل انجام می‌شود. این برنامه توسط «شرکت داکر» (Docker, Inc) ساخته شده و توسعه داده می‌شود و برای اولین بار در سال ۲۰۱۳ منتشر شد. از داکر برای ساخت بسته‌های نرم‌افزاری استفاده می‌شود که به آن‌ها «کانتینر» (Container) گفته می‌شود. کانتینرها نسبت به یکدیگر ایزوله هستند و برنامه‌های خود، ابزارها، کتابخانه‌ها و فایل‌های پیکربندی خود را دارند. این کانتینرها می‌توانند با یکدیگر از طریق کانال‌های خوش تعریف ارتباط برقرار کنند. همه کانتینرها به وسیله یک کرنل سیستم عامل مجرد اجرا می‌شوند و بنابراین، نسبت به ماشین‌های مجازی سبک‌تر هستند.

‏کانتینرها از ایمیج‌هایی (Images) ساخته شده‌اند که محتوای دقیق آن‌ها را مشخص می‌کند. ایمیج‌ها معمولا با ترکیب و ویرایش ایمیج‌های استاندارد دانلود شده از مخازن عمومی ساخته می‌شوند. داکر، ابتدا برای سیستم‌عامل لینوکس ساخته شده بود تا از قابلیت ایزوله‌سازی منابع کرنل لینوکس مانند cgroups و namespaces و همچنین، سیستم فایل‌های یونیون مونت مانند OverlayFS و دیگر موارد استفاده کند. این کار با این هدف انجام می‌شد که به کانتینرهای مستقل امکان اجرای یک نمونه لینوکس مجرد را بدهد و از سربار شروع و نگهداری ماشین‌های مجازی اجتناب کند.

‏اما بعدها، برای سیستم‌عامل‌های ویندوز و مک‌او‌اس نیز توسعه یافت. داکر یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface | API) را برای فراهم کردن یک کانتینر سبک پیاده‌سازی می‌کند که می‌تواند یک برنامه را به صورت توکار پردازش کند. با توجه به اینکه کانتینرهای داکر بسیار سبک هستند، یک سرور یا ماشین مجازی تنها می‌تواند چندین ظریف را به طور هم‌زمان اجرا کند. برای تسلط بیشتر بر داکر، مطالعه مطلب «آموزش‌ داکر (Docker) — مجموعه مقالات مجله فرادرس» توصیه می‌شود.


🔸 دلایل استفاده از داکر چیست؟

‏تکرارپذیری: برای یک «دانشمند داده» (Data Scientist)، این موضوع از اهمیت به سزایی برخوردار است که کاری قابل تولید مجدد (تکرار پذیر) انجام دهد. قابلیت تولید مجدد نه تنها بازنگری با دقت (داوری دقیق | Peer Review) را امکان‌پذیر می‌سازد، بلکه اطمینان حاصل می‌کند که مدل، برنامه کاربردی یا تحلیلی که دانشمند داده انجام داده است، بدون مشکل اجرا شود. این امر، استحکام و قدرت بیشتری را فراهم می‌آورد.



مطالعه ادامه مطلب 👇👇

🔗 داکر (Docker) و کاربرد آن در علم داده — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍3
✳️ تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی

‏«تشخیص چهره» (Face Detection) و «بازشناسی چهره» (Face Recognition)، امروزه از جمله مباحث مهم و داغی هستند که توجه بسیاری از پژوهشگران و کسب و کارهای بزرگ، متوسط و کوچک را به خود جلب کرده‌اند. در این مطلب، روش بازشناسی چهره با استفاده از «ری‌اکت» (React) و «face-api.js» مورد بررسی قرار گرفته است. در مطلب تشخیص چهره با جاوا اسکریپت و ری اکت از تصاویر اعضای یک گروه موسیقی برای انجام کار تشخیص چهره استفاده شده است که احتمالا، تشخیص چهره آن‌ها حتی با چشم انسانی هم کار دشواری است.

══ فهرست مطالب ══

‏ ○ تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ توضیحات کوتاهی پیرامون تشخیص چهره
‏ ○ پیاده‌سازی سیستم تشخیص چهره با جاوا اسکریپت و ری اکت
‏ ○ رابط برنامه‌نویسی کاربردی جاوا اسکریپت برای تشخیص چهره یا همان Face API
‏ ○ جعبه تشخیص چهره
‏ ○ بازشناسی چهره
‏ ○ تطبیق‌دهنده چهره
‏ ○ ورودی ویدئو زنده
‏ ○ استقرار پروژه در صفحه گیت‌هاب


🔸 تشخیص چهره با جاوا اسکریپت و ری اکت

‏در ادامه، مبحث تشخیص چهره با جاوا اسکریپت و ری اکت مورد بررسی قرار گرفته است. «face-api.js» یک «رابط برنامه‌نویسی کاربردی» (Application Programming Interface) برای تشخیص چهره و بازشناسی چهره است که با «تنسورفلو دات جی‌اس» (TensorFlow.js) کار می‌کند. اکنون و با استفاده از این API، امکان آن وجود دارد که همه فرایندهای «یادگیری عمیق» (Deep Learning) روی مرورگر و بدون نیاز به کد بک‌اند لازم برای این کار، انجام شوند.

‏اکنون، بدون هرگونه کد بک-اند یا تنظیمات محیطی، تنها با داشتن یک میزبان وب استاتیک، می‌توان امکان بازشناسی چهره با ری‌اکت و تنسورفلو را داشت و آن را روی هر دستگاه یا مرورگری اجرا کرد. البته، مرورگر باید امکان اجرای TensorFlow.js را داشته باشد. در پایان این مطلب، چگونگی استقرار این برنامه کاربردی ری‌اکت در صفحه گیت‌هاب، آموزش داده شده است.

‏همانطور که پیش‌تر نیز بیان شد، در اینجا پیاده‌سازی یک برنامه کاربردی تک صفحه‌ای برای تشخیص و بازشناسی چهره، با استفاده از ری‌اکت و کتابخانه تشخیص چهره ace-api.js انجام می‌شود. این API با یک سیستم تشخیص چهره از پیش آموزش دیده شده، نقاط برحسته چهره (Face-Landmarks) و «تراز چهره» (Face-Alignment) را شناسایی می‌کند. بنابراین، نیازی به نوشتن مدل یادگیری عمیق در «تنسورفلو» (TensorFlow) نیست.


🔸 توضیحات کوتاهی پیرامون تشخیص چهره

‏در این بخش از مطلب تشخیص چهره با جاوا اسکریپت و ری اکت توضیحاتی اجمالی پیرامون تشخیص چهره ارائه شده است. حالتی مفروض است که فردی به یک اداره دولتی مراجعه می‌کند. مسئول مربوطه، یک کپی از مستندات فرد را دریافت می‌کند. او از فرد می‌خواهد که اثبات کند خودش است. فرد برای این منظور، کارت هویتی خود مثلا شناسنامه یا کارت ملی را ارائه می‌کند. مسئول، نام فرد و تصویری او را در کارت شناسایی مشاهده و با فردی که در مقابل خودش نشسته مقایسه می‌کند. همچنین، در حالت پیشرفته‌تری، اسم نوشته شده در کارت هویتی را وارد سیستم می‌کند تا از صحت کارت هویتی مطمئن شود و سپس، چهره فرد را با تصویر موجود روی کارت هویتی مقایسه می‌کند.

‏به همین شکل، در سیستم تشخیص چهره نیز اسم فرد به همراه اطلاعات چهره او ذخیره شده است. بنابراین، هنگامی که تصویر دیگری از فرد به سیستم داده می‌شود، سیستم تلاش می‌کند تا تشخیص دهد که آیا اطلاعات فرد صاحب تصویر در پایگاه داده خود دارد یا خیر و اگر دارد، اسم فرد و یا مشخصات کامل او را باز می‌گراند. این کار، توسط شبکه تشخیص چهره (Face Detection Network) انجام می‌شود. مدلی که در این پروژه برای کار تشخیص چهره استفاده شده، Tiny Face Detector نام دارد. دلیل این نام‌گذاری، سایز کوچک و موبایل‌پسند بودن آن است. API مورد استفاده در این پروژه، یک SSD mobileNet و MTCNN نیز برای تشخیص‌دهنده چهره استفاده می‌کند؛ اما در حال حاضر به ان پرداخته نخواهد شد.


مطالعه ادامه مطلب 👇👇

🔗 تشخیص چهره با جاوا اسکریپت و ری اکت — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم ژنتیک – از صفر تا صد

‏الگوریتم‌ ژنتیک (GA | Genetic Algorithms)، خانواده‌ای از «مدل‌های محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته‌ شده‌اند. این دسته از الگوریتم‌ها، «جواب‌های محتمل» (Potential Solutions) یا «جواب‌های کاندید» (Candidate Solutions) و یا «فرضیه‌های محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار داده‌ای «کروموزوم مانند» (Chromosome-like) کدبندی می‌کنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای داده‌ای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای داده‌ای را حفظ می‌کند.

══ فهرست مطالب ══

‏ ○ مقدمه
‏ ○ انتخاب طبیعی
‏ ○ تکامل شبیه‌سازی شده
‏ ○ فرهنگ لغات الگوریتم ژنتیک
‏ ○
‏ ○ الگوریتم ژنتیک متعارف
‏ ○ نمایش عملکرد الگوریتم ژنتیک در بهینه‌سازی توابع
‏ ○ تفاوت الگوریتم ژنتیک و الگوریتم‌های بهینه‌سازی و جستجوی سنتی
‏ ○ کاربردهای الگوریتم ژنتیک
‏ ○ کدهای پیاده‌سازی الگوریتم ژنتیک در زبان‌های برنامه‌نویسی مختلف
‏ ○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
‏ ○ جمع‌بندی


🔸 مقدمه

‏بسیاری از اختراعات بشری از طبیعت الهام گرفته شده‌اند. «شبکه‌های عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتم‌های ژنتیک، با «شبیه‌سازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جواب‌های کاندید» (Candidate Solution Space) می‌پردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جواب‌های ابتدایی تولید می‌شود. سپس، در «نسل‌های» (Generations) متوالی، مجموعه‌ای از جواب‌های تغییر یافته تولید می‌شوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژن‌های کروموزوم‌های تشکیل دهنده جمعیت ایجاد می‌شود). جواب‌های اولیه معمولا به شکلی تغییر می‌کنند که در هر نسل، جمعیت جواب‌ها به سمت جواب بهینه «همگرا» (Converge) می‌شوند.

‏این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونه‌های موفق‌تر و برازنده‌تر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتم‌های ژنتیک، «بقای برازنده‌ترین‌ها» (Survival of the Fittest) است.

‏یک کروموزوم، رشته‌ای بلند و پیچیده از «اسید دی‌اکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگی‌ها یا خصیصه‌های یک «فرد» (Individual) را مشخص می‌کنند، در طول این کروموزوم‌ها نقش یافته‌اند. هر یک از خصیصه‌های موجود در افراد، به وسیله ترکیبی از DNA، در ژن‌های انسان کدبندی می‌شوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزوم‌ها از روی DNA وجود دارد:


🔸 انتخاب طبیعی

‏در طبیعت، موجوداتی که ویژگی‌های برازنده‌تری نسبت به دیگر گونه‌ها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه می‌دهند. چنین ویژگی‌ای، این امکان را در اختیار برازنده‌ترین موجودات زنده قرار می‌دهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگی‌های ارثی خود را از «ژن‌های» (Genes) موجودات برتر و تعداد کمی از ویژگی‌های خود را از ژن‌های موجودات «رده پایین» (Inferior) با ژن‌ها یا ویژگی‌های نامرغوب به ارث خواهند برد.

‏به بیان ساده‌تر، موجودات برازنده‌تر زنده می‌مانند و موجودات نامناسب از بین می‌روند. به این فرایند و نیروی شگفت‌انگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته می‌شود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونه‌های مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمی‌دهند، بلکه صرفا موجودات برازنده‌تر به بقاء خود ادامه می‌دهند.



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍5
✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی

‏«یادگیری ماشین» (Machine Learning | ML) از روش‌های «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامه‌ریزی صریح را می‌دهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشین‌های هوشمندی است که با استفاده از مجموعه‌ای از داده‌ها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامه‌های هوشمندی است که بتوانند به داده‌ها دسترسی پیدا کنند و از آن‌ها برای یادگیری استفاده کنند.

══ فهرست مطالب ══

‏ ○ روش‌های ماشین لرنینگ
‏ ○ معرفی فیلم آموزش یادگیری ماشین فرادرس
‏ ○ جمع‌بندی


🔸 روش‌های ماشین لرنینگ

‏ماشین لرنینگ روش‌های گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمه‌نظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار می‌گیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمه‌نظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روش‌های یادگیری ماشین پرداخته شده است.

‏روش‌های نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه داده‌های ورودی (داده‌های آموزش | Train Data | Train Set) می‌کند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجی‌های مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط می‌کند که داده‌های ورودی بر اساس آن به داده‌های خروجی مبدل می‌شوند.

‏ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه داده‌های جدید با یک ضریب خطای مشخص، پیش‌بینی کند. این الگوریتم می‌تواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.


🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس

‏طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانی‌پور است. این دوره آموزشی برای علاقه‌مندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزه‌های مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانش‌شناسی، برنامه‌نویس‌ها و دیگر علاقه‌مندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین می‌توان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روش‌های کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.

‏– None



مطالعه ادامه مطلب 👇👇

🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
2
✳️ محاسبات نرم چیست ؟ — به زبان ساده

‏در مطلب محاسبات نرم چیست ابتدا مفهوم محاسبات (رایانش)‌ شرح داده شده است و سپس، به تعریف مفهوم محاسبات سخت و معرفی محاسبات نرم به بیانی ساده پرداخته و در مورد خصوصیات بارز آن توضیحات بیش‌تری داده شده است. در پایان نیز برخی کاربردهای محاسبات نرم بیان شده است.

══ فهرست مطالب ══

‏ ○ رایانش چیست؟
‏ ○ محاسبات سخت چیست؟
‏ ○ محاسبات نرم چیست؟
‏ ○ کاربردهای محاسبات نرم چیست؟
‏ ○ منابع و فیلم آموزشی محاسبات نرم
‏ ○ جمع‌بندی


🔸 رایانش چیست؟

‏قبل از فهم معنای محاسبات نرم (رایانش نرم | Soft Computing)، لازم است ابتدا به مفهوم رایانش (محاسبات | ‌Computing) پرداخته شود. به بیانی ساده، ‌رایانش به معنی نگاشت مجموعه داده‌های دریافت شده در ورودی به خروجی، با استفاده از یک روش صوری (Formal Method) یا یک الگوریتم برای حل مسئله است. در مفهوم رایانش، به ورودی «مقدم» (پیشایند | Antecedent) و به خروجی «پیامد» (برآیند | Consequent) گفته می‌شود.

‏روش محاسباتی باید بدون ابهام (Unambiguous) و دقیق (Accurate) باشد و همچنین یک راه‌حل قطعی (Precise Solution) ارائه دهد. رایانش برای مسائلی که مدل‌سازی ریاضیاتی ساده‌ای دارند مناسب است.


🔸 محاسبات سخت چیست؟

‏اکنون قبل از پرداختن به محاسبات نرم، بهتر است به چیستی محاسبات سخت (رایانش سخت | Hard Computing) و همچنین، دلیل نیاز به توسعه و ایجاد محاسبات نرم پرداخته شود. پروفسور لطفی علی‌عسگرزاده، ریاضی‌دان، دانشمند کامپیوتر، مهندس برق و استاد علوم رایانه در دانشگاه کالیفرنیا، اولین فردی بود که مفهوم و ایده محاسبات سخت را حدوداً در اواسط دهه ۷۰ شمسی معرفی کرد. به گفته وی، یک مفهوم محاسباتی در صورتی در زمره محاسبات سخت قرار می‌گیرد که:

‏– نتایج دقیقی فراهم کند.

‏– الگوریتمی که برای حل مسئله استفاده می‌شود، صریح و بدون ابهام باشد.

‏– عملیات کنترلی به وسیله یک الگوریتم یا یک مدل ریاضیاتی مطابق تعریف بیان شده باشد.

‏مسائلی مانند مشتق‌گیری، انتگرال، الگوریتم‌های جستجو و مرتب‌سازی، یافتن کوتا‌ه‌ترین فاصله بین دو نقطه و بسیاری از مسائل دیگری که بتوان برای آن‌ها با استفاده از یک مدل ریاضی جواب دقیق و واضحی یافت، در زمره محاسبات سخت قرار می‌گیرند.



مطالعه ادامه مطلب 👇👇

🔗 محاسبات نرم چیست ؟ — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍3
✳️ مدل زبانی چیست؟ – Language Model در AI به زبان ساده

در سال ۲۰۲۰، هوش مصنوعی شگفت‌انگیزی به نام GPT-۳ (همان ChatGPT)، دنیای Silicon Valley را فتح کرد. این هوش مصنوعی توسط OpenAI در سانفرانسیسکو توسعه داده شد و در آن زمان جدیدترین و قوی‌ترین نوع آن بود. یک «مدل زبانی گسترده» (Large Language Model) که پس از دریافت میلیاردها کلمه از کتاب‌ها، مقالات و وب‌سایت‌ها، می‌توانست متن ساده و روانی را تولید کند. با این پیشرفت‌ها، مفهوم مدل‌سازی زبان وارد دوره جدیدی شد. در این مطلب به این پرسش پاسخ می‌دهیم که مدل زبانی چیست و می‌خواهیم به این مسئله بپردازیم که چه مدل‌های زبانی وجود دارند و چگونه می‌توان از این مدل‌ها در وظایف پردازش زبان طبیعی (NLP) استفاده کرد؟

══ فهرست مطالب ══

○ مدل زبانی چیست ؟
○ مدل‌های زبانی چه کاری انجام می‌دهند ؟
○ انواع مدل های زبانی
○ نحوه کار مدل‌های زبانی RNNها و Transformerها چگونه است؟
○ پرکاربرد ترین مدل‌های زبانی و کاربردهای واقعی آن ها
○ محدودیت های فعلی مدل های زبانی چیست و روند آینده آن چگونه است؟
○ جمع‌بندی
○ سوالات متداول در مورد مدل‌های زبانی چیست ؟


🔸 مدل زبانی چیست ؟

مدل زبانی نوعی مدل «یادگیری ماشین» (Machine Learning) است که برای ایجاد یک توزیع احتمال بر روی کلمات، «آموزش» (Train) داده می‌شود. به بیان ساده، این مدل سعی می‌کند با توجه به متن داده شده، کلمه مناسب بعدی را برای پر کردن یک فضای خالی در جمله یا عبارت، پیش‌بینی کند.

به عنوان مثال، جمله مقابل را در نظر می‌گیریم: «سارا برای گرفتن کلیدها به شرکت سر زد، بنابراین من آن‌ها را به [...] دادم». یک مدل خوب تصمیم می‌گیرد کلمه‌ای که در جای خالی به آن نیاز داریم به احتمال زیاد یک ضمیر است. از آنجا که اطلاعات مرتبط با جمله در اینجا با سارا است، ضمیر احتمالاً «او» یا «او را» خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 مدل زبانی چیست؟ – Language Model در AI به زبان ساده — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍2

✳️ مدل GPT ۴ چیست؟ – مزایا و تغییرات نسبت به GPT-۳

از متن گرفته تا تصاویر، قرار است GPT ۴ انقلابی در نحوه تعامل انسان با هوش مصنوعی پدید آورد. GPT۴ یا به بیان درست‌تر، GPT-۴ نسخه جدیدتر ChatGPT یا در واقع GPT-۳ و GPT-۳.۵ به حساب می‌آید. در این مطلب به این پرسش پاسخ داده می‌شود که GPT ۴ چیست و تمام آنچه شرح داده خواهد شد که لازم است راجع به این مدل جدید هوش مصنوعی آزمایشگاه تحقیقاتی OpenAI بدانید. در این نوشتار به کند و کاو پیرامون ویژگی‌ها و قابلیت‌های عملکردی GPT ۴ یا همان Chat GPT ۴ پرداخته شده است.

══ فهرست مطالب ══

○مدل GPT ۴ چیست ؟
○ قابلیت جدید پردازش تصویر در GPT ۴ چیست ؟
○ تفاوت GPT-۳ با GPT-۴ چیست ؟
○ مدل GPT ۴ سرویسی ابری و پلتفرمی چند وجهی
○ برتری GPT ۴ نسبت به نسخه های قبلی با بهبود نرخ رفتار نادرست و میان داری فعال سازی های API
○ مزایا و خطرات بالقوه GPT ۴ برای جامعه و اصول اخلاقی و اقدامات پیشنهادی تعدیل کننده
○ کاربردهای بالقوه GPT ۴ چیست ؟
○ چطور به GPT ۴ دسترسی پیدا کنیم ؟
○ مدل ChatGPT plugins یا افزونه‌های چت جی پی تی چه هستند؟
○ جمع‌بندی


🔸مدل GPT ۴ چیست ؟

در سال‌های اخیر، توسعه مدل‌های زبانی حوزه تخصصی کلیدی در حیطه هوش مصنوعی بوده است. مدل‌های GPT که کوته‌نوشتی برای عبارت «Generative Pre-trained Transformer» به معنی «مبدل آموزش دیده مولد» است و به وسیله گروه OpenAI توسعه داده شده‌اند، پیشتاز این عرصه به حساب می‌آیند. GPT ۴ آخرین نسخه از سری مدل‌های GPT محسوب می‌شود که بر پایه نقاط قوت نسخه‌های قبلی بنا نهاده شده است و ویژگی‌ها و قابلیت‌های جدیدی نیز در آن به کار گرفته شده‌اند.

مدلGPT ۴ یک مدل زبانی بزرگ مقیاس به حساب می‌آید که توسط گروه تحقیقاتی OpenAI توسعه داده شده است و می‌تواند متن‌هایی به زبان طبیعی را پیرامون موضوع‌های مختلف تولید کند. GPT ۴ نسخه ارائه شده بعد از نسخه GPT-۳.۵ محسوب می‌شود. GPT-۳.۵ در واقع همان نسخه‌ای است که در حال حاضر ChatGPT نسخه رایگان را تغذیه می‌کند.





مطالعه ادامه مطلب 👇👇

🔗 مدلGPT ۴ چیست؟ – مزایا و تغییرات نسبت به GPT-۳ — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍2

✳️ کاربردهای هوش مصنوعی – ۲۰ کاربرد منحصر به فرد و جالب

بسیاری از افراد با شنیدن عبارت «هوش مصنوعی» (Artificial Intelligence) اولین تصویری که در ذهنشان به وجود می‌آید، تصویری از ربات‌های آهنی فیلم‌های علمی تخیلی است. با این حال، کاربردهای هوش مصنوعی را صرفاً نمی‌توان به ساخت چنین ربات‌هایی محدود کرد. به عبارتی، هوش مصنوعی شامل طراحی و ساخت ابزارهای سخت‌افزاری و نرم‌افزاری هوشمندی می‌شود که در حوزه‌های مختلفی مثل پزشکی، اقتصاد، مدیریت و بسیاری از موارد دیگر کاربرد دارد. در مقاله حاضر به ۲۰ مورد از کاربردهای هوش مصنوعی در علوم و زندگی بشری اشاره شده است.

══ فهرست مطالب ══

○ توضیحی مختصر پیرامون هوش مصنوعی
○ سیستم هوشمند چیست ؟
○ کاربردهای هوش مصنوعی
○ کاربرد هوش مصنوعی در تجارت الکترونیک
○ هوش مصنوعی در آموزش
○ استفاده از ابزارهای هوش مصنوعی در امور منابع انسانی
○ معرفی فیلم های آموزش هوش مصنوعی
○ کاربرد سیستم‌های هوشمند در حوزه روانشناسی
○ کاربردهای هوش مصنوعی در جهت یابی
○ کاربردهای هوش مصنوعی در زندگی روزمره کدامند؟
○ هوش مصنوعی در بازی های کامپیوتری
○ کاربردهای هوش مصنوعی در حوزه پزشکی چیست ؟
○ استفاده از ابزارهای هوشمند در امور کشاورزی
○ نقش هوش مصنوعی در شبکه های اجتماعی
○ استفاده از هوش مصنوعی در داوری زیبایی چهره
○ کاربرد سیستم های هوش مصنوعی در آشپزی
○ استفاده از سیستم های هوش مصنوعی در بازاریابی
○ استفاده از هوش مصنوعی در ساخت خانه هوشمند
○ کاربردهای هوش مصنوعی در ویرایش تصاویر چیست ؟
○ استفاده از هوش مصنوعی در تولید عطر
○ ساخت مسواک هوشمند
○ استفاده از سیستم هوشمند در حوزه نویسندگی
○ خلق آثار هنری جدید با مدل های یادگیری ماشین و یادگیری عمیق
○ پردازش زبان طبیعی با هوش مصنوعی
○ جمع‌بندی


🔸 توضیحی مختصر پیرامون هوش مصنوعی
هوش مصنوعی یکی از شاخه‌های مطالعاتی علوم کامپیوتر محسوب می‌شود که هدف آن ساخت سیستم‌های مصنوعی هوشمندی است که بتوانند مجموعه‌ای از وظایف را با کیفیت بالا انجام دهند. در اوایل دوران ظهور هوش مصنوعی، هدف این بود ابزارهایی تولید شوند که قادر باشند محاسبات ریاضیاتی را انجام دهند. در دهه‌های اخیر، با گسترش پژوهش‌های مختلف پیرامون نحوه عملکرد ذهن انسان در پردازش و درک اطلاعات و تلاش برای ساخت سیستم‌هایی مشابه با مغز انسان، دیگر کاربرد هوش مصنوعی محدود به انجام محاسبات ساده نمی‌شود و می‌توان تاثیر شگرف آن را در تمامی جنبه‌های زندگی مشاهده کرد.


مطالعه ادامه مطلب 👇👇

🔗 کاربردهای هوش مصنوعی – ۲۰ کاربرد منحصر به فرد و جالب — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍1
✳️ اصطلاحات هوش مصنوعی رایج + توضیح به زبان ساده

اگرچه شاید خیلی لازم نباشد همگان برای هوش مصنوعی اهمیت قائل شوند، یادگیری برخی از مفاهیم، اصطلاحات و واژه‌های مقدماتی مرتبط با این حوزه از علوم کامپیوتر می‌تواند بسیار ارزشمند باشد، چراکه آینده هوش مصنوعی بسیار تعیین کننده است. این مطلب، واژه‌نامه‌ای از مفاهیم و اصطلاحات هوش مصنوعی رایج مناسب برای افراد تازه‌کار محسوب می‌شود. اکثر اصطلاحات رایج هوش مصنوعی ارائه شده در این مطلب در سطح مقدماتی و مبتدی هستند و ممکن است افراد در اخبار، محل کار یا هنگام معاشرت با سایر افراد با آن‌ها مواجه شوند. البته از معرفی و شرح اصطلاحات تخصصی و مهم هم قافل نشده‌ایم و در کل به معرفی و شرح بیش از ۳۰ اصطلاح هوش مصنوعی پرداخته‌ایم.

══ فهرست مطالب ══

○ چه قشری از افراد بیشتر با اصطلاحات هوش مصنوعی سر و کار دارند؟
○ اصطلاحات رایج هوش مصنوعی
○ معرفی فیلم های آموزش هوش مصنوعی
○ اصطلاحات هوش مصنوعی رایج و مهم
○ اصطلاحات هوش تجاری رایج BI
○ اصطلاحات رایج در رابطه با خانه هوشمند
○ جمع‌بندی


🔸 چه قشری از افراد بیشتر با اصطلاحات هوش مصنوعی سر و کار دارند؟

اصطلاحات هوش مصنوعی بیشتر در حوزه تخصصی «فناوری اطلاعات» (IT) استفاده می‌شود و بازه گسترده‌ای از فرصت‌های شغلی در هوش مصنوعی وجود دارد. افراد حرفه‌ای نظیر مهندسان نرم‌افزار، دانشمندان محقق، مهندسان یادگیری ماشین، مهندسان هوش مصنوعی، دانشمندان داده، تحلیل‌گران داده و سایر مشاغل این حوزه از اصطلاحات هوش مصنوعی استفاده می‌کنند.


🔸 اصطلاحات رایج هوش مصنوعی

برای آنکه بتوان قدر تاثیر هوش مصنوعی را در زندگی خود دانست، لازم است با ابتدایی‌ترین اصطلاحات رایج هوش مصنوعی آشنا شویم. در این بخش، به ۵ اصطلاح هوش مصنوعی که رایج‌ترین‌ها به حساب می‌آیند اشاره شده است. چه فردی در زمینه هوش مصنوعی فعال نباشد و چه در مسیر تبدیل شدن به دانشمندی مشتاق در زمینه تحقیقات هوش مصنوعی باشد، حتماً باید با اصطلاحات رایج هوش مصنوعی آشنایی لازم را داشته باشد.




مطالعه ادامه مطلب 👇👇

🔗 اصطلاحات هوش مصنوعی رایج + توضیح به زبان ساده — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
3

✳️ آینده هوش مصنوعی چیست و چه تاثیری بر زندگی انسان خواهد داشت؟

«هوش مصنوعی» (Artificial Intelligence | AI) یکی از شاخه‌های جذاب علوم کامپیوتر است که در سال‌های اخیر بسیاری از پژوهشگران علوم مختلف، از این حوزه در پیشبرد پژوهش‌های علمی خود استفاده کرده‌اند. دستاوردهای این پژوهش‌ها را می‌توان در قالب ابزارهای هوشمند در تمامی جنبه‌های زندگی انسان، از امور شخصی افراد گرفته تا امور پزشکی و تولیدات کارخانه‌ها، مشاهده کرد. با توجه به پیشرفت اخیر و کاربرد وسیع هوش مصنوعی یا همان AI، در مطلب حاضر به این موضوع می‌پردازیم که آینده هوش مصنوعی چیست و چنانچه این مسیر پیشرفت ادامه پیدا کند، هوش مصنوعی در آینده چه تاثیری بر زندگی انسان خواهد داشت.

══ فهرست مطالب ══

○ هوش مصنوعی و انواع آن
○ باورهایی راجع به هوش مصنوعی پیشرفته
○ آیا هوش مصنوعی خطرناک است و آینده تاریکی دارد ؟
○ آینده هوش مصنوعی و تاثیر آن بر حوزه های مختلف
○ جمع‌بندی


🔸 هوش مصنوعی و انواع آن

پیش از آن که به موضوع آینده هوش مصنوعی‌ یا همان AI بپردازیم، بهتر است مفهوم هوش مصنوعی را توضیح دهیم و نوع فعلی آن را در زندگی کنونی بشر بررسی کنیم.

هدف هوش مصنوعی، ساخت ماشین و ربات‌های کامپیوتری است که قادر باشند وظایف تعیین شده را مشابه انسان انجام دهند یا برای مسائل مطرح شده، راه‌حلی هوشمندانه ارائه کنند.


🔸 باورهایی راجع به هوش مصنوعی پیشرفته

با گسترش پژوهش‌های مرتبط با حوزه AI و افزایش میزان کاربرد سیستم‌های هوشمند در زندگی انسان، بسیاری از افراد درباره آینده هوش مصنوعی نظرات مختلفی دارند که نمی‌توان درباره آن‌ها با قاطعیت صحبت کرد. در ادامه، به برخی از رایج‌ترین باورهای افراد پیرامون آینده هوش مصنوعی می‌پردازیم.



مطالعه ادامه مطلب 👇👇

🔗 آینده هوش مصنوعی چیست و چه تاثیری بر زندگی انسان خواهد داشت؟ — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍1

✳️ انواع محیط های عامل در هوش مصنوعی + مثال و توضیح

در حیطه «هوش مصنوعی» (Artificial Intelligence)، برای تعریف سیستم‌های هوشمند می‌توان ۲ بخش کلی «عامل هوشمند» (Intelligent Agent) و «محیط» (Environment) را در نظر گرفت. عامل هوشمند به عنوان موجودیتی در محیط پیرامون خود اقداماتی را انجام می‌دهد و بازخوردهایی را دریافت می‌کند. محیط‌های پیرامون عامل هوشمند دارای ویژگی‌های مختلفی هستند و می‌توان معیارهایی را برای تفکیک آن‌ها از یکدیگر قائل شد. در مطلب حاضر، به انواع محیط های عامل در هوش مصنوعی می‌پردازیم و برای هر یک از آن‌ها مثالی ملموس از دنیای واقعی ارائه می‌کنیم.

══ فهرست مطالب ══

○ عامل هوشمند چیست ؟
○ محیط عامل در هوش مصنوعی چیست ؟
○ انواع محیط های عامل در هوش مصنوعی
○ جمع‌بندی


🔸 عامل هوشمند چیست ؟

در انواع هوش مصنوعی، مفهوم عامل هوشمند به هر موجودیتی اطلاق می‌شود که بتواند محیط اطراف را از طریق حسگرهای خود درک کند و با انجام اقداماتی، بر محیط اثرگذار باشد. بنابراین، می‌توان گفت عامل هوشمند سه گام درک کردن، فکر کردن و اقدام کردن را انجام می‌دهد.


🔸 محیط عامل در هوش مصنوعی چیست ؟

افرادی که علاقه‌مند به رشته هوش مصنوعی هستند و بر اساس نقشه راه هوش مصنوعی در این مسیر به عنوان تازه‌وارد قدم می‌گذارند، در اصطلاحات متداول هوش مصنوعی، با عبارت «محیط» مواجه می‌شوند.

دنیایی پیرامون عامل هوشمند وجود دارد که به آن محیط عامل گفته می‌شود. محیط پیرامون عامل، خود عامل را دربر نمی‌گیرد. به عبارتی، می‌توان گفت محیط، آن شرایط و موقعیتی است که عامل در آن حضور دارد. در بازی شطرنج، صفحه شطرنج به عنوان محیط و بازیکن‌های شطرنج به عنوان عامل‌های هوشمند محسوب می‌شوند.



مطالعه ادامه مطلب 👇👇

🔗 انواع محیط های عامل در هوش مصنوعی + مثال و توضیح — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍2

✳️ نکات و ترفندهای ChatGPT برای رسیدن به پاسخ های بهتر

به احتمال زیاد حالا بسیاری از افراد می‌دانند ChatGPT چیست و افراد بیشتری هم نحوه استفاده از ChatGPT را یاد گرفته‌اند، حساب کاربری ساخته‌اند، آن را امتحان کرده‌اند، با کاربردهای ChatGPT هم تا حد زیادی آشنا هستند و حتی افراد بسیاری به طور روزمره از چت جی پی تی در امور شخصی یا شغلی خود استفاده می‌کنند و راجع به GPT ۴ هم شنیده‌اند. اما اگر با نکات و ترفندهای نحوه استفاده از هوش مصنوعی ChatGPT آشنایی بیشتری داشته باشیم، بدانیم چگونه بهتر با ChatGPT کار کنیم و مهندسی هوشمندانه را در گفتگو با آن به کار بگیریم، می‌توان نتایجی به مراتب بهتر و موثرتر را بدست آورد. بنابراین در این مطلب به شرح برخی از نکات و ترفندهای ChatGPT برای رسیدن به پاسخ های بهتر پرداخته‌ایم.

══ فهرست مطالب ══

○ مقدمه
○ ترفند دریافت پاسخ از ChatGPT در قالب جدول چگونه است؟
○ دریافت متن هایی با سبک و شیوه نویسنده مورد علاقه مان
○ نکته و ترفند تعیین محدودیت برای پاسخ های دریافتی از ChatGPT
○ مشخص کردن نوع مخاطب هنگام گفتگو با ChatGPT چه مزیتی دارد؟
○ ترفند تولید پاسخ برای سایر موتورهای هوش مصنوعی با استفاده از ChatGPT
○ دریافت خروجی از ChatGPT در قالب اثر هنری با استفاده از کدهای ASCII
○ ترفند کپی و الصاق متن از سایر منابع متنی در چت جی پی تی
○ ترفند ارائه مثال ها و اطلاعات بیشتر پیش از طرح پرسش اصلی
○ ترفند واداشتن چت جی پی تی به نقش بازی کردن
○ دریافت پاسخ های بهتر با ارائه اجزای بیشتر در سوال
○ ترفند دریافت هر ۲ جنبه دیدگاه با استفاده از ChatGPT
○ جمع‌بندی نکات و ترفندهای ChatGPT


🔸 مقدمه

چت جی پی تی و ابزارهای مانند آن باعث شده‌اند هوش مصنوعی یا همان AI بیشتر و بهتر در دسترس عموم مردم قرار گیرد. اکنون می‌توان انواع پاسخ‌ها را راجع به تقریباً هر موضوع قابل تصوری از هوش مصنوعی دریافت کرد. بات‌های مبتنی بر هوش مصنوعی می‌توانند شعر و غزل بسرایند، کد نویسی و برنامه نویسی انجام دهند، فلسفه‌بافی کنند و بسیاری از خروجی‌های دیگری را هم ارائه دهند.



مطالعه ادامه مطلب 👇👇

🔗 نکات و ترفندهای ChatGPT برای رسیدن به پاسخ های بهتر — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍2

✳️ پیش نیازهای یادگیری هوش مصنوعی

امروزه، با گسترش پژوهش‌های حوزه «هوش مصنوعی» (Artificial Intelligence | AI) و افزایش سطح کاربرد این حوزه در جنبه‌های مختلف زندگی بشر، علاقه‌مندان زیادی جذب آن شده‌اند و افراد بسیاری قصد دارند در این حیطه جذاب قدم بگذارند. آگاهی از پیش‌نیازهای این رشته تخصصی و مهارت‌های لازم آن، به علاقه‌مندان این حیطه کمک می‌کند تا در مسیر درست برای تحقق اهداف خود گام بردارند. در مطلب حاضر، پس از معرفی مختصر گرایش تخصصی هوش مصنوعی و دلایل اهمیت آن، به پیش نیازهای یادگیری هوش مصنوعی می‌پردازیم تا خوانندگان علاقه‌مند به این حوزه با شناخت بیشتر، به جمع متخصصان هوش مصنوعی وارد شوند.

══ فهرست مطالب ══

○ نگاهی به حوزه هوش مصنوعی
○ پیش نیازهای یادگیری هوش مصنوعی چه هستند؟
○ جمع‌بندی


🔸 نگاهی به حوزه هوش مصنوعی

پیش از پرداختن به پیش نیازهای یادگیری هوش مصنوعی‌، بهتر است ابتدا به توضیح اجمالی این رشته بپردازیم تا افراد علاقه‌مند به این حیطه از علوم کامپیوتر، به شناختی کلی از آن به دست آورند.

رشته هوش مصنوعی به عنوان یکی از گرایش‌های حوزه کامپیوتر محسوب می‌شود که با استفاده از روش‌ها و مفاهیم تخصصی آن می‌توان ابزارها و سیستم‌های هوشمندی را طراحی کرد که وظایف مشخصی را همانند انسان هوشمند انجام می‌دهند.


🔸 پیش نیازهای یادگیری هوش مصنوعی چه هستند؟

افراد علاقه‌مند به هوش مصنوعی باید برای ورود به این حیطه از پیش نیازهای یادگیری هوش مصنوعی آگاه شوند تا بتوانند بدون هیچ مشکلی، مفاهیم تخصصی آن را در ادامه مسیر خود یاد بگیرند. در فهرست زیر، اصلی‌ترین پیش نیازهای یادگیری هوش مصنوعی فهرست شده‌اند:

– مفاهیم بنیادی رشته علوم کامپیوتر

– آمار و احتمالات مورد نیاز هوش مصنوعی

– مباحث ریاضی لازم برای یادگیری هوش مصنوعی

– برنامه نویسی کامپیوتر

– ساختمان داده

– طراحی الگوریتم‌

– مهارت حل مسئله




مطالعه ادامه مطلب 👇👇

🔗 پیش نیازهای یادگیری هوش مصنوعی — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍4

✳️ الگوریتم های یادگیری ماشین که باید بشناسید – ۱۰ الگوریتم شاخص ۲۰۲۳

«یادگیری ماشین» (Machine Learning) به عنوان یکی از شاخه‌های مهم حوزه «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود که در سال‌های اخیر توجه بسیاری از پژوهشگران اکثر رشته‌ها را به خود جلب کرده است. به عبارتی، کاربرد این حیطه از علوم کامپیوتر را می‌توان در دستاوردهای مختلف بشر مشاهده کرد. یادگیری ماشین شامل الگوریتم‌های مختلفی است که سیستم‌های کامپیوتری با کمک آن‌ها می‌توانند بدون نیاز به دخالت انسان و به‌طور خودکار به حل مسائل مختلف بپردازند. در مطلب حاضر، قصد داریم به معرفی پرکاربردترین الگوریتم های یادگیری ماشین بپردازیم و مهم‌ترین زبان‌های برنامه نویسی این حوزه را به علاقه‌مندان آن معرفی کنیم.

══ فهرست مطالب ══

○ مقدمه ای کوتاه بر یادگیری ماشین
○ الگوریتم یادگیری ماشین چیست ؟
○ انواع الگوریتم های یادگیری ماشین کدامند ؟
○ نحوه انتخاب الگوریتم های یادگیری ماشین برای حل مسئله
○ زبان های برنامه نویسی برای پیاده سازی الگوریتم های یادگیری ماشین
○ جمع‌بندی


🔸 مقدمه ای کوتاه بر یادگیری ماشین

یادگیری ماشین (ماشین لرنینگ) به عنوان یکی از زیر شاخه‌های حوزه هوش مصنوعی محسوب می‌شود. پژوهش‌های یادگیری ماشین روی نحوه آموزش ماشین و سیستم‌های کامپیوتری تمرکز دارند تا مسئله‌ای خاص را یاد بگیرند و سپس همانند انسان درباره آن مسئله به تصمیم‌گیری بپردازند.

به عبارتی، یادگیری ماشین شامل مجموعه‌ای از الگوریتم‌های مختلف یادگیری است که با شناسایی الگوهای موجود در داده‌ها، سعی در بالا بردن دقت عملکرد خود دارند تا بتوانند درباره داده‌های جدید درست تصمیم بگیرند.


🔸 الگوریتم یادگیری ماشین چیست ؟

الگوریتم های یادگیری ماشین به مجموعه‌ای از مفاهیم ریاضی اطلاق می‌شوند که می‌توانند ماشین را قادر بسازند مسئله‌ای خاص را با تحلیل و بررسی مجموعه‌ای از داده‌ها یاد بگیرند. هر الگوریتم، دارای دستورات، ساختار و مراحل منحصربفردی است که بر اساس آن‌ها به دسته‌بندی اطلاعات می‌پردازد و الگوهای موجود در داده‌ها را شناسایی می‌کند.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم های یادگیری ماشین که باید بشناسید – ۱۰ الگوریتم شاخص ۲۰۲۳ — کلیک کنید (+)

📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس
👍1