FaraAI | فرا هوش: هوش مصنوعی و علم داده – Telegram
FaraAI | فرا هوش: هوش مصنوعی و علم داده
2.56K subscribers
53 photos
14 videos
372 links
فرا هوش — کانال تخصصی هوش مصنوعی

🔸 پردازش تصویر
🔸 شبکه عصبی
🔸 الگوریتم ژنتیک
🔸سری‌های زمانی
🔸 الگوریتم‌های فرا ابتکاری
🔸 الگوریتم‌های بهنیه سازی
🔸 و صدها ساعت آموزش جذاب

🚀 برای مشاهده تمام آموزش‌های ویدیویی، روی لینک زیر بزنید:👇
fdrs.ir/tc/ai
Download Telegram
✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی

‏«یادگیری ماشین» (Machine Learning | ML) از روش‌های «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامه‌ریزی صریح را می‌دهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشین‌های هوشمندی است که با استفاده از مجموعه‌ای از داده‌ها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامه‌های هوشمندی است که بتوانند به داده‌ها دسترسی پیدا کنند و از آن‌ها برای یادگیری استفاده کنند.

══ فهرست مطالب ══

‏ ○ روش‌های ماشین لرنینگ
‏ ○ معرفی فیلم آموزش یادگیری ماشین فرادرس
‏ ○ جمع‌بندی


🔸 روش‌های ماشین لرنینگ

‏ماشین لرنینگ روش‌های گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمه‌نظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار می‌گیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمه‌نظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روش‌های یادگیری ماشین پرداخته شده است.

‏روش‌های نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه داده‌های ورودی (داده‌های آموزش | Train Data | Train Set) می‌کند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجی‌های مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط می‌کند که داده‌های ورودی بر اساس آن به داده‌های خروجی مبدل می‌شوند.

‏ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه داده‌های جدید با یک ضریب خطای مشخص، پیش‌بینی کند. این الگوریتم می‌تواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.


🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس

‏طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانی‌پور است. این دوره آموزشی برای علاقه‌مندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزه‌های مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانش‌شناسی، برنامه‌نویس‌ها و دیگر علاقه‌مندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین می‌توان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روش‌های کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.

‏– None



مطالعه ادامه مطلب 👇👇

🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی

‏در این مطلب، فهرستی از محبوب‌ترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.

══ فهرست مطالب ══

‏ ○ روش های بهینه سازی در یادگیری ماشین
‏ ○ گرادیان کاهشی
‏ ○ گرادیان کاهشی تصادفی
‏ ○ روش نرخ یادگیری تطبیقی
‏ ○ روش گرادیان مزدوج
‏ ○ بهینه‌سازی بدون مشتق
‏ ○ بهینه‌سازی مرتبه صفر
‏ ○ یادگیری متا
‏ ○ منابع آموزش روش های بهینه سازی در یادگیری ماشین


🔸 روش های بهینه سازی در یادگیری ماشین

‏«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکه‌های بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین می‌گوید:

‏تقلیل یافته‌ترین شکل «یادگیری ماشین» (Machine Learning) را می‌توان برازش منحنی دانست. از جهاتی می‌توان گفت که داشتن چنین رویکردی درست است. مدل‌های یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) داده‌ها در مدل بنا نهاده شده‌اند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) می‌شود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکه‌های عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب می‌شوند و از «روش‌های بهینه‌سازی» (Optimization) برای رسیدن به هدف استفاده می‌کنند.

‏روش‌های بهینه‌سازی پایه‌ای معمولا به سه دسته روش‌های «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روش‌های بهینه‌سازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم می‌شوند. به طور معمول، روش‌های بهینه‌سازی موجود، در دسته بهینه سازی مرتبه اول قرار می‌گیرند؛ از جمله این روش‌ها می‌توان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینه‌سازی، مطالب زیر پیشنهاد می‌شوند.


🔸 گرادیان کاهشی

‏«روش گرادیان کاهشی» (Gradient Descent Method) محبوب‌ترین روش بهینه‌سازی محسوب می‌شود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت می‌کند و به تدریج به مقدار بهینه تابع هدف همگرا می‌شود.



مطالعه ادامه مطلب 👇👇

🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟

‏آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاه‌های مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلم‌ها و داستان‌های علمی-تخیلی بسیار دیده‌ایم که ربات‌های دست‌یافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام می‌کنند. مسئله حمایت از حقوق سامانه‌های مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانه‌های مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کرده‌اند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه می‌کنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان می‌دهیم.

══ فهرست مطالب ══

‏ ○ آخرین دستاوردهای هوش مصنوعی
‏ ○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
‏ ○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
‏ ○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
‏ ○ استدلال‌هایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
‏ ○ نتیجه‌گیری


🔸 آخرین دستاوردهای هوش مصنوعی

‏امروزه بسیاری از دولت‌ها و شرکت‌های بزرگ بین‌المللی سرمایه‌گذاری عظیمی برای توسعه هوش مصنوعی و نرم‌افزارهای یادگیری ماشین کرده‌اند. هر کارآفرین دوراندیشی می‌داند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایه‌گذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاه‌های اقتصادی که از فناوری‌های هوش مصنوعی بهره می‌گیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشته‌اند.

‏بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همه‌گیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.

‏تحقیقات و پیشرفت‌های فناورانه در حوزه هوش مصنوعی می‌تواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفت‌های جدید باشیم. همین الآن قابلیت‌های هوش مصنوعی در بسیاری از حوزه‌ها تحولات جدی ایجاد کرده است؛ حوزه‌هایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمان‌های پزشکی شخصی‌شده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.


🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری

‏مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینه‌ها نیاز به مقررات جدید و روزآمد حس می‌شود. حقوق مالکیت فکری یکی از حوزه‌هایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانه‌های هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آن‌ها می‌توانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.

‏تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته می‌شدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کرده‌اند. آیا می‌توانیم برای ربات‌ها و نرم‌افزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر می‌گیریم. در نظام‌های حقوقی فعلی دنیا شخصیت حقوقی برای شرکت‌ها و سازمان‌ها و کشورها به رسمیت شناخته شده است. یعنی آن‌ها هم مثل انسان‌ها صاحب حقوق و تکالیفی هستند.



مطالعه ادامه مطلب 👇👇

🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from FaraDars_Course
‌‌
📣 به کدام زبان برنامه نویسی علاقه دارید؟

🌟 با پیوستن به کانال‌های «برنامه نویسی» فرادرس، یک بار و برای همیشه برنامه نویسی را یاد بگیرید.👇👇👇
‌‌‌

❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایش‌ها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده


🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]

📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.

Forwarded from FaraDars_Course

📣 معرفی «کانال‌های موضوعی فرادرس» در رشته‌های مختلف تحصیلی و تخصصی

🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇


📌کانال آموزش برنامه‌نویسی:
@FaraProg

📌کانال آموزش برنامه‌نویسی پایتون:
@FaraPython

📌کانال آموزش برنامه‌نویسی اندروید:
@FaraAnd

📌کانال آموزش برنامه‌نویسی جاوا:
@Fara_Java

📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev

📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim

📌کانال آموزش رباتیک:
@FaraRobotics

📌کانال آموزش هوش مصنوعی:
@FaraAI

📌کانال آموزش علم داده:
@Fara_DS

📌کانال آموزش علوم مهندسی:
@FaraEng

📌کانال آموزش مهندسی مکانیک:
@FaraMechanical

📌کانال آموزش مهندسی برق:
@FaraElectrical

📌کانال آموزش مهندسی عمران:
@FaraCivil

📌کانال آموزش معماری:
@FaraArch

📌کانال آموزش شیمی:
@FaraChem

📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng

📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign

📌کانال آموزش زبان‌های خارجی:
@FaraLang

📌کانال آموزش زیست‌شناسی:
@FaraBio

📌کانال آموزش فیزیک:
@FaraPhys

📌کانال آموزش ریاضیات:
@FaraMathematic

📌کانال آموزش آمار و احتمالات:
@FaraStatistics

📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice

📌کانال آموزش بورس و بازار سهام:
@FaraVest

📌کانال آموزش بازاریابی دیجیتال:
@Kaprila


@FaraDars — کانال اصلی فرادرس
✳️ معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل

‏«یادگیری ماشین» (Machine Learning) از جمله زمینه‌های پژوهشی روز است که کسب‌و‌کارهای زیادی در صدد بهره‌مندی از مزایای آن هستند. جذابیت موضوع از یک‌سو و فرصت‌های شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.

══ فهرست مطالب ══

‏ ○ یادگیری عمیق چیست؟
‏ ○ چرا باید از یادگیری عمیق استفاده کرد؟
‏ ○ ریاضیات پیش‌نیاز
‏ ○ دوره‌های هوش مصنوعی
‏ ○ پروژه‌های قابل انجام
‏ ○ مطالعات تکمیلی
‏ ○ نکته پایانی


🔸 یادگیری عمیق چیست؟

‏در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها» نیز پیشنهاد می‌شود.

‏به‌طور کلی، در هوش مصنوعی به مبحث ساخت برنامه‌های کامپیوتری حل مساله‌ای پرداخته می‌شود که برای حل یک مساله خاص به صراحت برنامه‌نویسی نشده‌اند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار می‌رود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جست‌و‌جوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.

‏در یادگیری ماشین، مدل‌های احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار می‌گیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکه‌های عصبی به عنوان مدل‌های آماری به منظور یادگیری استفاده می‌شود. شبکه‌های عصبی عمیق قدرتمند هستند زیرا می‌توانند هر تابعی را تخمین بزنند، و از این منظر با ساده‌ترین شکل «رگرسیون خطی» (linear regression) که تنها می‌تواند روابط خطی را تشریح کند قابل مقایسه هستند.


🔸 چرا باید از یادگیری عمیق استفاده کرد؟

‏یکی از انتقادهایی که از یادگیری عمیق می‌شود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام می‌دهد که انسان توانایی انجام آن را دارد. اما، مثال‌های جالب توجه بسیاری از هوش مصنوعی موجود است که نشان می‌دهد ماشین‌ها می‌توانند بیاموزند که در سطح ابرانسان بازی‌هایی مانند «گو» (Go) را انجام داده و یا بیماری‌ها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی می‌تواند بسیاری از کارها را در جوامع کنونی ارزان‌تر و موثرتر کند.



مطالعه ادامه مطلب 👇👇

🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی

‏درس هوش مصنوعی یکی از درس‌های تخصصی رشته‌های علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، می‌توان گفت این درس یکی از مهم‌ترین دروس رشته کامپیوتر به حساب می‌آید. به ویژه، برای دانشجویان و فارغ‌التحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیش‌نیازهای این درس فهرست شده‌اند. همچنین، چکیده‌ای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصل‌های درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شده‌اند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلم‌ها و دوره‌های آموزشی مرتبط با درس هوش مصنوعی معرفی شده‌اند.

══ فهرست مطالب ══

‏ ○ درس هوش مصنوعی چیست ؟
‏ ○ پیش نیاز درس هوش مصنوعی چیست ؟
‏ ○ منابع درس هوش مصنوعی چه هستند ؟
‏ ○ کتاب هوش مصنوعی راسل و نورویگ
‏ ○ هوش مصنوعی چیست ؟
‏ ○ چکیده درس هوش مصنوعی
‏ ○ معرفی فیلم آموزش درس هوش مصنوعی
‏ ○ فصل اول: معرفی هوش مصنوعی
‏ ○ فصل دوم: عامل‌های هوشمند
‏ ○ فصل سوم: حل مسائل با جستجو
‏ ○ فصل چهارم: فراتر از جستجوی سنتی
‏ ○ فصل پنجم: جستجوی خصمانه
‏ ○ فصل ششم: مسئله ارضای محدودیت
‏ ○ فصل هفتم: عامل‌های منطقی
‏ ○ معرفی فیلم های آموزش هوش مصنوعی
‏ ○ جمع‌بندی


🔸 درس هوش مصنوعی چیست ؟

‏درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستم‌های خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاه‌های ایران ارائه می‌شود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شده‌اند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک می‌کنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی می‌گذرانند.

‏درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار می‌رود. این درس برای دانشجویان و فارغ‌التحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب می‌شود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب می‌آید. در ادامه، به معرفی دروسی پرداخته شده است که پیش‌نیاز درس هوش مصنوعی به شمار می‌روند.


🔸 پیش نیاز درس هوش مصنوعی چیست ؟

‏پیش‌نیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتم‌ها است. در واقع، پیش‌نیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتم‌ها، ساختمان داده و پیچیدگی محاسباتی است.‌ پیش‌نیازهای درس ساختمان داده‌ها و الگوریتم‌ها درس‌های برنامه‌نویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامه‌نویسی پیش‌نیاز درس‌های برنامه‌نویسی پیشرفته و ریاضیات گسسته به حساب می‌آید.

‏کارگاه مبانی کامپیوتر هم‌نیاز درس مبانی برنامه‌نویسی و کارگاه برنامه‌نویسی پیشرفته نیز هم‌نیاز درس برنامه‌نویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز هم‌نیاز درس هوش مصنوعی محسوب می‌شود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیش‌نیاز درس ریاضی ۲ به شمار می‌رود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درس‌های زیر لازم است:

‏– ریاضی عمومی ۱
‏– ریاضی عمومی ۲
‏– ریاضیات گسسته
‏– مبانی برنامه‌نویسی
‏– کارگاه مبانی برنامه‌نویسی
‏– برنامه‌نویسی پیشرفته
‏– کارگاه برنامه‌نویسی پیشرفته
‏– ساختمان داده و الگوریتم‌ها


مطالعه ادامه مطلب 👇👇

🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

👍1
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده

‏یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته می‌شود، نوعی عملیات هک رمزنگاری‌شده (هک پنهانی | Cryptographic Hack) به حساب می‌آید. Brute Force حمله‌ای است که در آن ترکیب‌های ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان می‌شوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روش‌های فاقد بهره‌وری، با دقت برنامه‌ریزی شده و در مقیاس بزرگ انجام می‌شود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام می‌شود. در ادامه، توضیحات بیش‌تر و دقیق‌تری در این خصوص ارائه شده است.

══ فهرست مطالب ══

‏ ○ حمله Brute Force چیست ؟
‏ ○ حمله Brute Force با چه اهدافی انجام می‌شود؟
‏ ○ انواع حمله Brute Force
‏ ○ فیلم های آموزش شبکه های کامپیوتری
‏ ○ ابزارهای حمله Brute Force
‏ ○ دفاع در برابر Brute Force
‏ ○ معرفی فیلم های آموزش امنیت شبکه
‏ ○ جمع‌بندی


🔸 حمله Brute Force چیست ؟

‏حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالت‌های ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان می‌شود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها می‌سپارند تا آن‌ها ترکیب‌های مختلفی از نام‌های کاربری و گذرواژه‌ها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیده‌تر و دشوارتر خواهد بود.

‏هرچه یک پسورد طولانی‌تر باشد، طبیعتاً نیاز به امتحان کردن حالت‌های ممکن و ترکیب‌های بیش‌تری وجود خواهد داشت. یک حمله Brute Force می‌تواند بسیار زمان‌بر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهان‌سازی داده‌ها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکان‌پذیر است.

‏رمزگشایی گذرواژه‌های ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمان‌ها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانه‌های خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام می‌شود؟ در ادامه، به این سوال مهم پاسخ داده شده است.


🔸 حمله Brute Force با چه اهدافی انجام می‌شود؟

‏حملات Brute Force معمولاً‌ برای به‌دست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نام‌های کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته می‌شوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هک‌کننده یا پردازش‌هایی از این دست جهت اجرای رشته‌ای از اقدامات مکرر برای دست‌یابی به اطلاعات مورد نیاز استفاده می‌شود.

‏حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام می‌شود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روش‌های Brute Force راهی سریع برای انجام این کار به حساب می‌آیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان می‌توانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.



مطالعه ادامه مطلب 👇👇

🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش تصویر با پایتون — راهنمای کاربردی

‏در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزه‌های تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب می‌شود و در حوزه‌های دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از داده‌های تصویری، نقش بسیار مهمی ایفا می‌کند.

══ فهرست مطالب ══

‏ ○ پردازش تصویر با پایتون
‏ ○ پردازش تصاویر با پایتون با ابزار SciKit-Image
‏ ○ کتابخانه Numpy و پردازش تصویر با پایتون
‏ ○ کتابخانه SciPy
‏ ○ کتابخانه‌های PIL و Pillow
‏ ○ کتابخانه OpenCV-Python
‏ ○ کتابخانه SimpleCV
‏ ○ کتابخانه Mahotas
‏ ○ کتابخانه SimpleITK
‏ ○ کتابخانه pgmagick
‏ ○ ابزار Pycairo
‏ ○ جمع‌بندی‌


🔸 پردازش تصویر با پایتون

‏تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شده‌اند. این دسته از ابزارها، «کتابخانه‌ها» (Libraries) و «بسته‌های» (Packages) برنامه‌نویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این داده‌ها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامه‌نویسان قرار می‌دهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را می‌دهند تا به شکل بسیار ساده و «شهودی» (Intuitive) داده‌های تصویری را تحلیل و اطلاعات بامعنی از آن‌ها استخراج کنند.

‏جهان امروز و زندگی انسان‌ها، توسط داده‌ها احاطه شده‌اند و تصاویر بخش عمده‌ای از این داده‌ها را تشکیل می‌دهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آن‌ها یا استخراج اطلاعات مفید از تصاویر انجام می‌شود.

‏زبان پایتون می‌تواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداول‌ترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانه‌های این زبان برنامه‌نویسی قابل اجرا هستند، می‌توان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعه‌بندی تصویر» (Image Segmentation)، «دسته‌بندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.


🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image

‏ابزار SciKit-Image، یک بسته برنامه‌نویسی «منبع باز» (Open Source) است که با ساختار آرایه‌ای تعریف شده توسط کتابخانه NumPy کار می‌کند. این ابزار، یکی از مهم‌ترین کتابخانه‌های پردازش تصویر با پایتون محسوب می‌شود که به طور رایگان در دسترس کاربران و برنامه‌نویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعه‌ای از الگوریتم‌ها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.

‏کار کردن با توابع و الگوریتم‌های SciKit-Image (که جهت پردازش تصویر با پایتون استفاده می‌شوند)، حتی برای کسانی که برنامه‌نویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیاده‌سازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامه‌نویسی بسیار فعال و متشکل از برنامه‌نویسان داوطلب پشتیبانی و به‌روزرسانی می‌شوند.

‏این بسته را می‌توان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتم‌های پیاده‌سازی شده را می‌توان در «زیر واحدهای» (Submodules) این بسته برنامه‌نویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده


📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
‌‌‌
✳️ شبکه‌های عصبی مصنوعی – از صفر تا صد

‏مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازنده‌اش، بیشتر از پردازنده‌های ابررایانه‌های امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصال‌های فراوان موجود میان اجزای آن بازمی‌گردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستم‌های دیگر متمایز می کند.

══ فهرست مطالب ══

‏ ○ پرسپترون چند‌لایه یا MLP
‏ ○ شبکه های عصبی شعاعی یا RBF
‏ ○ ماشین‌های بردار پشتیبان یا SVM
‏ ○ نگاشت‌های خود‌سازمان‌ده یا SOM
‏ ○ یادگیرنده رقمی‌ساز بردار یا LVQ
‏ ○ شبکه عصبی هاپفیلد یا Hopfield
‏ ○ مراجع مطالعاتی و منابع آموزشی مهم
‏ ○ کتاب های خارجی
‏ ○
‏ ○ کتاب های فارسی
‏ ○ منابع آموزشی آنلاین


🔸 پرسپترون چند‌لایه یا MLP

‏یکی از پایه‌ای‌ترین مدل‌های عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیه‌سازی می‌کند. در این نوع شبکه عصبی، بیشتر رفتار شبکه‌ای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکه‌های پیش‌خورد (Feedforward Networks) نیز خوانده می‌شوند. هر یک از سلول‌های عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام می‌دهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال می‌دهند. این رفتار تا حصول نتیجه‌ای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.


🔸 شبکه های عصبی شعاعی یا RBF

‏مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آن‌ها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدل‌سازی می‌شود. از نظر ساختار کلی، شبکه‌های عصبی RBF تفاوت چندانی با شبکه‌های MLP ندارند و صرفا نوع پردازشی که نورون‌ها روی ورودهای‌شان انجام می‌دهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آماده‌سازی سریع‌تری هستند. در واقع، به دلیل تمرکز نورون‌ها بر محدوده عملکردی خاص، کار تنظیم آن‌ها، راحت‌تر خواهد بود.



مطالعه ادامه مطلب 👇👇

🔗 شبکه‌های عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ الگوریتم ژنتیک – از صفر تا صد

‏الگوریتم‌ ژنتیک (GA | Genetic Algorithms)، خانواده‌ای از «مدل‌های محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته‌ شده‌اند. این دسته از الگوریتم‌ها، «جواب‌های محتمل» (Potential Solutions) یا «جواب‌های کاندید» (Candidate Solutions) و یا «فرضیه‌های محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار داده‌ای «کروموزوم مانند» (Chromosome-like) کدبندی می‌کنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای داده‌ای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای داده‌ای را حفظ می‌کند.

══ فهرست مطالب ══

‏ ○ مقدمه
‏ ○ انتخاب طبیعی
‏ ○ تکامل شبیه‌سازی شده
‏ ○ فرهنگ لغات الگوریتم ژنتیک
‏ ○
‏ ○ الگوریتم ژنتیک متعارف
‏ ○ نمایش عملکرد الگوریتم ژنتیک در بهینه‌سازی توابع
‏ ○ تفاوت الگوریتم ژنتیک و الگوریتم‌های بهینه‌سازی و جستجوی سنتی
‏ ○ کاربردهای الگوریتم ژنتیک
‏ ○ کدهای پیاده‌سازی الگوریتم ژنتیک در زبان‌های برنامه‌نویسی مختلف
‏ ○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
‏ ○ جمع‌بندی


🔸 مقدمه

‏بسیاری از اختراعات بشری از طبیعت الهام گرفته شده‌اند. «شبکه‌های عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتم‌های ژنتیک، با «شبیه‌سازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جواب‌های کاندید» (Candidate Solution Space) می‌پردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جواب‌های ابتدایی تولید می‌شود. سپس، در «نسل‌های» (Generations) متوالی، مجموعه‌ای از جواب‌های تغییر یافته تولید می‌شوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژن‌های کروموزوم‌های تشکیل دهنده جمعیت ایجاد می‌شود). جواب‌های اولیه معمولا به شکلی تغییر می‌کنند که در هر نسل، جمعیت جواب‌ها به سمت جواب بهینه «همگرا» (Converge) می‌شوند.

‏این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونه‌های موفق‌تر و برازنده‌تر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتم‌های ژنتیک، «بقای برازنده‌ترین‌ها» (Survival of the Fittest) است.

‏یک کروموزوم، رشته‌ای بلند و پیچیده از «اسید دی‌اکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگی‌ها یا خصیصه‌های یک «فرد» (Individual) را مشخص می‌کنند، در طول این کروموزوم‌ها نقش یافته‌اند. هر یک از خصیصه‌های موجود در افراد، به وسیله ترکیبی از DNA، در ژن‌های انسان کدبندی می‌شوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزوم‌ها از روی DNA وجود دارد:


🔸 انتخاب طبیعی

‏در طبیعت، موجوداتی که ویژگی‌های برازنده‌تری نسبت به دیگر گونه‌ها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه می‌دهند. چنین ویژگی‌ای، این امکان را در اختیار برازنده‌ترین موجودات زنده قرار می‌دهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگی‌های ارثی خود را از «ژن‌های» (Genes) موجودات برتر و تعداد کمی از ویژگی‌های خود را از ژن‌های موجودات «رده پایین» (Inferior) با ژن‌ها یا ویژگی‌های نامرغوب به ارث خواهند برد.

‏به بیان ساده‌تر، موجودات برازنده‌تر زنده می‌مانند و موجودات نامناسب از بین می‌روند. به این فرایند و نیروی شگفت‌انگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته می‌شود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونه‌های مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمی‌دهند، بلکه صرفا موجودات برازنده‌تر به بقاء خود ادامه می‌دهند.



مطالعه ادامه مطلب 👇👇

🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ پردازش تصویر در متلب — راهنمای جامع

‏در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروف‌ترین «تولباکس‌های» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).

══ فهرست مطالب ══

‏ ○ پردازش تصویر
‏ ○ متلب
‏ ○ تصویر دیجیتالی چیست؟
‏ ○ دستورات ابتدایی پردازش تصویر در متلب
‏ ○ تکنیک‌های پیشرفته پردازش تصویر در متلب
‏ ○ انواع تصاویر
‏ ○ کیفیت تصویر
‏ ○ هیستوگرام تصویر
‏ ○ روش آستانه‌گذاری در تولباکس پردازش تصویر در متلب
‏ ○ دقیق کردن و نمایان‌سازی ویژگی‌های بارز موجود در تصاویر (Image Sharpening)
‏ ○ جمع‌بندی


🔸 پردازش تصویر

‏«پردازش تصویر» (Image Processing) به مجموعه‌ای از تکنیک‌هایی اطلاق می‌شود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفته‌اند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخه‌ای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آن‌ها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق می‌افتند، معمولا به طور خودکار و بر پایه مجموعه‌ای از الگوریتم‌های به دقت طراحی شده انجام می‌شوند. این دسته از الگوریتم‌های پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.

‏حوزه پردازش تصویری، یک حوزه «چند رشته‌ای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشته‌های علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، هم‌پوشانی بسیار زیادی با حوزه‌های تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.

‏برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسط‌هایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربین‌های دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) می‌شوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشرده‌سازی داده‌ها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید می‌شوند.


🔸 متلب

‏محیط محاسبات عددی و زبان برنامه‌نویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامه‌نویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.

‏در این محیط برنامه‌نویسی، توسعه‌دهندگان قادرند تا از روش‌های «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روش‌های نمایش داده و الگوریتم‌های توسعه داده شده در متلب، برای پیاده‌سازی روش‌های هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامه‌نویسی مستقیم را با برنامه‌های نوشته شده به زبان‌های دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعه‌دهندگان فراهم آورده است.

‏الگوریتم‌های پردازش تصویر در متلب، مجموعه‌ای از توابع هستند که قابلیت‌های محیط محاسبات عددی متلب را گسترش می‌دهند. تولباکس پردازش تصویر در متلب، مجموعه‌ای از «الگوریتم‌های مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتم‌های پردازش تصویر در متلب فراهم می‌آورد.



مطالعه ادامه مطلب 👇👇

🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ مقدمه‌ای بر الگوریتم ژنتیک

‏مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزوم‌ها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح می‌دهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب می‌توانند به اینجا مراجعه کنند.

══ فهرست مطالب ══

‏ ○ ۱. منبع الهام الگوریتم ژنتیک
‏ ○ ۲. ارتباط با زیست‌شناسی
‏ ○ ۳. الگوریتم ژنتیک چیست؟
‏ ○ ۴. گام‌های الگوریتم ژنتیک
‏ ○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
‏ ○ کاربرد الگوریتم ژنتیک در دنیای واقعی


🔸 ۱. منبع الهام الگوریتم ژنتیک

‏چارلز داروین (Charles Darwin) یک نقل‌قول معروف دارد: “نه قوی‌ترین فرد یک گونه زنده می‌ماند نه باهوش‌ترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده می‌ماند.” در واقع کل مفهوم الگوریتم ژنتیک بر‌اساس این نقل ‌قول است. برای فهم بهتر به مثال زیر توجه کنید:

‏فرض کنید شما رهبر یک شهر هستید و می‌خواهید شهرتان را از اتفاقات بد مصون نگه‌دارید. پس سیاست زیر را درپیش بگیرید:

‏– تمام انسان‌های خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.

‏– این کار را تا چند نسل تکرار کنید.

‏– حال کل جمعیت شهر انسانهای خوب هستند.

‏این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیست‌شناسی مربوط است. در‌ادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.


🔸 ۲. ارتباط با زیست‌شناسی

‏می‌دانیم، سلول‌ها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشته‌های DNA هستند.

‏عموماً، این کروموزوم‌ها به‌صورت رشته‌های صفر‌و‌یکی نمایش داده می‌شوند.

‏کروموزوم از ژن‌ (Gene) تشکیل شده‌است. هر ژن یک ویژگی خاص را رمزگذاری می‌کند. مثل رنگ مو و چشم.



مطالعه ادامه مطلب 👇👇

🔗 مقدمه‌ای بر الگوریتم ژنتیک — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس


🔴 رایگان آموزش ببینید و مهارت کسب کنید.

🌟 معرفی آموزش‌های رایگان و پرطرفدار فرادرس

♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط ده‌ها هزار دانشجو مورد مطالعه قرار می‌گیرند.
شما عزیزان نیز می‌توانید با مراجعه به لینک‌های زیر، آموزش‌های پرمخاطب در دسته‌بندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇


آموزش‌های رایگان هوش مصنوعی و یادگیری ماشین [+]


📚 تمامی آموزش‌های رایگان و پرمخاطب [+]


@FaraDars - فرادرس
✳️ اصطلاحات یادگیری عمیق — راهنمای کاربردی

‏در این مطلب، مهم‌ترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفته‌اند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر می‌کند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسان‌ها را تشکیل می‌دهند. (مارک کوبان) در این مورد می‌گوید:

══ فهرست مطالب ══

‏ ○ این مقاله برای چه کسانی مناسب است؟
‏ ○ برخی اصطلاحات یادگیری عمیق
‏ ○ ۱. مقدمات شبکه‌های عصبی
‏ ○ شبکه‌های عصبی کانولوشن
‏ ○ ۵) تقویت داده‌ها
‏ ○ شبکه‌های عصبی بازگشتی


🔸 این مقاله برای چه کسانی مناسب است؟

‏اگر علاقه‌مند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده می‌شوند، می‌پردازیم. درک یادگیری عمیق می‌تواند کمی سخت و طاقت‌فرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» می‌باشد که در هرکجا به واژه‌ای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.


🔸 برخی اصطلاحات یادگیری عمیق

‏برای اینکه درک اصطلاحات راحت‌تر باشد، آن‌ها را به ۳ گروه تقسیم کرده‌ایم. اگر فقط دنبال یک مفهوم خاصی می‌گردید، می‌توانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه می‌شود.

‏– مقدمات شبکه‌های عصبی

‏– شبکه‌های عصبی کانولوشن

‏– شبکه‌های عصبی بازگشتی



مطالعه ادامه مطلب 👇👇

🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع

‏اگر اخبار دنیای فناوری را در یک سال اخیر دنبال کرده باشید، به احتمال زیاد با اصطلاح «دیپ فیک» (DeepFake | جعل عمیق) آشنا شده‌اید. سیستم‌های دیپ فیک (جعل عمیق) ‌که سیستم‌های مبتنی بر «یادگیری عمیق» (Deep Learning) و «یادگیری ماشین» (Machine Learning) محسوب می‌شوند، در نگاه اول شاید فناوری سرگرم کننده‌ای به نظر برسند، با این حال، با بررسی دقیق کاربرد آن‌ها می‌توان دریافت از این دسته از فناوری‌ها برای جابجایی چهره افراد مختلف و «تحریف کردن» (Doctoring) فایل‌های ویدیوئی مورد استفاده قرار می‌گیرند.

══ فهرست مطالب ══

‏ ○ دیپ فیک (جعل عمیق | DeepFake)
‏ ○ شبکه‌های مولد تخاصمی
‏ ○ شبکه‌های مولد تخاصمی برای تولید ویدئوهای دیپ فیک‌
‏ ○ تاریخچه دیپ فیک (جعل عمیق)
‏ ○ محدودیت‌های سیستم‌های تولید دیپ فیک
‏ ○ کاربرد سیستم‌های تولید دیپ فیک در جهان واقعی
‏ ○ جمع‌بندی


🔸 دیپ فیک (جعل عمیق | DeepFake)

‏دیپ فیک (جعل عمیق)، یکی از فناوری‌های نوظهور مبتنی بر هوش مصنوعی است که جهت تولید یا تغییر محتویات فایل‌های ویدئویی مورد استفاده قرار می‌گیرد؛ به گونه‌ای که محتویات نمایش داده شده در فایل‌های ویدئویی، در اصل رخ نداده است یا وجود خارجی ندارد.

‏نام‌گذاری چنین فناوری‌هایی به عنوان دیپ فیک (جعل عمیق)، بر اساس نام کاربری یکی از اعضای سایت Reddit (یک محیط میکروبلاگ و یکی از شبکه‌های اجتماعی معروف) است. این شخص که با نام کاربری deepfakes در سایت Reddit شناخته می‌شود، در دسامبر سال ۲۰۱۷ میلادی، از فناوری یادگیری عمیق برای ویرایش چهره افراد مشهور (Celebrities) و قرار دادن چهره آن‌ها روی بازیگران فیلم‌های غیر اخلاقی (و تولید ویدئوهای جعلی) استفاده کرده است.

‏غالب سیستم‌های دیپ فیک مبتنی بر روش‌های یادگیری عمیق هستند. یک بخش بزرگ از ابزارهایی که از طریق آن‌ها ویدئوهای دیپ فیک تولید می‌شوند، مبتنی بر تکنیک‌های خاصی به نام شبکه‌های مولد تخاصمی هستند. شبکه‌های مولد تخاصمی که به اختصار به آن‌ها شبکه‌های GAN نیز گفته می‌شود، توسط محققی به نام Ian Goodfellow در سال ۲۰۱۴ ابداع شدند.


🔸 شبکه‌های مولد تخاصمی

‏شبکه‌های مولد تخاصمی (GAN)، کلاسی از الگوریتم‌‌های یادگیری ماشین محسوب می‌شوند که در سال ۲۰۱۴ توسط Ian Goodfellow و همکارانش ابداع شد. در شبکه‌‎های مولد تخاصمی، دو «شبکه عصبی مصنوعی» (Artificial Neural Network) رقیب در یک بازی (این بازی معمولا از قواعد «نظریه بازی» (Game Theory) و فرم «بازی مجموع-صفر» (Zero-Sum Game) تبعیت می‌کند) با یکدیگر به رقابت می‌پردازند.

‏با در اختیار داشتن یک «مجموعه آموزشی» (Training Set)، مدل شبکه‌های مولد تخاصمی یاد می‌گیرد تا داده‌های جدیدی تولید کند که آماره برابری با آماره داده‌های آموزشی داشته باشند. به عنوان نمونه، یک مدل GAN آموزش داده شده روی تصاویر دیجیتالی، قادر است تصاویر جدیدی تولید کند که به صورت سطحی، برای ناظران انسانی واقعی به نظر می‌رسند و بسیاری از ویژگی‌های مشخصه یک تصویر دیجیتالی واقعی را از خود نشان می‌دهند.

‏شبکه‌های مولد تخاصمی از دو بخش تشکیل شده‌اند: «شبکه‌های مولد» (Generative Network) و «شبکه‌های متمایزگر یا تمایزی» (Discriminator). شبکه‌های مولد وظیفه تولید داده‌های کاندید را بر عهده دارند، در حالی که شبکه‌های متمایزگر، وظیفه ارزیابی داده‌های کاندید تولید شده را بر عهده دارند.



مطالعه ادامه مطلب 👇👇

🔗 روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها — راهنمای جامع — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

Forwarded from مجله فرادرس

📙 دسته هوش مصنوعی: پربازدیدترین مطالب اخیر «هوش مصنوعی» مجله فرادرس


1️⃣ الگوریتم کلونی مورچگان — از صفر تا صد

‏───────────────

2️⃣ پردازش تصویر با پایتون — راهنمای کاربردی

‏───────────────

3️⃣ بهینه سازی چند هدفه چیست؟ — راهنمای جامع

‏───────────────

4️⃣ بهینه سازی (ریاضیاتی) چیست؟ — راهنمای جامع

‏───────────────

5️⃣ روش های تولید دیپ فیک (جعل عمیق) و ساختار آنها


#هوش_مصنوعی


📚 سایر مطالب مجله فرادرس
🔗 fdrs.ir/blog


@FaraDarsMag — مجله فرادرس
👍1
✳️ الگوریتم کلونی مورچگان — از صفر تا صد

‏الگوریتم کلونی مورچگان یا در حقیقت «بهینه‌سازی کلونی مورچگان» (Ant Colony Optimization) همانطور که از نام آن مشخص است، بر پایه رفتار طبیعی کلونی‌های مورچگان و مورچگان کارگر شاغل در آن‌ها بنا نهاده شده است. فرآیند یافتن منابع غذایی در کلونی مورچگان بسیار بهینه است. زمانی که مورچه‌ها عملیات کاوش برای یافتن منابع غذایی را آغاز می‌کنند، به طور طبیعی یک مسیر «منطقی» و «بهینه» از آشیانه خود به منابع غذایی پیدا می‌کنند. به عبارت دیگر، جمعیت مورچگان به نحوی همیشه قادر هستند تا یک مسیر بهینه را برای تامین منابع غذایی مورد نیاز بیابند. شبیه‌سازی چنین رفتار بهینه‌ای، پایه و اساس بهینه سازی کلونی مورچگان را تشکیل می‌دهد. در این مطلب، الگوریتم کلونی مورچگان به طور کامل تشریح شده است. باید توجه داشت که نام دقیق این الگوریتم، بهینه سازی کلونی مورچگان است که توسط اغلب افراد به آن الگوریتم مورچگان یا الگوریتم کلونی مورچگان گفته می‌شود.

══ فهرست مطالب ══

‏ ○ مقدمه‌ای بر الگوریتم کلونی مورچگان
‏ ○ گذار از ویژگی‌های زیستی به الگوریتم‌های کامپیوتری
‏ ○ روش فرا اکتشافی الگوریتم کلونی مورچگان
‏ ○ استفاده از الگوریتم کلونی مورچگان برای حل «مسأله فروشنده دوره‌گرد» (TSP)
‏ ○ پیاده‌سازی الگوریتم کلونی مورچگان برای حل مسأله فروشنده دوره‌گرد در متلب
‏ ○ کاربردهای الگوریتم کلونی مورچگان
‏ ○ دوره ویدیویی آموزش الگوریتم کلونی مورچگان و پیاده سازی آن در MATLAB
‏ ○ جمع‌بندی


🔸 مقدمه‌ای بر الگوریتم کلونی مورچگان

‏در این مطب سعی بر آن است تا ویژگی‌ها و مراحل پیاده‌سازی روش الگوریتم کلونی مورچگان شرح داده شود؛ روشی «فرا اکتشافی» (Metaheuristic) که از رفتار بهینه مورچه‌ها الهام گرفته شده است. الگوریتم مورچگان، روشی بسیار قدرتمند برای حل «مسائل بهینه‌سازی ترکیبیاتی» (Combinatorial Optimization Problems) محسوب می‌شود.

‏الگوریتم‌های مشتق شده از الگوریتم کلونی مورچگان، زیر مجموعه‌ای از روش‌های «هوش ازدحامی» (Swarm Intelligence) هستند. این دسته روش‌ها، حوزه تحقیقاتی و مطالعاتی به شمار می‌آیند که به مطالعه الگوریتم‌های الهام گرفته شده از مفهوم «رفتارهای ازدحامی» (Swarm Behaviors) می‌پردازند. الگوریتم‌های هوش ازدحامی از مجموعه‌ای از موجودیت‌های فردی ساده تشکیل شده‌اند که از طریق «خودسازماندهی» (Self-Organizing) با یکدیگر تعامل و همکاری می‌کنند. منظور از خودسازماندهی، نبود سیستم کنترل مرکزی برای کنترل و ایجاد هماهنگی میان اعضای یک سیستم هوش ازدحامی است.


🔸 گذار از ویژگی‌های زیستی به الگوریتم‌های کامپیوتری

‏پیش از آنکه الگوریتم کلونی مورچگان مورد بررسی قرار داده شود، لازم است برخی از مفاهیم مرتبط با فرآیندهای زیستی موجود در مورچه‌ها مطالعه شود؛ مفاهیمی که سبب درک بهتر خواننده از رفتارهای بهینه این موجود در هنگام تعامل با محیط می‌شوند. در ابتدا، برخی از مشاهدات به دست آمده از مطالعه رفتار مورچه‌ها در طبیعت مورد بررسی قرار داده می‌شود. در ادامه نشان داده خواهد شد که این مشاهدات چگونه الهام‌بخش تولید الگوریتم کلونی مورچگان شده‌اند.

‏حشره‌شناس فرانسوی، پیر پائول گراس (Pierre-Paul Grassé) اولین محققی بود که رفتار اجتماعی حشرات را مورد بررسی قرار داد. ایشان در بازه سال‌های اولیه دهه ۴۰ میلادی تا اواخر دهه ۵۰ میلادی، به مطالعه و تحقیق در مورد رفتار «موریانه‌ها» (Termites) پرداخت. در جریان این مطالعات، او به این موضوع پی برد که این گونه حشره‌ای می‌تواند به سیگنال‌های «محرک‌» (Stimuli) محیطی واکنش نشان دهد. چنین محرک‌هایی، به نوبه خود، نوعی واکنش برنامه‌نویسی شده ژنتیکی در این موجودات را فعال می‌کند.


مطالعه ادامه مطلب 👇👇

🔗 الگوریتم کلونی مورچگان — از صفر تا صد — کلیک کنید (+)


📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇

@FaraAI — مطالب و آموزش‌های هوش مصنوعی و علم داده فرادرس

✳️ علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها

‏«علم داده» (data science)، «تحلیل داده‌ها» (Data analytics)، «یادگیری ماشین» (machine learning) و «داده‌کاوی» (Data Mining) با نرخ نجومی در حال رشد و توسعه هستند. از این‌رو شرکت‌ها به‌دنبال کارشناسانی می‌گردند که با کیمیاگری داده‌ها به آن‌ها در اتخاذ تصمیم‌های چابک، اثرگذار و کارا در کسب‌و‌کار کمک کنند.

══ فهرست مطالب ══

‏ ○ علم داده چیست؟
‏ ○ چه مهارت‌هایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟
‏ ○ تحلیل‌گر داده کیست؟
‏ ○ چه مهارت‌هایی برای مبدل شدن به یک تحلیل‌گر داده مورد نیاز است؟
‏ ○ آیا بین علم داده و تحلیل داده هم‌پوشانی وجود دارد؟
‏ ○ یادگیری ماشین چیست؟
‏ ○ چه مهارت‌هایی برای تبدیل شدن به یک متخصص یادگیری ماشین مورد نیاز است؟
‏ ○ آیا بین یادگیری ماشین و علم داده هم‌پوشانی وجود دارد؟
‏ ○ داده‌کاوی چیست؟
‏ ○ چه مهارت‌هایی برای تبدیل شدن به یک داده‌کاو مورد نیاز است؟
‏ ○ آیا همپوشانی بین داده‌کاوی و علم داده وجود دارد؟


🔸 علم داده چیست؟

‏افراد زیادی برای بیش از یک دهه تلاش کرده‌اند تا علم داده را تعریف کنند. بهترین راه برای پاسخ به این پرسش استفاده از یک نمودار وِن است. این نمودار توسط «هوق کانوی» (Hugh Conway) در سال ۲۰۱۰ ترسیم شده و شامل سه دایره ریاضیات و آمار، دانش دامنه (دانشی درباره دامنه‌ای که محاسبات و خلاصه‌سازی در آن انجام می‌شود) و مهارت‌های هک می‌شود. اساسا اگر فرد بتواند همه این سه مجموعه فعالیت را انجام دهد، دانش خوبی در زمینه علم داده دارد.

‏علم داده مفهومی است که برای کار با داده‌های کلان (مِه‌داده) به کار می‌رود و شامل پاکسازی، آماده‌سازی و تحلیل داده می‌شود. یک دانشمند داده، داده‌ها را از چندین منبع گردآوردی کرده و تحلیل‌های پیش‌بین و یادگیری ماشین را بر آن‌ها اعمال می‌کند، و همچنین از تحلیل عواطف برای استخراج اطلاعات حیاتی از مجموعه داده‌های گردآوری شده بهره می‌برد. این دانشمندان، داده‌ها را از نقطه نظر کسب‌و‌کار درک می‌کنند و قادر به فراهم کردن پیش‌بینی‌ها و بینش‌های صحیحی هستند که برای قدرت بخشیدن به تصمیمات مهم کسب‌وکار قابل استفاده است.


🔸 چه مهارت‌هایی برای مبدل شدن به یک دانشمند داده مورد نیاز است؟

‏هر کسی که به ساخت موقعیت شغلی قدرتمند‌تر در این دامنه علاقمند است، باید مهارت‌های کلیدی در سه حوزه تحلیل، برنامه‌نویسی و دانش دامنه را کسب کند. با نگاهی عمیق‌تر، می‌توان گفت مهارت‌های بیان شده در زیر می‌تواند به افراد جهت تبدیل شدن به یک دانشمند داده کمک کند.

‏– دانش قوی از پایتون، R، اسکالا و SAS

‏– مهارت داشتن در نوشتن کدهای پایگاه داده SQL

‏– توانایی کار با داده‌های ساختار نیافته از منابع گوناگون مانند ویدئو و شبکه‌های اجتماعی

‏– درک توابع تحلیل چندگانه

‏– دانش یادگیری ماشین



مطالعه ادامه مطلب 👇👇

🔗 علم داده، تحلیل داده، داده‌کاوی و یادگیری ماشین ــ تفاوت‌ها و شباهت‌ها — کلیک کنید (+)


📌 کانال اختصاصی آموزشی علم داده

آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی علم داده را در کانال اختصاصی [@Fara_DS] دنبال کنید. 👇

@Fara_DS — مطالب و آموزش‌های علم داده فرادرس