✳️ مصور سازی داده | معرفی ابزارها و نرم افزارها
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در دوره یا زمانی از زندگی بشر، نوشتن و خواندن به عنوان یک قدرت محسوب میشد و عده کمی قادر به انجام این کار بودند. بعد از بوجود آمدن اعداد، کسانی که قادر به انجام محاسبات بودند دارای قدرت و منزلت اجتماعی شدند. مهندسین و محاسبها، قادر به ساختن بناهایی شدند که هرگز به ذهن انسان آن موقع نیز خطور نمیکرد که چنین سازههایی، قابل اجرا هستند. با حضور در قرن اطلاعات، شرکتها و کشورهایی که صاحب تکنولوژی ذخیره و انتقال اطلاعات محسوب میشدند، قدرتهای بلامنازع قرن رایانه و دادهها بودند. ولی امروزه کسانی که بتوانند ابزارها و روشهای کشف اطلاعات و استخراج دانش از دادهها را رهبری کنند، قدرتمند خواهند بود. یکی از روشهای تفسیر و تشکیل یا تشخیص الگو از روی دادهها، استفاده از تکنیکهای مصور سازی داده و ابزارهای آن است که در این متن به چند نمونه از بستهها و نرم افزارهای خاص این حوزه اشاره خواهیم کرد.
══ فهرست مطالب ══
○ مصور سازی داده و ابزارهای آن
○ معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
○ خلاصه و جمعبندی
🔸 مصور سازی داده و ابزارهای آن
به کارگیری و نمایش مجموعههای بزرگ داده همیشه ساده نیست. بعضی اوقات، مجموعه داده آنقدر بزرگ هستند که تشخیص الگوی مفیدی از آنها بدون ابزارهای رایانهای، کاملاً غیرممکن است. در اینجا لازم است که از نرمافزارهایی بهره ببریم که تجسم یا مصور سازی داده را امکانپذیر میسازند.
ایجاد تجسم برای دادهها اغلب کار سادهای نیست. البته خوشبختانه این کار، امری شدنی بوده ولی احتیاج به ابزار و همچنین ذوق و سلیقه دارد. در این نوشتار به بعضی از ابزارها و نرمافزارهای معروف که در مصور سازی داده به کار میروند، اشاره کرده و خصوصیات هر یک را با هم مقایسه خواهیم کرد. واضح است که بهرهگیری از این نرمافزارها، در هزینه و زمان صرفهجویی کرده و نتیجه را هم به شکلی قابل فهم و گویا، ارائه میکند.
ابزارهای تجسم یا مصور سازی داده روشی آسان برای ایجاد نمایشهای تصویری و بصری از مجموعه دادههای بزرگ را به طراحان ارائه میدهند. هنگام کار با مجموعهای که شامل صدها هزار یا میلیونها نقطه داده باشد، کار مشکلی است. با استفاده از این نرمافزارها، فرآیند ایجاد یک تصویر یا نمودار، تا حدی زیادی، خودکار شده و کار یک طراح را به طور قابل توجهی ساده میکند.
🔸 معرفی فیلم آموزش مصور سازی داده (Data Visualization) در نرم افزار R با بسته ggplot۲
در تحلیل داده، بسیار مهم است که ابتدا آنها را به درستی درک کرده و برای انتقال اطلاعات حاصل از آنها، روشهای مناسبی را انتخاب کنیم. توصیف دادهها و کشف قوانین آنها که به مصور سازی داده (Exploratory Data Visualization) معروف است، در این فرادرس مورد بررسی قرار گرفته است. به طوری که ضمن آشنایی اولیه با تصویر سازی مقدماتی با استفاده از زبان برنامه نویسی R (بسته نرم افزاری Base) که یکی از قدرتمندترین زبانها در راستای تحلیل داده ها است، امکان ترسیم و نمایش اطلاعات از بین دادهها به مخاطبان آموزش داده میشود. ابزارها به کار رفته در این آموزش بسته نرم افزاری ggplot۲ در زبان R است که محبوبیت زیادی نیز دارد.
این آموزش با هفت درس و ۷ ساعت و ۱۹ دقیقه محتوای آموزشی به فراگیران ارائه شده است. سرفصلهای آموزشی به قرار زیر هستند.
– درس یکم: آشنایی مقدماتی با مفهوم تصویرسازی در علم داده و رسم انواع نمودار در R (دستورات بسته یا پکیج Base)
– درس دوم: نکاتی در مورد نمودارهای پرکاربرد
– درس سوم: دستور زبان گرافیک، مقدمه ای بر پکیج ggplot۲
– درس چهارم: لایه زیبا شناختی (Aesthetic) در ggplot۲ و حل مشکل Overplotting
– درس پنجم: لایه هندسی (Geometrics) و لایه صورت بندی (Facet)
– درس ششم: لایه آماری، لایه مختصات، لایه تم و مقدمه ای بر پکیج های dplyr و tidyr
– درس هفتم: مقدمه ای بر پکیجهای GGally و Plotly
مطالعه ادامه مطلب 👇👇
🔗 مصور سازی داده | معرفی ابزارها و نرم افزارها — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❤1
✳️ انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
اغلب لازم است بین دو وضعیت یا موقعیت، دست به انتخاب بزنیم. این که کدام انتخاب، صحیح و به واقعیت نزدیکتر است، یک امر عقلانی است. ولی اگر با پدیدههای تصادفی سروکار داشته باشیم و لازم باشد احتمال قرارگیری هر شی را در گروه A یا در گروه B برآورد یا مورد آزمون قرار دهیم، احتیاج به یک بررسی آماری داریم. در این نوشتار از مجله فرادرس به بررسی انتخاب دو وضعیتی و تحلیل آماری آن خواهیم پرداخت. البته در این بین از کدهای نوشته شده به زبان R نیز استفاده کرده و در محیط RStudio برنامهها را ایجاد و پس از اجرا، نتایج را مشاهده خواهیم کرد.
══ فهرست مطالب ══
○ انتخاب دو وضعیتی و تحلیل آماری
○ معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
○ خلاصه و جمعبندی
🔸 انتخاب دو وضعیتی و تحلیل آماری
هدف این مقاله ارائه راهنمایی در مورد چگونگی انجام تجزیه و تحلیل نتایج نمونه آزمایشی A / B با استفاده از R و همچنین ارزیابی نتایج و نتیجهگیری بر اساس تجزیه و تحلیل آماری است. قبل از شروع، بهتر است که مشخص کنیم، منظور از آزمایش A / B چیست و به طور معمول برای چه مواردی استفاده میشود و البته در انتها نیز به برخی از محدودیتهای آن اشاره خواهیم کرد.
آزمون A / B که به عنوان «تست تفکیک» (Split Test) نیز شناخته میشود، یک روش کلی است که به کمک آن محصول یا ویژگی جدیدی را مورد آزمایش قرار میدهند. هدف این است که یک آزمایش قوی طراحی شود و نتایج قابل تکرار داشته باشد تا تصمیمی آگاهانه یا الگویی برای انتخاب یا رد فراهم شود.
فرض کنید با دو صفحه وب (Web Page) مواجه هستیم که باید مشخص کنیم کارایی نوع A بیشتر است یا B. برای مثال باید تشخیص دهیم که این صفحه وب که برای رزرو هتل طراحی شده، با عکس بیشتر جذابیت داشته و بازدید کننده را به خریدار بدل میکند یا خیر.
🔸 معرفی فیلم آموزش نرم افزار مدل سازی داده ها Eureqa Formulize
نرمافزار Eureqa، بدون احتیاج به کدنویسی، به کاربران اجازه مدلسازی آماری را میدهد. به همین دلیل یادگیری و اجرای مدلها به وسیله این نرم افزار هوش مصنوعی، بسیار ساده بوده و گروه زیادی از کاربران و دانشجویان را به خود جلب کرده است. این نرمافزار توسط شرکت Nutonian توسعه یافته و با بهره گیری از الگوریتم ژنتیک، روابط بین پارامترها را کشف و شکل یک مدل رگرسیونی با استفاده از نمادها، ارائه و در اختیار کاربر قرار میدهد.
این آموزش در زمانی کوتاه، مبانی اولیه مدلسازی و همچنین توانایی کار و انجام عملیات با نرمافزار Eureqa Formulize را به کاربر آموزش داده و با اجرای یک پروژه کامل از صفر تا صد آموزش، مراحل و گامهای مدلسازی را بازگو میکند. سرفصلهای اصلی این آموزش به صورت زیر فهرست شدهاند.
– درس اول: معرفی نرم افزار و آشنایی با مفاهیم پایه مدل سازی
– درس دوم: پیش پردازش داده ها، تعریف توابع، اجرای مدل و تجزیه و تحلیل نتایج
زمان اجرای این آموزش ۳۸ دقیقه است. در ضمن از نسخه Eureqa ۱٫۲۴٫۰ برای آموزش دستورات و محاسبات، استفاده شده است. این آموزش برای کسانی که در رشته مهندسی نرم افزار، علوم کامپیوتر و هوش مصنوعی در حال تحصیل هستند، مفید خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 انتخاب دو وضعیتی و تحلیل آماری | پیاده سازی در R — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
با انفجار اطلاعات و افزایش دادههایی که روزانه از منابع مختلف تولید میشود، با پدیده جدیدی به نام «کلان داده» (Big Data) یا «مِه داده» مواجه شدهایم. لازم است که ابزارهای مناسب برای ثبت و نگهداری و همچنین تحلیل چنین حجم عظیمی از دادهها را داشته باشیم. پیشرفت دستگاههای محاسباتی و بوجود آمدن «رایانش ابری» (Cloud Computing) دسترسی به این دادهها و پردازش آنها را در زمان کوتاه میسر ساخته است. بنابراین مسائلی مانند نمونهگیری که در آمار برای جلوگیری از بررسی همه جامعه آماری به وجود آمده، دیگر لزومی نداشته باشد. به همین جهت در این نوشتار از مجله فرادرس به بررسی روش آنالیز کلان داده و ساختار شبکه پرداختهایم. در این بین به تکنیک شبکهای کردن و ارتباط گرهها اشاره کرده و مثالهای عینی نتایج را مورد بررسی قرار دادهایم.
══ فهرست مطالب ══
○ آنالیز کلان داده و ساختار شبکه اجتماعی
○ آنالیز کلان داده و تحلیل شبکههای اجتماعی
○ معرفی فیلم آموزش مقدماتی Hadoop (هدوپ) برای تجزیه و تحلیل کلان داده
○ خلاصه و جمعبندی
🔸 آنالیز کلان داده و ساختار شبکه اجتماعی
داده های بزرگ یا «مِه داده» (Big data) زمینهای است که روشهای تجزیه و تحلیل، استخراج سیستماتیک اطلاعات و محاسبه روی حجم عظیمی از دادهها را میسر میکند. در اغلب موارد نمیتوان با نرم افزارهای کاربردی پردازش داده سنتی کلان داده (Big Data) را پردازش کرد. این گونه دادهها اگر به ساختار جدولی ثبت شوند، دارای ستونها (فیلدها) و سطرها (رکوردها) زیادی خواهند بود.
چالشهای آنالیز کلان داده شامل «دریافت دادهها» (capturing data)، «ذخیره داده ها» (data storage)، «تجزیه و تحلیل دادهها» (data analysis)، «جستجو» (search)، «به اشتراک گذاری» (sharing)، «انتقال» (transfer)، «مصورسازی» (Visualization)، «پرس و جو» (querying)، «به روزرسانی» (updating)، «حریم خصوصی اطلاعات و منبع داده» (information privacy) است.
کلان داده، در ابتدا به سه مفهوم در مورد اطلاعات متمرکز بود. حجم، تنوع و سرعت. به این معنی که روشهای تحلیل مه داده باید حجم زیاد اطلاعات که دارای تنوع بسیار هستند در زمان مناسب و سرعت زیاد، پردازش کند.
🔸 آنالیز کلان داده و تحلیل شبکههای اجتماعی
شبکه (Network) راهی برای نشان دادن اطلاعات است و با استفاده از روشهای ریاضی قابل درک و تجزیه و تحلیل است. شبکهها، گروهی از «گرهها» (Nodes) هستند که توسط «پیوند» (Link) یا «یال» (Edge) به هم متصل شدهاند و میتوانند نشانگر هدایت جهتدار از یک گره به گره دیگر یا بدون جهت (دو طرفه) در نظر گرفته شوند. از این جهت، یک شبکه به مانند یک «گراف» (Graph) قابل بررسی است. «صفحات وب» (Web Page) نمونههایی از شبکههای جهتدار هستند که صفحه وب نشان دهنده یک گره و «ابرپیوند» (Hyperlink) به عنوان یک یال است.
اغلب از شبکهها برای یافتن دقیق اجتماعات نیز استفاده میکنند. این گرهها راسهایی هستند که بصورت گروهی متصل هستند اما ارتباط کمی با گروههای دیگر دارند، این امر به مانند افرادی است که در شبکههای اجتماعی با علایق مشابه حضور داشته یا دانشمندانی را مشخص میکند که در یک زمینه علمی همکاری دارند. موضوع مورد توجه در این بین «متغیرهای» مربوط به این داده است که باید مورد مطالعه قرار گیرند، این کار ممکن است به بهبود دقت در شناسایی جوامع و «خوشهها» (Clusters) کمک کند. با گسترش «شبکههای اجتماعی» (Social Network)، موضوع کلان داده در بین کارشناسان داده» (Data Scientist) بیش از هر زمان دیگری اهمیت یافته است. در ادامه متن به مقالهای اشاره خواهیم کرد که در حوزه آنالیز کلان داده پرداخته و به کمک ساختار شبکه، اطلاعاتی را از مه داده استخراج میکند.
شناخت جوامع درون شبکه، ساختار آنها را روشن میکند و در عمل مزایای زیادی دارد. به عنوان مثال، مشخص است که افرادی که عضوی گروههای شبکه اجتماعی خاصی هستند، علایق مشابه دارند، بنابراین توصیهها یا پیشنهادات یکسانی را میتوان برایشان در نظر گرفت. با این کار با اعمال سیاست صحیح در مورد هر یک از آنها، درست به هدف زده و انتظارمان از آن سیاست برآورده میشود.
مطالعه ادامه مطلب 👇👇
🔗 آنالیز کلان داده و ساختار شبکه اجتماعی — آشنایی با اصطلاحات و مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک تحلیل آماری باید توسط یک محقق آمار اجرا شود، از طرفی محاسبات زیادی که برای این کار لازم است، به کارگیری نرمافزارهای محاسبات رایانهای مانند SPSS را ناگزیر میکند. در هر طرح تحقیق آماری، گامها و مراحلی باید طی شود که آنها را در این متن به همراه دستورات مورد نیاز برای انجام تحلیل آماری با SPSS بازگو خواهیم کرد. با رعایت گامهای گفته شده، روال استانداردی را طی کرد که ما را به هدف که همان اجرای یک پروژه آماری و تحقیقاتی است، هدایت میکند. این گامها از تعیین هدف، جمعآوری دادهها آغاز شده و تا آزمون فرض و تفسیر و ارائه گزارشات ادامه دارد. البته شاید بتوان چنین روالی را در فراتحلیل نیز به کار برد. ولی به هر حال یک پروژه تحقیقاتی که با دادهها و روشهای آماری سر و کار دارد، احتیاج به مشاوره یا تائید یک آمارشناس خواهد داشت.
══ فهرست مطالب ══
○ انجام تحلیل آماری با SPSS
○ معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
○ خلاصه و جمعبندی
🔸 انجام تحلیل آماری با SPSS
اگر به منظور انجام تحقیق علمی با دادهها روبرو هستید، باید روشهای آماری مناسب را به کار ببرید. نوع دادهها، هدف تحقیق، محدودیتها و امکانات سختافزاری و نرمافزاری و حتی نحوه نمونهبرداری و اندازه یا حجم نمونهگیری همگی در تشخیص و به کارگیری آنالیزهای آماری دخیل بوده و در انتخاب نوع تحلیل آماری تعیین کننده هستند. انجام تحلیل آماری با SPSS به علت سادگی این نرمافزار طرفداران زیادی دارد. این امر باعث شده که اغلب برای محاسبات آماری، بدون مشاوره با یک کارشناس آمار، مطالعات آماری در رشتههای علوم انسانی و مهندسی، صورت گیرد. به همین جهت این راهنما را برای چنین افرادی تهیه کردهایم که نتایج بدست آمده از چنین طرحهایی، حداقل به اشتباه برداشت نشود.
قبل از هر کاری، باید هدف از یک طرح تحقیق علمی را مشخص کرده باشید. نوع مقادیر متغیرها آماری باید در یک تحلیل آماری، مشخص باشد. همچنین هدف از اجرای یک تحقیق آماری باید تعیین شود. ممکن است هدفهای زیر را برای تحقیقات آماری تصور کرد.
– توصیف خصوصیات یک جامعه آماری
– برآورد بهترین آماره برای پارامتر جامعه
– انتخاب و اجرای آزمون آماری برای پارامتر یا توزیع جامعه آماری
– مقایسه بین دو جامعه آماری
– شناسایی و تعیین رابطه بین جوامع آماری
– مدلسازی بین متغیرهای مستقل و و ابسته یا کشف رابطه علت و معلولی
به یاد داشته باشید که نوع داده و مقیاس اندازهگیری آنها در انتخاب روش تحلیل داده بسیار موثر است. بنابراین شناخت جامعه آماری و ویژگیها و همچنین ابعاد آن، باید در ابتدا اجرای طرح تحقیق، انجام شده باشد. همچنین با توجه به نوع متغیرها و هدف، میتوانیم نوع روش تحقیق را یکی از گونههای کمی، کیفی یا ترکیبی انتخاب کنیم.
🔸 معرفی فیلم آموزش نرم افزار آماری SPSS فرادرس
استفاده نرم افزارهای محاسبات رایانهای بخصوص برای تحقیقات آماری، امروزه تبدیل به یک ضرورت شده است. رشتههای مختلفی از محاسبات و انجام آزمونهای آماره بهره میبرند. از طرفی بار محاسباتی بعضی از تکنیکهای آماری بسیار زیاد است. بنابراین رویکرد مبتنی بر رایانه برای حل مسائل واقعی و تحقیقاتی کاملا به جا است. یکی از نرمافزار معرف بخصوص در حوزه علوم اجتماعی و همینطور مدیریت برای حل مسائل آماری، نرمافزار SPSS است که از طرف شرکت IBM پشتیبانی میگردد. در این آموزش به بررسی محاسبات آماری و انجام تحلیل آماری با SPSS پرداخته شده است و رسم نمودارها و تهیه خروجیهای آن نیز شرح داده شده. با استفاده از این آموزش میتوانید انجام تحلیل آماری با SPSS را خودتان به عهده بگیرید.
مطالعه ادامه مطلب 👇👇
🔗 انجام تحلیل آماری با SPSS — گام به گام به همراه مثال عملی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning | ML) از روشهای «هوش مصنوعی» (Artificial Intelligence | AI) است که به سیستم توانایی یادگیری خودکار و بدون برنامهریزی صریح را میدهد. به عبارت دیگر، هدف در ماشین لرنینگ ساخت ماشینهای هوشمندی است که با استفاده از مجموعهای از دادهها و تجربیات، به یادگیری بپردازند. هدف اصلی ماشین لرنینگ طراحی و توسعه برنامههای هوشمندی است که بتوانند به دادهها دسترسی پیدا کنند و از آنها برای یادگیری استفاده کنند.
══ فهرست مطالب ══
○ روشهای ماشین لرنینگ
○ معرفی فیلم آموزش یادگیری ماشین فرادرس
○ جمعبندی
🔸 روشهای ماشین لرنینگ
ماشین لرنینگ روشهای گوناگونی دارد که در چهار دسته اصلی «یادگیری نظارت شده» (Supervised Learning | یادگیری با ناظر)، «یادگیری نظارت نشده» (Unsupervised Learning | یادگیری بدون ناظر | یادگیری غیر نظارت شده)، «یادگیری نیمهنظارت شده» (Semi-Supervised Learning) و «یادگیری تقویتی» (Reinforcement Learning) قرار میگیرند. شایان ذکر است که پیرامون وجود دسته یادگیری نیمهنظارت شده، بین پژوهشگران اختلاف نظر وجود دارد. در ادامه به تعریف انواع روشهای یادگیری ماشین پرداخته شده است.
روشهای نظارت شده: در روش یادگیری نظارت شده، ورودی و خروجی الگوریتم از ابتدا مشخص است. در واقع، الگوریتم یادگیری ماشین نظارت شده، شروع به تجزیه و تحلیل روی مجموعه دادههای ورودی (دادههای آموزش | Train Data | Train Set) میکند. در نهایت، الگوریتم یادگیری نظارت شده پس از آموزش دیدن روی مجموعه داده دارای خروجیهای مشخص، یک الگو و یا به بیان بهتر، مدلی را استنباط میکند که دادههای ورودی بر اساس آن به دادههای خروجی مبدل میشوند.
ماشین آموزش دیده قادر خواهد بود با استفاده از مدل استنباط شده، خروجی را برای نمونه دادههای جدید با یک ضریب خطای مشخص، پیشبینی کند. این الگوریتم میتواند خروجی خود را با خروجی صحیح و از قبل تعیین شده مقایسه کند و خطاهای موجود را بیابد تا بر اساس آن مدل را اصلاح کند.
🔸 معرفی فیلم آموزش یادگیری ماشین فرادرس
طول مدت این دوره آموزشی بیست ساعت و پنجاه و نه دقیقه و مدرس آن، دکتر امیرحسین کیهانیپور است. این دوره آموزشی برای علاقهمندان و فعالان حوزه فناوری اطلاعات و ارتباطات، دانشجویان و فعالان حوزههای مهندسی کامپیوتر، علوم کامپیوتر، هوش مصنوعی، «علم داده» (Data Science)، علم اطلاعات و دانششناسی، برنامهنویسها و دیگر علاقهمندان به هوش مصنوعی و علم داده مناسب است. از جمله مباحث مورد بررسی در فیلم آموزش یادگیری ماشین میتوان به کلیات و مفاهیم پایه در یادگیری ماشین، بررسی روشهای کلاسیک یادگیری ماشین، یادگیری تقویتی و دیگر موارد اشاره کرد.
– None
مطالعه ادامه مطلب 👇👇
🔗 ماشین لرنینگ (Machine Learning) چیست ؟ — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، فهرستی از محبوبترین و پرکاربردترین روش های بهینه سازی در یادگیری ماشین به همراه منابع آموزش روش های بهینه سازی ارائه شده است.
══ فهرست مطالب ══
○ روش های بهینه سازی در یادگیری ماشین
○ گرادیان کاهشی
○ گرادیان کاهشی تصادفی
○ روش نرخ یادگیری تطبیقی
○ روش گرادیان مزدوج
○ بهینهسازی بدون مشتق
○ بهینهسازی مرتبه صفر
○ یادگیری متا
○ منابع آموزش روش های بهینه سازی در یادگیری ماشین
🔸 روش های بهینه سازی در یادگیری ماشین
«پودیا پریل» (Judea Pearl)، از جمله دانشمندان علوم کامپیوتری است که نسبت به «هوش مصنوعی» (Artificial Intelligence) و «شبکههای بیزی» (Bayesian Network) دیدگاه و رویکرد آماری دارد. او درباره «یادگیری عمیق» (Deep Learning) چنین میگوید:
تقلیل یافتهترین شکل «یادگیری ماشین» (Machine Learning) را میتوان برازش منحنی دانست. از جهاتی میتوان گفت که داشتن چنین رویکردی درست است. مدلهای یادگیری ماشین معمولا بر اساس اصول «همگرایی» (Convergence) و در واقع، «برازش» (Fitting) دادهها در مدل بنا نهاده شدهاند. اگرچه، این رویکرد منجر به «هوش عمومی مصنوعی» (Artificial General Intelligence | AGI) میشود که همچنان موضوعی مورد بحث است. این در حالی است که در حال حاضر، «شبکههای عصبی عمیق» (Deep Neural Networks) از بهترین راهکارها برای مسائل یادگیری ماشین محسوب میشوند و از «روشهای بهینهسازی» (Optimization) برای رسیدن به هدف استفاده میکنند.
روشهای بهینهسازی پایهای معمولا به سه دسته روشهای «مرتبه اول» (First Order)، «مرتبه بالا» (High Order) و «روشهای بهینهسازی فاقد مشتق» (Derivative-Free Optimisation Methods) تقسیم میشوند. به طور معمول، روشهای بهینهسازی موجود، در دسته بهینه سازی مرتبه اول قرار میگیرند؛ از جمله این روشها میتوان به «گرادیان کاهشی» (Gradient Descent) و انواع آن اشاره کرد. برای مطالعه بیشتر پیرامون بهینهسازی، مطالب زیر پیشنهاد میشوند.
🔸 گرادیان کاهشی
«روش گرادیان کاهشی» (Gradient Descent Method) محبوبترین روش بهینهسازی محسوب میشود. ایده نهفته در پس این روش، به روز رسانی «تکرار شونده» (Iteratively) در جهت مثبت «تابع هدف» (Objective Function) است. با هر به روز رسانی، این روش مدل را به سمت پیدا کردن هدف هدایت میکند و به تدریج به مقدار بهینه تابع هدف همگرا میشود.
مطالعه ادامه مطلب 👇👇
🔗 روش های بهینه سازی در یادگیری ماشین — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
آیا وقت آن رسیده است که برخی از حقوق انسانی را برای دستگاههای مجهز به هوش مصنوعی به رسمیت بشناسیم؟ در فیلمها و داستانهای علمی-تخیلی بسیار دیدهایم که رباتهای دستیافته به سطوح عالی توانایی ذهنی، علیه سازندگانشان قیام میکنند. مسئله حمایت از حقوق سامانههای مبتنی بر هوش مصنوعی اکنون وارد دنیای واقعی ما هم شده است. امروزه سامانههای مبتنی بر هوش مصنوعی توانایی خلق آثار مبتکرانه ادبی و هنری و اختراع محصولات کاربردی را پیدا کردهاند. این مسئله باعث شده تا تعیین وضعیت مالکیت فکری این تولیدات به یک سؤال حقوقی مهم تبدیل شود. در این مقاله به تحولات هوش مصنوعی در حقوق مالکیت فکری نگاه میکنیم و محدوده حمایت از این آثار را در ساختارهای حقوقی فعلی ایران و کشورهای دیگر دنیا نشان میدهیم.
══ فهرست مطالب ══
○ آخرین دستاوردهای هوش مصنوعی
○ ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
○ حمایت از پدیدآورندگان هوش مصنوعی در نظام حقوقی ایران
○ مالکیت فکری آثار تولیدی توسط هوش مصنوعی
○ استدلالهایی در حمایت و مخالفت از حقوق مالکیت فکری هوش مصنوعی
○ نتیجهگیری
🔸 آخرین دستاوردهای هوش مصنوعی
امروزه بسیاری از دولتها و شرکتهای بزرگ بینالمللی سرمایهگذاری عظیمی برای توسعه هوش مصنوعی و نرمافزارهای یادگیری ماشین کردهاند. هر کارآفرین دوراندیشی میداند که برای حفظ جایگاه خود در بازار رقابتی نیازمند بکارگیری آخرین دستاوردهای هوش مصنوعی است. میزان سرمایهگذاری در هوش مصنوعی در سال ۲۰۱۹ حدود ۳۵/۸ میلیارد دلار برآورده شده و پیش بینی شده است که این رقم در سال ۲۰۲۲ به ۷۹/۲ میلیارد دلار برسد. همچنین تعداد بنگاههای اقتصادی که از فناوریهای هوش مصنوعی بهره میگیرند از سال ۲۰۱۵ تا ۲۰۱۹ حدود ۲۷۰ درصد رشد داشتهاند.
بحران کرونا هم انگیزه بیشتری برای توجه به حوزه هوش مصنوعی فراهم کرده است چراکه همهگیری این ویروس ضرورت ارائه خدمات آنلاین را به همه ما یادآوری کرد.
تحقیقات و پیشرفتهای فناورانه در حوزه هوش مصنوعی میتواند آینده کاملاً متفاوتی را برای بشر رقم بزند. البته نیاز نیست منتظر اختراعات و پیشرفتهای جدید باشیم. همین الآن قابلیتهای هوش مصنوعی در بسیاری از حوزهها تحولات جدی ایجاد کرده است؛ حوزههایی چون تعیین هویت از روی صدا و تصویر، خودروها و ابزارهای خودگردان، درمانهای پزشکی شخصیشده، خدمات حقوقی و قضایی، مدیریت سرمایه، صنایع دفاعی، خدمات مشتری و تولیدات فرهنگی و سرگرمی.
🔸 ورود هوش مصنوعی به عرصه حقوق مالکیت فکری
مباحث حقوقی جدیدی در اثر حضور فراگیر و هرروزه هوش مصنوعی در زندگی امروزی ما مطرح شده است و در بسیاری از زمینهها نیاز به مقررات جدید و روزآمد حس میشود. حقوق مالکیت فکری یکی از حوزههایی است که با پیشرفت هوش مصنوعی دستخوش تحولات جدی شده است. سامانههای هوش مصنوعی امروزی قادر به تولید آثار ادبی و هنری، از نقاشی و قطعات موسیقی تا نگارش داستان و مقاله، هستند. آنها میتوانند با ابداع فرایندهای نوآورانه تحولاتی جدی در زمینه تولید و ارائه کالاها و خدمات ایجاد کنند.
تحولات فنّاورانه موجب شده تا برخی مفاهیم بنیادین مالکیت فکری به چالش کشیده شوند. زمانی که قوانین مرجع مالکیت فکری نوشته میشدند فقط هوش طبیعی و قوای شناخت انسانی، پتانسیل خلق آثار ابتکاری را داشتند. با ورود هوش مصنوعی تعدادی از مفاهیم پایه حقوق مالکیت فکری مثل «ابتکار»، «پدیدآورنده»، «مخترع»، «هنرمند» و «طراح» نیاز به تعریف مجدد پیدا کردهاند. آیا میتوانیم برای رباتها و نرمافزارهای مجهز به هوش مصنوعی هم حقوق مالکیت فکری قائل شویم؟ این اولین بار نیست که برای یک موجودیت غیرانسانی شخصیت حقوقی در نظر میگیریم. در نظامهای حقوقی فعلی دنیا شخصیت حقوقی برای شرکتها و سازمانها و کشورها به رسمیت شناخته شده است. یعنی آنها هم مثل انسانها صاحب حقوق و تکالیفی هستند.
مطالعه ادامه مطلب 👇👇
🔗 چرا هوش مصنوعی به حقوق مالکیت فکری نیاز دارد؟ — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ ویدئو «معرفی رشته علوم کامپیوتر - گرایشها، درآمد و بازار کار» در ۱۳ دقیقه | به زبان ساده
🔗 آشنایی با ۷۶ رشته مهم دانشگاهی - [کلیک کنید]
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
Forwarded from FaraDars_Course
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
📣 معرفی «کانالهای موضوعی فرادرس» در رشتههای مختلف تحصیلی و تخصصی
🌟 برای دسترسی به مطالب و مقالات آموزشی رایگان، عضو کانال مورد نظر خود شوید👇👇👇
📌کانال آموزش برنامهنویسی:
@FaraProg
📌کانال آموزش برنامهنویسی پایتون:
@FaraPython
📌کانال آموزش برنامهنویسی اندروید:
@FaraAnd
📌کانال آموزش برنامهنویسی جاوا:
@Fara_Java
📌کانال آموزش طراحی و توسعه وب:
@FaraWebDev
📌کانال آموزش متلب و سیمولینک:
@FaraMatlabSim
📌کانال آموزش رباتیک:
@FaraRobotics
📌کانال آموزش هوش مصنوعی:
@FaraAI
📌کانال آموزش علم داده:
@Fara_DS
📌کانال آموزش علوم مهندسی:
@FaraEng
📌کانال آموزش مهندسی مکانیک:
@FaraMechanical
📌کانال آموزش مهندسی برق:
@FaraElectrical
📌کانال آموزش مهندسی عمران:
@FaraCivil
📌کانال آموزش معماری:
@FaraArch
📌کانال آموزش شیمی:
@FaraChem
📌کانال آموزش مهندسی و علوم کامپیوتر:
@FaraCompEng
📌کانال آموزش طراحی گرافیک:
@FaraGraphDesign
📌کانال آموزش زبانهای خارجی:
@FaraLang
📌کانال آموزش زیستشناسی:
@FaraBio
📌کانال آموزش فیزیک:
@FaraPhys
📌کانال آموزش ریاضیات:
@FaraMathematic
📌کانال آموزش آمار و احتمالات:
@FaraStatistics
📌کانال آموزش نرم افزارهای آفیس:
@FaraOffice
📌کانال آموزش بورس و بازار سهام:
@FaraVest
📌کانال آموزش بازاریابی دیجیتال:
@Kaprila
@FaraDars — کانال اصلی فرادرس
✳️ معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
«یادگیری ماشین» (Machine Learning) از جمله زمینههای پژوهشی روز است که کسبوکارهای زیادی در صدد بهرهمندی از مزایای آن هستند. جذابیت موضوع از یکسو و فرصتهای شغلی قابل توجه از سوی دیگر موجب شده تا افراد زیادی علاقمند به فراگیری این مبحث و به ویژه «یادگیری عمیق» (Deep Learning) باشند.
══ فهرست مطالب ══
○ یادگیری عمیق چیست؟
○ چرا باید از یادگیری عمیق استفاده کرد؟
○ ریاضیات پیشنیاز
○ دورههای هوش مصنوعی
○ پروژههای قابل انجام
○ مطالعات تکمیلی
○ نکته پایانی
🔸 یادگیری عمیق چیست؟
در ابتدای امر بهتر است یک تصویر کلی از چیستی مساله ایجاد شود زیرا یک سردرگمی عمومی پیرامون یادگیری عمیق، یادگیری ماشین و «هوش مصنوعی» (Artificial Intelligence | AI) برای بسیاری از افراد وجود دارد. در همین راستا مطالعه مطلب «علم داده، تحلیل داده، دادهکاوی و یادگیری ماشین ــ تفاوتها و شباهتها» نیز پیشنهاد میشود.
بهطور کلی، در هوش مصنوعی به مبحث ساخت برنامههای کامپیوتری حل مسالهای پرداخته میشود که برای حل یک مساله خاص به صراحت برنامهنویسی نشدهاند. به بیان ساده، در خط به خط کدها انجام کاری که از برنامه انتظار میرود، به آن دیکته نشده است. یک مثال خوب از هوش مصنوعی (و نه یادگیری ماشین)، «دیپ بلو» (Deep Blue) است. این کامپیوتر توانست در سال ۱۹۹۷، قهرمان شطرنج جهان «گری کاسپاروف» (Garry Kimovich Kasparov) را با جستوجوی عمیق جهت یافتن یک راهکار تقریبا بهینه، شکست دهد.
در یادگیری ماشین، مدلهای احتمالاتی برای یافتن این راهکارهای تقریبی مورد استفاده قرار میگیرند و یک زمینه خاص از یادگیری ماشین یادگیری عمیق است که در آن از شبکههای عصبی به عنوان مدلهای آماری به منظور یادگیری استفاده میشود. شبکههای عصبی عمیق قدرتمند هستند زیرا میتوانند هر تابعی را تخمین بزنند، و از این منظر با سادهترین شکل «رگرسیون خطی» (linear regression) که تنها میتواند روابط خطی را تشریح کند قابل مقایسه هستند.
🔸 چرا باید از یادگیری عمیق استفاده کرد؟
یکی از انتقادهایی که از یادگیری عمیق میشود آن است که این زمینه نقطه قوت خاصی ندارد و کاری را انجام میدهد که انسان توانایی انجام آن را دارد. اما، مثالهای جالب توجه بسیاری از هوش مصنوعی موجود است که نشان میدهد ماشینها میتوانند بیاموزند که در سطح ابرانسان بازیهایی مانند «گو» (Go) را انجام داده و یا بیماریها را بهتر از پزشکان آموزش دیده تشخیص دهند. در عین حال، خودکارسازی میتواند بسیاری از کارها را در جوامع کنونی ارزانتر و موثرتر کند.
مطالعه ادامه مطلب 👇👇
🔗 معرفی منابع جهت آموزش یادگیری عمیق (Deep Learning) — راهنمای کامل — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
درس هوش مصنوعی یکی از درسهای تخصصی رشتههای علوم کامپیوتر، مهندسی کامپیوتر و مهندسی فناوری اطلاعات است. با توجه به گسترش چشمگیر هوش مصنوعی در جهان، میتوان گفت این درس یکی از مهمترین دروس رشته کامپیوتر به حساب میآید. به ویژه، برای دانشجویان و فارغالتحصیلانی که قصد ادامه تحصیل در گرایش هوش مصنوعی را دارند، این درس بسیار اهمیت دارد. در این نوشتار، منابع فارسی و انگلیسی درس هوش مصنوعی معرفی و پیشنیازهای این درس فهرست شدهاند. همچنین، چکیدهای از این درس ارائه و به این سوال پاسخ داده شده است که ایده اصلی درس هوش مصنوعی چیست؟ سپس، هر یک از سرفصلهای درس هوش مصنوعی به طور خلاصه و فشرده شرح داده شدهاند. این مقاله بر اساس کتاب هوش مصنوعی راسل و نورویگ تدوین شده است. در پایان نیز، فیلمها و دورههای آموزشی مرتبط با درس هوش مصنوعی معرفی شدهاند.
══ فهرست مطالب ══
○ درس هوش مصنوعی چیست ؟
○ پیش نیاز درس هوش مصنوعی چیست ؟
○ منابع درس هوش مصنوعی چه هستند ؟
○ کتاب هوش مصنوعی راسل و نورویگ
○ هوش مصنوعی چیست ؟
○ چکیده درس هوش مصنوعی
○ معرفی فیلم آموزش درس هوش مصنوعی
○ فصل اول: معرفی هوش مصنوعی
○ فصل دوم: عاملهای هوشمند
○ فصل سوم: حل مسائل با جستجو
○ فصل چهارم: فراتر از جستجوی سنتی
○ فصل پنجم: جستجوی خصمانه
○ فصل ششم: مسئله ارضای محدودیت
○ فصل هفتم: عاملهای منطقی
○ معرفی فیلم های آموزش هوش مصنوعی
○ جمعبندی
🔸 درس هوش مصنوعی چیست ؟
درس هوش مصنوعی یکی از دروس تخصصی رشته کامپیوتر در مقطع کارشناسی است. این درس با عناوینی همچون «هوش مصنوعی و سیستمهای خبره» و «مبانی و کاربردهای هوش مصنوعی» در دانشگاههای ایران ارائه میشود. مفاهیم مقدماتی و مباحث پایه هوش مصنوعی در این درس پوشش داده شدهاند. آشنایی با مفاهیم پایه علوم کامپیوتر از جمله طراحی الگوریتم، ساختمان داده و نظریه محاسبات پیش از مطالعه درس هوش مصنوعی لازم است. همچنین، آشنایی با برخی مباحث ریاضی از قبیل حساب دیفرانسیل و جبر خطی نیز به فهم و درک بهتر برخی از مباحث مطرح شده در درس هوش مصنوعی کمک میکنند. دانشجویان کامپیوتر معمولاً درس هوش مصنوعی را در سال دوم (نیمسال چهارم) یا سوم (نیمسال پنجم یا ششم) مقطع کارشناسی میگذرانند.
درس هوش مصنوعی یکی از منابع تخصصی کنکور کارشناسی ارشد کامپیوتر گرایش هوش مصنوعی به شمار میرود. این درس برای دانشجویان و فارغالتحصیلان مقطع کارشناسی که قصد ادامه تحصیل و شرکت در کنکور کارشناسی ارشد گرایش هوش مصنوعی را دارند، بسیار مهم است. امتیاز درس هوش مصنوعی برای کنکور ارشد کامپیوتر- گرایش هوش مصنوعی برابر با ۱۶۶ است. درس هوش مصنوعی پیشرفته نیز یکی از دروس رشته هوش مصنوعی در مقطع کارشناسی ارشد محسوب میشود. درس هوش مصنوعی پیشرفته ادامه درس هوش مصنوعی مقطع کارشناسی به حساب میآید. در ادامه، به معرفی دروسی پرداخته شده است که پیشنیاز درس هوش مصنوعی به شمار میروند.
🔸 پیش نیاز درس هوش مصنوعی چیست ؟
پیشنیاز درس هوش مصنوعی، درس ساختمان داده و الگوریتمها است. در واقع، پیشنیاز درس هوش مصنوعی ، آشنایی با مفاهیم ابتدایی علوم کامپیوتر یعنی الگوریتمها، ساختمان داده و پیچیدگی محاسباتی است. پیشنیازهای درس ساختمان دادهها و الگوریتمها درسهای برنامهنویسی پیشرفته و ریاضیات گسسته است. درس مبانی برنامهنویسی پیشنیاز درسهای برنامهنویسی پیشرفته و ریاضیات گسسته به حساب میآید.
کارگاه مبانی کامپیوتر همنیاز درس مبانی برنامهنویسی و کارگاه برنامهنویسی پیشرفته نیز همنیاز درس برنامهنویسی پیشرفته است. همچنین، درس جبرخطی کاربردی نیز همنیاز درس هوش مصنوعی محسوب میشود. برای انتخاب درس جبرخطی کاربردی، قبولی در درس ریاضی عمومی ۲ لازم است. درس ریاضی عمومی ۱ هم پیشنیاز درس ریاضی ۲ به شمار میرود. بنابراین، برای اینکه بتوان درس هوش مصنوعی را انتخاب کرد، قبولی در درسهای زیر لازم است:
– ریاضی عمومی ۱
– ریاضی عمومی ۲
– ریاضیات گسسته
– مبانی برنامهنویسی
– کارگاه مبانی برنامهنویسی
– برنامهنویسی پیشرفته
– کارگاه برنامهنویسی پیشرفته
– ساختمان داده و الگوریتمها
مطالعه ادامه مطلب 👇👇
🔗 درس هوش مصنوعی | مفاهیم پایه به زبان ساده — منابع، کتاب و فیلم آموزشی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
👍1
✳️ Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
یک حمله Brute Force که با نام حمله جستجوی فراگیر (جستجوی جامع | Exhaustive Search) نیز شناخته میشود، نوعی عملیات هک رمزنگاریشده (هک پنهانی | Cryptographic Hack) به حساب میآید. Brute Force حملهای است که در آن ترکیبهای ممکن یک گذرواژه تا زمان پیدا شدن ترکیب درست امتحان میشوند. در این نوشته، نکات و مسائل مهم پیرامون Brute Force پوشش داده شده است.
واژه Brute Force در لغت به معنای متوسل شدن یا نائل شدن به استفاده از جبر، تلاش یا قدرتی که معمولاً با روشهای فاقد بهرهوری، با دقت برنامهریزی شده و در مقیاس بزرگ انجام میشود. حملات Brute Force اغلب برای دستیابی به اطلاعات شخصی توسط هکرها انجام میشود. در ادامه، توضیحات بیشتر و دقیقتری در این خصوص ارائه شده است.
══ فهرست مطالب ══
○ حمله Brute Force چیست ؟
○ حمله Brute Force با چه اهدافی انجام میشود؟
○ انواع حمله Brute Force
○ فیلم های آموزش شبکه های کامپیوتری
○ ابزارهای حمله Brute Force
○ دفاع در برابر Brute Force
○ معرفی فیلم های آموزش امنیت شبکه
○ جمعبندی
🔸 حمله Brute Force چیست ؟
حمله بروت فورس (Brute Force Cracking | Brute Force Attack) یک حمله سایبری است که در آن همه حالتهای ممکن برای یک رمز تا زمان یافتن رمز صحیح، امتحان میشود. نرخ بالایی از رخدادهای نفوذ اطلاعاتی در دهه نود شمسی به وسیله Brute Force انجام شده است. حملات Brute Force ساده و قابل اطمینان هستند. مهاجمان معمولاً کار را به کامپیوترها میسپارند تا آنها ترکیبهای مختلفی از نامهای کاربری و گذرواژهها را تا زمان رسیدن به ترکیب درست امتحان کنند. بهترین روش مقابله، شناسایی و خنثی کردن یک حمله Brute Force، در زمان وقوع آن است، چرا که وقتی مهاجمین به شبکه دسترسی پیدا کنند، عملیات دفاع بسیار پیچیدهتر و دشوارتر خواهد بود.
هرچه یک پسورد طولانیتر باشد، طبیعتاً نیاز به امتحان کردن حالتهای ممکن و ترکیبهای بیشتری وجود خواهد داشت. یک حمله Brute Force میتواند بسیار زمانبر باشد. همچنین، اجرای عملیات Brute Force در صورتی که پنهانسازی دادهها (Data Obfuscation | Data masking | داده پوشانی) انجام شده باشد، بسیار دشوار و در برخی مواقع غیرممکن خواهد بود. اما، در صورت ضعیف بودن پسورد، عملیات Brute Force به راحتی و تنها در چند ثانیه امکانپذیر است.
رمزگشایی گذرواژههای ضعیف برای مهاجمان دقیقاً به سادگی صید ماهی از سطل آب است. به همین دلیل، همه سازمانها باید خط مشی اجباری کردن انتخاب گذرواژه قوی را در میان کاربران و سامانههای خود در پیش بگیرند. اما دلیل هکرها برای حمله و استفاده از Brute Force برای نفوذ چیست؟ این کار با چه هدفی انجام میشود؟ در ادامه، به این سوال مهم پاسخ داده شده است.
🔸 حمله Brute Force با چه اهدافی انجام میشود؟
حملات Brute Force معمولاً برای بهدست آوردن اطلاعات شخصی نظیر پسوردها، Passphraseها، نامهای کاربری و کدهای شناسایی شخصی (Personal Identification Numbers | PINS) به کار گرفته میشوند. همچنین، در حمله Brute Force از یک اسکریپت، اپلیکیشن هککننده یا پردازشهایی از این دست جهت اجرای رشتهای از اقدامات مکرر برای دستیابی به اطلاعات مورد نیاز استفاده میشود.
حملات Brute Force در سطوح ابتدایی فرآیند حمله سایبری (Cyber Kill Chain) و معمولاً در مراحل شناسایی و نفوذ انجام میشود. مهاجمان نیاز به امکان دسترسی به نقاط ورودی در اهداف خود دارند و روشهای Brute Force راهی سریع برای انجام این کار به حساب میآیند. پس از دسترسی پیدا کردن به داخل شبکه، مهاجمان میتوانند باز هم با استفاده از شگردهای Brute Force برای افزایش سطح دسترسی یا «حملات تنزل رمزنگاری» (Encryption Downgrade Attacks) استفاده کنند.
مطالعه ادامه مطلب 👇👇
🔗 Brute Force چیست ؟ | بررسی زوایای حمله بروت فورس — به زبان ساده — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش تصویر با پایتون — راهنمای کاربردی
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با مبحث پردازش تصویر با پایتون آشنا خواهید شد. «پردازش تصویر» (Image Processing) یکی از حوزههای تأثیرگذار و مهم در «هوش مصنوعی» (Artificial Intelligence) محسوب میشود و در حوزههای دیگر نظیر «بینایی کامپیوتر» (Computer Vision) و استخراج اطلاعات بامعنی از دادههای تصویری، نقش بسیار مهمی ایفا میکند.
══ فهرست مطالب ══
○ پردازش تصویر با پایتون
○ پردازش تصاویر با پایتون با ابزار SciKit-Image
○ کتابخانه Numpy و پردازش تصویر با پایتون
○ کتابخانه SciPy
○ کتابخانههای PIL و Pillow
○ کتابخانه OpenCV-Python
○ کتابخانه SimpleCV
○ کتابخانه Mahotas
○ کتابخانه SimpleITK
○ کتابخانه pgmagick
○ ابزار Pycairo
○ جمعبندی
🔸 پردازش تصویر با پایتون
تاکنون ابزارهای متنوعی برای پردازش تصویر با پایتون معرفی شدهاند. این دسته از ابزارها، «کتابخانهها» (Libraries) و «بستههای» (Packages) برنامهنویسی، امکانات بسیار متنوع و مفیدی برای «تبدیل تصاویر» (Image Transformation)، فهمیدن اطلاعات موجود در این دادهها و به طور کلی، دستکاری و پردازش تصاویر در اختیار کاربران و برنامهنویسان قرار میدهند. به عبارت دیگر، ابزارهای پردازش تصویر با پایتون به کاربران این امکان را میدهند تا به شکل بسیار ساده و «شهودی» (Intuitive) دادههای تصویری را تحلیل و اطلاعات بامعنی از آنها استخراج کنند.
جهان امروز و زندگی انسانها، توسط دادهها احاطه شدهاند و تصاویر بخش عمدهای از این دادهها را تشکیل میدهند. با این حال، پیش از اینکه تصاویر دیجیتالی قابل استفاده شوند نیاز است تا پردازش، تحلیل و دستکاری شوند؛ پردازش، تحلیل و دستکاری تصاویر، با هدف بهبود کیفیت آنها یا استخراج اطلاعات مفید از تصاویر انجام میشود.
زبان پایتون میتواند به عنوان ابزاری برای انجام عملیات پردازشی روی تصاویر دیجیتالی مورد استفاده قرار بگیرد. از جمله متداولترین فرایندهای پردازش تصویر با پایتون که توسط ابزارها و کتابخانههای این زبان برنامهنویسی قابل اجرا هستند، میتوان به مواردی نظیر «برش» (Cropping)، «برعکس کردن» (Flipping)، «چرخاندن» (Rotating)، «قطعهبندی تصویر» (Image Segmentation)، «دستهبندی تصویر» (Image Classification)، «استخراج ویژگی» (Feature Extraction)، «ترمیم تصاویر» (Image Restoration) و «بازشناسی تصویر» (Image Recognition) اشاره کرد.
🔸 پردازش تصاویر با پایتون با ابزار SciKit-Image
ابزار SciKit-Image، یک بسته برنامهنویسی «منبع باز» (Open Source) است که با ساختار آرایهای تعریف شده توسط کتابخانه NumPy کار میکند. این ابزار، یکی از مهمترین کتابخانههای پردازش تصویر با پایتون محسوب میشود که به طور رایگان در دسترس کاربران و برنامهنویسان قرار گرفته شده است. در بسته SciKit-Image، مجموعهای از الگوریتمها و ابزارهای پردازش تصویر، جهت استفاده در کاربردهای تحقیقاتی، آموزشی و صنعتی در اختیار کاربران قرار داده شده است.
کار کردن با توابع و الگوریتمهای SciKit-Image (که جهت پردازش تصویر با پایتون استفاده میشوند)، حتی برای کسانی که برنامهنویس مبتدی هستند و آشنایی ابتدایی از اکوسیستم پایتون دارند، بسیار ساده و سر راست است. کدهای پیادهسازی شده در ابزار SciKit-Image از کیفیت بسیار بالایی برخوردارند و توسط جامعه برنامهنویسی بسیار فعال و متشکل از برنامهنویسان داوطلب پشتیبانی و بهروزرسانی میشوند.
این بسته را میتوان با استفاده از skimage در زبان پایتون import کرد. همچنین، بسیاری از توابع و الگوریتمهای پیادهسازی شده را میتوان در «زیر واحدهای» (Submodules) این بسته برنامهنویسی پیدا کرد و مورد استفاده قرار داد. در ادامه، برخی از فرایندهای پردازش تصویر با پایتون که توسط ابزار SciKit-Image قابل انجام است، نمایش داده خواهد شد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر با پایتون — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
❇️ فیلم آموزش «یادگیری ماشین با پایتون» در ۲۳ دقیقه | به زبان ساده
📌 آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید.
✳️ شبکههای عصبی مصنوعی – از صفر تا صد
مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازندهاش، بیشتر از پردازندههای ابررایانههای امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصالهای فراوان موجود میان اجزای آن بازمیگردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستمهای دیگر متمایز می کند.
══ فهرست مطالب ══
○ پرسپترون چندلایه یا MLP
○ شبکه های عصبی شعاعی یا RBF
○ ماشینهای بردار پشتیبان یا SVM
○ نگاشتهای خودسازمانده یا SOM
○ یادگیرنده رقمیساز بردار یا LVQ
○ شبکه عصبی هاپفیلد یا Hopfield
○ مراجع مطالعاتی و منابع آموزشی مهم
○ کتاب های خارجی
○
○ کتاب های فارسی
○ منابع آموزشی آنلاین
🔸 پرسپترون چندلایه یا MLP
یکی از پایهایترین مدلهای عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیهسازی میکند. در این نوع شبکه عصبی، بیشتر رفتار شبکهای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکههای پیشخورد (Feedforward Networks) نیز خوانده میشوند. هر یک از سلولهای عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام میدهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال میدهند. این رفتار تا حصول نتیجهای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.
🔸 شبکه های عصبی شعاعی یا RBF
مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آنها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدلسازی میشود. از نظر ساختار کلی، شبکههای عصبی RBF تفاوت چندانی با شبکههای MLP ندارند و صرفا نوع پردازشی که نورونها روی ورودهایشان انجام میدهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آمادهسازی سریعتری هستند. در واقع، به دلیل تمرکز نورونها بر محدوده عملکردی خاص، کار تنظیم آنها، راحتتر خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 شبکههای عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
مغر انسان، به اذعان بسیاری از دانشمندان، پیچیده ترین سیستمی است که تا کنون در کل گیتی مشاهده شده و مورد مطالعه قرار گرفته است. اما این سیستم پیچیده نه ابعادی در حد کهشکشان دارد و نه تعداد اجزای سازندهاش، بیشتر از پردازندههای ابررایانههای امروزی است. پیچیدگی راز آلود این سیستم بی نظیر، به اتصالهای فراوان موجود میان اجزای آن بازمیگردد. این همان چیزی است که مغز ۱۴۰۰ گرمی انسان را از همه سیستمهای دیگر متمایز می کند.
══ فهرست مطالب ══
○ پرسپترون چندلایه یا MLP
○ شبکه های عصبی شعاعی یا RBF
○ ماشینهای بردار پشتیبان یا SVM
○ نگاشتهای خودسازمانده یا SOM
○ یادگیرنده رقمیساز بردار یا LVQ
○ شبکه عصبی هاپفیلد یا Hopfield
○ مراجع مطالعاتی و منابع آموزشی مهم
○ کتاب های خارجی
○
○ کتاب های فارسی
○ منابع آموزشی آنلاین
🔸 پرسپترون چندلایه یا MLP
یکی از پایهایترین مدلهای عصبی موجود، مدل پرسپترون چند لایه یا Multi-Layer Perceptron (به اختصار MLP) است که عملکرد انتقالی مغز انسان را شبیهسازی میکند. در این نوع شبکه عصبی، بیشتر رفتار شبکهای مغز انسان و انتشار سیگنال در آن مد نظر بوده است و از این رو، گهگاه با نام شبکههای پیشخورد (Feedforward Networks) نیز خوانده میشوند. هر یک از سلولهای عصبی مغز انسان، موسوم به نورون (Neuron)، پس از دریافت ورودی (از یک سلول عصبی یا غیر عصبی دیگر)، پردازشی روی آن انجام میدهند و نتیجه را به یک سلول دیگر (عصبی یا غیر عصبی) انتقال میدهند. این رفتار تا حصول نتیجهای مشخص ادامه دارد، که احتمالاً در نهایت منجر به یک تصمیم، پردازش، تفکر و یا حرکت خواهد شد.
🔸 شبکه های عصبی شعاعی یا RBF
مشابه الگوی شبکه های عصبی MLP، نوع دیگری از شبکه های عصبی وجود دارند که در آنها، واحدهای پردازنده، از نظر پردازشی بر موقعیت خاصی متمرکز هستند. این تمرکز، از طریق توابع شعاعی یا Radial Basis Functions (به اختصار RBF) مدلسازی میشود. از نظر ساختار کلی، شبکههای عصبی RBF تفاوت چندانی با شبکههای MLP ندارند و صرفا نوع پردازشی که نورونها روی ورودهایشان انجام میدهند، متفاوت است. با این حال، شبکه های RBF غالبا دارای فرایند یادگیری و آمادهسازی سریعتری هستند. در واقع، به دلیل تمرکز نورونها بر محدوده عملکردی خاص، کار تنظیم آنها، راحتتر خواهد بود.
مطالعه ادامه مطلب 👇👇
🔗 شبکههای عصبی مصنوعی – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ الگوریتم ژنتیک – از صفر تا صد
الگوریتم ژنتیک (GA | Genetic Algorithms)، خانوادهای از «مدلهای محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته شدهاند. این دسته از الگوریتمها، «جوابهای محتمل» (Potential Solutions) یا «جوابهای کاندید» (Candidate Solutions) و یا «فرضیههای محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار دادهای «کروموزوم مانند» (Chromosome-like) کدبندی میکنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای دادهای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای دادهای را حفظ میکند.
══ فهرست مطالب ══
○ مقدمه
○ انتخاب طبیعی
○ تکامل شبیهسازی شده
○ فرهنگ لغات الگوریتم ژنتیک
○
○ الگوریتم ژنتیک متعارف
○ نمایش عملکرد الگوریتم ژنتیک در بهینهسازی توابع
○ تفاوت الگوریتم ژنتیک و الگوریتمهای بهینهسازی و جستجوی سنتی
○ کاربردهای الگوریتم ژنتیک
○ کدهای پیادهسازی الگوریتم ژنتیک در زبانهای برنامهنویسی مختلف
○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمه
بسیاری از اختراعات بشری از طبیعت الهام گرفته شدهاند. «شبکههای عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتمهای ژنتیک، با «شبیهسازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جوابهای کاندید» (Candidate Solution Space) میپردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جوابهای ابتدایی تولید میشود. سپس، در «نسلهای» (Generations) متوالی، مجموعهای از جوابهای تغییر یافته تولید میشوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژنهای کروموزومهای تشکیل دهنده جمعیت ایجاد میشود). جوابهای اولیه معمولا به شکلی تغییر میکنند که در هر نسل، جمعیت جوابها به سمت جواب بهینه «همگرا» (Converge) میشوند.
این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونههای موفقتر و برازندهتر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتمهای ژنتیک، «بقای برازندهترینها» (Survival of the Fittest) است.
یک کروموزوم، رشتهای بلند و پیچیده از «اسید دیاکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگیها یا خصیصههای یک «فرد» (Individual) را مشخص میکنند، در طول این کروموزومها نقش یافتهاند. هر یک از خصیصههای موجود در افراد، به وسیله ترکیبی از DNA، در ژنهای انسان کدبندی میشوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزومها از روی DNA وجود دارد:
🔸 انتخاب طبیعی
در طبیعت، موجوداتی که ویژگیهای برازندهتری نسبت به دیگر گونهها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه میدهند. چنین ویژگیای، این امکان را در اختیار برازندهترین موجودات زنده قرار میدهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگیهای ارثی خود را از «ژنهای» (Genes) موجودات برتر و تعداد کمی از ویژگیهای خود را از ژنهای موجودات «رده پایین» (Inferior) با ژنها یا ویژگیهای نامرغوب به ارث خواهند برد.
به بیان سادهتر، موجودات برازندهتر زنده میمانند و موجودات نامناسب از بین میروند. به این فرایند و نیروی شگفتانگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته میشود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونههای مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمیدهند، بلکه صرفا موجودات برازندهتر به بقاء خود ادامه میدهند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
الگوریتم ژنتیک (GA | Genetic Algorithms)، خانوادهای از «مدلهای محاسباتی» (Computational Models) است که از مفهوم «تکامل» (Evolution) الهام گرفته شدهاند. این دسته از الگوریتمها، «جوابهای محتمل» (Potential Solutions) یا «جوابهای کاندید» (Candidate Solutions) و یا «فرضیههای محتمل» (Possible Hypothesis) برای یک مسأله خاص را در یک ساختار دادهای «کروموزوم مانند» (Chromosome-like) کدبندی میکنند. الگوریتم ژنتیک از طریق اعمال «عملگرهای بازترکیب» (Recombination Operators) روی ساختارهای دادهای کروموزوم مانند، اطلاعات حیاتی ذخیره شده در این ساختارهای دادهای را حفظ میکند.
══ فهرست مطالب ══
○ مقدمه
○ انتخاب طبیعی
○ تکامل شبیهسازی شده
○ فرهنگ لغات الگوریتم ژنتیک
○
○ الگوریتم ژنتیک متعارف
○ نمایش عملکرد الگوریتم ژنتیک در بهینهسازی توابع
○ تفاوت الگوریتم ژنتیک و الگوریتمهای بهینهسازی و جستجوی سنتی
○ کاربردهای الگوریتم ژنتیک
○ کدهای پیادهسازی الگوریتم ژنتیک در زبانهای برنامهنویسی مختلف
○ فیلم آموزش تئوری و عملی الگوریتم ژنتیک و پیاده سازی آن در MATLAB
○ جمعبندی
🔸 مقدمه
بسیاری از اختراعات بشری از طبیعت الهام گرفته شدهاند. «شبکههای عصبی مصنوعی» (ANN | Artificial Neural Network) نمونه بارز چنین ابداعاتی هستند. یکی دیگر از چنین ابداعاتی، توسعه ایده الگوریتم ژنتیک است. الگوریتمهای ژنتیک، با «شبیهسازی» (Simulating) فرایند تکامل در طبیعت، با هدف یافتن بهترین جواب ممکن برای یک مسأله، به جستجو در «فضای جوابهای کاندید» (Candidate Solution Space) میپردازند. در فرایند جستجو برای یافتن جواب بهینه، ابتدا مجموعه یا جمعیتی از جوابهای ابتدایی تولید میشود. سپس، در «نسلهای» (Generations) متوالی، مجموعهای از جوابهای تغییر یافته تولید میشوند (در هر نسل از الگوریتم ژنتیک، تغییرات خاصی در ژنهای کروموزومهای تشکیل دهنده جمعیت ایجاد میشود). جوابهای اولیه معمولا به شکلی تغییر میکنند که در هر نسل، جمعیت جوابها به سمت جواب بهینه «همگرا» (Converge) میشوند.
این شاخه از حوزه «هوش مصنوعی» (Artificial Intelligence)، بر پایه مکانیزم تکامل موجودات زنده و تولید گونههای موفقتر و برازندهتر در طبیعت الهام گرفته شده است. به عبارت دیگر، ایده اصلی الگوریتمهای ژنتیک، «بقای برازندهترینها» (Survival of the Fittest) است.
یک کروموزوم، رشتهای بلند و پیچیده از «اسید دیاکسی ریبونوکلئیک» (Deoxyribonucleic Acid) یا DNA است. عوامل ارثی که ویژگیها یا خصیصههای یک «فرد» (Individual) را مشخص میکنند، در طول این کروموزومها نقش یافتهاند. هر یک از خصیصههای موجود در افراد، به وسیله ترکیبی از DNA، در ژنهای انسان کدبندی میشوند. در بدن موجودات زنده، معمولا چهار «پایه» (Base) برای تولید کروموزومها از روی DNA وجود دارد:
🔸 انتخاب طبیعی
در طبیعت، موجوداتی که ویژگیهای برازندهتری نسبت به دیگر گونهها دارند، برای مدت بیشتری به بقاء در طبیعت ادامه میدهند. چنین ویژگیای، این امکان را در اختیار برازندهترین موجودات زنده قرار میدهد تا بر اساس مواد ژنتیکی خود، اقدام به تولید مثل کنند. بنابراین، پس از یک دوره زمانی بلند مدت، جمعیت موجودات زنده به سمتی تکامل پیدا خواهد کرد که در آن، غالب موجودات بسیاری از ویژگیهای ارثی خود را از «ژنهای» (Genes) موجودات برتر و تعداد کمی از ویژگیهای خود را از ژنهای موجودات «رده پایین» (Inferior) با ژنها یا ویژگیهای نامرغوب به ارث خواهند برد.
به بیان سادهتر، موجودات برازندهتر زنده میمانند و موجودات نامناسب از بین میروند. به این فرایند و نیروی شگفتانگیز طبیعی، «انتخاب طبیعی» (Natural Selection) گفته میشود. نکته مهم در مورد انتخاب طبیعی و اثبات درست بودن این اصل این است که تحقیقات دانشمندان در مورد «توضیحات مولکولی از تکامل» (Molecular Explanation of Evolution) نشان داده است که گونههای مختلف موجودات زنده، خود را با شرایط محیطی تطبیق نمیدهند، بلکه صرفا موجودات برازندهتر به بقاء خود ادامه میدهند.
مطالعه ادامه مطلب 👇👇
🔗 الگوریتم ژنتیک – از صفر تا صد — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ پردازش تصویر در متلب — راهنمای جامع
در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروفترین «تولباکسهای» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).
══ فهرست مطالب ══
○ پردازش تصویر
○ متلب
○ تصویر دیجیتالی چیست؟
○ دستورات ابتدایی پردازش تصویر در متلب
○ تکنیکهای پیشرفته پردازش تصویر در متلب
○ انواع تصاویر
○ کیفیت تصویر
○ هیستوگرام تصویر
○ روش آستانهگذاری در تولباکس پردازش تصویر در متلب
○ دقیق کردن و نمایانسازی ویژگیهای بارز موجود در تصاویر (Image Sharpening)
○ جمعبندی
🔸 پردازش تصویر
«پردازش تصویر» (Image Processing) به مجموعهای از تکنیکهایی اطلاق میشود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفتهاند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخهای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آنها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق میافتند، معمولا به طور خودکار و بر پایه مجموعهای از الگوریتمهای به دقت طراحی شده انجام میشوند. این دسته از الگوریتمهای پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.
حوزه پردازش تصویری، یک حوزه «چند رشتهای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشتههای علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، همپوشانی بسیار زیادی با حوزههای تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.
برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسطهایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربینهای دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) میشوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشردهسازی دادهها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید میشوند.
🔸 متلب
محیط محاسبات عددی و زبان برنامهنویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامهنویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.
در این محیط برنامهنویسی، توسعهدهندگان قادرند تا از روشهای «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روشهای نمایش داده و الگوریتمهای توسعه داده شده در متلب، برای پیادهسازی روشهای هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامهنویسی مستقیم را با برنامههای نوشته شده به زبانهای دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعهدهندگان فراهم آورده است.
الگوریتمهای پردازش تصویر در متلب، مجموعهای از توابع هستند که قابلیتهای محیط محاسبات عددی متلب را گسترش میدهند. تولباکس پردازش تصویر در متلب، مجموعهای از «الگوریتمهای مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتمهای پردازش تصویر در متلب فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، با مبحث پردازش تصویر در متلب آشنا خواهید شد. همچنین، بسیاری از مفاهیم پایه و تعدادی از مفاهیم و موضوعات پیشرفته پردازش تصویر در متلب ارائه خواهند شد. هدف از این مطلب، پوشش دادن نحوه عملکرد و شیوه استفاده از «توابع» (Functions) یکی از معروفترین «تولباکسهای» (Toolbox) موجود در «محیط محاسبات عددی» (Numerical Computing Environment) و زبان برنامه نویسی «متلب» (Matlab) است؛ «تولباکس پردازش تصویر» (Image Processing Toolbox | جعبه ابزار پردازش تصویر).
══ فهرست مطالب ══
○ پردازش تصویر
○ متلب
○ تصویر دیجیتالی چیست؟
○ دستورات ابتدایی پردازش تصویر در متلب
○ تکنیکهای پیشرفته پردازش تصویر در متلب
○ انواع تصاویر
○ کیفیت تصویر
○ هیستوگرام تصویر
○ روش آستانهگذاری در تولباکس پردازش تصویر در متلب
○ دقیق کردن و نمایانسازی ویژگیهای بارز موجود در تصاویر (Image Sharpening)
○ جمعبندی
🔸 پردازش تصویر
«پردازش تصویر» (Image Processing) به مجموعهای از تکنیکهایی اطلاق میشود که با هدف «تبدیل» (Convert) یک تصویر به «قالب دیجیتال» (Form) و انجام اعمال محاسباتی بر روی آن شکل گرفتهاند. هدف از انجام اعمال محاسباتی مرتبط با پردازش تصویر در متلب، تولید نسخهای «بهبود یافته» (Enhanced) از تصاویر دیجیتالی و یا استخراج اطلاعات با معنی و مفید از آنها است. تغییراتی که بر اثر پردازش تصویر دیجیتالی، روی تصاویر اتفاق میافتند، معمولا به طور خودکار و بر پایه مجموعهای از الگوریتمهای به دقت طراحی شده انجام میشوند. این دسته از الگوریتمهای پردازش تصویر در متلب، از لحاظ محاسباتی بسیار «دقیق» (Accurate) و «بهینه» (Optimized) هستند.
حوزه پردازش تصویری، یک حوزه «چند رشتهای» (Multidisciplinary) در شاخه «علوم کامپیوتر» (Computer Science) است که بخشی از مفاهیم خود را از رشتههای علمی دیگر نظیر «ریاضیات» (Mathematics)، «فیزیک» (Physics) و «مهندسی برق» (Electrical Engineering) به اشتراک گرفته است. همچنین، حوزه پردازش تصویر، همپوشانی بسیار زیادی با حوزههای تحقیقاتی نظیر «بازشناسی الگو» (Pattern Recognition)، «یادگیری ماشین» (Machine Learning)، «هوش مصنوعی» (Artificial Intelligence) و «بینایی کامپیوتر» (Computer Vision) دارد.
برای انجام عملیات محاسباتی متناظر با پردازش تصویر در متلب، ابتدا باید تصاویر دیجیتال از طریق «واسطهایی» (Interfaces) نظیر «اسکنر نوری» (Optical Scanner) و «دوربینهای دیجیتال» (Digital Cameras) تولید شوند. سپس، تصاویر دیجیتال تولید شده «تحلیل» (Analyze) میشوند. در مرحله بعد، تصاویر دیجیتالی از طریق فرآیندهایی نظیر «فشردهسازی دادهها» (Data Compression)، «بهبود تصاویر» (Image Enhancements)، «فیلتر تصاویر» (Image Filtering) و سایر موارد، مورد «دستکاری عددی» (Numerical Manipulation) قرار گرفته و در نهایت، تصاویر خروجی مطلوب تولید میشوند.
🔸 متلب
محیط محاسبات عددی و زبان برنامهنویسی «متلب» (MATLAB)، که مخفف عبارت «آزمایشگاه ماتریس» (MATrix LABoratory) است، پلتفرمی برای حل مسائل علمی و ریاضیاتی است. متلب یک «زبان برنامهنویسی اختصاصی» (Proprietary Programming Language) توسعه داده شده به وسیله شرکت MathWorks است.
در این محیط برنامهنویسی، توسعهدهندگان قادرند تا از روشهای «دستکاری ماتریسی» (Matrix Manipulation)، توابع، روشهای نمایش داده و الگوریتمهای توسعه داده شده در متلب، برای پیادهسازی روشهای هوشمند (مبتنی بر نمایش عددی و ماتریسی) دلخواه خود استفاده کنند. همچنین، متلب امکان تعامل برنامهنویسی مستقیم را با برنامههای نوشته شده به زبانهای دیگر نظیر «سی» (C)، «سی پلاس پلاس» (++C)، «جاوا» (Java) و سایر موارد، برای توسعهدهندگان فراهم آورده است.
الگوریتمهای پردازش تصویر در متلب، مجموعهای از توابع هستند که قابلیتهای محیط محاسبات عددی متلب را گسترش میدهند. تولباکس پردازش تصویر در متلب، مجموعهای از «الگوریتمهای مرجع استاندارد» (Reference-Standard Algorithms) را برای کاربردهای پردازش، تحلیل و نمایش بصری تصاویر و همچنین توسعه الگوریتمهای پردازش تصویر در متلب فراهم میآورد.
مطالعه ادامه مطلب 👇👇
🔗 پردازش تصویر در متلب — راهنمای جامع — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
✳️ مقدمهای بر الگوریتم ژنتیک
مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزومها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح میدهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب میتوانند به اینجا مراجعه کنند.
══ فهرست مطالب ══
○ ۱. منبع الهام الگوریتم ژنتیک
○ ۲. ارتباط با زیستشناسی
○ ۳. الگوریتم ژنتیک چیست؟
○ ۴. گامهای الگوریتم ژنتیک
○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
○ کاربرد الگوریتم ژنتیک در دنیای واقعی
🔸 ۱. منبع الهام الگوریتم ژنتیک
چارلز داروین (Charles Darwin) یک نقلقول معروف دارد: “نه قویترین فرد یک گونه زنده میماند نه باهوشترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده میماند.” در واقع کل مفهوم الگوریتم ژنتیک براساس این نقل قول است. برای فهم بهتر به مثال زیر توجه کنید:
فرض کنید شما رهبر یک شهر هستید و میخواهید شهرتان را از اتفاقات بد مصون نگهدارید. پس سیاست زیر را درپیش بگیرید:
– تمام انسانهای خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.
– این کار را تا چند نسل تکرار کنید.
– حال کل جمعیت شهر انسانهای خوب هستند.
این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیستشناسی مربوط است. درادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.
🔸 ۲. ارتباط با زیستشناسی
میدانیم، سلولها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشتههای DNA هستند.
عموماً، این کروموزومها بهصورت رشتههای صفرویکی نمایش داده میشوند.
کروموزوم از ژن (Gene) تشکیل شدهاست. هر ژن یک ویژگی خاص را رمزگذاری میکند. مثل رنگ مو و چشم.
مطالعه ادامه مطلب 👇👇
🔗 مقدمهای بر الگوریتم ژنتیک — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
مطلب جدیدی تحت عنوان «الگوریتم ژنتیک — از صفر تا صد» در مجله فرادرس به انتشار رسیده است که به طور کامل مباحث مرتبط با الگوریتم ژنتیک، نمایش کدبندی کروموزومها، عملگرهای ژنتیک، تابع هدف و تابع برازندگی را به همراه یک مثال کاربردی شرح میدهد. خوانندگان و مخاطبان عزیز مجله فرادرس برای مطالعه این مطلب میتوانند به اینجا مراجعه کنند.
══ فهرست مطالب ══
○ ۱. منبع الهام الگوریتم ژنتیک
○ ۲. ارتباط با زیستشناسی
○ ۳. الگوریتم ژنتیک چیست؟
○ ۴. گامهای الگوریتم ژنتیک
○ کاربرد الگوریتم ژنتیک در مسائل ریاضی و آمار
○ کاربرد الگوریتم ژنتیک در دنیای واقعی
🔸 ۱. منبع الهام الگوریتم ژنتیک
چارلز داروین (Charles Darwin) یک نقلقول معروف دارد: “نه قویترین فرد یک گونه زنده میماند نه باهوشترین آنها، بلکه فردی که بهتر با تغییرات همراه باشد، زنده میماند.” در واقع کل مفهوم الگوریتم ژنتیک براساس این نقل قول است. برای فهم بهتر به مثال زیر توجه کنید:
فرض کنید شما رهبر یک شهر هستید و میخواهید شهرتان را از اتفاقات بد مصون نگهدارید. پس سیاست زیر را درپیش بگیرید:
– تمام انسانهای خوب شهر را انتخاب کنید و از آنها بخواهید نسل خود را با فرزندآوری گسترش دهند.
– این کار را تا چند نسل تکرار کنید.
– حال کل جمعیت شهر انسانهای خوب هستند.
این مثال در دنیای واقعی غیرممکن است و صرفاً برای کمک به فهم موضوع بیان شد. پس ایده اصلی آن است که برای آنکه خروجی بهتر داشته باشیم، ورودی را تغییر دهیم. الگوریتم ژنتیک تا حدی به زیستشناسی مربوط است. درادامه برای یافتن رابطه این دو، چند مفهوم جدید می آموزیم.
🔸 ۲. ارتباط با زیستشناسی
میدانیم، سلولها بلوک ساختمانی اصلی همه موجودات زنده هستند. بنابراین در هر سلول، یک مجموعه واحد کروموزوم(Chromosome) وجود دارد. کروموزوم رشتههای DNA هستند.
عموماً، این کروموزومها بهصورت رشتههای صفرویکی نمایش داده میشوند.
کروموزوم از ژن (Gene) تشکیل شدهاست. هر ژن یک ویژگی خاص را رمزگذاری میکند. مثل رنگ مو و چشم.
مطالعه ادامه مطلب 👇👇
🔗 مقدمهای بر الگوریتم ژنتیک — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
🔴 رایگان آموزش ببینید و مهارت کسب کنید.
🌟 معرفی آموزشهای رایگان و پرطرفدار فرادرس
♨️ صدها عنوان آموزش رایگان فرادرس در دسترس هستند که در طول ماه، توسط دهها هزار دانشجو مورد مطالعه قرار میگیرند.
شما عزیزان نیز میتوانید با مراجعه به لینکهای زیر، آموزشهای پرمخاطب در دستهبندی مورد نظر خود را مشاهده کرده و رایگان دانلود کنید👇
✅ آموزشهای رایگان هوش مصنوعی و یادگیری ماشین [+]
📚 تمامی آموزشهای رایگان و پرمخاطب [+]
@FaraDars - فرادرس
✳️ اصطلاحات یادگیری عمیق — راهنمای کاربردی
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس
در این مطلب، مهمترین اصطلاحات یادگیری عمیق مورد بررسی قرار گرفتهاند. این روزها، هوش مصنوعی دارد دنیای ما را تسخیر میکند. «یادگیری ماشین» و «یادگیری عمیق» بخش بزرگی از زندگی انسانها را تشکیل میدهند. (مارک کوبان) در این مورد میگوید:
══ فهرست مطالب ══
○ این مقاله برای چه کسانی مناسب است؟
○ برخی اصطلاحات یادگیری عمیق
○ ۱. مقدمات شبکههای عصبی
○ شبکههای عصبی کانولوشن
○ ۵) تقویت دادهها
○ شبکههای عصبی بازگشتی
🔸 این مقاله برای چه کسانی مناسب است؟
اگر علاقهمند به یادگیری و درک «یادگیری عمیق» هستید، این مقاله برای شما نوشته شده است. در این مقاله به توضیح اصطلاحات متفاوتی که در یادگیری عمیق استفاده میشوند، میپردازیم. درک یادگیری عمیق میتواند کمی سخت و طاقتفرسا باشد. این مقاله با این هدف نوشته شده است که یادگیری و درک «یادگیری عمیق» را راحت و بی دردسر کند. این مقاله مانند یک لغتنامه برای «یادگیری عمیق» میباشد که در هرکجا به واژهای برخوردید که نتوانستید مفهوم آن را بفهمید، به این مقاله مراجعه کنید.
🔸 برخی اصطلاحات یادگیری عمیق
برای اینکه درک اصطلاحات راحتتر باشد، آنها را به ۳ گروه تقسیم کردهایم. اگر فقط دنبال یک مفهوم خاصی میگردید، میتوانید مستقیما آن را مطالعه کنید. ولی اگر در این موضوع تازه وارد هستید، مطالعه کل اصطلاحات به ترتیب، توصیه میشود.
– مقدمات شبکههای عصبی
– شبکههای عصبی کانولوشن
– شبکههای عصبی بازگشتی
مطالعه ادامه مطلب 👇👇
🔗 اصطلاحات یادگیری عمیق — راهنمای کاربردی — کلیک کنید (+)
📌 کانال اختصاصی آموزشی هوش مصنوعی و علم داده
آخرین مطالب علمی، مقالات رایگان و ویدئوهای آموزشی هوش مصنوعی و علم داده را در کانال اختصاصی [@FaraAI] دنبال کنید. 👇
@FaraAI — مطالب و آموزشهای هوش مصنوعی و علم داده فرادرس