#business_intelligence
داده ها را می توان به ۲ دسته زیر تقسیم بندی کرد:
🔺۱. داده ساختار یافته (Structured Data)
🔺۲. داده ساختار نیافته (Unstructured Data)
این ۲ نوع داده تفاوت های اساسی باهم دارند و معمولا در عملیات داده کاوی و یادگیری ماشین سعی بر این است که داده های ساختار نیافته را به داده های ساختار یافته تبدیل کرد تا برای ماشین (کامپیوتر) قابل فهم باشد.
🔸حتماً با پایگاه های داده هایی مانند Excel یا SQL Server کار کرده اید. این پایگاه ها معمولا سعی دارند که داده ها را برای کامپیوتر قابل فهم کنند. در واقع داده های ساختار یافته که در Excel یا پایگاه داده ای رابطه ای مانند SQL داریم، داده هایی هستند که می توانیم بر روی آنها عملیات مختلف را با استفاده از الگوریتم های شناخته شده کامپیوتری انجام داد، به این صورت که می گوییم داده ها برای کامپیوتر قابل فهم شده است.
🔸اما داده هایی مانند اخبار روزانه که به صورت متنی هستند یا داده های موجود در فیلم ها و ویدیوهایی که در شبکه های اجتماعی به اشتراک گذاشته می شوند، با نوع قبلی فرق دارند. آنها به خاطر تنوع قادر به نگهداری به صورت ساختار یافته در پایگاه های داده ای نیستند (اگرچه می توان آنها را به صورت خام در یک ستون از پایگاه داده ذخیره کرد). داده هایی مانند ویدیو، تصویر یا متن که بایستی پردازش های اضافه تری بر روی آنها انجام شود و زمان بیشتری می گیرند، داده های ساختار نیافته خواهند بود.
📚@BigDataServe
داده ها را می توان به ۲ دسته زیر تقسیم بندی کرد:
🔺۱. داده ساختار یافته (Structured Data)
🔺۲. داده ساختار نیافته (Unstructured Data)
این ۲ نوع داده تفاوت های اساسی باهم دارند و معمولا در عملیات داده کاوی و یادگیری ماشین سعی بر این است که داده های ساختار نیافته را به داده های ساختار یافته تبدیل کرد تا برای ماشین (کامپیوتر) قابل فهم باشد.
🔸حتماً با پایگاه های داده هایی مانند Excel یا SQL Server کار کرده اید. این پایگاه ها معمولا سعی دارند که داده ها را برای کامپیوتر قابل فهم کنند. در واقع داده های ساختار یافته که در Excel یا پایگاه داده ای رابطه ای مانند SQL داریم، داده هایی هستند که می توانیم بر روی آنها عملیات مختلف را با استفاده از الگوریتم های شناخته شده کامپیوتری انجام داد، به این صورت که می گوییم داده ها برای کامپیوتر قابل فهم شده است.
🔸اما داده هایی مانند اخبار روزانه که به صورت متنی هستند یا داده های موجود در فیلم ها و ویدیوهایی که در شبکه های اجتماعی به اشتراک گذاشته می شوند، با نوع قبلی فرق دارند. آنها به خاطر تنوع قادر به نگهداری به صورت ساختار یافته در پایگاه های داده ای نیستند (اگرچه می توان آنها را به صورت خام در یک ستون از پایگاه داده ذخیره کرد). داده هایی مانند ویدیو، تصویر یا متن که بایستی پردازش های اضافه تری بر روی آنها انجام شود و زمان بیشتری می گیرند، داده های ساختار نیافته خواهند بود.
📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#multi_task_learning #meta_learning #deep_learning #meta_learning
part: 8/14
⚪️ Stanford CS330: Multi-Task and Meta-Learning, 2019 | Lecture 8 - Model-Based Reinforcement Learning
دوره متا لرنینگ دانشگاه استنفورد:
این دوره شامل مباحث پیشرفته ی deep learning و reinforcement learning است
قسمت هشتم - یادگیری تقویتی ۲
📚@BigDataServe
part: 8/14
⚪️ Stanford CS330: Multi-Task and Meta-Learning, 2019 | Lecture 8 - Model-Based Reinforcement Learning
دوره متا لرنینگ دانشگاه استنفورد:
این دوره شامل مباحث پیشرفته ی deep learning و reinforcement learning است
قسمت هشتم - یادگیری تقویتی ۲
📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت دوازدهم - آشنایی با معیارهای ارزیابی عملکرد مدل های یادگیری ماشین
📚@BigDataServe
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت دوازدهم - آشنایی با معیارهای ارزیابی عملکرد مدل های یادگیری ماشین
📚@BigDataServe
Data_Smart_Using_Data_Science_to_Transform_Information_into_Insight.pdf
64.5 MB
#book
#datascience
📘کتاب Data Smart
Using Data Science to Transform Information into Insight
📚@BigDataServe
#datascience
📘کتاب Data Smart
Using Data Science to Transform Information into Insight
📚@BigDataServe
#business_intelligence
🔸چرا ETL به عنوان گام دوم پیاده سازی BI در سازمان ها بسیار مهم و حیاتی است؟
🔺هنگامی که از انبارداده های سازمانی استفاده می شود، ETL زمینه های تاریخی و عمیقی را برای کسب و کار فراهم می آورد.
🔺با ارائه یک نمایه تلفیقی، ETL باعث می شود که تجزیه و تحلیل و گزارش داده ها و ابتکارات در ارتباط با آنها برای کاربران کسب و کار آسان تر شود.
🔺این فرایند (ETL) می تواند بهره وری حرفه ای داده ها را بهبود بخشد. زیرا این پروتکل ها رمزهای پردازش شده را مجدداً مورد استفاده قرار می دهد که همین امر باعث می شود داده ها را بدون نیاز به مهارت های فنی برای نوشتن کد یا اسکریپت انتقال داد.
🔺همچنین ETL در طول زمان تکامل یافته است تا از نیازهایی که در ارتباط با یکپارچگی برای مواردی مانند جریان داده ای بروز می کنند پشتیبانی کند.
🔺سازمان ها به ETL نیاز دارند تا داده ها را باهم تجمیع کنند، از دقت آنها اطمینان حاصل کنند و حسابرسی مورد نیاز برای انبار داده ها، گزارش دهی و تجزیه و تحلیل را فراهم آورند.
📚@BigDataServe
🔸چرا ETL به عنوان گام دوم پیاده سازی BI در سازمان ها بسیار مهم و حیاتی است؟
🔺هنگامی که از انبارداده های سازمانی استفاده می شود، ETL زمینه های تاریخی و عمیقی را برای کسب و کار فراهم می آورد.
🔺با ارائه یک نمایه تلفیقی، ETL باعث می شود که تجزیه و تحلیل و گزارش داده ها و ابتکارات در ارتباط با آنها برای کاربران کسب و کار آسان تر شود.
🔺این فرایند (ETL) می تواند بهره وری حرفه ای داده ها را بهبود بخشد. زیرا این پروتکل ها رمزهای پردازش شده را مجدداً مورد استفاده قرار می دهد که همین امر باعث می شود داده ها را بدون نیاز به مهارت های فنی برای نوشتن کد یا اسکریپت انتقال داد.
🔺همچنین ETL در طول زمان تکامل یافته است تا از نیازهایی که در ارتباط با یکپارچگی برای مواردی مانند جریان داده ای بروز می کنند پشتیبانی کند.
🔺سازمان ها به ETL نیاز دارند تا داده ها را باهم تجمیع کنند، از دقت آنها اطمینان حاصل کنند و حسابرسی مورد نیاز برای انبار داده ها، گزارش دهی و تجزیه و تحلیل را فراهم آورند.
📚@BigDataServe
#deeplearning
مثال هایی از DEEP LEARNING در عمل
📍طیف زمینه هایی که از Deep Learning در آن ها استفاده شده بسیار گسترده است و از ماشین های بدون راننده تا وسایل و تجهیزات پزشکی را شامل می شود.
🅰 ماشین های بدون راننده: در تحقیقات مربوط به خودرو ها سعی می شود از Deep Learning به منظور تشخیص اشیاء مانند تابلو ها، چراغ های راهنمایی استفاده شود. علاوه بر این برای تشخیص عابران پیاده و سایر ماشین ها نیز کاربرد دارد که می تواند سبب کاهش تصادفات شود.
🅱 صنایع دفاعی: با استفاده از Deep Learning می توان به منظور تشخیص اشیاء با استفاده از ماهواره هایی که در محل مورد نظر قرار گرفته اند استفاده کرد تا محل های امن و ناامن را برای سربازها تعیین کرد.
🅾 دارویی: با استفاده از Deep Learning می توان سلول های سرطانی را تشخیص داد. تیم هایی در دانشگاه کالیفرنیا (UCLA) موفق به ساخت میکروسکوپی شدند که با استفاده از داده هایی که دارد، می تواند با عکس برداری از سلول ها تشخیص دهد که سلول ها سرطانی هستند یا خیر.
📚@Bigdataserve
مثال هایی از DEEP LEARNING در عمل
📍طیف زمینه هایی که از Deep Learning در آن ها استفاده شده بسیار گسترده است و از ماشین های بدون راننده تا وسایل و تجهیزات پزشکی را شامل می شود.
🅰 ماشین های بدون راننده: در تحقیقات مربوط به خودرو ها سعی می شود از Deep Learning به منظور تشخیص اشیاء مانند تابلو ها، چراغ های راهنمایی استفاده شود. علاوه بر این برای تشخیص عابران پیاده و سایر ماشین ها نیز کاربرد دارد که می تواند سبب کاهش تصادفات شود.
🅱 صنایع دفاعی: با استفاده از Deep Learning می توان به منظور تشخیص اشیاء با استفاده از ماهواره هایی که در محل مورد نظر قرار گرفته اند استفاده کرد تا محل های امن و ناامن را برای سربازها تعیین کرد.
🅾 دارویی: با استفاده از Deep Learning می توان سلول های سرطانی را تشخیص داد. تیم هایی در دانشگاه کالیفرنیا (UCLA) موفق به ساخت میکروسکوپی شدند که با استفاده از داده هایی که دارد، می تواند با عکس برداری از سلول ها تشخیص دهد که سلول ها سرطانی هستند یا خیر.
📚@Bigdataserve
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت سیزدهم - کشف ناهنجاری ها و مشکلات یکپارچه سازی داده ها
📚@BigDataServe
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت سیزدهم - کشف ناهنجاری ها و مشکلات یکپارچه سازی داده ها
📚@BigDataServe
#business_intelligence
#ETL
🔸گام دوم پیاده سازی BI در سازمان یعنی ETL در واقع فرایندی است که در آن داده ها:
🔺از منابع اطلاعاتی مختلف استخراج و جمع آوری می شوند.
🔺مطابق با قواعد کسب و کار پالایش می شوند.
در این مرحله از عملگرهای مختلفی مانند فیلتر (Filter)، مرتب سازی (Sorting)، تجمیع (Aggregation)، اتصال (Join/ Append)، پاکسازی داده ها (Data Cleansing)، حذف داده های یکسان (Remove Duplicate) و اعتبارسنجی داده ها (Data Validation) استفاده می کنیم.
🔺در نهایت در یک انبار داده ذخیره می شوند.
🔸برای نمونه اگر قصد داریم که یک پروژه مصورسازی را با PowerBI انجام دهیم، با استفاده از کامپوننت Power Query Editor، فرایند ETL به صورت کامل روی داده ها انجام می شود. سرویس یکپارچه سازی SQL Server (SSIS) و زبان TSQL نیز به ما در فرایند ETL کمک می کنند. همچنین از زبان های برنامه نویسی Python و R در فاز پالایش داده می توانیم استفاده کنیم.
📚@BigDataServe
#ETL
🔸گام دوم پیاده سازی BI در سازمان یعنی ETL در واقع فرایندی است که در آن داده ها:
🔺از منابع اطلاعاتی مختلف استخراج و جمع آوری می شوند.
🔺مطابق با قواعد کسب و کار پالایش می شوند.
در این مرحله از عملگرهای مختلفی مانند فیلتر (Filter)، مرتب سازی (Sorting)، تجمیع (Aggregation)، اتصال (Join/ Append)، پاکسازی داده ها (Data Cleansing)، حذف داده های یکسان (Remove Duplicate) و اعتبارسنجی داده ها (Data Validation) استفاده می کنیم.
🔺در نهایت در یک انبار داده ذخیره می شوند.
🔸برای نمونه اگر قصد داریم که یک پروژه مصورسازی را با PowerBI انجام دهیم، با استفاده از کامپوننت Power Query Editor، فرایند ETL به صورت کامل روی داده ها انجام می شود. سرویس یکپارچه سازی SQL Server (SSIS) و زبان TSQL نیز به ما در فرایند ETL کمک می کنند. همچنین از زبان های برنامه نویسی Python و R در فاز پالایش داده می توانیم استفاده کنیم.
📚@BigDataServe
Forwarded from آرمان بهنام (BigDataServe)
📣 دوره آنلاین جامع یادگیری عمیق و هوش تجاری جهاد دانشگاهی علم و صنعت
📌۸۵ ساعت آموزش به همراه رفع اشکال و پرسش و پاسخ با اساتید دوره
⏰کد ۱: پنجشنبه ها و جمعه ها ۹ تا ۱۲
⏰کد ۲: پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
📅 ۱ آبان ماه لغایت ۱۰ بهمن ماه ۱۳۹۹
🚫 ۱۵ درصد تخفیف برای اعضای این کانال
🔐انجام پروژه های واقعی متناسب با بازار کار
📋مدرک معتبر و قابل ترجمه جهاد دانشگاهی جهت ادامه تحصیل در خارج از کشور
🎁 بازگشت شهریه نفر اول دوره
🔴برای کسب اطلاعات بیشتر پیرامون دوره، کدهای تخفیف، رزومه اساتید و ریز سرفصل ها میتوانید به لینک زیر مراجعه فرمایید:
http://www.armanbehnam.com/about-me/education/jd-dl-bi
🔴 لینک ثبت نام کد ۱ پنجشنبه ها و جمعه ها ۹ تا ۱۲
http://www.jdrouyesh.ir/reg?rgn=41&cls=343246
🔴 لینک ثبت نام کد ۲ پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
http://www.jdrouyesh.ir/reg?rgn=41&cls=343247
📚@BigDataServe
📌۸۵ ساعت آموزش به همراه رفع اشکال و پرسش و پاسخ با اساتید دوره
⏰کد ۱: پنجشنبه ها و جمعه ها ۹ تا ۱۲
⏰کد ۲: پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
📅 ۱ آبان ماه لغایت ۱۰ بهمن ماه ۱۳۹۹
🚫 ۱۵ درصد تخفیف برای اعضای این کانال
🔐انجام پروژه های واقعی متناسب با بازار کار
📋مدرک معتبر و قابل ترجمه جهاد دانشگاهی جهت ادامه تحصیل در خارج از کشور
🎁 بازگشت شهریه نفر اول دوره
🔴برای کسب اطلاعات بیشتر پیرامون دوره، کدهای تخفیف، رزومه اساتید و ریز سرفصل ها میتوانید به لینک زیر مراجعه فرمایید:
http://www.armanbehnam.com/about-me/education/jd-dl-bi
🔴 لینک ثبت نام کد ۱ پنجشنبه ها و جمعه ها ۹ تا ۱۲
http://www.jdrouyesh.ir/reg?rgn=41&cls=343246
🔴 لینک ثبت نام کد ۲ پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
http://www.jdrouyesh.ir/reg?rgn=41&cls=343247
📚@BigDataServe
Forwarded from آرمان بهنام (آرمان بهنام)
#course #coursera #nlp
یکی از مهمترین و به روز ترین مباحث در هوش مصنوعی و علم داده، پردازش زبان طبیعی می باشد. برای همین یکی از معتبر ترین دوره های این زمینه را در لینک زیر تحلیل کرده ام که از دوره های سایت کورسرا و جزء مجموعه دوره های مهارت یادگیری ماشین پیشرفته می باشد.
تحلیل و بررسی محتوای دوره :
http://www.armanbehnam.com/about-me/education/nlp-hse/
📪محتوای این پست در لینکدین :
https://bit.ly/30EdtD9
🔊 اسلایدها و فایل های این دوره در گیت هاب
https://plink.ir/ph6cg
______
📚@BigDataServe
یکی از مهمترین و به روز ترین مباحث در هوش مصنوعی و علم داده، پردازش زبان طبیعی می باشد. برای همین یکی از معتبر ترین دوره های این زمینه را در لینک زیر تحلیل کرده ام که از دوره های سایت کورسرا و جزء مجموعه دوره های مهارت یادگیری ماشین پیشرفته می باشد.
تحلیل و بررسی محتوای دوره :
http://www.armanbehnam.com/about-me/education/nlp-hse/
📪محتوای این پست در لینکدین :
https://bit.ly/30EdtD9
🔊 اسلایدها و فایل های این دوره در گیت هاب
https://plink.ir/ph6cg
______
📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت چهاردهم - انتخاب رکوردها با تعریف شروطی خاص
📚@BigDataServe
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت چهاردهم - انتخاب رکوردها با تعریف شروطی خاص
📚@BigDataServe
#business_intelligence
#ETL
🔸در گام دوم از پیاده سازی هوش تجاری در سازمان هدف، پالایش داده ها قبل از استفاده آنها برای مدلسازی داده ها و ساخت داشبوردهای مدیریتی است.
بعد از آن که داده های مورد نیاز در مرحله Extract از منابع اطلاعاتی مختلف استخراج شدند، کل عملیات تبدیل و پالایش داده ها (Transform) در یک محیط واسط به نام محل استقرار (Staging Area) انجام می شود. در آخرین مرحله از ETL، باید داده های پالایش شده از منابع مختلف در انبارداده بارگذاری شوند.
📚@BigDataServe
#ETL
🔸در گام دوم از پیاده سازی هوش تجاری در سازمان هدف، پالایش داده ها قبل از استفاده آنها برای مدلسازی داده ها و ساخت داشبوردهای مدیریتی است.
بعد از آن که داده های مورد نیاز در مرحله Extract از منابع اطلاعاتی مختلف استخراج شدند، کل عملیات تبدیل و پالایش داده ها (Transform) در یک محیط واسط به نام محل استقرار (Staging Area) انجام می شود. در آخرین مرحله از ETL، باید داده های پالایش شده از منابع مختلف در انبارداده بارگذاری شوند.
📚@BigDataServe
#business_intelligence
#ETL
🔸تغییر و پالایش داده ها شامل موارد زیر است:
🔺بررسی کیفیت داده ها: کیفیت داده ها به وسیله پرسش هایی از قبیل سوالات زیر مورد بررسی قرار می گیرند.
۱) آیا داده های گمشده در داده وجود دارند؟ اگر اینگونه است آنها چگونه نمایش داده می شوند؟
۲) داده ها صحیح هستند یا اشتباهاتی دارند؟ اگر اشتباه هستند علت چیست؟
۳) آیا داده ها کامل هستند؟ موارد مورد نیاز ما را پوشش می دهند؟
🔺پاکسازی داده ها: بالا بردن کیفیت داده ها نیازمند انتخاب تکنیک آنالیز است. این انتخاب شامل پاک کردن زیر مجموعه ای از داده های نامناسب و درج پیش فرض های مناسب می باشد.
🔺شکل دادن داده ها: این قسمت شامل عملیات ویژه ای مانند ایجاد خصوصیات مشتق شده، ایجاد رکوردهای جدید و کامل یا مقادیر تبدیل شده از خصوصیات موجود می باشد.
🔺ادغام داده ها: روش هایی وجود دارد که به وسیله آن ها اطلاعات از چند جدول ترکیب شده و این ترکیب می تواند به صورت افقی (Join) یا عمودی (Append) باشد.
🔺قالب بندی داده ها: منظور از قالب بندی داده ها، تغییر و تبدیل قواعد اولیه داده مورد نیاز برای مدلسازی می باشد.
📚@BigDataServe
#ETL
🔸تغییر و پالایش داده ها شامل موارد زیر است:
🔺بررسی کیفیت داده ها: کیفیت داده ها به وسیله پرسش هایی از قبیل سوالات زیر مورد بررسی قرار می گیرند.
۱) آیا داده های گمشده در داده وجود دارند؟ اگر اینگونه است آنها چگونه نمایش داده می شوند؟
۲) داده ها صحیح هستند یا اشتباهاتی دارند؟ اگر اشتباه هستند علت چیست؟
۳) آیا داده ها کامل هستند؟ موارد مورد نیاز ما را پوشش می دهند؟
🔺پاکسازی داده ها: بالا بردن کیفیت داده ها نیازمند انتخاب تکنیک آنالیز است. این انتخاب شامل پاک کردن زیر مجموعه ای از داده های نامناسب و درج پیش فرض های مناسب می باشد.
🔺شکل دادن داده ها: این قسمت شامل عملیات ویژه ای مانند ایجاد خصوصیات مشتق شده، ایجاد رکوردهای جدید و کامل یا مقادیر تبدیل شده از خصوصیات موجود می باشد.
🔺ادغام داده ها: روش هایی وجود دارد که به وسیله آن ها اطلاعات از چند جدول ترکیب شده و این ترکیب می تواند به صورت افقی (Join) یا عمودی (Append) باشد.
🔺قالب بندی داده ها: منظور از قالب بندی داده ها، تغییر و تبدیل قواعد اولیه داده مورد نیاز برای مدلسازی می باشد.
📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت پانزدهم - انتخاب ستون های ویژگی و ستون هدف در دیتاست
📚@BigDataServe
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت پانزدهم - انتخاب ستون های ویژگی و ستون هدف در دیتاست
📚@BigDataServe
Forwarded from آرمان بهنام (Taha)
2018_Book_IntroductionToDeepLearning.pdf
2.5 MB
#deeplearning
📝یکی از انواع پرکاربرد شبکههای عصبی، شبکه عصبی پرسپترون میباشد. در این شبکه وزنها و بایاسها میتوانند برای تولید یک هدف مشخص، آموزش داده شوند.
📙قوانین یادگیری مورد استفاده در این راستا را قوانین آموزش پرسپترون مینامند. شبکههای پرسپترون از آن جهت که توانایی مناسبی برای تکامل بهوسیله بردارهای ورودی دارند، بسیار شایان توجه میباشند.
🔖این شبکهها مخصوصاً در حل مسائل ساده طبقهبندی بسیار مناسب میباشند. این نوع شبکه عصبی در حل مسائل، بسیار سریع و قابلاطمینان است.
🖍نورون پرسپترون در صورتی که مقدار ورودی به تابع انتقال آن بیشتر از صفر باشد، مقدار 1 و در صورتی که مقدار ورودی به تابع انتقال آن کمتر از صفر باشد، مقدار صفر را تولید مینماید. تابع انتقال hardlimit به پرسپترون این امکان را میدهد که بردارهای ورودی را به دو ناحیه در فضا تقسیم نماید. اگر ورودی n کمتر از صفر باشد، ناحیه به عدد صفر و در غیر این صورت به عدد 1، نگاشت میشود.
___________
📚@Bigdataserve
📝یکی از انواع پرکاربرد شبکههای عصبی، شبکه عصبی پرسپترون میباشد. در این شبکه وزنها و بایاسها میتوانند برای تولید یک هدف مشخص، آموزش داده شوند.
📙قوانین یادگیری مورد استفاده در این راستا را قوانین آموزش پرسپترون مینامند. شبکههای پرسپترون از آن جهت که توانایی مناسبی برای تکامل بهوسیله بردارهای ورودی دارند، بسیار شایان توجه میباشند.
🔖این شبکهها مخصوصاً در حل مسائل ساده طبقهبندی بسیار مناسب میباشند. این نوع شبکه عصبی در حل مسائل، بسیار سریع و قابلاطمینان است.
🖍نورون پرسپترون در صورتی که مقدار ورودی به تابع انتقال آن بیشتر از صفر باشد، مقدار 1 و در صورتی که مقدار ورودی به تابع انتقال آن کمتر از صفر باشد، مقدار صفر را تولید مینماید. تابع انتقال hardlimit به پرسپترون این امکان را میدهد که بردارهای ورودی را به دو ناحیه در فضا تقسیم نماید. اگر ورودی n کمتر از صفر باشد، ناحیه به عدد صفر و در غیر این صورت به عدد 1، نگاشت میشود.
___________
📚@Bigdataserve
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت شانزدهم - ایجاد داده های آموزش و آزمایش و انتخاب مدل
📚@BigDataServe
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn
قسمت شانزدهم - ایجاد داده های آموزش و آزمایش و انتخاب مدل
📚@BigDataServe
📣 دوره آنلاین جامع یادگیری عمیق و هوش تجاری جهاد دانشگاهی علم و صنعت
📌۸۵ ساعت آموزش به همراه رفع اشکال و پرسش و پاسخ با اساتید دوره
⏰کد ۱: پنجشنبه ها و جمعه ها ۹ تا ۱۲
⏰کد ۲: پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
📅 ۸ آبان ماه لغایت ۱۶ بهمن ماه ۱۳۹۹
🔐انجام پروژه های واقعی متناسب با بازار کار
📋مدرک معتبر و قابل ترجمه جهاد دانشگاهی جهت ورود به بازار کار و ادامه تحصیل در خارج از کشور
🎁 بازگشت شهریه نفر اول دوره
🔴برای کسب اطلاعات بیشتر پیرامون دوره، کدهای تخفیف، رزومه اساتید و ریز سرفصل ها میتوانید به لینک زیر مراجعه فرمایید:
http://www.armanbehnam.com/about-me/education/jd-dl-bi
🔴 لینک ثبت نام کد ۱ پنجشنبه ها و جمعه ها ۹ تا ۱۲
http://www.jdrouyesh.ir/reg?rgn=41&cls=343246
🔴 لینک ثبت نام کد ۲ پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
http://www.jdrouyesh.ir/reg?rgn=41&cls=343247
📚@BigDataServe
📌۸۵ ساعت آموزش به همراه رفع اشکال و پرسش و پاسخ با اساتید دوره
⏰کد ۱: پنجشنبه ها و جمعه ها ۹ تا ۱۲
⏰کد ۲: پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
📅 ۸ آبان ماه لغایت ۱۶ بهمن ماه ۱۳۹۹
🔐انجام پروژه های واقعی متناسب با بازار کار
📋مدرک معتبر و قابل ترجمه جهاد دانشگاهی جهت ورود به بازار کار و ادامه تحصیل در خارج از کشور
🎁 بازگشت شهریه نفر اول دوره
🔴برای کسب اطلاعات بیشتر پیرامون دوره، کدهای تخفیف، رزومه اساتید و ریز سرفصل ها میتوانید به لینک زیر مراجعه فرمایید:
http://www.armanbehnam.com/about-me/education/jd-dl-bi
🔴 لینک ثبت نام کد ۱ پنجشنبه ها و جمعه ها ۹ تا ۱۲
http://www.jdrouyesh.ir/reg?rgn=41&cls=343246
🔴 لینک ثبت نام کد ۲ پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
http://www.jdrouyesh.ir/reg?rgn=41&cls=343247
📚@BigDataServe
#course #coursera #deeplearning
📒اگر به دنبال آموختن یادگیری عمیق برای پردازش تصویر و کاربردهای آن شامل تشخیص و شناسایی صورت، شناسایی پلاک خودرو، تشخیص اشیا از هم و ... هستیم، به سراغ دوره مناسبی در این زمینه یعنی دوره شبکه های عصبی کانوولوشنی سایت کورسرا می رویم که مفاهیم و مراحل را به خوبی گفته و مقالات اخیر را هم بررسی کرده و آن ها را آموزش داده است.
برای شناخت بیشتر این دوره و این زمینه به صفحه زیر بروید.
http://www.armanbehnam.com/about-me/education/coursera-cnn/
📍محتوای این پست در لینکدین :
https://plink.ir/yj6PQ
🔎 اسلاید ها و کدها در گیت هاب :
https://plink.ir/IsD78
___________
📚@BigDataServe
📒اگر به دنبال آموختن یادگیری عمیق برای پردازش تصویر و کاربردهای آن شامل تشخیص و شناسایی صورت، شناسایی پلاک خودرو، تشخیص اشیا از هم و ... هستیم، به سراغ دوره مناسبی در این زمینه یعنی دوره شبکه های عصبی کانوولوشنی سایت کورسرا می رویم که مفاهیم و مراحل را به خوبی گفته و مقالات اخیر را هم بررسی کرده و آن ها را آموزش داده است.
برای شناخت بیشتر این دوره و این زمینه به صفحه زیر بروید.
http://www.armanbehnam.com/about-me/education/coursera-cnn/
📍محتوای این پست در لینکدین :
https://plink.ir/yj6PQ
🔎 اسلاید ها و کدها در گیت هاب :
https://plink.ir/IsD78
___________
📚@BigDataServe