آرمان بهنام – Telegram
آرمان بهنام
2.12K subscribers
872 photos
512 videos
617 files
925 links
بستری جدید برای یادگیری هوش مصنوعی و علم داده

وبسایت من:
armanbehnam.github.io

ادمین کانال(پشتیبانی) : @ArmanbehnamAI_admin
Download Telegram
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت یازدهم - آشنایی با مفاهیم Hyperparameters و GridSearch

📚@BigDataServe
17000-key-performance-indicators.zip
36.9 MB
#kpimegalibrary

17000 KPIs book
آشنایی با شاخص های کلیدی عملکرد در صنایع مختلف

📚@BigDataServe
#business_intelligence

🔸در اولین گام از پیاده سازی هوش تجاری در سازمان، شما باید داده ها و منابع اطلاعاتی که داده های خود را از آنها استخراج و جمع آوری می کنید را بشناسید. در اینجا به معرفی انواع داده های موردنیاز برای تحلیل در بسیاری از مباحث داده کاوی، یادگیری ماشین و کلان داده ها می پردازیم.

📚@BigDataServe
#business_intelligence

داده ها را می توان به ۲ دسته زیر تقسیم بندی کرد:
🔺۱. داده ساختار یافته (Structured Data)
🔺۲. داده ساختار نیافته (Unstructured Data)

این ۲ نوع داده تفاوت های اساسی باهم دارند و معمولا در عملیات داده کاوی و یادگیری ماشین سعی بر این است که داده های ساختار نیافته را به داده های ساختار یافته تبدیل کرد تا برای ماشین (کامپیوتر) قابل فهم باشد.

🔸حتماً با پایگاه های داده هایی مانند Excel یا SQL Server کار کرده اید. این پایگاه ها معمولا سعی دارند که داده ها را برای کامپیوتر قابل فهم کنند. در واقع داده های ساختار یافته که در Excel یا پایگاه داده ای رابطه ای مانند SQL داریم، داده هایی هستند که می توانیم بر روی آنها عملیات مختلف را با استفاده از الگوریتم های شناخته شده کامپیوتری انجام داد، به این صورت که می گوییم داده ها برای کامپیوتر قابل فهم شده است.

🔸اما داده هایی مانند اخبار روزانه که به صورت متنی هستند یا داده های موجود در فیلم ها و ویدیوهایی که در شبکه های اجتماعی به اشتراک گذاشته می شوند، با نوع قبلی فرق دارند. آنها به خاطر تنوع قادر به نگهداری به صورت ساختار یافته در پایگاه های داده ای نیستند (اگرچه می توان آنها را به صورت خام در یک ستون از پایگاه داده ذخیره کرد). داده هایی مانند ویدیو، تصویر یا متن که بایستی پردازش های اضافه تری بر روی آنها انجام شود و زمان بیشتری می گیرند، داده های ساختار نیافته خواهند بود.

📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#multi_task_learning #meta_learning #deep_learning #meta_learning
part: 8/14

⚪️ Stanford CS330: Multi-Task and Meta-Learning, 2019 | Lecture 8 - Model-Based Reinforcement Learning





دوره متا لرنینگ دانشگاه استنفورد:
این دوره شامل مباحث پیشرفته ی deep learning و reinforcement learning است

قسمت هشتم - یادگیری تقویتی ۲

📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت دوازدهم - آشنایی با معیارهای ارزیابی عملکرد مدل های یادگیری ماشین

📚@BigDataServe
Data_Smart_Using_Data_Science_to_Transform_Information_into_Insight.pdf
64.5 MB
#book
#datascience

📘کتاب Data Smart

Using Data Science to Transform Information into Insight


📚@BigDataServe
#business_intelligence

🔸چرا ETL به عنوان گام دوم پیاده سازی BI در سازمان ها بسیار مهم و حیاتی است؟
🔺هنگامی که از انبارداده های سازمانی استفاده می شود، ETL زمینه های تاریخی و عمیقی را برای کسب و کار فراهم می آورد.
🔺با ارائه یک نمایه تلفیقی، ETL باعث می شود که تجزیه و تحلیل و گزارش داده ها و ابتکارات در ارتباط با آنها برای کاربران کسب و کار آسان تر شود.
🔺این فرایند (ETL) می تواند بهره وری حرفه ای داده ها را بهبود بخشد. زیرا این پروتکل ها رمزهای پردازش شده را مجدداً مورد استفاده قرار می دهد که همین امر باعث می شود داده ها را بدون نیاز به مهارت های فنی برای نوشتن کد یا اسکریپت انتقال داد.
🔺همچنین ETL در طول زمان تکامل یافته است تا از نیازهایی که در ارتباط با یکپارچگی برای مواردی مانند جریان داده ای بروز می کنند پشتیبانی کند.
🔺سازمان ها به ETL نیاز دارند تا داده ها را باهم تجمیع کنند، از دقت آنها اطمینان حاصل کنند و حسابرسی مورد نیاز برای انبار داده ها، گزارش دهی و تجزیه و تحلیل را فراهم آورند.

📚@BigDataServe
#deeplearning
مثال هایی از DEEP LEARNING در عمل

📍طیف زمینه هایی که از Deep Learning در آن ها استفاده شده بسیار گسترده است و از ماشین های بدون راننده تا وسایل و تجهیزات پزشکی را شامل می شود.

🅰 ماشین های بدون راننده: در تحقیقات مربوط به خودرو ها سعی می شود از Deep Learning به منظور تشخیص اشیاء مانند تابلو ها، چراغ های راهنمایی استفاده شود. علاوه بر این برای تشخیص عابران پیاده و سایر ماشین ها نیز کاربرد دارد که می تواند سبب کاهش تصادفات شود.

🅱 صنایع دفاعی: با استفاده از Deep Learning می توان به منظور تشخیص اشیاء با استفاده از ماهواره هایی که در محل مورد نظر قرار گرفته اند استفاده کرد تا محل های امن و ناامن را برای سربازها تعیین کرد.

🅾 دارویی: با استفاده از Deep Learning می توان سلول های سرطانی را تشخیص داد. تیم هایی در دانشگاه کالیفرنیا (UCLA) موفق به ساخت میکروسکوپی شدند که با استفاده از داده هایی که دارد، می تواند با عکس برداری از سلول ها تشخیص دهد که سلول ها سرطانی هستند یا خیر.

📚@Bigdataserve
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت سیزدهم - کشف ناهنجاری ها و مشکلات یکپارچه سازی داده ها

📚@BigDataServe
آموزش_مقدماتی_زبان_برنامه_نویسی_پایتون.pdf
1.2 MB
#book
#python

کتاب آموزش مقدماتی برنامه نویسی پایتون به زبان ساده

📚@BigDataServe
#business_intelligence
#ETL

🔸گام دوم پیاده سازی BI در سازمان یعنی ETL در واقع فرایندی است که در آن داده ها:
🔺از منابع اطلاعاتی مختلف استخراج و جمع آوری می شوند.
🔺مطابق با قواعد کسب و کار پالایش می شوند.
در این مرحله از عملگرهای مختلفی مانند فیلتر (Filter)، مرتب سازی (Sorting)، تجمیع (Aggregation)، اتصال (Join/ Append)، پاکسازی داده ها (Data Cleansing)، حذف داده های یکسان (Remove Duplicate) و اعتبارسنجی داده ها (Data Validation) استفاده می کنیم.
🔺در نهایت در یک انبار داده ذخیره می شوند.

🔸برای نمونه اگر قصد داریم که یک پروژه مصورسازی را با PowerBI انجام دهیم، با استفاده از کامپوننت Power Query Editor، فرایند ETL به صورت کامل روی داده ها انجام می شود. سرویس یکپارچه سازی SQL Server (SSIS) و زبان TSQL نیز به ما در فرایند ETL کمک می کنند. همچنین از زبان های برنامه نویسی Python و R در فاز پالایش داده می توانیم استفاده کنیم.

📚@BigDataServe
Forwarded from آرمان بهنام (BigDataServe)
📣 دوره آنلاین جامع یادگیری عمیق و هوش تجاری جهاد دانشگاهی علم و صنعت

📌۸۵ ساعت آموزش به همراه رفع اشکال و پرسش و پاسخ با اساتید دوره

کد ۱: پنجشنبه ها و جمعه ها ۹ تا ۱۲
کد ۲: پنجشنبه ها و جمعه ها ۱۵ تا ۱۸

📅 ۱ آبان ماه لغایت ۱۰ بهمن ماه ۱۳۹۹

🚫 ۱۵ درصد تخفیف برای اعضای این کانال

🔐انجام پروژه های واقعی متناسب با بازار کار

📋مدرک معتبر و قابل ترجمه جهاد دانشگاهی جهت ادامه تحصیل در خارج از کشور

🎁 بازگشت شهریه نفر اول دوره

🔴برای کسب اطلاعات بیشتر پیرامون دوره، کدهای تخفیف، رزومه اساتید و ریز سرفصل ها میتوانید به لینک زیر مراجعه فرمایید:
http://www.armanbehnam.com/about-me/education/jd-dl-bi

🔴 لینک ثبت نام کد ۱ پنجشنبه ها و جمعه ها ۹ تا ۱۲
http://www.jdrouyesh.ir/reg?rgn=41&cls=343246

🔴 لینک ثبت نام کد ۲ پنجشنبه ها و جمعه ها ۱۵ تا ۱۸
http://www.jdrouyesh.ir/reg?rgn=41&cls=343247

📚@BigDataServe
Forwarded from آرمان بهنام (آرمان بهنام)
#course #coursera #nlp
یکی از مهمترین و به روز ترین مباحث در هوش مصنوعی و علم داده، پردازش زبان طبیعی می باشد. برای همین یکی از معتبر ترین دوره های این زمینه را در لینک زیر تحلیل کرده ام که از دوره های سایت کورسرا و جزء مجموعه دوره های مهارت یادگیری ماشین پیشرفته می باشد.

تحلیل و بررسی محتوای دوره :
http://www.armanbehnam.com/about-me/education/nlp-hse/
📪محتوای این پست در لینکدین :
https://bit.ly/30EdtD9
🔊 اسلایدها و فایل های این دوره در گیت هاب
https://plink.ir/ph6cg
______
📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت چهاردهم - انتخاب رکوردها با تعریف شروطی خاص

📚@BigDataServe
#business_intelligence
#ETL

🔸در گام دوم از پیاده سازی هوش تجاری در سازمان هدف، پالایش داده ها قبل از استفاده آنها برای مدلسازی داده ها و ساخت داشبوردهای مدیریتی است.
بعد از آن که داده های مورد نیاز در مرحله Extract از منابع اطلاعاتی مختلف استخراج شدند، کل عملیات تبدیل و پالایش داده ها (Transform) در یک محیط واسط به نام محل استقرار (Staging Area) انجام می شود. در آخرین مرحله از ETL، باید داده های پالایش شده از منابع مختلف در انبارداده بارگذاری شوند.

📚@BigDataServe
#business_intelligence
#ETL

🔸تغییر و پالایش داده ها شامل موارد زیر است:

🔺بررسی کیفیت داده ها: کیفیت داده ها به وسیله پرسش هایی از قبیل سوالات زیر مورد بررسی قرار می گیرند.
۱) آیا داده های گمشده در داده وجود دارند؟ اگر اینگونه است آنها چگونه نمایش داده می شوند؟
۲) داده ها صحیح هستند یا اشتباهاتی دارند؟ اگر اشتباه هستند علت چیست؟
۳) آیا داده ها کامل هستند؟ موارد مورد نیاز ما را پوشش می دهند؟

🔺پاکسازی داده ها: بالا بردن کیفیت داده ها نیازمند انتخاب تکنیک آنالیز است. این انتخاب شامل پاک کردن زیر مجموعه ای از داده های نامناسب و درج پیش فرض های مناسب می باشد.

🔺شکل دادن داده ها: این قسمت شامل عملیات ویژه ای مانند ایجاد خصوصیات مشتق شده، ایجاد رکوردهای جدید و کامل یا مقادیر تبدیل شده از خصوصیات موجود می باشد.

🔺ادغام داده ها: روش هایی وجود دارد که به وسیله آن ها اطلاعات از چند جدول ترکیب شده و این ترکیب می تواند به صورت افقی (Join) یا عمودی (Append) باشد.

🔺قالب بندی داده ها: منظور از قالب بندی داده ها، تغییر و تبدیل قواعد اولیه داده مورد نیاز برای مدلسازی می باشد.

📚@BigDataServe
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت پانزدهم - انتخاب ستون های ویژگی و ستون هدف در دیتاست

📚@BigDataServe
Forwarded from آرمان بهنام (Taha)
2018_Book_IntroductionToDeepLearning.pdf
2.5 MB
#book #deep_learning

📓Introduction to deep learning
مقدمه ای بر یادگیری عمیق

📚@BigDataServe
#deeplearning
📝یکی از انواع پرکاربرد شبکه‌های عصبی، شبکه عصبی پرسپترون می‌باشد. در این شبکه وزن‌ها و بایاس‌ها می‌توانند برای تولید یک هدف مشخص، آموزش داده شوند.

📙قوانین یادگیری مورد استفاده در این راستا را قوانین آموزش پرسپترون می‌نامند. شبکه‌های پرسپترون از آن جهت که توانایی مناسبی برای تکامل به‌وسیله بردارهای ورودی دارند، بسیار شایان توجه می‌باشند.

🔖این شبکه‌ها مخصوصاً در حل مسائل ساده طبقه‌بندی بسیار مناسب می‌باشند. این نوع شبکه عصبی در حل مسائل، بسیار سریع و قابل‌اطمینان است.

🖍نورون پرسپترون در صورتی که مقدار ورودی به تابع انتقال آن بیشتر از صفر باشد، مقدار 1 و در صورتی که مقدار ورودی به تابع انتقال آن کمتر از صفر باشد، مقدار صفر را تولید می‌نماید. تابع انتقال hardlimit به پرسپترون این امکان را می‌دهد که بردار‌های ورودی را به دو ناحیه در فضا تقسیم نماید. اگر ورودی n کمتر از صفر باشد، ناحیه به عدد صفر و در غیر این صورت به عدد 1، نگاشت می‌شود.
___________
📚@Bigdataserve
Media is too big
VIEW IN TELEGRAM
#machinelearning
#scikit_learn
🔸دوره آموزش یادگیری ماشین با کتابخانه Scikit-learn

قسمت شانزدهم - ایجاد داده های آموزش و آزمایش و انتخاب مدل

📚@BigDataServe