چرا به یک متخصص علمداده تبدیل شویم؟
همواره انتخاب حوزه کاری در میان فیلدهای کاری مختلف و متنوع یکی از موضوعات چالشی و البته بسیار مهم بوده است. در شکل فوق دلایل اصلی جهت تبدیل شدن به یک متخصص علمداده بیان گردیده است.
اگر در رشتههای مهندسی نرمافزار، هوش مصنوعی، آمار، مدیریت فناوری اطلاعات و... تحصیل میکنید انتخاب فیلد کاری Data Science با توجه به افزایش بسیار میزان تقاضا شرکتها جهت جذب متخصصین علمداده، میزان درآمد،تاثیرگذاری در سطوح سازمانی و ملی و... میتواند یکی از بهترین تصمیمات شما باشد.
پینوشت:
قابل ذکر است که جهت موفقیت در حوزه علمداده لزوما به تخصصهای آکادمیک در رشتههای مشخصی نیاز نیست. علاقهمندی، پشتکار، تمرین، پیادهسازیهای عملی و... سبب موفقیت شما در این فیلد کاری خواهد شد.
@DataAnalysis
همواره انتخاب حوزه کاری در میان فیلدهای کاری مختلف و متنوع یکی از موضوعات چالشی و البته بسیار مهم بوده است. در شکل فوق دلایل اصلی جهت تبدیل شدن به یک متخصص علمداده بیان گردیده است.
اگر در رشتههای مهندسی نرمافزار، هوش مصنوعی، آمار، مدیریت فناوری اطلاعات و... تحصیل میکنید انتخاب فیلد کاری Data Science با توجه به افزایش بسیار میزان تقاضا شرکتها جهت جذب متخصصین علمداده، میزان درآمد،تاثیرگذاری در سطوح سازمانی و ملی و... میتواند یکی از بهترین تصمیمات شما باشد.
پینوشت:
قابل ذکر است که جهت موفقیت در حوزه علمداده لزوما به تخصصهای آکادمیک در رشتههای مشخصی نیاز نیست. علاقهمندی، پشتکار، تمرین، پیادهسازیهای عملی و... سبب موفقیت شما در این فیلد کاری خواهد شد.
@DataAnalysis
مسیر یادگیری مهندسی داده!
https://bit.ly/2UAJ1cL
مهندسی داده یا Data Engineering یکی از مشاغل جذاب حوزه Data میباشد که بهتازگی نیز توجهات به آن بسیار افزایشیافته است. مدیریت جریان داده، استقرار فرایندهای ETL، طراحی معماری، پیادهسازی و نگهداری انبار داده، توسعه سیستمهای نرمافزاری مبتنی بر داده و... از فعالیتها اصلی یک مهندس داده میباشد.
در تصویر زیر مهارتها و گامهای تبدیلشدن به یک مهندس داده بیانشده است. بهصورت کلی جهت کسب تخصص در این فیلد کاری به مهارتهای زیر نیاز خواهد داشت:
1- دانش تخصصی برنامهنویسی:
کسب دانش پایه در حوزه سیستمعاملهای مبتنی بر لینوکس و زبانهای برنامهنویسی همانند Scala بنا به قابلیتهای آن در حوزه Big Data از مهارتهای پایهای ورود به این حوزه تخصصی میباشد.
2- استقرار فرایند ETL:
طراحی و پیادهسازی فرایند ETL بنا به دغدغهها و نیازمندیها، مدیریت جریان داده سازمان و توانایی کار با انواع پایگاه دادهها نیز در این فیلد کاری حائز اهمیت است.
3- موتورهای پردازشی کلان داده:
با توجه به افزایش حجم دادهها، دو حوزه مهندسی داده و توسعهدهنده کلان داده به یکدیگر بسیار نزدیک گردیدهاند. توانایی کار با موتور پردازشی کلان داده آپاچی Spark از مهارتهایی میباشد که اگر قصد فعالیت در این حوزه را دارید میبایست در خود تقویت نمایید.
4- مدیریت جریانهای بلادرنگ داده:
یکی از مؤلفههای کلان داده حوزه Velocity یا سرعت نرخ تولید دادهها میباشد. در صورت افزایش حجم دادگان ورودی به سیستمهای نرمافزاری با بهرهگیری از ابزارها و پلتفرمهایی از قبیل Kafka، آپاچی Storm یا Flink امکان مدیریت این دادگان فراهم خواهد گردید.
5- مهندسی یادگیری ماشین:
توسعه مدلهای مبتنی بر یادگیری ماشین از وظایف اصلی متخصصین داده یا Data Scientist میباشد. در حوزه مهندسی داده گام استقرار مدلهای توسعه دادهشده و خودکاری سازی این فرایندها صورت میپذیرد.
ارادتمند
محمدرضا محتاط
@DataAnalysis
https://bit.ly/2UAJ1cL
مهندسی داده یا Data Engineering یکی از مشاغل جذاب حوزه Data میباشد که بهتازگی نیز توجهات به آن بسیار افزایشیافته است. مدیریت جریان داده، استقرار فرایندهای ETL، طراحی معماری، پیادهسازی و نگهداری انبار داده، توسعه سیستمهای نرمافزاری مبتنی بر داده و... از فعالیتها اصلی یک مهندس داده میباشد.
در تصویر زیر مهارتها و گامهای تبدیلشدن به یک مهندس داده بیانشده است. بهصورت کلی جهت کسب تخصص در این فیلد کاری به مهارتهای زیر نیاز خواهد داشت:
1- دانش تخصصی برنامهنویسی:
کسب دانش پایه در حوزه سیستمعاملهای مبتنی بر لینوکس و زبانهای برنامهنویسی همانند Scala بنا به قابلیتهای آن در حوزه Big Data از مهارتهای پایهای ورود به این حوزه تخصصی میباشد.
2- استقرار فرایند ETL:
طراحی و پیادهسازی فرایند ETL بنا به دغدغهها و نیازمندیها، مدیریت جریان داده سازمان و توانایی کار با انواع پایگاه دادهها نیز در این فیلد کاری حائز اهمیت است.
3- موتورهای پردازشی کلان داده:
با توجه به افزایش حجم دادهها، دو حوزه مهندسی داده و توسعهدهنده کلان داده به یکدیگر بسیار نزدیک گردیدهاند. توانایی کار با موتور پردازشی کلان داده آپاچی Spark از مهارتهایی میباشد که اگر قصد فعالیت در این حوزه را دارید میبایست در خود تقویت نمایید.
4- مدیریت جریانهای بلادرنگ داده:
یکی از مؤلفههای کلان داده حوزه Velocity یا سرعت نرخ تولید دادهها میباشد. در صورت افزایش حجم دادگان ورودی به سیستمهای نرمافزاری با بهرهگیری از ابزارها و پلتفرمهایی از قبیل Kafka، آپاچی Storm یا Flink امکان مدیریت این دادگان فراهم خواهد گردید.
5- مهندسی یادگیری ماشین:
توسعه مدلهای مبتنی بر یادگیری ماشین از وظایف اصلی متخصصین داده یا Data Scientist میباشد. در حوزه مهندسی داده گام استقرار مدلهای توسعه دادهشده و خودکاری سازی این فرایندها صورت میپذیرد.
ارادتمند
محمدرضا محتاط
@DataAnalysis
مدیریت نوین منابع انسانی!
http://tiny.cc/64694y
در دنیای امروز، سرمایههای انسانی بهعنوان با ارزشترین منابع سازمانی، به سازمان معنا و مفهوم میبخشند و زمینه تحقق اهداف سازمانی را فراهم میکنند. رشد و توسعه سازمانها و در پی آن جامعه و کشور، در گرو استفاده صحیح از سرمایههای انسانی است. اگر جامعهای از این مزیت رقابتی برخوردار نباشد بهطورقطع نمیتواند به هدفهای موردنظر خود دست یابد.
تصمیمگیری اثربخش و کارا در حوزه مدیریت منابع انسانی، مزایای رقابتی مهمی برای سازمانها در پی دارد. علیرغم وجود دادهها و اطلاعات فراوان در سازمانها در ارتباط با منابع انسانی بعضاً این دادهها به شیوهای اثربخش مورد تحلیل و استفاده قرار نمیگیرند.
در ادامه برخی از کارکردها و کاربردهای حوزه تحلیل داده در جهت استقرار مدیریت منابع انسانی داده محور تقدیم حضور میگردد.
1- پایش هوشمند شبکههای اجتماعی و گروههای تخصصی در جهت شناسایی متخصصین مورد نیاز
2- جذب و استخدام کارکنان اثربخش بر اساس عملکرد رفتاری گذشته کارکنان سازمان
3- ارزیابی مستمر میزان رضایت شغلی کارکنان
4- پیشبینی افت عملکرد کارکنان و بخشهای سازمان
5- مدیریت بهینه تعدیل ( اولویتبندی کارکنان جهت تعدیل )
6- تحلیل عملکرد کارکنان بر اساس شاخصهای عملیاتی
7- هوشمند سازی نظام پاداش و پرداخت
8- ارائه آموزشهای شخصیسازیشده بنا به نیازمندیهای کارکنان
افزایش بهرهوری، انگيزه، رضايت شغلي، بهبود کيفيت زندگي کاري، و تحقق اهداف سازمان تنها بخشی از دستاوردهای مدیریت بهینه و هوشمندانه منابع انسانی میباشد.
"مدیریت مؤثر نیروی کار از طریق تجزیهوتحلیل داده منابع انسانی نیاز به یک تغییر در طرز فکر دارد. "
پینوشت:
روز منابع انسانی را خدمت همه کارشناسان و مدیران منابع انسانی تبریک عرض میکنیم. افرادی که میتوانند شرکتها و به طبع جهان را بهجایی بهتر برای زندگی کردن تبدیل نمایند.
ارادتمند
محمدرضا محتاط
@DataAnalysis
http://tiny.cc/64694y
در دنیای امروز، سرمایههای انسانی بهعنوان با ارزشترین منابع سازمانی، به سازمان معنا و مفهوم میبخشند و زمینه تحقق اهداف سازمانی را فراهم میکنند. رشد و توسعه سازمانها و در پی آن جامعه و کشور، در گرو استفاده صحیح از سرمایههای انسانی است. اگر جامعهای از این مزیت رقابتی برخوردار نباشد بهطورقطع نمیتواند به هدفهای موردنظر خود دست یابد.
تصمیمگیری اثربخش و کارا در حوزه مدیریت منابع انسانی، مزایای رقابتی مهمی برای سازمانها در پی دارد. علیرغم وجود دادهها و اطلاعات فراوان در سازمانها در ارتباط با منابع انسانی بعضاً این دادهها به شیوهای اثربخش مورد تحلیل و استفاده قرار نمیگیرند.
در ادامه برخی از کارکردها و کاربردهای حوزه تحلیل داده در جهت استقرار مدیریت منابع انسانی داده محور تقدیم حضور میگردد.
1- پایش هوشمند شبکههای اجتماعی و گروههای تخصصی در جهت شناسایی متخصصین مورد نیاز
2- جذب و استخدام کارکنان اثربخش بر اساس عملکرد رفتاری گذشته کارکنان سازمان
3- ارزیابی مستمر میزان رضایت شغلی کارکنان
4- پیشبینی افت عملکرد کارکنان و بخشهای سازمان
5- مدیریت بهینه تعدیل ( اولویتبندی کارکنان جهت تعدیل )
6- تحلیل عملکرد کارکنان بر اساس شاخصهای عملیاتی
7- هوشمند سازی نظام پاداش و پرداخت
8- ارائه آموزشهای شخصیسازیشده بنا به نیازمندیهای کارکنان
افزایش بهرهوری، انگيزه، رضايت شغلي، بهبود کيفيت زندگي کاري، و تحقق اهداف سازمان تنها بخشی از دستاوردهای مدیریت بهینه و هوشمندانه منابع انسانی میباشد.
"مدیریت مؤثر نیروی کار از طریق تجزیهوتحلیل داده منابع انسانی نیاز به یک تغییر در طرز فکر دارد. "
پینوشت:
روز منابع انسانی را خدمت همه کارشناسان و مدیران منابع انسانی تبریک عرض میکنیم. افرادی که میتوانند شرکتها و به طبع جهان را بهجایی بهتر برای زندگی کردن تبدیل نمایند.
ارادتمند
محمدرضا محتاط
@DataAnalysis
برترین مهارتهای متخصصین علمداده!
http://bit.do/eP8ng
براساس گزارش Forbes در سال 2019، برترین مهارتها، ابزارها و پلتفرمهای حوزه علمداده براساس تحلیل فرصتهای شغلی شبکه اجتماعی لینکدین به شرح زیر است.
1- Python
2- R
3- SQL
4- Jupyter Notebooks
5- Unix shell
6- AWS
7- Tensorflow
8- Tableau
9- C/C++
10- Hadoop / Pig / Hive
@DataAnalysis
http://bit.do/eP8ng
براساس گزارش Forbes در سال 2019، برترین مهارتها، ابزارها و پلتفرمهای حوزه علمداده براساس تحلیل فرصتهای شغلی شبکه اجتماعی لینکدین به شرح زیر است.
1- Python
2- R
3- SQL
4- Jupyter Notebooks
5- Unix shell
6- AWS
7- Tensorflow
8- Tableau
9- C/C++
10- Hadoop / Pig / Hive
@DataAnalysis
پروژههای کلان داده؛ واقعیت تا شکست!
http://tiny.cc/big-data-architecture
کلان داده یا Big Data اصطلاحی برای مجموعه دادههای حجیم، متنوع و دارای نرخ تولید بسیار بالا میباشد که با ابزارهای سنتی امکان ذخیرهسازی، نگهداری و تحلیل آن وجود ندارد. بهعنوانمثال راهاندازی یک شبکه اجتماعی همانند تلگرام یا توییتر با توجه به میزان حجم دادگان، تنوع در دادهها(متن، تصویر، صوت و...) و نرخ تولید دادهها نیازمند بهرهگیری از پلتفرمها و ابزارهای کلان داده هست.
با توجه به کاربردها و قابلیتهای این حوزه در کشور، پروژههای متعددی با محوریت Big Data در شرکتها و سازمانهای مختلفی در صنایع بانکداری، تلکام، بیمه و... آغاز شده است. پروژههای که بعضاً با شکست مواجه شدهاند. شکستی که علاوه بر ایجاد مشکلات سازمانی و هدر رفتن منابع، سبب کاهش اعتماد شرکتها به قابلیتهای تحلیل داده و کلان داده نیز میشود.
مشکلاتی از قبیل توجه صرف به ابزارهای فنی، عدم تدوین استراتژیهای پروژه، عدم شناخت از نیازمندیهای کارفرما، خلأ تحلیل نیازمندیها و مهارتهای موردنیاز حین پروژه، مدیریت توقع و مشکلات سازمانی از رایجترین دلایل این شکستها هست.
در ادامه یک معماری منطبق با اکوسیستم آپاچی هدوپ(Hadoop) بهعنوان اکوسیستم مرجع کلان داده جهت مدیریت پروژههای کلان داده پیشنهاد میشود. معماری زیر از 10 لایه و در دو بخش فنی و کارکردی تشکیلشده است. لایههایی که تمامی مؤلفههای مؤثر در پروژههای Big Data شامل زیرساخت، مدیریت داده، تحلیل، امنیت و... را پوشش خواهد داد.
لایههای معماری کلان داده:
1- لایه منابع داده (Data Sources)
2- لایه فروبری داده (Ingestion Layer)
3- لایه زیرساخت هدوپ (Hadoop Infrastructure Layer)
4- لایه ذخیرهسازی هدوپ (Hadoop Storage Layer)
5- لایه مدیریت سکو هدوپ (Hadoop Platform Management Layer)
6- لایه انبار داده (Data Warehouses)
7- لایه موتورهای تحلیلی (Analytics Engines)
8- لایه مصورسازی (Visualization Layer)
9- لایه امنیت (Security Layer)
10- لایه نظارت (Monitoring Layer)
قابلذکر است که در تمامی لایههای فوق گامهای امکانسنجی، ارزیابی بلوغ، تحلیل نیازمندیها و... بهصورت کامل و جامع میبایست انجام پذیرد.
مؤلفههای مقیاسپذیری، میزان دسترسپذیری، قابلیت نگهداری، کارایی و... نیز بهعنوان کارکردهای غیرعملیاتی نیز بهصورت مجزا باید مورد تحلیل و بررسی قرار گیرند.
پینوشت:
طبق بررسی موسسه گارتنر بیش از 60 درصد پروژههای Big Data در سال 2017 نیز با شکست مواجه شدهاند. این عدد قابلتأمل نشان از پیچیدگیهای گسترده در اجرا و پیادهسازی پروژههای Big Data در سطح جهانی نیز هست. مشکلاتی که بعضاً علل آن را باید در حوزههای غیر تکنیکال جست.
ارادتمند
محمدرضا محتاط
@DataAnalysis
http://tiny.cc/big-data-architecture
کلان داده یا Big Data اصطلاحی برای مجموعه دادههای حجیم، متنوع و دارای نرخ تولید بسیار بالا میباشد که با ابزارهای سنتی امکان ذخیرهسازی، نگهداری و تحلیل آن وجود ندارد. بهعنوانمثال راهاندازی یک شبکه اجتماعی همانند تلگرام یا توییتر با توجه به میزان حجم دادگان، تنوع در دادهها(متن، تصویر، صوت و...) و نرخ تولید دادهها نیازمند بهرهگیری از پلتفرمها و ابزارهای کلان داده هست.
با توجه به کاربردها و قابلیتهای این حوزه در کشور، پروژههای متعددی با محوریت Big Data در شرکتها و سازمانهای مختلفی در صنایع بانکداری، تلکام، بیمه و... آغاز شده است. پروژههای که بعضاً با شکست مواجه شدهاند. شکستی که علاوه بر ایجاد مشکلات سازمانی و هدر رفتن منابع، سبب کاهش اعتماد شرکتها به قابلیتهای تحلیل داده و کلان داده نیز میشود.
مشکلاتی از قبیل توجه صرف به ابزارهای فنی، عدم تدوین استراتژیهای پروژه، عدم شناخت از نیازمندیهای کارفرما، خلأ تحلیل نیازمندیها و مهارتهای موردنیاز حین پروژه، مدیریت توقع و مشکلات سازمانی از رایجترین دلایل این شکستها هست.
در ادامه یک معماری منطبق با اکوسیستم آپاچی هدوپ(Hadoop) بهعنوان اکوسیستم مرجع کلان داده جهت مدیریت پروژههای کلان داده پیشنهاد میشود. معماری زیر از 10 لایه و در دو بخش فنی و کارکردی تشکیلشده است. لایههایی که تمامی مؤلفههای مؤثر در پروژههای Big Data شامل زیرساخت، مدیریت داده، تحلیل، امنیت و... را پوشش خواهد داد.
لایههای معماری کلان داده:
1- لایه منابع داده (Data Sources)
2- لایه فروبری داده (Ingestion Layer)
3- لایه زیرساخت هدوپ (Hadoop Infrastructure Layer)
4- لایه ذخیرهسازی هدوپ (Hadoop Storage Layer)
5- لایه مدیریت سکو هدوپ (Hadoop Platform Management Layer)
6- لایه انبار داده (Data Warehouses)
7- لایه موتورهای تحلیلی (Analytics Engines)
8- لایه مصورسازی (Visualization Layer)
9- لایه امنیت (Security Layer)
10- لایه نظارت (Monitoring Layer)
قابلذکر است که در تمامی لایههای فوق گامهای امکانسنجی، ارزیابی بلوغ، تحلیل نیازمندیها و... بهصورت کامل و جامع میبایست انجام پذیرد.
مؤلفههای مقیاسپذیری، میزان دسترسپذیری، قابلیت نگهداری، کارایی و... نیز بهعنوان کارکردهای غیرعملیاتی نیز بهصورت مجزا باید مورد تحلیل و بررسی قرار گیرند.
پینوشت:
طبق بررسی موسسه گارتنر بیش از 60 درصد پروژههای Big Data در سال 2017 نیز با شکست مواجه شدهاند. این عدد قابلتأمل نشان از پیچیدگیهای گسترده در اجرا و پیادهسازی پروژههای Big Data در سطح جهانی نیز هست. مشکلاتی که بعضاً علل آن را باید در حوزههای غیر تکنیکال جست.
ارادتمند
محمدرضا محتاط
@DataAnalysis
کتاب Storytelling with data
یکی از گامهای اصولی جهت موفقیت در پروژههای تحلیل داده، بهرهگیری از متدها و اصول مصورسازی داده (Data Visualization) جهت ارائه نتایج و خروجیهای مدلهای تحلیلی به ذینفعان و مدیران میباشد.
در کتاب "داستانسرایی با داده" اصول و مفاهیم مصورسازی داده در محورهای زیر آموزش داده میشود.
*تحلیل مخاطبان و ذینفعان
* آشنایی با کارکردها و قابلیتهای نمودارهای تحلیلی
* انتخاب نمودار مناسب جهت مصورسازی اطلاعات
* طراحی نمودارهای تحلیلی
* شناسایی مشکلات رایج نمودارهای تحلیلی
مطالعه کتاب فوق را به همه علاقهمندان و متخصصین حوزه علمداده توصیه میکنم.
@DataAnalysis
یکی از گامهای اصولی جهت موفقیت در پروژههای تحلیل داده، بهرهگیری از متدها و اصول مصورسازی داده (Data Visualization) جهت ارائه نتایج و خروجیهای مدلهای تحلیلی به ذینفعان و مدیران میباشد.
در کتاب "داستانسرایی با داده" اصول و مفاهیم مصورسازی داده در محورهای زیر آموزش داده میشود.
*تحلیل مخاطبان و ذینفعان
* آشنایی با کارکردها و قابلیتهای نمودارهای تحلیلی
* انتخاب نمودار مناسب جهت مصورسازی اطلاعات
* طراحی نمودارهای تحلیلی
* شناسایی مشکلات رایج نمودارهای تحلیلی
مطالعه کتاب فوق را به همه علاقهمندان و متخصصین حوزه علمداده توصیه میکنم.
@DataAnalysis
برترین الگوریتمهای یادگیری ماشین و علمداده در سال 2019
براساس نظرسنجی وبسایت Kdnuggets از متخصصین علمداده، به ترتیب متدها و الگوریتمهای رگرسیون، درخت تصمیم، خوشهبندی و مصورسازی دادهها از رایجترین متدهای استفاده شده در پروژههای علمداده در سال 2019 بودهاند.
افزایش توجهات به روشهای مبتنی بر شبکههای عصبی، یادگیری عمیق و سریهای زمانی از نکات قابل توجه در مقایسه با سال 2017 است.
قابل ذکر است که انتخاب الگوریتم بهینه براساس نیازمندیهای تحلیلی پروژه، نوع دادگان و... انتخاب میشود. انتخابی که ممکن است سبب موفقیت یا شکست پروژههای علمداده شود.
@DataAnalysis
براساس نظرسنجی وبسایت Kdnuggets از متخصصین علمداده، به ترتیب متدها و الگوریتمهای رگرسیون، درخت تصمیم، خوشهبندی و مصورسازی دادهها از رایجترین متدهای استفاده شده در پروژههای علمداده در سال 2019 بودهاند.
افزایش توجهات به روشهای مبتنی بر شبکههای عصبی، یادگیری عمیق و سریهای زمانی از نکات قابل توجه در مقایسه با سال 2017 است.
قابل ذکر است که انتخاب الگوریتم بهینه براساس نیازمندیهای تحلیلی پروژه، نوع دادگان و... انتخاب میشود. انتخابی که ممکن است سبب موفقیت یا شکست پروژههای علمداده شود.
@DataAnalysis
پیچیدگیهای فعالیت در حوزه علمداده!
http://tiny.cc/oex85y
مقالات متعددی پیرامون مزایای حوزه علمداده منتشرشده است. ویژگیهایی از قبیل درآمد بالا، میزان تأثیرگذاری در سطوح سازمانی و ملی، میزان تقاضای بازار کار و... همگی نشان از این مزایا دارند.
در این مطلب هدف ارائه پیچیدگیهای حوزه علمداده است تا اگر قصد دارید بهصورت تخصصی در این فیلد فعالیت نمایید به آنها آگاه باشید.
1- کسب تخصص:
با توجه وجود طیف وسیعی از مهارتها، ابزارها و پلتفرمها در حوزه علمداده، کسب تخصص جامع در این فیلد کاری امری بسیار دشوار و پیچیده میباشد. امری که نیازمند صرف زمان و یادگیری مستمر در حوزههای متنوع خواهد بود.
2- دانش بینرشتهای:
نوع نگاه علمداده به مسائل از منظرهای آمار، مهندسی کامپیوتر، کسبوکار و... قابل افراز میباشد. لذا اگر قصد فعالیت در پروژههای علمداده را دارید میبایست با دانشهای پایهای بخصوص در مفاهیم بینرشتهای آشنا باشید.
3- دادههای کثیف:
یکی از پیچیدگیهای پروژههای علمداده وجود دادههای کثیف یا عدم دسترسی به دادههای مناسب در پروژهها است. وجود این قبیل مشکلات سبب هدر رفتن انرژی و زمان زیادی خواهد شد. مشکلاتی که در کشور ما با توجه به میزان بلوغ فناوری اطلاعات بسیار مشهودتر میباشد.
4- حریم خصوصی:
مدیریت حریم خصوصی یکی از چالشهای مطرح پروژههای علمداده و سازمانهای دادهمحور در سالهای اخیر میباشد. افشای اطلاعات خصوصی و محرمانه یکی از چالشهای عمده شرکتهای فعال در حوزه ارائه خدمات تحلیل داده میباشد.
5- تیم سازی:
یکی از چالشهای سازمانهای فعال در حوزه علمداده، جذب متخصصین و تیم سازی میباشد. کمبود متخصصین علمداده واقعی، چالشهای سازمانی و... از مشکلاتی هست که میتوانند در موفقیت و شکست پروژهها بسیار تأثیرگذار باشند.
ارادتمند
محمدرضا محتاط
@DataAnalysis
http://tiny.cc/oex85y
مقالات متعددی پیرامون مزایای حوزه علمداده منتشرشده است. ویژگیهایی از قبیل درآمد بالا، میزان تأثیرگذاری در سطوح سازمانی و ملی، میزان تقاضای بازار کار و... همگی نشان از این مزایا دارند.
در این مطلب هدف ارائه پیچیدگیهای حوزه علمداده است تا اگر قصد دارید بهصورت تخصصی در این فیلد فعالیت نمایید به آنها آگاه باشید.
1- کسب تخصص:
با توجه وجود طیف وسیعی از مهارتها، ابزارها و پلتفرمها در حوزه علمداده، کسب تخصص جامع در این فیلد کاری امری بسیار دشوار و پیچیده میباشد. امری که نیازمند صرف زمان و یادگیری مستمر در حوزههای متنوع خواهد بود.
2- دانش بینرشتهای:
نوع نگاه علمداده به مسائل از منظرهای آمار، مهندسی کامپیوتر، کسبوکار و... قابل افراز میباشد. لذا اگر قصد فعالیت در پروژههای علمداده را دارید میبایست با دانشهای پایهای بخصوص در مفاهیم بینرشتهای آشنا باشید.
3- دادههای کثیف:
یکی از پیچیدگیهای پروژههای علمداده وجود دادههای کثیف یا عدم دسترسی به دادههای مناسب در پروژهها است. وجود این قبیل مشکلات سبب هدر رفتن انرژی و زمان زیادی خواهد شد. مشکلاتی که در کشور ما با توجه به میزان بلوغ فناوری اطلاعات بسیار مشهودتر میباشد.
4- حریم خصوصی:
مدیریت حریم خصوصی یکی از چالشهای مطرح پروژههای علمداده و سازمانهای دادهمحور در سالهای اخیر میباشد. افشای اطلاعات خصوصی و محرمانه یکی از چالشهای عمده شرکتهای فعال در حوزه ارائه خدمات تحلیل داده میباشد.
5- تیم سازی:
یکی از چالشهای سازمانهای فعال در حوزه علمداده، جذب متخصصین و تیم سازی میباشد. کمبود متخصصین علمداده واقعی، چالشهای سازمانی و... از مشکلاتی هست که میتوانند در موفقیت و شکست پروژهها بسیار تأثیرگذار باشند.
ارادتمند
محمدرضا محتاط
@DataAnalysis
زبانهای برنامهنویسی حوزه علمداده!
در حوزه علمداده زبانهای برنامهنویسی مطرحی همچون پایتون، SAS, Scala, SQL, R و... وجود دارد که هر یک بنا به کارکردها و کاربردهای خود در پروژههای مختلفی قابلیت بهرهبرداری را دارند.
انتخاب زبان برنامهنویسی بهینه یکی از عوامل موفقیت در پروژههای تحلیل داده میباشد. بعنوان مثال در حوزه یادگیری عمیق، تحلیل کلانداده، توسعه دهنده کلانداده، تحلیلهای آماری و... هر کدام از این زبانها قابلیتهای منحصر به فرد خود را دارا میباشند.
در شکلهای فوق ویژگیهای زبانهای برنامه نویسی پایتون، R و Scala به تفکیک بیان شده است.
@DataAnalysis
در حوزه علمداده زبانهای برنامهنویسی مطرحی همچون پایتون، SAS, Scala, SQL, R و... وجود دارد که هر یک بنا به کارکردها و کاربردهای خود در پروژههای مختلفی قابلیت بهرهبرداری را دارند.
انتخاب زبان برنامهنویسی بهینه یکی از عوامل موفقیت در پروژههای تحلیل داده میباشد. بعنوان مثال در حوزه یادگیری عمیق، تحلیل کلانداده، توسعه دهنده کلانداده، تحلیلهای آماری و... هر کدام از این زبانها قابلیتهای منحصر به فرد خود را دارا میباشند.
در شکلهای فوق ویژگیهای زبانهای برنامه نویسی پایتون، R و Scala به تفکیک بیان شده است.
@DataAnalysis
This media is not supported in your browser
VIEW IN TELEGRAM
تاثیرات هوش مصنوعی بر اقتصاد جهان!
در این ویدیو کوتاه با تاثیرات هوش مصنوعی بر اقتصاد جهان تا سال 2030 آشنا خواهید شد.
◾️تاثیر 16 هزار میلیارد دلاری بر اقتصاد جهان
▪️تغییرات محسوس در زندگی شخصی و کاری
▪️افزایش تولید ناخالص داخلی کشورها(GDP)
▪️رشد صنایع خردهفروشی، مالی و سلامت
▪️رشد قابل توجه کشورهای آسیایی همچون چین و هند
موارد فوق تنها بخشی از تاثیرات هوشمصنوعی طی دهه آینده خواهد بود.
میزان بهرهبرداری کشور ما از این تغییر و تحولات چه میزان میباشد؟!
ارادتمند
محمدرضا محتاط
@DataAnalysis
در این ویدیو کوتاه با تاثیرات هوش مصنوعی بر اقتصاد جهان تا سال 2030 آشنا خواهید شد.
◾️تاثیر 16 هزار میلیارد دلاری بر اقتصاد جهان
▪️تغییرات محسوس در زندگی شخصی و کاری
▪️افزایش تولید ناخالص داخلی کشورها(GDP)
▪️رشد صنایع خردهفروشی، مالی و سلامت
▪️رشد قابل توجه کشورهای آسیایی همچون چین و هند
موارد فوق تنها بخشی از تاثیرات هوشمصنوعی طی دهه آینده خواهد بود.
میزان بهرهبرداری کشور ما از این تغییر و تحولات چه میزان میباشد؟!
ارادتمند
محمدرضا محتاط
@DataAnalysis
معرفی فیلم Ex Machina
فیلم فراماشین یک فیلمی در ژانر علمی، درام و هیجانی است. در این فیلم با استفاده از یک ایده داستانی تاملبرانگیز، داستانی هیجانی از زندگی یک ربات هوشمند به نمایش گذاشته میشود.
در این فیلم یک برنامهنویس جوان جهت ارزیابی خصوصیات انسانی یک ربات مؤنث انتخاب میشود. این ربات آوا نام دارد و آخرین نسخه از پیشالگوهای هوش مصنوعی ساخته شده توسط یک دانشمند نابغه است.
پایه این فیلم براساس آزمون تورینگ تولید شده است. آلن تورینگ اعتقاد داشت که اگر ماشینی بتواند خود را از انسان غیرقابل تميز کند، بيشك میتوان برچسب هوشمندبودن را بر آن زد.
مطالعه این فیلم جذاب را به همه علاقهمندان حوزه هوش مصنوعی پیشنهاد میکنم.
@DataAnalysis
فیلم فراماشین یک فیلمی در ژانر علمی، درام و هیجانی است. در این فیلم با استفاده از یک ایده داستانی تاملبرانگیز، داستانی هیجانی از زندگی یک ربات هوشمند به نمایش گذاشته میشود.
در این فیلم یک برنامهنویس جوان جهت ارزیابی خصوصیات انسانی یک ربات مؤنث انتخاب میشود. این ربات آوا نام دارد و آخرین نسخه از پیشالگوهای هوش مصنوعی ساخته شده توسط یک دانشمند نابغه است.
پایه این فیلم براساس آزمون تورینگ تولید شده است. آلن تورینگ اعتقاد داشت که اگر ماشینی بتواند خود را از انسان غیرقابل تميز کند، بيشك میتوان برچسب هوشمندبودن را بر آن زد.
مطالعه این فیلم جذاب را به همه علاقهمندان حوزه هوش مصنوعی پیشنهاد میکنم.
@DataAnalysis
متخصص علمداده؛ برترین شغل در سال 2019
براساس آخرین رتبهبندی مشاغل توسط وبسایت Careercast در مولفههای محیط کاری، میزان استرس کاری و میزان رشد پروژههای مرتبط، متخصصین علمداده با میانگین درآمد سالیانه 114 هزار دلار در جایگاه اول این لیست قرار داد.
10 شغل برتر ایالات متحده آمریکا در سال 2019 به شرح ذیل است:
1️⃣ متخصصین علمداده (Data Scientist)
2️⃣ متخصصین آمار( Statistician)
3️⃣ استاد دانشگاه (University Professor)
4️⃣ متخصص کاردرمانی (Occupational Therapist)
5️⃣ مشاور ژنتیک (Genetic Counselor)
6️⃣ مدیر خدمات پزشکی (Medical Services Manager)
7️⃣ تحلیلگر امنیت اطلاعات (Information Security Analyst)
8️⃣ متخصص ریاضی (Mathematician)
9️⃣ تحلیلگر تحقیق در عملیات (Operations Research Analyst)
🔟 دبیر (Actuary)
@DataAnalysis
براساس آخرین رتبهبندی مشاغل توسط وبسایت Careercast در مولفههای محیط کاری، میزان استرس کاری و میزان رشد پروژههای مرتبط، متخصصین علمداده با میانگین درآمد سالیانه 114 هزار دلار در جایگاه اول این لیست قرار داد.
10 شغل برتر ایالات متحده آمریکا در سال 2019 به شرح ذیل است:
1️⃣ متخصصین علمداده (Data Scientist)
2️⃣ متخصصین آمار( Statistician)
3️⃣ استاد دانشگاه (University Professor)
4️⃣ متخصص کاردرمانی (Occupational Therapist)
5️⃣ مشاور ژنتیک (Genetic Counselor)
6️⃣ مدیر خدمات پزشکی (Medical Services Manager)
7️⃣ تحلیلگر امنیت اطلاعات (Information Security Analyst)
8️⃣ متخصص ریاضی (Mathematician)
9️⃣ تحلیلگر تحقیق در عملیات (Operations Research Analyst)
🔟 دبیر (Actuary)
@DataAnalysis
فرصت کارآموزی Big Data شرکت سحابپرداز(نیمبو)
نیمبو یک دوره کارآموزی فشرده است که تابستان امسال برای سومین بار توسط شرکت سحاب پرداز برگزار میشود. در این دوره یادگیری متنوعی برای شرکتکنندگان در حوزههای Big Data و Data Science مبتنی بر دادههای واقعی فراهم خواهد شد.
دوره کارآموزی فوق در محورهای کلانداده، یادگیری ماشین، مهندسی داده، پایگاهدادههای Nosql و توسعه نرمافزار در مدت 10 هفته با پرداخت حقوق برای کارآموزان برگزار میشود.
اگر علاقهمند به ثبتنام در این طرح کارآموزی هستید میتوانید از طریق لینک زیر ثبتنام نمایید.
http://nimbo.in
@DataAnalysis
نیمبو یک دوره کارآموزی فشرده است که تابستان امسال برای سومین بار توسط شرکت سحاب پرداز برگزار میشود. در این دوره یادگیری متنوعی برای شرکتکنندگان در حوزههای Big Data و Data Science مبتنی بر دادههای واقعی فراهم خواهد شد.
دوره کارآموزی فوق در محورهای کلانداده، یادگیری ماشین، مهندسی داده، پایگاهدادههای Nosql و توسعه نرمافزار در مدت 10 هفته با پرداخت حقوق برای کارآموزان برگزار میشود.
اگر علاقهمند به ثبتنام در این طرح کارآموزی هستید میتوانید از طریق لینک زیر ثبتنام نمایید.
http://nimbo.in
@DataAnalysis
برترین الگوریتمهای پروژههای علمداده!
انتخاب الگوریتم یادگیری ماشین بهینه یکی از مهمترین گامهای پیادهسازی پروژههای علمداده است. در ادامه 9 الگوریتم مطرح این حوزه معرفی میشود.
1. Linear Regression
2. Logistic Regression
3- K-Means Clustering
4. Principal Component Analysis(PCA)
5. Support Vector Machines
6. Artificial Neural Networks
7. Decision Trees
8. Recurrent Neural Networks
9. Apriori
@DataAnalysis
انتخاب الگوریتم یادگیری ماشین بهینه یکی از مهمترین گامهای پیادهسازی پروژههای علمداده است. در ادامه 9 الگوریتم مطرح این حوزه معرفی میشود.
1. Linear Regression
2. Logistic Regression
3- K-Means Clustering
4. Principal Component Analysis(PCA)
5. Support Vector Machines
6. Artificial Neural Networks
7. Decision Trees
8. Recurrent Neural Networks
9. Apriori
@DataAnalysis
فرصت شغلی متخصص علمداده در شرکت پردازش الکترونیک راشد سامانه (پارسا)
🔻🔻شرایط تخصصی
🔹تسلط بر زبان برنامه نویسی R یا Python (تسلط بر زبان R از اولویت بالاتری برخوردار است)
🔹تسلط بر مفاهیم نظری و ریاضی پیشبینی و سریهای زمانی (داشتن تجربه عملی، مزیت محسوب میشود)
🔹تسلط بر مفاهیم نظری الگوریتمهای یادگیری ماشین، پیش پردازش دادهها و تنظیم پارامترها
🔹آشنایی با نرمافزار هوش تجاری Tableau یا PowerBI
🔹آشنایی با پایگاه داده SQL Server و مفاهیم طراحی و توسعه پایگاه داده رابطهای
🔹آشنا با مفاهیم نظری و عملی کلان دادهها (Big Data) و زیرساختهای مربوطه
🔹آشنا با شبیهسازی و مدلسازی جریان دادهها
🔻🔻شرایط عمومی
🔹امکان حضور حداقل 40 ساعت در هفته
🔹مسئولیتپذیر و برخوردار از انضباط کاری
🔹قابلیت بیان مفاهیم فنی به صورت ساده
🔹دارای توانمندی تجزیه و تحلیل مسائل پیچیده و توجه به جزئیات
🔹دارای روحیه جستجوگری
🔹دارای تفکر انتقادی و خلاقانه
🔹علاقهمند به یادگیری و توسعه مهارتهای فردی
🔴در صورت احراز شرایط برای آقایانی که هنوز خدمت سربازی خود را نگذراندهاند، پس از 6 ماه از شروع همکاری اولیه، امکان ادامه همکاری در قالب سرباز فناور نیز وجود خواهد داشت.
علاقمندان میتوانند رزومه خود را به ایمیل hr.DataScience@Parsa-cit.com یا آیدی تلگرام @ParsaFanap ارسال نمایند.
@DataAnalysis
🔻🔻شرایط تخصصی
🔹تسلط بر زبان برنامه نویسی R یا Python (تسلط بر زبان R از اولویت بالاتری برخوردار است)
🔹تسلط بر مفاهیم نظری و ریاضی پیشبینی و سریهای زمانی (داشتن تجربه عملی، مزیت محسوب میشود)
🔹تسلط بر مفاهیم نظری الگوریتمهای یادگیری ماشین، پیش پردازش دادهها و تنظیم پارامترها
🔹آشنایی با نرمافزار هوش تجاری Tableau یا PowerBI
🔹آشنایی با پایگاه داده SQL Server و مفاهیم طراحی و توسعه پایگاه داده رابطهای
🔹آشنا با مفاهیم نظری و عملی کلان دادهها (Big Data) و زیرساختهای مربوطه
🔹آشنا با شبیهسازی و مدلسازی جریان دادهها
🔻🔻شرایط عمومی
🔹امکان حضور حداقل 40 ساعت در هفته
🔹مسئولیتپذیر و برخوردار از انضباط کاری
🔹قابلیت بیان مفاهیم فنی به صورت ساده
🔹دارای توانمندی تجزیه و تحلیل مسائل پیچیده و توجه به جزئیات
🔹دارای روحیه جستجوگری
🔹دارای تفکر انتقادی و خلاقانه
🔹علاقهمند به یادگیری و توسعه مهارتهای فردی
🔴در صورت احراز شرایط برای آقایانی که هنوز خدمت سربازی خود را نگذراندهاند، پس از 6 ماه از شروع همکاری اولیه، امکان ادامه همکاری در قالب سرباز فناور نیز وجود خواهد داشت.
علاقمندان میتوانند رزومه خود را به ایمیل hr.DataScience@Parsa-cit.com یا آیدی تلگرام @ParsaFanap ارسال نمایند.
@DataAnalysis