Data Science – Telegram
Data Science
7.47K subscribers
754 photos
49 videos
85 files
451 links
ارتباط با ادمین:
@Datascience
Download Telegram
چرا به یک متخصص علم‌داده تبدیل شویم؟

همواره انتخاب حوزه کاری در میان فیلدهای کاری مختلف و متنوع یکی از موضوعات چالشی و البته بسیار مهم بوده است. در شکل فوق دلایل اصلی جهت تبدیل شدن به یک متخصص علم‌داده بیان گردیده است.

اگر در رشته‌های مهندسی نرم‌افزار، هوش مصنوعی، آمار، مدیریت فناوری اطلاعات و... تحصیل می‌کنید انتخاب فیلد کاری Data Science با توجه به افزایش بسیار میزان تقاضا شرکت‌ها جهت جذب متخصصین علم‌داده، میزان درآمد،تاثیرگذاری در سطوح سازمانی و ملی و... می‌تواند یکی از بهترین تصمیمات شما باشد.

پی‌نوشت:
قابل ذکر است که جهت موفقیت در حوزه علم‌داده لزوما به تخصص‌های آکادمیک در رشته‌های مشخصی نیاز نیست. علاقه‌مندی، پشتکار، تمرین، پیاده‌سازی‌های عملی و... سبب موفقیت شما در این فیلد کاری خواهد شد.

@DataAnalysis
مسیر یادگیری مهندسی داده!

https://bit.ly/2UAJ1cL

مهندسی داده یا Data Engineering یکی از مشاغل جذاب حوزه Data می‌باشد که به‌تازگی نیز توجهات به آن بسیار افزایش‌یافته است. مدیریت جریان داده، استقرار فرایندهای ETL، طراحی معماری، پیاده‌سازی و نگه‌داری انبار داده، توسعه سیستم‌های نرم‌افزاری مبتنی بر داده و... از فعالیت‌ها اصلی یک مهندس داده می‌باشد.

در تصویر زیر مهارت‌ها و گام‌های تبدیل‌شدن به یک مهندس داده بیان‌شده است. به‌صورت کلی جهت کسب تخصص در این فیلد کاری به مهارت‌های زیر نیاز خواهد داشت:

1- دانش تخصصی برنامه‌نویسی:
کسب دانش پایه در حوزه سیستم‌عامل‌های مبتنی بر لینوکس و زبان‌های برنامه‌نویسی همانند Scala بنا به قابلیت‌های آن در حوزه Big Data از مهارت‌های پایه‌ای ورود به این حوزه تخصصی می‌باشد.

2- استقرار فرایند ETL:
طراحی و پیاده‌سازی فرایند ETL بنا به دغدغه‌ها و نیازمندی‌ها، مدیریت جریان داده سازمان و توانایی کار با انواع پایگاه داده‌ها نیز در این فیلد کاری حائز اهمیت است.

3- موتورهای پردازشی کلان داده:
با توجه به افزایش حجم‌ داده‌ها، دو حوزه مهندسی داده و توسعه‌دهنده کلان داده به یکدیگر بسیار نزدیک گردیده‌اند. توانایی کار با موتور پردازشی کلان داده آپاچی Spark از مهارت‌هایی می‌باشد که اگر قصد فعالیت در این حوزه را دارید می‌بایست در خود تقویت نمایید.

4- مدیریت جریان‌های بلادرنگ داده:
یکی از مؤلفه‌های کلان داده حوزه Velocity یا سرعت نرخ تولید داده‌ها می‌باشد. در صورت افزایش حجم دادگان ورودی به سیستم‌های نرم‌افزاری با بهره‌گیری از ابزارها و پلتفرم‌هایی از قبیل Kafka، آپاچی Storm یا Flink امکان مدیریت این دادگان فراهم خواهد گردید.

5- مهندسی یادگیری ماشین:
توسعه مدل‌های مبتنی بر یادگیری ماشین از وظایف اصلی متخصصین داده یا Data Scientist می‌باشد. در حوزه مهندسی داده گام استقرار مدل‌های توسعه داده‌شده و خودکاری سازی این فرایندها صورت می‌پذیرد.

ارادتمند
محمدرضا محتاط

@DataAnalysis
مدیریت نوین منابع انسانی!

http://tiny.cc/64694y

در دنیای امروز، سرمایه‌های انسانی به‌عنوان با ارزش‌ترین منابع سازمانی، به سازمان معنا و مفهوم می‌بخشند و زمینه تحقق اهداف سازمانی را فراهم می‌کنند. رشد و توسعه سازمان‌ها و در پی آن جامعه و کشور، در گرو استفاده صحیح از سرمایه‌های انسانی است. اگر جامعه‌ای از این مزیت رقابتی برخوردار نباشد به‌طورقطع نمی‌تواند به هدف‌های موردنظر خود دست یابد.

تصمیم‌گیری اثربخش و کارا در حوزه مدیریت منابع انسانی، مزایای رقابتی مهمی برای سازمان‌ها در پی دارد. علیرغم وجود داده‌ها و اطلاعات فراوان در سازمان‌ها در ارتباط با منابع انسانی بعضاً این داده‌ها به شیوه‌ای اثربخش مورد تحلیل و استفاده قرار نمی‌گیرند.

در ادامه برخی از کارکردها و کاربردهای حوزه تحلیل داده در جهت استقرار مدیریت منابع انسانی داده محور تقدیم حضور می‌گردد.

1- پایش هوشمند شبکه‌های اجتماعی و گروه‌های تخصصی در جهت شناسایی متخصصین مورد نیاز

2- جذب و استخدام کارکنان اثربخش بر اساس عملکرد رفتاری گذشته کارکنان سازمان

3- ارزیابی مستمر میزان رضایت شغلی کارکنان

4- پیش‌بینی افت عملکرد کارکنان و بخش‌های سازمان

5- مدیریت بهینه تعدیل ( اولویت‌بندی کارکنان جهت تعدیل )

6- تحلیل عملکرد کارکنان بر اساس شاخص‌های عملیاتی

7- هوشمند سازی نظام‌ پاداش و پرداخت

8- ارائه آموزش‌های شخصی‌سازی‌شده بنا به نیازمندی‌های کارکنان

افزایش بهره‌وری، انگيزه، رضايت شغلي، بهبود کيفيت زندگي کاري، و تحقق اهداف سازمان تنها بخشی از دستاوردهای مدیریت بهینه و هوشمندانه منابع انسانی می‌باشد.

"مدیریت مؤثر نیروی کار از طریق تجزیه‌وتحلیل داده منابع انسانی نیاز به یک تغییر در طرز فکر دارد. "

پی‌نوشت:
روز منابع انسانی را خدمت همه کارشناسان و مدیران منابع انسانی تبریک عرض می‌کنیم. افرادی که می‌توانند شرکت‌ها و به طبع جهان را به‌جایی بهتر برای زندگی‌ کردن تبدیل نمایند.

ارادتمند
محمدرضا محتاط

@DataAnalysis
برترین مهارت‌های متخصصین علم‌داده!

http://bit.do/eP8ng

براساس گزارش Forbes در سال 2019، برترین مهارت‌ها، ابزارها و پلتفرم‌های حوزه علم‌داده براساس تحلیل فرصت‌های شغلی شبکه اجتماعی لینکدین به شرح زیر است.

1- Python

2- R

3- SQL

4- Jupyter Notebooks

5- Unix shell

6- AWS

7- Tensorflow

8- Tableau

9- C/C++

10- Hadoop / Pig / Hive

@DataAnalysis
میلاد باسعادت منجی عالم بشریت، حضرت ولی عصر، امام زمان(عج) بر عموم شیعیان جهان مبارک باد.
پروژه‌های کلان داده؛ واقعیت تا شکست!

http://tiny.cc/big-data-architecture

کلان داده یا Big Data اصطلاحی برای مجموعه داده‌های حجیم، متنوع و دارای نرخ تولید بسیار بالا می‌باشد که با ابزارهای سنتی امکان ذخیره‌سازی، نگه‌داری و تحلیل آن وجود ندارد. به‌عنوان‌مثال راه‌اندازی یک شبکه اجتماعی همانند تلگرام یا توییتر با توجه به میزان حجم دادگان، تنوع در داده‌ها(متن، تصویر، صوت و...) و نرخ تولید داده‌ها نیازمند بهره‌گیری از پلتفرم‌ها و ابزارهای کلان داده هست.

با توجه به کاربردها و قابلیت‌های این حوزه در کشور، پروژه‌های متعددی با محوریت Big Data در شرکت‌ها و سازمان‌های مختلفی در صنایع بانکداری، تلکام، بیمه و... آغاز شده است. پروژه‌های که بعضاً با شکست مواجه شده‌اند. شکستی که علاوه‌ بر ایجاد مشکلات سازمانی و هدر رفتن منابع، سبب کاهش اعتماد شرکت‌ها به قابلیت‌های تحلیل داده و کلان داده نیز می‌شود.

مشکلاتی از قبیل توجه صرف به ابزارهای فنی، عدم تدوین استراتژی‌های پروژه، عدم شناخت از نیازمندی‌های کارفرما، خلأ تحلیل نیازمندی‌ها و مهارت‌های موردنیاز حین پروژه، مدیریت توقع و مشکلات سازمانی از رایج‌ترین دلایل این شکست‌ها هست.

در ادامه یک معماری منطبق با اکوسیستم آپاچی هدوپ(Hadoop) به‌عنوان اکوسیستم مرجع کلان داده جهت مدیریت پروژه‌های کلان داده پیشنهاد می‌شود. معماری زیر از 10 لایه و در دو بخش فنی و کارکردی تشکیل‌شده است. لایه‌هایی که تمامی مؤلفه‌های مؤثر در پروژه‌های Big Data شامل زیرساخت، مدیریت داده، تحلیل، امنیت و... را پوشش خواهد داد.

لایه‌های معماری کلان داده:
1- لایه منابع داده (Data Sources)
2- لایه فروبری داده (Ingestion Layer)
3- لایه زیرساخت هدوپ (Hadoop Infrastructure Layer)
4- لایه ذخیره‌سازی هدوپ (Hadoop Storage Layer)
5- لایه مدیریت سکو هدوپ (Hadoop Platform Management Layer)
6- لایه انبار داده (Data Warehouses)
7- لایه موتورهای تحلیلی (Analytics Engines)
8- لایه مصورسازی (Visualization Layer)
9- لایه امنیت (Security Layer)
10- لایه نظارت (Monitoring Layer)

قابل‌ذکر است که در تمامی لایه‌های فوق گام‌های امکان‌سنجی، ارزیابی بلوغ، تحلیل نیازمندی‌ها و... به‌صورت کامل و جامع می‌بایست انجام پذیرد.

مؤلفه‌های مقیاس‌پذیری، میزان دسترس‌پذیری، قابلیت نگه‌داری، کارایی و... نیز به‌عنوان کارکردهای غیرعملیاتی نیز به‌صورت مجزا باید مورد تحلیل و بررسی قرار گیرند.

پی‌نوشت:
طبق بررسی موسسه گارتنر بیش از 60 درصد پروژه‌های Big Data در سال 2017 نیز با شکست مواجه شده‌اند. این عدد قابل‌تأمل نشان از پیچیدگی‌های گسترده در اجرا و پیاده‌سازی پروژه‌های Big Data در سطح جهانی نیز هست. مشکلاتی که بعضاً علل آن را باید در حوزه‌های غیر تکنیکال جست.

ارادتمند
محمدرضا محتاط

@DataAnalysis
کتاب Storytelling with data

یکی از گام‌های اصولی جهت موفقیت در پروژه‌های تحلیل داده، بهره‌گیری از متدها و اصول مصورسازی داده (Data Visualization) جهت ارائه نتایج‌ و خروجی‌های مدل‌های تحلیلی به ذی‌نفعان و مدیران می‌باشد.

در کتاب "داستان‌سرایی با داده" اصول و مفاهیم مصورسازی داده در محورهای زیر آموزش داده می‌شود.

*تحلیل مخاطبان و ذی‌نفعان
* آشنایی با کارکردها و قابلیت‌های نمودارهای تحلیلی
* انتخاب نمودار مناسب جهت مصورسازی اطلاعات
* طراحی نمودارهای تحلیلی
* شناسایی مشکلات رایج نمودارهای تحلیلی

مطالعه کتاب فوق را به همه علاقه‌مندان و متخصصین حوزه علم‌داده توصیه میکنم.

@DataAnalysis
Storytelling with Data.pdf
12.4 MB
کتاب Storytelling with data

@DataAnalysis
برترین الگوریتم‌های یادگیری ماشین و علم‌داده در سال 2019

براساس نظرسنجی وبسایت Kdnuggets از متخصصین علم‌‌داده، به ترتیب متدها و الگوریتم‌های رگرسیون، درخت تصمیم‌، خوشه‌بندی و مصورسازی داده‌ها از رایج‌ترین متدهای استفاده شده در پروژه‌های علم‌داده در سال 2019 بوده‌اند.

افزایش توجهات به روش‌های مبتنی بر شبکه‌های عصبی، یادگیری عمیق و سری‌های زمانی از نکات قابل توجه در مقایسه با سال 2017 است.

قابل ذکر است که انتخاب الگوریتم بهینه براساس نیازمندی‌های تحلیلی پروژه، نوع دادگان و... انتخاب می‌شود. انتخابی که ممکن است سبب موفقیت یا شکست پروژه‌های علم‌داده شود.

@DataAnalysis
پیچیدگی‌های فعالیت در حوزه علم‌داده!

http://tiny.cc/oex85y

مقالات متعددی پیرامون مزایای حوزه علم‌داده منتشرشده است. ویژگی‌هایی از قبیل درآمد بالا، میزان تأثیرگذاری در سطوح سازمانی و ملی، میزان تقاضای بازار کار و... همگی نشان از این مزایا دارند.

در این مطلب هدف ارائه پیچیدگی‌های حوزه علم‌داده است تا اگر قصد دارید به‌صورت تخصصی در این فیلد فعالیت نمایید به آن‌ها آگاه باشید.

1- کسب تخصص:
با توجه وجود طیف وسیعی از مهارت‌ها، ابزارها و پلتفرم‌ها در حوزه علم‌داده، کسب تخصص جامع در این فیلد کاری امری بسیار دشوار و پیچیده می‌باشد. امری که نیازمند صرف زمان و یادگیری مستمر در حوزه‌های متنوع خواهد بود.

2- دانش بین‌رشته‌ای:
نوع نگاه علم‌داده به مسائل از منظرهای آمار، مهندسی کامپیوتر، کسب‌وکار و... قابل افراز می‌باشد. لذا اگر قصد فعالیت در پروژه‌های علم‌داده را دارید می‌بایست با دانش‌های پایه‌ای بخصوص در مفاهیم بین‌رشته‌ای آشنا باشید.

3- داده‌های کثیف:
یکی از پیچیدگی‌های پروژه‌های علم‌داده وجود داده‌های کثیف یا عدم دسترسی به داده‌های مناسب در پروژه‌ها است. وجود این قبیل مشکلات سبب هدر رفتن انرژی و زمان زیادی خواهد شد. مشکلاتی که در کشور ما با توجه به میزان بلوغ فناوری اطلاعات بسیار مشهودتر می‌باشد.

4- حریم خصوصی:
مدیریت حریم خصوصی یکی از چالش‌های مطرح پروژه‌های علم‌داده و سازمان‌های داده‌محور در سال‌های اخیر می‌باشد. افشای اطلاعات خصوصی و محرمانه یکی از چالش‌های عمده شرکت‌های فعال در حوزه ارائه خدمات تحلیل داده می‌باشد.

5- تیم سازی:
یکی از چالش‌های سازمان‌های فعال در حوزه علم‌داده، جذب متخصصین و تیم سازی می‌باشد. کمبود متخصصین علم‌داده واقعی، چالش‌های سازمانی و... از مشکلاتی هست که می‌توانند در موفقیت و شکست پروژه‌ها بسیار تأثیرگذار باشند.

ارادتمند
محمدرضا محتاط

@DataAnalysis
زبان‌های برنامه‌نویسی حوزه علم‌داده!

در حوزه علم‌داده زبان‌های برنامه‌نویسی مطرحی همچون پایتون، SAS, Scala, SQL, R و... وجود دارد که هر یک بنا به کارکردها و کاربردهای خود در پروژه‌های مختلفی قابلیت بهره‌برداری را دارند.

انتخاب زبان برنامه‌نویسی بهینه یکی از عوامل موفقیت در پروژه‌های تحلیل داده می‌باشد. بعنوان مثال در حوزه یادگیری عمیق، تحلیل کلان‌داده، توسعه دهنده کلان‌داده، تحلیل‌های آماری و... هر کدام از این زبان‌ها قابلیت‌های منحصر به فرد خود را دارا می‌باشند.

در شکل‌های فوق ویژگی‌های زبان‌های برنامه نویسی پایتون، R و Scala به تفکیک بیان شده است.

@DataAnalysis
This media is not supported in your browser
VIEW IN TELEGRAM
تاثیرات هوش مصنوعی بر اقتصاد جهان!

در این ویدیو کوتاه با تاثیرات هوش مصنوعی بر اقتصاد جهان تا سال 2030 آشنا خواهید شد.

◾️تاثیر 16 هزار میلیارد دلاری بر اقتصاد جهان
▪️تغییرات محسوس در زندگی شخصی و کاری
▪️افزایش تولید ناخالص داخلی کشورها(GDP)
▪️رشد صنایع خرده‌فروشی، مالی و سلامت
▪️رشد قابل توجه کشورهای آسیایی همچون چین و هند

موارد فوق تنها بخشی از تاثیرات هوش‌مصنوعی طی دهه آینده خواهد بود.

میزان بهره‌برداری کشور ما از این تغییر و تحولات چه میزان می‌باشد؟!

ارادتمند
محمدرضا محتاط

@DataAnalysis
معرفی فیلم Ex Machina

فیلم فراماشین یک فیلمی در ژانر علمی‌، درام و هیجانی است. در این فیلم با استفاده از یک ایده داستانی تامل‌برانگیز، داستانی هیجانی از زندگی یک ربات هوشمند به نمایش گذاشته می‌شود.

در این فیلم یک برنامه‌نویس جوان جهت ارزیابی خصوصیات انسانی یک ربات مؤنث انتخاب میشود. این ربات آوا نام دارد و آخرین نسخه از پیش‌الگوهای هوش مصنوعی ساخته ‌شده توسط یک دانشمند نابغه است.

پایه این فیلم براساس آزمون تورینگ تولید شده است. آلن تورینگ اعتقاد داشت که اگر ماشینی بتواند خود را از انسان غیرقابل تميز کند، بي‌شك می‌توان برچسب هوشمندبودن را بر آن زد.

مطالعه این فیلم جذاب را به همه علاقه‌مندان حوزه هوش مصنوعی پیشنهاد می‌کنم.

@DataAnalysis
متخصص علم‌داده؛ برترین شغل در سال 2019

براساس آخرین رتبه‌بندی مشاغل توسط وبسایت Careercast در مولفه‌های محیط کاری، میزان استرس کاری و میزان رشد پروژه‌های مرتبط، متخصصین علم‌داده با میانگین درآمد سالیانه 114 هزار دلار در جایگاه اول این لیست قرار داد.

10 شغل برتر ایالات متحده آمریکا در سال 2019 به شرح ذیل است:

1️⃣ متخصصین علم‌داده (Data Scientist)

2️⃣ متخصصین آمار( Statistician)

3️⃣ استاد دانشگاه (University Professor)

4️⃣ متخصص کاردرمانی (Occupational Therapist)

5️⃣ مشاور ژنتیک (Genetic Counselor)

6️⃣ مدیر خدمات پزشکی (Medical Services Manager)

7️⃣ تحلیلگر امنیت اطلاعات (Information Security Analyst)

8️⃣ متخصص ریاضی (Mathematician)

9️⃣ تحلیلگر تحقیق‌ در عملیات (Operations Research Analyst)

🔟 دبیر (Actuary)

@DataAnalysis
فرصت کارآموزی Big Data شرکت سحاب‌پرداز(نیمبو)

نیمبو یک دوره کارآموزی فشرده‌ است که تابستان امسال برای سومین بار توسط شرکت سحاب پرداز برگزار می‌شود. در این دوره یادگیری متنوعی برای شرکت‌کنندگان در حوزه‌های Big Data و Data Science مبتنی بر داده‌های واقعی فراهم خواهد شد.

دوره کارآموزی فوق در محورهای کلان‌داده، یادگیری ماشین، مهندسی داده، پایگاه‌داده‌های Nosql و توسعه نرم‌افزار در مدت 10 هفته با پرداخت حقوق برای کارآموزان برگزار می‌شود.

اگر علاقه‌مند به ثبت‌نام در این طرح کارآموزی هستید می‌توانید از طریق لینک زیر ثبت‌نام نمایید.

http://nimbo.in

@DataAnalysis
برترین الگوریتم‌های پروژه‌های علم‌داده!

انتخاب الگوریتم یادگیری ماشین بهینه یکی از مهمترین گام‌های پیاده‌سازی پروژه‌های علم‌داده است. در ادامه 9 الگوریتم مطرح این حوزه معرفی می‌شود.

1. Linear Regression

2. Logistic Regression

3- K-Means Clustering

4. Principal Component Analysis(PCA)

5. Support Vector Machines

6. Artificial Neural Networks

7. Decision Trees

8. Recurrent Neural Networks

9. Apriori

@DataAnalysis
الحمدلله الذي جعلنا من المتمسكين بولاية مولانا أميرالمؤمنين و اولاده المعصومين صلواة الله عليهم اجمعين

شهادت شفیع شیعیان و مولای متقیان، علی علیه السلام تسلیت باد!
فرصت شغلی متخصص علم‌داده در شرکت پردازش الکترونیک راشد سامانه (پارسا)

🔻🔻شرایط تخصصی

🔹تسلط بر زبان برنامه نویسی R یا Python (تسلط بر زبان R از اولویت بالاتری برخوردار است)

🔹تسلط بر مفاهیم نظری و ریاضی پیش‌بینی و سری‌های زمانی (داشتن تجربه عملی، مزیت محسوب می‌شود)

🔹تسلط بر مفاهیم نظری الگوریتم‌های یادگیری ماشین، پیش پردازش داده‌ها و تنظیم پارامترها

🔹آشنایی با نرم‌افزار هوش تجاری Tableau یا PowerBI

🔹آشنایی با پایگاه داده SQL Server و مفاهیم طراحی و توسعه پایگاه داده رابطه‌ای

🔹آشنا با مفاهیم نظری و عملی کلان داده‌ها (Big Data) و زیرساخت‌های مربوطه

🔹آشنا با شبیه‌سازی و مدل‌سازی جریان داده‌ها

🔻🔻شرایط عمومی

🔹امکان حضور حداقل 40 ساعت در هفته

🔹مسئولیت‌پذیر و برخوردار از انضباط کاری

🔹قابلیت بیان مفاهیم فنی به صورت ساده

🔹دارای توانمندی تجزیه و تحلیل مسائل پیچیده و توجه به جزئیات

🔹دارای روحیه جستجوگری

🔹دارای تفکر انتقادی و خلاقانه

🔹علاقه‌مند به یادگیری و توسعه مهارت‌های فردی

🔴در صورت احراز شرایط برای آقایانی که هنوز خدمت سربازی خود را نگذرانده‌اند، پس از 6 ماه از شروع همکاری اولیه، امکان ادامه همکاری در قالب سرباز فناور نیز وجود خواهد داشت.

علاقمندان می‌توانند رزومه خود را به ایمیل hr.DataScience@Parsa-cit.com یا آی‌دی تلگرام @ParsaFanap ارسال نمایند.

@DataAnalysis