تحلیلگری عظیم‌داده و کسب‌وکار – Telegram
تحلیلگری عظیم‌داده و کسب‌وکار
892 subscribers
45 photos
42 videos
57 files
478 links
📌تحلیلگری عظیم داده و کسب و کار؛

🔎Big Data and Business Analytics

آموزش، پژوهش، اطلاع‌رسانی، ترویج و خدمات مشاوره حوزه تحلیلگری عظیم‌داده

سرپرست کانال: دکتر سعید روحانی، عضو هیأت علمی دانشگاه تهران

وبسایت
www.bdbanalytics.ir

ادمین کانال
@BDBA_UT
Download Telegram
📚معرفی کتاب

📌 ابهام‌زدایی از عظیم داده، یادگیری ماشین و یادگیری عمیق برای تحلیل حوزه سلامت

"Demystifying Big Data, Machine Learning, and Deep Learning for Healthcare Analytics”


📌 نویسنده: Pradeep N, Sandeep Kautish, Sheng Lung Peng
📌 این کتاب در سال 2021 و توسط Elsevier Science انتشار یافته است.



📍کتاب ابهام‌زدایی از عظیم داده، یادگیری ماشین و یادگیری عمیق در حوزه سلامت به ارائه دنیای در حال تغییر استفاده از داده‌ها در حوزه سلامت و بخصوص کلینیک‌ها می‌پردازد. تکنیک‌ها، روش‌ها و الگوریتم‌هایی جهت سازمان‌دهی داده‌ها به صورت ساختاریافته در این کتاب معرفی شده‌اند که می‌تواند برای مهندسان پزشکی و دانشمندان داده برای فهم تأثیر این تکنیک‌ها در تحلیل حوزه سلامت مؤثر باشد.

📍این کتاب به دو بخش اصلی تقسیم شده است. در بخش اول، جنبه‌های عظیم داده مانند سیستم‌های پشتیبانی تصمیم سلامت و موضوعات مرتبط با تحلیل داده مورد بررسی قرار گرفته است. در بخش دوم، تمرکز بر چارچوب‌ها و کاربری‌های فعلی یادگیری عمیق و یادگیری ماشین و ارائه چشم‌اندازی از مسیر آینده تحقیق و توسعه است.


📍در تمام کتاب، رویکرد مورد مطالعه محور، موارد و مثال‌های ارزشمندی از مطالعات دنیای واقعی به عنوان منابع بنیادی در اختیار مهندسان پزشکی، دانشمندان داده و پژوهشگران سلامت قرار می‌دهد.


این کتاب را می‌توانید در پست بعد دریافت نمایید.


#معرفی_کتاب
#عظیم_داده
#میثم_عسگری


@BigData_BusinessAnalytics
www.bdbanalytics.ir
Media is too big
VIEW IN TELEGRAM
📌📌 عظیم داده‌، داده‌های بهتری هستند!

🔹 "داده بیشتر فقط دید وسیع‌تر نمی‌دهد بلکه اجازه می‌دهد بهتر ببینیم، اجازه می دهد متفاوت ببینیم."

این جمله بخشی از سخنرانی «کِنِث کوک اِر» نویسنده و سخنران فعال حوزه عظیم داده است. در این سخنرانی کاربردها و قابلیت‌های عظیم داده‌ و یادگیری ماشین عنوان می‌شود.

ارائه مثال‌های کاربردی در حوزه‌های عظیم داده‌‌ و یادگیری ماشین در صنایع خودروسازی، بازی و مخابرات، معرفی چالش‌‌های حقوقی و اخلاقی عظیم داده‌ سبب کاربردی‌تر شدن این سخنرانی شده است.

#ويدئو
#عظیم_داده
#TED
#KennethCukier
#تحلیلگری_داده
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Big Data for Big Decisions: Building a Data-Driven Organization"

📍تصمیم‌محوری پیش از داده‌محوری

🔸فصل دوم کتاب داده‌های عظیم برای تصمیمات بزرگ به بحث تصمیم‌گیری در سازمان می‌پردازد. یک سازمان باید خودآگاه باشد، به این معنا که باید برای عملکرد مطلوب و رقابت‌پذیری در بازار، خود را به طور کامل بشناسد. تحلیل‌گری به سازمان کمک می‌کند تا کسب و کار خود را به طور دقیق‌تر بشناسد. در واقع یک سازمان باید شایستگی‌ها، نقاط قوت و ضعف، تهدیدها و فرصت‌های خود را بشناسد. باید بداند چه محصولاتی تولید کند، چگونه مواد خام خود را تامین نماید، چگونه موجودی‌ها و سرمایه در گردش خود را کنترل کند، چگونه مصرف منابع را بهینه و در عین حال تولید را به حداکثر برساند، در کجا بازاریابی و چگونه محصولات خود را به بازار عرضه نماید. همچنین سازمان باید مشتریان، فروشندگان و کارمندان خود را بشناسد. اگر هدف از تحلیل‌گری داده کمک به شرکت برای شناخت دقیق خود و اتخاذ تصمیمات مبتنی بر داده‌ها و بینش‌های قابل اقدام منتج از آن باشد، آنگاه کسانی که مسئول سرمایه گذاری بر تحلیل‌گری هستند باید بدانند که کدام تصمیمات باید در اولویت قرار گیرند و در واقع باید از تصمیمات حیاتی شروع کنند.

🔹 یک سازمان قبل از اینکه بخواهد داده محور شود، لزوماً نیاز به تصمیم گیری دارد. یک سازمان تصمیم‌محور می‌داند چه تصمیم‌هایی می‌گیرد و هر یک از آن تصمیم‌ها چگونه بر نتایج کسب‌وکار تأثیر می‌گذارند. یک سازمان تصمیم‌محور یک فرآیند رسمی و مسیر حسابرسی را اگر نگوییم برای همه تصمیمات، دست کم برای تصمیمات مهم در نظر می‌گیرد.

🔸به طور مثال، تنها راهی که یک مدیر می تواند کنترل حساب شده‌ای بر زنجیره ارزش سازمانی اعمال کند، تصمیم‌گیری است. در این خصوص انتظار می‌رود تصمیمات با کیفیت خوب به حداکثر رساندن توان عملیاتی سازمان با کاهش محدودیت‌ها در زنجیره ارزش کمک نماید. یک مدیر فقط به اندازه کیفیت تصمیماتش خوب است و مدیری که تصمیمات را به تأخیر می اندازد معمولاً منجر به تنگناهای فرآیند در زنجیره ارزش می‌شود. انتظار می‌رود ایجاد یک فرآیند رسمی برای تصمیم گیری به مدیران کمک کند تا در کیفیت تصمیماتی که می‌گیرند ایجاد ثبات و انسجام کرده و از هر ده بار، نه بار تصمیمات "خوب" بگیرند و در قبال تصمیمات خود پاسخگو باشند.
با این حال، فرآیند تصمیم‌گیری در بین سازمان‌ها غیررسمی است و اغلب فاقد هرگونه حسابرسی به دنبال اتخاذ تصمیمات است. شاید به ندرت بتوان سازمانی را یافت که ساختار سازمانی مبتنی بر «نقش‌های تصمیم‌گیری شفاف» داشته باشند. در واقع سازمان‌هایی که به خودی خود تعاریف روشن نقش را مستند می کنند، بسیار کم هستند چه رسد به ایجاد نقش‌ها بر اساس فهرست مستندی از «تصمیمات».

🔹شایان ذکر است که صدها تصمیم عملیاتی وجود دارد که ماهیتاً تکراری هستند و معمولاً توسط یک مدیر به طور روزمره گرفته می‌شوند و به طور انباشته ارزش بسیار بالاتری نسبت به تمام تصمیمات مربوط به مخارج سرمایه‌ای دارند که در شرکت گرفته می‌شود. به بیان دیگر، یک تصمیم کوچک می‌تواند با ارزش تجمعی خود به طور قابل توجهی بر سودآوری و عملکرد شرکت تأثیر بگذارد. با توجه به اهمیت این تصمیمات عملیاتی «با اثر تجمعی بزرگ»، شناسایی و ایجاد یک فرآیند رسمی برای حفظ کیفیت تصمیمات، علاوه بر ایجاد یک مسیر حسابرسی، مهم است.

🔸نکته حائز اهمیت دیگر آن است که همه تصمیمات 100% مبتنی بر قواعد و کاملا منطقی نیستند. اما بسیاری از مراحل فرعی درگیر در فرآیند تصمیم گیری می‌تواند منطقی و مبتنی بر قاعده باشد. بنابراین، تجزیه فرآیند تصمیم‌گیری به فرآیندهای فرعی و بررسی دقیق این موضوع که آیا هر یک از این فرآیندهای فرعی می‌تواند مبتنی بر قانون و خودکار باشد یا خیر، شیوه‌ای مناسب به شمار می‌رود.

♦️ بنابراین، یک سازمان تصمیم‌محور باید بداند چه تصمیماتی می‌گیرد و کدام یک از این تصمیمات، تصمیمات کلیدی هستند که بر نتایج کسب‌وکار بیشترین تأثیر را می‌گذارند. انتظار می‌رود یک سازمان تصمیم محور برای هر یک از تصمیماتی که به عنوان تصمیم مهم شناخته می‌شوند -به طور ویژه در خصوص 10% از تصمیماتی که %90 از نتایج کسب و کار را تحت تأثیر قرار می‌دهند- با استفاده از رویه‌های عملیاتی استاندارد جهانی مستند شده، فرآیند محور شود. و از همه مهم‌تر اینکه یک سازمان تصمیم‌محور تضمین می‌کند که موفقیتش فرآیند محور و پایدار است و نه مبتنی بر افراد.

#کتاب_بخوانیم
#فصل_دوم
#فاطمه_مظفری
#تصمیم‌گیری
#سازمان_داده_محور

www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌 در این مقاله قصد داریم به بررسی نتفلیکس (Netflix) بپردازیم. نتفلیکس شرکتی است که هم در زمینه تولید محتوا و هم سرویس پخش مبتی بر اشتراک فعالیت می‌کند که با بهره گیری گسترده از تجزیه و تحلیل داده‌ها، توانسته تبدیل به رهبر صنعت خود شود.
📍هر تصمیمی در نتفلیکس، از طرح رنگی که برای طراحی جلد برنامه‌ها استفاده می‌شود، تا استراتژی‌های بازاریابی شخصی سازی شده، و محتوای اصلی آینده، کاملاً بر اساس بینش داده‌ها است. امروزه این غول استریم 140 میلیارد دلار ارزش دارد و مخاطبان رقبای خود را در سراسر جهان جذب می‌کند.
نتفلیکس تصادفی به اینجا نرسیده است، هر تصمیمی که در نتفلیکس گرفته می‌شود کاملا توسط داده‌ها هدایت می‌شود. طبق ارائه جف مگنوسون، مدیر معماری پلتفرم داده در نتفلیکس، و مهندس چارلز اسمیت، فلسفه داده این برند شامل 3 اصل کلیدی است:
1️⃣ داده‌ها باید در دسترس، آسان برای کشف و پردازش برای همه باشد.(دسترسی پذیری)
2️⃣ مجموعه داده شما چه بزرگ باشد یا کوچک، قابلیت مصور سازی ، توضیح آنها را آسان‌تر می‌کند.(قابل نمایش)
3️⃣ هر چه زمان بیشتری برای یافتن داده‌ها صرف کنید، ارزش آن کمتر می‌شود.(سرعت در جمع آوری داده)

📍رشد نتفلیکس تا حد زیادی به دلیل توانایی آن در شخصی سازی توصیه‌های محتوا برای کاربران در سراسر جهان است. برای انجام این کار، نتفلیکس داده‌ها را جمع آوری می‌کند و از الگوریتم‌هایی برای ایجاد یک تجربه شخصی خاص برای هر کاربر استفاده می‌کند.
📍 وضعیت صنعتی که نتفلیکس به آن دست یافته است به دلیل بینش‌هایی است که نشان می‌دهد چه چیزی باعث می‌شود افراد بیشتر مشترک شوند، چه چیزی باعث می‌شود مدت طولانی تری بمانند و کجا باید تلاش‌های بعدی را برای بهبود خدمات خود به بهترین نحو سرمایه گذاری کنند.
📍این تیم آنقدر به داده‌های شخصی‌سازی شده مشتری می‌پردازد که تفکیک رنگ در طرح‌های جلد برای محتوای اصلی جدید با توجه به تأثیر آن‌ها بر عادت‌های مشاهده کاربر، توصیه‌ها، رتبه‌بندی‌ها و موارد دیگر تعیین می‌شود. همه چیز شخصی‌سازی شده است و از یادگیری ماشینی پیشرفته آنها برای ارائه توصیه‌های بهتر و اطلاع‌رسانی محتوای آینده خود استفاده می‌کند.
♦️ نتفلیکس برای تقویت استراتژی خود و بهبود رضایت مشتری خود با نمایش های جدید، پیشنهادات صحیح و مدیریت بهتر مشتریان خود، دائماً داده‌ها را جمع آوری، تجزیه و تحلیل می‌کند و به داده‌های ورودی تکیه می‌کند.
تیم نتفلیکس با دسترسی به چنین داده‌های عمیقی – هم از سوی مشتریان فعلی و هم از واکنش‌ها به آنچه رقبا در بازار انجام می‌دهند که می‌تواند بدون استفاده از گروه‌های کانونی کوچکتر و سایر اشکال رایج آزمایش، سوالات بهتری بپرسد و تصمیمات آگاهانه بگیرد.

📍از بخش‌هایی از نتفلیکس که به صورت مشهود داده محوری در آن به چشم می‌خورد، بخش محتوای اصلی نتفلیکس که اکنون یکی از شاخه‌های اصلی کسب‌وکارش است که نه تنها از طریق داده‌های کاربر خود که به تماشای فیلم های نتفلیکس می‌پردازند، بلکه از روندهایی که تیم در رسانه‌های اجتماعی مشاهده می‌کند، بینندگان در بازارهای رقیب را با استفاده از الگوریتم‌های پیش‌بینی‌کننده که همبستگی بین عناصر محتوای با عملکرد بالا را ایجاد می‌کنند، تحلیل کرده و تصمیم گیری در مورد محتوای آینده این شرکت را به صورت داده محور به ارمغان می‌آورد.
از طریق داده‌ها و تجزیه و تحلیل داده‌ها، نتفلیکس مجوز محتوا را بر اساس رفتار مشاهده ارگانیک در مقابل آزمایش استاندارد و الگوی واکنشی کاربر صادر می‌کند. هنگامی که محتوا در پلتفرم نتفلیکس در دسترس است، این شرکت مطمئن می‌شود که محتوای مناسب از طریق موتور توصیه خود به مصرف کننده مناسب برسد. امروزه نتفلیکس با بیش از 203 میلیون مشترک، داده‌ها را در طرح اولیه خود قرار داده است و در نتیجه از رقبای خود بهتر عمل می‌کند.

📍تفاوت کلیدی بین Netflix و سایر رقبا برجسته این است که نتفلیکس بر اساس رفتار تماشای ارگانیک در مقایسه با آزمایش آزمایشی استاندارد و فرضیه واکنشی موفقیت یا شکست ناشی آزمایش‌ها، دست به اقدام می‌زند.
یکی دیگر از کارهایی که نتفلیکس به خوبی انجام می‌دهد این است که اطلاعاتی مانند رتبه‌بندی‌ها و تاریخچه بازدید مصرف کنندگان را در نظر بگیرد تا درک عمیقی از پروفایل‌های بیننده یا شخصیت‌های مختلف ایجاد کند و مطمئن شود که داده‌ها در زمان مناسب از طریق الگوریتم توصیه خود به مشتری مناسب می‌رسد. در حالی که اکثر ارائه‌دهندگان رقیب داده‌ها را پس از انتشار یک نمایش تجزیه و تحلیل می‌کنند. این الگو با موفقیت تصمیم گیری مبتنی بر داده را از تصمیم گیری ناموفق با استفاده از داده متمایز می‌کند.
📍 تا به اینجا در مورد تاثیر داده در پیشرفت نتفلیکس صحبت کردیم، با این حال اگرچه داده‌ها هسته اصلی دستیابی به این موفقیت فوق‌العاده بوده است، اما عوامل دیگری نیز برای رشد نتفلیکس حیاتی هستند، مانند تخصص صنعت که به پیش‌بینی آنچه مصرف‌کنندگان می‌خواهند تماشا کنند، برای ثبت رفتار مصرف‌کننده ارگانیک حیاتی بوده است. بعلاوه، فرهنگ سازمان برای حمایت از تجزیه و تحلیل داده در همه سطوح و القای روشی در سطح شرکت برای سنجش، آزمایش و ارزیابی شواهد کمی، که مستلزم تعهد تزلزل ناپذیر مدیریت ارشد است

♦️ به عنوان سخن پایانی، نتفلیکس ثابت می‌کند که یک برند می‌تواند از طریق تجزیه و تحلیل منظم و بهینه سازی به راحتی با مشتریان ارتباط برقرار کند. به بیان ساده، استراتژی تبلیغاتی نتفلیکس مملو از چابکی، جمع آوری داده‌ها، تمرکز بر کاربر، شخصی سازی و فداکاری است. برندهای بزرگ و کوچک می‌توانند از چنین استراتژی پیروی کنند و در سهم ذهنی مخاطب از برند و ارزش بازار خود را افزایش دهند.

#محمدرضا_مرادی
#نتفلیکس
#کسب_و_کار_داده_محور



@BigData_BusinessAnalytics
www.bdbanalytics.ir
📌📌 معرفی ابزار: Apache Impala

🖌آپاچی ایمپالا (Apache Impala) یک پایگاه داده تحلیلی منبع باز و طراحی شده برای آپاچی هدوپ (Apache Hadoop) است.
✳️ ایمپالا با حفظ تجربه کاربری، عملکرد کوئری SQL را در آپاچی هدوپ بالا می‌برد. با استفاده از این ابزار می‌توانید کوئری‌های مختلف، از جمله SELECT، JOIN و توابع تجمیعی را به صورت بلادرنگ بر روی داده‌هایی که در HDFS یا Apache HBase ذخیره شده‌اند اجرا نمایید. علاوه بر این، ایمپالا با به کارگیری متادیتا، سینتکس SQL (Hive SQL)، درایور ODBC، و واسط کاربری (Hue Beeswax) مشابه آپاچی هایو، یک پلتفرم یکپارچه و آشنا برای کوئری‌های دسته‌ای و بلادرنگ را فراهم می‌نماید. به همین دلیل، کاربران آپاچی هایو می‌توانند به راحتی از ایمپالا استفاده نمایند.
♦️ معماری
برای جلوگیری از تأخیر، ایمپالا، MapReduce را دور می‌زند تا مستقیماً به داده‌ها از طریق یک موتور جستجوی توزیع شده تخصصی دسترسی پیدا کند که بسیار شبیه به موتورهایی است که در RDBMS های موازی تجاری یافت می‌شود. نتیجه، بسته به نوع کوئری و پیکربندی، عملکرد سریعتر نسبت به هایو است.
مزایای زیادی برای این رویکرد نسبت به روش‌های جایگزین برای کوئری بر روی داده‌های هدوپ وجود دارد، از جمله:
🔸به لطف پردازش محلی روی گره‌های داده، از گلوگاه‌های شبکه جلوگیری می‌شود.
🔹می‌توان از یک متادیتای واحد، باز و یکپارچه استفاده کرد.
🔸 تبدیل‌های پرهزینه در فرمت داده غیرضروری است و در نتیجه هزینه چندانی تحمیل نمی‌شود.
🔹به سرعت و بدون تاخیر بابت ETL، می‌توان بر روی تمام داده‌ها کوئری زد.
🔸تمام سخت افزار برای درخواست‌های ایمپالا و همچنین برای MapReduce استفاده می‌شود.
🔹برای افزایش مقیاس فقط به یک ماشین نیاز است.
به طور خلاصه ویژگی‌های ایمپالا عبارتند از:
📍کوئری‌های با سبک هوش کسب و کار بر روی هدوپ: ایمپالا کوئری‌های با تأخیر پایین و همزمان برای هدف هوش کسب و کار و تحلیلگری را بر روی هدوپ میسر می‌سازد (که توسط چارچوب‌های دسته‌ای مانند آپاچی هایو ارائه می‌شود). ایمپالا همچنین به صورت خطی مقیاس پذیر است، حتی در محیط‌های multi-tenant.
📍یکپارچه ساختن زیرساخت: به کارگیری فایل، فرمت داده، متادیتا، چارچوب‌های امنیت و مدیریت منابع مشابه با استقرار هدوپ که عدم نیاز به افزونگی در زیرساخت یا تبدیل داده و داده‌های تکراری را امکان‌پذیر می‌نماید.
📍پیاده‌سازی سریع: برای کاربران آپاچی هایو، ایمپالا همان متادیتا و درایور ODBC را مورد استفاده قرار می‌دهد. مشابه هایو، ایمپالا از SQL پشتیبانی می‌نماید بنابراین سرعت بالای پیاده‌سازی را به همراه خواهد داشت.
📍امنیت در کلاس سازمانی: ایمپالا با امنیت طراحی شده برای هدوپ و پروتکل‌های امنیتی آن یکپارچه شده است و با استفاده از ماژول Sentry می‌توان از تعریف دسترسی کاربران و اپلیکیشن‌ها به داده‌ها اطمینان حاصل نمود.
📍گسترش محدوده کاربری هدوپ: با استفاده از ایمپالا، کاربران بیشتری برای به کارگیری کوئری‌های SQL و یا اپلیکیشن‌های هوش کسب و کار، می‌توانند با داده‌های بیشتری از طریق مخزن داده و متادیتای واحد جهت تحلیل بهره مند شوند.


#معرفی_ابزار
#آپاچی_ایمپالا
#هدوپ
#Apache_Impala
#فاطمه_مظفری


@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Big Data for Big Decisions: Building a Data-Driven Organization"

✳️ بخش سوم کتاب "داده‌های عظیم برای تصمیمات بزرگ: ایجاد یک سازمان داده محور" به ارزش تحلیل عظیم داده برای مفاهیم شناخته شده و ناشناخته در سازمان می‌پردازد. برای بررسی این موضوع از مفهوم پنجره جوهری که یکی از الگوهای بسیار جالب و مورد توجه در تصویر کردن سطوح آگاهی در رفتار انسانی می‌باشد؛ استفاده می‌شود. سازمان‌هایی که به دنبال استفاده از عظیم داده برای تحلیل فرآیندهای کسب و کار و مشتریان می‌باشند با به کارگیری این مفهوم در دو بعد مشتریان و سایر ذینفعان می‌توانند استفاده بهتری از تحلیل داده‌ها داشته باشند.

🔹به طور مثال اگر دانسته‌های انسان را به دو دسته شناخته شده و ناشناخته تقسیم کنیم و همچین علم به اینکه آن موضوع را می دانیم یا خیر می‌توانیم یک ماتریس دو بعدی از این تلاقی تشکیل دهیم که شامل چهار گروه است:
1️⃣ گروه اول: نسبت به آنچه که می دانیم آگاه نیستیم.
2️⃣ گروه دوم: نسبت به آنچه نمی دانیم آگاه نیسیتم.
3️⃣ گروه سوم:نسبت به آنچه می دانیم آگاه هستیم.
4️⃣ گروه چهارم: نسبت به آنچه نمی دانیم آگاه هستیم.
تحلیل عظیم داده به نحوی می تواند در شناسایی هر یک از این چهار گروه به سازمان کمک کند.

🔸هر سازمان وابسته به اینکه چه تصمیمی در حال حاضر می‌گیرد و یا در آینده قصد دارد به آن سمت و سو برود و همچنین دسترسی و عدم دسترسی به داده می‌تواند کاربردهای عظیم داده را در چهار گروه قرار دهد که در صورت وجود داده شامل تحلیل عظیم داده برای شناسایی الگوها، تحلیل روندها و تحلیل آماری برای تصمیماتی است که در حال حاضر در دستور کار قرار ندارد. این کاربردها همچنین شامل تمرکز بر روی 10 درصد از تصمیماتی که 90 درصد تاثیر و نتایج را به دنبال دارند، مکانیزه کردن تمامی تصمیماتی که مبتنی بر قوانین می‌باشند و تصمیمات تجویزی در نقاط حیاتی برای تصمیمات کنونی که سازمان اتخاذ می‌کند، می‌باشد.


🔹همانطور که پیشتر ذکر شد یکی از الگوهای بسیار جالب و مورد توجه در تصویر کردن سطوح آگاهی در رفتار انسانی پنجره ی جوهری است. این مدل پیوند فرد با اشخاص دیگر را در چهار خانه نشان می‌دهد که این چهار خانه هریک خانه‌ای از یک پنجره ی بزرگ است. هر خانه نشان دهنده ی آگاهی - به‌وسیله ی خود فرد یا به‌وسیله ی دیگران - از رفتار، احساسات و انگیزه‌های خود است.همین مفهوم را در مورد تحلیل عظیم داده در یک سازمان در دو بعد مشتریان و سایر ذینفعان شامل کارکنان، سرمایه‌گذاران و جامعه در نظر گرفت.
از آنجاییکه سازمان‌ها در محیط ایستا عمل نمی‌کنند. همه چیز از مشتری الزامات مربوط به رقابت، مقررات دولتی و الزامات انطباق همه در طبیعت پویا هستند و می‌توانند به طور قابل توجهی یک شبه تغییر کنند. پاسخ به این سوال که چگونه یک سازمان اولویت‌های تحلیلی داده خود را به دست آورد جواب مشخصی ندارد و کاملا وابسته به سطح بلوغ سازمان در داده می‌باشد. همانطور که سازمان‌ها بالغ می‌شوند، تمایل دارند مناطق شناخته شده را پنجره جوهری چه از منظر مشتریان و سایر ذینفعان گشترس دهند. تا بدین ترتیب بتوانند؛ فرآیند محورتر شوند و داده‌های مرتبط ساختار یافته تری را کسب کنند و مهم‌تر از آن، تصمیم گیری ساختارمندتری دارند.

پنجره جوهری از نگاه مشتریان:
هر سازمان که به دنبال تحلیل داده محور کسب و کار می‌باشد باید پنجره جوهری را از دیدگاه مشتری در نظر بگیرد. در میان خانه‌های این پنجره از دیدگاه مشتری، ناحیه کور نشان دهنده درک مشتریان از ارزش محصولات و خدمات سازمان‌ها در مقابل سازمان‌های رقیب می‌باشد. این نشان دهنده فرصتی برای کشف ویژگی‌های پنهان تأثیرگذار در رفتار مشتریان از طریق به کارگیری تحلیل داده‌های رفتاری مشتریان می‌باشد. به طور مشابه، منطقه ناشناخته، دلایل رفتارهای کاملا پنهان مشتری می‌باشد که نه مشتریان و نه سازمان نسبت به آن آگاه نمی‌باشند. از نظر فنی و تحلیلی، این منطقه ممکن است فرصت‌هایی برای پیشرفت‌های بزرگ از طریق تجزیه و تحلیل عظیم داده‌ها داشته باشد.
پنجره جوهری از نگاه کارمندان:
پنجره جوهری از نگاه کارمندان می‌تواند برای سایر ذینفعان همچون سرمایه گذاران، جامعه و دولت نیز در نظر گرفته شود. مشارکت و حفظ کارکنان یکی از موضوعات کلیدی برای سازمان‌های پیشرو می‌باشد که در راس توجه به کیفیت زندگی افراد قرار دارد و از طریق این تحلیل این پنجره می‌توان کمک های شایانی را در این زمینه به سازمان کرد. به عنوان مثال چرا یک محصول یا جغرافیای سازمان از منظر شاخص‌های سنجش رضایت کارکنان بهتر از بقیه است؟




#کتاب_بخوانیم
#فصل_سوم
#علی_محمدی
#تصمیم_گیری
#سازمان_داده_محور

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📌معرفی مقالات داغ حوزه عظیم داده‌ها

❇️نام مقاله:
 Issues and Challenges of Aspect-based
Sentiment Analysis: A Comprehensive Survey


🖋نویسندگان: 
Ambreen Nazir , Yuan Rao, Lianwei Wu , and Ling Sun


📔منتشر شده در : 
IEEE Transactions on Affective Computing

🔸این مقاله به حوزه تحلیل احساسات (SA) که به عنوان عقیده کاوی نیز نامیده می‌شود، بعنوان یک حوزه تحقیقاتی فعال برای نمایش احساسات و کشف خودکار احساسات بیان شده در متن می‌پردازد. هدف SA معمولاً محصول یا خدماتی است که در بین مردم مورد توجه است و افراد به بروز احساسات نسبت به آن اهمیت می­‌دهند. به طور سنتی، SA به عنوان یک قطبیت عقیده در نظر گرفته می‌شود که آیا شخصی در مورد یک رویداد احساسات مثبت، منفی یا خنثی ابراز کرده است.

🔸تحلیل احساسات  به طور کلی در سه سطح طبقه‌بندی شده است. سطح سند، سطح جمله و سطح جنبه به این معنا که آیا یک سند کامل، یک جمله (ذهنی یا عینی) و یک جنبه بیانگر یک احساس است، یعنی مثبت، منفی یا خنثی.

🔸حوزه تحلیل احساسات مبتنی بر جنبه(AbSA)، که در آن جنبه‌ها استخراج می‌شوند، احساسات مربوط به آن‌ها تحلیل می‌شوند و احساسات در طول زمان تکامل می‌یابند، با افزایش بازخورد عمومی و حضور مشتریان در رسانه‌های اجتماعی، بسیار مورد توجه قرار گرفته است. پیشرفت‌های عظیم در این زمینه، محققان را بر آن داشت تا تکنیک‌ها و رویکردهای جدیدی را ابداع کنند، که هر کدام متمرکز بر یک تحلیل/پرسش پژوهشی متفاوت بوده و با مسائل آتی و سناریوهای پیچیده تحلیل احساسات مبتنی بر جنبه کار می‌کند.
 
 🔸حوزه AbSA را می­‌توان بر اساس سه مرحله پردازش اصلی طبقه‌بندی کرد: استخراج جنبه (AE)، تجزیه و تحلیل احساسات جنبه (ASA) و تکامل احساسات (SE). فاز اول به استخراج جنبه‌ها می‌پردازد که می‌تواند جنبه‌های صریح، جنبه‌های ضمنی، اصطلاحات جنبه، موجودیت‌ها و هدف عبارات نظر (OTE) باشد. مرحله دوم قطبیت احساسات را برای یک جنبه، هدف یا موجودیت از پیش تعریف شده طبقه بندی می­‌کند. این مرحله همچنین تعاملات، وابستگی­‌ها و روابط معنایی زمینه­‌ای را بین اشیاء داده­‌ای مختلف، به عنوان مثال، جنبه، موجودیت، هدف، هدف چند کلمه­‌ای، کلمه احساس، برای دستیابی به دقت طبقه‌بندی احساسات، فرموله می­‌کند. مرحله سوم به پویایی احساسات افراد نسبت به جنبه­‌ها (رویدادها) در یک دوره زمانی مربوط می­‌شود. ویژگی­‌های اجتماعی و تجربه شخصی به عنوان علل اصلی SE در نظر گرفته می­‌شود.

🔸از سویی نویسندگان مقاله تاکید دارند که تمرکز پژوهش­‌های موجود به جزئیات فنی یا مراحل خاص AbSA محدود می­‌شود و در آنها مسائل مهم و چالش­‌های کلیدی AE، ASA، SE به طور دقیق بیان و خلاصه نشده است. همچنین به دلیل دستاوردها و نوآوری­‌های نمایی در سال­‌های اخیر، نتایج آن پژوهش‌ها در معرض منسوخ شدن قرار گرفته­‌اند. لذا برای پر کردن این شکاف، نویسندگان مقاله یک بررسی جامع مرتبط با AbSA را پیشنهاد می‌کنند.

 🔸در همین راستا این پژوهش بر مطالعه مسائل و چالش‌های مرتبط با استخراج جنبه‌های مختلف و احساسات مربوط به آن‌ها، نگاشت رابطه‌ای بین جنبه‌ها، تعاملات، وابستگی‌ها و روابط معنایی زمینه‌ای بین اشیاء داده‌ا­ی مختلف برای بهبود دقت احساسات و پیش‌بینی پویایی تحول احساسات تمرکز دارد.

🔸در نهایت یک مرور کلی دقیق از پیشرفت­‌های اخیر در این حوزه خواهد داشت بر اساس اینکه سهم هریک در برجسته کردن و کاهش موضوعات مربوط به استخراج جنبه، تحلیل احساسات جنبه یا تکامل احساسات چه بوده است. عملکرد گزارش شده برای هر مطالعه موشکافانه استخراج جنبه و تحلیل احساسات جنبه نیز ارائه شده است که ارزیابی کمی رویکرد پیشنهادی را نشان می‌دهد.  در انتها رویکردهای تحقیقاتی آتی با تحلیل انتقادی راه‌حل‌های اخیر ارائه شده پیشنهاد و مورد بحث قرار می‌گیرند که برای محققین مفید و برای بهبود طبقه‌بندی احساسات در سطح جنبه کارآمد خواهد بود.

👈در صورت تمایل، می‌توانید فایل مقاله را دانلود فرمایید👇👇

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی
www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌مک دونالد یک موسسه آمریکایی است، که در سال 1940 به عنوان رستورانی تحت مدیریت ریچارد و موریس مک دونالد در سن برناردینو، کالیفرنیا تأسیس شد که تحت رهبری ری کروک رشد کرد و به برند پیشرو رستوران خدمات سریع در جهان تبدیل شد که از طریق نزدیک به 40 هزار شعبه در بیش از 70 میلیون مشتری خدمات ارائه می‌دهد. امروزه در 100 کشور مک دونالد حضور دارد و یکی از نمادین‌ترین برندهای جهان است.

📍کریگ برابک (Craig Brabec) مدیر ارشد تجزیه و تحلیل داده‌ها (CDAO) در مک دونالد است، سمتی که او در پاییز 2020 به عهده گرفت. برابک پیش از این رهبر بینش و تجزیه و تحلیل اطلاعات در شرکت خودروسازی فورد بود و قبل از آن به مدت طولانی مدیر ارشد تجزیه و تحلیل کاترپیلار بود. برابک توضیح می‌دهد: «به‌عنوان CDAO مک‌دونالد، وظیفه من این است که داده‌ها را برای ارزش در سراسر سازمان جهانی القا کنم. در این مقام، من مسئول هدایت تحول داده‌های سازمانی، ایجاد بهترین استراتژی و مدیریت داده در کلاس، و بشارت دادن به این تغییرات در سراسر مک‌دونالد هستم.» او ادامه می‌دهد: «به عنوان بخشی از برنامه رشد استراتژیک مک‌دونالد، «شتاب دادن به قوس‌ها»، این شرکت متعهد به نوآوری در زمینه‌های «دیجیتال، تحویل و رانندگی» است. مک‌دونالد متعهد به ابتکاراتی است که تلاش‌ها را تسریع می‌کند تا تجربه مشتری و خدمه راحت‌تر و منحصربه‌فرد را تضمین کند.»

♦️به عنوان نمونه ای از نحوه استفاده مک دونالد از داده‌ها و تجزیه و تحلیل‌ها برای بهبود تجربه مشتری و خدمه، برابک به تلاشی اشاره می‌کند که مک دونالد با توسعه و استقرار فناوری سفارش خودکار (AOT) در رستوران‌های مک دونالد انجام می‌دهد. مک دونالد با ابتکار AOT با آی‌بی‌ام همکاری می‌کند و بر تخصص آن‌ها در ارائه راه‌حل‌های مراقبت از مشتری با هوش مصنوعی و پردازش زبان طبیعی تکیه می‌کند. AOT تعاملات مشتری را خودکار می‌کند، با استفاده از داده‌های مشتری و جزئیات سفارش برای تسریع دقت و انجام سفارش با حداقل دخالت انسانی. از طریق AOT، کارمندان می‌توانند موثرتر باشند. آنها می‌توانند به جای گرفتن و وارد کردن سفارشات، روی مسئولیت‌های دیگر تمرکز کنند. یک سیستم خودکار سفارش غذا اشتباهات در پذیرش سفارش‌ها را از بین می‌برد، زیرا اطلاعات مشتری و جزئیات سفارش بر روی تابلوهای منو دیجیتال نمایش داده می‌شود. AOT همچنین می‌تواند با ایجاد پایگاه‌داده‌ای از تجربه سفارش آنلاین که تصمیمات مبتنی بر داده‌ها و اتوماسیون ارتباطات مشتری از جمله شخصی‌سازی را امکان‌پذیر می‌سازد، از خدمات مشتری و فعالیت‌های بازاریابی پشتیبانی کند.

♦️توسعه و آزمایش فناوری AOT در رستوران‌های مک‌دونالد، مزایایی را به مشتریان ارائه می‌کند و در عین حال تجربه خدمه رستوران را افزایش می‌دهد. برابک خاطرنشان می‌کند: «تمرکز ما بر تجربه مشتری و خدمه ما را بر آن می‌دارد تا به دنبال استفاده از هوش مصنوعی در سراسر کسب‌وکار باشیم – در حوزه‌های مشتری با تماس بالا و همچنین زنجیره تأمین. عملیات رستوران، طراحی و توسعه؛ پایداری؛ و حتی عملکردهای شرکتی." تحقیقات نشان می‌دهد که استفاده از AOT برای ارائه خدمات مبتنی بر داده تأثیر مثبتی بر بهره وری کارگران و سودآوری کلی دارد. شش بازار برتر مک‌دونالد در سال 2021 شاهد بیش از یک چهارم فروش سیستمی خود (یا 18 میلیارد دلار) از کانال‌های دیجیتالی – متشکل از اپلیکیشن موبایل، تحویل و کیوسک‌های درون فروشگاهی – بودند که نسبت به سال 2020 ،60 درصد افزایش داشته است.

📍برابک خاطرنشان می‌کند که شرکت‌هایی مانند مک دونالد باید طیف وسیعی از مسائل را بر اساس داده‌های مشتری، مانند ردپای شهری در مقابل حومه، و مفاهیم جدید در نظر بگیرند. او اهمیت به کارگیری تفکر در صنایع دیگر، مانند کاهش موجودی کالا، کاهش پیچیدگی، و دیگر روش‌های «تولید همبرگر در حجم» را برجسته می‌کند. مک دونالد ارزش تجاری سرمایه گذاری خود در داده ها و تجزیه و تحلیل را با ردیابی عملکرد کلی کسب و کار و همچنین معیارهای تجربه مشتری می‌سنجد. برابک نتیجه گیری می‌کند: "مهم است که تلاش‌های ما مستقیماً با عملکرد تجاری مرتبط باشد - برای نشان دادن تأثیر واقعی آنها و اولویت بندی و هماهنگی با ابتکارات استراتژیک خود."
♦️از دیگر اقدامات مک دونالد برای حرکت به سوی داده محوری این است که چند وقت پیش مک‌دونالد استارت‌آپ «Dynamic Yield» را به قیمت 300 میلیون دلار خریداری کرد که آن را به یکی از بزرگترین خریدها در تاریخ خود تبدیل کرد. Dynamic Yield از یادگیری ماشینی استفاده می‌کند تا به خرده‌فروشانی مانند Ikea و Sephora را با فناوری «منطق تصمیم‌گیری» مبتنی بر الگوریتم ارائه دهد. «منطق تصمیم‌گیری» فناوری است که توصیه‌های آنلاین را تقویت می‌کند، به انگیزه «مشتریان نیز خریدند» فکر کنید که وقتی چیزی به سبد خود اضافه می‌کنید دریافت می‌کنید.
📍به عنوان صحبت آخر، مک دونالد در قسمت داده محوری اصول زیر را رعایت میکند :
1️⃣ در لحظه خرید داده‌های بهتری بگیرید:
آوردن لحظه خرید به یک رابط دیجیتال به شما یک نمای زنده از عادات خرید می‌دهد: افراد در حال مرور چه چیزی هستند، چه زمانی خریداری می‌کنند.
نقاط داده متنی همچنین می‌توانند این داده‌های خرید را غنی‌تر کنند: زمان روز/سال، مشغله‌ی فروشگاه، آب‌وهوا، گوش‌دادن اجتماعی، حتی افرادی که در آن زمان با آنها خرید می‌کنند.
2️⃣ تجزیه و تحلیل و استخراج الگوها از داده‌ها:
مشابه تجزیه و تحلیل تجزیه و تحلیل آنلاین، الگوها را می‌توان از طریق داده‌های داخل فروشگاه تشخیص داد که به شما بینشی در مورد رفتار خرید می‌دهد. با استفاده از این شواهد، تیم‌ها می‌توانند فرضیه‌هایی در مورد آنچه مشتریان می‌خواهند و به احتمال زیاد با آن درگیر هستند، تشکیل دهند.
به عنوان راهی برای اثبات یا رد این فرضیه‌ها، آزمایش‌های کوچک (A/B Testing) باید در داخل فروشگاه اجرا شوند تا مفروضات را تأیید کنند.
3️⃣ توصیه‌های سطحی به مشتریان در فروشگاه:
فرضیه‌های ساده انگارانه می‌توانند به عنوان قوانین وارد یک موتور توصیه شوند - یعنی اگر کاربر این کار را انجام داد، این را به آنها پیشنهاد دهید. با گذشت زمان، این موتور می‌تواند شروع به محاسبه پیشنهادات پیچیده‌تر و شخصی‌تر کند و آنها را مستقیماً از طریق رابط‌های دیجیتال به مشتریان ارائه دهد.
جمع‌آوری داده‌های بهتر و درک بینش‌های بهتر در نهایت به توصیه‌های مرتبط‌تر و حتی طرح‌بندی فروشگاه‌های جدید منجر می‌شود.


#محمدرضا_مرادی
#مک_دونالد
#کسب_و_کار_داده_محور



@BigData_BusinessAnalytics
www.bdbanalytics.ir
📌📌 معرفی ابزار: Google BigQuery

🖌گوگل بیگ کوئری یک پلتفرم ذخیره‌سازی و تجزیه و تحلیل داده مبتنی بر ابر است که به کسب‌وکارها امکان می‌دهد تا مقادیر زیادی از داده‌ها را در زمان واقعی با استفاده از پرس‌وجوهای SQL مانند تجزیه و تحلیل کنند. این برای تجزیه و تحلیل و پردازش مجموعه داده های عظیم به سرعت و مقرون به صرفه طراحی شده است، و برای مشاغلی که نیاز به پردازش مقادیر زیادی داده دارند ایده آل است.

❇️ بیگ کوئری یک انبار داده سازمانی کاملاً مدیریت شده است که کمک می کند تا داده‌های سازمان با ویژگی‌های داخلی مانند یادگیری ماشینی، تجزیه و تحلیل جغرافیایی و هوش تجاری مدیریت و تجزیه و تحلیل شود. معماری بدون سرور BigQuery این امکان را می‌دهد از پرس و جوهای SQL برای پاسخ به بزرگترین سؤالات سازمان با مدیریت زیرساخت صفر استفاده شود.

🔹بیگ کوئری با جدا کردن موتور محاسباتی که داده‌ها را تجزیه و تحلیل می‌کند از گزینه‌های ذخیره‌سازی، انعطاف‌پذیری را به حداکثر می‌رساند.

🔹رابط‌های BigQuery شامل رابط کنسول Google Cloud و ابزار خط فرمان BigQuery است. توسعه دهندگان و دانشمندان داده می‌توانند از کتابخانه‌های سرویس گیرنده با برنامه نویسی آشنا از جمله پایتون، جاوا، جاوا اسکریپت و Go و همچنین REST API و RPC API BigQuery برای تبدیل و مدیریت داده‌ها استفاده کنند. درایورهای ODBC و JDBC با برنامه‌های موجود از جمله ابزارها و ابزارهای شخص ثالث تعامل برقرار می‌کنند.
مستندات BigQuery ML به یک تحلیلگر داده، مهندس داده، مدیر انبار داده یا دانشمند داده کمک می‌کند که ابزارهای داده را کشف، پیاده سازی و مدیریت کند تا تصمیمات تجاری اتخاذ و اطلاع رسانی شود.

🔹بیگ کوئری داده‌ها را در جداول ذخیره می‌کند که می‌توان با استفاده از نحو شبیه به SQL پرس و جو کرد، و این پلتفرم با سایر سرویس‌های Google Cloud Platform مانند Dataflow، Dataproc، و Cloud Storage یکپارچه می‌شود تا یک راه‌حل قدرتمند تجزیه و تحلیل سرتاسر ارائه دهد.

🔹یکی از مزایای کلیدی BigQuery مقیاس‌پذیری آن است – این پلتفرم می‌تواند مجموعه‌های داده در مقیاس پتابایت را بدون نیاز به مدیریت زیرساخت از جانب کاربر مدیریت کند. این امر آن را به گزینه ای جذاب برای مشاغلی تبدیل می کند که نیاز به پردازش حجم زیادی از داده ها دارند و می خواهند از هزینه ها و پیچیدگی های مرتبط با راه حل های انبار داده در محل جلوگیری کنند.

🔹علاوه بر این، BigQuery ویژگی هایی مانند پارتیشن بندی و اشتراک گذاری خودکار جداول، ادغام با ابزارهای یادگیری ماشینی مانند TensorFlow و پشتیبانی از تجزیه و تحلیل جریان داده در زمان واقعی را ارائه می دهد.

🔹بیگ کوئری یک راه حل ذخیره سازی داده و هوش تجاری مبتنی بر ابر است که توسط Google ارائه شده است. این به سازمان ها اجازه می دهد تا مجموعه داده های عظیم را با استفاده از پرس و جوهای SQL مانند تجزیه و تحلیل کنند.
در اینجا برخی از ویژگی ها و قابلیت های کلیدی بیگ کوئری آورده شده است
📍مقیاس پذیر: BigQuery برای مدیریت حجم عظیمی از داده ها طراحی شده است و پردازش پتابایت داده را در عرض چند ثانیه آسان می کند.
📍بدون سرور: BigQuery بدون سرور است، به این معنی که شما نیازی به تهیه یا مدیریت هیچ زیرساختی ندارید. کل تنظیمات توسط Google Cloud Platform مدیریت می شود.
تجزیه و تحلیل بلادرنگ: با BigQuery، می‌توانید آنالیز بی‌درنگ داده‌های خود را هنگامی که به سیستم منتقل می‌شوند، انجام دهید.
📍تجزیه و تحلیل پیشرفته: BigQuery طیف وسیعی از قابلیت های تجزیه و تحلیل پیشرفته مانند یادگیری ماشین، تجزیه و تحلیل جغرافیایی و اتصالات داده را برای ابزارهای محبوب BI ارائه می دهد.
مقرون به صرفه: BigQuery یک مدل قیمت گذاری منعطف را ارائه می دهد، که در آن شما فقط برای مقدار داده ای که درخواست می کنید پرداخت می کنید.
📍امنیت داده ها: BigQuery ویژگی های امنیتی در سطح سازمانی مانند رمزگذاری در حالت استراحت و در حال انتقال، نقش های IAM و گزارش های حسابرسی را ارائه می دهد.
📍یکپارچه سازی: BigQuery با سرویس های مختلف پلتفرم Google Cloud مانند Cloud Storage، Dataflow، Dataproc و غیره ادغام می شود.
به طور کلی، BigQuery یک راه حل قدرتمند و انعطاف پذیر برای سازمان هایی است که به دنبال درک داده های خود هستند، و طیف گسترده ای از ویژگی ها را برای کمک به کاربران برای تجزیه و تحلیل و مدیریت کارآمد مجموعه داده‌های عظیم ارائه می‌دهد.

#معرفی_ابزار
#بیگ_کوئری
#گوگل
#عظیم_داده
#Google_Big_Query
#فاطمه_مصلحی


@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Big Data for Big Decisions: Building a Data-Driven Organization"

✳️ فصل چهارم کتاب "داده‌های عظیم برای تصمیمات بزرگ: ایجاد یک سازمان داده محور" به ارائه نقشه راه برای تحلیل‌گری در راستای ایجاد یک سازمان داده محور می‌پردازد.

📍بر این اساس هشت موضوع در این فصل مورد بررسی قرار می‌گیرد:
1️⃣ چالش کسب ارزش از تحلیل‌گری: هر چند ضرورت سرمایه گذاری بر روی تحلیل‌گری پیشرفته به عنوان یک ضرورت مطرح است، اما طبق گزارش گارتنر فقط بین 30 تا 40 درصد از ابتکارات تحلیل‌گری نوعی ارزش کسب و کاری را حاصل می‌نماید.
2️⃣ تحلیل‌گری تصمیم‌گرا: اهمیت شروع از تصمیم و کار کردن با داده‌های پشت تصمیمات
3️⃣ اهمیت شروع از پایان: مشکل شروع از داده. چه تضمینی وجود دارد که پس از پردازش داده‌های خام، بینش‌های ارزشمندی وجود داشته باشد؟
4️⃣ رمزگشایی از داده‌های پشت تصمیمات: بر خلاف رویکرد سنتی، این فرآیند به شناسایی شکاف‌های داده‌ای پشت تصمیم کمک کرده و استراتژی منبع یابی داده را برای داده‌های گمشده ایجاد می‌نماید.
5️⃣ با مدیر موقت ملاقات کنید: در حالی که مدیران موقت پیشرفت می‌کنند، آن عده معدودی که به دنبال راه‌حل‌های دائمی و جامع هستند ضرر می‌کنند، زیرا برداشت عمومی از «جستجوی راه‌حل دائمی سازمانی» عالی به نظر نمی‌رسد.
6️⃣ راه حل‌های محلی در مقابل عمومی: یک استدلال قانع کننده برای اینکه چرا سازمان‌ها باید اجرای یک تمرین تحولی داده-به-تصمیم در سطح سازمان را در نظر بگیرند.
7️⃣ طرز تفکر مشکل در مقابل فرصت: مفهوم حل نقطه ای راه‌حلی برای "مشکل خاص" بر اساس این پیش‌فرض است که سیستم با حل مشکل در اوج بهره‌وری خود است و از این رو نیازی نیست که به دنبال فرصت‌های بیشتری برای بهینه سازی هزینه و زمان چرخه، یا دستیابی به مشتریان بیشتر باشید.
8️⃣ نقشه راه برای سازمان داده محور: تصمیمات بزرگ کدامند؟ تصمیماتی که توسط CxO ها گرفته می‌شوند؟ تصمیمات راهبردی؟ تصمیمات مربوط به سرمایه‌های کلان؟
❇️ بنابراین با بررسی هر یک از موضوعات مذکور، اگر سازمانی بخواهد خارج از چارچوب فکر کند و بتواند تمام فرصت‌های "بزرگ" را که در آن تحلیل‌گری می‌تواند تفاوت ملموسی در کیفیت تصمیم‌ها ایجاد کند کشف نماید، نکات زیر می‌تواند راهگشا باشد:
تصمیمات بزرگ را شناسایی کنید - 10٪ از تصمیماتی که 90٪ از نتایج کسب و کار را تحت تأثیر قرار می‌دهند.

یک نقشه راه اولویت برای تحلیل‌گری پیشرفته، بر اساس حیاتی بودن تصمیمات کسب و کاری و اندازه ارزش مادی حاصل از آن ایجاد کنید.

یک نقشه راه تحول آفرین و یک مورد کسب و کاری برای تحلیل‌گری ایجاد کنید.

داده‌های پشت تصمیمات را برای هر یک از تصمیمات شناسایی شده درک نمایید.

شکاف داده‌ها را شناسایی کنید. به عنوان مثال داده‌هایی که برای پشتیبانی از تصمیم نیاز دارید، اما در حال حاضر ندارید.

کیفیت داده‌ها را بهبود بخشید.

نهادینه کردن حاکمیت داده‌ها. استانداردهای داده و تعاریف داده و سایر موارد را معرفی کنید.

پیاده سازی تحلیل‌گری مطابق با نقشه راه تحول.

یک ممیزی ارزش به صورت دوره ای انجام دهید.


#کتاب_بخوانیم
#فصل_چهارم
#فاطمه_مظفری
#تصمیم_گیری
#سازمان_داده_محور
#Big_Data_for_Big_Decisions_Building_a_Data_Driven_Organization

www.bdbanalytics.ir
@BigData_BusinessAnalytics
This media is not supported in your browser
VIEW IN TELEGRAM
📌📌 اهمیت تحلیل‌گری عظیم داده‌

🔹 در این ویدئو کوتاه، پنج ویژگی اهم تحلیل‌گری عظیم داده مرور می‌شود.

#ويدئوکوتاه
#عظیم_داده
#تحلیلگری
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📌📌 معرفی ابزار: InfluxDB

🖌 پایگاه داده InfluxDB یک پایگاه داده سری زمانی متن باز (TSDB) است که توسط شرکت InfluxData توسعه یافته است. این پایگاه داده با استفاده از زبان برنامه نویسی Go برای ذخیره و بازیابی داده‌های سری زمانی با کاربردهایی مانند پایش عملیات، داده‌های حسگرهای اینترنت اشیا و تحلیل‌گری بلادرنگ نوشته شده است.

✳️ به طور کلی پایگاه داده‌های سری زمانی شامل اندازه‌گیری‌ها یا رویدادهایی است که تحت پایش، ردیابی و پالایش داده‌ها شامل نمونه‌برداری و جمع‌آوری در طول زمان قرار می‌گیرند و بنابراین می‌توانند شامل داده‌های نظارت بر اپلیکیشن‌ها، داده‌های مربوط به حسگرها، داده‌های معاملات بازار و بورس اوراق بهادار باشند. پایگاه داده سری زمانی قادر به دریافت میلیون‌ها نقطه داده در ثانیه است که بر این اساس عملکرد سطح بالایی را ارائه می‌دهد.

♦️ بنابراین با استفاده از InfluxDB، اپلیکیشن‌های بلادرنگ برای تحلیل‌گری، اینترنت اشیا و سرویس‌های ابری بومی (cloud-native) در زمان کمتر و با کد کمتر قابل دستیابی است. همچنین InfluxDB دارای یک زبان پرس و جو (کوئری) از نوع SQL است که به طور خاص برای داده‌های سری زمانی ایجاد شده است.

📍مفاهیم پایه در InfluxDB عبارتند از:

1️⃣ اندازه‌گیری (measurement): اندازه‌گیری تقریباً معادل مفهوم جدول در پایگاه‌های داده رابطه‌ای است. بنابراین داده‌ها در آن ذخیره می‌شود و پایگاه داده می‌تواند چندین اندازه‌گیری داشته باشد. یک اندازه گیری از 3 نوع ستون Time، Tags و Fields تشکیل شده است.

2️⃣ زمان: یکی دیگر از اجزای این پایگاه داده زمان است که به صورت timestamp جهت ردیابی ستون برای انجام عملیات سری زمانی به روشی بهتر مورد استفاده قرار می‌گیرد. به طور پیش‌فرض زمان مورد استفاده، زمان Influxdb است که بر حسب نانوثانیه می‌باشد، اما می‌توان آن را با زمان رویداد جایگزین کرد.

3️⃣ برچسب‌ها: یک برچسب شبیه به یک ستون ایندکس شده در یک پایگاه داده رابطه‌ای است. نکته مهمی که در این خصوص وجود دارد این است که عملیات رابطه‌ای مانند WHERE، GROUP BY و غیره را می‌توان بر روی یک ستون تنها در صورتی انجام داد که به عنوان یک برچسب مشخص شده باشد.

4️⃣ فیلدها: فیلدها ستون‌هایی هستند که عملیات ریاضی مانند مجموع، میانگین و غیره را می‌توان بر روی آنها انجام داد. با این حال، در نسخه های اخیر، مقادیر به صورت رشته را نیز می‌توان به عنوان یک فیلد ذخیره کرد.

5️⃣ سری‌ها: سری‌ها مهم‌ترین مفهوم Influxdb هستند. یک سری ترکیبی از برچسب‌ها، اندازه‌گیری و سیاست نگهداشت است. عملکرد پایگاه داده Influxdb به شدت به تعداد سری‌های منحصر به فرد آن بستگی دارد.

📍با توجه به اینکه Spark از متداول‌ترین ابزارهای متن باز در زمینه پردازش داده‌های عظیم است، پایگاه داده InfluxDB می‌تواند به همراه جریان با ساختار اسپارک برای پردازش، ذخیره و مصورسازی داده‌ها به صورت بلادرنگ مورد استفاده گیرد. در حال حاضر دو پیاده‌سازی متن باز از InfluxDb sink برای نوشتن داده‌ها از طریق جریان ساختاریافته، chronicler و reactive-influx وجود دارد. همچنین با ذخیره داده می‌توان از ابزارهای مختلفی مانند Grafana و Chronograph و غیره برای مصورسازی آن استفاده نمود.

❇️ برای دانلود می‌توانید به سایت زیر مراجعه فرمایید:
🔗 https://www.influxdata.com


#معرفی_ابزار
#InfluxDB
#سری_زمانی
#داده‌های_عظیم
#فاطمه_مظفری


@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Big Data for Big Decisions: Building a Data-Driven Organization"


🔹 فصل پنجم کتاب "داده‌های عظیم برای تصمیمات بزرگ: ایجاد یک سازمان داده محور" به شناسایی تصمیمات مهم و تاثیرگذار در سازمان می‌پردازد. در فصل‌های گذشته، متوجه شدیم که ساختن یک سازمان مبتنی بر داده نیازمند شناسایی و اولویت‌بندی تصمیمات "عظیم" برای بینش‌های عملی مبتنی بر داده است. سوال بعدی این است: چگونه به دقت می‌توان تصمیمات "عظیم" را شناسایی کرد؟ چگونه می‌توان تصمیمات عظیم را از هزاران تصمیم روزانه دیگری که هر مدیر در سازمان می‌گیرد، تفکیک کرد؟
📍گام اول برای شناسایی این تصمیمات، لیست کردن و طبقه‌بندی تمام تصمیمات کلیدی در سازمان است. در مرحله بعد نیاز است تا ارزش تجاری مرتبط با هر یک از این تصمیمات تخمین زده شود.

🔸سرمایه فعلی سازمان در تحلیل‌گری داده
پیش از آنکه سازمان شروع به پیاده‌سازی ابزارهای تحلیلی عظیم داده کند، نیاز است تا سرمایه‌های فعلی خود در این راستا را شناسایی کند. در همین راستا در این بخش از کتاب توصیه می‌شود که انجام یک ارزیابی دقیق برای بررسی گزارش‌های هوش سازمانی و دارایی‌های تجزیه و تحلیل موجود در سازمان ضروری می‌باشد. هدف اصلی این مرحله دستیابی به شناختی جامع از چشم‌انداز تجزیه و تحلیل موجود و فرایند تصمیم‌گیری بر اساس داده‌ها می‌باشد.
در ابتدا ممکن است این فرضیه مطرح شود که پروژه‌های تجزیه و تحلیل معمولاً بر اساس تصمیمات خاصی که توسط مدیران گرفته می‌شوند، برنامه‌ریزی و طراحی می‌شوند. با این حال، ارزیابی دقیق بیشتر پروژه‌ها براساس نیازهای مشتریان داخلی و نه نیازهای صریح در تصمیم‌گیری آغاز می‌شوند. علاوه بر این، جمع‌آوری داده‌ها نقش محوری در پروژه‌های تحلیلگری عظیم داده داشته و شامل مرتب‌سازی، نرمال‌سازی و تجزیه و تحلیل حجم زیادی از داده‌ها با استفاده از الگوریتم‌های خوشه‌بندی و طبقه‌بندی می‌باشد.

🔹 هنر گمشده تصمیم گیری

این بخش از کتاب به طور خاص بر لیست کردن و مستند سازی تصمیم‌های سازمان‌ها را تاکید ویژه‌ای دارد. نویسنده کتاب به این نکته اشاره می‌کند که در حالی که استثناهایی برای تصمیمات مرتبط با هزینه‌های سرمایه بزرگ وجود دارد، به طور کلی، کمبودی در مستندسازی و طبقه‌بندی تصمیمات در سازمان‌ها وجود دارد. محققان دانشگاهی معمولاً مسئولیت طبقه‌بندی تصمیمات را بر عهده می‌گیرند و عواملی مانند تصمیمات برنامه‌ریزی شده در مقابل تصمیمات غیر برنامه‌ریزی شده، تصمیمات عمده در مقابل تصمیمات کوچک، تصمیمات عملیاتی در مقابل تصمیمات استراتژیکی و تصمیمات فردی در مقابل تصمیمات گروهی را مد نظر قرار می‌دهند. نویسنده کتاب در این بخش مطالعه موردی مورد بررسی قرار داده است اما ازآنجاییکه هیچ لیست مستندسازی شده از تصمیمات درون شرکت وجود ندارد؛ اطلاعات از طریق مصاحبه با مدیران جمع‌آوری شده است. در گفتگوهای اولیه با مدیران ارشد، موضوعات مشترک مشخص شدند:
1️⃣ مدیران باور داشتند که تعداد زیادی تصمیم می‌گیرند، اما در به یاد آوردن تصمیمات خاص سختی وجود داشت.
2️⃣ آنها اذعان کردند که کیفیت تصمیمات بر تاثیرات کسب و کار تأثیر می‌گذارد.
3️⃣ به طور غریزی، آنها تشخیص دادند که برخی تصمیمات اهمیت بیشتری دارند، اما زمانی برای شناسایی و لیست کردن آنها نگذاشته بودند.
4️⃣ هنگامی که از آنها خواسته شد تا یک تصمیم مهم از سال گذشته را شناسایی کنند، مدیران بیشتر به تصمیمات سرمایه‌گذاری مرتبط با هزینه‌های سرمایه بزرگ اشاره کردند.
🔸 اولویت‌بندی تصمیم گیری‌ها

بعد از مشخص شدن تصمیمات کلیدی برای یک سازمان نیاز است تا یک روش‌شناسی هدفمند برای امتیازدهی و اولویت‌بندی تصمیمات بر اساس تأثیر آنها بر نتایج تجاری ارائه شود. نویسنده کتاب مدعی است که در طی تحقیقات، با کمبود روش‌های اثبات‌شده برای اولویت‌بندی تصمیمات مواجه شد. بر همین اساس به اصل معروف آیزنهاور ارجاع می‌دهد که بر اساس ضرورت و اهمیت وظایف اولویت‌بندی می‌شود. این اصل، که به وسیله جعبه آیزنهاور نمایش داده می‌شود، به عنوان ابزاری مفید برای افزایش بهره‌وری شخصی عمل می‌کند. با این حال، برای اولویت‌بندی تصمیمات در سازمان به‌طور کلی، باید ارزیابی جامعی از تصمیمات به علاوه تأثیر آنها بر نتایج تجاری صورت بگیرد. به رغم تحقیقات گسترده، نویسنده فقط تعداد محدودی مقاله را پیدا کرد که بر اهمیت دسته‌بندی و اولویت‌بندی تصمیمات تأکید داشتند. این شامل مقالاتی است که تصمیمات استراتژیک را متمایز از تصمیمات روزمره شناسایی کرده و تصمیمات را بر اساس تعهد و دامنه شرکت ارزیابی می‌کنند. یکی دیگر از مدل هایی که در این فصل به آن اشاره شده است مدل باین می باشد. این مدل در درجه اول بر ارزش در خطر و توجه مدیریت مورد نیاز به عنوان عواملی برای اولویت‌بندی تصمیم‌ها تمرکز می‌کند.
یکی از چالش‌های اصلی در اولویت بندی تصمیمات این می باشد که کمی کردن توجه مدیریت چالش برانگیز است، زیرا می‌تواند در بین افراد و سطوح تصمیم گیری متفاوت باشد. علاوه بر این، تصمیماتی که نیاز به توجه نقش‌های مختلف مدیریتی دارند یا شامل تصمیم‌گیری جمعی هستند، نباید دارای وزن یکسانی باشند. تصمیمات مبتنی بر قانون تنها در صورتی می‌توانند خودکار شوند که داده‌های لازم جمع‌آوری شده باشد و زیرساخت اتوماسیون وجود داشته باشد. بدون پشتیبان داده‌ها، همه تصمیمات به صلاحدید مدیریتی نیاز دارند.




#کتاب_بخوانیم
#فصل_پنجم
#علی_محمدی
#تصمیم_گیری
#سازمان_داده_محور

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📌معرفی مقالات داغ حوزه عظیم داده‌ها

❇️نام مقاله:
 How can organizations leverage big data to innovate their business models? A systematic literature review

🖋نویسندگان:
 Chiara Acciarini , Francesco Cappa , Paolo Boccardelli , Raffaele Oriani

🗓سال انتشار: 2023

📔ژورنال:
 Technovation

🔸حجم جهانی داده­‌ها به سرعت در حال گسترش است و شرکت‌ها به دنبال درک چگونگی ایجاد، جذب و ارائه ارزش از این منبع ارزشمند هستند.
🔸در سال 2017، اکونومیست بیان کرد که "با ارزش ترین منبع جهان دیگر نفت نیست، بلکه داده است". در حال حاضر، بازار داده­‌های عظیم بیش از 55 میلیارد دلار درآمد دارد و انتظار می­‌رود تا سال 2027 به 103 میلیارد دلار افزایش یابد. در واقع، در سال‌های اخیر، شاهد افزایش انفجاری در میزان اطلاعات در دسترس بوده‌ایم و مدیران و سیاست‌گذاران به طور فزاینده‌ای به مزایای حاصل از داده­‌های عظیم پی‌برده‌اند. با این حال، معایب مرتبط با آنها، مانند مسائل مربوط به حریم خصوصی و امنیتی، نیز در حال ظهور هستند.

🔸مطالعات موجود عمدتاً به مزایایی می‌پردازد که داده­‌های عظیم می‌توانند فراهم کنند، که برای مثال شامل عملیات پایدارتر و مدیریت زنجیره تأمین، بودجه‌بندی بهتر و تصمیم‌گیری و نوآوری بهبودیافته است. با این حال، هنوز تعداد کمی از نویسندگان جنبه تاریک داده‌های عظیم را بررسی کرده‌اند.

🔸بنابراین، برای اطمینان از اینکه مزایا نسبت به  چالش­‌های داده­‌های عظیم بیشتر است، و برای باز کردن پتانسیل کامل داده­‌های عظیم از نظر نوآوری در مدل کسب‌وکار، نویسندگان این مقاله استدلال می‌کنند که شرکت‌ها باید نقشه واضحی از تمام کاربردهای احتمالی آن داشته باشند.

🔸در این مطالعه که به روش مروری سیستماتیک ادبیات انجام شده است و نهایتا 311 مقاله مورد بررسی قرار گرفته­­‌اند،  یک نمای کلی جامع از موارد زیر ارائه می‌شود:

 الف) اثرات تولید شده توسط داده­‌های عظیم، از جمله مزایا و همچنین معایب 
ب) حوزه‌های کسب و کاری که در آنها داده‌های عظیم استفاده می‌شوند
 ج) روش­‌های تحقیقاتی که تاکنون توسط مطالعات قبلی اتخاذ شده است (کمی، کیفی، مفهومی و میکس)
د)نوع شرکتی که تاکنون در نظر گرفته شده است و بین کسب و کارهای خصوصی و عمومی(دولتی) تمایز قائل شده است.

🔸در نهایت نتایج این مطالعه به افزایش درک علمی از پدیده داده­‌های عظیم کمک کرده و توصیه‌های نظری و عملی در مورد استفاده‌های احتمالی از آنها ارائه می­‌کند که ممکن است به شرکت‌ها اجازه دهد مدل‌های کسب و کار خود را مورد بازبینی و نوآوری قرار دهند.

👈در صورت تمایل، می‌توانید فایل مقاله را در ادامه دانلود فرمایید👇

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی
www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

🔹 اوبر یک شرکت حمل و نقل اشتراکی است که در سال 2009 توسط تراویس کالانیک و گرت کمپ در سانفرانسیسکو تأسیس شد. این شرکت یک پلتفرم آنلاین ارائه می‌دهد که کاربران را به رانندگان خصوصی متصل می‌کند. اوبر در بیش از 1000 شهر در 70 کشور جهان فعالیت دارد. هدف اصلی اوبر، ایجاد یک پلتفرم جهانی برای ارتباط بین مسافران و رانندگان خصوصی بوده است. با استفاده از اپلیکیشن تلفن همراه اوبر، مسافران می‌توانند درخواست سفر خود را ثبت کرده و رانندگانی که در نزدیکی آنها هستند را پیدا کنند.
🔸اوبر یک شرکت بسیار موفق بوده است و ارزش بازار آن بیش از 80 میلیارد دلار است. این شرکت با انتقادات زیادی از جمله اتهاماتی مبنی بر تخلف از قوانین کار، ایمنی و مالیات مواجه بوده است. با این حال، اوبر همچنان در حال رشد و گسترش است و تأثیر قابل توجهی بر صنعت حمل و نقل داشته است. این شرکت به طور گسترده ای به تغییر نحوه سفر مردم در سراسر جهان شناخته شده است. علاوه بر خدمات حمل و نقل معمولی، اوبر خدمات متنوعی را نیز ارائه می‌دهد. به عنوان مثال، "اوبر ایکس" که یک خدمت تاکسی لوکس است، "اوبر پول" که امکان سفر با اتومبیل مجهز به صندوق نقد را فراهم می‌کند و "اوبر اکسپرس پول" که یک خدمت تاکسی سریع‌تر است. همچنین، اوبر در برخی شهرها خدمت "اوبر ایت" را ارائه می‌دهد که با استفاده از اسب بخار، دوچرخه و موتورسیکلت، امکان حمل و نقل در شهر را فراهم می‌کند.

❇️ اوبر یک شرکت داده محور است و از داده‌ها برای بهبود تجربه کاربر، افزایش بهره وری و گسترش به بازارهای جدید استفاده می‌کند. این شرکت از داده‌ها برای پیش بینی تقاضا برای سفرها، شناسایی مناطقی که می‌توانند خدمات خود را بهبود بخشند و توسعه ویژگی‌های جدید استفاده می‌کند.

🔹اوبر در زمینه داده محوری انواع فعالیت‌ها و کارها را انجام می‌دهد. به عنوان مثال:

1️⃣ تحلیل داده‌ها: اوبر داده‌های زیادی را جمع‌آوری می‌کند و از طریق تحلیل این داده‌ها الگوها، روندها و رفتارهای مختلف را در سفرها و رانندگان تشخیص می‌دهد. این تحلیل‌ها می‌توانند بهبود عملکرد سیستم، بهینه‌سازی مسیرها، افزایش ایمنی و کارایی و بهبود تجربه کاربران منجر شوند.
2️⃣ پیش‌بینی و تحلیل تقاضا: اوبر از طریق تحلیل داده‌های سفرهای قبلی، الگوهای تقاضای مسافران را شناسایی می‌کند. این شناسایی به شرکت امکان می‌دهد تا برنامه‌ریزی بهتری را برای تأمین خدمات ارائه دهد و در نتیجه زمان انتظار را کاهش دهد و تجربه کاربری را بهبود بخشد.
3️⃣ بهینه‌سازی مسیر: با استفاده از داده‌های جمع‌آوری شده، اوبر می‌تواند بهینه‌سازی مسیرهای رانندگی را انجام دهد. این بهینه‌سازی می‌تواند به رانندگان کمک کند تا به سرعت و بهینه‌تر به مقصد برسند و در نتیجه زمان و هزینه را کاهش دهند.
4️⃣ تحلیل ایمنی: اوبر به داده‌های مربوط به سفرها، رانندگان و خودروها دسترسی دارد و می‌تواند به تحلیل ایمنی پرداخته و مشکلات ایمنی را شناسایی کند. این اطلاعات می‌توانند در بهبود ایمنی سفرها و پیشگیری از تصادفات مفید باشند.
5️⃣ تحلیل رفتار مشتریان: با تجزیه و تحلیل داده‌های مشتریان، اوبر می‌تواند الگوها و رفتارهای مشتریان را درک کند. این اطلاعات می‌توانند به شرکت در ارائه خدمات و تجربه بهتر برای مشتریان کمک کنند.

🔸اوبر به طور مداوم در حال یافتن راه‌های جدید برای استفاده از داده‌ها برای بهبود تجربه کاربر است. داده‌ها نقش کلیدی در موفقیت اوبر دارند و به آنها کمک می‌کنند تا به یک شرکت پیشرو در صنعت حمل و نقل اشتراکی تبدیل شوند. به طور کلی، اوبر از داده‌ها برای بهبود فرآیندها، بهینه‌سازی سرویس‌ها، افزایش ایمنی و بهبود تجربه کاربری استفاده می‌کند.


#محمدرضا_مرادی
#اوبر
#Uber
#کسب_و_کار_داده_محور



@BigData_BusinessAnalytics
www.bdbanalytics.ir