تحلیلگری عظیم‌داده و کسب‌وکار – Telegram
تحلیلگری عظیم‌داده و کسب‌وکار
892 subscribers
45 photos
42 videos
57 files
478 links
📌تحلیلگری عظیم داده و کسب و کار؛

🔎Big Data and Business Analytics

آموزش، پژوهش، اطلاع‌رسانی، ترویج و خدمات مشاوره حوزه تحلیلگری عظیم‌داده

سرپرست کانال: دکتر سعید روحانی، عضو هیأت علمی دانشگاه تهران

وبسایت
www.bdbanalytics.ir

ادمین کانال
@BDBA_UT
Download Telegram
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار- بخش سوم

در خلاصه بخش دوم فصل سوم به چارچوب های معروف هوش مصنوعی پرداخته شد. در ادامه این فصل به مفهوم یادگیری ماشین به عنوان یک سرویس پرداخته می شود و در انتها چارچوب های ابری معروف در این راستا معرفی می شوند.
یکی از چالش های اصلی پیاده سازی الگوریتم های یادگیری ماشین ایجاد زیرساخت های لازم و سرمایه گذاری برای یادگیری این متدها می باشد. استفاده از سرویس های ابری برای یادگیری ماشین این چالش را تا حدی برطرف می‌کند.
مفهوم یادگیری ماشین به عنوان سرویس تمام ابعاد یادگیری ماشین همچون زیرساخت ها، پردازش داده، مدل‌های یادگیری و ارزیابی را در بر می گیرد. پلتفرم‌های ابری متنوعی همچون سرویس Amazon, Azure, IBM, Google در این راستا وجود دارند که در ادامه به اختصار توضیح داده می‌شود. علاوه بر موضوع یادگیری ماشین، مفهوم ذخیره و نگه داری داده در این سرویس ها نیز حائز اهمیت می باشد چرا که پایه اولیه برای تمامی الگوریتم‌های یادگیری ماشین وجود بستر و یک زیرساخت مناسب برای ذخیره و نگه داری حجم انبوهی از داده می‌باشد.


برای مطالعه خلاصه فصل سوم (بخش سوم) به لینک زیر مراجعه فرمایید.

🔗 https://bdbanalytics.ir/qjd7

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌بایدو (Baidu)، یکی از بزرگ‌ترین شرکت‌های فناوری در جهان و غول موتور جستجوی چین، نقشی برجسته در شکل‌دهی به دنیای دیجیتال دارد. موفقیت این شرکت تا حد زیادی به توانایی آن در استفاده از داده‌ها برای بهبود خدمات، نوآوری و رقابت در بازارهای مختلف برمی‌گردد. در این متن، نقش داده‌محوری در استراتژی‌ها، محصولات و خدمات بایدو را مورد بررسی قرار می‌دهیم.

❇️ بایدو: پیشگام در داده‌محوری
بایدو به عنوان «گوگل چین» شناخته می‌شود، اما این شرکت فراتر از یک موتور جستجوی ساده عمل کرده و از داده‌ها برای گسترش دامنه فعالیت‌های خود در حوزه‌های مختلف مانند هوش مصنوعی (AI)، خودروهای خودران، تبلیغات دیجیتال و اینترنت اشیاء (IoT) استفاده می‌کند. داده‌ها به بایدو کمک کرده‌اند تا نوآوری‌هایی را توسعه دهد که نه تنها کاربران را جذب کنند، بلکه ارزش بیشتری برای مشتریان و سرمایه‌گذاران فراهم کنند.

❇️ استفاده از داده‌ها در خدمات اصلی بایدو
1️⃣ موتور جستجو: قلب داده‌محور بایدو
موتور جستجوی بایدو یکی از محبوب‌ترین موتورهای جستجو در چین است و اصلی‌ترین منبع داده‌های این شرکت به شمار می‌رود. بایدو از الگوریتم‌های پیشرفته و تکنیک‌های یادگیری ماشینی برای بهبود تجربه کاربران استفاده می‌کند.
2️⃣ تبلیغات دیجیتال
بایدو از داده‌های کاربران برای طراحی و اجرای تبلیغات هدفمند استفاده می‌کند. سیستم تبلیغات این شرکت با تحلیل رفتار کاربران، تبلیغات مرتبط را نمایش می‌دهد و به کسب‌وکارها کمک می‌کند تا مشتریان بالقوه را به طور مؤثری جذب کنند. این سیستم از الگوریتم‌های پیچیده‌ای برای ارزیابی داده‌های عظیم (Big Data) بهره می‌گیرد و یکی از اصلی‌ترین منابع درآمد بایدو محسوب می‌شود.

❇️ هوش مصنوعی و یادگیری عمیق: کلید موفقیت داده‌محور بایدو
بایدو یکی از پیشگامان در حوزه هوش مصنوعی است و داده‌ها نقش محوری در توسعه فناوری‌های این شرکت ایفا می‌کنند. در این بخش به چند نمونه از کاربردهای داده در حوزه هوش مصنوعی بایدو اشاره می‌کنیم:
1️⃣ پلتفرم هوش مصنوعی بایدو (Baidu AI Cloud)
بایدو با ارائه پلتفرم‌های ابری مبتنی بر هوش مصنوعی، امکان تحلیل داده‌های عظیم و استفاده از الگوریتم‌های یادگیری عمیق را فراهم می‌کند. این پلتفرم‌ها به کسب‌وکارها کمک می‌کنند تا با استفاده از داده‌ها، فرآیندهای خود را بهینه کنند.
2️⃣ سیستم‌های تشخیص تصویر و صدا
بایدو در زمینه توسعه سیستم‌های تشخیص تصویر و صدا از داده‌های کاربران بهره می‌برد. این فناوری‌ها در محصولات مختلفی مانند دستیارهای هوشمند و ابزارهای پردازش زبان طبیعی (NLP) مورد استفاده قرار می‌گیرند.
3️⃣ خودروهای خودران
یکی از هیجان‌انگیزترین پروژه‌های بایدو در زمینه خودروهای خودران است. این شرکت با استفاده از داده‌های جغرافیایی، اطلاعات ترافیکی و رفتار رانندگان، سیستم‌های خودران پیشرفته‌ای طراحی کرده است. این داده‌ها به خودروها کمک می‌کنند تا تصمیمات سریع و ایمن‌تری در شرایط مختلف اتخاذ کنند.

❇️ داده‌محوری در توسعه اینترنت اشیاء (IoT)
بایدو از داده‌ها برای گسترش خدمات خود در حوزه اینترنت اشیاء استفاده می‌کند. دستگاه‌های متصل به اینترنت تولید داده‌های بی‌شماری می‌کنند و بایدو این داده‌ها را برای ارائه خدمات بهتر تحلیل می‌کند.

❇️ نقش داده‌ها در مدیریت و پیش‌بینی بازار
بایدو از داده‌ها برای تحلیل روندهای بازار و پیش‌بینی تغییرات استفاده می‌کند. این شرکت با تحلیل داده‌های کاربران و الگوهای مصرف، می‌تواند تغییرات در رفتار مشتریان را شناسایی کرده و خدمات خود را بر اساس این تغییرات تنظیم کند. .

❇️ چالش‌های داده‌محوری در بایدو
هرچند داده‌ها منبع قدرت بایدو هستند، اما مدیریت و استفاده از داده‌ها با چالش‌هایی نیز همراه است:
1️⃣ حریم خصوصی کاربران
یکی از بزرگ‌ترین چالش‌ها برای بایدو، اطمینان از حفظ حریم خصوصی کاربران است. استفاده گسترده از داده‌ها می‌تواند نگرانی‌هایی را در مورد امنیت و شفافیت ایجاد کند.
2️⃣ حجم عظیم داده‌ها
بایدو باید با حجم بی‌سابقه‌ای از داده‌ها سروکار داشته باشد و تحلیل این داده‌ها نیازمند زیرساخت‌های پیشرفته و هزینه‌بر است.
3️⃣ رقابت شدید
با وجود شرکت‌های رقیب مانند علی‌بابا و تنسنت، بایدو باید دائماً نوآوری کند تا بتواند جایگاه خود را حفظ کند.

📌نتیجه‌گیری
بایدو نمونه‌ای برجسته از یک شرکت داده‌محور است که توانسته با بهره‌گیری از داده‌ها، به یکی از غول‌های فناوری در جهان تبدیل شود. از موتور جستجو گرفته تا هوش مصنوعی و اینترنت اشیاء، داده‌ها در قلب تمامی فعالیت‌های بایدو قرار دارند.

#معرفی_کسب_و_کار_داده_محور
#Baidu
#محمدرضا_مرادی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

📌عظیم‌داده و هوش مصنوعی برای کاربردهای بهداشتی و درمانی

"Big Data and Artificial Intelligence for Healthcare Applications"

📌نویسندگان:
Sandhya Makkar, K. Martin Sagayam, and Rohail Hassan

📌این کتاب در سال 2021 توسط CRC Presss Taylor & Francis Group انتشار یافته است.


📍 کتاب «عظیم‌داده و هوش مصنوعی برای کاربردهای بهداشتی و درمانی» به بررسی پتانسیل تحول‌آفرین عظیم‌داده، هوش مصنوعی (AI) و یادگیری ماشین (ML) در زمینه صنعت ۴.۰ می‌پردازد. این عصر که با اتصال بین‌المللی، خودکارسازی و تبادل داده‌های بلادرنگ شناخته می‌شود، با هدف بهبود بهره‌وری در تولید و خدمات، فناوری‌های پیشرفته را در ماشین‌ها و فرآیندها ادغام می‌کند. این فناوری‌ها با استفاده از الگوریتم‌های یادگیری ماشین و سایر روش‌های محاسباتی، انتقال داده‌های بلادرنگ و عملیات خودکار را ممکن می‌سازند.

📍 این کتاب، عظیم‌دادها را به‌عنوان مفهومی معرفی می‌کند که به مجموعه‌داده‌های وسیع و پیچیده‌ای اشاره دارد که فراتر از توانایی‌های پردازش سنتی هستند. با رشد انفجاری داده‌هایی که روزانه از پلتفرم‌هایی مانند نتفلیکس، گوگل، سیستم‌های بهداشتی و سوابق دولتی تولید می‌شوند، اهمیت پردازش، تحلیل و استفاده از عظیم‌داده بیش از پیش آشکار می‌شود. تحلیل داده‌های عظیم از روش‌های اکتشافی سنتی به فرآیندهای پیش‌بینی‌کننده و مبتنی بر داده تحول یافته است که امکان تشخیص ناهنجاری‌ها به‌صورت بلادرنگ و پیش‌بینی نتایج آینده را فراهم می‌کند. این کتاب بر ضرورت فیلتر کردن و تحلیل داده‌ها برای استخراج بینش‌های معنادار تأکید کرده و نقش اساسی مدل‌های آماری و احتمالاتی در مدیریت عظیم‌داده را برجسته می‌سازد.

📍 یکی از موضوعات اصلی مورد بحث، چارچوب «5Vs» در عظیم‌داده است: حجم (Volume)، سرعت (Velocity)، تنوع (Variety)، صحت (Veracity) و ارزش (Value). حجم به مقادیر عظیم داده‌های تولید شده اشاره دارد، به‌ویژه در بخش‌هایی مانند مراقبت‌های بهداشتی که مدیریت سوابق فردی اهمیت زیادی دارد. سرعت بر جمع‌آوری و پردازش سریع داده‌ها برای تضمین بینش‌های به‌موقع و ارزشمند تأکید می‌کند. تنوع به فرمت‌های متنوع داده، از ساختاریافته تا غیرساختاریافته اشاره دارد. صحت به قابلیت اطمینان و اعتبار داده‌ها پرداخته و اطمینان می‌دهد که این داده‌ها برای ایجاد روابط معنادار مفید هستند. در نهایت، ارزش به استخراج بینش‌های عملی از عظیم‌داده برای بهبود فرآیندهای تصمیم‌گیری می‌پردازد.

📍 این کتاب به ادغام هوش مصنوعی و یادگیری ماشین در حوزه بهداشت و درمان نیز می‌پردازد، بخشی که به دلیل این فناوری‌ها دستخوش تحولات چشمگیری شده است. هوش مصنوعی و یادگیری ماشین برای بهبود تشخیص‌ها و پزشکی دقیق و ساده‌سازی فرآیندهای اداری به‌کار گرفته شده‌اند و به این ترتیب، مسائل حیاتی مانند کمبود منابع و افزایش تقاضاهای عملیاتی را حل می‌کنند. عظیم‌داده در حوزه بهداشت و درمان شامل ادغام مجموعه‌داده‌های پیچیده‌ای از جمله داده‌های اُمیکس، سوابق الکترونیکی سلامت و داده‌های زیست‌پزشکی است که امکان کاربردهایی نظیر تصویربرداری پزشکی، کشف دارو و پلتفرم‌های دیجیتال برای مدیریت بیماری‌های مزمن را فراهم می‌کند. این پیشرفت‌ها نویدبخش رفع شکاف‌های موجود در ارائه مراقبت‌های بهداشتی جهانی، به‌ویژه در مناطق روستایی کم‌برخوردار هستند.

📍 ملاحظات اخلاقی پیرامون کاربردهای هوش مصنوعی و عظیم‌داده در حوزه بهداشت و درمان نیز در این کتاب مورد توجه قرار گرفته است. این کتاب خواستار ایجاد ساختارهای حکمرانی جهانی و دستورالعمل‌های اخلاقی برای اطمینان از اعتمادپذیری و کاهش سوءاستفاده احتمالی است. این متن چندرشته‌ای، مرور جامعی از اصول، کاربردها و چالش‌های هوش مصنوعی، یادگیری ماشین و عظیم‌داده ارائه می‌دهد و بینش‌های ارزشمندی را برای پژوهشگران، متخصصان و سیاست‌گذاران فراهم می‌سازد. این کتاب به‌عنوان منبعی بنیادی برای درک چگونگی تغییر شکل این فناوری‌ها در صنایع و حل چالش‌های پیچیده اجتماعی عمل می‌کند.


این کتاب را می‌توانید در پست بعد دریافت فرمایید.


#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🛠 معرفی ابزار Amazon Redshift

سرویس Amazon Redshift یک سرویس انبار داده‌های ابری (Data Warehouse) کاملاً مدیریت‌شده است که توسط آمازون وب سرویس (AWS) ارائه می‌شود. این سرویس برای تحلیل داده‌های عظیم در مقیاس پتابایت طراحی شده است و به سازمان‌ها امکان می‌دهد تا داده‌های خود را به سرعت و با هزینه‌ای مقرون‌به‌صرفه ذخیره و تحلیل کنند. در ادامه، جزئیات بیشتری درباره Amazon Redshift ارائه می‌شود:

ویژگی‌های کلیدی Amazon Redshift

📌 معماری ستونی (Columnar Storage)
- این ابزار داده‌ها را به صورت ستونی ذخیره می‌کند که این امر باعث افزایش کارایی در اجرای کوئری‌های تحلیلی می‌شود، زیرا فقط ستون‌های مورد نیاز برای یک کوئری خوانده می‌شوند.

📌پردازش موازی (Massively Parallel Processing - MPP)
- آمازون ردشیفت از معماری MPP استفاده می‌کند که به آن امکان می‌دهد داده‌ها را به صورت موازی در چندین گره (Node) پردازش کند. این ویژگی باعث افزایش سرعت اجرای کوئری‌ها می‌شود.

📌مقیاس‌پذیری (Scalability)
- کاربران می‌توانند به راحتی تعداد گره‌های Redshift را افزایش یا کاهش دهند تا با نیازهای کاری خود هماهنگ شوند. این قابلیت به سازمان‌ها اجازه می‌دهد تا هزینه‌ها را بهینه کنند.

📌یکپارچه‌سازی با سایر سرویس‌های AWS
- این ابزار به خوبی با سایر سرویس‌های AWS مانند S3، RDS، DynamoDB، Glue، Lambda و Kinesis یکپارچه شده است. این یکپارچه‌سازی امکان انتقال داده‌ها و تحلیل آن‌ها را به صورت روان فراهم می‌کند.

📌پشتیبانی از یادگیری ماشین:
- آمازون ردشیفت با سرویس‌های یادگیری ماشین AWS مانند SageMaker یکپارچه شده است و کاربران می‌توانند مدل‌های یادگیری ماشین را مستقیماً روی داده‌های خود اجرا کنند.

📌امنیت پیشرفته:
- آمازون ردشیفت از ویژگی‌های امنیتی مانند رمزنگاری داده‌ها در حال انتقال و ذخیره‌سازی، مدیریت دسترسی‌ها با استفاده از IAM، و پشتیبانی از VPC (Virtual Private Cloud) برخوردار است.

مزایای Amazon Redshift

🖌سرعت بالا: به دلیل معماری ستونی و پردازش موازی، Redshift می‌تواند کوئری‌های پیچیده را در کسری از ثانیه اجرا کند.

🖌 مدیریت آسان: Redshift یک سرویس کاملاً مدیریت‌شده است، بنابراین کاربران نیازی به نگرانی درباره نگهداری و به‌روزرسانی زیرساخت‌ها ندارند.

🖌 انعطاف‌پذیری: امکان ذخیره‌سازی و تحلیل داده‌ها در مقیاس‌های مختلف از ترابایت تا پتابایت.

🖌 یکپارچه‌سازی با اکوسیستم AWS : این ابزار به راحتی با سایر سرویس‌های AWS کار می‌کند و امکان ساخت یک پلتفرم تحلیل داده‌های یکپارچه را فراهم می‌کند.


موارد استفاده از Amazon Redshift

📍 تحلیل داده‌های عظیم (Big Data Analytics):
- آمازون ردشیفت برای تحلیل داده‌های عظیم در صنایعی مانند مالی، خرده‌فروشی، بهداشت و درمان، و رسانه استفاده می‌شود.

📍 گزارش‌گیری و هوش تجاری (BI):
- سازمان‌ها از Redshift برای ایجاد گزارش‌ها و داشبوردهای هوش تجاری استفاده می‌کنند.

📍 تحلیل بلادرنگ (Real-time Analytics):
- با یکپارچه‌سازی Redshift با سرویس‌هایی مانند Kinesis، کاربران می‌توانند داده‌های بلادرنگ را تحلیل کنند.

📍 ذخیره‌سازی داده‌های تاریخی:
- آمازون ردشیفت برای ذخیره‌سازی و تحلیل داده‌های تاریخی در مقیاس بزرگ مناسب است.

📍 یادگیری ماشین و هوش مصنوعی:
- با یکپارچه‌سازی Redshift و SageMaker، کاربران می‌توانند مدل‌های یادگیری ماشین را روی داده‌های خود آموزش دهند.

به طور کلیAmazon Redshift یک ابزار قدرتمند برای تحلیل داده‌های بزرگ است که به سازمان‌ها کمک می‌کند تا از داده‌های خود به طور مؤثر استفاده کنند. با ویژگی‌هایی مانند مقیاس‌پذیری، سرعت بالا، و یکپارچه‌سازی با اکوسیستم AWS، این ابزار به یکی از محبوب‌ترین انبار داده‌های ابری تبدیل شده است. با این حال، انتخاب Redshift باید با توجه به نیازهای خاص سازمان و هزینه‌های مرتبط انجام شود.

📌 همچنین می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 https://bdbanalytics.ir/c7ce

#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Amazon_Redshift



@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل چهارم: مطالعه موردی به کارگیری تحلیلگری کسب و کار مبتنی بر هوش مصنوعی- بخش اول

📍بخش اول از فصل چهارم کتاب هوش مصنوعی برای تحلیلگری کسب و کار: الگوریتم‌ها، پلتفرم‌ها و سناریوهای کاربردی، به بررسی مطالعه موردی تحلیل احساسات مشتری به صورت بلادرنگ با استفاده از تحلیلگری جریان داده‌ها می‌پردازد.
❇️ در دنیای رقابتی خرده فروشی، رضایت مشتریان نقش کلیدی در موفقیت کسب و کارها ایفا می‌نماید. این مطالعه موردی بر تحلیل احساسات مشتریان به صورت بلادرنگ با استفاده از تحلیل جریان داده‌ها متمرکز است. هدف اصلی، توسعه یک شاخص برای رضایت مشتریان است که بتواند بازخوردهای مشتریان را به صورت لحظه‌ای پردازش و تحلیل نماید.
❇️ یکی از بزرگترین شرکت‌های خرده فروش در آلمان به بررسی راهکاری برای اندازه گیری و تحلیل لحظه‌ای رضایت مشتریان پرداخته است. این شرکت در این راستا به توسعه شاخص جریان احساسات مشتری پرداخته است که بتواند نظرات مشتریان را از شبکه‌های اجتماعی، شبکه‌های اجتماعی، تراکنش‌های فروشگاهی و سایر منابع اطلاعاتی جمع‌آوری و تحلیل کند.
🔹اهمیت رضایت مشتری در بخش خرده فروشی:
با افزایش رقابت در خرده‌فروشی و ظهور بازیگران دیجیتال، تفاوت بین فروشگاه‌های فیزیکی و آنلاین در حال کاهش است. مطالعات نشان داده‌اند که ارتباط مستقیمی بین رضایت مشتری و وفاداری به برند وجود دارد. خرده‌فروشان برای حفظ جایگاه خود نیاز به تحلیل عمیق بازخوردهای مشتریان دارند.
🔸شاخص جریان احساسات مشتری (CSSI):
شاخص CSSI یک شاخص پویا است که با استفاده از جریان داده‌ها از تعاملات مشتریان در فضای دیجیتال محاسبه می‌شود. این شاخص شامل معیارهای مختلفی همچون میزان احساسات مثبت و منفی، مشکلات ثبت‌شده در فروشگاه و سایر پارامترهای کلیدی است.
🔹فناوری و پذیرش داده‌های چندکاناله:
تحلیل احساسات در این مطالعه با استفاده از داده‌های به دست آمده از چندکانال شامل نظرات مشتریان در شبکه‌های اجتماعی، داده‌های فروشگاهی و سایر منابع اطلاعاتی انجام شده است. یک معماری داده‌ای بر پایه‌ی SAP HANA پیاده‌سازی شده است که امکان جمع‌آوری و پردازش داده‌ها به صورت بلادرنگ را فراهم می‌کند.
بر اساس این معماری یک سیستم تحلیلی توسعه داده شده که داده‌های مختلف از جمله نظرات مشتریان، تراکنش‌های فروشگاهی، وضعیت موجودی کالاها و مدت زمان انتظار در صف صندوق را به هم مرتبط می‌کند. پردازش این اطلاعات در SAP HANA انجام شده و داشبوردی برای نمایش نتایج در اختیار مدیران فروشگاهی قرار گرفته است.
📌نتایج و مزایا:
در تست اولیه این سیستم، ۲۵۰,۰۰۰ توئیت در طی ۱۱ ماه در سال ۲۰۱۷ مورد بررسی قرار گرفتند. پردازش داده‌ها در سیستم SAP HANA نشان داد که از میان پیام‌های قابل ارزیابی:
۳۲٪ کاملاً مثبت، ۲۰٪ کاملاً منفی، ۱۲٪ تا حدی منفی، ۳٪ مربوط به مشکلات کوچک، و ۳٪ مربوط به مشکلات بزرگ بودند.
بر اساس این داده‌ها، شاخص CSSI محاسبه و در دسترس مدیران کسب ‌و کار قرار گرفت. این اطلاعات از طریق داشبورد مدیریتی یا اعلان‌های مستقیم به کاربران ارائه شد. در سطح بالاتر سازمانی، امکان مقایسه عملکرد شعب مختلف نیز فراهم گردید.
♦️نتیجه گیری:
این مطالعه موردی نشان می‌دهد که چگونه تحلیل داده‌های لحظه‌ای و هوش مصنوعی می‌توانند به بهبود تجربه مشتری در خرده‌فروشی کمک کنند. پیاده‌سازی شاخص جریان احساسات مشتری و مدل‌های تحلیلی مرتبط می‌تواند راهکاری مؤثر برای افزایش واکنش‌پذیری فروشگاه‌ها به بازخورد مشتریان باشد. در عین حال، این مدل می‌تواند به‌عنوان معیاری عملیاتی برای تصمیم‌گیری در لحظه و پیش‌بینی روندهای آینده در خرده‌فروشی مورد استفاده قرار گیرد.


برای مطالعه خلاصه فصل به لینک زیر مراجعه فرمایید.

🔗 https://bdbanalytics.ir/yxlb

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_چهارم
#فاطمه_مظفری


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

عنوان: تحلیل سازمانی: بهینه‌سازی عملکرد، فرآیندها و تصمیمات از طریق عظیم‌داده
“Enterprise Analytics: Optimize Performance, Process, and Decisions Through Big Data”

🖋 نویسنده: Thomas H. Davenport

📌 در دنیای امروز، داده‌ها به منبعی ارزشمند برای سازمان‌ها تبدیل شده‌اند. کتاب "تحلیل سازمانی" به بررسی چگونگی استفاده از تحلیل داده‌ها برای بهبود عملکرد، فرآیندها و تصمیم‌گیری در سازمان‌ها می‌پردازد. این کتاب راهنمایی جامع برای مدیران و متخصصان داده است که به دنبال استفاده از قدرت عظیم‌داده برای دستیابی به مزیت رقابتی هستند. کتاب در پنج بخش دسته‌بندی شده و ابعاد مختلف تحلیل را بررسی کرده و در هر فصل و همچنین پایان کتاب با ارائه موردهای مطالعاتی متفاوتی به چگونگی پیاده‌سازی مفاهیم ذکر شده در کتاب در دنیای واقع اشاره می‌کند.

🗂 بخش‌های کتاب:

📍 بخش اول: مروری بر تحلیل و ارزش آن
• فصل اول: تعریف "تحلیل" و تمایز آن از هوش تجاری سنتی (BI). تکامل این مفهوم و اهمیت روزافزون و همچنین سه نوع تحلیل توصیفی، پیش‌بینی‌کننده و تجویزی بررسی می‌شوند.
• فصل دوم: نحوه محاسبه بازگشت سرمایه (ROI) در پروژه‌های تحلیلی. روش‌های سنتی تحلیل ROI و روش مورد استفاده توسط Teradata پوشش داده می‌شود. مطالعه موردی در مورد ROI تحلیل در Freescale Semiconductor نیز ارائه شده است.

📍 بخش دوم: کاربردهای تحلیل‌ عظیم‌داده
• فصل سوم: استفاده از داده‌های اختصاصی برای مزیت رقابتی. تاکید بر این نکته که داده‌ها به خودی خود ارزشمند نیستند، بلکه تحلیل آنها ارزش‌آفرین است. مثالی از PaxIS از انجمن بین‌المللی حمل‌ونقل هوایی (IATA) برای نشان دادن پتانسیل‌ها و چالش‌های استفاده از داده‌های اختصاصی ارائه می‌شود. همچنین مثال‌هایی از استفاده داده‌های تراکنش‌های پرداخت برای ایجاد ارزش ارائه شده است.
• فصل چهارم: بررسی استفاده از داده‌های وب به عنوان نوعی از "داده‌های بزرگ". چگونگی آشکار کردن قصد مشتری و فرآیندهای تصمیم‌گیری از طریق این داده‌ها و بر یکپارچه‌سازی داده‌های وب با سایر داده‌های مشتری برای دیدگاهی جامع‌تر، انواع مختلف استفاده از داده‌های وب، از جمله درک الگوهای تحقیق و رفتارهای بازخورد مشتری پوشش داده می‌شود.
• فصل پنجم: تعریف و بررسی تحلیل تعامل آنلاین. تاکید بر اینکه تعامل یک حالت ذهنی داخلی است. مدلی برای اندازه‌گیری تعامل و مطالعات موردی از PBS و وبسایت Philly ارائه شده است.
• فصل ششم: چگونگی ایجاد "بهترین پیشنهادات بعدی" برای مشتریان خرده‌فروشی از طریق تجزیه و تحلیل دقیق اطلاعات مشتری، محصول و زمینه خرید، از جمله داده‌های اجتماعی، تلفن همراه و مکان.
• فصل هفتم: بررسی چگونگی اعمال تحلیل در مقیاس تولید، از جمله نیاز به ادغام بینش تحلیلی با قوانین کسب و کار. این فصل شامل یک مطالعه موردی نیز در مورد شرکت YouSee درباره‌ی تحلیل پیش‌بینی‌کننده در مرکز تماس است.
• فصل هشتم: تحلیل پیش‌بینی‌کننده در فضای ابری، فرصت‌ها، روندهای بازار، مزایا و چالش‌های تحلیل پیش‌بینی‌کننده مبتنی بر ابر.

📍 بخش سوم: فناوری‌های مورد استفاده در تحلیل‌ عظیم‌داده
• فصل هفتم: کاربرد تحلیل در مقیاس تولید. این فصل به بررسی چگونگی انتقال تحلیل از یک تمرین نظری به یک کاربرد عملی در داخل یک سازمان می‌پردازد.
• فصل هشتم: تحلیل پیش‌بینی‌کننده در فضای ابری. این فصل به بررسی استفاده از تحلیل پیش‌بینی‌کننده مبتنی بر ابر می‌پردازد. تمرکز بر راه‌حل‌های تجاری است که از تحلیل پیش‌بینی‌کننده استفاده می‌کنند، و نه فقط خود فناوری.
• فصل نهم: فناوری تحلیلی و کاربر تجاری. این فصل به بررسی تکامل فناوری تحلیلی و نیاز به تغییر می‌پردازد.
• فصل دهم: پیوند تصمیمات و تحلیل‌ها برای عملکرد سازمانی. این فصل ارتباط بین تحلیل و تصمیم‌گیری را بررسی می‌کند.

📍بخش چهارم: جنبه انسانی تحلیل‌ عظیم‌داده
• فصل یازدهم: چگونگی سازماندهی تحلیلگران در یک سازمان. تاکید بر اینکه بخش‌های تحلیلی باید هماهنگ، تجمیع یا متمرکز شوند. مدل‌های مختلف سازمانی و سازوکارهای هماهنگی بررسی می‌شود.
• فصل دوازدهم: چگونگی جذب استعدادهای تحلیلی. انواع مختلف تحلیلگران و راه‌های حفظ انگیزه آنها پوشش داده می‌شود. استفاده از ساختارهای سازمانی تحلیلی متمرکزتر پیشنهاد می‌شود.
• فصل سیزدهم: تمرکز بر حاکمیت تحلیل‌ها، از جمله ایجاد یک نهاد حاکمیتی در سازمان‌ها. هدف، دامنه، ساختار، نقش‌ها، مسئولیت‌ها، فرآیندها و روابط لازم برای حاکمیت مؤثر و همچنین نحوه حاکمیت تحلیل‌های توصیفی در مقابل تحلیل‌های پیش‌بینی‌کننده بررسی می‌شود.
• فصل چهاردهم: بحث در مورد ایجاد یک قابلیت تحلیلی جهانی. نیاز به استانداردسازی و هماهنگی در شرکت‌های چندملیتی پوشش داده و گزینه‌های مختلف ساختار جهانی را ارائه می‌دهد: متمرکز، مرکز تعالی و غیرمتمرکز.
📍بخش پنجم: مطالعات موردی در استفاده از تحلیل‌ عظیم‌داده
• فصل پانزدهم: مطالعه موردی سیستم Partners HealthCare. تمرکز بر استفاده این سیستم از تحلیل‌ها، هم به صورت متمرکز و هم در بیمارستان‌های فردی. ابتکار عمل پزشکی با عملکرد بالا (HPM) آنها به تفصیل شرح داده شده است.
• فصل شانزدهم: مطالعه موردی تحلیل در بخش منابع انسانی در شرکت Sears Holdings. چگونگی ایجاد یک تیم مؤثر و اجزای پروژه‌های موفق بررسی می‌شود.
• فصل هفدهم: بحث در مورد فرهنگ و روابط تحلیل تجاری در Merck. اهمیت مشارکت بین تحلیلگران و تصمیم‌گیرندگان تاکید می‌شود.
• فصل هجدهم: تمرکز بر تحلیل توصیفی برای زنجیره تأمین در Bernard Chaus, Inc. چگونگی بهبود دید و صرفه‌جویی در هزینه‌ها با استفاده از یک ابزار هوش تجاری برجسته می‌شود.

📍می‌توانید این کتاب را در پست بعد دریافت فرمایید.

#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
📌معرفی مقالات حوزه عظیم داده‌ها

❇️ نام مقاله:
Leveraging Large Language Model ChatGPT for enhanced understanding of end-user emotions in social media feedbacks

✍️ نویسندگان:

Nek Dil Khan, Javed Ali Khan, Jianqiang Li, Tahir Ullah, Qing Zhao

📔ژورنال :
Expert Systems With Applications

🗓سال انتشار:
2025



🔸نویسندگان این مقاله با ذکر اهمیت دریافت بازخورد کاربران در جهت بهبود نرم­‌افزارهای توسعه یافته،  بر این موضوع تاکید دارند که بیشتر تحقیقات قبلی بر روی نرم‌افزارهای پرطرفدار و با امتیاز بالا متمرکز بوده‌اند و کمتر به نرم‌افزارهای با امتیاز پایین توجه شده است. در واقع شناسایی مسائل یا اشکالات و احساسات مرتبط با آن‌ها در برنامه‌های نرم‌افزاری با رتبه پایین نادیده گرفته شده، که این امر منجر به حذف اپلیکیشن از بازار آنلاین شده است.

🔸همچنین این مقاله تاکید دارد که در پژوهش­های انجام گرفته پیشین، کمتر به موضوع تحلیل عاطفی پرداخته شده و بیشتر حول محور تحلیل احساسات و تعیین قطبیت بصورت مثبت، منفی و خنثی قرار دارند.

🔸 لذا این مقاله با تمرکز بر نرم‌افزارهای با امتیاز پایین، سعی دارد عواطف کاربران را در بازخوردهای منفی آنها تحلیل کند.

🔸نکته دیگری که به عنوان یک چالش موجود در این مقاله به آن اشاره شده، حاشیه‌نویسی (لیبل گذاری) دستی برای رویکرد یادگیری نظارت‌شده (supervised learning) به عنوان یک کار زمان‌بر و چالش‌برانگیز برای حاشیه‌نویسان انسانی است، به‌ویژه زمانی که تعداد زیادی کلاس‌ برای طبقه‌بندی وجود داشته باشد.

🔸لذا با درنظر گرفتن این مسائل، هدف این مقاله تحلیل عاطفی بازخورد کاربران نهایی برای نرم‌افزارهای با امتیاز پایین است. در این راستا،  از هوش مصنوعی مولد (Generative AI)، یعنی ChatGPT، به‌عنوان annotator و negotiator در تهیه مجموعه داده‌های حقیقی برای طبقه‌بندی‌ عواطف کاربران با رویکرد یادگیری عمیق (DL) استفاده شده است.


🔸در پیاده ­سازی رویکرد پیشنهادی این مقاله ، ابتدا ۷۱,۸۵۳ بازخورد از ۴۵ برنامه در فروشگاه آمازون جمع‌آوری شد. در گام بعد برای شناسایی بازخوردهای منفی کاربران، از رابط برنامه‌نویسی کاربردی (API) ChatGPTاستفاده شد تا تنها کامنت‌های منفی برای ادامه تحلیل‌ها باقی بمانند. برای اطمینان از عملکرد gpt، بطور موازی از Vader برای تحلیل احساسات کامنت ها هم استفاده شد و نتیجه حاکی از عملکرد مناسب gpt در شناخت کامنت های منفی بود.

🔸در گام بعد،  با پردازش دستی بازخوردهای منفی کاربران، یک نظریه زمینه­‌ای جدید توسعه داده شد تا انواع عواطف منفی مرتبط با این بازخوردها، از جمله خشم، سردرگمی، انزجار، بی‌اعتمادی، ناامیدی، ترس، ناکامی و غم، شناسایی شود.

🔸پس از آن، مجموعه دادگان بطور موازی هم با استفاده از annotatorهای انسانی و رویکرد تحلیل محتوا، و دیگری با استفاده از API ChatGPT  مورد تحلیل قرار گرفت و انواع عواطف منفی ذکر شده در کامنت‌ها شناسایی شد. با توجه به وجود برخی تفاوت‌ها در لیبل گذاری دستی و ماشینی، دور دیگری با ChatGPT انجام شد تا اختلافات بین مجموعه داده‌های حاشیه‌نویسی شده توسط انسان و ChatGPT مورد مذاکره قرار گیرد و در نهایت یک مجموعه داده بدون تعارض برای تشخیص عواطف ایجاد شود.

🔸پس از نهایی کردن لیبل‌گذاری،  از روش‌های مختلف یادگیری عمیق، از جمله  LSTM، BiLSTM، CNN، RNN، GRU، BiGRU و BiRNN، برای شناسایی اثربخشی آن‌ها در تشخیص عواطف کاربران استفاده شد. این کار با پیش‌پردازش داده‌های ورودی، مهندسی ویژگی‌ها، متعادل‌سازی مجموعه داده و سپس آموزش و آزمایش آن‌ها با استفاده از رویکرد اعتبارسنجی متقابل انجام شد. نتایج به دقت متوسط ۹۴%، ۹۴%، ۹۳%، ۹۲%، ۹۱%، ۹۱% و ۸۵% به ترتیب برای مدل‌های LSTM، BiLSTM، RNN، CNN، GRU ، BiGRU و BiRNN اشاره دارد که نشان‌دهنده بهبود نتایج با استفاده از مجموعه داده‌های حقیقی تهیه شده توسط انسان و ChatGPT است.

🔸این مقاله نه‌ تنها رویکرد روش‌شناختی برای تجزیه و تحلیل بازخورد کاربران را بهبود می‌بخشد، بلکه ابزاری قدرتمند برای توسعه ‌دهندگان نرم ‌افزار ارائه می‌دهد تا نیازها و احساسات کاربران خود را بهتر درک کرده و به آنها پاسخ دهند. این امر در نهایت به توسعه محصولات نرم‌افزاری کاربرمحورتر و باکیفیت‌تر کمک می‌کند.


👈در صورت تمایل، می‌توانید فایل مقاله را از لینک زیر دریافت فرمایید.

🔗 https://B2n.ir/k07260


#تحلیل_عظیم_داده
#معرفی_مقاله
#دکتر_سعید_روحانی
#صبا_بزرگی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📊 مطالعه موردی: تحلیل داده‌های عظیم در شرکت جنرال الکتریک (GE)

🔍 جنرال الکتریک: پیشگام در انقلاب صنعتی دیجیتال
شرکت جنرال الکتریک (General Electric - GE) یکی از بزرگ‌ترین و قدیمی‌ترین شرکت‌های صنعتی جهان است که در حوزه‌های مختلفی مانند تولید انرژی، حمل‌ونقل، سلامت و هوافضا فعالیت می‌کند. این شرکت طی سال‌های اخیر با سرمایه‌گذاری در داده‌های عظیم (Big Data) و اینترنت صنعتی (Industrial Internet) توانسته است بهره‌وری تجهیزات صنعتی را افزایش داده و هزینه‌های عملیاتی را کاهش دهد.

📌 نوآوری‌های GE در تحلیل داده‌های عظیم
1️⃣ اینترنت صنعتی: ترکیب فناوری و صنعت
اینترنت صنعتی مفهومی است که توسط جنرال الکتریک معرفی شد و به شبکه‌ای از ماشین‌های هوشمند، حسگرها و سیستم‌های خودکار اشاره دارد که با کمک تحلیل داده‌ها، عملکرد تجهیزات صنعتی را بهینه می‌کنند. هدف این فناوری، افزایش بهره‌وری، کاهش هزینه‌های نگهداری و پیش‌بینی خرابی تجهیزات است.
2️⃣ تحلیل داده‌های حسگرهای صنعتی
جنرال الکتریک از حسگرهای پیشرفته در تجهیزات و دستگاه‌های صنعتی استفاده می‌کند. این حسگرها حجم عظیمی از داده‌ها را جمع‌آوری کرده و با بکارگیری الگوریتم‌های یادگیری ماشین، زمینه را برای تحلیل‌های لازم فراهم می‌کند.
3️⃣ پیش‌بینی و کاهش هزینه‌های تعمیر و نگهداری
یکی از مهم‌ترین دستاوردهای جنرال الکتریک در حوزه تحلیل داده‌های عظیم، کاهش هزینه‌های خرابی ناگهانی ماشین‌آلات است.
• بهبود عملکرد توربین‌های گازی: حسگرها اطلاعاتی درباره دما، فشار و لرزش تجهیزات جمع‌آوری می‌کنند و به اپراتورها این امکان را می‌دهند که تعمیرات لازم را پیش از وقوع خرابی انجام دهند.
• مدیریت بهینه موتورهای جت: جنرال الکتریک توانسته است با استفاده از تحلیل داده‌های موتورهای جت، بهره‌وری سوخت را افزایش دهد و هزینه‌های عملیاتی خطوط هوایی را کاهش دهد.

📌 پروژه‌های داده‌محور GE
⚡️ بهینه‌سازی مصرف انرژی در نیروگاه‌ها
جنرال الکتریک از داده‌های حسگرهای متصل به توربین‌های بادی، گازی و بخار برای تحلیل عملکرد و بهبود بهره‌وری انرژی استفاده می‌کند. به‌عنوان مثال، داده‌های جمع‌آوری‌شده از 22,000 توربین بادی در سراسر جهان، در یک سیستم ابری ذخیره شده و به‌صورت بلادرنگ تحلیل می‌شوند تا بیشترین تولید انرژی با کمترین هزینه حاصل شود.
✈️ بهبود عملکرد خطوط هوایی و کاهش تأخیرها
با تجزیه‌وتحلیل داده‌های عملیاتی پروازها، جنرال الکتریک توانسته است علاوه بر بهینه‌سازی عملکرد موتورهای جت و کاهش مصرف سوخت از این سیستم برای پیش‌بینی و کاهش تأخیرهای پروازی از داده‌های آب‌وهوا، ترافیک هوایی و عملکرد فرودگاه‌ها نیز استفاده می‌کند.
🏥 تحلیل داده‌های پزشکی و بهبود سیستم سلامت
سیستم مراقبت سلامت جنرال الکتریک (GE Healthcare) از داده‌های عظیم در دستگاه‌های تصویربرداری پزشکی مانند MRI و CT Scan استفاده می‌کند تا دقت تشخیص بیماری‌ها را افزایش داده و هزینه‌های درمانی را کاهش دهد.

📌 مدیریت و بهره‌برداری از داده‌های صنعتی
💾 ذخیره‌سازی و پردازش داده‌ها در ابر صنعتی (Industrial Cloud)
جنرال الکتریک یک پلتفرم ابری صنعتی به نام Predix توسعه داده است که داده‌های حسگرهای صنعتی را جمع‌آوری و پردازش می‌کند. این پلتفرم به شرکت‌های صنعتی امکان می‌دهد تحلیل‌های پیشرفته‌ای روی داده‌های خود انجام دهند و عملکرد تجهیزات را بهینه‌سازی کنند.
📊 پیش‌بینی و تحلیل بلادرنگ (Real-Time Analytics)
با استفاده از مدل‌های پیش‌بینی، جنرال الکتریک می‌تواند زمان بهینه برای تعمیرات تجهیزات را مشخص کند. این فناوری باعث می‌شود که قطعات قبل از خرابی تعویض شوند و از توقف ناگهانی خط تولید جلوگیری شود.

📌 چشم‌انداز آینده GE در تحلیل داده‌های عظیم
جنرال الکتریک معتقد است که استفاده از داده‌های عظیم در صنعت می‌تواند تا سال‌های آینده میلیاردها دلار صرفه‌جویی اقتصادی ایجاد کند. این شرکت سرمایه‌گذاری سنگینی روی یادگیری ماشین، هوش مصنوعی و تحلیل داده‌ها انجام داده تا بازدهی صنایع مختلف را افزایش دهد.

کاربردها و تأثیرات GE در تحلیل داده‌های عظیم
📍 افزایش بهره‌وری نیروگاه‌های برق: بهینه‌سازی عملکرد توربین‌های بادی و گازی.
📍 مدیریت تعمیرات پیشگیرانه: کاهش هزینه‌های نگهداری و جلوگیری از خرابی‌های ناگهانی.
📍 بهبود حمل‌ونقل هوایی: کاهش مصرف سوخت و بهینه‌سازی مسیرهای پروازی.
📍 پیشرفت در صنعت پزشکی: افزایش دقت تصویربرداری پزشکی و بهبود سیستم‌های تشخیصی.

جنرال الکتریک با سرمایه‌گذاری در فناوری‌های داده‌محور توانسته است به یکی از پیشروهای Industry 4.0 تبدیل شود و آینده‌ی هوشمندتری برای صنایع رقم بزند.

📍همچنین می‌توانید این مطلب را در لینک زیر مطالعه بفرمایید.

🔗 https://B2n.ir/n66614

#مطالعه_موردی
#عظیم_داده
#امین_صالح‌نژاد



#BigData_BusinessAnalytics
www.bdbanalytics.ir
Media is too big
VIEW IN TELEGRAM
🎯ویژگی‌های کلیدی تحلیل عظیم داده
تحلیل عظیم داده به یکی از ابزارهای اساسی در دنیای مبتنی بر داده تبدیل شده است. اما این تحلیل شامل چه ویژگی‌هایی است؟ در این ویدیو، فرآیندهای اصلی تحلیل عظیم داده‌ را معرفی خواهیم نمود. از جمله داده کاوی، تحلیل پیش‌بینی‌کننده، تحلیل بلادرنگ، پردازش داده، تحلیل رگرسیونی و پردازش زبان طبیعی
💡 اگر علاقه‌مندبه درک عمیق‌تر از تحلیل عظیم داده و کاربردهای آن هستید، این ویدیو را از دست ندهید!

📍همچنین می‌توانید این ویدئو را در لینک زیر مشاهده فرمایید.

🔗 https://B2n.ir/t51097

#تحلیل_داده
#ويدئوکوتاه
#عظیم_داده
#تحلیلگری
#آرش_قاضی_سعیدی



@BigData_BusinessAnalytics
www.bdbanalytics.ir
❄️ زمستان‌نامه

فایل بیست و ششمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (زمستان 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#زمستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
zemestane1403.pdf
2.2 MB
📣 بیست و ششمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#زمستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل چهارم: مطالعه موردی به کارگیری تحلیلگری کسب و کار مبتنی بر هوش مصنوعی- بخش دوم

📍در این بخش به بررسی استفاده از شبکه‌های عصبی برای بخش‌بندی بازار و خودکارسازی بازاریابی در خرده‌فروشی‌های فیزیکی آلمان پرداخته شده است. در حالی که شخصی‌سازی در بازاریابی اولویت بسیاری از مدیران خرده‌فروشی است، در عمل کمتر اجرا می‌شود. کمبود داده و نبود فرآیندهای خودکار از موانع اصلی هستند. در مطالعه موردی این فصل؛ داده‌های فروش، قیمت، رقبا، و اطلاعات جمعیتی از منابع آنلاین و داخلی جمع‌آوری و در سطح جغرافیایی ۱ کیلومتر مربع مدل‌سازی شدند. با استفاده از الگوریتم Growing Neural Gas، فروشگاه‌ها خوشه‌بندی شده و بازاریابی محلی بر اساس این خوشه‌ها بهینه شد. این کار امکان تست‌های A/B و اتوماسیون بیشتر را فراهم کرده است. همچنین در این بخش، اهمیت انتخاب مکان فروشگاه و تأثیر آن بر سیاست‌های بازاریابی بررسی شده است. در نهایت، با استفاده از مدل Segmenting-Targeting-Positioning (STP)، نحوه تقسیم بازار به بخش‌های کوچکتر برای بهبود تخصیص منابع و افزایش سود مورد تأکید قرار گرفته است.


🔹در ادامه این فصل روش‌های مختلف خوشه‌بندی داده‌ها برای تقسیم بازار بررسی می‌شوند. در ابتدا، به روش‌های سنتی مانند K-means، روش‌های سلسله‌مراتبی و نقشه‌های خودسازمان‌ده (SOM) اشاره می‌شود که هرکدام مزایا و معایب خاص خود را دارند. اما با رشد حجم داده‌ها و پیچیدگی آنها، این روش‌ها با مشکلاتی مانند انتخاب تعداد خوشه‌ها و ابعاد زیاد داده مواجه‌اند.
یکی دیگر از مدل‌های بررسی شده، الگوریتم Neural Gas و نوع پیشرفته‌تر آن یعنی Growing Neural Gas (GNG)  می‌باشد. GNG برخلاف روش‌های سنتی، به صورت افزایشی ساختار خود را تغییر می‌دهد و به مرور نرون‌های جدید اضافه می‌کند. این الگوریتم برای داده‌های بزرگ، پیچیده و نویزی مناسب‌تر است زیرا بدون نیاز به تعیین تعداد خوشه‌ها از پیش، خود را با ساختار داده تطبیق می‌دهد. در قالب شبکه‌ای بدون جهت عمل می‌کند که ارتباط بین نرون‌ها با توجه به فاصله وزنی آنها شکل می‌گیرد. گره‌هایی که خطای زیادی در خوشه‌بندی ایجاد می‌کنند شناسایی شده و نرون جدیدی در آن ناحیه اضافه می‌شود تا دقت خوشه‌بندی افزایش یابد.
این الگوریتم در حوزه‌های متنوعی از جمله تصاویر نجومی و جریان داده نیز مورد استفاده قرار گرفته و اثربخشی آن در خوشه‌بندی داده‌های پیچیده اثبات شده است.
در ادامه خلاصه این فصل ساختار پروژه و اهداف اصلی مطالعه موردی مطرح شده‌اند که در قالب سه سؤال تحقیقاتی بررسی می‌شوند که می توانید به ادامه خلاصه مراجعه کنید.



برای مطالعه خلاصه فصل به لینک زیر مراجعه فرمایید.

🔗 https://B2n.ir/mj2007
#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_چهارم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌زارا؛ نمونه‌ای موفق از بیزنس داده‌محور در صنعت مد

🔹 در دنیای پرشتاب و رقابتی صنعت مد، کسب‌وکارهایی موفق هستند که بتوانند به‌سرعت به تغییرات بازار واکنش نشان دهند. برند اسپانیایی Zara به‌عنوان یکی از پیشگامان صنعت فشن، نمونه‌ای برجسته از یک بیزنس داده‌محور محسوب می‌شود. در این مقاله، به بررسی نقش داده در موفقیت زارا پرداخته و نشان می‌دهیم که چگونه این برند با بهره‌گیری هوشمندانه از داده، توانسته جایگاه خود را در بازار جهانی حفظ کند.

♦️ زارا چیست؟ Zara یکی از زیرمجموعه‌های گروه Inditex است و به دلیل مدل کسب‌وکار مبتنی بر «مد سریع» (Fast Fashion) شناخته می‌شود. این برند توانسته با تحلیل دقیق داده‌های مشتریان، زمان طراحی تا عرضه محصولات خود را به طرز چشمگیری کاهش دهد.

📍نقش داده در مدل کسب‌وکار زارا

1️⃣ جمع‌آوری داده از مشتریان

زارا در فروشگاه‌های فیزیکی و آنلاین خود، به‌صورت مداوم داده‌هایی از رفتار مشتریان جمع‌آوری می‌کند. این داده‌ها شامل موارد زیر هستند:
🔸پرطرفدارترین رنگ‌ها، سایزها و مدل‌ها
🔹نرخ بازگشت کالا
🔸فیدبک‌های مستقیم مشتریان به فروشندگان
🔹داده‌های شبکه‌های اجتماعی
این اطلاعات به‌سرعت به تیم طراحی منتقل می‌شود تا مدل‌های جدید منطبق با نیاز بازار تولید شوند.

2️⃣ تحلیل داده برای طراحی محصول

🔹 برخلاف بسیاری از برندها که طراحی بر مبنای پیش‌بینی سالانه یا فصلی انجام می‌شود، تیم طراحی زارا به‌صورت مداوم بر اساس داده‌های زنده بازار، محصولات جدید طراحی می‌کند. این انعطاف‌پذیری باعث می‌شود تا زارا در بازه‌های زمانی کوتاه (اغلب هر دو هفته یک بار)، محصولات جدیدی به فروشگاه‌ها عرضه کند.

3️⃣ زنجیره تأمین داده‌محور

🔹 زارا با استفاده از سیستم‌های پیشرفته ERP و BI، زنجیره تأمین خود را به‌شکل کامل با داده هماهنگ کرده است. این شرکت قادر است ظرف 48 ساعت پس از طراحی محصول، آن را به فروشگاه‌های اصلی خود ارسال کند. این سرعت بالا به‌واسطه تحلیل مستمر داده‌های موجودی، فروش و نیاز فروشگاه‌ها امکان‌پذیر شده است.

4️⃣ پیش‌بینی تقاضا و بهینه‌سازی موجودی

🔹 یکی از مهم‌ترین کاربردهای داده در زارا، پیش‌بینی تقاضا و جلوگیری از موجودی‌های مازاد است. تیم تحلیل داده با الگوریتم‌های پیش‌بینی‌گر، میزان تقاضا برای هر محصول در هر منطقه جغرافیایی را پیش‌بینی کرده و تولید را متناسب با آن تنظیم می‌کند.

5️⃣ فروشگاه‌های هوشمند

زارا در برخی فروشگاه‌های خود از فناوری‌های نوین مانند RFID استفاده می‌کند تا اطلاعات دقیقی از وضعیت موجودی و فروش هر محصول در لحظه داشته باشد. این داده‌ها به بهینه‌سازی چیدمان فروشگاه و برنامه‌ریزی مجدد موجودی کمک می‌کند.

📍مزایای استفاده از داده برای زارا

❇️ افزایش سرعت پاسخ به بازار
با تحلیل داده‌ها، زارا می‌تواند خیلی سریع‌تر از رقبا به تغییرات سلیقه مشتریان پاسخ دهد.
❇️ کاهش ریسک تولید
تحلیل داده‌های فروش باعث می‌شود تولیدات نامطلوب کاهش یابد و از ضررهای مالی جلوگیری شود.
❇️ بهبود تجربه مشتری
با درک دقیق نیاز مشتری، زارا توانسته تجربه خرید شخصی‌سازی‌شده‌تری برای مشتریان خود رقم بزند.
❇️ بهره‌وری در زنجیره تأمین
داده‌محوری به زارا کمک کرده تا با سرعت بالا و هزینه پایین، کالاها را از کارخانه به فروشگاه منتقل کند.

📍نتیجه‌گیری
زارا یک نمونه برجسته از تحول دیجیتال در صنعت مد است. این شرکت با استفاده هوشمندانه از داده در تمامی بخش‌های کسب‌وکار خود – از طراحی و تولید گرفته تا توزیع و فروش – توانسته به یکی از موفق‌ترین برندهای فشن جهان تبدیل شود. موفقیت زارا نشان می‌دهد که سازمان‌هایی که داده‌محور عمل می‌کنند، قادر به تصمیم‌گیری سریع‌تر، دقیق‌تر و کارآمدتر هستند.
اگرچه بسیاری از رقبا تلاش کرده‌اند مدل زارا را تقلید کنند، اما آنچه زارا را متمایز می‌کند، فرهنگ داده‌محور و سیستم‌های هوشمند یکپارچه‌ای است که به‌صورت پویا در خدمت استراتژی‌های تجاری آن قرار دارند. این برند نمونه‌ای عالی برای سازمان‌هایی است که به دنبال ایجاد تحول دیجیتال و حرکت به‌سوی بیزنس‌های داده‌محور هستند.

می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 https://B2n.ir/un3745

#معرفی_کسب_و_کار_داده_محور
#Zara
#محمدرضا_مرادی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

📌پیشرفت‌ها در یادگیری ماشین و تحلیل‌ عظیم‌داده

"Advances in Machine Learning and Big Data Analytics"

📌نویسندگان:
Ashokkumar Patel, Nishtha Kesswani, Madhusudhan Mishra, Preetisudha Meher

📌این کتاب در سال 2025 توسط Springer انتشار یافته است.

📍 در دنیای دیجیتالی امروز که با سرعتی بی‌سابقه در حال تحول است، کتاب پیشرفت‌ها در یادگیری ماشین و تحلیل عظیم‌داده به‌عنوان اثری ضروری ظاهر می‌شود. با رشد نمایی داده‌ها و پیشرفت چشمگیر توان پردازشی، تقاطع میان یادگیری ماشین و تحلیل عظیم‌داده‌ به محرکی اصلی برای تصمیم‌گیری، نوآوری و برنامه‌ریزی راهبردی در تمامی حوزه‌ها بدل شده است. این کتاب مجموعه‌ای متنوع از پژوهش‌های پیشرو و کاربردهای عملی را دربر می‌گیرد که بازتاب‌دهنده‌ی رشد پویای این حوزه‌هاست. با بررسی پیشرفت‌های بنیادین در کنار کاربردهای نوین، کتاب دیدگاه‌هایی ارزشمند برای پژوهشگران، متخصصان و دانشجویان ارائه می‌دهد.

📍 مطالب این کتاب طیفی گسترده از موضوعات را در بر می‌گیرد؛ از شبکه‌های Deep Convolutional برای سنتز متن به تصویر و سیستم‌های هوشمند کشاورزی، تا تشخیص بیماری با استفاده از معماری‌های YOLO و کاربردهای رابط مغز-رایانه (BCI). خوانندگان از طریق این فصل‌های متنوع با وسعت قابلیت‌های واقعی یادگیری ماشین آشنا می‌شوند. هر مقاله بر پایه چارچوب‌های فنی مستحکم بنا شده و در عین حال بر کاربردهای عملی تأکید دارد؛ به‌نحوی که نشان می‌دهد چگونه یادگیری ماشین و تحلیل عظیم‌داده‌ در حال حل مسائل پیچیده در حوزه‌هایی چون سلامت، امنیت سایبری، کشاورزی، آموزش و انرژی هستند.

📍 ویژگی خاص این کتاب تنها در دقت فنی آن خلاصه نمی‌شود، بلکه پاسخ‌گویی آن به روندهای روز و نیازهای اجتماعی نیز حائز اهمیت است. چندین فصل به دغدغه‌های معاصر چون هوش مصنوعی اخلاق‌مدار، شناسایی گفتار نفرت‌پراکن در فضای مجازی، ارزیابی ریسک‌های پزشکی و کاربردهای پایدار اینترنت اشیا می‌پردازند. این مطالب، بر ضرورت نوآوری مسئولانه و آگاه به بستر اجتماعی تأکید دارند و یادآور می‌شوند که قدرت داده‌ها باید با تعهد به طراحی انسان‌محور و حاکمیت اخلاقی همراه باشد. همین رویکرد معطوف به اثرگذاری، ارزش این کتاب را به‌عنوان منبعی پژوهشی و راهنمایی برای سیاست‌گذاری و نوآوری تقویت می‌کند.

📍 با بهره‌گیری از مشارکت پژوهشگرانی از سراسر جهان، کتاب پیشرفت‌ها در یادگیری ماشین و تحلیل عظیم‌داده تصویری کامل از پیشرفت‌های این حوزه ارائه می‌دهد. این کتاب نه‌تنها نگاهی به توانایی‌های کنونی سیستم‌های هوشمند داده‌محور دارد، بلکه مسیری به سوی آینده ترسیم می‌کند، آینده‌ای که در آن سیستم‌های هوشمند نقشی محوری در شکل‌دادن به واقعیت‌های اجتماعی، اقتصادی و فناورانه ایفا خواهد کرد. برای هر کسی که در پی درک یا مشارکت در آینده‌ی این حوزه است، این کتاب الهام‌بخش و راه‌گشاست.


این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://B2n.ir/pr6675


#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🛠معرفی ابزار Firebolt

🖌ابزار Firebolt یک انبار داده‌ تحلیلی (Cloud Data Warehouse) مدرن و مبتنی بر ابر (Cloud-native) است که برای تحلیل سریع، تعاملی و مقیاس‌پذیر داده‌های عظیم طراحی شده.
تمرکز اصلی Firebolt روی عملکرد بالا (high performance) برای کوئری‌های تحلیلی و تأخیر پایین است؛ به همین دلیل، بسیاری آن را جایگزینی سریع‌تر برای ابزارهایی مانند Snowflake، BigQuery و Redshift می‌دانند، مخصوصاً در محیط‌هایی که کاربران نیاز به پاسخ‌گویی لحظه‌ای به کوئری‌ها دارند.

🖌ویژگی‌های کلیدی Firebolt

📌سرعت بسیار بالا: از storage و compute جداگانه، شاخص‌گذاری سفارشی و Execution Engine خاص خود برای اجرای سریع SQL استفاده می‌کند.

📌پردازش داده‌های عظیم: مناسب برای تحلیل داده‌های بزرگ در مقیاس ترابایت و پتابایت، مخصوصاً برای تیم‌های BI، محصول و علم داده.

📌ساختار ستونی (Columnar): داده‌ها به شکل ستونی ذخیره می‌شوند، که برای queryهای تحلیلی بسیار مؤثرتر است.

📌 جداسازی فضای ذخیره‌سازی و محاسبات: قابلیت مقیاس‌پذیری افقی، اجرای چند engine مستقل روی یک مجموعه داده مشترک.

🖌مزایای Firebolt

ایندکس‌گذاری قابل تنظیم

پشتیبانی از Aggregating و Join Index برای بهینه‌سازی دقیق

پشتیبانی از چندین Engine همزمان (Multi-engine)

اجرای کوئری‌های متفاوت به‌صورت موازی بدون اختلال

مناسب برای real-time analytics

ایده‌آل برای داشبوردهای لحظه‌ای، سیستم‌های BI تعاملی و تحلیل جریانی

رابط کاربری ساده با پشتیبانی کامل از ANSI SQL

راحتی یادگیری و انتقال از ابزارهای دیگر مثل Snowflake یا BigQuery

قابل اتصال به ابزارهای BI رایج

مانند Tableau، Looker، Power BI، Superset و...

فشرده‌سازی بالا برای کاهش هزینه ذخیره‌سازی

🖌 موارد استفاده Firebolt

📍ساخت داشبوردهای BI real-time با پاسخ‌دهی در حد میلی‌ثانیه

📍تحلیل رفتار کاربر در اپلیکیشن‌های SaaS یا وب

📍تحلیل داده‌های زمانی (time-series) در مقیاس بزرگ

📍سیستم‌های گزارش‌گیری تعاملی (Interactive Analytics)

📍پروژه‌هایی که Snowflake یا BigQuery کند هستند.

همچنین می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 yun.ir/y8tt21


#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Firebolt
#BigData_BusinessAnalytics
www.bdbanalytics.ir
Big Data and AI in Retail
BDBAnalytics
🎧 فایل صوتی خلاصه گفت‌وگوی تخصصی با رابرت (Rever)
موضوع: هوش مصنوعی و داده‌های عظیم در خرده‌فروشی

سلام به دوستان عزیز BDBAnalytics!
گفت‌وگوی کامل ما با رابرت (مدیر داده در Rever) رو تو یوتیوب ببینید.
https://www.youtube.com/watch?v=osAHu-x9xrA

البته نگران نباشید — اینجا یک نسخه صوتی خلاصه‌شده و مفید هم براتون آماده کردیم. 🎙

👂 تو این مصاحبه و فایل صوتی می‌شنوید:

🔹 هوش مصنوعی امروز چه تعریفی داره؟
🔹 چرا داده مناسب مهم‌تر از خود AI هست؟
🔹شرکت Rever چطور با تحلیل پیشرفته و مش داده داره پیشرو می‌شه؟
🔹 آیا فروشگاه‌های بدون صندوقدار واقعاً عملی شدن؟
🔹 کاربردهای واقعی GenAI در شرکت‌ها از کجا شروع می‌شه؟
🔹 چالش‌ها، ریسک‌ها و فرصت‌های بزرگ برای خرده‌فروش‌ها
🔹 آینده شغلی با ظهور AI چطور تغییر می‌کنه؟
🔹 نگاهی به آینده ۱۰ تا ۲۰ ساله‌ی خرده‌فروشی هوشمند

اگر به آینده داده‌های عظیم و فناوری علاقه‌مندی، این فایل صوتی خلاصه‌شده دقیقاً برای شماست – مفید، شنیدنی، و قابل استفاده در مسیر، استراحت یا حتی حین کار


🔗 https://B2n.ir/qu4887

#مصاحبه
#داده‌های_عظیم
#حمید_جمالی

#BigData_BusinessAnalytics
www.bdbanalytics.ir
📚 معرفی کتاب

📌 مدیریت و تحلیل عظیم‌داده (پارادایم‌ها و کاربردهای محاسباتی آینده)
"Big Data Management and Analytics (Future Computing Paradigms and Applications)"

نویسنده: Brij B Gupta
ناشر: World Scientific

سال انتشار: 2024

📍 با توجه به حجم عظیم داده و اطلاعات تولید شده روزانه، مدیریت و تحلیل عظیم‌داده برای استخراج بینش‌های ارزشمند و تصمیم‌گیری‌های مبتنی بر داده، ضروری است. این کتاب راهنمایی جامع برای درک و به‌کارگیری اصول، فناوری‌ها و ابزارهای مدیریت و تحلیل عظیم‌داده ارائه می‌دهد.

📍 این کتاب با هدف ارائه یک راهنمای جامع و عملی برای طیف وسیعی از مخاطبان، از جمله دانشجویان، تحلیلگران داده، دانشمندان داده و متخصصان فناوری اطلاعات مناسب است. کتاب هیچ دانش قبلی در زمینه مدیریت و تحلیل عظیم‌داده را فرض نمی‌کند و رویکردی گام به گام برای یادگیری مفاهیم و تکنیک‌های کلیدی ارائه می‌دهد. در پایان کتاب، خوانندگان درک کاملی از اکوسیستم عظیم‌داده خواهند داشت و به مهارت‌ها و دانش لازم برای مدیریت و تحلیل موثر در سناریوهای دنیای واقعی مجهز خواهند شد.

📍 این کتاب شامل ۱۰ فصل است که هر فصل به جنبه‌های مختلف مدیریت و تحلیل عظیم‌داده می‌پردازد. تم‌های اصلی آن را می‌توان به صورت زیر بررسی کرد:

🔹مبانی عظیم‌داده:
فصل ۱: مقدمه‌ای بر عظیم‌داده – معرفی مفهوم عظیم‌داده، منابع مختلف، ویژگی‌ها و چالش‌های مرتبط با مدیریت و تحلیل آن‌، و همچنین مروری بر کاربردهای رایج عظیم‌داده.
فصل ۲: مدیریت و مدل‌سازی عظیم‌داده – ارائه یک دیدگاه جامع از تکنیک‌ها و استراتژی‌های مورد استفاده برای مدیریت و مدل‌سازی مجموعه عظیم‌داده، از جمله چالش‌های مرتبط با آن و انواع مدل‌های داده (رابطه‌ای، نیمه‌ساختاریافته، بدون ساختار، گرافی).

🔹پردازش و تحلیل عظیم‌داده:
فصل ۳: پردازش عظیم‌داده – مروری بر پردازش عظیم‌داده، شامل تعریف، ویژگی‌ها و چالش‌ها، الزامات پردازش، فرایند پردازش و نقش Splunk و Datameer.
فصل ۴: تحلیل عظیم‌داده و یادگیری ماشین – پوشش فرآیند جمع‌آوری و پیش‌پردازش داده‌ها، تکنیک‌های تبدیل داده، مسائل کیفیت داده، نقش یادگیری ماشین و چالش‌های پیاده‌سازی آن در مقیاس بزرگ.
فصل ۵: تحلیل عظیم‌داده از طریق بصری‌سازی – بررسی نقش بصری‌سازی در تحلیل، انواع بصری‌سازی‌های قابل استفاده برای کاوش و عظیم‌داده، با تمرکز ویژه بر تحلیل گراف.

🔹فناوری‌ها و ذخیره‌سازی کلیدی:
فصل ۶: مهار عظیم‌داده با Spark 2.0 – مروری بر Apache Spark، ویژگی‌ها و مزایای Spark 2.0، معماری آن شامل Spark Core، Spark SQL، Spark Streaming و MLlib، و نقش RDDها در پردازش و تحلیل عظیم‌داده.
فصل ۷: مدیریت عظیم‌داده در ذخیره‌سازی ابری – بررسی جامع سیستم‌های ذخیره‌سازی داده، به ویژه Hadoop Distributed File System (HDFS) و ذخیره‌سازی ابری، و چالش‌های ذخیره‌سازی داده‌ها در سیستم‌های توزیع‌شده.

🔹کاربردهای دنیای واقعی:
فصل ۸: عظیم‌داده در مراقبت‌های بهداشتی و درمانی – بررسی دیجیتالی‌سازی در بخش مراقبت‌های بهداشتی، پزشکی و بهداشت عمومی و عناصر عظیم‌داده.
فصل ۹: عظیم‌داده در امور مالی – بررسی دیجیتالی‌سازی در صنعت مالی، منابع داده‌های مالی، چالش‌های استفاده از عظیم‌داده در تحقیقات مالی، مدیریت و تحلیل داده‌های مالی بزرگ، و کاربردهای رایج تحلیل داده‌های مالی بزرگ.

🔹ابزارها و فناوری‌های توانمندساز:
فصل ۱۰: ابزارها و فناوری‌های توانمندساز برای تحلیل عظیم‌داده – ارائه مجموعه‌ای جامع از ابزارها و فناوری‌های ضروری برای مدیریت و مدل‌سازی، یکپارچه‌سازی و پردازش، ابزارهای یادگیری ماشین (مانند KNIME و Spark MLlib) و ابزارهای تحلیل گراف (مانند Giraph، GraphX و Neo4j).

📍 این کتاب با ارائه بینش‌ها و متدولوژی‌های کاربردی، به افراد و سازمان‌ها کمک می‌کند تا از پتانسیل کامل داده‌های خود بهره‌برداری کنند و فرآیندهای تصمیم‌گیری خود را بهبود بخشند، که منجر به نتایج عملکردی بهتر و در نهایت کسب مزیت رقابتی در صنایع مربوطه می‌شود. این یک منبع بسیار ارزشمند است که شایسته قرار گرفتن در کتابخانه‌های شخصی افراد علاقه‌مند به حوزه مدیریت و تحلیل داده است.

📍می‌توانید این کتاب را در لینک زیر دریافت فرمایید.

🔗 https://B2n.ir/ey5119

#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار

@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:
Facilitating topic modeling in tourism research: Comprehensive comparison of new AI technologies
✍️ نویسندگان:
Andrei P. Kirilenko  , Svetlana Stepchenkova
📔ژورنال :
Tourism Management
🗓سال انتشار:
2025

🔸نویسندگان این مقاله با ذکر اهمیت این موضوع که تحلیل محتوای تولیدشده توسط کاربران (UGC) در حوزه گردشگری امروز یکی از مهمترین منابع درک نگرش‌ مسافران و رفتار مصرف کنندگان است، به این نکته اشاره دارند که از گذشته، روش‌های مدل‌سازی موضوعی مانند LDA برای این نوع تحلیل مرسوم بودند. اما با ظهور مدل‌های پیشرفته‌تر مبنی بر ترنسفورمر همچون BERT و GPT، ضرورت ارزیابی مقایسه‌ای این روش‌ها برای انتخاب بهینه بر اساس نوع داده اجتماعی مطرح شد. این مقاله با ارائه یک تحلیل مقایسه‌ای بین این روش‌ها ، به بررسی عملکرد آنها در داده‌های مختلف گردشگری می‌پردازد.

🔹داده‌های مورد استفاده این پژوهش شامل نظرات کاربران در پلتفرم‌هایی مانند  TripAdvisor ، یوتیوب  و ویبو است که از نظر انسجام، طول متن و حجم داده‌ها متفاوت هستند.

🔸این مقاله به دنبال پاسخ به سوالات زیر است:
1.عملکرد سه روش LDA، BERT و GPT در استخراج موضوعات از داده‌های گردشگری چگونه است؟
2.هر روش در چه نوع داده‌هایی (کوتاه/بلند، منسجم/نویزدار، حجم کوچک/بزرگ) بهتر عمل می‌کند؟
3. نقاط قوت و ضعف هر روش چیست و چگونه می‌توان از آنها در تحقیقات گردشگری استفاده کرد؟

🔹در ادامه بطور خلاصه معرفی از این سه روش ارائه شده است که بشرح زیر است:

 روش LDA :  یک روش آماری احتمالاتی است که هر سند را ترکیبی از موضوعات و هر موضوع را ترکیبی از کلمات می‌داند. این روش نیاز به داده‌های حجیم و متون نسبتاً طولانی دارد تا توزیع موضوعات را به‌درستی تخمین بزند. تفسیر نتایج در این روش نیازمند تحلیل دستی است، زیرا خروجی آن لیستی از کلمات کلیدی است که باید توسط پژوهشگر معناگذاری شوند.

روش  BERT : این روش از بردارسازی برای درک معنای کلمات در متن استفاده می‌کند و با معماری Self-Attention ارتباط بین کلمات را تحلیل می‌کند.
در BERTopic، ابتدا اسناد به بردارهای عددی تبدیل می‌شوند، سپس خوشه‌بندی انجام می‌شود و هر خوشه به یک موضوع نسبت داده می‌شود.
عملکرد این روش به دامنه داده‌های آموزشی وابسته است و برای متون کوتاه و نویزدار مناسب است.

روش  GPT : برخلاف BERT، به‌صورت یک‌طرفه آموزش دیده و توانایی تولید متن منسجم را دارد. این روش می‌تواند مستقیماً موضوعات را به‌صورت توصیفی و قابل‌فهم ارائه دهد، اما ماهیت جعبه سیاه دارد و تفسیر فرآیند استخراج موضوعات در آن دشوار است.

🔸 تنظیمات اجرای هر رویکرد در این مقاله به شرح زیر است:
*روش LDA:
پارامترهای α=0.1 و β=0.001.
تعداد کلمات کلیدی: ۴۰۰.
تعداد بهینه موضوعات با اجرای مدل در بازه ۵ تا ۱۵۰ موضوع انتخاب شد.

*روش BERTopic:
از مدل all-MiniLM-L6-v2 برای تبدیل متون به بردار استفاده شد.
خوشه‌بندی با HDBSCAN و کاهش ابعاد با UMAP انجام شد.
حداقل اندازه خوشه: ۱۰ سند

*روش GPT-4 :
 به دلیل محدودیت طول ورودی، داده‌ها به بخش‌های کوچک‌تر تقسیم شدند.
از مهندسی پرامپت برای استخراج، ادغام و تطبیق موضوعات استفاده شد.
 
🔹مقاله برای بررسی نتایج بدست آمده و مقایسه روش‌ها از ۵ معیار استفاده کرده که عبارتند از:

1.استخراج مؤثر موضوعات: آیا موضوعات استخراج‌شده قابل‌فهم و مرتبط با مفاهیم گردشگری هستند؟
2.پوشش موضوعی اسناد: چند درصد از اسناد به موضوعات مشخص مرتبط هستند؟
3. مقیاس‌پذیری: عملکرد روش در داده‌های کوچک/بزرگ و کوتاه/بلند چگونه است؟
4. تحمل نویز: توانایی پردازش داده‌های نویزدار.
5. شفافیت: امکان تفسیر فرآیند استخراج موضوعات.



www.bdbanalytics.ir
@BigData_BusinessAnalytics