تحلیلگری عظیم‌داده و کسب‌وکار – Telegram
تحلیلگری عظیم‌داده و کسب‌وکار
892 subscribers
45 photos
42 videos
57 files
478 links
📌تحلیلگری عظیم داده و کسب و کار؛

🔎Big Data and Business Analytics

آموزش، پژوهش، اطلاع‌رسانی، ترویج و خدمات مشاوره حوزه تحلیلگری عظیم‌داده

سرپرست کانال: دکتر سعید روحانی، عضو هیأت علمی دانشگاه تهران

وبسایت
www.bdbanalytics.ir

ادمین کانال
@BDBA_UT
Download Telegram
📚معرفی کتاب

🔍 تحلیل افراد در زمانه‌ی عظیم‌داده

"People Analytics in the Era of Big Data: Changing the Way You Attract, Acquire, Develop, and Retain Talent”


🖋 نویسندگان: Jean Paul Isson, Jesse S. Harriott

📌این کتاب در سال ۲۰۱۶ و توسط Wiley انتشار یافته است.


📍این کتاب را می‌توان به عنوان راهنمایی کامل استفاده از تحلیل عظیم داده در فرایندهای مختلف منابع انسانی در نظر گرفت که با تمرکز بر مدیریت استعداد و استفاده از داده‌های افراد در فرایندهای مختلف نگاشته شده است.
📍کتاب به ۱۴ فصل تقسیم شده که ۳ فصل اولیه به مقدمات تحلیل افراد، فصول ۴ تا ۱۲ به بررسی جداگانه‌ی فرایندهای منابع انسانی و استفاده از تحلیل افراد در آن‌ها پرداخته شده و در نهایت در دو فصل آخر ترکیب عظیم داده و تحلیل افراد و آینده‌ی تحلیل افراد را بررسی می‌کند. ساختار کتاب به گونه‌ای است که در هر فصل علاوه‌ بر توضیح مفاهیم، شامل مصاحبه با صاحب‌نظران هر حوزه در استفاده از تحلیل افراد در آن حوزه و مطالعه‌ موردی‌های مختلف در پیاده‌سازی‌های موفق تحلیل افراد در آن حوزه‌ها می‌شود.

📍کتاب ۷ ستون اصلی موفقیت تحلیل افراد را به صورت زیر معرفی می‌کند و در نهایت ترکیب این مفاهیم را با اهرم تحلیل عظیم‌داده مورد بررسی قرار می‌دهد:

🔹 تحلیل برنامه‌ریزی افراد.
🔹تحلیل‌های منبع‌یابی.
🔹تحلیل‌های جذب و استخدام.
🔹آنبورد افراد، سازگاری فرهنگی و مشارکت کارکنان.
🔹ارزیابی عملکرد، توسعه و ارزش طول عمر کارکنان.
🔹خروج و نگهداشت کارکنان.
🔹سلامتی، بهداشت و امنیت کارکنان.

📍نگارندگان سعی داشته‌اند داده‌محور شدن تصمیم‌های مدیران منابع انسانی و مبتنی بر واقعیت شدن آن‌ها را با توجه به رشد روزافزون حجم، تنوع و سرعت داده‌ها که عظیم‌داده را شکل می‌دهند در این کتاب هدف قرار دهند که با توجه به ساختار موجود در کتاب می‌توان نتیجه گرفت تا میزان زیادی به این مهم دست پیدا کرده‌اند.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/qrp3


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:

A Tutorial on Federated Learning from Theory to Practice: Foundations, Software Frameworks, Exemplary Use Cases, and Selected Trends

✍️ نویسندگان:

M. Victoria Luzón, Nuria Rodríguez-Barroso, Alberto Argente-Garrido , Daniel Jiménez-López, Jose M. Moyano, Javier Del Ser, Weiping Ding, Francisco Herrera

🗓 سال انتشار: ۲۰۲۴
📔 ژورنال:
IEEE/CAA Journal of Automatica Sinica

🔸مقاله با این مقدمه آغاز شده که هنگامی که حفظ حریم خصوصی داده‌ها به عنوان یک ضرورت در نظر گرفته می‌شود، یادگیری مشارکتی (فدرال FL) به عنوان یک زمینه هوش مصنوعی مرتبط برای توسعه مدل‌های یادگیری ماشین در یک محیط توزیع شده و غیرمتمرکز ظاهر می‌شود.

🔸 یادگیری مشارکتی اجازه می‌دهد تا مدل‌های ML بر روی دستگاه‌های محلی بدون نیاز به انتقال داده متمرکز آموزش داده شوند، در نتیجه به دلیل توانایی ذاتی خود در بهبود مسائل مربوط به حفظ حریم خصوصی و کارایی یادگیری توزیع شده، توجه پژوهشگران زیادی را به خود جلب کرده است . بعلاوه این رویکرد بسیار مقیاس پذیر بوده  چراکه می‌تواند شرکت کنندگان متعددی را که هر کدام منابع داده خود را دارند، پوشش دهد. این مساله می‌تواند به ویژه در سناریوهایی با تولید مداوم داده مفید باشد، به عنوان مثال، در دستگاه‌های حسگر اینترنت اشیا. در نتیجه، FL به یک زمینه مهم هوش مصنوعی تبدیل شده است و علاقه محققان، توسعه دهندگان و دانشمندان داده را در مطالعات نظری و عملی و بخصوص برنامه هایی که با داده‌های حساس سروکار دارند، به خود جلب کرده است.

🔸اولین برنامه موفق FL توسط Google برای پیش‌بینی ورودی متن کاربر توسعه داده شد بطوریکه داده‌ها به صورت محلی در ده‌ها هزار دستگاه Android، نگهداری می‌شد. از آن زمان، FL برای طیف گسترده‌ای از کاربردها در زمینه‌های مختلف، از مهندسی صنایع گرفته تا مراقبت های بهداشتی به کار گرفته شده است.
 
🔸مقاله پس از ذکر مقدمات ، در بخش 2 به چرایی و چگونگی FL پرداخته و تاکید می‌کند که یادگیری ماشین یکی از زمینه‌های پرکاربرد هوش مصنوعی است که به دلیل افزایش تقاضا از نظر حجم و تنوع داده‌ها منجر به چالش‌های متعددی در رابطه با حریم خصوصی داده‌ها و پردازش چنین حجم زیادی از داده‌ها شده است. در حقیقت چالش‌هایی نظیر حفظ حریم خصوصی، ارتباطات و دسترسی به داده‌ها منجر به شکل گیری رویکرد یادگیری مشارکتی (فدرال) یا FL شده است. 

🔸در بخش 3، مقاله ضمن بررسی زیرساخت یادگیری مشارکتی و عناصر کلیدی آن، 2 معماری اصلی در این حوزه و وجه تمایز آنها را شرح داده و قسمت بعد به توضیح امنیت داده در این رویکرد می‌پردازد.

🔸 در بخش چهارم، مقاله به معرفی مجموعه داده‌ها و چارچوب‌های نرم افزاری پیشرفته در این حوزه پرداخته و پرکاربردترین مجموعه داده‌ها در ادبیات موضوع را برای انجام آزمایشات FL ارائه کرده و سپس طیف وسیعی از چارچوب‌های نرم‌افزاری پیشرفته برای طراحی چنین مطالعاتی را از زوایای مختلف مورد تجزیه و تحلیل قرار داده است .

🔸 در بخش پنجم مقاله، دستورالعمل‌های روش شناختی برای شبیه‌سازی سناریوهای FL ارائه شده است.

🔸بخش ششم مقاله به پاسخ به این پرسش می‌پردازد که اساسا" زمانی که داده‌ها بین چندین کلاینت توزیع می‌شود، آیا FL نسبت به رویکرد دیگر (غیر FL)  مزیتی دارد یا خیر و به ارائه یک مقایسه عملکرد بین استراتژی‌های FL و غیرFL می‌پردازد.

🔸 در بخش هفتم مقاله به ارائه شش مورد مطالعاتی در زمینه بکارگیری FL  می‌پردازد و پیاده‌سازی راه حل را با استفاده از 3 فریمورک مختلف (TFF, Flower و FATE) نشان می‌دهد.

🔸  در نهایت در بخش هشتم روندهای مطالعاتی در حوزه FL ارائه شده که می‌تواند چشم اندازهای تحقیقاتی مناسبی را برای پژوهشگران معرفی نماید.  

🔸 این مقاله سعی کرده تا با نگاه جامعی که به مفهوم و کاربردهای FL دارد، بتواند به عنوان مرجعی برای پژوهشگران این حوزه مطرح شود. 

👈در صورت تمایل، می‌توانید فایل مقاله را از لینک زیر دریافت فرمایید.


🔗 https://bdbanalytics.ir/oyip

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی
www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍1
Media is too big
VIEW IN TELEGRAM
📌📌 آینده هوش مصنوعی، بلاکچین، تحلیلگری عظیم داده


در این ویدئو سه روند اصلی که دنیای فناوری هوشمند را شکل می‌دهند، مورد بحث قرار می‌گیرند: هوش مصنوعی (AI)، بلاک‌چین و تحلیلگری عظیم داده‌ها

همچنین می‌توانید این ویدئو را در لینک زیر مشاهده بفرمایید.

🔗 https://bdbanalytics.ir/cmib

#ويدئو_کوتاه
#عظیم_داده
#تحلیلگری
#هوش_مصنوعی
#بلاکچین
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
🌱 بهارنامه

فایل بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (بهار 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
2🔥1
baharaneh 1403.pdf
1.7 MB
📣 بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍3👎1🔥1
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

فصل دوم: هوش مصنوعی

در فصل اول کتاب "هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی" به مفاهیم اولیه تحلیل و هوشمندی کسب و کار پرداختیم. در ادامه این فصل، در فصل دوم به طور خاص به موضوع هوش مصنوعی و روش‌های مختلفی که در تحلیل کسب و کار به کار گرفته می‌شوند اشاره شده است.
به طور کلی هوش مصنوعی شامل شاخه‌های متنوعی مثل رباتیک، سیستم‌های خبره، یادگیری ماشین، مدل‌های شناختی و ... می‌باشد. اما وقتی صحبت از کاربرد هوش مصنوعی در تحلیل کسب و کار می‌شود؛ نقطه تمرکز بر روش‌های یادگیری ماشین می‌باشد که می‌توانند منجر به تولید بینش در کسب و کارها شود. بر این اساس تمرکز فصل دوم بر معرفی روش‌های یادگیری ماشین می‌باشد که ابتدا به سه دسته کلی یادگیری با نظارت، یادگیری بدون نظارت و یادگیری تقویتی اشاره می‌کند.
علاوه بر توضیح این سه روش، به صورت جزئی تر در مورد روش‌های دسته بندی، رگرسیون، خوشه بندی، استخراج قوانین و بهینه سازی موضوعاتی مورد بررسی قرار می‌گیرند که در بخش خلاصه کتاب به آن اشاره شده است.

برای مطالعه خلاصه فصل دوم به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/7ijz

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_دوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌شرکت Airbnb یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در دنیا است. این شرکت از داده‌ها به طور گسترده‌ای استفاده می‌کند تا خدمات خود را بهینه‌سازی کند، تجربه کاربران را بهبود بخشد و تصمیم‌گیری‌های هوشمندانه‌تری انجام دهد. در این مقاله، به بررسی چگونگی استفاده از داده‌ها در این شرکت می‌پردازیم.

🔹 پلتفرم Airbnb یک بازار آنلاین است که افراد می‌توانند از طریق آن محل اقامت خود را به اشتراک بگذارند یا مکان‌هایی را برای اقامت خود اجاره کنند. این پلتفرم از سال 2008 آغاز به کار کرده و از آن زمان به یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در جهان تبدیل شده است. موفقیت Airbnb به عوامل متعددی از جمله استفاده هوشمندانه از داده‌ها وابسته است.

📌انواع داده‌های مورد استفاده در Airbnb
این پلتفرم از انواع مختلف داده‌ها برای بهینه‌سازی خدمات خود استفاده می‌کند. برخی از مهم‌ترین این داده‌ها عبارتند از:
1️⃣ داده‌های کاربران: شامل اطلاعات پروفایل کاربران، تاریخچه رزروها، نظرات و امتیازات کاربران.
2️⃣ داده‌های میزبان‌ها: شامل اطلاعات پروفایل میزبان‌ها، ویژگی‌های ملک‌ها، قیمت‌گذاری و دسترسی‌ها.
3️⃣ داده‌های مکانی: شامل موقعیت جغرافیایی ملک‌ها، جاذبه‌های محلی و اطلاعات حمل‌ونقل.
4️⃣ داده‌های بازار: شامل تحلیل عرضه و تقاضا، روندهای بازار و قیمت‌گذاری رقابتی.

🔸این پلتفرم از تکنیک‌های پیشرفته تحلیل داده و یادگیری ماشین برای بهبود خدمات خود استفاده می‌کند. برخی از کاربردهای اصلی این تکنیک‌ها در Airbnb عبارتند از:
📍پیش‌بینی قیمت‌ها
📍توصیه‌گرها
📍تشخیص تقلب
📍شخصی‌سازی تجربه کاربر
📍بهینه‌سازی قیمت‌گذاری
📍تطبیق بهتر مهمان و میزبان
📍بهبود تجربه کاربران با استفاده از داده‌ها:
🔹بهینه‌سازی جستجو
الگوریتم‌های جستجوی Airbnb با استفاده از داده‌های کاربران و ملک‌ها، نتایج جستجوی بهتری را ارائه می‌دهند. این الگوریتم‌ها با تحلیل کلمات کلیدی، ترجیحات کاربران و تاریخچه جستجوها، نتایج مرتبط‌تری را به کاربران نمایش می‌دهند.
🔹پشتیبانی مشتریان
پلتفرم Airbnb از داده‌ها برای بهبود خدمات پشتیبانی مشتریان استفاده می‌کند. با تحلیل داده‌های تماس‌ها و مشکلات گزارش‌شده، این شرکت می‌تواند مشکلات رایج را شناسایی و راه‌حل‌های مناسبی ارائه دهد. این تحلیل‌ها به بهبود فرآیندهای پشتیبانی و افزایش رضایت مشتریان کمک می‌کند.
📍بهینه‌سازی عملیات و فرآیندهای داخلی
علاوه بر بهبود تجربه کاربران، Airbnb از داده‌ها برای بهینه‌سازی عملیات و فرآیندهای داخلی خود نیز استفاده می‌کند. برخی از کاربردهای اصلی داده‌ها در این زمینه عبارتند از:
1️⃣ مدیریت موجودی
2️⃣ تحلیل عملکرد

📌چالش‌ها و فرصت‌های آینده
استفاده از داده‌ها در Airbnb با چالش‌هایی نیز همراه است. برخی از این چالش‌ها عبارتند از:
🔹حفظ حریم خصوصی
یکی از مهم‌ترین چالش‌ها در استفاده از داده‌ها، حفظ حریم خصوصی کاربران است. Airbnb باید اطمینان حاصل کند که داده‌های کاربران به صورت ایمن نگهداری و استفاده می‌شوند و حریم خصوصی آنها رعایت می‌شود.
🔸مدیریت داده‌های عظیم
این شرکت با حجم زیادی از داده‌ها سروکار دارد و مدیریت این داده‌ها یکی از چالش‌های مهم است. بنابراین باید از ابزارها و تکنولوژی‌های مناسب برای ذخیره، پردازش و تحلیل این داده‌ها استفاده کند.
🔹بهبود مداوم الگوریتم‌ها
الگوریتم‌های تحلیل داده و یادگیری ماشین نیاز به بهبود و به‌روزرسانی مداوم دارند. Airbnb باید از تیم‌های متخصص و منابع کافی برای بهبود مداوم این الگوریتم‌ها استفاده کند.

📌نتیجه‌گیری
استفاده از داده‌ها در Airbnb یکی از عوامل اصلی موفقیت این شرکت است. این شرکت با استفاده از داده‌های مختلف، تحلیل‌های پیشرفته و الگوریتم‌های یادگیری ماشین، خدمات خود را بهینه‌سازی کرده و تجربه کاربران را بهبود می‌بخشد. با وجود چالش‌های موجود، Airbnb همچنان به بهره‌برداری از داده‌ها برای رشد و نوآوری ادامه می‌دهد.

برای مطالعه این مطلب به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/kka0


#محمدرضا_مرادی
#کسب_و_کار_داده_محور
#Airbnb


@BigData_BusinessAnalytics
www.bdbanalytics.ir
👍1
📚معرفی کتاب

🔍 دایرةالمعارف فناوری‌های عظیم‌داده

"Encyclopedia of Big Data Technologies"


🖌 نویسندگان: Sherif Sakr, Albert Zomaya

📌این کتاب در سال ۲۰۲۰ توسط Springer انتشار یافته است.

📌دایرةالمعارف فناوری‌های عظیم‌داده توسط کارشناسان موضوعی از سراسر جهان، هم در صنعت و هم در دانشگاه، تالیف شده است، طیف گسترده ای از موضوعات عظیم داده را با عمق و دقت بی نظیری پوشش می‌دهد. هیئت نویسندگان، متشکل از ۳۵ محقق برجسته، تضمین می‌کنند که هر بخش به طوری طراحی شده تا مناسب‌ترین اصطلاحات را به تصویر بکشد. این کارشناسان مقالات را به شیوه‌ای سازگار و استاندارد توسعه می‌دهند و از محتوای با کیفیت و قابل اعتماد، اطمینان می‌دهند.

📌این کتاب مرجع گسترده به نیاز حیاتی برای وجود یک منبع تحقیقاتی جامع در حوزه فناوری‌های عظیم‌داده‌ می‌پردازد، از مرزهای انضباطی فراتر می‌رود و رشته‌های فنی مانند سیستم‌های ذخیره‌سازی عظیم داده، پایگاه‌های داده NoSQL، محاسبات ابری، سیستم‌های توزیع‌شده، یادگیری ماشین و فناوری‌های اجتماعی را در بر می‌گیرد.


ویژگی‌های کلیدی:

🔸پوشش جامع: این دایرةالمعارف بیش از ۳۰۰ مدخل را ارائه می‌کند که مفاهیم و اصطلاحات کلیدی را در زمینه گسترده عظیم‌داده و یادگیری ماشین پوشش می‌دهد. هر ورودی شامل مقالات عمیق، تعاریف، پیشینه تاریخی، برنامه‌های کاربردی کلیدی و کتابشناسی ست که درک کاملی از موضوع را ارائه می‌دهد.

🔸ارجاعات متقابل گسترده: برای تسهیل در کشف سریع و کارآمد اطلاعات، دایرةالمعارف شامل ارجاعات متقابل گسترده است که به خوانندگان امکان می‌دهد به طور یکپارچه در موضوعات مرتبط به هم حرکت کنند.

🔸رویکرد میان رشته‌ای: دایرةالمعارف صرفاً بر یک رشته یا حوزه تحقیقاتی تمرکز نمی‌کند بلکه جنبه‌ها و فناوری‌های مختلف مربوط به عظیم داده را پوشش می‌دهد، از جمله فناوری‌های فعال، یکپارچه‌سازی داده‌ها، ذخیره‌سازی و نمایه‌سازی، فشرده‌سازی داده‌ها، مدل‌های برنامه‌نویسی، سیستم‌های SQL، سیستم‌های جریان، پردازش داده‌های معنایی، تجزیه و تحلیل گراف، مدیریت داده‌های مکانی، تجزیه و تحلیل، تجزیه و تحلیل فرآیند کسب‌وکار، پردازش بر روی سخت افزار مدرن، برنامه‌های امنیت و حریم خصوصی.

📌با درک پتانسیل بالای تجزیه و تحلیل عظیم داده، جوامع تحقیقاتی، شرکت‌ها و بخش‌های دولتی به طور مداوم در این حوزه پیشرفت می‌کنند. هدف "دایرةالمعارف فناوری‌های عظیم داده" ارائه یک نمای کلی جامع از این پیشرفت‌ها است و اطمینان حاصل می‌کند که مدخل‌ها به طور مرتب به روز می‌شوند تا آخرین پیشرفت‌ها را منعکس کنند. همچنین با مشارکت بسیاری از رهبران در این زمینه، دایرةالمعارف مطالب خواندنی ارزشمندی را برای طیف گسترده‌ای از مخاطبان، از محققان متخصص و مهندسان نرم افزار گرفته تا دانشجویان و پژوهشگران جوان ارائه می‌دهد.


این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/2vk7

#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1
🛠 معرفی ابزار Apache Iceberg

ابزارApache Iceberg یک پروژه اپن سورس است که توسط Apache Software Foundation توسعه یافته است. این ابزار برای مدیریت داده‌های عظیم در قالب جداول به گونه‌ای طراحی شده که به مشکلات متداول در سیستم‌های ذخیره‌سازی داده‌های عظیم پاسخ دهد. در ادامه به جزئیات بیشتری از این ابزار پرداخته می‌شود:

ساختار و معماری
ابزارIceberg یک فرمت ذخیره‌سازی و یک لایه مدیریت فراداده است که برای استفاده در محیط‌های توزیع شده طراحی شده است. این ابزار به نحوی طراحی شده که از نسخه‌بندی داده‌ها، تغییرات تدریجی و بهینه‌سازی عملیات خواندن و نوشتن پشتیبانی کند.

ویژگی‌های کلیدی

📌 نسخه‌بندی و مدیریت تاریخچه داده‌ها:
امکان مدیریت نسخه‌های مختلف از داده‌ها را فراهم می‌کند. این ویژگی به کاربران اجازه می‌دهد تا به سادگی به نسخه‌های قبلی داده‌ها دسترسی پیدا کنند و تغییرات اعمال شده را بررسی کنند.

📌 تقسیم بندی (Partitioning) پیشرفته:
از سیستم تقسیم‌بندی پیشرفته‌ای استفاده می‌کند که امکان مدیریت بهتر داده‌ها و بهینه‌سازی جستجو و بازیابی داده‌ها را فراهم می‌کند. این سیستم به صورت خودکار تقسیم‌بندی‌ها را بهینه می‌کند تا عملکرد بهتری داشته باشد.

📌 پشتیبانی از فرمت‌های مختلف داده:
از فرمت‌های داده‌ای مانند Parquet، Avro و ORC پشتیبانی می‌کند. این پشتیبانی از فرمت‌های متنوع به کاربران امکان می‌دهد که از Iceberg در محیط‌های مختلف با فرمت‌های داده‌ای مختلف استفاده کنند.

📌 همکاری با موتورهای پردازش داده:
به راحتی با موتورهای پردازش داده‌ای مانند Apache Spark، Apache Hive، و Trino (PrestoSQL) یکپارچه می‌شود. این یکپارچگی به کاربران اجازه می‌دهد تا از ابزارهای تحلیلی محبوب خود با Iceberg استفاده کنند.

مزایای استفاده از Apache Iceberg

📍 مدیریت آسان داده‌ها: با استفاده از Iceberg، مدیریت و نگهداری عظیم داده‌ها آسان‌تر می‌شود.

📍بهینه‌سازی عملکرد: با بهینه‌سازی خودکار تقسیم‌بندی و فهرست‌بندی، عملکرد خواندن و نوشتن داده‌ها بهبود می‌یابد.

📍انعطاف‌پذیری در تحلیل داده‌ها: Iceberg به کاربران اجازه می‌دهد تا به سادگی تحلیل‌های پیچیده و گسترده‌ای را بر روی عظیم داده‌ها انجام دهند.

کاربردها

📍تحلیل عظیم داده‌ها: شرکت‌ها می‌توانند از Iceberg برای تحلیل عظیم داده‌ها استفاده کنند.
📍مدیریت داده‌های تاریخی: با قابلیت نسخه‌بندی و مدیریت تاریخچه داده‌ها، Iceberg برای کاربردهایی که نیاز به دسترسی به داده‌های تاریخی دارند، مناسب است.
📍بهینه‌سازی عملیات خواندن و نوشتن: Iceberg به دلیل بهینه‌سازی‌های پیشرفته خود، برای محیط‌هایی که نیاز به عملیات خواندن و نوشتن سریع دارند، ایده‌آل است.

می‌توانید این مطلب را در لینک زیر نیز مطالعه فرمایید.

🔗 https://bdbanalytics.ir/sfdm



#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Apache_Iceberg

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار

بخش اول از فصل سوم کتاب هوش مصنوعی برای تحلیلگری کسب و کار: الگوریتم‌ها، پلتفرم‌ها و سناریوهای کاربردی، ابتدا به مفاهیم و چارچوب‌های نرم افزاری پایه همچون مدیریت داده‌ها، انبارداده، و دریاچه داده پرداخته شده است و سپس به معرفی ابزارها و پلتفرم‌های مختلف مرتبط با پردازش و تحلیل داده‌های عظیم می‌پردازد.
پلتفرم‌هایی که می‌توانند برای پیاده‌سازی دریاچه داده استفاده شوند عبارتند از:
❇️ فایل سیستم توزیع شده هدوپ (HDFS)
❇️ سرویس ذخیره‌سازی ساده آمازون (S3)، ذخیره‌سازی ابری گوگل، ذخیره‌سازی دریاچه داده Azure
❇️ دریاچه‌های داده همچنین می‌توانند با انبارداده کلاسیک، HBase یا پایگاه داده NoSQL (مانند MongoDB) ترکیب شوند.
📍پردازش جریان داده و صف پیام
🔹سیستم‌های مبتنی بر MapReduce مانند Amazon EMR نمونه‌هایی از پلتفرم‌هایی هستند که از پردازش‌های دسته‌ای پشتیبانی می‌کنند. در مقابل، پردازش جریان نیازمند گرفتن یک دنباله از داده‌ها و به‌روزرسانی تدریجی سنجه‌ها، گزارش‌ها و آمار خلاصه در پاسخ به هر مجموعه داده ورودی است. بنابراین، پردازش جریان برای نظارت و پاسخگویی بلادرنگ مناسب‌تر است.

🔸امروزه بسیاری از شرکت‌ها با ترکیب دو رویکرد و ایجاد یک لایه بلادرنگ (جریان) و یک لایه دسته ای به طور همزمان یا سری، بر روی مدل‌های ترکیبی کار می‌کنند. داده‌ها ابتدا توسط یک پلتفرم داده جریانی برای ارائه بینش‌های بلادرنگ پردازش می‌شوند و سپس به یک مخزن داده بارگذاری می‌شوند که در آنجا می‌توان آن را تبدیل و برای انواع مختلف موارد استفاده پردازش دسته‌ای استفاده کرد.

📍سیستم مدیریت پایگاه داده
🔹یک سیستم مدیریت داده in-memory (IMDBMS) یک سیستم مدیریت پایگاه داده است که عمدتاً برای ذخیره‌سازی، مدیریت و دستکاری داده‌ها به حافظه اصلی متکی است. این کار تأخیر و سربار ذخیره‌سازی دیسک را حذف می‌کند و مجموعه دستورالعمل‌های مورد نیاز برای دسترسی به داده‌ها را کاهش می‌دهد. برای ذخیره‌سازی و دسترسی کارآمدتر، داده‌ها می‌توانند در یک قالب فشرده ذخیره شوند.

📍آپاچی هدوپ
🔸محیط‌های عظیم داده معمولاً نه تنها شامل داده‌های عظیم بلکه انواع مختلفی از داده‌های تراکنش ساختاریافته تا انواع نیمه‌ساختاریافته و بدون ساختار اطلاعات مانند سوابق کلیک، وب سرور و لاگ‌های برنامه‌های موبایل، پست‌های رسانه‌های اجتماعی، ایمیل‌های مشتری و داده‌های سنسور از اینترنت اشیا می‌شوند. فناوری که در ابتدا فقط با نام آپاچی هدوپ شناخته می‌شد، به عنوان بخشی از یک پروژه متن‌باز در بنیاد نرم‌افزار آپاچی (ASF) در حال توسعه است. توزیع تجاری هدوپ در حال حاضر توسط چهار ارائه دهنده اصلی پلتفرم داده‌های عظیم ارائه می‌شود: فناوری‌های آمازون وب سرویس‌ (AWS)، کلودرا، Hortonworks و MapR. علاوه بر این، گوگل، مایکروسافت و سایر فروشندگان خدمات مدیریت مبتنی بر ابر را بر اساس هدوپ و فناوری‌های مرتبط ارائه می‌دهند.

📍تحلیل داده و زبان‌های برنامه‌نویسی
🔹علاوه بر الگوریتم‌ها، تحلیل داده همچنین نیازمند پیاده‌سازی و یکپارچه‌سازی با اپلیکیشن‌های موجود است. زبان‌های برنامه‌نویسی مانند پایتون و R در این راستا مورد استفاده قرار می‌گیرند. R نه تنها توسط کاربران دانشگاهی استفاده می‌شود، بلکه بسیاری از شرکت‌های بزرگ از جمله اوبر، گوگل، ایربی‌ان‌بی، فیس‌بوک و غیره نیز از R استفاده می‌کنند.
🔸 اسکالا (Scala) یک زبان برنامه‌نویسی سطح بالا، چند پارادایمی و همه منظوره است. این زبان یک زبان برنامه‌نویسی شیءگرا است که از رویکرد برنامه‌نویسی تابعی نیز پشتیبانی می‌کند. هیچ داده اولیه‌ای وجود ندارد، زیرا همه چیز در اسکالا یک شیء است. اسکالا برای بیان الگوهای رایج برنامه‌نویسی به شیوه‌ای دقیق، مختصر و type-safe طراحی شده است. برنامه‌های اسکالا می‌توانند به بایت کد تبدیل شوند و روی ماشین مجازی جاوا (JVM) اجرا شوند.
🔹جولیا (Julia) در سال 2009 ایجاد شد و در سال 2012 به عموم معرفی شد. جولیا با هدف رفع کمبودهای پایتون و سایر زبان‌ها و برنامه‌های محاسبات علمی و پردازش داده طراحی شده است. جولیا از metaprogramming پشتیبانی می‌کند. برنامه‌های جولیا می‌توانند برنامه‌های جولیای دیگر را تولید کرده و حتی کد خود را به روشی شبیه به زبان‌هایی مانند Lisp تغییر دهند.


برای مطالعه خلاصه فصل سوم (بخش اول) به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/hkis

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#فاطمه_مظفری


www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍2
Media is too big
VIEW IN TELEGRAM
📊 عظیم داده: آینده حسابداری 🌐

آیا می‌دانستید که عظیم داده می‌تواند حسابداری را از یک کار خسته‌کننده به یک فرآیند استراتژیک و هیجان‌انگیز تبدیل کند؟ 🤯
در این ویدیو یاد می‌گیریم چطور عظیم داده مثل یک آهنربای غول‌پیکر، بینش‌های مالی کلیدی را برای شما پیدا می‌کند و چگونه الگوریتم‌های پیشرفته، جایگزین شب‌های طولانی حساب و کتاب دستی می‌شوند. 💻

از پیش‌بینی ریسک‌های مالی تا بهبود روابط با مشتریان، عظیم داده همه چیز را دگرگون می‌کند. 🌟 آماده‌اید با آینده حسابداری آشنا شوید؟ این ویدیو را از دست ندهید! 🎥

#ویدئو
#عظیم_داده
#بیگ_دیتا
#حسابداری
#فناوری
#داده_کاوی
#حمید_جمالی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

🔍 استراتژی داده؛ چگونه از دنیای عظیم داده، تحلیل و هوش مصنوعی سودمند شویم

"Data Strategy
How to profit from a world of big data, analytics and artificial intelligence”


🖋 نویسنده: Bernard Marr

📌نسخه دوم این کتاب در سال 2022 و توسط KoganPage انتشار یافته است.


📍این کتاب به‌عنوان یک راهنمای مرحله‌به‌مرحله برای رهبران و مدیران کسب‌وکار عمل می‌کند تا از قدرت داده‌ها، تحلیل‌ها و هوش مصنوعی برای دستیابی به موفقیت در کسب‌وکار استفاده کنند. این کتاب بین دانش نظری و توصیه‌های عملی تعادل برقرار کرده و آن را قابل دسترس و کاربردی می‌سازد.

📍کتاب به ۱۶ فصل تقسیم شده که هر بخش به یکی از ابعاد استراتژی داده و چگونگی استفاده از آن بعد را برای ایجاد ارزش بیشتر در کسب‌وکار می‌پردازد. تم‌های اصلی که بخش‌های مختلف کتاب به آنها می‌پردازند را می‌توان به صورت زیر بررسی کرد:
🔹 داده‌ و تحلیل: اهمیت تحلیل داده در کسب‌وکارها برای تصمیم‌گیری و ایجاد ارزش.
🔹 هوش مصنوعی: چگونگی استفاده از هوش مصنوعی در اتوماسیون فعالیت‌ها،‌ افزایش اثربخشی و ایجاد موقعیت‌های ارزش‌آفرین.
🔹 حاکمیت داده و اخلاق:‌ اهمیت و چگونگی تضمیت استفاده امن و مسئولانه از داده.
🔹 استراتژی داده: راهنمایی‌هایی کلی برای ایجاد یک استراتژی داده به صورتی که در آن مشخص شود سازمان چگونه می‌تواند داده را در راستای سودآوری و ایجاد ارزش برای خود جمع‌آوری، نگهداری، مدیریت و تحلیل کند.

📍کتاب ۶ حوزه مهم برای استفاده از فواید تحلیل داده را به صورت زیر مشخص می‌کند:

🔹 بهبود تصمیم‌گیری.
🔹درک مشتریان و بازارها.
🔹ساخت و طراحی محصولات بهتر.
🔹ارائه خدمات بهتر.
🔹بهبود فرایندهای کسب‌وکار.

📍نگارنده در بخش‌های دیگر کتاب به بررسی دقیق‌تر ابعاد استراتژی داده با توجه به ۶ حوزه‌ی ذکر شده پرداخته و در بخش‌های دیگر، ابعاد متفاوت تحلیل، از جمع‌آوری داده تا انواع مختلف کسب بینش از داده با استفاده از ابزار یادگیری ماشین و زیرساخت‌های مورد نیاز برای تحلیل را بررسی کرده است.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/c65b


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:
A Survey on Evaluation of Large Language Models

✍️ نویسندگان:
YUPENG CHAN, XU WANG, JINDONG WANG, YUAN WU, LINYI YANG, KAIJIE ZHU, HAI CHEN, XUAOYUAN YI, CUNXIANG WANG, YIDONG WANG, WEI YE, YUE ZHANG, YI CHANG, PHILIP S.YU, QIANG YANG, XING XIE

🗓سال انتشار: ۲۰۲۴
📔ژورنال:
ACM Transactions on Intelligent Systems and Technology

🔸مدل‌های زبان بزرگ (LLM) به دلیل عملکرد بی‌سابقه‌شان در کاربردهای مختلف، محبوبیت فزاینده‌ای در محیط‌های آکادمیک و صنعت پیدا کرده‌اند.

🔸از آنجایی که LLM ها به ایفای نقش حیاتی هم در تحقیقات و هم در استفاده روزانه ادامه می‌دهند، ارزیابی آنها برای درک بهتر خطرات بالقوه به طور فزاینده‌ای حیاتی می‌شود.

🔸 در طول سال‌های گذشته، تلاش‌های قابل توجهی برای بررسی LLM ها از دیدگاه‌های مختلف صورت گرفته‌است.

🔸این مقاله مروری جامع از این روش‌های ارزیابی (که در فاصله زمانی سال‌های 2020 و 2023 مورد بررسی قرار گرفته‌اند) برای LLM ارائه می‌کند که متمرکز بر سه بعد کلیدی است که عبارتند از: چه چیزی را ارزیابی کنیم، کجا ارزیابی کنیم، و چگونه ارزیابی کنیم.

🔸در مرحله اول، این پژوهش یک نمای کلی از منظر وظایف ارزیابی ارائه می‌دهد که شامل وظایف پردازش زبان طبیعی عمومی، استدلال، استفاده پزشکی، اخلاق، آموزش، علوم طبیعی و اجتماعی، کاربردهای عامل و سایر زمینه‌ها می‌شود. ثانیاً، به سؤالات «کجا» و «چگونه» با غوطه‌ور شدن در روش‌های ارزیابی و معیارها پاسخ می‌دهد، که به عنوان مؤلفه‌های حیاتی در ارزیابی عملکرد LLM عمل می‌کنند. سپس موارد موفقیت و شکست LLM ها را در وظایف مختلف خلاصه بررسی می‌کند.

🔸 نتایج نشان می‌دهد  LLM ها در ایجاد متن واضح، درک زبان، حل مسائل ریاضی، استدلال منطقی و عملکرد خوب در کارهایی مانند ترجمه زبان، تولید متن و پاسخ به سؤالات مهارت دارند.

🔸اما چالش‌های اصلی از این قرار است که LLM ها با درک اختلافات انسانی دست و پنجه نرم می‌کنند و در تشخیص شباهت‌های بین رویدادها مشکل دارند که منجر به خطا در موقعیت های پیچیده و استدلال انتزاعی می‌شود. آنها با زبان‌های غیر لاتین عملکرد نسبتا ضعیفی دارند. همچنین این مدل‌ها ممکن است سوگیری‌های اجتماعی را نشان دهند و در نتیجه خروجی‌های مغرضانه ایجاد کنند. آنها همچنین مشکلاتی در خصوص اعتبارسنجی دارند و گاهی اوقات اطلاعات نادرست تولید می کنند. در نهایت  LLMها نمی‌توانند به راحتی با اطلاعات جدید یا بلادرنگ تطبیق پیدا کنند، و این باعث می‌شود آنها برای کارهایی که نیاز به دانش فعلی دارند، کارایی کمتری داشته باشند. آنها همچنین به دستورات خاصی حساس هستند که می‌تواند بر عملکرد آنها تأثیر بگذارد. .

🔸درپایان، پژوهش چندین چالش آینده را که در ارزیابی LLM در پیش است، روشن می‌نماید. هدف این پژوهش ارائه بینش های ارزشمند به محققان در حوزه ارزیابی LLM است و از این طریق به توسعه LLM های قوی‌تر کمک می‌کند.

👈در صورت تمایل، می‌توانید فایل مقاله را در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/i4r6

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
Media is too big
VIEW IN TELEGRAM
📌📌 نقشه راه کامل تحلیلگر داده

در مدت 8 تا 16 ماه یک تحلیل گر داده شوید. در این ویدئو نقشه راه مراحل کسب مهارت های ضروری جهت تبدیل شدن به یک تحلیلگر داده در سال 2024 را می‌آموزید.

همچنین می‌توانید این ویدئو را در لینک زیر مشاهده فرمایید.

🔗 https://bdbanalytics.ir/ak4q

#ويدئوکوتاه
#عظیم_داده
#تحلیلگرداده
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
👍1
🌻 تابستان‌نامه

فایل بیست و چهارمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (تابستان 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#تابستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
tabestane 1403.pdf
3.2 MB
📣 بیست و چهارمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#تابستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار- بخش دوم


در خلاصه بخش اول فصل سوم به مفاهیم اصلی هوش مصنوعی مرتبط با تحلیگری کسب و کار همچون انباره داده، دریاچه داده، جریان داده و پایگاه های مدیریت داده پرداختیم. یکی دیگر از مباحث مهم هوش مصنوعی در پلتفرم های تحلیلگری کسب و کار، چارچوب های هوش مصنوعی می باشند.

در گذشته برای پیاده سازی مفاهیم و الگوریتم های هوش مصنوعی نیاز بود تا منطق و فرمول های ریاضیاتی از ابتدا و با جزئیات نوشته شوند که کار نسبتا سخت و پیچیده‌ای بود. اما در حال حاضر با توجه به با توجه به پیشرفت زیرساخت ها و نرم افزارهای متن باز این امکان برای متخصصان هوش مصنوعی وجود دارد که با فراخوانی چارچوب‌های قدرتمند هوش مصنوعی الگوریتم‌های مورد نیاز خود را از صفر بازنویسی کنند. به عبارتی دیگر این چارچوب ها با دریافت پارامترهای ریاضی مختلف و فیت شدن روی دیتاست های مختلف می توانند خروجی های مورد نظر برای تحلیلگران را فراهم کنند تا در وقت و انرژی صرفه جویی قابل توجهی داشته باشند. از میان تمامی چارچوب های هوش مصنوعی 5 چارچوب محبوبیت و کاربردهای زیادی دارند که در ادامه به بررسی آن ها می پردازیم:

📍چارچوب اول: Tensorflow

تنسور فلو ابتدا توسط گوگل برای استفاده داخلی توسعه داده شد و در سال ۲۰۱۵ تحت مجوز اپن سورس آپاچی 2 منتشر شد. گوگل همچنان از این کتابخانه برای خدمات مختلفی مانند تشخیص گفتار، جستجوی تصاویر و پاسخ‌های خودکار در جیمیل استفاده می‌کند.

📍چارچوب دوم: Theano

یک کتابخانه محاسبات علمی سطح پایین مبتنی بر پایتون است که برای وظایف یادگیری عمیق مرتبط با تعریف، بهینه‌سازی و ارزیابی عبارات ریاضی استفاده می‌شود. با اینکه این کتابخانه قدرت محاسباتی چشمگیری دارد، کاربران از رابط کاربری غیرقابل دسترسی و پیام‌های خطای غیر مفید آن رضایت بالایی ندارند.

📍چارچوب سوم: Torch

این چارچوب اغلب به عنوان ساده‌ترین ابزار یادگیری عمیق برای مبتدیان شناخته می‌شود. این ابزار از یک زبان اسکریپت‌نویسی ساده به نام Lua استفاده می‌کند و جامعه‌ای فعال دارد که مجموعه‌ای چشمگیر از آموزش‌ها و بسته‌ها را برای تقریباً هر هدف یادگیری عمیق ارائه می‌دهد.

📍چارچوب چهارم: Scikit-Learn

یک چارچوب طراحی شده برای الگوریتم‌های یادگیری ماشینی تحت نظارت و بدون نظارت است. به عنوان یکی از اجزای اکوسیستم علمی پایتون، این چارچوب بر اساس کتابخانه‌های NumPy و SciPy ساخته شده است که هرکدام وظیفه انجام وظایف علمی داده در سطح پایین را برعهده دارند


📍چارچوب پنجم: Jupyter Notebook

چارچوب آخری که قصد معرفی آن را داریم یک برنامه وب منبع‌باز است که به شما امکان می‌دهد اسنادی حاوی کد زنده، معادلات، تجسم‌ها و متن ایجاد و به اشتراک بگذارید. این چارچوب که توسط تیم پروژه Jupyter پشتیبانی می‌شود یک پروژه جانبی از پروژه IPython است که قبلاً خود پروژه IPython Notebook را داشت

برای مطالعه خلاصه فصل سوم (بخش دوم) به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/fb1c

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌شرکت Salesforce، یکی از پیشروترین شرکت‌ها در زمینه نرم‌افزارهای مدیریت ارتباط با مشتری (CRM)، به عنوان یکی از کسب‌وکارهای داده‌محور شناخته می‌شود. این شرکت با استفاده از داده‌ها، ابزارهایی ارائه می‌دهد که به کسب‌وکارها کمک می‌کنند تعاملات با مشتریان، فروش، خدمات پس از فروش و سایر فرآیندهای تجاری خود را بهبود بخشند. Salesforce به‌عنوان یک پلتفرم ابری، امکان جمع‌آوری، تحلیل و استفاده از داده‌های مشتریان را فراهم می‌کند تا شرکت‌ها بتوانند تصمیمات هوشمندانه‌تری بگیرند، تعاملات شخصی‌سازی‌شده‌ای ایجاد کنند و در نهایت کسب‌وکار خود را بهینه‌سازی کنند. در ادامه، به بررسی این میپردازیم که چگونه Salesforce از داده‌ها استفاده می‌کند و چه نقشی در بهبود فرآیندهای مختلف تجاری دارد.

1️⃣ مدیریت ارتباط با مشتری (CRM) و داده‌ها
شرکت Salesforce یکی از محبوب‌ترین پلتفرم‌های CRM در جهان است. CRM به معنای مدیریت ارتباطات با مشتری است، و Salesforce از داده‌ها به عنوان پایه‌ای برای ایجاد، بهبود و حفظ این ارتباطات استفاده می‌کند. این پلتفرم اطلاعات مختلفی از جمله تاریخچه تعاملات با مشتری، خریدها، ترجیحات، نیازها و رفتارهای آنها را جمع‌آوری می‌کند و این اطلاعات را در یک نمای کلی در اختیار کسب‌وکارها قرار می‌دهد. این داده‌ها به شرکت‌ها کمک می‌کنند تا مشتریان خود را بهتر بشناسند و تعاملات خود را بر اساس نیازها و ترجیحات فردی هر مشتری تنظیم کنند.

2️⃣ شخصی‌سازی تعاملات با مشتریان
یکی از مهم‌ترین استفاده‌های Salesforce از داده‌ها، ایجاد تعاملات شخصی‌سازی‌شده است. در دنیای امروز، مشتریان انتظار دارند که کسب‌وکارها آنها را به صورت فردی بشناسند و ارتباطات خود را متناسب با نیازها و خواسته‌های خاص آنها تنظیم کنند.

3️⃣ تحلیل پیش‌بینی‌کننده (Predictive Analytics)
یکی از ابزارهای پیشرفته‌ای که Salesforce در اختیار شرکت‌ها قرار می‌دهد، تحلیل پیش‌بینی‌کننده است. با استفاده از داده‌های تاریخی و الگوهای رفتاری مشتریان، Salesforce می‌تواند به کسب‌وکارها کمک کند تا پیش‌بینی کنند که مشتریان در آینده چگونه رفتار خواهند کرد.

4️⃣ اتصال و یکپارچه‌سازی داده‌ها از منابع مختلف
یکی از قابلیت‌های مهم Salesforce، توانایی یکپارچه‌سازی داده‌ها از منابع مختلف است. این پلتفرم می‌تواند داده‌ها را از سیستم‌های مختلف جمع‌آوری کند و آنها را به یک پلتفرم یکپارچه تبدیل کند.

5️⃣ اتوماسیون فرآیندهای تجاری
شرکت Salesforce از داده‌ها برای خودکارسازی بسیاری از فرآیندهای تجاری استفاده می‌کند. با استفاده از ابزارهای اتوماسیون، کسب‌وکارها می‌توانند کارهای روزمره و تکراری خود را به صورت خودکار انجام دهند و این امر باعث می‌شود که تیم‌ها زمان بیشتری برای تمرکز بر روی کارهای مهم‌تر داشته باشند.

6️⃣ استفاده از هوش مصنوعی (AI) و یادگیری ماشینی (ML)
یکی از ویژگی‌های برجسته Salesforce استفاده از هوش مصنوعی و یادگیری ماشینی برای بهبود تحلیل داده‌ها و ارائه پیشنهادات دقیق‌تر است. **Einstein AI**، یک قابلیت هوش مصنوعی که در پلتفرم Salesforce تعبیه شده است، به شرکت‌ها کمک می‌کند تا از داده‌های خود به صورت هوشمندانه‌تری استفاده کنند.

7️⃣ پلتفرم بازاریابی هوشمند (Marketing Cloud)
شرکت Salesforce از داده‌ها برای بهینه‌سازی بازاریابی دیجیتال استفاده می‌کند. Salesforce Marketing Cloud، یک ابزار جامع بازاریابی است که به شرکت‌ها امکان می‌دهد تا کمپین‌های بازاریابی خود را با استفاده از داده‌های مشتریان بهینه کنند.

8️⃣ بهبود خدمات مشتریان با داده‌ها
استفاده از داده‌ها در بهبود خدمات مشتریان نیز یکی از مزایای اصلی Salesforce است. Salesforce Service Cloud به شرکت‌ها کمک می‌کند تا خدمات پس از فروش خود را بهبود بخشند و مشکلات مشتریان را سریع‌تر و کارآمدتر حل کنند.

9️⃣ پشتیبانی از تصمیم‌گیری استراتژیک
شرکت Salesforce به شرکت‌ها کمک می‌کند تا با تحلیل داده‌های خود، تصمیمات استراتژیک بهتری بگیرند. شرکت‌ها می‌توانند از گزارش‌ها و داشبوردهای متنوع Salesforce استفاده کنند تا روندهای مهم کسب‌وکار را مشاهده کنند و بر اساس این داده‌ها تصمیمات مهم‌تری بگیرند.

📌 شرکت Salesforce یک پلتفرم جامع داده‌محور است که از داده‌ها برای بهبود فرآیندهای فروش، بازاریابی، خدمات مشتریان و سایر حوزه‌های کسب‌وکار استفاده می‌کند. از طریق یکپارچه‌سازی داده‌ها، تحلیل‌های پیشرفته و ابزارهای هوش مصنوعی، این پلتفرم به شرکت‌ها امکان می‌دهد تا تعاملات خود را با مشتریان بهبود دهند.

جهت مطالعه این مطلب به لینک زیر مراجعه فرمایید.

🔗 https://bdbanalytics.ir/z8ni


#معرفی_کسب_و_کار_داده_محور
#Salesforce
#محمدرضا_مرادی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

📌سیستم‌های توصیه‌گر عظیم‌داده: الگوریتم‌ها، معماری‌ها، عظیم‌داده، امنیت و اعتماد

"Big Data Recommender Systems Volume 1: Algorithms, Architectures, Big Data, Security and Trust"

📌نویسندگان:
Osman Khalid, Samee U. Khan and Albert Y. Zomaya

📌این کتاب در سال 2019 توسط The Institution of Engineering and Technology انتشار یافته است.


📍 کتاب سیستم‌های توصیه‌گر عظیم‌داده، یک مجموعه جامع دو جلدی است که به چالش‌ها و فرصت‌های بزرگی که با رشد سریع عظیم‌داده و افزایش وابستگی به سیستم‌های توصیه‌گر در بخش‌های مختلف به وجود آمده‌اند، می‌پردازد. با گسترش شبکه‌های اجتماعی، تجارت الکترونیک، موتورهای جستجو و شبکه‌های حسگر، سیستم‌های توصیه‌گر به یکی از تکنولوژی‌های اصلی برای ارائه محتوای شخصی‌سازی شده، فیلتر کردن حجم وسیعی از داده‌ها و بهبود تجربه کاربری تبدیل شده‌اند. این کتاب با تکیه بر پیشرفت‌های اخیر در الگوریتم‌ها، تحلیل داده، محاسبات با کارایی بالا و اینترنت اشیا (IoT)، به بررسی جامع هر دو جنبه بنیان‌های نظری و کاربردهای عملی سیستم‌های توصیه‌گر می‌پردازد.

📍جلد ۱: الگوریتم‌ها، معماری‌ها، امنیت و اعتماد
جلد اول بر چارچوب‌های نظری، الگوریتم‌ها و معماری‌ها تمرکز دارد که برای ساخت سیستم‌های توصیه‌گر کارا و مقیاس‌پذیر در زمینه عظیم‌داده ضروری هستند. این جلد موضوعات پایه‌ای متنوعی از جمله ارزیابی الگوریتم‌های توصیه‌گر با استفاده از ابزارهایی مانند Hadoop و Apache Spark و همچنین روش‌های ترکیبی که چندین تکنیک را برای بهبود کیفیت توصیه‌ها ترکیب می‌کنند را پوشش می‌دهد. تکنیک‌های مبتنی بر یادگیری عمیق به طور ویژه‌ای مورد توجه قرار گرفته‌اند، که نشان از اهمیت روزافزون آن‌ها در توسعه سیستم‌های توصیه‌گر دارد. فصل‌های این جلد همچنین به توصیه‌گری برای عظیم‌داده‌های غیرساخت‌یافته، از جمله روش‌هایی برای مدیریت داده‌های متنی، صوتی و تصویری می‌پردازند.
امنیت و حریم خصوصی در دنیای عظیم‌داده بسیار حیاتی هستند و جلد ۱ چندین فصل را به این موضوعات اختصاص داده است. در این بخش، استراتژی‌های نوین برای تشخیص و کاهش حملات سایبری به سیستم‌های توصیه‌گر، محافظت در برابر آسیب‌پذیری‌ها و حفظ حریم خصوصی داده‌های کاربران بررسی می‌شوند. این جلد طیف وسیعی از تکنیک‌های حفظ حریم خصوصی و روش‌های دفاعی را معرفی می‌کند که آن را به مرجعی ضروری برای محققان و حرفه‌ای‌هایی که به دنبال ساخت سیستم‌های توصیه‌گر ایمن و پایدار هستند تبدیل می‌کند.

📍جلد ۲: پارادایم‌های کاربردی
جلد ۲ به دامنه‌های کاربردی سیستم‌های توصیه‌گر می‌پردازد و دیدگاه عملیاتی درباره چگونگی پیاده‌سازی این سیستم‌ها در صنایع و حوزه‌های مختلف ارائه می‌دهد. فصل‌های این جلد به کاربردهای متنوعی همچون مدل‌های توصیه‌گر سلامت‌محور، توصیه‌گرهای ویدئویی، پیشنهاد مسیرهای سفر و توصیه‌گرهای مبتنی بر مکان‌های مورد علاقه می‌پردازد. علاوه بر این، جلد دوم بر استفاده از شبکه‌های عصبی عمیق و پردازش موازی با تکنولوژی‌هایی همچون Hadoop و Spark تمرکز دارد که مقیاس‌پذیری و کارایی الگوریتم‌های توصیه‌گر را بهبود بخشیده‌اند. این تکنولوژی‌ها به ویژه برای پردازش مجموعه داده‌های بزرگ که در کاربردهای واقعی معمول هستند، بسیار مهم‌اند. همچنین به توصیه‌های حساس به حالت روحی، پردازش جریانی و مدل‌های توصیه‌گر شبکه هوشمند اشاره شده است که نشان می‌دهد سیستم‌های توصیه‌گر چقدر در حل مسائل پیچیده در زمینه‌های مختلف تطبیق‌پذیر و چندمنظوره هستند.

📍مخاطبان و کاربران
این مجموعه دو جلدی با همکاری محققان برجسته و متخصصان حوزه به نگارش درآمده است و آن را به منبعی ارزشمند برای مخاطبان گسترده‌ای تبدیل کرده است. این کتاب برای پژوهشگران، متخصصان و دانشجویان تحصیلات تکمیلی در رشته‌هایی مانند مهندسی، علوم کامپیوتر، داده‌کاوی، مهندسی دانش و سیستم‌های اطلاعاتی طراحی شده است. فصل‌های کتاب شامل تحلیل‌های عمیق، مطالعات موردی و راه‌حل‌های عملی هستند که کتاب را نه تنها برای مقاصد علمی بلکه برای حرفه‌ای‌های صنعت که در مرزهای دانش عظیم‌داده و تکنولوژی‌های توصیه‌گر فعالیت می‌کنند، به‌کاربردی تبدیل می‌کند. با پرداختن به هر دو جنبه نظری و عملی، این کتاب به عنوان یک مرجع ضروری برای درک تکامل این سیستم‌ها در دنیای داده‌محور امروز عمل می‌کند. این کتاب نگاهی جامع و به‌روز از روندهای نوظهور، نیازهای صنعت و جهت‌گیری‌های آینده تحقیقاتی ارائه می‌دهد و برای هر کسی که در توسعه یا مطالعه سیستم‌های توصیه‌گر در دوران عظیم‌داده دخیل است، ضروری خواهد بود.




این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/yb7v


#معرفی_کتاب
#عظیم_داده
#سیستم_توصیه‌گر
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🛠معرفی ابزار Delta Lake

یکی از ابزارهایی که اخیرا در حوزه Big Data مورد توجه قرار گرفته، Delta Lake است. این ابزار توسط Databricks توسعه داده شده و به کاربران اجازه می‌دهد تا داده‌های حجیم و جریانی را به شکلی بهینه مدیریت و پردازش کنند. Delta Lake روی Apache Spark اجرا می‌شود و قابلیت‌های بسیار قوی‌ای برای ذخیره‌سازی، یکپارچگی و بهبود کیفیت داده‌ها ارائه می‌دهد.

ویژگی‌ها و قابلیت‌های Delta Lake

📌تراکنش‌های ACID
این ابزار از تراکنش‌های ACID (Atomicity، Consistency، Isolation، Durability) پشتیبانی می‌کند. این یعنی هر عملیات خواندن و نوشتن به گونه‌ای صورت می‌گیرد که یکپارچگی داده‌ها تضمین شود و خطاهایی نظیر نقص داده‌ها یا تضادهای داده‌ای پیش نیاید. این قابلیت برای پروژه‌هایی که نیاز به قابلیت اعتماد و ثبات داده دارند بسیار مهم است.

📌مدیریت نسخه :
-دلتا لیک با قابلیت نسخه‌بندی و Time Travel امکان بازیابی نسخه‌های قبلی داده‌ها را فراهم می‌کند. این ویژگی به ویژه در مواقعی مفید است که نیاز به بازیابی داده‌های گذشته، بازبینی تغییرات یا انجام تحلیل‌های تاریخی داشته باشید.

📌پردازش Batch و Stream به صورت همزمان:
- یکی از مهم‌ترین مزایای Delta Lake، امکان پردازش Batch و Stream به صورت یکپارچه است. این یعنی با همان مجموعه داده‌ها می‌توانید هم تحلیل‌های بلادرنگ (Real-Time) و هم تحلیل‌های دسته‌ای را اجرا کنید، که بسیار مفید است برای مواقعی که نیاز به پردازش داده‌های ورودی لحظه‌ای و همچنین پردازش‌های بزرگ‌تر و دوره‌ای دارید.

📌قابلیت تغییر، به‌روزرسانی و حذف داده‌ها:
- دستورات MERGE، DELETE و UPDATE در Delta Lake پشتیبانی می‌شود، که این امکان را به شما می‌دهد تا به راحتی داده‌های خود را به‌روز کنید. این ویژگی برای تحلیل‌های تجاری و مدیریت داده‌ها در سیستم‌های تراکنشی بسیار حیاتی است، چرا که می‌توانید داده‌های قدیمی را جایگزین کرده یا حذف کنید.

📌سازگاری با اکوسیستم عظیم داده ها:
- این ابزار به راحتی با Apache Spark و دیگر ابزارهای تحلیل داده نظیر MLflow و Power BI سازگار است، و می‌تواند در محیط‌های موجود داده ادغام شود. همچنین از ذخیره‌سازی‌های ابری مثل Amazon S3 و Azure Data Lake** نیز پشتیبانی می‌کند.

📌دسته‌بندی و سازمان‌دهی بهینه داده‌ها:
- از یک معماری داده‌ی فایل محور در Delta Lake استفاده می‌شود که داده‌ها را به بلوک‌های کوچک‌تر تقسیم کرده و ذخیره می‌کند. این ساختار باعث می‌شود داده‌ها به شکل موثری دسته‌بندی شوند و دسترسی به آن‌ها سریع‌تر و بهینه‌تر باشد.

معماری Delta Lake
در Delta Lake از یک معماری درختی یا چندلایه برای ذخیره و پردازش داده‌ها استفاده می‌شود. در این معماری:
📌 داده‌های خام در پایین‌ترین سطح (Bronze) ذخیره می‌شوند.
📌داده‌های پاکسازی شده یا ساختاریافته در سطح میانی (Silver) قرار می‌گیرند.
📌 داده‌های آماده برای تحلیل و گزارش‌گیری نهایی در سطح بالا (Gold) ذخیره می‌شوند.

این لایه‌ها باعث می‌شوند که بتوانید روند پاکسازی، تجمیع و آماده‌سازی داده‌ها را به ترتیب و به صورت بهینه انجام دهید.

کاربردهای Delta Lake
📍سیستم‌های مالی و بانکی: برای اطمینان از دقت و یکپارچگی تراکنش‌ها و تحلیل بلادرنگ داده‌های مالی.
📍بازاریابی و تحلیل رفتار مشتریان: برای تحلیل‌های لحظه‌ای و تجمیع داده‌های کاربران جهت هدف‌گذاری دقیق‌تر.
📍مدیریت داده‌های IoT: برای ذخیره و پردازش داده‌های لحظه‌ای دستگاه‌ها و حسگرها.
📍تحلیل‌های جامع در پروژه‌های کلان داده: برای تجزیه و تحلیل داده‌ها با مقیاس بالا و قابلیت حفظ نسخه‌های مختلف داده‌ها جهت ردیابی تغییرات.

به طور کلی، Delta Lake به شما امکان می‌دهد تا با داده‌ها به شکل موثرتر و ایمن‌تر کار کنید و از مزایای ترکیبی سیستم‌های تحلیلی و دریاچه‌های داده در یک بستر واحد بهره‌مند شوید.

می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 https://bdbanalytics.ir/2j7n

#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Delta_Lake
#BigData_BusinessAnalytics
www.bdbanalytics.ir
📌معرفی مقالات حوزه عظیم داده‌ها


❇️ نام مقاله:
Comprehensive analytics of COVID-19 vaccine research: From topic
modeling to topic classification

✍️ نویسندگان:
دکتر سعید روحانی، فاطمه مظفری

🗓سال انتشار: ۲۰۲۴
📔ژورنال:
Artificial Intelligence in Medicine (AIIM)


♦️ مقالات پژوهشی در حوزه پزشکی همواره بخش عظیمی از دانش این حوزه را تشکیل داده است. به دنبال همه‌گیری کووید-19 در اواخر سال 2019، تحقیقات واکسن کووید-19 نقش حیاتی در کنترل موفق این بیماری ایفا نمود و مقالات بسیاری در فاصله سال‌های 2020 تا 2022 منتشر گردید. این تلاش‌ها لزوم انجام یک تحلیل ساختاریافته به عنوان تحقیق ثانویه برای استخراج بینش‌های مفید از این داده‌ها را ایجاد نموده است. در این راستا می‌توان از تکنیک‌های متن کاوی نظیر مدل‌سازی موضوعی، تحلیل احساسات و دسته‌بندی موضوعی متن، جهت استخراج دانش از حجم بالای مقالات بهره برد.

📍در این مقاله چکیده‌های مقالات نمایه شده در Scopus و Pubmed شامل 4803 چکیده مورد تحلیل‌های متن‌کاوی قرار گرفته است.

1️⃣ در گام اول، با استفاده از روش LDA (Latent Dirichlet Allocation) مدلسازی موضوعی مقالات انجام شده است که منجر به شناسایی 25 موضوع و 8 حوزه تحقیقاتی در این زمینه گردیده است. موضوعات شامل گزارش ایمنی پس از تزریق، پاسخ ایمنی واکسن، واکنش آلرژیک (Anaphylactic)، گزارش موردی، اضطراب مرتبط با کووید-19 در رسانه‌های اجتماعی، ایمنی و اثربخشی در خانم‌های باردار، مقاومت در برابر واکسیناسیون، گروه بندی سنی، توصیه ACIP، نتایج افراد دارای سرطان، پذیرش واکسن در بیماران دارای نقص ایمنی، واریانت‌ها و ... می‌باشد که در 8 حوزه تحقیقاتی «گزارش‌دهی»، «پذیرش»، «واکنش»، «نظرسنجی‌های انجام شده»، «بارداری»، «واریانت‌ها»، «نظرسنجی‌های طبقه‌بندی شده» و «رویکردهای بین‌المللی» قرار گرفته‌اند.

2️⃣ در گام دوم، تحلیل احساسات و تغییرات مربوط به آن برای هر موضوع در طول زمان (از سال 2020 تا 2022) بررسی شده است. برای تحلیل احساسات روش lexicon-based و استفاده از VADER به کار رفته است. نتایج این تحلیل نشان می‌دهد که هر چند اغلب موضوعات مرتبط با واکسن در 2020 دارای احساسات مثبت یا خنثی بوده‌اند که نشان دهنده امیدواری بسیار در مجامع علمی نسبت به این واکسن در جهت حفاظت در مقابل بیماری بوده است، با این حال، در سال‌های 2021 و 2022 برخی از موضوعات دارای احساسات منفی بوده‌اند که ناشی از برخی از عوارض جانبی، گزارش‌های موردی و نگرانی‌هایی در خصوص اثربخشی آن برای واریانت‌‌های جدید می‌باشد.

3️⃣ در گام سوم، دسته‌بندی موضوعی مقالات جدید با استفاده از الگوریتم‌های یادگیری ماشین CNN-LSTM انجام شده است. با استفاده از این مدل برای هر مقاله جدید در این حوزه، می‌توان یکی از موضوعات از پیش تعیین شده را به عنوان موضوع غالب در آن مقاله با دقت 75% شناسایی نمود.

❇️ استفاده از این رویکرد که شامل ترکیبی از تکنیک‌های مختلف متن کاوی است، ضمن فراهم نمودن درک سریعی از ساختار تحقیقات در مورد واکسن کووید-19، می‌تواند به عنوان رویکردی در انجام نوع جدیدی از مرور سیستماتیک ادبیات در مطالعات پزشکی و واکسن به همراه دانش تخصصی در این حوزه‌ها مورد استفاده قرار گیرد.


👈در صورت تمایل، می‌توانید فایل مقاله را در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/u1jn

#معرفی_مقاله
#متن_کاوی
#هوش_مصنوعی
#مدلسازی_موضوعی
#تحلیل_احساسات
#دکتر_سعید_روحانی
#فاطمه_مظفری

www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍1