انحراف معیار (Standard Deviation) یکی از کاربردیترین مفاهیم در آمار است که به زبان ساده، «میزان پراکندگی» یا «فاصلهی نمرات از میانگین» را به ما نشان میدهد.
اگر میانگین را «قلب» دادهها در نظر بگیریم، انحراف معیار به ما میگوید که این قلب چقدر تپش منظم یا نامنظمی دارد.
درک مفهوم با یک مثال ساده 🍎
فرض کنید دو باغبان داریم که هر کدام ۵ سیب چیدهاند. وزن سیبهای آنها به این صورت است:
باغبان اول: نمرات (۱۸۰، ۱۸۰، ۱۸۰، ۱۸۰، ۱۸۰) گرم.
باغبان دوم: نمرات (۱۰۰، ۱۵۰، ۱۸۰، ۲۱۰، ۲۶۰) گرم.
میانگین هر دو گروه ۱۸۰ گرم است. اما یک تفاوت بزرگ وجود دارد:
۱. در گروه اول، تمام سیبها دقیقاً شبیه هم هستند. اینجا انحراف معیار صفر است (چون هیچ اختلافی با میانگین ندارند).
۲. در گروه دوم، وزنها خیلی با هم فرق دارند. اینجا انحراف معیار بالا است چون دادهها از میانگین فاصله گرفتهاند.
انحراف معیار بالا و پایین چه معنایی دارد؟ 📉
• انحراف معیار پایین (Low SD): نشان میدهد که دادهها بسیار به میانگین نزدیک هستند. این یعنی نتایج شما ثبات و دقت بالایی دارند و قابل پیشبینیتر هستند.
• انحراف معیار بالا (High SD): نشان میدهد که دادهها پراکندگی زیادی دارند و در بازه گستردهای پخش شدهاند. این یعنی نوسان یا تفاوت در نمونههای شما زیاد است.
چرا در پژوهش به آن نیاز داریم؟ 🔬
۱. سنجش اعتبار: در آزمایشهای علمی، انحراف معیار پایین نشاندهنده این است که آزمایش شما تکرارپذیر است و هر بار نتایج مشابهی میگیرید.
۲. شناسایی دادههای پرت (Outliers): اگر دادهای فاصلهی بسیار زیادی (مثلاً بیش از ۳ برابر انحراف معیار) از میانگین داشته باشد، معمولاً به عنوان دادهی پرت شناخته میشود و باید بررسی شود.
۳. توزیع نرمال: همانطور که قبلاً گفتیم، در توزیع نرمال، ۶۸٪ دادهها در فاصله «یک انحراف معیار» از میانگین قرار میگیرند. این به ما قدرت پیشبینی میدهد.
خلاصه مراحل: ابتدا اختلاف هر عدد با میانگین را پیدا میکنیم، آنها را به توان دو میرسانیم (تا منفیها حذف شوند)، میانگینِ این تواندومها را میگیریم و در آخر جذر میگیریم تا به واحد اصلی برگردیم.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
اگر میانگین را «قلب» دادهها در نظر بگیریم، انحراف معیار به ما میگوید که این قلب چقدر تپش منظم یا نامنظمی دارد.
درک مفهوم با یک مثال ساده 🍎
فرض کنید دو باغبان داریم که هر کدام ۵ سیب چیدهاند. وزن سیبهای آنها به این صورت است:
باغبان اول: نمرات (۱۸۰، ۱۸۰، ۱۸۰، ۱۸۰، ۱۸۰) گرم.
باغبان دوم: نمرات (۱۰۰، ۱۵۰، ۱۸۰، ۲۱۰، ۲۶۰) گرم.
میانگین هر دو گروه ۱۸۰ گرم است. اما یک تفاوت بزرگ وجود دارد:
۱. در گروه اول، تمام سیبها دقیقاً شبیه هم هستند. اینجا انحراف معیار صفر است (چون هیچ اختلافی با میانگین ندارند).
۲. در گروه دوم، وزنها خیلی با هم فرق دارند. اینجا انحراف معیار بالا است چون دادهها از میانگین فاصله گرفتهاند.
انحراف معیار بالا و پایین چه معنایی دارد؟ 📉
• انحراف معیار پایین (Low SD): نشان میدهد که دادهها بسیار به میانگین نزدیک هستند. این یعنی نتایج شما ثبات و دقت بالایی دارند و قابل پیشبینیتر هستند.
• انحراف معیار بالا (High SD): نشان میدهد که دادهها پراکندگی زیادی دارند و در بازه گستردهای پخش شدهاند. این یعنی نوسان یا تفاوت در نمونههای شما زیاد است.
چرا در پژوهش به آن نیاز داریم؟ 🔬
۱. سنجش اعتبار: در آزمایشهای علمی، انحراف معیار پایین نشاندهنده این است که آزمایش شما تکرارپذیر است و هر بار نتایج مشابهی میگیرید.
۲. شناسایی دادههای پرت (Outliers): اگر دادهای فاصلهی بسیار زیادی (مثلاً بیش از ۳ برابر انحراف معیار) از میانگین داشته باشد، معمولاً به عنوان دادهی پرت شناخته میشود و باید بررسی شود.
۳. توزیع نرمال: همانطور که قبلاً گفتیم، در توزیع نرمال، ۶۸٪ دادهها در فاصله «یک انحراف معیار» از میانگین قرار میگیرند. این به ما قدرت پیشبینی میدهد.
خلاصه مراحل: ابتدا اختلاف هر عدد با میانگین را پیدا میکنیم، آنها را به توان دو میرسانیم (تا منفیها حذف شوند)، میانگینِ این تواندومها را میگیریم و در آخر جذر میگیریم تا به واحد اصلی برگردیم.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
❤1🤩1
🔰 کمیته مرکزی تحقیقات و فناوری دانشجویی دانشگاه علوم پزشکی اردبیل با همکاری کمیتههای تحقیقات و فناوری دانشجویی دانشگاههای علوم پزشکی شهید بهشتی، تربیت مدرس، ایران، اهواز، دزفول، مراغه و مرکز رشد علوم پزشکی مراغه و کلان منطقه دو برگزار میکنند:
💡💥 مدرسه نوآوری با تلفیق هوش مصنوعی
🔟 چگونگی شکلدهی تیم و اصول رهبری تیمی
🔹 مدرس:
جناب آقای محمد مهدی دهنوی
🗓 جمعه، ۲۸ آذر ماه ۱۴۰۴
ساعت ۱۸ الی ۲۰
✨ همراه با ارائه گواهی معتبر انگلیسی
💻 به صورت مجازی در بستر اسکای روم
📌 لینک گروه تلگرام مدرسه
🌐 فرم ثبتنام
اردبیل | شهید بهشتی | تربیت مدرس | ایران | اهواز | دزفول | مراغه
💡💥 مدرسه نوآوری با تلفیق هوش مصنوعی
🔟 چگونگی شکلدهی تیم و اصول رهبری تیمی
🔹 مدرس:
جناب آقای محمد مهدی دهنوی
🗓 جمعه، ۲۸ آذر ماه ۱۴۰۴
ساعت ۱۸ الی ۲۰
✨ همراه با ارائه گواهی معتبر انگلیسی
💻 به صورت مجازی در بستر اسکای روم
📌 لینک گروه تلگرام مدرسه
🌐 فرم ثبتنام
اردبیل | شهید بهشتی | تربیت مدرس | ایران | اهواز | دزفول | مراغه
Forwarded from کورس لند
‼️‼️ آخرین مهلت ثبت نام
✅ ✅ اگه قصد کارکردن در داروخانه داری و یا دانشجو و فارغ التحصیلی هستی که میخوای به نسخه ها و داروهای مختلف مسلط بشی 👇👇
💊 💊 دوره تکنسین داروخانه
📝 سرفصل های دوره در پوستر موجود است.
‼️ ظرفیت باقی مانده دوره محدود است.
⏱ زمان برگزاری :
چهارشنبه ها ، پنجشنبه ها و جمعه ها
ساعت ۲۰ لغایت ۲۲
( شروع دوره از ۵ دیماه )
به مدت ۲۰ ساعت
🟠 دوره بصورت مجازی برگزار می شود.
( بعد از برگزاری هر جلسه آنلاین ، محتوای جلسه نیز در اختیار شما قرار خواهد گرفت. )
📜 اعطای گواهینامه از علوم پزشکی کرمانشاه
🔹 شهریه دوره با ارسال کدتخفیف :
فقط ۷۹۸ تومان ( در صورت ثبت نام گروهی ۳ نفره شهریه هر نفر فقط ۶۹۸ تومان و ثبت نام گروهی حداقل ۶ نفره شهریه هر نفر فقط ۵۹۸ تومان )
🎁 کدتخفیف: k303
📎 جهت ثبت نام دوره به آیدی زیر پیام دهید :
@new_webinar
✅✅ کانال اطلاع رسانی سایر دوره های آموزشی کشور 👇👇
https://news.1rj.ru/str/course_land_org
#نسخه
#تکنسین_داروخانه
✅ ✅ اگه قصد کارکردن در داروخانه داری و یا دانشجو و فارغ التحصیلی هستی که میخوای به نسخه ها و داروهای مختلف مسلط بشی 👇👇
💊 💊 دوره تکنسین داروخانه
📝 سرفصل های دوره در پوستر موجود است.
‼️ ظرفیت باقی مانده دوره محدود است.
⏱ زمان برگزاری :
چهارشنبه ها ، پنجشنبه ها و جمعه ها
ساعت ۲۰ لغایت ۲۲
( شروع دوره از ۵ دیماه )
به مدت ۲۰ ساعت
🟠 دوره بصورت مجازی برگزار می شود.
( بعد از برگزاری هر جلسه آنلاین ، محتوای جلسه نیز در اختیار شما قرار خواهد گرفت. )
📜 اعطای گواهینامه از علوم پزشکی کرمانشاه
🔹 شهریه دوره با ارسال کدتخفیف :
فقط ۷۹۸ تومان ( در صورت ثبت نام گروهی ۳ نفره شهریه هر نفر فقط ۶۹۸ تومان و ثبت نام گروهی حداقل ۶ نفره شهریه هر نفر فقط ۵۹۸ تومان )
🎁 کدتخفیف: k303
📎 جهت ثبت نام دوره به آیدی زیر پیام دهید :
@new_webinar
✅✅ کانال اطلاع رسانی سایر دوره های آموزشی کشور 👇👇
https://news.1rj.ru/str/course_land_org
#نسخه
#تکنسین_داروخانه
❤4
انتخاب بین آزمون کولموگروف-اسمیرنوف (K-S) و شاپیرو-ویلک (S-W) یکی از چالشهای همیشگی در تحلیل دادههاست. هر دو آزمون یک هدف دارند: بررسی اینکه آیا توزیع دادههای شما با توزیع نرمال تفاوت معناداری دارد یا خیر. اما دقت و قدرت آنها در شرایط مختلف، کاملاً متفاوت است.
در ادامه، راهنمای دقیق انتخاب بین این دو آزمون را مطالعه کنید:
شاپیرو-ویلک (Shapiro-Wilk)؛ قهرمان نمونههای کوچک 🥇
این آزمون به طور کلی قدرتمندترین آزمون برای تشخیص عدم نرمالیتی است.
• چه زمانی استفاده کنیم؟ بهترین انتخاب برای نمونههایی با حجم کمتر از ۵۰ یا ۱۰۰ مورد است. البته بسیاری از آماردانان معتقدند برای نمونههای تا ۲۰۰۰ مورد هم شاپیرو-ویلک بهترین عملکرد را دارد.
• نقطه قوت: بسیار حساس است و حتی انحرافهای کوچک از نرمالیتی را به خوبی تشخیص میدهد.
• نقطه ضعف: در نمونههای بسیار بزرگ (مثلاً بالای ۵۰۰۰ مورد)، این آزمون «بیش از حد» حساس میشود؛ یعنی ممکن است یک انحراف بسیار جزئی و بیاهمیت را «معنیدار» گزارش کند و به اشتباه بگوید داده نرمال نیست.
کولموگروف-اسمیرنوف (K-S)؛ سنتی و برای نمونههای بزرگ 🥈
این آزمون قدیمیتر است و در اکثر نرمافزارها مانند SPSS در کنار شاپیرو گزارش میشود.
• چه زمانی استفاده کنیم؟ معمولاً زمانی که حجم نمونه بالای ۵۰ یا ۱۰۰ مورد باشد، از این آزمون استفاده میشود.
• شرط مهم (Lilliefors): آزمون K-S استاندارد زمانی دقیق است که میانگین و انحراف معیار جامعه را از قبل بدانیم (که تقریباً هرگز نمیدانیم!). بنابراین در نرمافزاری مثل SPSS، حتماً باید به نتایج با اصلاحیه لیلیفورز (Lilliefors Correction) استناد کنید.
• نقطه ضعف: قدرت آماری کمتری نسبت به شاپیرو دارد؛ یعنی ممکن است دادهای واقعاً نرمال نباشد، اما K-S نتواند آن را تشخیص دهد (خطای نوع دوم).
تفاوت کلیدی در نحوه محاسبه 🧐
تفاوت این دو در «زاویه دید» آنها به دادههاست:
۱. آزمون K-S: فقط به بزرگترین اختلاف بین نمودار توزیع دادههای شما و نمودار توزیع نرمال ایدهآل نگاه میکند. اگر فقط در یک نقطه اختلاف زیاد باشد، K-S واکنش نشان میدهد.
۲. آزمون شاپیرو-ویلک: به تمام دادهها و نحوه قرارگیری آنها در کل منحنی نگاه میکند. این آزمون بررسی میکند که چقدر همبستگی بین دادههای شما و یک توزیع نرمالِ هموزن وجود دارد. به همین دلیل دقیقتر است.
جمعبندی نهایی: کدام را گزارش کنیم؟ 📝
اگر در حال نوشتن مقاله یا پایاننامه هستید، این استراتژی را دنبال کنید:
• نمونه کوچک (N < 50): فقط به Shapiro-Wilk استناد کنید. K-S در این حجم نمونه قدرت بسیار کمی دارد.
• نمونه متوسط (50 < N < 300): باز هم Shapiro-Wilk پیشنهاد میشود، اما میتوانید هر دو را چک کنید. اگر اختلاف داشتند، شاپیرو معتبرتر است.
• نمونه بسیار بزرگ (N > 1000): به Kolmogorov-Smirnov (با اصلاحیه لیلیفورز) نگاه کنید، چون شاپیرو در اینجا زیادی حساس میشود.
یک راز حرفهای: فقط به اعداد اکتفا نکنید! 💡
در مجلات Q1، داوران فقط به P-Value آزمونهای نرمالیتی راضی نمیشوند. حتماً در کنار این آزمونها، از نمودار Q-Q Plot و بررسی چولگی (Skewness) و کشیدگی (Kurtosis) استفاده کنید. اگر نمودار Q-Q نشان دهد که نقاط روی خط راست هستند، حتی اگر آزمون شاپیرو بگوید داده نرمال نیست، میتوانید با احتیاط فرض نرمالیتی را بپذیرید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
در ادامه، راهنمای دقیق انتخاب بین این دو آزمون را مطالعه کنید:
شاپیرو-ویلک (Shapiro-Wilk)؛ قهرمان نمونههای کوچک 🥇
این آزمون به طور کلی قدرتمندترین آزمون برای تشخیص عدم نرمالیتی است.
• چه زمانی استفاده کنیم؟ بهترین انتخاب برای نمونههایی با حجم کمتر از ۵۰ یا ۱۰۰ مورد است. البته بسیاری از آماردانان معتقدند برای نمونههای تا ۲۰۰۰ مورد هم شاپیرو-ویلک بهترین عملکرد را دارد.
• نقطه قوت: بسیار حساس است و حتی انحرافهای کوچک از نرمالیتی را به خوبی تشخیص میدهد.
• نقطه ضعف: در نمونههای بسیار بزرگ (مثلاً بالای ۵۰۰۰ مورد)، این آزمون «بیش از حد» حساس میشود؛ یعنی ممکن است یک انحراف بسیار جزئی و بیاهمیت را «معنیدار» گزارش کند و به اشتباه بگوید داده نرمال نیست.
کولموگروف-اسمیرنوف (K-S)؛ سنتی و برای نمونههای بزرگ 🥈
این آزمون قدیمیتر است و در اکثر نرمافزارها مانند SPSS در کنار شاپیرو گزارش میشود.
• چه زمانی استفاده کنیم؟ معمولاً زمانی که حجم نمونه بالای ۵۰ یا ۱۰۰ مورد باشد، از این آزمون استفاده میشود.
• شرط مهم (Lilliefors): آزمون K-S استاندارد زمانی دقیق است که میانگین و انحراف معیار جامعه را از قبل بدانیم (که تقریباً هرگز نمیدانیم!). بنابراین در نرمافزاری مثل SPSS، حتماً باید به نتایج با اصلاحیه لیلیفورز (Lilliefors Correction) استناد کنید.
• نقطه ضعف: قدرت آماری کمتری نسبت به شاپیرو دارد؛ یعنی ممکن است دادهای واقعاً نرمال نباشد، اما K-S نتواند آن را تشخیص دهد (خطای نوع دوم).
تفاوت کلیدی در نحوه محاسبه 🧐
تفاوت این دو در «زاویه دید» آنها به دادههاست:
۱. آزمون K-S: فقط به بزرگترین اختلاف بین نمودار توزیع دادههای شما و نمودار توزیع نرمال ایدهآل نگاه میکند. اگر فقط در یک نقطه اختلاف زیاد باشد، K-S واکنش نشان میدهد.
۲. آزمون شاپیرو-ویلک: به تمام دادهها و نحوه قرارگیری آنها در کل منحنی نگاه میکند. این آزمون بررسی میکند که چقدر همبستگی بین دادههای شما و یک توزیع نرمالِ هموزن وجود دارد. به همین دلیل دقیقتر است.
جمعبندی نهایی: کدام را گزارش کنیم؟ 📝
اگر در حال نوشتن مقاله یا پایاننامه هستید، این استراتژی را دنبال کنید:
• نمونه کوچک (N < 50): فقط به Shapiro-Wilk استناد کنید. K-S در این حجم نمونه قدرت بسیار کمی دارد.
• نمونه متوسط (50 < N < 300): باز هم Shapiro-Wilk پیشنهاد میشود، اما میتوانید هر دو را چک کنید. اگر اختلاف داشتند، شاپیرو معتبرتر است.
• نمونه بسیار بزرگ (N > 1000): به Kolmogorov-Smirnov (با اصلاحیه لیلیفورز) نگاه کنید، چون شاپیرو در اینجا زیادی حساس میشود.
یک راز حرفهای: فقط به اعداد اکتفا نکنید! 💡
در مجلات Q1، داوران فقط به P-Value آزمونهای نرمالیتی راضی نمیشوند. حتماً در کنار این آزمونها، از نمودار Q-Q Plot و بررسی چولگی (Skewness) و کشیدگی (Kurtosis) استفاده کنید. اگر نمودار Q-Q نشان دهد که نقاط روی خط راست هستند، حتی اگر آزمون شاپیرو بگوید داده نرمال نیست، میتوانید با احتیاط فرض نرمالیتی را بپذیرید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
❤3🤩1
اصلاحیه لیلیفورز: آچار فرانسه آزمون کولموگروف-اسمیرنوف 🛠️📊
۱. مشکل اصلی آزمون K-S استاندارد چیست؟ 🧐
آزمون کولموگروف-اسمیرنوف اصلی برای زمانی طراحی شده بود که شما میانگین و انحراف معیار واقعی کل جامعه را میدانید.
اما در ۹۹٪ پژوهشهای علمی، ما پارامترهای واقعی جامعه را نداریم و مجبوریم آنها را از روی «نمونه» خودمان برآورد کنیم. وقتی شما از میانگین نمونه استفاده میکنید، آزمون K-S استاندارد بیش از حد «محافظهکار» میشود؛ یعنی تمایل دارد که به اشتباه بگوید دادههای شما نرمال هستند (حتی اگر نباشند!). این یعنی خطای نوع دوم افزایش مییابد.
۲. لیلیفورز (Lilliefors) چه کرد؟ ✨
در سال ۱۹۶۷، دانشمندی به نام هیوبرت لیلیفورز متوجه این تضاد شد. او جداول توزیع جدیدی را محاسبه کرد که مخصوص زمانی است که پارامترهای جامعه (میانگین و انحراف معیار) مجهول هستند و از دادههای نمونه استخراج شدهاند.
• کارکرد اصلی: این اصلاحیه، مقادیر بحرانی آزمون را تعدیل میکند تا آزمون نسبت به «عدم نرمالیتی» حساستر شود.
نتیجه: با استفاده از این اصلاحیه P-Value دقیقتری به دست میآورید که واقعیت دادههای شما را بهتر منعکس میکند.
۳. چه زمانی به درد ما میخورد؟ 🚀
اگر از نرمافزاری مثل SPSS استفاده میکنید، احتمالاً در خروجی آزمونهای نرمالیتی دیدهاید که بالای ستون K-S نوشته شده: Kolmogorov-Smirnov^a و در پانویس توضیح داده شده که این با اصلاحیه لیلیفورز محاسبه شده است.
برای حجم نمونه بالا: وقتی تعداد دادههای شما زیاد است (مثلاً بالای ۵۰ یا ۱۰۰ مورد) و میخواهید از K-S استفاده کنید، حتماً و لزوماً باید از نسخه اصلاحشده با لیلیفورز استفاده کنید.
برای اعتبار علمی: داوران مجلات معتبر میدانند که K-S بدون لیلیفورز دقت بالایی ندارد. پس اگر در متن مقاله بنویسید «نرمالیتی با آزمون K-S و اصلاحیه Lilliefors بررسی شد»، نشاندهنده سواد آماری بالای شماست.
۴. یک نکته بسیار مهم (تفاوت با شاپیرو) 🔍
حتی با وجود اصلاحیه لیلیفورز، باز هم در نمونههای کوچک (زیر ۵۰ مورد)، آزمون شاپیرو-ویلک (Shapiro-Wilk) از K-S با اصلاحیه لیلیفورز قدرتمندتر است. بنابراین استراتژی طلایی این است:
نمونه کوچک: مستقیم برو سراغ Shapiro-Wilk.
نمونه بزرگ: از K-S با اصلاحیه Lilliefors استفاده کن.
خلاصه کنیم:
آزمون K-S معمولی فکر میکند شما میانگین کل جامعه را میدانید! چون نمیدانید و از میانگین نمونه خودتان استفاده میکنید، نتایجش غلط از آب در میآید. اصلاحیه لیلیفورز این اشتباه را جبران میکند و اجازه میدهد در نمونههای بزرگ، با خیال راحت نرمالیتی را چک کنید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
۱. مشکل اصلی آزمون K-S استاندارد چیست؟ 🧐
آزمون کولموگروف-اسمیرنوف اصلی برای زمانی طراحی شده بود که شما میانگین و انحراف معیار واقعی کل جامعه را میدانید.
اما در ۹۹٪ پژوهشهای علمی، ما پارامترهای واقعی جامعه را نداریم و مجبوریم آنها را از روی «نمونه» خودمان برآورد کنیم. وقتی شما از میانگین نمونه استفاده میکنید، آزمون K-S استاندارد بیش از حد «محافظهکار» میشود؛ یعنی تمایل دارد که به اشتباه بگوید دادههای شما نرمال هستند (حتی اگر نباشند!). این یعنی خطای نوع دوم افزایش مییابد.
۲. لیلیفورز (Lilliefors) چه کرد؟ ✨
در سال ۱۹۶۷، دانشمندی به نام هیوبرت لیلیفورز متوجه این تضاد شد. او جداول توزیع جدیدی را محاسبه کرد که مخصوص زمانی است که پارامترهای جامعه (میانگین و انحراف معیار) مجهول هستند و از دادههای نمونه استخراج شدهاند.
• کارکرد اصلی: این اصلاحیه، مقادیر بحرانی آزمون را تعدیل میکند تا آزمون نسبت به «عدم نرمالیتی» حساستر شود.
نتیجه: با استفاده از این اصلاحیه P-Value دقیقتری به دست میآورید که واقعیت دادههای شما را بهتر منعکس میکند.
۳. چه زمانی به درد ما میخورد؟ 🚀
اگر از نرمافزاری مثل SPSS استفاده میکنید، احتمالاً در خروجی آزمونهای نرمالیتی دیدهاید که بالای ستون K-S نوشته شده: Kolmogorov-Smirnov^a و در پانویس توضیح داده شده که این با اصلاحیه لیلیفورز محاسبه شده است.
برای حجم نمونه بالا: وقتی تعداد دادههای شما زیاد است (مثلاً بالای ۵۰ یا ۱۰۰ مورد) و میخواهید از K-S استفاده کنید، حتماً و لزوماً باید از نسخه اصلاحشده با لیلیفورز استفاده کنید.
برای اعتبار علمی: داوران مجلات معتبر میدانند که K-S بدون لیلیفورز دقت بالایی ندارد. پس اگر در متن مقاله بنویسید «نرمالیتی با آزمون K-S و اصلاحیه Lilliefors بررسی شد»، نشاندهنده سواد آماری بالای شماست.
۴. یک نکته بسیار مهم (تفاوت با شاپیرو) 🔍
حتی با وجود اصلاحیه لیلیفورز، باز هم در نمونههای کوچک (زیر ۵۰ مورد)، آزمون شاپیرو-ویلک (Shapiro-Wilk) از K-S با اصلاحیه لیلیفورز قدرتمندتر است. بنابراین استراتژی طلایی این است:
نمونه کوچک: مستقیم برو سراغ Shapiro-Wilk.
نمونه بزرگ: از K-S با اصلاحیه Lilliefors استفاده کن.
خلاصه کنیم:
آزمون K-S معمولی فکر میکند شما میانگین کل جامعه را میدانید! چون نمیدانید و از میانگین نمونه خودتان استفاده میکنید، نتایجش غلط از آب در میآید. اصلاحیه لیلیفورز این اشتباه را جبران میکند و اجازه میدهد در نمونههای بزرگ، با خیال راحت نرمالیتی را چک کنید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
❤3🤩1
واریانس به زبان ساده: داستان دو تیرانداز 🎯
تصور کنید دو تیرانداز به یک هدف شلیک میکنند و میانگینِ فاصله تیرهای هر دو تا مرکز هدف، صفر است (یعنی به طور متوسط در مرکز هستند).
تیرانداز اول: تمام تیرهایش در نزدیکی مرکز جمع شده است. او واریانس کمی دارد؛ یعنی عملکردش پایدار و قابل پیشبینی است.
تیرانداز دوم: تیرهایش به شدت پراکندهاند؛ یکی بالا، یکی پایین، یکی چپ و یکی راست. او واریانس بالایی دارد؛ یعنی عملکردش بیثبات است، هرچند میانگینش هنوز مرکز باشد.
چرا واریانس در پژوهش حیاتی است؟ 🔬
۱. معیار عدم قطعیت و ریسک:
واریانس به پژوهشگر میگوید که نتایج چقدر قابل اطمینان هستند. در یک مطالعه پزشکی، اگر واریانس پاسخ بیماران به یک دارو خیلی بالا باشد، یعنی دارو روی هر نفر یک جورِ کاملاً متفاوت اثر میگذارد و این برای پزشکان نگرانکننده است.
۲. پایه و اساس آزمونهای آماری (مثل ANOVA):
یکی از مهمترین آزمونهای پژوهشی، تحلیل واریانس است. در این آزمون، ما با مقایسه واریانسِ «درون گروهها» و «بین گروهها» میفهمیم که آیا تفاوتِ میانگینها واقعی است یا صرفاً از روی شانس اتفاق افتاده است.
۳. تشخیص «سیگنال» از «نویز»:
در هر پژوهشی، ما به دنبال کشف یک اثر (سیگنال) هستیم. اما دادهها همیشه با مقداری خطا (نویز) همراه هستند. واریانس به ما کمک میکند بفهمیم چقدر از تغییراتِ دادهها ناشی از متغیر مورد نظر ماست و چقدر ناشی از عوامل مزاحم و تصادفی.
۴. رابطه با انحراف معیار:
واریانس ریشه اصلی «انحراف معیار» است. از آنجایی که در محاسبات واریانس، اعداد به توان دو میرسند (تا منفیها حذف شوند)، واحد آن با واحد اصلی دادهها متفاوت میشود (مثلاً گرم به توان دو!). برای همین ما از آن جذر میگیریم تا به انحراف معیار برسیم که با واحد اصلی ما یکی است.
• چرا به توان ۲ میرسانیم؟ چون اگر فقط فاصلهها را با هم جمع کنیم، فواصل مثبت و منفی همدیگر را خنثی میکنند و مجموع صفر میشود. توان ۲ باعث میشود تمام فاصلهها مثبت شوند و وزن بیشتری به «فاصلههای خیلی دور» داده شود.
خلاصه کنیم:
واریانس یعنی چقدر دادههای شما «ساز مخالف» میزنند! هرچه واریانس کمتر باشد، دادهها متحدتر و به میانگین نزدیکترند و پژوهش شما دقیقتر است. هرچه بیشتر باشد، یعنی نویز و پراکندگی در کار شما زیاد است.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
تصور کنید دو تیرانداز به یک هدف شلیک میکنند و میانگینِ فاصله تیرهای هر دو تا مرکز هدف، صفر است (یعنی به طور متوسط در مرکز هستند).
تیرانداز اول: تمام تیرهایش در نزدیکی مرکز جمع شده است. او واریانس کمی دارد؛ یعنی عملکردش پایدار و قابل پیشبینی است.
تیرانداز دوم: تیرهایش به شدت پراکندهاند؛ یکی بالا، یکی پایین، یکی چپ و یکی راست. او واریانس بالایی دارد؛ یعنی عملکردش بیثبات است، هرچند میانگینش هنوز مرکز باشد.
چرا واریانس در پژوهش حیاتی است؟ 🔬
۱. معیار عدم قطعیت و ریسک:
واریانس به پژوهشگر میگوید که نتایج چقدر قابل اطمینان هستند. در یک مطالعه پزشکی، اگر واریانس پاسخ بیماران به یک دارو خیلی بالا باشد، یعنی دارو روی هر نفر یک جورِ کاملاً متفاوت اثر میگذارد و این برای پزشکان نگرانکننده است.
۲. پایه و اساس آزمونهای آماری (مثل ANOVA):
یکی از مهمترین آزمونهای پژوهشی، تحلیل واریانس است. در این آزمون، ما با مقایسه واریانسِ «درون گروهها» و «بین گروهها» میفهمیم که آیا تفاوتِ میانگینها واقعی است یا صرفاً از روی شانس اتفاق افتاده است.
۳. تشخیص «سیگنال» از «نویز»:
در هر پژوهشی، ما به دنبال کشف یک اثر (سیگنال) هستیم. اما دادهها همیشه با مقداری خطا (نویز) همراه هستند. واریانس به ما کمک میکند بفهمیم چقدر از تغییراتِ دادهها ناشی از متغیر مورد نظر ماست و چقدر ناشی از عوامل مزاحم و تصادفی.
۴. رابطه با انحراف معیار:
واریانس ریشه اصلی «انحراف معیار» است. از آنجایی که در محاسبات واریانس، اعداد به توان دو میرسند (تا منفیها حذف شوند)، واحد آن با واحد اصلی دادهها متفاوت میشود (مثلاً گرم به توان دو!). برای همین ما از آن جذر میگیریم تا به انحراف معیار برسیم که با واحد اصلی ما یکی است.
• چرا به توان ۲ میرسانیم؟ چون اگر فقط فاصلهها را با هم جمع کنیم، فواصل مثبت و منفی همدیگر را خنثی میکنند و مجموع صفر میشود. توان ۲ باعث میشود تمام فاصلهها مثبت شوند و وزن بیشتری به «فاصلههای خیلی دور» داده شود.
خلاصه کنیم:
واریانس یعنی چقدر دادههای شما «ساز مخالف» میزنند! هرچه واریانس کمتر باشد، دادهها متحدتر و به میانگین نزدیکترند و پژوهش شما دقیقتر است. هرچه بیشتر باشد، یعنی نویز و پراکندگی در کار شما زیاد است.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
🤩1
Forwarded from انجمن علمی فرامد
▪️بیماریهای شایع قلب (دکتر منوچهر قانونی)
▪️ تفسیر کامل نوار قلب (ECG)
▪️ تفسیر آزمایشهای قلب
▪️ تفسیر کامل عکسبرداری قفسه سینه
▪️ شرح حال و معاینه قلب
▪️ آشنایی با جراحیهای قلب
1980
↘با تخفیف ویژه فقط 299 هزار تومان
@faramedbot
@Faramed_admin
Please open Telegram to view this post
VIEW IN TELEGRAM
تفاوت واریانس و انحراف معیار در یک نگاه 🔍
برای درک تفاوت این دو، اول باید رابطهشان را بدانید:
انحراف معیار، در واقع رادیکال (جذر) واریانس است.
۱. واریانس (Variance): دنیای محاسبات ریاضی 📐
واریانس به ما میگوید دادهها چقدر از مرکز (میانگین) پخش شدهاند. اما یک مشکل دارد: چون در فرمول واریانس، فاصلهها را به توان ۲ میرسانیم، واحد آن هم به توان ۲ میرسد.
• مثال: اگر در حال بررسی «قد» افراد بر حسب سانتیمتر باشید، واریانس شما بر حسب سانتیمتر مربع میشود!
• چی رو نشون میده؟ بیشتر برای محاسبات آماری پیچیده و درک قدرت مدلهای ریاضی (مثل ANOVA) به کار میرود. برای ذهن انسان، تصورِ «سانتیمتر مربع» برای قد سخت است.
۲. انحراف معیار (Standard Deviation): دنیای واقعیت و گزارش 📏
انحراف معیار، آن رادیکال را میگیرد تا عدد را به واحد اصلی برگرداند.
• مثال: اگر واریانس قد ۱۰۰ (سانتیمتر مربع) باشد، انحراف معیار میشود ۱۰ سانتیمتر.
• چی رو نشون میده؟ دقیقاً به ما میگوید که به طور متوسط، دادهها چند واحد از میانگین فاصله دارند. این عدد برای گزارش دادن در مقاله و درک شهودی عالی است.
چرا دانستن هر دو مهم است؟ 🚀
• چرا واریانس مهمه؟ (پشت صحنه)
واریانس در تحلیلهای آماری مثل رگرسیون یا آنوا حکم موتور محرک را دارد. آماردانان عاشق واریانس هستند چون خواص ریاضی بهتری دارد و به راحتی میتوان واریانسِ بخشهای مختلف یک مدل را با هم جمع یا تفریق کرد تا فهمید کدام عامل تأثیر بیشتری داشته است.
• چرا انحراف معیار مهمه؟ (روی صحنه)
انحراف معیار برای تفسیر نتایج حیاتی است.
اگر بگویید: «میانگین نمرات کلاس ۱۵ و انحراف معیار ۵ است»، یعنی نمرات خیلی پراکندهاند (یکی ۱۰ شده، یکی ۲۰).
اگر انحراف معیار ۱ باشد، یعنی همه حولوحوش ۱۵ شدهاند و کلاس کاملاً یکدست است.
در مجلات Q1، شما همیشه باید میانگین را در کنار انحراف معیار گزارش کنید:
Mean ± SD
خلاصه کنیم 💡
• واریانس: عدد درشتی است که واحدش به توان ۲ رسیده. برای محاسبه توسط نرمافزار و تستهای آماری سنگین استفاده میشود.
• انحراف معیار: همان عدد است که به واحد اصلی برگشته. برای توضیح دادن به آدمها و گزارش در مقاله استفاده میشود.
یک نکته کلیدی:
اگر در مقالهتان انحراف معیار (SD) خیلی بزرگتر از میانگین باشد، داور بلافاصله میفهمد که دادههای شما احتمالاً «نرمال» نیستند یا دادههای پرت زیادی دارید که نتایج را خراب کردهاند.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
برای درک تفاوت این دو، اول باید رابطهشان را بدانید:
انحراف معیار، در واقع رادیکال (جذر) واریانس است.
۱. واریانس (Variance): دنیای محاسبات ریاضی 📐
واریانس به ما میگوید دادهها چقدر از مرکز (میانگین) پخش شدهاند. اما یک مشکل دارد: چون در فرمول واریانس، فاصلهها را به توان ۲ میرسانیم، واحد آن هم به توان ۲ میرسد.
• مثال: اگر در حال بررسی «قد» افراد بر حسب سانتیمتر باشید، واریانس شما بر حسب سانتیمتر مربع میشود!
• چی رو نشون میده؟ بیشتر برای محاسبات آماری پیچیده و درک قدرت مدلهای ریاضی (مثل ANOVA) به کار میرود. برای ذهن انسان، تصورِ «سانتیمتر مربع» برای قد سخت است.
۲. انحراف معیار (Standard Deviation): دنیای واقعیت و گزارش 📏
انحراف معیار، آن رادیکال را میگیرد تا عدد را به واحد اصلی برگرداند.
• مثال: اگر واریانس قد ۱۰۰ (سانتیمتر مربع) باشد، انحراف معیار میشود ۱۰ سانتیمتر.
• چی رو نشون میده؟ دقیقاً به ما میگوید که به طور متوسط، دادهها چند واحد از میانگین فاصله دارند. این عدد برای گزارش دادن در مقاله و درک شهودی عالی است.
چرا دانستن هر دو مهم است؟ 🚀
• چرا واریانس مهمه؟ (پشت صحنه)
واریانس در تحلیلهای آماری مثل رگرسیون یا آنوا حکم موتور محرک را دارد. آماردانان عاشق واریانس هستند چون خواص ریاضی بهتری دارد و به راحتی میتوان واریانسِ بخشهای مختلف یک مدل را با هم جمع یا تفریق کرد تا فهمید کدام عامل تأثیر بیشتری داشته است.
• چرا انحراف معیار مهمه؟ (روی صحنه)
انحراف معیار برای تفسیر نتایج حیاتی است.
اگر بگویید: «میانگین نمرات کلاس ۱۵ و انحراف معیار ۵ است»، یعنی نمرات خیلی پراکندهاند (یکی ۱۰ شده، یکی ۲۰).
اگر انحراف معیار ۱ باشد، یعنی همه حولوحوش ۱۵ شدهاند و کلاس کاملاً یکدست است.
در مجلات Q1، شما همیشه باید میانگین را در کنار انحراف معیار گزارش کنید:
Mean ± SD
خلاصه کنیم 💡
• واریانس: عدد درشتی است که واحدش به توان ۲ رسیده. برای محاسبه توسط نرمافزار و تستهای آماری سنگین استفاده میشود.
• انحراف معیار: همان عدد است که به واحد اصلی برگشته. برای توضیح دادن به آدمها و گزارش در مقاله استفاده میشود.
یک نکته کلیدی:
اگر در مقالهتان انحراف معیار (SD) خیلی بزرگتر از میانگین باشد، داور بلافاصله میفهمد که دادههای شما احتمالاً «نرمال» نیستند یا دادههای پرت زیادی دارید که نتایج را خراب کردهاند.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
❤2🤩1
در دنیای آمار، وقتی میخواهیم دادهها را تحلیل کنیم، با دو مسیر اصلی روبرو هستیم: آزمونهای پارامتریک و آزمونهای ناپارامتریک. انتخاب بین این دو مسیر، تعیینکننده اعتبار نتایج مقاله شماست.
در ادامه، این تفاوت را به زبان ساده و با دستهبندی مشخص بررسی میکنیم:
۱. آزمونهای پارامتریک: جاده صاف و استاندارد 🛣️
این آزمونها بر اساس فرضهای مشخصی درباره جامعه آماری بنا شدهاند (پارامترهای جامعه را تخمین میزنند).
شرط اصلی استفاده: 1. دادهها باید توزیع نرمال داشته باشند.
2. مقیاس اندازهگیری باید فاصلهای یا نسبی باشد (مثل سن، وزن، نمره).
3. واریانس گروهها باید با هم برابر باشد (همگنی واریانس).
• مزیت: قدرت آماری (Power) بالایی دارند؛ یعنی اگر واقعاً تفاوتی وجود داشته باشد، به احتمال زیاد آن را پیدا میکنند.
۲. آزمونهای ناپارامتریک: جاده خاکی و ناهموار 🚜
این آزمونها به «آزمونهای آزاد از توزیع» معروف هستند؛ چون نیازی به فرض نرمال بودن ندارند.
• چه زمانی استفاده کنیم؟
وقتی حجم نمونه بسیار کم است (مثلاً زیر ۱۵ یا ۲۰ نفر).
وقتی دادهها نرمال نیستند و با تبدیل ریاضی هم نرمال نمیشوند.
وقتی دادههای شما از نوع رتبهای (Ordinal) یا اسمی (Nominal) هستند (مثلاً سطح رضایت: کم، متوسط، زیاد).
وقتی دادههای پرت (Outliers) شدیدی دارید که میانگین را خراب میکنند.
• عیب: قدرت کمتری نسبت به پارامتریک دارند. یعنی ممکن است تفاوتی وجود داشته باشد اما آزمون بگوید چیزی پیدا نکردم.
۳. کدام آزمون برای کدام هدف؟ (لیست معادلها) 📋
برای اینکه بدانید از کدام آزمون استفاده کنید، از این راهنمای سریع استفاده کنید:
الف) مقایسه دو گروه مستقل (مثلاً زن و مرد)
پارامتریک: Independent T-test
ناپارامتریک: Mann-Whitney U test
ب) مقایسه یک گروه در دو زمان (مثلاً قبل و بعد از آموزش)
پارامتریک: Paired T-test
ناپارامتریک: Wilcoxon Signed-Rank test
ج) مقایسه بیش از دو گروه (مثلاً سه نوع روش درمان)
پارامتریک: One-way ANOVA
ناپارامتریک: Kruskal-Wallis test
د) بررسی رابطه بین دو متغیر
پارامتریک: Pearson Correlation (ضریب همبستگی پیرسون)
ناپارامتریک: Spearman Correlation (ضریب همبستگی اسپیرمن)
چطور تصمیم نهایی بگیریم؟ ⚖️
استراتژی پیشنهادی برای محققان:
ابتدا آزمون نرمالیتی (مثل شاپیرو-ویلک) را انجام دهید.
اگر دادهها نرمال بودند و حجم نمونه کافی بود، حتماً از پارامتریک استفاده کنید تا قدرت تحلیل بالا برود.
اگر نرمالیتی رد شد یا دادهها کیفی (رتبهای) بودند، بدون شک به سراغ ناپارامتریک بروید.
نکته طلایی برای مقاله: در بخش روششناسی (Methodology) حتماً ذکر کنید که چرا یک آزمون را انتخاب کردید (مثلاً: «به دلیل عدم توزیع نرمال دادهها در آزمون شاپیرو-ویلک، از آزمون ناپارامتریک یو من-ویتنی استفاده شد»). این جمله داوران را متقاعد میکند که شما بر آمار مسلط هستید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
در ادامه، این تفاوت را به زبان ساده و با دستهبندی مشخص بررسی میکنیم:
۱. آزمونهای پارامتریک: جاده صاف و استاندارد 🛣️
این آزمونها بر اساس فرضهای مشخصی درباره جامعه آماری بنا شدهاند (پارامترهای جامعه را تخمین میزنند).
شرط اصلی استفاده: 1. دادهها باید توزیع نرمال داشته باشند.
2. مقیاس اندازهگیری باید فاصلهای یا نسبی باشد (مثل سن، وزن، نمره).
3. واریانس گروهها باید با هم برابر باشد (همگنی واریانس).
• مزیت: قدرت آماری (Power) بالایی دارند؛ یعنی اگر واقعاً تفاوتی وجود داشته باشد، به احتمال زیاد آن را پیدا میکنند.
۲. آزمونهای ناپارامتریک: جاده خاکی و ناهموار 🚜
این آزمونها به «آزمونهای آزاد از توزیع» معروف هستند؛ چون نیازی به فرض نرمال بودن ندارند.
• چه زمانی استفاده کنیم؟
وقتی حجم نمونه بسیار کم است (مثلاً زیر ۱۵ یا ۲۰ نفر).
وقتی دادهها نرمال نیستند و با تبدیل ریاضی هم نرمال نمیشوند.
وقتی دادههای شما از نوع رتبهای (Ordinal) یا اسمی (Nominal) هستند (مثلاً سطح رضایت: کم، متوسط، زیاد).
وقتی دادههای پرت (Outliers) شدیدی دارید که میانگین را خراب میکنند.
• عیب: قدرت کمتری نسبت به پارامتریک دارند. یعنی ممکن است تفاوتی وجود داشته باشد اما آزمون بگوید چیزی پیدا نکردم.
۳. کدام آزمون برای کدام هدف؟ (لیست معادلها) 📋
برای اینکه بدانید از کدام آزمون استفاده کنید، از این راهنمای سریع استفاده کنید:
الف) مقایسه دو گروه مستقل (مثلاً زن و مرد)
پارامتریک: Independent T-test
ناپارامتریک: Mann-Whitney U test
ب) مقایسه یک گروه در دو زمان (مثلاً قبل و بعد از آموزش)
پارامتریک: Paired T-test
ناپارامتریک: Wilcoxon Signed-Rank test
ج) مقایسه بیش از دو گروه (مثلاً سه نوع روش درمان)
پارامتریک: One-way ANOVA
ناپارامتریک: Kruskal-Wallis test
د) بررسی رابطه بین دو متغیر
پارامتریک: Pearson Correlation (ضریب همبستگی پیرسون)
ناپارامتریک: Spearman Correlation (ضریب همبستگی اسپیرمن)
چطور تصمیم نهایی بگیریم؟ ⚖️
استراتژی پیشنهادی برای محققان:
ابتدا آزمون نرمالیتی (مثل شاپیرو-ویلک) را انجام دهید.
اگر دادهها نرمال بودند و حجم نمونه کافی بود، حتماً از پارامتریک استفاده کنید تا قدرت تحلیل بالا برود.
اگر نرمالیتی رد شد یا دادهها کیفی (رتبهای) بودند، بدون شک به سراغ ناپارامتریک بروید.
نکته طلایی برای مقاله: در بخش روششناسی (Methodology) حتماً ذکر کنید که چرا یک آزمون را انتخاب کردید (مثلاً: «به دلیل عدم توزیع نرمال دادهها در آزمون شاپیرو-ویلک، از آزمون ناپارامتریک یو من-ویتنی استفاده شد»). این جمله داوران را متقاعد میکند که شما بر آمار مسلط هستید.
- تیم تولید محتوای کمیته تحقیقات دانشجویی دانشکده پرستاری گرمی 🌱
❤2🤩1