#Geometric_Distribution
#Hypergeometric_Distribution
@R_Experts
dgeom(X, prob = p)
# p is the probability of success
dgeom(X, prob = p, log=TRUE)
# log of the probability instead
#Hypergeometric_Distribution
dhyper(X, m, n, k)
dhyper(X, m, n, k, log = TRUE)
@R_Experts
#qnorm
از دیدگاه ماشینی تابع :
دریافتی این تابع
ازجنس احتمال
و خروجیش از محور x ها در نمودار بالایی میباشد
ی تابع چگالی نرمال استاندارد داشتیم
ایشون نقش "معکوس " همون تابع رو تو نرم افزار دارن
خود اون تابع
dnorm(x)
هست
و
pnorm(x)
تابع تجمعی میباشد
@R_Experts
از دیدگاه ماشینی تابع :
دریافتی این تابع
ازجنس احتمال
و خروجیش از محور x ها در نمودار بالایی میباشد
ی تابع چگالی نرمال استاندارد داشتیم
ایشون نقش "معکوس " همون تابع رو تو نرم افزار دارن
خود اون تابع
dnorm(x)
هست
و
pnorm(x)
تابع تجمعی میباشد
@R_Experts
#الگوریتم_مترو_پلیس_هستینگ
@R_Experts
metropolis.hastings <- function(f, # the target distribution
g, # the proposal distribution
rg, # a sample from the proposal distribution
x0, # initial value for chain, in R it is x[1]
chain.size=1e5, # chain size
burn.perc=0.1) { # burn in percentagex <- c(x0, rep(NA,chain.size-1)) # initialize chain
for(i in 2:chain.size) {y <- rg(x[i-1]) # generate Y from g(.|xt) using sampler rg
alpha <- min(1, f(y)*g(x[i-1],y)/(f(x[i-1])*g(y,x[i-1])))
x[i] <- x[i-1] + (y-x[i-1])*(runif(1)<alpha) # update step
}
# remove initial part of the chain before output result
x[(burn.perc*chain.size) : chain.size]
}
@R_Experts
#Example
This first eg samples from an uniform distribution (the proposal distribution)
to generate a sample from a Beta(2.7, 6.3) distribution:
@R_Experts
This first eg samples from an uniform distribution (the proposal distribution)
to generate a sample from a Beta(2.7, 6.3) distribution:
a<-2.7; b<-6.3; size<-1e4
f <- function(x) dbeta(x,a,b)
rg <- function(x) runif(1,0,1)
g <- function(x,y) 1 # i.e., dunif(x,0,1)
X <- metropolis.hastings(f,g,rg,x0=runif(1,0,1),chain.size=size)
par(mfrow=c(1,2),mar=c(2,2,1,1))
hist(X,breaks=50,col="blue",main="Metropolis-Hastings",freq=FALSE)
curve(dbeta(x,a,b),col="sienna",lwd=2,add=TRUE)
hist(rbeta(size,a,b),breaks=50,col="grey",main="Direct Sampling",freq=FALSE)
curve(dbeta(x,a,b),col="sienna",lwd=2,add=TRUE)
@R_Experts
This second eg samples from a chi-squared distribution to
generate a sample from the Rayleigh distribution (assume parameter σ=4):
@R_Experts
generate a sample from the Rayleigh distribution (assume parameter σ=4):
library(VGAM)
sigma <- 4
f <- function(x) drayleigh(x,sigma) # the target distribution
rg <- function(x) rchisq(1,df=x) # a sample from proposal g(.|x)
g <- function(x,y) dchisq(x,df=y) # the pdf at g(x|y)
X <- metropolis.hastings(f,g,rg,x0=rchisq(1,df=1),chain.size=size)
par(mfrow=c(1,2),mar=c(2,2,1,1))
hist(X,breaks=50,col="blue",main="Metropolis-Hastings",freq=FALSE)
curve(drayleigh(x,sigma),col="sienna",lwd=2,add=TRUE)
hist(rrayleigh(size,sigma),breaks=50,col="grey",main="Direct Sampling",freq=FALSE)
curve(drayleigh(x,sigma),col="sienna",lwd=2,add=TRUE)
@R_Experts
#سرگرمی
#تخم_مرغ_رنگی
@R_Experts
#تخم_مرغ_رنگی
"@R_Experts"
meshgrid <- function(a, b) {list(x = outer(b * 0, a, FUN = "+"),
y = outer(b, a * 0,FUN = "+"))
}
#install.packages("rgl")library(rgl)
c = 0.2
b = 1.7
theta = seq(0, 2 * pi, length = 40 * 4)
phi = seq(0, pi, length = 40 * 4)
theta1 = meshgrid(theta, phi)$x
phi2 = meshgrid(theta, phi)$y
x = (1 + c * phi2) * sin(phi2) * cos(theta1)
y = (1 + c * phi2) * sin(phi2) * sin(theta1)
z <- b * cos(phi2)
surface3d(x, y, z, color = rainbow(10))
par3d(zoom = 0.7)
@R_Experts
|R| Experts
#توزیع_های_آماری @R_Experts
#توضیحات
برای استفاده از این جدول برحسب نوع استفاده از تابع ،پیش از نام تابع حروف
,
,
و یا
استفاده میکنیم.
@R_Experts
p برای محاسبه احتمال در تابع توزیع
q برای محاسبه چندک
d برای محاسبه چگالی
r برای تولید اعداد تصادفی
@R_Experts
برای استفاده از این جدول برحسب نوع استفاده از تابع ،پیش از نام تابع حروف
p
,
q
,
d
و یا
r
استفاده میکنیم.
@R_Experts
p برای محاسبه احتمال در تابع توزیع
q برای محاسبه چندک
d برای محاسبه چگالی
r برای تولید اعداد تصادفی
@R_Experts
#بیشتر_بدانیم
الگوریتم EM در سال 1997 توسط دمپستر و همکارانش ارائه شد این الگوریتم روشی برای محاسبه براوردگر ماکسیمم درست نمایی است هنگامی که داده گمشده وجود داشته باشد یا روش های ساده بهینه سازی با شکست مواجه شوند
از مهم ترین کاربرد های این الگوریتم یافتن پارامترهای مدل امیخته متناهی میباشد.
الگوریتم EM با در نظر گرفتن متغیرهای پنهان از روندی تکراری برای براورد پارامترها استفاده میکند
این الگوریتم با در نظر گرفتن مقدار اولیه برای پارامترهای مدل شروع میشود که به این مرحله مرحله آغازین گوییم
در گام بعدی که مرحله تکرار نامیده میشود
این پارامترها به روز میشوند
و فرآیند تا جایی تکرار میشود که الگوریتم همگرا شود
مرحله ی تکرار از دو گام تشکیل میشود:
گرفتن امید و ماکسیمم سازی
در گام اول بردار متغیرهای پنهان
z[i]=(z1,z2)
i=1,...,n
که
z1
احتمال شرطی متعلق بودن مشاهده i
به مولفه اول( یا همان جامعه اول ) به شرط پارامترهای مدل است ،براورد میشود .
ودر گام بعد پارامترها به شرط zi براورد میشوند
از انجا که مقدار تابع درست نمایی در هر تکرار افزایش می یابد از این رو الگوریتم همگراست و بنابراین براورد های به دست آمده از این روش به مقدار ماکزیمم درست نمایی آنها میل میکنند.
در حالت کلی تر میتوان گفت
در مرحله گرفتن امید از تابع درست نمایی که بر اساس توزیع توام x و
z=(z1,....,zn)
بیان شده تحت توزیع z به شرط x
و teta^i
برآورد پارامتر teta در
تکرار iام امید گرفته میشود 👇👇👇
@R_Experts
https://telegram.me/R_Experts
الگوریتم EM در سال 1997 توسط دمپستر و همکارانش ارائه شد این الگوریتم روشی برای محاسبه براوردگر ماکسیمم درست نمایی است هنگامی که داده گمشده وجود داشته باشد یا روش های ساده بهینه سازی با شکست مواجه شوند
از مهم ترین کاربرد های این الگوریتم یافتن پارامترهای مدل امیخته متناهی میباشد.
الگوریتم EM با در نظر گرفتن متغیرهای پنهان از روندی تکراری برای براورد پارامترها استفاده میکند
این الگوریتم با در نظر گرفتن مقدار اولیه برای پارامترهای مدل شروع میشود که به این مرحله مرحله آغازین گوییم
در گام بعدی که مرحله تکرار نامیده میشود
این پارامترها به روز میشوند
و فرآیند تا جایی تکرار میشود که الگوریتم همگرا شود
مرحله ی تکرار از دو گام تشکیل میشود:
گرفتن امید و ماکسیمم سازی
در گام اول بردار متغیرهای پنهان
z[i]=(z1,z2)
i=1,...,n
که
z1
احتمال شرطی متعلق بودن مشاهده i
به مولفه اول( یا همان جامعه اول ) به شرط پارامترهای مدل است ،براورد میشود .
ودر گام بعد پارامترها به شرط zi براورد میشوند
از انجا که مقدار تابع درست نمایی در هر تکرار افزایش می یابد از این رو الگوریتم همگراست و بنابراین براورد های به دست آمده از این روش به مقدار ماکزیمم درست نمایی آنها میل میکنند.
در حالت کلی تر میتوان گفت
در مرحله گرفتن امید از تابع درست نمایی که بر اساس توزیع توام x و
z=(z1,....,zn)
بیان شده تحت توزیع z به شرط x
و teta^i
برآورد پارامتر teta در
تکرار iام امید گرفته میشود 👇👇👇
@R_Experts
https://telegram.me/R_Experts
Telegram
|R| Experts
@R_Experts
🔴آمار علم جان بخشیدن به دادههاست.
🔷ارتباط با ما
@iamrezaei
لینک یوتیوب و اینستاگرام و ویرگول:
https://zil.ink/expertstv
🔴آمار علم جان بخشیدن به دادههاست.
🔷ارتباط با ما
@iamrezaei
لینک یوتیوب و اینستاگرام و ویرگول:
https://zil.ink/expertstv