|R| Experts – Telegram
|R| Experts
1.05K subscribers
376 photos
35 videos
58 files
205 links
@R_Experts
🔴آمار علم جان بخشیدن به داده‌هاست.
🔷ارتباط با ما
@iamrezaei
لینک یوتیوب و اینستاگرام و ویرگول:
https://zil.ink/expertstv
Download Telegram
#Geometric_Distribution

dgeom(X, prob = p)            
# p is the probability of success

dgeom(X, prob = p, log=TRUE)  
# log of the probability instead



#Hypergeometric_Distribution

dhyper(X, m, n, k)

dhyper(X, m, n, k, log = TRUE)


@R_Experts
این شکل به معنی
dnorm(1)
میباشد

@R_Experts
این شکل به معنی
pnorm(1)
میباشد

@R_Experts
#qnorm

از دیدگاه ماشینی تابع :

دریافتی این تابع

ازجنس احتمال

و خروجیش از محور x ها در نمودار بالایی میباشد

ی تابع چگالی نرمال استاندارد داشتیم


ایشون نقش "معکوس " همون تابع رو تو نرم افزار دارن

خود اون تابع
dnorm(x)
هست
و

pnorm(x)
تابع تجمعی میباشد


@R_Experts
#الگوریتم_مترو_پلیس_هستینگ



metropolis.hastings <- function(f,  # the target distribution

                                g,  # the proposal distribution

                                rg, # a sample from the proposal distribution

                                x0, # initial value for chain, in R it is x[1]

                                chain.size=1e5,  # chain size

                                burn.perc=0.1) { # burn in percentage

  

  x <- c(x0, rep(NA,chain.size-1))  # initialize chain

  

  for(i in 2:chain.size)   {

    y <- rg(x[i-1])                 # generate Y from g(.|xt) using sampler rg

    alpha <- min(1, f(y)*g(x[i-1],y)/(f(x[i-1])*g(y,x[i-1])))

    x[i] <- x[i-1] + (y-x[i-1])*(runif(1)<alpha)  # update step

  }

  

  # remove initial part of the chain before output result

  x[(burn.perc*chain.size) : chain.size] 

}



@R_Experts
#Example

This first eg samples from an uniform distribution (the proposal distribution)
to generate a sample from a Beta(2.7, 6.3) distribution:

a<-2.7; b<-6.3; size<-1e4

f <- function(x) dbeta(x,a,b)
rg <- function(x) runif(1,0,1)
g <- function(x,y) 1 # i.e., dunif(x,0,1)

X <- metropolis.hastings(f,g,rg,x0=runif(1,0,1),chain.size=size)

par(mfrow=c(1,2),mar=c(2,2,1,1))
hist(X,breaks=50,col="blue",main="Metropolis-Hastings",freq=FALSE)
curve(dbeta(x,a,b),col="sienna",lwd=2,add=TRUE)
hist(rbeta(size,a,b),breaks=50,col="grey",main="Direct Sampling",freq=FALSE)
curve(dbeta(x,a,b),col="sienna",lwd=2,add=TRUE)



@R_Experts
This second eg samples from a chi-squared distribution to
generate a sample from the Rayleigh distribution (assume parameter σ=4):



library(VGAM)

sigma <- 4
f <- function(x) drayleigh(x,sigma) # the target distribution
rg <- function(x) rchisq(1,df=x) # a sample from proposal g(.|x)
g <- function(x,y) dchisq(x,df=y) # the pdf at g(x|y)

X <- metropolis.hastings(f,g,rg,x0=rchisq(1,df=1),chain.size=size)

par(mfrow=c(1,2),mar=c(2,2,1,1))
hist(X,breaks=50,col="blue",main="Metropolis-Hastings",freq=FALSE)
curve(drayleigh(x,sigma),col="sienna",lwd=2,add=TRUE)
hist(rrayleigh(size,sigma),breaks=50,col="grey",main="Direct Sampling",freq=FALSE)
curve(drayleigh(x,sigma),col="sienna",lwd=2,add=TRUE)



@R_Experts
#سرگرمی
#تخم_مرغ_رنگی

          "@R_Experts"


meshgrid <- function(a, b) {

  list(x = outer(b * 0, a, FUN = "+"), 

       y = outer(b, a * 0,FUN = "+"))

}

#install.packages("rgl")

library(rgl)

c = 0.2

b = 1.7

theta = seq(0, 2 * pi, length = 40 * 4)

phi = seq(0, pi, length = 40 * 4)

theta1 = meshgrid(theta, phi)$x

phi2 = meshgrid(theta, phi)$y

x = (1 + c * phi2) * sin(phi2) * cos(theta1)

y = (1 + c * phi2) * sin(phi2) * sin(theta1)

z <- b * cos(phi2)

surface3d(x, y, z, color = rainbow(10))

par3d(zoom = 0.7)




@R_Experts
|R| Experts
#توزیع_های_آماری @R_Experts
#توضیحات
برای استفاده از این جدول برحسب نوع استفاده از تابع ،پیش از نام تابع حروف
p

,
q

,
d

و یا
r

استفاده میکنیم.
@R_Experts
p برای محاسبه احتمال در تابع توزیع

q برای محاسبه چندک

d برای محاسبه چگالی

r برای تولید اعداد تصادفی


@R_Experts
#بیشتر_بدانیم

الگوریتم EM در سال 1997 توسط دمپستر و همکارانش ارائه شد این الگوریتم روشی برای محاسبه براوردگر ماکسیمم درست نمایی است هنگامی که داده گمشده وجود داشته باشد یا روش های ساده بهینه سازی با شکست مواجه شوند
از مهم ترین کاربرد های این الگوریتم یافتن پارامترهای مدل امیخته متناهی میباشد.
الگوریتم EM با در نظر گرفتن متغیرهای پنهان از روندی تکراری برای براورد پارامترها استفاده میکند
این الگوریتم با در نظر گرفتن مقدار اولیه برای پارامترهای مدل شروع میشود که به این مرحله مرحله آغازین گوییم
در گام بعدی که مرحله تکرار نامیده میشود
این پارامترها به روز میشوند
و فرآیند تا جایی تکرار میشود که الگوریتم همگرا شود
مرحله ی تکرار از دو گام تشکیل میشود:
گرفتن امید و ماکسیمم سازی
در گام اول بردار متغیرهای پنهان
z[i]=(z1,z2)
i=1,...,n
که
z1
احتمال شرطی متعلق بودن مشاهده i
به مولفه اول( یا همان جامعه اول ) به شرط پارامترهای مدل است ،براورد میشود .
ودر گام بعد پارامترها به شرط zi براورد میشوند
از انجا که مقدار تابع درست نمایی در هر تکرار افزایش می یابد از این رو الگوریتم همگراست و بنابراین براورد های به دست آمده از این روش به مقدار ماکزیمم درست نمایی آنها میل میکنند.

در حالت کلی تر میتوان گفت

در مرحله گرفتن امید از تابع درست نمایی که بر اساس توزیع توام x و
z=(z1,....,zn)
بیان شده تحت توزیع z به شرط x
و teta^i
برآورد پارامتر teta در
تکرار iام امید گرفته میشود 👇👇👇

@R_Experts

https://telegram.me/R_Experts
در مرحله ماکزیمم سازی Q بر حسب
teta^i+1
ماکزیمم میشود.

@R_Experts