Pamamahagi ng posibilidad. Binomial distribution ng isang discrete random variable

Ang teorya ng probabilidad ay isang sangay ng matematika na nag-aaral ng mga pattern ng mga random na phenomena: mga random na kaganapan, mga random na variable, ang kanilang mga katangian at mga operasyon sa kanila.

Sa mahabang panahon ang teorya ng posibilidad ay walang malinaw na kahulugan. Ito ay nabuo lamang noong 1929. Ang paglitaw ng teorya ng posibilidad bilang isang agham ay iniuugnay sa Middle Ages at ang mga unang pagtatangka pagsusuri sa matematika pagsusugal (paghagis, dice, roulette). French mathematician XVII siglo Blaise Pascal at Pierre Fermat, ginalugad ang hula ng mga panalo sa pagsusugal, natuklasan ang mga unang probabilistikong pattern na lumitaw kapag naghahagis ng dice.

Ang teorya ng probabilidad ay lumitaw bilang isang agham mula sa paniniwala na ang ilang mga regularidad ay sumasailalim sa napakalaking random na mga kaganapan. Pinag-aaralan ng teorya ng probabilidad ang mga pattern na ito.

Ang teorya ng probabilidad ay tumatalakay sa pag-aaral ng mga pangyayari, na ang paglitaw nito ay hindi tiyak na alam. Pinapayagan ka nitong hatulan ang antas ng posibilidad ng paglitaw ng ilang mga kaganapan kumpara sa iba.

Halimbawa: imposibleng malinaw na matukoy ang resulta ng pagkawala ng "mga ulo" o "mga buntot" bilang resulta ng paghahagis ng barya, ngunit may maraming paghagis, humigit-kumulang ang parehong numero ulo at buntot, na nangangahulugang mayroong 50% na posibilidad na makakuha ng mga ulo o buntot.

pagsusulit sa kasong ito, ang pagpapatupad ng isang tiyak na hanay ng mga kundisyon ay tinatawag, iyon ay, sa kasong ito paghagis ng barya. Ang hamon ay maaaring laruin ng walang limitasyong bilang ng beses. Sa kasong ito, ang kumplikado ng mga kondisyon ay kinabibilangan ng mga random na kadahilanan.

Ang resulta ng pagsusulit ay kaganapan. Nangyayari ang kaganapan:

  1. Maaasahan (palaging nangyayari bilang resulta ng pagsubok).
  2. Imposible (hindi mangyayari).
  3. Random (maaaring mangyari o hindi bilang resulta ng pagsubok).

Halimbawa, kapag naghahagis ng barya imposibleng pangyayari- ang barya ay nasa gilid, isang random na kaganapan - ang pagkawala ng "mga ulo" o "mga buntot". Ang tiyak na resulta ng pagsubok ay tinatawag kaganapan sa elementarya. Bilang resulta ng pagsusulit, mga elementarya lamang ang nangyayari. Tinatawag ang kabuuan ng lahat ng posibleng, iba, partikular na resulta ng pagsubok elementarya na espasyo ng kaganapan.

Pangunahing konsepto ng teorya

Probability- ang antas ng posibilidad ng paglitaw ng kaganapan. Kapag ang mga dahilan para sa ilang posibleng kaganapan ay aktwal na naganap kaysa sa kabaligtaran na mga dahilan, kung gayon ang kaganapang ito ay tinatawag na probable, kung hindi - malamang o hindi malamang.

Random na halaga- ito ay isang halaga na, bilang resulta ng pagsubok, ay maaaring tumagal ng isa o isa pang halaga, at hindi alam nang maaga kung alin. Halimbawa: ang bilang ng mga istasyon ng bumbero bawat araw, ang bilang ng mga hit na may 10 putok, atbp.

Ang mga random na variable ay maaaring nahahati sa dalawang kategorya.

  1. Discrete random variable tinatawag na tulad ng isang halaga, na bilang isang resulta ng pagsubok ay maaaring tumagal ilang mga halaga na may tiyak na posibilidad, na bumubuo ng isang mabibilang na hanay (isang set na ang mga elemento ay maaaring bilangin). Ang hanay na ito ay maaaring maging may hangganan o walang katapusan. Halimbawa, ang bilang ng mga shot bago ang unang hit sa target ay isang discrete random variable, dahil ang halagang ito ay maaaring tumagal sa isang walang katapusan, bagama't mabibilang, bilang ng mga halaga.
  2. Patuloy na random variable ay isang dami na maaaring kumuha ng anumang halaga mula sa ilang may hangganan o walang katapusan na pagitan. Malinaw, ang bilang ng mga posibleng halaga ng isang tuluy-tuloy na random na variable ay walang hanggan.

Probability space- ang konseptong ipinakilala ni A.N. Kolmogorov noong 30s ng XX siglo upang gawing pormal ang konsepto ng posibilidad, na nagbunga ng mabilis na pagunlad probability theory bilang isang mahigpit na disiplina sa matematika.

Ang probability space ay isang triple (minsan naka-frame sa angle bracket: , kung saan

Ito ay isang arbitrary set, ang mga elemento nito ay tinatawag na elementarya na mga kaganapan, kinalabasan o puntos;
- sigma-algebra ng mga subset na tinatawag na (random) na mga kaganapan;
- probabilistic measure o probabilidad, i.e. sigma-additive na may hangganan na panukalang tulad na .

De Moivre-Laplace theorem- isa sa mga naglilimitang theorems ng probability theory, na itinatag ni Laplace noong 1812. Sinabi niya na ang bilang ng mga tagumpay sa pag-uulit ng parehong random na eksperimento na may dalawang posibleng resulta ay humigit-kumulang na karaniwang ipinamamahagi. Pinapayagan ka nitong makahanap ng tinatayang halaga ng posibilidad.

Kung, para sa bawat isa sa mga independiyenteng pagsubok, ang posibilidad ng paglitaw ng ilang random na kaganapan ay katumbas ng () at ang bilang ng mga pagsubok kung saan ito aktwal na nangyayari, kung gayon ang posibilidad ng bisa ng hindi pagkakapantay-pantay ay malapit (para sa malaki ) sa ang halaga ng Laplace integral.

Distribution function sa probability theory- isang function na nagpapakilala sa pamamahagi ng isang random na variable o isang random na vector; ang posibilidad na random na halaga Ang X ay kukuha ng halagang mas mababa sa o katumbas ng x, kung saan ang x ay arbitrary totoong numero. Sa ilalim ng ilang mga kundisyon, ganap nitong tinutukoy ang isang random na variable.

Inaasahang halaga- ang average na halaga ng isang random variable (ito ang probability distribution ng isang random variable, na isinasaalang-alang sa probability theory). Sa panitikang Ingles, ito ay tinutukoy ng, sa Russian -. Sa mga istatistika, madalas na ginagamit ang notasyon.

Hayaang magbigay ng probability space at isang random variable na tinukoy dito. Iyon ay, sa pamamagitan ng kahulugan, isang masusukat na function. Pagkatapos, kung mayroong isang Lebesgue integral ng over space , kung gayon ito ay tinatawag na mathematical expectation, o mean value, at ito ay tinutukoy ng .

Pagkakaiba-iba ng isang random na variable- isang sukatan ng pagkalat ng isang naibigay na random na variable, ibig sabihin, ang paglihis nito mula sa inaasahan sa matematika. Itinalaga sa panitikang Ruso at sa dayuhan. Sa mga istatistika, ang pagtatalaga o ay kadalasang ginagamit. Kuwadrado na ugat ng pagkakaiba ay tinatawag na standard deviation, standard deviation, o standard spread.

Hayaan ang isang random na variable na tinukoy sa ilan puwang ng posibilidad. Pagkatapos

kung saan ang simbolo ay kumakatawan inaasahang halaga.

Sa probability theory, dalawa mga random na pangyayari tinawag malaya kung ang paglitaw ng isa sa mga ito ay hindi nagbabago sa posibilidad ng paglitaw ng isa pa. Katulad nito, dalawang random na variable ang tinatawag umaasa kung ang halaga ng isa sa mga ito ay nakakaapekto sa posibilidad ng mga halaga ng isa pa.

Ang pinakasimpleng anyo ng batas malalaking numero- ito ang theorem ni Bernoulli, na nagsasaad na kung ang posibilidad ng isang kaganapan ay pareho sa lahat ng mga pagsubok, kung gayon sa pagtaas ng bilang ng mga pagsubok, ang dalas ng kaganapan ay may posibilidad na mangyari ang kaganapan at titigil na maging random.

Ang batas ng malalaking numero sa teorya ng posibilidad ay nagsasaad na ang arithmetic mean ng isang finite sample mula sa isang fixed distribution ay malapit sa theoretical mean expectation ng distribution na iyon. Depende sa uri ng convergence, ang isang mahinang batas ng malalaking numero ay nakikilala, kapag ang convergence sa probabilidad ay nagaganap, at isang malakas na batas ng malalaking numero, kapag ang convergence ay halos tiyak na magaganap.

Pangkalahatang kahulugan ng batas ng malalaking numero - magkasanib na pagkilos isang malaking bilang Ang magkapareho at independiyenteng random na mga kadahilanan ay humahantong sa isang resulta na hindi nakasalalay sa kaso sa limitasyon.

Ang mga pamamaraan para sa pagtatantya ng probabilidad batay sa pagsusuri ng isang limitadong sample ay batay sa property na ito. magandang halimbawa ay isang hula ng mga resulta ng halalan batay sa isang poll ng isang sample ng mga botante.

Central limit theorems- isang klase ng theorems sa probability theory na nagsasaad na ang kabuuan ng isang sapat na malaking bilang ng mahinang umaasa na random variable na may humigit-kumulang sa parehong sukat (wala sa mga termino ang nangingibabaw, hindi gumagawa ng isang mapagpasyang kontribusyon sa kabuuan) ay may distribusyon na malapit sa normal.

Dahil maraming mga random na variable sa mga application ang nabuo sa ilalim ng impluwensya ng ilang mahinang umaasa na random na mga kadahilanan, ang kanilang pamamahagi ay itinuturing na normal. Sa kasong ito, dapat na obserbahan ang kondisyon na wala sa mga salik ang nangingibabaw. Ang mga sentral na teorema ng limitasyon sa mga kasong ito ay nagbibigay-katwiran sa paggamit ng normal na pamamahagi.

Seksyon 6. Mga karaniwang batas sa pamamahagi at numerical na katangian ng mga random na variable

Ang anyo ng mga function F(x), p(x), o ang enumeration p(x i) ay tinatawag na distribution law ng random variable. Bagama't maaaring isipin ng isang tao ang isang walang katapusang pagkakaiba-iba ng mga random na variable, mayroong mas kaunting mga batas ng pamamahagi. Una, ang iba't ibang mga random na variable ay maaaring magkaroon ng eksaktong parehong mga batas sa pamamahagi. Halimbawa: hayaan ang y na kumuha lamang ng 2 halaga 1 at -1 na may probabilidad na 0.5; ang halaga z = -y ay may eksaktong parehong batas sa pamamahagi.
Pangalawa, madalas na ang mga random na variable ay may magkatulad na mga batas sa pamamahagi, ibig sabihin, halimbawa, ang p(x) para sa kanila ay ipinahayag ng mga formula ng parehong anyo, na naiiba lamang sa isa o higit pang mga constant. Ang mga constant na ito ay tinatawag na mga parameter ng pamamahagi.

Bagaman, sa prinsipyo, ang pinaka iba't ibang batas pamamahagi, isasaalang-alang dito ang ilan sa mga pinakakaraniwang batas. Mahalagang bigyang-pansin ang mga kondisyon kung saan lumitaw ang mga ito, ang mga parameter at katangian ng mga distribusyon na ito.

isa. Unipormeng pamamahagi
Ito ang pangalan ng pamamahagi ng isang random na variable na maaaring kumuha ng anumang mga halaga sa pagitan (a,b), at ang posibilidad na mahulog sa anumang segment sa loob (a,b) ay proporsyonal sa haba ng segment at ay hindi nakasalalay sa posisyon nito, at ang posibilidad ng mga halaga sa labas (a,b) ay katumbas ng 0.


Fig 6.1 Function at density ng pare-parehong pamamahagi

Mga parameter ng pamamahagi: a , b

2. Normal na pamamahagi
Pamamahagi na may density na inilarawan ng formula

(6.1)

tinatawag na normal.
Mga parameter ng pamamahagi: a , σ


Figure 6.2 Karaniwang view ng density at normal na distribution function

3 . Pamamahagi ng Bernoulli
Kung ang isang serye ng mga independiyenteng pagsubok ay isinagawa, sa bawat isa sa kung saan ang kaganapan A ay maaaring lumitaw na may parehong probabilidad p, kung gayon ang bilang ng mga paglitaw ng kaganapan ay isang random na variable na ibinahagi ayon sa batas ng Bernoulli, o ayon sa binomial na batas (isa pang pangalan ng pamamahagi).

Narito ang n ay ang bilang ng mga pagsubok sa serye, ang m ay isang random na variable (ang bilang ng mga paglitaw ng kaganapan A), ang P n (m) ay ang posibilidad na ang A ay mangyayari nang eksakto m beses, q \u003d 1 - p (ang posibilidad na hindi lilitaw ang A sa pagsusulit ).

Halimbawa 1: Ang isang die ay iginulong ng 5 beses, ano ang posibilidad na ang isang 6 ay iginulong ng dalawang beses?
n=5, m=2, p=1/6, q=5/6

Mga parameter ng pamamahagi: n, p

apat. Pamamahagi ng Poisson
Ang distribusyon ng Poisson ay nakukuha bilang limiting case ng Bernoulli distribution kung p ay may posibilidad na zero at n ay may posibilidad na infinity, ngunit sa paraang ang kanilang produkto ay nananatiling pare-pareho: np = a. Pormal, ganyan pagpasa sa limitasyon humahantong sa formula

Parameter ng pamamahagi: a

Ang pamamahagi ng Poisson ay napapailalim sa maraming mga random na variable na nakatagpo sa agham at praktikal na buhay.

Halimbawa 2: Bilang ng mga tawag na natanggap sa istasyon ng ambulansya sa isang oras.
Hatiin natin ang agwat ng oras T (1 oras) sa maliliit na agwat dt, upang ang posibilidad ng dalawa o higit pang mga tawag sa panahon ng dt ay bale-wala, at ang posibilidad ng isang tawag p ay proporsyonal sa dt: p = μdt ;
isasaalang-alang namin ang obserbasyon sa mga sandali dt bilang mga independiyenteng pagsubok, ang bilang ng mga naturang pagsubok sa panahong T: n = T / dt;
kung ipagpalagay namin na ang mga posibilidad ng pagtanggap ng mga tawag ay hindi nagbabago sa oras, kung gayon kabuuang bilang ang mga tawag ay sumusunod sa batas ni Bernoulli na may mga parameter: n = T / dt, p = μdt. Hinahayaan ang dt na maging zero, makuha natin na ang n ay may posibilidad na infinity, at ang produkto n × p ay nananatiling pare-pareho: a = n × p = μT.

Halimbawa 3: bilang ng mga molekula perpektong gas sa ilang nakapirming volume V.
Hatiin natin ang volume V sa maliliit na volume dV upang ang posibilidad na makahanap ng dalawa o higit pang mga molekula sa dV ay bale-wala, at ang posibilidad na makahanap ng isang molekula ay proporsyonal sa dV: р = μdV; isasaalang-alang natin ang pagmamasid sa bawat dami ng dV bilang malayang pagsubok, ang bilang ng mga naturang pagsubok n=V/dV; kung ipagpalagay natin na ang mga probabilidad ng paghahanap ng isang molekula saanman sa loob ng V ay pareho, ang kabuuang bilang ng mga molekula sa volume V ay sumusunod sa batas ni Bernoulli na may mga parameter: n = V / dV, p = μdV. Hinahayaan ang dV na maging zero, makuha natin na ang n ay may posibilidad na infinity, at ang produkto n × p ay nananatiling pare-pareho: a = n × p = μV.

Mga de-numerong katangian ng mga random na variable

isa. Pag-asa sa matematika (average na halaga)

Kahulugan:
Ang inaasahan sa matematika ay
  (6.4)

Ang kabuuan ay kinuha sa lahat ng mga halaga na kinukuha ng random variable. Ang serye ay dapat na ganap na nagtatagpo (kung hindi, ang random na variable ay sinasabing walang mathematical na inaasahan)

;   (6.5)

Ang integral ay dapat na ganap na convergent (kung hindi, ang random variable ay sinasabing walang inaasahang halaga)


Mga katangian ng inaasahan sa matematika:

a. Kung may- pare-pareho, pagkatapos ay MS = C
b. Mx = Smx
c. Ang pag-asa sa matematika ng kabuuan ng mga random na variable ay palaging katumbas ng kabuuan ng kanilang mga inaasahan sa matematika: М(х+y) = Мх + Мy d . Ang konsepto ng conditional mathematical expectation ay ipinakilala. Kung ang isang random na variable ay kumukuha ng mga halaga nito x i na may iba't ibang probabilidad p(x i /H j) sa iba't ibang kondisyon H j , pagkatapos ay tinutukoy ang kondisyon na inaasahan

paano o ;   (6.6)

Kung alam ang mga probabilidad ng mga pangyayari H j, ang kumpleto

inaasahang halaga: ;   (6.7)

Halimbawa 4: Ilang beses, sa karaniwan, kailangan mong maghagis ng barya bago lumitaw ang unang coat of arms? Ang problemang ito ay maaaring malutas "sa noo"

x i 1 2 3 ... k..
p(x i) :  ,

ngunit ang halagang ito ay kailangan pa ring kalkulahin. Magagawa mo ito nang mas madali, gamit ang mga konsepto ng conditional at full mathematical expectation. Isaalang-alang ang mga hypotheses H 1 - ang coat of arm ay nahulog sa unang pagkakataon, H 2 - hindi ito nahulog sa unang pagkakataon. Malinaw, p (H 1) \u003d p (H 2) \u003d ½; Mx / H 1 \u003d 1;
Ang Mx / H 2 ay 1 higit pa sa ninanais na buong inaasahan, dahil pagkatapos ng unang paghagis ng barya, ang sitwasyon ay hindi nagbago, ngunit sa sandaling ito ay naihagis na. Gamit ang formula ng buong pag-asa sa matematika, mayroon kaming Mx \u003d Mx / H 1 × p (H 1) + Mx / H 2 × p (H 2) \u003d 1 × 0.5 + (Mx + 1) × 0.5, paglutas ang equation para sa Mx, agad naming makuha ang Mx = 2.

e. Kung ang f(x) ay isang function ng isang random variable x, kung gayon ang konsepto ng matematikal na inaasahan ng isang function ng isang random variable ay tinukoy:

Para sa isang discrete random variable: ;   (6.8)

Ang kabuuan ay kinuha sa lahat ng mga halaga na kinukuha ng random variable. Ang serye ay dapat na ganap na magkakaugnay.

Para sa tuluy-tuloy na random na variable: ;   (6.9)

Ang integral ay dapat na ganap na convergent.

2. Pagkakaiba-iba ng isang random na variable
Kahulugan:
Ang dispersion ng random variable x ay ang mathematical expectation ng squared deviation ng value ng quantity mula sa mathematical expectation nito: Dx = M(x-Mx) 2

Para sa isang discrete random variable: ;   (6.10)

Ang kabuuan ay kinuha sa lahat ng mga halaga na kinukuha ng random variable. Ang serye ay dapat na convergent (kung hindi, ang random na variable ay sinasabing walang pagkakaiba)

Para sa tuluy-tuloy na random na variable: ;   (6.11)

Ang integral ay dapat magtagpo (kung hindi, ang random variable ay sinasabing walang pagkakaiba)

Mga katangian ng pagpapakalat:
a. Kung ang C ay isang pare-parehong halaga, kung gayon ang DC = 0
b. DС = С 2 Dх
c. Ang pagkakaiba-iba ng kabuuan ng mga random na variable ay palaging katumbas ng kabuuan ng kanilang mga pagkakaiba-iba lamang kung ang mga variable na ito ay independyente (kahulugan ng mga independiyenteng variable)
d. Upang makalkula ang pagkakaiba-iba, maginhawang gamitin ang formula:

Dx = Mx 2 - (Mx) 2 (6.12)

Relasyon ng mga numerical na katangian
at mga parameter ng karaniwang mga distribusyon

pamamahagimga pagpipilianpormulaMxDx
unipormea , b (b+a) / 2(b-a) 2 / 12
normala , σ aσ2
Bernoullin,p npnpq
Poissona aa

Sa pagsasagawa, karamihan sa mga random na variable ay apektado ng malaking bilang ng random na mga kadahilanan, sumunod normal na batas mga pamamahagi ng posibilidad. Samakatuwid, sa iba't ibang aplikasyon ng probability theory, ang batas na ito ay partikular na kahalagahan.

Ang isang random na variable na $X$ ay sumusunod sa normal na probability distribution law kung ang probability distribution density nito ay may sumusunod na form

$$f\left(x\right)=((1)\over (\sigma \sqrt(2\pi )))e^(-(((\left(x-a\right))^2)\over ( 2(\sigma )^2)))$$

Sa eskematiko, ang graph ng function na $f\left(x\right)$ ay ipinapakita sa figure at may pangalang "Gaussian curve". Sa kanan ng graphic na ito ay ang German 10 Mark banknote, na ginagamit kahit bago ang pagpapakilala ng euro. Kung titingnan mong mabuti, makikita mo ang Gaussian curve at ang nakatuklas nito sa perang papel na ito ang pinakadakilang mathematician Carl Friedrich Gauss.

Bumalik tayo sa aming function ng density $f\left(x\right)$ at magbigay ng ilang paliwanag tungkol sa mga parameter ng pamamahagi $a,\ (\sigma )^2$. Ang parameter na $a$ ay nagpapakilala sa sentro ng pagpapakalat ng mga halaga ng random na variable, iyon ay, mayroon itong kahulugan ng inaasahan sa matematika. Kapag nagbago ang parameter na $a$ at nananatiling hindi nagbabago ang parameter na $(\sigma )^2$, mapapansin natin ang paglilipat ng graph ng function na $f\left(x\right)$ kasama ang abscissa axis, habang ang density ang graph mismo ay hindi nagbabago ng hugis nito.

Ang parameter na $(\sigma )^2$ ay ang variance at nagpapakilala sa hugis ng density curve $f\left(x\right)$. Kapag binago ang parameter na $(\sigma )^2$ na may parameter na $a$ na hindi nagbabago, mapapansin natin kung paano nagbabago ang hugis, lumiliit o umuunat, habang hindi lumilipat sa abscissa ang density graph.

Probability ng isang normal na distributed random variable na bumabagsak sa isang naibigay na agwat

Tulad ng nalalaman, ang posibilidad na ang isang random na variable na $X$ ay nahuhulog sa pagitan ng $\left(\alpha ;\ \beta \right)$ ay maaaring kalkulahin $P\left(\alpha< X < \beta \right)=\int^{\beta }_{\alpha }{f\left(x\right)dx}$. Для нормального распределения случайной величины $X$ с параметрами $a,\ \sigma $ справедлива следующая формула:

$$P\kaliwa(\alpha< X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right)$$

Dito ang function na $\Phi \left(x\right)=((1)\over (\sqrt(2\pi )))\int^x_0(e^(-t^2/2)dt)$ ay ang Laplace function . Ang mga halaga ng function na ito ay kinuha mula sa . Ang mga sumusunod na katangian ng function na $\Phi \left(x\right)$ ay maaaring mapansin.

1 . $\Phi \left(-x\right)=-\Phi \left(x\right)$, ibig sabihin, kakaiba ang function na $\Phi \left(x\right)$.

2 . Ang $\Phi \left(x\right)$ ay isang monotonically increases function.

3 . $(\mathop(lim)_(x\to +\infty ) \Phi \left(x\right)\ )=0.5$, $(\mathop(lim)_(x\to -\infty ) \ Phi \ kaliwa(x\right)\ )=-0.5$.

Upang kalkulahin ang mga halaga ng $\Phi \left(x\right)$ function, maaari mo ring gamitin ang $f_x$ function wizard ng Excel package: $\Phi \left(x\right)=NORMDIST\left (x;0;1;1\kanan)-0.5$. Halimbawa, kalkulahin natin ang mga halaga ng function na $\Phi \left(x\right)$ para sa $x=2$.

Ang posibilidad na ang isang normal na ibinabahagi na random na variable na $X\in N\left(a;\ (\sigma )^2\right)$ ay nahuhulog sa isang simetriko ng pagitan na may kinalaman sa inaasahan na $a$ ay maaaring kalkulahin ng formula

$$P\left(\left|X-a\right|< \delta \right)=2\Phi \left({{\delta }\over {\sigma }}\right).$$

Tatlong sigma na panuntunan. Ito ay halos tiyak na ang isang karaniwang ipinamamahagi na random na variable na $X$ ay nahuhulog sa pagitan ng $\left(a-3\sigma ;a+3\sigma \right)$.

Halimbawa 1 . Ang random variable na $X$ ay napapailalim sa normal na probability distribution law na may mga parameter na $a=2,\ \sigma =3$. Hanapin ang posibilidad na ang $X$ ay nahuhulog sa pagitan ng $\left(0,5;1\right)$ at ang probabilidad na ang hindi pagkakapantay-pantay $\left|X-a\right|< 0,2$.

Gamit ang formula

$$P\kaliwa(\alpha< X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right),$$

hanapin ang $P\left(0,5;1\right)=\Phi \left(((1-2)\over (3))\right)-\Phi \left(((0,5-2)\ higit sa (3))\kanan)=\Phi \kaliwa(-0.33\kanan)-\Phi \kaliwa(-0.5\kanan)=\Phi \kaliwa(0.5\kanan)-\Phi \kaliwa(0.33\kanan) =0.191-0.129=$0.062.

$$P\left(\left|X-a\right|< 0,2\right)=2\Phi \left({{\delta }\over {\sigma }}\right)=2\Phi \left({{0,2}\over {3}}\right)=2\Phi \left(0,07\right)=2\cdot 0,028=0,056.$$

Halimbawa 2 . Ipagpalagay na sa panahon ng taon ang presyo ng mga pagbabahagi ng isang partikular na kumpanya ay isang random na variable na ibinahagi ayon sa normal na batas na may inaasahan sa matematika na katumbas ng 50 conventional monetary units at isang standard deviation na katumbas ng 10. Ano ang posibilidad na sa isang random na pinili araw ng panahong tinatalakay, ang presyo para sa bahagi ay magiging:

a) higit sa 70 kumbensyonal na yunit ng pananalapi?

b) mababa sa 50 bawat bahagi?

c) sa pagitan ng 45 at 58 na may kondisyon mga yunit ng pananalapi bawat share?

Hayaang ang random variable na $X$ ang presyo ng mga share ng ilang kumpanya. Ayon sa kundisyon, ang $X$ ay napapailalim sa isang normal na distribusyon na may mga parameter na $a=50$ - inaasahan sa matematika, $\sigma =10$ - karaniwang lihis. Probability $P\left(\alpha< X < \beta \right)$ попадания $X$ в интервал $\left(\alpha ,\ \beta \right)$ будем находить по формуле:

$$P\kaliwa(\alpha< X < \beta \right)=\Phi \left({{\beta -a}\over {\sigma }}\right)-\Phi \left({{\alpha -a}\over {\sigma }}\right).$$

$$a)\ P\left(X>70\right)=\Phi \left(((\infty -50)\over (10))\right)-\Phi \left(((70-50)\ mahigit (10))\kanan)=0.5-\Phi \left(2\right)=0.5-0.4772=0.0228.$$

$$b)\ P\kaliwa(X< 50\right)=\Phi \left({{50-50}\over {10}}\right)-\Phi \left({{-\infty -50}\over {10}}\right)=\Phi \left(0\right)+0,5=0+0,5=0,5.$$

$$c)\ P\kaliwa(45< X < 58\right)=\Phi \left({{58-50}\over {10}}\right)-\Phi \left({{45-50}\over {10}}\right)=\Phi \left(0,8\right)-\Phi \left(-0,5\right)=\Phi \left(0,8\right)+\Phi \left(0,5\right)=$$

Sa kabila ng mga kakaibang pangalan, ang mga karaniwang pamamahagi ay nauugnay sa isa't isa sa medyo intuitive at mga kawili-wiling paraan na nagpapadali sa pag-alala sa kanila at pag-usapan ang tungkol sa kanila nang may kumpiyansa. Ang ilan ay natural na sumusunod, halimbawa, mula sa pamamahagi ng Bernoulli. Oras na para ipakita ang mapa ng mga koneksyong ito.

Ang bawat pamamahagi ay inilalarawan ng isang halimbawa ng distribution density function (DDF). Ang artikulong ito ay tungkol lamang sa mga pamamahagi na ang mga kinalabasan ay − iisang numero. kaya lang, pahalang na axis bawat graph ay isang hanay ng mga posibleng resulta ng numero. Vertical - ang posibilidad ng bawat resulta. Ang ilang mga distribusyon ay discrete - ang kanilang mga kinalabasan ay dapat na mga integer, tulad ng 0 o 5. Ang mga ito ay ipinahiwatig ng mga kalat-kalat na linya, isa para sa bawat kinalabasan, na may taas na tumutugma sa posibilidad ng resultang ito. Ang ilan ay tuluy-tuloy, ang kanilang mga kinalabasan ay maaaring tumagal ng anuman numerical value, gaya ng -1.32 o 0.005. Ang mga ito ay ipinapakita bilang mga siksik na kurba na may mga lugar sa ilalim ng mga seksyon ng kurba na nagbibigay ng mga probabilidad. Ang kabuuan ng mga taas ng mga linya at lugar sa ilalim ng mga kurba ay palaging 1.

I-print ito, gupitin sa may tuldok na linya, at dalhin ito sa iyong pitaka. Ito ang iyong gabay sa bansa ng mga pamamahagi at kanilang mga kamag-anak.

Bernoulli at uniporme

Natugunan mo na ang pamamahagi ng Bernoulli sa itaas, na may dalawang resulta - mga ulo o buntot. Isipin ito ngayon bilang isang pamamahagi sa 0 at 1, 0 ang mga ulo at 1 ang mga buntot. Tulad ng malinaw na, ang parehong mga resulta ay pantay na malamang, at ito ay makikita sa diagram. Ang Bernoulli PDF ay naglalaman ng dalawang linya parehong taas kumakatawan sa 2 pantay na malamang na mga resulta: 0 at 1, ayon sa pagkakabanggit.

Ang pamamahagi ng Bernoulli ay maaari ding kumatawan sa hindi pantay na mga resulta, tulad ng pag-flip ng maling barya. Kung gayon ang posibilidad ng mga ulo ay hindi 0.5, ngunit ang ilang iba pang halaga p, at ang posibilidad ng mga buntot ay magiging 1-p. Tulad ng maraming iba pang mga distribusyon, ito ay talagang isang buong pamilya ng mga pamamahagi na binigyan ng ilang mga parameter, tulad ng p sa itaas. Kapag iniisip mo ang "Bernoulli" - isipin ang tungkol sa "paghagis ng isang (posibleng mali) na barya."

Kaya naman napaka maliit na hakbang bago magpresenta ng distribusyon sa ilang equiprobable na resulta: isang pare-parehong pamamahagi na nailalarawan sa pamamagitan ng isang patag na PDF. Kinakatawan ang tama dais. Ang kanyang mga kinalabasan 1-6 ay pantay na malamang. Maaari itong itakda para sa anumang bilang ng mga resulta n, at maging bilang isang tuluy-tuloy na pamamahagi.

pagisipan pare-parehong pamamahagi bilang isang "tamang dice".

Binomial at hypergeometric

Ang binomial distribution ay maaaring isipin bilang kabuuan ng mga kinalabasan ng mga bagay na sumusunod sa Bernoulli distribution.

I-flip ang isang tapat na barya ng dalawang beses - ilang beses ito magiging ulo? Ito ay isang numero na sumusunod sa binomial distribution. Ang mga parameter nito ay n, ang bilang ng mga pagsubok, at ang p ay ang posibilidad ng "tagumpay" (sa aming kaso, mga ulo o 1). Ang bawat roll ay isang resulta ng Bernoulli na ipinamamahagi, o pagsubok. Gamitin ang binomial distribution kapag binibilang ang bilang ng mga tagumpay sa mga bagay tulad ng paghagis ng barya, kung saan ang bawat paghagis ay independiyente sa iba at may parehong posibilidad ng tagumpay.

O isipin ang isang urn na may parehong bilang ng puti at itim na bola. Ipikit ang iyong mga mata, bunutin ang bola, isulat ang kulay nito at ibalik ito. Ulitin. Ilang beses na nabunot ang itim na bola? Ang numerong ito ay sumusunod din sa binomial distribution.

Ito kakaibang sitwasyon ipinakilala namin upang mas madaling maunawaan ang kahulugan ng hypergeometric distribution. Ito ang pamamahagi ng parehong numero, ngunit sa isang sitwasyon kung tayo hindi ibalik ang mga bola. Tiyak na ito pinsan binomial distribution, ngunit hindi pareho, dahil ang posibilidad ng tagumpay ay nagbabago sa bawat bola na iginuhit. Kung ang bilang ng mga bola ay sapat na malaki kumpara sa bilang ng mga draw, kung gayon ang mga distribusyon na ito ay halos pareho, dahil ang pagkakataon ng tagumpay ay nagbabago nang kaunti sa bawat draw.

Kapag ang isang tao ay nagsasalita tungkol sa pagguhit ng mga bola mula sa mga urn nang hindi bumabalik, halos palaging ligtas na sabihin ang "oo, hypergeometric distribution", dahil sa aking buhay ay hindi pa ako nakakakilala ng sinuman na talagang pupunuin ang mga urn ng mga bola at pagkatapos ay ilabas ito at ibabalik ang mga ito , o kabaliktaran. Wala man lang akong kaibigan na may urn. Mas madalas, ang distribusyon na ito ay dapat lumabas kapag pumipili ng makabuluhang subset ng ilang pangkalahatang populasyon bilang sample.

Tandaan. transl.

Maaaring hindi ito masyadong malinaw dito, ngunit dahil ang tutorial at ang express course para sa mga baguhan, ito ay kinakailangan upang ipaliwanag. Ang populasyon ay isang bagay na gusto nating suriin ayon sa istatistika. Upang matantya, pipili kami ng isang partikular na bahagi (subset) at ginagawa ang kinakailangang pagtatantya dito (pagkatapos ang subset na ito ay tinatawag na sample), sa pag-aakalang magiging katulad ang pagtatantya para sa buong populasyon. Ngunit para ito ay maging totoo, ang mga karagdagang paghihigpit ay madalas na kinakailangan sa kahulugan ng isang subset ng sample (o vice versa, mula sa isang kilalang sample, kailangan nating suriin kung ito ay naglalarawan sa populasyon ng sapat na tumpak).

Isang praktikal na halimbawa - kailangan nating pumili ng mga kinatawan mula sa isang kumpanya ng 100 katao upang maglakbay sa E3. Nabatid na 10 katao na ang bumiyahe dito noong nakaraang taon (ngunit walang kinikilala). Gaano karaming minimum ang dapat kunin upang hindi bababa sa isang karanasang kasama ang malamang na nasa grupo? Sa kasong ito populasyon- 100, pagpili - 10, mga kinakailangan sa pagpili - kahit isa na nakabiyahe na sa E3.

Ang Wikipedia ay may hindi gaanong nakakatawa ngunit mas praktikal na halimbawa tungkol sa mga may sira na bahagi sa isang batch.

lason

Paano ang bilang ng mga customer na tumatawag hotline sa teknikal na suporta bawat minuto? Ito ay isang kinalabasan na ang pamamahagi ay binomial sa unang tingin, kung isasaalang-alang namin ang bawat segundo bilang isang pagsubok sa Bernoulli, kung saan ang customer ay hindi tumatawag sa (0) o tumatawag sa (1). Ngunit alam na alam ng mga organisasyon ng suplay ng kuryente: kapag nakapatay ang kuryente, maaaring tumawag ang dalawang tao sa isang segundo. o kahit higit sa isang daan ng mga tao. Ang pagpapakita nito bilang 60,000 millisecond na mga pagsubok ay hindi rin nakakatulong - marami pang pagsubok, ang posibilidad ng isang tawag sa bawat millisecond ay mas mababa, kahit na hindi ka magbilang ng dalawa o higit pa sa parehong oras, ngunit, sa teknikal, hindi pa rin ito isang Pagsusulit ni Bernoulli. Gayunpaman, gumagana ang lohikal na pangangatwiran sa paglipat sa kawalang-hanggan. Hayaan n pumunta sa infinity at p pumunta sa 0, upang ang np ay pare-pareho. Ito ay tulad ng paghahati sa mas maliit at mas maliliit na bahagi ng oras na may mas kaunting pagkakataon na makatawag. Sa limitasyon, nakukuha namin ang pamamahagi ng Poisson.

Tulad ng binomial distribution, ang Poisson distribution ay isang quantity distribution: ang dami ng beses na may nangyari. Ito ay naparametrize hindi ng probabilidad p at ang bilang ng mga pagsubok n, ngunit sa pamamagitan ng average na intensity λ, na, sa pagkakatulad sa binomial, ay simpleng pare-pareho ang halaga n.p. Ang pamamahagi ng Poisson ay kung ano kailangan tandaan pagdating sa pagbibilang ng mga kaganapan para sa tiyak na oras sa isang palaging ibinigay na intensity.

Kapag may isang bagay tulad ng mga packet na dumarating sa isang router o mga customer na lumilitaw sa isang tindahan o isang bagay na naghihintay sa linya, isipin ang Poisson.

Geometric at negatibong binomial

Mula sa mga simpleng pagsubok Lumilitaw ang Bernoulli ng isa pang pamamahagi. Ilang beses lumalabas ang isang barya bago ito lumabas sa ulo? Ang bilang ng mga buntot ay sumusunod sa isang geometric na pamamahagi. Tulad ng pamamahagi ng Bernoulli, ito ay parametrized ng posibilidad ng isang matagumpay na resulta, p. Hindi ito naparametrize ng bilang n, ang bilang ng mga pagsubok, dahil ang bilang ng mga nabigong pagsubok ay tiyak ang kinalabasan.

Kung ang binomial distribution ay "ilang tagumpay", ang geometric distribution ay "Ilang mga pagkabigo bago ang tagumpay?".

Ang negatibong binomial distribution ay isang simpleng generalization ng nauna. Ito ang bilang ng mga pagkabigo bago magkaroon ng r, hindi 1, mga tagumpay. Samakatuwid, ito ay karagdagang parametrized ng r na ito. Minsan ito ay inilalarawan bilang ang bilang ng mga tagumpay bago ang mga pagkabigo. Ngunit, gaya ng sabi ng aking coach sa buhay: "Ikaw ang magpapasya kung ano ang tagumpay at kung ano ang kabiguan", kaya ito ay pareho, kung hindi mo malilimutan na ang posibilidad p ay dapat ding tamang probabilidad tagumpay o kabiguan, ayon sa pagkakabanggit.

Kung kailangan mo ng biro upang maibsan ang tensyon, maaari mong banggitin na ang binomial at hypergeometric distributions ay isang halatang pares, ngunit ang geometric at negatibong binomial distribution ay halos magkapareho, at pagkatapos ay sabihin ang "Well, sino ang tumatawag sa kanilang lahat ng ganoon, ha? ”

Exponential at Weibull

Muli tungkol sa mga tawag sa teknikal na suporta: gaano katagal bago ang susunod na tawag? Ang pamamahagi ng oras ng paghihintay na ito ay tila geometriko, dahil bawat segundo hanggang sa walang tumatawag ay parang isang pagkabigo, hanggang sa pangalawa, hanggang sa tuluyang maganap ang tawag. Ang bilang ng mga pagkabigo ay tulad ng bilang ng mga segundo hanggang sa walang tumawag, at ito ay halos oras hanggang sa susunod na tawag, ngunit "praktikal" ay hindi sapat para sa amin. Ang pangunahing punto ay ang oras na ito ay ang kabuuan ng buong segundo, at sa gayon ay hindi posibleng kalkulahin ang paghihintay sa loob ng segundong ito hanggang sa mismong tawag.

Well, tulad ng dati, pumunta kami sa geometric na pamamahagi sa limitasyon, tungkol sa pagbabahagi ng oras - at voila. Nakakakuha kami ng exponential distribution , na tumpak na naglalarawan sa oras bago ang tawag. ito patuloy na pamamahagi, nasa amin ang una, dahil hindi naman sa buong segundo ang kinalabasan. Tulad ng pamamahagi ng Poisson, ito ay na-parametrize ng intensity λ.

Echoing ang koneksyon sa pagitan ng binomial at ang geometric, Poisson's "ilang mga kaganapan sa isang oras?" ay nauugnay sa exponential na "gaano katagal bago ang kaganapan?". Kung may mga kaganapan na ang bilang sa bawat yunit ng oras ay sumusunod sa pamamahagi ng Poisson, kung gayon ang oras sa pagitan ng mga ito ay sumusunod sa exponential distribution na may parehong parameter na λ. Ang sulat na ito sa pagitan ng dalawang distribusyon ay dapat tandaan kapag ang alinman ay tinalakay.

Dapat isipin ang exponential distribution kapag iniisip ang tungkol sa "time to event", marahil "time to failure". Sa katunayan, ito ay isang mahalagang sitwasyon kung kaya't mayroong higit pang mga pangkalahatang pamamahagi upang ilarawan ang MTBF, tulad ng pamamahagi ng Weibull. Bagama't naaangkop ang exponential distribution kapag ang wear o failure rate ay, halimbawa, pare-pareho, ang Weibull distribution ay maaaring magmodelo ng tumataas (o bumababa) na rate ng pagkabigo sa paglipas ng panahon. Exponential, sa pangkalahatan, isang espesyal na kaso.

Isipin ang Weibull pagdating sa MTBF.

Normal, lognormal, Student's at chi-square

Ang normal, o Gaussian, na pamamahagi ay marahil ang isa sa pinakamahalaga. Makikilala agad ang hugis kampana nito. Tulad ng , ito ay isang partikular na kakaibang nilalang na nagpapakita ng sarili saanman, kahit na mula sa pinaka panlabas mga simpleng mapagkukunan. Kumuha ng isang hanay ng mga halaga na sumusunod sa parehong pamamahagi - anuman! - at tiklupin ang mga ito. Ang pamamahagi ng kanilang kabuuan ay napapailalim sa (tinatayang) normal na pamamahagi. Ang mas maraming mga bagay ay summed up, mas malapit ang kanilang kabuuan ay tumutugma sa isang normal na distribusyon (panlinlang: ang distribusyon ng mga termino ay dapat na predictable, maging independyente, ito ay karaniwang normal lamang). Na ito ay gayon, sa kabila ng orihinal na pamamahagi, ay kamangha-manghang.

Tandaan. transl.

Nagulat ako na ang may-akda ay hindi sumulat tungkol sa pangangailangan para sa isang maihahambing na sukat ng mga summable distribution: kung ang isa ay makabuluhang nangingibabaw sa iba, ito ay magsasama-sama nang labis. At, sa pangkalahatan, hindi kinakailangan ang ganap na pagsasarili sa isa't isa, sapat na ang mahinang pag-asa.

Well, ito ay marahil para sa mga partido, tulad ng isinulat niya.


Ito ay tinatawag na "central limit theorem", at kailangan mong malaman kung ano ito, kung bakit ito tinawag na iyon at kung ano ang ibig sabihin nito, kung hindi man ay agad nilang tatawanan ito.

Sa konteksto nito, ang normal ay nauugnay sa lahat ng distribusyon. Bagaman, karaniwang, ito ay nauugnay sa pamamahagi ng lahat ng mga halaga. Ang kabuuan ng mga pagsubok sa Bernoulli ay sumusunod sa isang binomial na pamamahagi at, habang dumarami ang bilang ng mga pagsubok, ang binomial na pamamahagi na ito ay papalapit ng papalapit sa isang normal na pamamahagi. Katulad nito, ang pinsan nito ay ang hypergeometric distribution. Pamamahagi ng Poisson - form ng limitasyon binomial - lumalapit din sa normal na may pagtaas sa parameter ng intensity.

Ang mga resulta na sumusunod sa isang pamamahagi ng lognormal ay nagbibigay ng mga halaga na ang logarithm ay karaniwang ipinamamahagi. O sa ibang paraan: ang exponent ng isang normal na ibinabahagi na halaga ay lognormal na ipinamamahagi. Kung ang mga kabuuan ay karaniwang ipinamamahagi, pagkatapos ay tandaan din na ang mga produkto ay lognormal na ipinamamahagi.

Ang t-distribution ng mag-aaral ay ang batayan ng t-test, na pinag-aaralan ng maraming non-statistician sa ibang larangan. Ito ay ginagamit upang gumawa ng mga pagpapalagay tungkol sa mean ng isang normal na distribusyon at may posibilidad din sa isang normal na distribusyon habang tumataas ang parameter nito. Natatanging katangian Ang t-distribution ay ang mga buntot nito, na mas makapal kaysa sa normal na distribution.

Kung ang fat-tailed na anekdota ay hindi nayanig ang iyong kapitbahay, magpatuloy sa isang medyo nakakatawang kuwento ng beer. Mahigit 100 taon na ang nakalilipas, gumamit ang Guinness ng mga istatistika upang mapabuti ang pagiging mataba nito. Pagkatapos ay nag-imbento si William Seely Gosset ng isang ganap na bago teorya ng istatistika para sa pinabuting paglilinang ng barley. Nakumbinsi ni Gosset ang boss na hindi mauunawaan ng ibang mga brewer kung paano gamitin ang kanyang mga ideya at nakakuha ng pahintulot na i-publish ito, ngunit sa ilalim ng pseudonym na "Estudyante". Karamihan sikat na tagumpay Ang Gosset ay ang mismong t-distribution na ito, na, maaaring sabihin ng isa, ay ipinangalan sa kanya.

Sa wakas, ang pamamahagi ng chi-square ay ang distribusyon ng mga kabuuan ng mga parisukat ng mga normal na ipinamamahaging dami. Ang isang chi-square na pagsubok ay binuo sa distribusyon na ito, batay mismo sa kabuuan ng mga squared na pagkakaiba, na dapat ay karaniwang ipinamamahagi.

Gamma at beta

Sa puntong ito, kung pinag-uusapan mo na ang tungkol sa isang bagay na chi-square, ang pag-uusap ay magsisimula nang taimtim. Malamang na nakikipag-usap ka na sa mga tunay na istatistika, at malamang na sulit na yumuko na, dahil maaaring lumabas ang mga bagay tulad ng pamamahagi ng gamma. Ito ay isang paglalahat at exponential at pamamahagi ng chi-squared. Tulad ng exponential distribution, ginagamit ito para sa mga kumplikadong modelo ng latency. Halimbawa, lumilitaw ang pamamahagi ng gamma kapag na-simulate ang oras sa susunod na n kaganapan. Lumilitaw ito sa machine learning bilang isang "conjugate prior" sa ilang iba pang mga distribusyon.

Huwag pumasok sa usapan tungkol sa mga conjugate distribution na ito, ngunit kung gagawin mo, huwag kalimutang banggitin ang beta distribution, dahil ito ang conjugate prior ng karamihan sa mga distribution na binanggit dito. Sigurado ang mga data scientist na ito mismo ang ginawa para dito. Banggitin ito nang hindi sinasadya at pumunta sa pintuan.

Ang Simula ng Karunungan

Ang mga pamamahagi ng posibilidad ay isang bagay na hindi mo masyadong alam. Ang tunay na interesado ay maaaring sumangguni sa napaka-detalyadong mapa na ito ng lahat ng probability distribution Magdagdag ng mga tag

Tulad ng nalalaman, random variable tinawag variable, na maaaring tumagal sa ilang mga halaga depende sa kaso. Ang mga random na variable ay nagpapahiwatig malaking titik alpabetong Latin(X, Y, Z) at ang kanilang mga halaga sa kani-kanilang maliliit na titik (x, y, z). Ang mga random na variable ay nahahati sa discontinuous (discrete) at tuluy-tuloy.

Discrete random variable ay tinatawag na random variable na kumukuha lamang ng finite o infinite (countable) set of values ​​na may ilang non-zero probabilities.

Ang batas ng pamamahagi ng isang discrete random variable ay isang function na nag-uugnay sa mga halaga ng isang random na variable sa kanilang kaukulang probabilities. Maaaring tukuyin ang batas sa pamamahagi sa isa sa mga sumusunod na paraan.

1 . Ang batas sa pamamahagi ay maaaring ibigay ng talahanayan:

kung saan λ>0, k = 0, 1, 2, … .

sa) sa pamamagitan ng paggamit function ng pamamahagi F(x) , na tumutukoy para sa bawat halaga x ang posibilidad na ang random variable X ay kukuha ng halagang mas mababa sa x, ibig sabihin. F(x) = P(X< x).

Mga katangian ng function F(x)

3 . Ang batas sa pamamahagi ay maaaring itakda nang graphical – distribution polygon (polygon) (tingnan ang problema 3).

Tandaan na upang malutas ang ilang mga problema, hindi kinakailangang malaman ang batas sa pamamahagi. Sa ilang mga kaso, ito ay sapat na upang malaman ang isa o higit pang mga numero na nagpapakita ng karamihan mahahalagang katangian batas sa pamamahagi. Maaari itong isang numero na may kahulugan ng "average na halaga" ng isang random na variable, o isang numero na nagpapakita ang average na laki paglihis ng random variable mula sa mean value nito. Ang mga numero ng ganitong uri ay tinatawag na mga numerical na katangian ng isang random na variable.

Pangunahing mga katangiang numero discrete random variable :

  • Pag-asa sa matematika (mean value) ng isang discrete random variable M(X)=Σ x i p i.
    Para sa binomial distribution M(X)=np, para sa Poisson distribution M(X)=λ
  • Pagpapakalat discrete random variable D(X)=M2 o D(X) = M(X 2) − 2. Ang pagkakaiba X–M(X) ay tinatawag na paglihis ng isang random na variable mula sa inaasahan ng matematika nito.
    Para sa binomial distribution D(X)=npq, para sa Poisson distribution D(X)=λ
  • Karaniwang lihis (karaniwang lihis) σ(X)=√D(X).

Mga halimbawa ng paglutas ng mga problema sa paksang "Ang batas ng pamamahagi ng isang discrete random variable"

Gawain 1.

Inisyu ang 1000 mga tiket sa lottery: 5 sa kanila ay nakakuha ng panalo sa halagang 500 rubles, 10 - isang panalo ng 100 rubles, 20 - isang panalo ng 50 rubles, 50 - isang panalo ng 10 rubles. Tukuyin ang batas ng probability distribution ng random variable X - mga panalo sa bawat tiket.

Solusyon. Ayon sa kondisyon ng problema, posible ang mga sumusunod na halaga random variable X: 0, 10, 50, 100 at 500.

Ang bilang ng mga tiket na hindi nanalo ay 1000 - (5+10+20+50) = 915, pagkatapos ay P(X=0) = 915/1000 = 0.915.

Sa katulad na paraan, nakita namin ang lahat ng iba pang mga probabilidad: P(X=0) = 50/1000=0.05, P(X=50) = 20/1000=0.02, P(X=100) = 10/1000=0.01 , P(X =500) = 5/1000=0.005. Ipinakita namin ang nagresultang batas sa anyo ng isang talahanayan:

Hanapin ang mathematical na inaasahan ng X: M(X) = 1*1/6 + 2*1/6 + 3*1/6 + 4*1/6 + 5*1/6 + 6*1/6 = (1 + 2+3+4+5+6)/6 = 21/6 = 3.5

Gawain 3.

Ang aparato ay binubuo ng tatlong independiyenteng mga elemento ng operating. Ang posibilidad ng pagkabigo ng bawat elemento sa isang eksperimento ay 0.1. Gumuhit ng batas sa pamamahagi para sa bilang ng mga nabigong elemento sa isang eksperimento, bumuo ng polygon ng pamamahagi. Hanapin ang distribution function na F(x) at i-plot ito. Hanapin ang mathematical expectation, variance at standard deviation ng isang discrete random variable.

Solusyon. 1. Ang discrete random variable X=(bilang ng mga nabigong elemento sa isang eksperimento) ay mayroong sumusunod posibleng mga halaga: x 1 \u003d 0 (wala sa mga elemento ng device ang nabigo), x 2 \u003d 1 (isang elemento ang nabigo), x 3 \u003d 2 (dalawang elemento ang nabigo) at x 4 \u003d 3 (tatlong elemento ang nabigo).

Ang mga pagkabigo ng mga elemento ay independiyente sa bawat isa, ang mga posibilidad ng pagkabigo ng bawat elemento ay katumbas ng bawat isa, samakatuwid, ito ay naaangkop Formula ni Bernoulli . Dahil, sa pamamagitan ng kundisyon, n=3, p=0.1, q=1-p=0.9, tinutukoy namin ang mga probabilidad ng mga halaga:
P 3 (0) \u003d C 3 0 p 0 q 3-0 \u003d q 3 \u003d 0.9 3 \u003d 0.729;
P 3 (1) \u003d C 3 1 p 1 q 3-1 \u003d 3 * 0.1 * 0.9 2 \u003d 0.243;
P 3 (2) \u003d C 3 2 p 2 q 3-2 \u003d 3 * 0.1 2 * 0.9 \u003d 0.027;
P 3 (3) \u003d C 3 3 p 3 q 3-3 \u003d p 3 \u003d 0.1 3 \u003d 0.001;
Suriin: ∑p i = 0.729+0.243+0.027+0.001=1.

Kaya, ang gustong binomial distribution law X ay may anyo:

Sa abscissa axis, inilalagay namin ang mga posibleng halaga x i, at sa ordinate axis, ang kaukulang probabilities р i . Bumuo tayo ng mga puntos na M 1 (0; 0.729), M 2 (1; 0.243), M 3 (2; 0.027), M 4 (3; 0.001). Ang pagkonekta sa mga puntong ito sa mga segment ng linya, makuha namin ang nais na polygon ng pamamahagi.

3. Hanapin ang distribution function F(x) = P(X

Para sa x ≤ 0 mayroon tayong F(x) = P(X<0) = 0;
para sa 0< x ≤1 имеем F(x) = Р(Х<1) = Р(Х = 0) = 0,729;
para sa 1< x ≤ 2 F(x) = Р(Х<2) = Р(Х=0) + Р(Х=1) =0,729+ 0,243 = 0,972;
para sa 2< x ≤ 3 F(x) = Р(Х<3) = Р(Х = 0) + Р(Х = 1) + Р(Х = 2) = 0,972+0,027 = 0,999;
para sa x > 3 ito ay magiging F(x) = 1, dahil tiyak ang kaganapan.

Graph ng function na F(x)

4. Para sa binomial distribution X:
- inaasahan sa matematika М(X) = np = 3*0.1 = 0.3;
- pagpapakalat D(X) = npq = 3*0.1*0.9 = 0.27;
- karaniwan karaniwang lihisσ(X) = √D(X) = √0.27 ≈ 0.52.