ცენტრალური ლიმიტის თეორემა MS EXCEL-ში. მარკეტინგის ენციკლოპედია

ვინაიდან აპლიკაციებში მრავალი შემთხვევითი ცვლადი ყალიბდება რამდენიმე სუსტად დამოკიდებული შემთხვევითი ფაქტორის გავლენის ქვეშ, მათი განაწილება ნორმალურად ითვლება. ამ შემთხვევაში უნდა იყოს დაცული პირობა, რომ არცერთი ფაქტორი არ არის დომინანტი. ცენტრალური ლიმიტის თეორემები ამ შემთხვევებში ამართლებს ნორმალური განაწილების გამოყენებას.

ენციკლოპედიური YouTube

  • 1 / 5

    დაე არსებობდეს დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ცვლადების უსასრულო თანმიმდევრობა სასრული მათემატიკური მოლოდინით და დისპერსიით. აღნიშნე ბოლო µ (\displaystyle \mu)და σ 2 (\displaystyle \sigma ^(2)), შესაბამისად. დაე ასევე

    . S n − μ n σ n → N (0 , 1) (\displaystyle (\frac (S_(n)-\mu n)(\sigma (\sqrt (n))))\ to N(0,1) )განაწილების გზით,

    სადაც N (0 , 1) (\displaystyle N(0,1))- ნორმალური განაწილება ნულოვანი მათემატიკური მოლოდინით და ერთის ტოლი სტანდარტული გადახრით. პირველის ნიმუშის აღნიშვნა n (\displaystyle n)რაოდენობით, ანუ X ¯ n = 1 n ∑ i = 1 n X i (\displaystyle (\bar (X))_(n)=(\frac (1)(n))\sum \limits _(i=1)^( n)X_(i)), შეგვიძლია გადავიწეროთ ცენტრალური ლიმიტის თეორემის შედეგი შემდეგი სახით:

    n X ¯ n − μ σ → N (0 , 1) (\displaystyle (\sqrt (n))(\frac ((\bar (X))_(n)-\mu)(\sigma ))\to N(0,1))განაწილებით at n → ∞ (\displaystyle n\to \infty).

    კონვერგენციის სიჩქარე შეიძლება შეფასდეს  Berry- Esseen უტოლობის გამოყენებით.

    შენიშვნები

    • არაფორმალურად რომ ვთქვათ, კლასიკური ცენტრალური ლიმიტის თეორემა აცხადებს, რომ ჯამი n (\displaystyle n)დამოუკიდებელ იდენტურად განაწილებულ შემთხვევით ცვლადებს აქვს განაწილება ახლოს N (n μ , n σ 2) (\ჩვენების სტილი N(n\mu ,n\sigma ^(2))). ექვივალენტურად, X¯n (\displaystyle (\bar(X))_(n))აქვს განაწილება ახლოს N (μ, σ 2 / n) (\displaystyle N(\mu,\sigma ^(2)/n)).
    • ვინაიდან სტანდარტული ნორმალური განაწილების განაწილების ფუნქცია უწყვეტია, ამ განაწილებასთან დაახლოება უდრის განაწილების ფუნქციების წერტილოვანი კონვერგენციის სტანდარტული ნორმალური განაწილების განაწილების ფუნქციას. Აყენებს Z n = S n − μ n σ n (\displaystyle Z_(n)=(\frac (S_(n)-\mu n)(\sigma (\sqrt (n))))), ვიღებთ F Z n (x) → Φ (x) , ∀ x ∈ R (\displaystyle F_(Z_(n))(x)\ to \Phi (x),\;\ყველა x\ in \mathbb (R) ), სად Φ (x) (\displaystyle \Phi (x))არის სტანდარტული ნორმალური განაწილების განაწილების ფუნქცია.
    • ცენტრალური ლიმიტის თეორემის კლასიკური ფორმულირება დასტურდება დამახასიათებელი ფუნქციების მეთოდით (ლევის უწყვეტობის თეორემა).
    • ზოგადად რომ ვთქვათ, სიმკვრივეების დაახლოება არ გამომდინარეობს განაწილების ფუნქციების კონვერგენციიდან. მიუხედავად ამისა, ამ კლასიკურ შემთხვევაში, ეს ასეა.

    ადგილობრივი C.P.T.

    კლასიკური ფორმულირების დაშვებით, დამატებით დავუშვათ, რომ შემთხვევითი ცვლადების განაწილება ( X i ) i = 1 ∞ (\displaystyle \(X_(i)\)_(i=1)^(\infty ))აბსოლუტურად უწყვეტი, ანუ მას აქვს სიმკვრივე. მაშინ განაწილება ასევე აბსოლუტურად უწყვეტია და უფრო მეტიც,

    f Z n (x) → 1 2 π e − x 2 2 (\displaystyle f_(Z_(n))(x)\to (\frac (1)(\sqrt (2\pi )))\,e^ (-(\frac (x^(2))(2))))ზე n → ∞ (\displaystyle n\to \infty),

    სადაც f Z n (x) (\ჩვენების სტილი f_(Z_(n))(x))- შემთხვევითი ცვლადის სიმკვრივე Z n (\displaystyle Z_(n)), და მარჯვენა მხარეს არის სტანდარტული ნორმალური განაწილების სიმკვრივე.

    განზოგადებები

    კლასიკური ცენტრალური ლიმიტის თეორემის შედეგი მოქმედებს ბევრად უფრო ზოგადი სიტუაციებისთვის, ვიდრე სრული დამოუკიდებლობა და თანაბარი განაწილება.

    C. P. T. Lindeberg

    დაუშვით დამოუკიდებელი შემთხვევითი ცვლადები X 1 , … , X n , … (\displaystyle X_(1),\ldots ,X_(n),\ldots )განსაზღვრულია იმავე ალბათობის სივრცეში და აქვთ სასრული მათემატიკური მოლოდინები და დისპერსიები: E [ X i ] = μ i, D [ X i ] = σ i 2 (\displaystyle \mathbb (E) =\mu _(i),\;\mathrm (D) =\sigma _(i)^( 2)).

    დაე იყოს S n = ∑ i = 1 n X i (\displaystyle S_(n)=\sum \limits _(i=1)^(n)X_(i)).

    მერე E [ S n ] = m n = ∑ i = 1 n μ i , D [ S n ] = s n 2 = ∑ i = 1 n Σ i 2 (\displaystyle \mathbb (E) =m_(n)=\sum \ ლიმიტები _(i=1)^(n)\mu _(i),\;\მათრომი (D) =s_(n)^(2)=\ჯამი \ლიმიტები _(i=1)^(n)\ სიგმა _(i)^(2)).

    და გაუშვით ლინდებერგის მდგომარეობა:

    ∀ ε > 0 , lim n → ∞ ∑ i = 1 n E [ (X i − μ i) 2 s n 2 1 ( | X i − μ i | > ε s n ) ] = 0 , (\displaystyle \forall \varepsilon >0,\;\lim \limits _(n\ to \infty )\sum \limits _(i=1)^(n)\mathbb (E) \left[(\frac ((X_(i)-\ mu _(i))^(2))(s_(n)^(2)))\,\mathbf (1) _(\(|X_(i)-\mu _(i)|>\varepsilon s_ (n)\))\right]=0,)

    სადაც 1 ( | X i − μ i | > ε s n ) (\displaystyle \mathbf (1) _(\(|X_(i)-\mu _(i)|>\varepsilon s_(n)\)))ფუნქცია - ინდიკატორი.

    განაწილებით at n → ∞ (\displaystyle n\to \infty).

    ც.პ.ტ.ლიაპუნოვა

    შესრულდეს ც.პ.ტ.ლინდებერგის ძირითადი ვარაუდები. დაუშვით შემთხვევითი ცვლადები ( X i ) (\displaystyle \(X_(i)\))აქვს სასრული მესამე მომენტი. შემდეგ თანმიმდევრობა

    r n 3 = ∑ i = 1 n E [ | X i − μ i | 3 ] (\displaystyle r_(n)^(3)=\sum _(i=1)^(n)\mathbb (E) \left[|X_(i)-\mu _(i)|^(3 )\მარჯვნივ]).

    თუ ლიმიტი

    lim n → ∞ r n s n = 0 (\displaystyle \lim \limits _(n\ to \infty )(\frac (r_(n))(s_(n)))=0) (ლიაპუნოვის მდგომარეობა), S n − m n s n → N (0 , 1) (\displaystyle (\frac (S_(n)-m_(n))(s_(n)))\ to N(0,1))განაწილებით at n → ∞ (\displaystyle n\to \infty).

    C.P.T.მარტინგალებისთვის

    მოდით პროცესი (X n) n ∈ N (\displaystyle (X_(n))_(n\in \mathbb (N)))არის მარტინგეილი შემოსაზღვრული ნამატებით. კერძოდ, დავუშვათ, რომ

    E [ X n + 1 − X n ∣ X 1 , … , X n ] = 0 , n ∈ N , X 0 ≡ 0 , (\displaystyle \mathbb (E) \left=0,\;n\in \mathbb (N) ,\;X_(0)\ეკვივი 0,)

    და ნამატები ერთნაირად შემოსაზღვრულია, ანუ

    ∃ C > 0 ∀ n ∈ N | X n + 1 − X n | ≤ C (\displaystyle \არსებობს C>0\,\სულ n\in \mathbb (N) \;|X_(n+1)-X_(n)|\leq C) τ n = min ( k | ∑ i = 1 k σ i 2 ≥ n ) (\displaystyle \tau _(n)=\min \left\(k\left\vert \;\sum _(i=1)^ (k)\sigma _(i)^(2)\geq n\right.\right\)). X τ n n → N (0 , 1) (\displaystyle (\frac (X_(\tau _(n)))(\sqrt (n)))\ N(0,1))განაწილებით at n → ∞ (\displaystyle n\to \infty).

    პითონი სამეცნიერო კომპიუტერული მეცნიერების სწავლებისთვის: რიგის სისტემების მოდელირება

    • თარგმანი
    • სახელმძღვანელო

    ანოტაცია

    ამ ნაშრომში წარმოგიდგენთ მეთოდოლოგიას სამეცნიერო ინფორმატიკის დაწყებისთვის განათლებაში მოდელირების საფუძველზე. ჩვენ ვთავაზობთ მრავალფაზიან რიგის სისტემებს შესასწავლი ობიექტების საფუძველს. ჩვენ ვიყენებთ პითონს და პარალელურ გამოთვლებს მოდელების დასანერგად, კოდის და სტოქასტური სიმულაციის შედეგების მიწოდებისთვის.

    1. შესავალი და ფონი

    ჩვენს კვლევაში ჩვენ გვესმის ტერმინის „სამეცნიერო ინფორმატიკის“ მნიშვნელობა, როგორც კომპიუტერების გამოყენება სამეცნიერო და საინჟინრო პრობლემების ანალიზისა და გადასაჭრელად. ჩვენ განვასხვავებთ მათ მარტივი რიცხვითი გამოთვლებისგან. სამეცნიერო ინფორმატიკის გამოყენება სწავლებაში ყოველთვის გამოწვევაა როგორც მოსწავლისთვის, ასევე მასწავლებლისთვის. ასეთი სასწავლო პროცესი ბევრ ტექნიკურ და ინტერდისციპლინურ საკითხს ეხება და ასევე მოითხოვს მათემატიკური ცოდნის კომპიუტერულ მეცნიერებასთან სინქრონიზაციას. ამ გამოწვევების დასაძლევად ჩვენ ვთავაზობთ სწავლების პრინციპებისა და მეთოდოლოგიის ერთობლიობას, რომელიც ეფუძნება სწავლისადმი კონსტრუქტივისტულ მიდგომას და უზრუნველყოფს მასწავლებლის შესაბამის სტრუქტურულ საფუძველს. ეს ყველაფერი საშუალებას აძლევს სტუდენტებს ჩაატარონ გამოთვლითი ექსპერიმენტების სერია კომპიუტერული მოდელებით. ეს მიდგომა ასოცირდება მათემატიკისა და პროგრამირების ცოდნასთან, რომლებიც, თავის მხრივ, ისწავლება ძირითადი სასწავლო გეგმის მსვლელობაში და მჭიდრო კავშირშია მასთან. ჩვენ განვიხილავთ გამოთვლითი სტატისტიკის განყოფილებას, როგორც სამეცნიერო კომპიუტერული მეცნიერების შესავალ განყოფილებას და ამ კვლევის შესაძლო გამოყენების სფეროს. ამ მეთოდოლოგიის ფონი წარმოდგენილია ქვემოთ.

    1.1. სამეცნიერო ინფორმატიკა

    კარნიადაქსმა და კირბი II-მ განსაზღვრეს "კომპიუტერული ინფორმატიკა, როგორც სიმულაციური კვლევის "გული". ავტორები გვთავაზობენ „ჰოლისტურ მიდგომას რიცხვითი ალგორითმების, პროგრამირების თანამედროვე მეთოდებისა და პარალელური გამოთვლების მიმართ... ხშირად ასეთი ცნებები და მსგავსი ხელსაწყოები პერიოდულად იკვლევენ სხვადასხვა დაკავშირებულ კურსებსა და სახელმძღვანელოებში და მათ შორის კავშირი მაშინვე აშკარა ხდება. კონცეფციებისა და ინსტრუმენტების ინტეგრირების აუცილებლობა, როგორც წესი, აშკარა ხდება კურსის დასრულების შემდეგ, მაგალითად, პირველი ასპირანტურის მუშაობის დროს ან სადისერტაციო დისერტაციის წერისას, რითაც აიძულებს სტუდენტს გააერთიანოს სამი დამოუკიდებელი სფეროს გაგება ერთში, მიიღოს საჭირო გადაწყვეტა. მიუხედავად იმისა, რომ ეს პროცესი უდავოდ ძალიან ღირებულია, ის შრომატევადია და, ხშირ შემთხვევაში, შეიძლება არ გამოიწვიოს ცნებებისა და ინსტრუმენტების ეფექტური კომბინაცია. პედაგოგიური თვალსაზრისით, კომპიუტერული მეცნიერების სამეცნიერო თემების გაგების გასაუმჯობესებლად, ჰოლისტიკური, ინტეგრირებული მიდგომა შეუძლია სტუდენტის სტიმულირება ერთდროულად რამდენიმე დისციპლინაში. სურათი 1 წარმოადგენს მეცნიერული კომპიუტერული მეცნიერების განმარტებას, როგორც რიცხვითი მათემატიკის, კომპიუტერული მეცნიერების და მოდელირების კვეთას.


    ბრინჯი. ერთი.სამეცნიერო ინფორმატიკა.

    1.2. კონსტრუქტივიზმი სწავლაში

    კეინმა და კეინმა თავიანთ ფუნდამენტურ კვლევაში შემოგვთავაზეს სწავლაში კონსტრუქტივიზმის ძირითადი პრინციპები. ჩვენთვის ერთ-ერთი ყველაზე მნიშვნელოვანია შემდეგი: „ტვინი ერთდროულად ამუშავებს ნაწილებს და მთელს“.

    ამრიგად, კარგად ორგანიზებული სასწავლო პროცესი ასახავს ძირეულ დეტალებსა და იდეებს. სიმულაციური მიდგომის გამოყენებით, სიმულაციური მოდელის შექმნის შემდეგ, კვლევის მიზნები აშკარა ხდება. ეს საშუალებას გვაძლევს დავაკვირდეთ შედეგებს და გამოვიტანოთ შესაბამისი დასკვნები.

    1.3. სიმულაციური სწავლება: რატომ მოდელები?

    გიბონსმა 2001 წელს წარმოადგინა სიმულაციური ტრენინგის პროგრამა. ხაზს უსვამს შემდეგ ფუნდამენტურ პრინციპებს:
    • მოსწავლე გამოცდილებას იძენს მოდელებთან ურთიერთობით;
    • მოსწავლე ხსნის სამეცნიერო და საინჟინრო ამოცანებს მოდელის ექსპერიმენტებით;
    • პრობლემების განხილვა და ფორმულირება;
    • კონკრეტული სასწავლო მიზნების განსაზღვრა;
    • გადაწყვეტილების კონტექსტში ყველა საჭირო ინფორმაციის წარდგენა.
    მილარდი და სხვები გვთავაზობენ გაადვილებული სწავლის მოდელს „ინტერაქტიული სიმულაციის“ გამოყენებით. ავტორები წარმოადგენენ თანამედროვე კომპიუტერულ ტექნოლოგიებს, რომელიც დაფუძნებულია „პერსპექტიულ მეთოდოლოგიაზე“ დაფუძნებული „სისტემის დინამიკაზე“. ”პრაქტიკული გამოცდილება მოიცავს ინტერაქტიული… მოდელების აგებას და მათ გამოყენებას ჰიპოთეზებისა და ექსპერიმენტების შესამოწმებლად.”

    ლერერი და შაუბლე ყურადღებას ამახვილებენ მოდელის სხვადასხვა წარმოდგენის ექსპერიმენტებზე: „სტუდენტის სწავლა გაუმჯობესებულია, როდესაც სტუდენტს აქვს შესაძლებლობა შექმნას და გადახედოს მოდელების რამდენიმე ვერსიას და შემდეგ შეადაროს ამ განსხვავებული მოდელების აღწერილობის ადეკვატურობა“.

    1.4. სამეცნიერო ინფორმატიკა განათლების ცენტრში: ექსპერიმენტები მოდელებთან

    Xue გვთავაზობს "სამეცნიერო ინფორმატიკის" სწავლების რეფორმების სწავლებას მოდელირებისა და სიმულაციის გზით. ის გვირჩევს "... გამოიყენონ მოდელირება და სიმულაციები პროგრამირების, მოდელირებისა და მონაცემთა ანალიზის რეალური პრობლემების გადასაჭრელად...". მათემატიკურ განათლებაში გამოიყენება მოდელირებაზე დაფუძნებული სწავლება. ბევრი მოდელი აგებულია Geogebra პროგრამული უზრუნველყოფის გამოყენებით. მოდელები დიდ როლს თამაშობენ სამეცნიერო განათლებაში.

    1.5. რიგის სისტემების სტოქასტური მოდელირება

    ჩვენ გთავაზობთ რიგის სისტემების გამოყენებას მათი საწყისი განმარტებების სიმარტივისა და მოდელირებისა და სიმულაციების ფართო შესაძლებლობების გამო. რიგის თეორია კარგად არის ცნობილი და რიგის სისტემების მოდელირება (QS) ფართოდ გამოიყენება მეცნიერებასა და განათლებაში. მრავალფაზიანი რიგის სისტემები კარგი პლატფორმაა სტუდენტების ექსპერიმენტებისთვის, ისევე როგორც პარალელური გამოთვლების გამოყენება. ასევე არის არაერთი საინტერესო თეორიული შედეგი შესწავლისა და კვლევისთვის.

    1.6. პითონი მეცნიერულ კომპიუტერულ მეცნიერებაზე დაფუძნებული განათლებაში

    პითონი არის ერთ-ერთი ყველაზე პოპულარული პროგრამირების ენა მეცნიერებისა და პედაგოგებისთვის. პითონი ფართოდ გამოიყენება სამრეწველო სამეცნიერო გამოთვლებში. ლანგტანგენი წერს პითონის, როგორც ძირითადი ენის გამოყენების გრძელვადიან გამოცდილებას ოსლოს უნივერსიტეტში მეცნიერების გამოთვლითი სწავლებისთვის. პითონი დაწინაურებულია, როგორც პირველი ენა პროგრამირების შესასწავლად, ასევე გამოთვლითი მეთოდების გაღრმავებული შესწავლისთვის.

    2. საფუძვლები

    მოდელირების დაწყებამდე განვსაზღვროთ ძირითადი მიდგომები, რომლებსაც გამოვიყენებთ პროცესში. ამ თავში შევეხებით შემთხვევითი რიცხვების გენერირებას და ალბათობათა განაწილებას, სტოქასტურ მოდელობას. განვიხილოთ ალბათობის ელემენტარული თეორია. ამ ექსპერიმენტების მთავარი ამოცანა იქნება ცენტრალური ლიმიტის თეორემის ექსპერიმენტული დადასტურება. ამ მოდელების მოდელები და ექსპერიმენტები აზუსტებს ფსევდო და კვაზი შემთხვევითი რიცხვების გენერატორების პრინციპს, ასევე აცნობიერებს ექსპონენციალურ განაწილებას. ეს შეიძლება იყოს საფუძველი QS მოდელების უფრო დეტალური ექსპერიმენტებისთვის.

    2.1. შემთხვევითი ცვლადები და განაწილებები

    ალბათობის თეორიის ყველა ელემენტი ტრადიციულად რთულად გასაგებად ითვლება და ყოველთვის საერთაშორისო საგანმანათლებლო დაწესებულებების ინტერესის სფეროშია. ამავდროულად, ეს კითხვები მნიშვნელოვან როლს თამაშობს სამეცნიერო კვლევაში. მოდელირების მიდგომა ამ მასალის გაგებას აადვილებს. მოდელი, რომელსაც ამ სტატიაში განვიხილავთ, არის ერთი ან მეტი კამათლის გორების მარტივი მოდელი, დაწყებული ერთით და დამთავრებული რამდენიმეთ.

    ამ შესავალი ექსპერიმენტების ამოცანა საკმაოდ რთულია. ჩვენ არა მხოლოდ შევხედავთ ალბათობის განაწილებას, არამედ შევეხებით მოდელირებას და პარალელურ გამოთვლებს. ჩვენ ასევე გადავდგამთ ერთი ნაბიჯით წინ მეცნიერულ კვლევაში: ექსპერიმენტულად დავამტკიცებთ ცენტრალური ლიმიტის თეორემას.

    ჩვენ დავიწყებთ შემთხვევითი რიცხვების გენერირებით (განაწილებაზე გავლენის გარეშე). შემდეგ ჩვენ ავხსნით ერთნაირად განაწილებულ შემთხვევით ცვლადებს. დისკუსიები ჭეშმარიტი შემთხვევითობისა და კვაზი შემთხვევითობის შესახებ წარმოდგენილია ავტორების მიერ. მოწინავე მოსწავლეებისთვის წარმოდგენილი იქნება ექსპერიმენტების სერია პითონის ფსევდო შემთხვევითი გენერატორით. საწყის ეტაპზე, კვლევის სიცხადისთვის, ჩვენ გავზრდით ტესტების რაოდენობას სიმულაციის შედეგის დაკვირვებით. შემდეგ ეტაპზე გადავალთ უფრო რთულ ექსპერიმენტებზე და პარალელურ გამოთვლებზე. ჩვენ გამოვიყენებთ Python შემთხვევითი ცვლადების მოდულს მოდელირებისთვის, ხოლო mpi4py ბიბლიოთეკას პარალელური გამოთვლებისთვის. პითონის შემთხვევითი მოდული ეფუძნება ფსევდო შემთხვევითი რიცხვების გენერატორს სხვადასხვა განაწილებისთვის. Მაგალითად: random.randint(a,b)აბრუნებს შემთხვევით მთელ რიცხვს N სადაც a ≤ N ≤ b და random.expovariate(lambd)აბრუნებს ექსპონენციურად განაწილებულ შემთხვევით ცვლადებს პარამეტრით 'lambd'. დამატებითი ინფორმაციისთვის იხილეთ პითონის დოკუმენტაცია. კამათლის სროლის მოდელის პროგრამირება ნაჩვენებია სურათზე 2.

    იმპორტი pylab იმპორტი შემთხვევითი_ცდების_რაოდენობა =100 ## აქ ჩვენ ვამსგავსებთ განმეორებით სროლას ერთი ექვსმხრივი კვარცხლბეკის list_of_values ​​= i-სთვის დიაპაზონში(რაოდენობა_ცდა): list_of_values.append(random.randint(1,6)) ბეჭდვა "Trials =" , საცდელ_რაოდენობა, "ჯერ." print "Mean =", pylab.mean(list_of_values) print "სტანდარტული გადახრა =", pylab.std(list_of_values) pylab.hist(list_of_values, bins=) pylab.xlabel("Value") pylab.ylabel("დროების რაოდენობა ") pylab.show()
    ბრინჯი. 2.ერთჯერადი კამათლის როლის მოდელის დაპროგრამება პითონში

    ერთი სამაჯურის სროლის სიმულაციის შედეგები ნაჩვენებია სურათზე 3.


    ბრინჯი. 3.ერთი კამათლის სიმულაციის შედეგები


    ბრინჯი. 4.ალბათობის სიმკვრივის ფუნქციების შედარება

    სასწავლო პროცესი გრძელდება ორი კამათელი სიმულაციური კოდის შეცვლით, რათა დაიწყოს მრავალკამათიანი შემთხვევის განხილვა. კოდი მსგავსია ერთჯერადი კოდის, გარდა ქვემოთ მოცემული კოდის ორი ხაზისა:

    List_of_values.append(random.randint(1, 6) + random.randint(1, 6)) ... pylab.hist(list_of_values, pylab.arange(1.5, 13.5, 1.0)) ...
    გამოთვლების შედეგი ორი კუბის შემთხვევაში ნაჩვენებია სურათზე 5.


    ბრინჯი. 5.საქმე ორი კუბი

    ახლა ჩვენ შეგვიძლია განვიხილოთ ნორმალური განაწილება. ამოცანა, ამ ეტაპზე, არის იმის ჩვენება, თუ როგორ შეესაბამება წინა შემთხვევა რამდენიმე კუბით ნორმალურ განაწილებასთან. შემდეგი პრობლემა გაგვაცნობს საშუალოსა და სტანდარტულ გადახრას. კოდი იგივე რჩება, როგორც ერთჯერადი კვარცხლბეკის შემთხვევაში, გარდა ქვემოთ მოცემული ინსტრუქციებისა:

    List_of_values.append(random.normalvariate(7, 2.4)) ...
    ნორმალური განაწილების სიმულაციის შედეგები ნაჩვენებია სურათზე 6.


    ბრინჯი. 6.სიმულაციის შედეგი ნორმალური განაწილებისთვის

    ბოლო ნაბიჯი არის ექსპონენციალური განაწილების დემონსტრირება. ექსპონენციური განაწილება გამოიყენება სხვადასხვა ტიპის სისტემებში მოთხოვნების ჩამოსვლის მომენტებს შორის ინტერვალების განაწილების (ხანგრძლივობის) მოდელირებისთვის. მათი მოდელირების შედეგები წარმოდგენილია სურათებში 7 და 8.

    იმპორტი pylab იმპორტი შემთხვევითი_ცდის_რაოდენობა = 1000_მომხმარებელთა_რიცხვი_საათში = 10 ## აქ ჩვენ ვახდენთ მომხმარებელთა ჩამოსვლის დროის სიმულაციას = i-სთვის დიაპაზონში (საცდელების რაოდენობა): list_of_values.append(random.expovariate(number_perho_cus) mean(list_of_values) std=pylab.std(list_of_values) print "Trials =", number_of_trials, "times" print "Mean =", mean print "სტანდარტული გადახრა =", std pylab.hist(list_of_values,20) pylab.xlabel( "მნიშვნელობა") pylab.ylabel("ჯერების რაოდენობა") pylab.show()
    ბრინჯი. 7.პითონის მოდელი ექსპონენციალური განაწილებისთვის


    ბრინჯი. რვა.სიმულაციის შედეგი ექსპონენციალური განაწილებისთვის

    2.2. სტოქასტური სიმულაცია

    სტოქასტური მოდელირება სამეცნიერო ინფორმატიკის მნიშვნელოვანი ელემენტია. ჩვენ ყურადღებას გავამახვილებთ მონტე კარლოს მეთოდზე. მოდელის აშენების შემდეგ, ჩვენ შეგვიძლია შემთხვევითი ცვლადების გენერირება და სისტემის სხვადასხვა პარამეტრების ექსპერიმენტი. ამ სტატიის ფარგლებში მონტე კარლოს ექსპერიმენტების მთავარი პუნქტია ტესტების მრავალჯერ გამეორება შედეგების დაგროვებისა და ინტეგრაციის მიზნით. უმარტივესი აპლიკაცია აღწერილი იყო წინა ნაწილში. ტესტების რაოდენობის გაზრდით ჩვენ გავზრდით სიმულაციის შედეგების სიზუსტეს.

    აქ მოსწავლემ უნდა ჩაატაროს გარკვეული რაოდენობის ექსპერიმენტები ამ მარტივი მოდელის გამოყენებით ცდების რაოდენობის გაზრდით. კუბების რაოდენობისა და ცდების რაოდენობის გაზრდით, სტუდენტი განიცდის შედარებით დიდ გამოთვლებს. ეს შესანიშნავი მიზეზია პარალელური გამოთვლების გამოსაყენებლად. პითონის მოდელი რამდენიმე კამათლისთვის ნაჩვენებია სურათზე 9. ხოლო სიმულაციის შედეგები ნაჩვენებია სურათზე 10. შემდეგი ნაბიჯი არის უფრო ზოგადი საკითხების განხილვა, რომლებიც დაკავშირებულია სხვადასხვა რიგის სისტემასთან. QS კლასიფიკაციის მოკლე შესავალი წარმოდგენილია ამ სტატიის შემდეგ ნაწილში. დავიწყოთ M/M/1 სისტემით და უფრო რთული რიგის სისტემებით. სტოქასტური პროცესების ძირითადი ცნებები დეტალურად იქნება განხილული სტატიის ამ ნაწილში. როგორც შესაძლო მაგალითი, შეგვიძლია შემოგთავაზოთ გამომავალი ნაკადის შესწავლის პრობლემა. დავამტკიცოთ, რომ სისტემის გამომავალი M/M/1 არის პუასონის ნაკადი. ამრიგად, შეგროვებული მონაცემები წარმოდგენილი იქნება აგებული გამომავალი ემპირიული ჰისტოგრამის სახით.

    pylab-ის იმპორტი იმპორტის შემთხვევითი_ცდის_რაოდენობა = 150000_კამათლის_რაოდენობა = 200 ## აქ ჩვენ ვახდენთ განმეორებით სროლას ## ცალმხრივი კამათლების სიის_მნიშვნელობების_= i-სთვის დიაპაზონში (ცდის_რაოდენობა): ჯამი=0 j-სთვის დიაპაზონში (ყინულის_რაოდენობა). ): sum+=random.randint(1,6) list_of_values.append(sum) mean=pylab.mean(list_of_values) std=pylab.std(list_of_values) print "Trials =", number_of_trials, "times" print "Mean =" , mean print "სტანდარტული გადახრა =", std pylab.hist(list_of_values,20) pylab.xlabel("Value") pylab.ylabel("ჯერების რაოდენობა") pylab.show()
    ბრინჯი. ცხრა.პითონის სიმულაციის მოდელი გაძლიერებული ნორმალური განაწილებისთვის


    ბრინჯი. ათი.სიმულაციის შედეგი გაფართოებული ნორმალური განაწილებისთვის

    3. მრავალფაზიანი რიგის სისტემები და სტოქასტური მოდელირება

    ქვემოთ მოცემულია QS-ის შესავალი აღწერა მოდელირებისა და სტოქასტიკის ნიუანსების გათვალისწინებით.

    3.1. რიგის სისტემები

    მარტივი რიგის სისტემა შედგება ერთი სერვერისგან, რომელიც ამუშავებს შემომავალ მოთხოვნებს. მარტივი რიგის სისტემის ზოგადი სქემა ნაჩვენებია სურათზე 11. ზოგადად, QS შედგება ერთი ან მეტი სერვერისგან, რომლებიც ამუშავებენ შემომავალ მოთხოვნებს. ასევე შესაძლებელია იყოს ერთი ან მეტი სერვისის საფეხური ერთი ან მეტი სერვისის მოწყობილობით თითოეულ ფაზაში. შემომავალი კლიენტები, რომლებმაც იპოვეს ყველა სერვერი დაკავებული, უერთდებიან ერთ ან მეტ რიგებს სერვისის მოწყობილობების წინ. არსებობს მრავალი აპლიკაცია, რომელიც შეიძლება გამოყენებულ იქნას QS მოდელირებისთვის, როგორიცაა წარმოების სისტემები, საკომუნიკაციო სისტემები, ტექნიკური სისტემები და სხვა. ზოგადი QS შეიძლება ხასიათდებოდეს სამი ძირითადი კომპონენტით: მოთხოვნების ნაკადი, მომსახურების პროცესი და რიგის მეთოდი. განაცხადები შეიძლება მოვიდეს რამდენიმე შეზღუდული ან შეუზღუდავი წყაროდან.


    ბრინჯი. თერთმეტი.მარტივი CMO.

    ბილეთების გაფორმების პროცესი აღწერს, თუ როგორ შემოდის ბილეთები სისტემაში. განვსაზღვროთ
    როგორც დროის ინტერვალი პრეტენზიების ჩამოსვლას შორის და მე-1 მოთხოვნას შორის, მოსალოდნელი (საშუალო) დრო პრეტენზიების ჩამოსვლას შორის, ასევე პრეტენზიების მიღების სიხშირე, როგორც

    ჩვენ ასევე განვსაზღვრავთ, როგორც მომსახურების მოწყობილობების რაოდენობას. მომსახურების მექანიზმი განისაზღვრება ამ ნომრით. თითოეულ სერვერს აქვს საკუთარი რიგი, ასევე მოთხოვნის მომსახურების დროის სავარაუდო განაწილება.

    მოდით განვსაზღვროთ როგორც -ე მოთხოვნის მომსახურების დრო, როგორც მოთხოვნის მომსახურების საშუალო დრო და როგორც მოთხოვნის მომსახურების სიჩქარე.

    წესს, რომელსაც სერვერი იყენებს რიგიდან შემდეგი მოთხოვნის შესარჩევად, ეწოდება QS რიგის დისციპლინა. რიგის ყველაზე გავრცელებული დისციპლინებია: პრიორიტეტი - კლიენტებს ემსახურებიან მათი მნიშვნელობის მიხედვით. FIFO - პირველი მოვიდა პირველი მომსახურე; LIFO - დასტა, ბოლო მოვიდა პირველი ემსახურება. სისტემების გაფართოებული კლასიფიკაცია კენდალის მიხედვით იყენებს 6 სიმბოლოს: A/B/s/q/c/p, სადაც A არის ინტერვალების განაწილება შემოსულ მოთხოვნებს შორის, B არის სერვისის ინტერვალების განაწილება, s არის სერვერების რაოდენობა. q არის მომსახურების დისციპლინები (გამოტოვებული FIFO-სთვის), c – სისტემის სიმძლავრე (გამოტოვებულია უსასრულო რიგებისთვის), p – შესაძლო მოთხოვნების რაოდენობა (გამოტოვებული ღია სისტემებისთვის). მაგალითად, M/M/1 აღწერს პუასონის შეყვანის ნაკადს, ერთ ექსპონენციალურ სერვერს, ერთ უსასრულო FIFO რიგს და კლიენტთა უსასრულო რაოდენობას.

    QS გამოიყენება მეცნიერებისა და ტექნოლოგიების სხვადასხვა სფეროს მოდელირებისთვის და შესასწავლად. მაგალითად, ჩვენ შეგვიძლია მოდელირება და შესწავლა წარმოების ან სატრანსპორტო სისტემების რიგის თეორიის გამოყენებით. უფრო მეტიც, სერვისის მოთხოვნები განიხილება როგორც განაცხადები, ხოლო ტექნიკური პროცედურები, როგორც მომსახურების მექანიზმი. შემდეგი მაგალითია: კომპიუტერები (შესაბამისად, ტერმინალის მოთხოვნები და სერვერის პასუხები), კომპიუტერული მეხსიერების სისტემები მრავალ დისკზე (მონაცემების ჩაწერა/წაკითხვა, საერთო დისკის კონტროლერი), რადიოკავშირები (სატელეფონო სიგნალები, გამეორებები), კომპიუტერული ქსელები (მოთხოვნები). , არხები). ბიოლოგიაში რიგის თეორია შეიძლება გამოყენებულ იქნას ფერმენტული სისტემების მოდელირებისთვის (ცილები, ზოგადი ფერმენტები). ბიოქიმიაში რიგის ქსელის მოდელი შეიძლება გამოყენებულ იქნას LAK ოპერონის მარეგულირებელი ჯაჭვის შესასწავლად.

    3.2. რატომ მრავალფაზიანი?

    განვიხილოთ მრავალფაზიანი QS, რომელიც შედგება რამდენიმე სერვერისგან, რომლებიც დაკავშირებულია სერიაში და აქვს შეუზღუდავი რაოდენობის მოთხოვნა. დრო მოთხოვნებსა და დამუშავების დროს შორის არის დამოუკიდებელი და ექსპონენტურად განაწილებული. რიგი უსასრულოა FIFO სერვისის დისციპლინით. მრავალფაზიანი QS ბუნებრივად ასახავს მრავალბირთვიანი კომპიუტერული სისტემების ტოპოლოგიას. როგორც მოგვიანებით დავინახავთ, თითოეული მოდელი შეიძლება ადვილად დაიწეროს პროგრამირების ენაზე, შეისწავლოს და შეიცვალოს. მოდელი ასევე იძლევა მრავალპროცესირების სხვადასხვა მიდგომის შედარებითი შესწავლის საშუალებას. მრავალფაზიანი QS მოდელი ნაჩვენებია სურათზე 12.


    ბრინჯი. 12.მრავალფაზიანი QS.

    3.3. თეორიული საფუძველი

    სტატისტიკური მოდელირების შემთხვევაში ყოველთვის ვაწყდებით კომპიუტერული კოდის გადამოწმების პრობლემას. ჩვენს პროგრამაში ან ალგორითმში ყოველთვის არის ღია შეცდომის საკითხი. მოდელი არ არის სრულყოფილად ანალიტიკური და ყოველ ჯერზე პროგრამის გაშვებისას გვაქვს სხვადასხვა შემავალი/გამომავალი მონაცემები. ამრიგად, კოდის ან ალგორითმის სისწორის შესამოწმებლად საჭიროა სხვადასხვა მიდგომა (იმისგან, რომელსაც ვიყენებთ სრულად დეტერმინისტული შეყვანის მონაცემების შემთხვევაში). ამ საკითხის გადასაჭრელად უნდა გამოვიყენოთ ზოგიერთი კვლევის თეორიული შედეგები, რომლებიც შეიძლება მოიძებნოს სამეცნიერო ლიტერატურაში. ეს შედეგები გვაძლევს საფუძველს გამომავალი მონაცემების გადამოწმებისა და ანალიზისთვის, ასევე სიმულაციის შედეგების სისწორის პრობლემის გადასაჭრელად.

    ჩვენ გამოვიკვლევთ საჩივრის ბინადრობის დროს მრავალფაზიან QS-ში. აღნიშნეთ როგორც მოთხოვნის სისტემაში ყოფნის დრო, როგორც მომსახურების დრო - აპლიკაცია - ფაზა. იფიქრეთ როგორ - ფაზა.

    არსებობს ისეთი მუდმივი, რომ

    თეორემა. თუ (1) და (2) პირობები დაკმაყოფილებულია, მაშინ

    3.4. სტატისტიკური მოდელირება

    მოდელის აშენების შემდეგ, ჩვენ შეგვიძლია ჩავატაროთ ექსპერიმენტების სერია ამ მოდელით. ეს საშუალებას მოგცემთ შეისწავლოთ სისტემის ზოგიერთი მახასიათებელი. ჩვენ შეგვიძლია გამოვყოთ შემთხვევითი ცვლადები მოსალოდნელი საშუალოთი და გამოვთვალოთ (ქვემოთ მოცემული რეკურსიული განტოლების გამოყენებით) სასურველი მნიშვნელობები შესასწავლად. ეს მნიშვნელობები ასევე იქნება შემთხვევითი (ჩვენ გვაქვს ჩვენი მოდელის შეყვანის მონაცემების სტოქასტურობა - შემთხვევითი დრო მოთხოვნის ჩამოსვლასა და შემთხვევით მომსახურების დროს შორის). შედეგად, ჩვენ შეგვიძლია გამოვთვალოთ ამ შემთხვევითი ცვლადების (ცვლადების) ზოგიერთი პარამეტრი: საშუალო მნიშვნელობა და ალბათობის განაწილება. ჩვენ ამ მეთოდს სტატისტიკურ მოდელირებას ვუწოდებთ მოდელში არსებული შემთხვევითობის გამო. თუ უფრო ზუსტი შედეგებია საჭირო, ჩვენ უნდა გავიმეოროთ ექსპერიმენტები ჩვენი მოდელით და შემდეგ გავაერთიანოთ შედეგები, შემდეგ გამოვთვალოთ ინტეგრალური მახასიათებლები: საშუალო მნიშვნელობა ან სტანდარტული გადახრა. ამას ჰქვია მონტე კარლოს მეთოდი და ის აღწერილია სტატიაში ცოტა მაღლა.

    3.5. განმეორებითი განტოლება

    ადრე აღწერილი QS-ის მოდელირების ალგორითმის შემუშავებისთვის საჭიროა რამდენიმე მათემატიკური კონსტრუქციის ანალიზი. მთავარი ამოცანაა n ნომრით მოთხოვნის ბინადრობის დროის შესწავლა და გამოთვლა ფაზებისგან შემდგარ მრავალფაზიან QS-ში. შეგვიძლია მივცეთ შემდეგი რეკურსიული განტოლება, აღვნიშნოთ: - -ე რიგის ჩამოსვლის დრო; როგორც --ე ფაზის -ე პრეტენზიის მომსახურების დრო; . შემდეგი რეკურსიული განტოლება მოქმედებს ლოდინის დროზე -მე-ე ფაზის -ე რიგისთვის:

    Ვარაუდი. რეკურსიული განტოლება მრავალფაზა QS-ში განაცხადის ყოფნის დროის გამოსათვლელად.

    მტკიცებულება.მართალია, თუ დრო არის , მაშინ ლოდინის დრო -ე რიგის -ე ფაზაში არის 0. ამ შემთხვევაში, ლოდინის დრო -მე რიგის -ე ფაზაში და . ზემოაღნიშნული ორი შემთხვევის გათვალისწინებით, საბოლოოდ მივიღეთ სასურველი შედეგი.

    ახლა ჩვენ შეგვიძლია დავიწყოთ საჭირო ალგორითმების დანერგვა ყველა მიღებული თეორიული შედეგის საფუძველზე.

    4. პითონი მრავალპროცესისთვის

    პითონი, როგორც პროგრამირების ენა, ძალიან პოპულარულია მეცნიერებსა და პედაგოგებს შორის და შეიძლება იყოს ძალიან მიმზიდველი მეცნიერებაზე ორიენტირებული პრობლემების გადასაჭრელად. Python უზრუნველყოფს მძლავრ პლატფორმას მოდელირებისა და სიმულაციისთვის, მათ შორის გრაფიკული უტილიტების, მათემატიკის, სტატისტიკის და მრავალპროცესირების პაკეტების მრავალფეროვნებას. შესრულების დროის შესამცირებლად აუცილებელია პითონის და C კოდების გაერთიანება. ეს ყველაფერი გვაძლევს მძლავრ სამოდელო პლატფორმას სტატისტიკური მონაცემების მისაღებად და შედეგების დამუშავებისთვის. Python-ის ძირითადი ცნებები, რომლებიც ასევე მნიშვნელოვანია მოდელირებაში, არის დეკორატორები, კორუტინები, მოსავლიანობის გამონათქვამები, მრავალპროცესირება და რიგები. ამ პუნქტებს ძალიან კარგად განიხილავს ბისლი თავის წიგნში. ამის მიუხედავად, პროცესთაშორისი კომუნიკაციის ორგანიზების რამდენიმე გზა არსებობს და ჩვენ დავიწყებთ რიგების გამოყენებით, რადგან ეს ძალიან ბუნებრივია QS-ის შესწავლის ფონზე.

    ქვემოთ მოცემულია მულტიპროცესირების გამოყენების უპირატესობების მარტივი მაგალითი კოდის ეფექტურობისა და ეფექტურობის გასაზრდელად. მოსწავლეს შეუძლია გააუმჯობესოს სიმულაციის შედეგები სუპერკომპიუტერებზე ან კლასტერულ სისტემებზე პარალელური გამოთვლების გამოყენებით. ერთის მხრივ, მულტიპროცესირება საშუალებას მოგვცემს დავამთხვიოთ მრავალფაზიანი მოდელი მრავალბირთვიანი პროცესორის რესურსებთან, ხოლო მეორე მხრივ, ჩვენ შეგვიძლია გამოვიყენოთ მრავალპროცესი პარალელური მონტე კარლოს ტესტების სერიის შესასრულებლად. ჩვენ განვიხილავთ ამ ორ მიდგომას შემდეგ ნაწილში. მოტივირებული მოსწავლეებისთვის, ქვემოთ მოცემულია მოკლე შესავალი Python-ით მრავალპროცესირების შესახებ.

    ჩვენ დავიწყებთ mpi4py მოდულის გამოყენებით. ეს მნიშვნელოვანია ძირითადი იდეის წარმოსაჩენად, თუ როგორ მუშაობს MPI. ის უბრალოდ აკოპირებს მოწოდებულ პროგრამას მომხმარებლის მიერ განსაზღვრულ პროცესორის ერთ-ერთ ბირთვში და აერთიანებს შედეგებს collect() მეთოდის გამოყენების შემდეგ. ქვემოთ მოცემულია პითონის კოდის მაგალითი (ნახ. 13) და სიმულაციის შედეგები (ნახ. 14).

    #!/usr/bin/python იმპორტი pylab იმპორტი შემთხვევითი იმპორტი numpy როგორც np mpi4py იმპორტიდან MPI dice=200 trials= 150000 რანგი = MPI.COMM_WORLD.Get_rank() ზომა = MPI.COMM WORLD.Get_size() name = MPI.Get_name = MPI.Get_ () random.seed(rank) ## ყოველი პროცესი - ექვსმხრივი კამათლის მნიშვნელობების ერთი სროლა= np.zeros(ცდები) i-სთვის დიაპაზონში(ცდა): sum=0 j-სთვის დიაპაზონში(კამათელი): sum+=random.randint(l,6) მნიშვნელობები[i]=sum data=np.array(MPI.COMM_WORLD.gather(მნიშვნელობები, root=0)) თუ რანგი == 0: data=data.flatten() mean= pylab.mean(data) std=pylab.std(data) print "Number of trials =", size*trials, "times." print "Mean =", mean print "სტანდარტული გადახრა =", std pylab.hist(data,20) pylab.xlabel("მნიშვნელობა") pylab.ylabel("რაოდენობა") pylab.savefig("multi_dice_mpi.png" )
    ბრინჯი. ცამეტი.პითონის მოდელი გაფართოებული ნორმალური განაწილებისთვის MPI-ის გამოყენებით.


    ბრინჯი. თოთხმეტი.ნორმალური განაწილება MPI-ის გამოყენებით.

    5. საგანმანათლებლო მიდგომა, რომელიც დაფუძნებულია სიმულაციაზე

    მრავალფაზიანი QS გვაძლევს ბირთვს შესაბამისი სიმულაციური მიდგომის შემუშავებისთვის. ეს მიდგომა მოიცავს წინა თავებში აღწერილ ძირითად ცნებებს, ასევე უფრო რთულ თეორიულ შედეგებს და მეთოდებს. ძირითადი იდეები სტოქასტური ხასიათისაა: შემთხვევითი ცვლადები, შემთხვევითი რიცხვითი განაწილებები, შემთხვევითი რიცხვების გენერატორები, ცენტრალური ლიმიტის თეორემა; პითონის პროგრამირების კონსტრუქციები:
    დეკორატორები, კორუტინები და ილუსტრაციების გამონათქვამები. უფრო რთული შედეგები მოიცავს შემდეგ თეორიულ ცნებებს: სისტემაში პრეტენზიის მიერ დახარჯული დრო, QS-ში პრეტენზიის მიერ დახარჯული დროის გამოსათვლელი რეკურსიული განტოლება, სტოქასტური მოდელირების მეთოდები და მულტიპროცესორული ტექნოლოგიები. სურათი 15 გვიჩვენებს საგანმანათლებლო ჩარჩოს აღწერის მთავარ დიაგრამას.


    ბრინჯი. თხუთმეტი.სიმულაციაზე დაფუძნებული საგანმანათლებლო მიდგომა

    ყველა ეს თეორიული და პროგრამული სტრუქტურა საშუალებას აძლევს სტუდენტს ექსპერიმენტი ჩაატაროს მრავალფაზიანი QS-ის სხვადასხვა მოდელზე. ამ ექსპერიმენტების მიზანი ორმხრივია. უპირველეს ყოვლისა, ის აიძულებს სტუდენტებს გააცნობიერონ შემდეგი თანმიმდევრობა, რაც მნიშვნელოვანია ნებისმიერ სამეცნიერო კვლევაში: სწავლისთვის აუცილებელი თეორიული ფაქტები, მათემატიკური მოდელები, პროგრამის სტრუქტურები, კომპიუტერული მოდელები, სტოქასტური მოდელები და სიმულაციის შედეგებზე დაკვირვება. ეს მისცემს სტუდენტს ზოგადი სამეცნიერო კვლევის სრულ სურათს (სურათი 16).


    ბრინჯი. თექვსმეტი.კვლევის არეალი

    ეს მიდგომა საშუალებას მისცემს უფრო ღრმად გაიაზროს სტოქასტური მოდელირება და ძირითადი პროგრამული კონსტრუქციები, როგორიცაა მრავალპროცესი და პარალელური პროგრამირება. ამ დებულებებს უდიდესი მნიშვნელობა აქვს სამეცნიერო გამოთვლის სფეროში.

    5.1. მოდელის ექსპერიმენტები

    ამ განყოფილებაში განვიხილავთ მრავალფაზიანი QS-ის სამ კომპიუტერულ მოდელს. ყველა ეს მოდელი განსხვავდება მათი ფილოსოფიური და ძირითადი მახასიათებლებით. მიუხედავად იმისა, რომ ექსპერიმენტების მიზანია სტატისტიკური მოდელის შექმნა და მრავალფაზიანი სისტემების ძირითადი პარამეტრების შესწავლა, ამ მოდელების კონცეპტუალური იდეები სრულიად განსხვავებულია. ამ ძირითადი იდეების შედარება დაეხმარება სტუდენტს გააცნობიეროს ფუნდამენტური ცნებები, რომლებიც საფუძვლად უდევს პარალელურ გამოთვლებს, მრავალპროცესორულ სტატისტიკურ და სიმულაციური მოდელირებას.

    ჩვენს მიერ წარმოდგენილი პირველი მოდელი ეფუძნება რეალურ დროში ჩაწერას და მას სიმულაციური მოდელი ვუწოდებთ. ის იყენებს პითონის მულტიპროცესორულ მოდულს. ამ მოდელის სიზუსტე დამოკიდებულია time() მეთოდის სიზუსტესა და გარჩევადობაზე. ის შეიძლება იყოს საკმაოდ დაბალი სხვადასხვა ზოგადი დანიშნულების ოპერაციული სისტემების შემთხვევაში და საკმაოდ მაღალი რეალურ დროში სისტემების შემთხვევაში. სტუდენტს შეუძლია შეცვალოს ეს მოდელი ადრე შემოთავაზებული რეკურსიული განტოლების გამოყენებით (სისტემაში სუბიექტის მიერ გატარებული დროის გამოსათვლელად) და შეადაროს შედეგები ორივე შემთხვევაში.

    შემდეგი მოდელი ითვლის სისტემაში შეკვეთის ყოფნის დროს და ეფუძნება სტოქასტურ სიმულაციას. მოდელი პირდაპირ არ იყენებს მრავალპროცესირებას. მრავალპროცესის ემულაცია ხდება პითონის გამონათქვამებში სარგებლის გამოყენებით.

    უახლესი მოდელი წარმოდგენილია აქ Python MPI mpi4py მოდულის გამოყენებით. ის იყენებს რეალურ MPI (მრავალპროცესორული) მიდგომას სტატისტიკური მოდელირებისთვის და ამის გამო შეუძლია გაზარდოს ტესტების რაოდენობა მონტე კარლოს მეთოდით.

    ზოგადად, მოსწავლის ამოცანაა შექმნას ექსპერიმენტების სერია მოწოდებული მოდელებით და მოიპოვოს განმეორებითი ლოგარითმის კანონის ექსპერიმენტული მტკიცებულება მრავალფაზა QS-ში განაცხადის ბინადრობის დროისთვის.

    5.2. სიმულაციური მოდელი მულტიპროცესორული სერვისის გამოყენებით

    ქვემოთ მოცემულია სიმულაციური მოდელი. შესწავლის მთავარი კითხვა არის განსხვავება სიმულაციური მოდელსა და სტატისტიკურ მოდელს შორის. კიდევ ერთი მნიშვნელოვანი საკითხია სიმულაციური მოდელის სისწორე და სიზუსტე. ასევე მნიშვნელოვანია წარმოდგენილი მოდელის სისწორისა და სიზუსტის საკითხი. სტუდენტს შეუძლია შეისწავლოს და შეადაროს სიმულაციის შედეგები სხვადასხვა პარამეტრებზე, როგორიცაა დამუშავების ინტერვალი და სიხშირე, მოთხოვნის რაოდენობა და მომსახურე კვანძების რაოდენობა. მოდელის ზოგადი სქემა ნაჩვენებია სურათზე 17.


    ბრინჯი. 17.სიმულაციური მოდელი

    პროგრამის კოდი კოდი შედგება ორი ძირითადი ნაწილისაგან. პირველი განკუთვნილია უშუალოდ გამოთვლებისთვის, ხოლო შემდეგი არის შედეგების გამოსახატავად. კალკულაციის მოდული შეიცავს სამ ძირითად ფუნქციას: პროდიუსერი() - მოთხოვნების მიღებისა და პირველ ადგილზე განთავსებისთვის; server() - მოთხოვნის მომსახურებისთვის; მომხმარებელი() - შედეგების მისაღებად. ეს პროგრამირების მოდელი ეფუძნება რეალურ სიმულაციას და არ იყენებს მათემატიკურ გამოთვლებს გამოთვლებისთვის. მისი სიზუსტე დამოკიდებულია პითონის დროებითი მოდულის სიზუსტეზე და ზოგადად ოპერაციულ სისტემაზეა დამოკიდებული. მომსახურების მოწყობილობების მუშაობის გაანგარიშება ნაწილდება მრავალპროცესორულ სისტემაში არსებულ სხვადასხვა პროცესებს შორის. ზემოთ მოყვანილი მოდელის განხორციელების კომპიუტერული კოდი ნაჩვენებია სურათზე 18.

    იმპორტი მრავალპროცესური იმპორტის დრო იმპორტი შემთხვევითი იმპორტი numpy როგორც np def სერვერი(input_q,next_q,i): ხოლო True: item = input_q.get() if i==0:item.st=time.time() ## ჩაწერის დაწყების დრო ## (პირველი ფაზა) timc.sleep(random.expovariate(glambda|i])) ##stop ჩაწერის დრო (ბოლო ეტაპი) if i==M-1:item.st=time.time()-item.st next_q.put(item) input_q.task_done() print("სერვერ%d გაჩერება" % i) ##არასდროს დაიბეჭდება რატომ? def producer(sequence,output_q): პუნქტისთვის თანმიმდევრობით: time.sleep(random.expovariate(glambda)) output_q.put(ilem) def users(input_q): "ფინალიზაციის პროცედურები" ## დაიწყეთ დამუშავების დროის ჩაწერა ptime=time. time() in_seq= ხოლო True: item = input_q.get() in_scq+= input_q.task_done() if item.cid == N-1: break print_results(in_seq) print("END") print("დამუშავების დრო წმ. %d" %(time.time()-ptime)) ## შეწყვიტო ჩაწერა დამუშავების დრო printf("CPU გამოყენებულია %d" %(multiprocessing.cpu_count())) def print_resulls(in_seq): "გამომავალი შედეგები" f=open ("out.txt","w") f.write("%d\n" % N) l-სთვის დიაპაზონში(M): f.write("%d%s" % (glambda[t]," ,")) f.write("%d\n" % glambda[M]) t დიაპაზონში(N-1): f.write("%f%s" % (in_seq[t].st," ,")) f.write("%f\n" % (in_seq.st)) f.close() class Client(object): "Class client" def __init__(self,cid,st): self.cid= cid ## კლიენტის ID self.st=st ## მომხმარებლის ყოფნის დრო ###GLOBALS N=100 ## მომხმარებელთა საერთო რაოდენობა ჩამოვიდა M=5 ## სერვერების რაოდენობა ### გლამბდა - ჩამოსვლა + სერვისის სიხშირე ### = მომხმარებლები/დროის ერთეულზე glambda=np.array(+) ###START თუ __name__ == "__main__": all_clients= q= i-სთვის დიაპაზონში(M): serv = multiprocessing.Process(target=server,args=(q[i],q,i)) serv.daemon=True serv.start() cons = multiprocessing.Process(target=consumer,args=(q[M] ,)) cons.start() ### დაიწყეთ კლიენტების "წარმოება" პროდიუსერი(ყველა_კლიენტი,q) i-სთვის q: i.join()
    ბრინჯი. თვრამეტი.პითონის კოდი სიმულაციური მოდელისთვის მულტიპროცესორული სერვისის გამოყენებით.

    შესასწავლი კითხვები:

    • როგორ ხდება გლობალური ცვლადები უზრუნველყოფილი და გაზიარებული პროცესებს შორის?
    • როგორ შევწყვიტოთ სხვადასხვა სერვისის მოწყობილობასთან დაკავშირებული პროცესები?
    • როგორ გადაეცემა ინფორმაციის ნაკადი სხვადასხვა პროცესებს შორის?
    • რაც შეეხება მოდელის სისწორეს?
    • რაც შეეხება მოდელის ეფექტურობას. რამდენი დრო დასჭირდება სხვადასხვა პროცესს ინფორმაციის გაცვლას?
    ახლა შეგვიძლია შედეგების დაბეჭდვა matplotlib მოდულის გამოყენებით და შეგვიძლია ვიზუალურად გავაანალიზოთ შედეგები დიაგრამის მიწოდების შემდეგ. ჩვენ ვხედავთ (სურათი 19), რომ მოდელი საჭიროებს შემდგომ გაუმჯობესებას. ამრიგად, ჩვენ შეგვიძლია გადავიდეთ უფრო ძლიერ მოდელზე.


    ბრინჯი. ცხრამეტი.მულტიპროცესორული სერვისის სიმულაციური მოდელის სიმულაციის შედეგები.

    5.3. ერთეული პროცესის სტატისტიკური მოდელი

    სტატისტიკური მოდელის მთავარი მახასიათებელია შემდეგი: ახლა ჩვენ ვიყენებთ რეკურსიულ განტოლებას სისტემაში შეკვეთის მიერ გატარებული დროის ზუსტად გამოსათვლელად; ჩვენ ვამუშავებთ ყველა მონაცემს ერთ პროცესში პითონის სპეციფიკური კორუტინის ფუნქციის გამოყენებით; ჩვენ ვახორციელებთ მონტე კარლოს სიმულაციების გარკვეულ რაოდენობას გამოთვლების უკეთესი სანდოობისთვის. ეს მოდელი გვაძლევს სისტემაში შეკვეთის გატარებული დროის „ზუსტ“ გამოთვლებს. მოდელის ძირითადი დიაგრამა ნაჩვენებია ნახაზზე 20. მოსწავლეს შეუძლია გამოიკვლიოს განსხვავებები სიმულაციური მოდელსა და სტატისტიკურ მოდელს შორის.


    ბრინჯი. 20.ერთეული პროცესის სტატისტიკური მოდელი

    ზემოაღნიშნული მოდელის განხორციელების პროგრამის კოდი ნაჩვენებია სურათზე 21. სიმულაციის შედეგები ნაჩვენებია ნახაზზე 22.

    #!/usr/bin/python იმპორტის შემთხვევითი იმპორტის დრო იმპორტი numpy როგორც np numpy import linspace def coroutine(func): del start(*args,**kwargs): g = func(*args,**kwargs) g. next() return g return start def print_header(): "Output rezults - header" f=open("out.txt","w") f.write("%d\n" % N) ##პუნქტების რაოდენობა ბეჭდვის შაბლონში f.write("%d\n" % TMPN) t დიაპაზონში(M): f.write("%d%s" % (glambda[t]",")) f.write( "%d\n" % glambda[M]) f.close() def print_results(in_seq): "გამომავალი შედეგები" f=open("out.txt","a") k=() დიაპაზონში i-სთვის( N-2): თუ in_seq[i].cid==template[k]: f.write("%f%s" % (in_seq[i].st,")) k+=1 f.write( "%f\n" % (in_seq.st)) f.close() coroutine def server(i): ST=0 ##sojourn time for the previous client item=None while True: item = (yield item) ## მიიღეთ ელემენტი, თუ ელემენტი == არცერთი: ##new Monte Carlo iteration ST=0 გაგრძელდება ლოდინის_დრო=max(0.0,ST-item.st-item.tau) item.st+=random.expovariate(glambda)+waiting_time ST=item. st def მწარმოებელი(): results= i=0 ხოლო True : if i == N: break c=Client(i,0.,0.) if i!=0: c.tau=random.expovariate(glambda) i+= 1 s-ისთვის p-ში: c=s.send( გ) results+=[c] s-სთვის p-ში: c=s.send(None) ##final signal return results class Client(object): def __init__(self,cid,st,tau): self.cid=cid self .st=st self.tau=tau def params(self): return (self.cid,self.st,self.tau) stt=time.time() N=1000000 ## კლიენტები M=5 ## სერვერები ## შეყვანის/მომსახურების სიხშირე გლამბდა= + MKS=20 ## მონტე კარლოს სიმულაციის შედეგები ## პუნქტების რაოდენობა ბეჭდვის შაბლონში TMPN=N/10000 ##printing template template= map(int,linspace(0,N-1,TMPN) ) print_header() p= i დიაპაზონში(M):p += i დიაპაზონში! MKS): print_results(producer()) print("Step=%d" % i) sys.stdout.write("დამუშავების დრო:%d\n" % int(time.time()-stt))
    ბრინჯი. 21.პითონის კოდი ერთეული პროცესის სტატისტიკური მოდელისთვის


    ბრინჯი. 22.სიმულაციის შედეგები სტატისტიკური მოდელის ერთეული პროცესისთვის

    5.4. სტატისტიკური მოდელი MPI-ზე

    ჩვენი მოდელის შემუშავების შემდეგი ნაბიჯი არის Python MPI მოდულის - mpi4py გამოყენება. ეს გვაძლევს საშუალებას გავუშვათ მეტი მონტე კარლოს სიმულაცია და გამოვიყენოთ კლასტერი მოდელის გასაშვებად და შესამოწმებლად. შემდეგი ნაბიჯი უნდა იყოს მოდელის შემდგომი გაუმჯობესება, რომელიც დაფუძნებულია C პროგრამირების ენის გამოყენებაზე, Python-ისთვის „ნამდვილი“ MPI ან SWIG (https://ru.wikipedia.org/wiki/SWIG) ტექნოლოგიის გამოყენებით. ეს მოდელი თითქმის იდენტურია წინა მოდელის, ერთადერთი განსხვავება ისაა, რომ mpi4py გამოიყენება შედეგების მრავალპროცესისა და ინტეგრაციისთვის (სურათი 23).


    ბრინჯი. 23. MPI-ს სტატისტიკური მოდელი

    წინა მოდელის გარდა, რამდენიმე დამატებითი მოდული უნდა იყოს იმპორტირებული. print_results() ფუნქცია ასევე უნდა გადაიწეროს, რადგან ამ ეტაპზე მეტი ტესტირება გვაქვს. ასევე უნდა გადავიწეროთ პროგრამის ძირითადი ნაწილი. სურათზე 24, ჩვენ მივაწოდეთ კოდის მხოლოდ ის ნაწილი, რომელიც განსხვავდება წინა მოდელის კოდისგან. სიმულაციის შედეგები ნაჩვენებია სურათზე 25.

    sys-ის იმპორტი mpi4py იმპორტიდან MPI .................... def print_results(in_seq): "გამომავალი შედეგები" f=open("out.txt","a") m-სთვის დიაპაზონში(int(size)): j-სთვის დიაპაზონში(MKS): i-სთვის დიაპაზონში(TMPN-l): f.write("%f%s" % (in_seq[m].st,", ")) f.write("%f\n" % (in_seq[m][(TMPN-l)+j*TMPN].st)) f.close() ........... ......... stt=time.time() #დაწყების დრო პროცესის რანგი = MPI.COMM_WORLD.Get_rank() size = MPI.COMM_WORLD.Get_size() name = MPI.Get_processor_name() N= 10 **3 ## კლიენტები M=5 ## სერვერები ## შეყვანის/მომსახურების სიხშირე გლამბდა=+ ## მონტე-კარლოს სიმულაციების რაოდენობა ამ კონკრეტული პროცესისთვის MKS=20 TMPN=200 ## პუნქტების რაოდენობა შაბლონის ბეჭდვის შაბლონში= რუკა (int,linspace(0,N-1,TMPN)) ## ქულა ბეჭდვისთვის p= შედეგები= ## ამ პროცესის შედეგია total_results= ## საერთო შედეგი i დიაპაზონში(M):p += i დიაპაზონში( MKS):results+=producer() total_results=MPI.COMM_WORLD.gather(results,0) random.seed(რანგი) if rank == 0: print_header() print_results(total_results) sys.stdout.write("Processi ng დრო: %d\n" % int(time.time()-stt))
    ბრინჯი. 24.პითონის კოდი სტატისტიკური მოდელისთვის MPI-ზე დაფუძნებული


    ბრინჯი. 25. MPI სტატისტიკური მოდელის სიმულაციის შედეგები

    6. დასკვნები

    ამ სტატიაში განხილულია სიმულაციური სწავლების რამდენიმე მოდელი. ეს მოდელები საშუალებას აძლევს სტუდენტს ჩაატაროს ექსპერიმენტების სერია და გაზარდოს სამეცნიერო კომპიუტერული მეცნიერების დისციპლინის გაგება. წარმოდგენილი მოდელების სირთულის რამდენიმე დონე და ასეთი მოდელების ექსპერიმენტებია. პირველი დონე არის ძირითადი. ეს გვაძლევს შემთხვევითი ცვლადების გააზრებას და ასევე გვაძლევს პირველადი გაგება სამეცნიერო კვლევის სფეროზე. შემდეგი დონე უფრო მოწინავეა და უზრუნველყოფს პარალელური პროგრამირებისა და სტოქასტური სიმულაციის უფრო ღრმა გაგებას. წარმოდგენილია შესაბამისი თეორიული ცოდნა და საჭიროების შემთხვევაში შეიძლება გამოყენებულ იქნას დამატებით მასალად. ეს ყველაფერი იძლევა ძირითად ინსტრუმენტთა ნაკრების სამეცნიერო კომპიუტერული მეცნიერების შესავალს. და ბოლოს, გვინდა რეკომენდაციები გავცეთ მოდელების შემდგომი შესწავლისა და გაუმჯობესებისთვის.

    6.1. QS-ის მოდელისა და სტატისტიკური პარამეტრების წრფივობა

    ამ სტატიაში წარმოდგენილი მრავალფაზიანი QS მოდელი არ არის წრფივი. ეს აშკარა ხდება რეკურსიული განტოლებიდან, რადგან ის შეიცავს არაწრფივ მათემატიკურ ფუნქციას max. თუ გვინდა მივიღოთ სწორი სიმულაციის შედეგები, განსაკუთრებით QS სტატისტიკური პარამეტრების გამოთვლის შემთხვევაში, გამოთვლებისთვის უნდა გამოვიყენოთ ნაწილობრივ წრფივი მოდელი. ეს განსაკუთრებით მნიშვნელოვანია დატვირთული სატრანსპორტო სისტემებისთვის, რადგან წინააღმდეგ შემთხვევაში შეიძლება მივიღოთ საკმაოდ დიდი მცდარი განსხვავება გამოთვლებში.

    6.2. პითონის მოდულის გაფართოებები და პარალელური C პროგრამირება

    გამოცდილი მოსწავლეებისთვის შეიძლება საინტერესო იყოს კოდის ეფექტურობის გაუმჯობესების გაგრძელება. ეს შეიძლება გაკეთდეს Python მოდულების გაფართოებით დანერგილი C ფუნქციებით SWING ტექნოლოგიის გამოყენებით. შესაძლებელია კოდის გამოთვლების გაუმჯობესება და გამოთვლების დაჩქარება Cython-ის, C პროგრამირების ენის, „რეალური“ MPI ტექნოლოგიებისა და HTC (მაღალი შესრულების გამოთვლების) გამოყენებით კლასტერულ სისტემებში.

    6.3. პროგრამული გადაწყვეტილებების ეფექტურობა და შემდგომი განვითარება

    ამ განყოფილებაში სტუდენტს შეუძლია შეისწავლოს სხვადასხვა პროგრამული გადაწყვეტილებების ეფექტურობა. ეს თემა მნიშვნელოვანია ნებისმიერი პროგრამირების მოდელისთვის, რომელიც დაფუძნებულია პარალელურ გამოთვლებზე. მოსწავლეს შეუძლია პროგრამირების სხვადასხვა მოდელის ეფექტურობის შესწავლა და ალგორითმების ეტაპობრივად გაუმჯობესება. აქ მთავარია ინფორმაციის ნაკადების რაოდენობის და გამოთვლების თანაფარდობის შესწავლა სხვადასხვა პროგრამული პროცესებისთვის. ასე რომ, თანაფარდობა მნიშვნელოვანია პარალელური გამოთვლით პროგრამის ყველაზე ეფექტური განვითარების შესაქმნელად. კიდევ ერთი საინტერესო თემაა ალგორითმული სტრუქტურის კლასტერულ HTC სტრუქტურად გადაქცევის შესაძლებლობის შესწავლა.

    კვლევის დამატებით ამოცანად ავტორები განიხილავენ QS-ის მოდელირებას, რომელიც უნდა იყოს მოდელირებული და გაანალიზებული. QS-ის შედარებით რთული ბუნება და შესაბამისი ტიპის აპლიკაციები მოითხოვს უფრო ფართო პროგრამირების ტექნიკის გამოყენებას. ეს უზრუნველყოფს კარგ საბაზისო პლატფორმას საერთო პროგრამირების კონცეფციების განსახორციელებლად, როგორიცაა მემკვიდრეობა, ინკაფსულაცია და პოლიმორფიზმი. მეორეს მხრივ, კომპიუტერული მეცნიერების ძირითადი თეორიული ცნებები ასევე უნდა იყოს დაფარული. ამ ყველაფრის გარდა, QS სტატისტიკური და სიმულაციური მოდელირება მოითხოვს ალბათობის თეორიის უფრო მაღალ ცოდნას, მეტი გამოთვლითი რესურსების გამოყენებას და რეალური სამეცნიერო გამოთვლითი გარემოს უზრუნველყოფას, ასევე მოწინავე სტუდენტისთვის კარგ მოტივაციას.

    ლიტერატურა

    ცნობების სრული სია

    A. Arazi, E. Ben-Jacob and U. Yechiali, Bridging genetic net-works and queuing theory, Physica A: Statistical Mechanics and Its Applications 332 (2004), 585-616.
    დ.მ. ბიზლი, Python Essential Reference, Addison-Wesley Professional, 2009 წ.
    J. Bernard, გამოიყენეთ Python სამეცნიერო გამოთვლისთვის, Linux Journal 175 (2008), 7.
    გაეროს Bhat, შესავალი რიგის თეორიის მოდელირებასა და აპლიკაციებში, ბირკჰაუზერი, ბოსტონი, MA, 2008 წ.
    კ.ჯ. ბოგაცევი, პარალელური პროგრამირების საფუძვლები, Binom, მოსკოვი, 2003 წ.
    რ.ნ. Caine and G. Caine, Making Connections: Teaching and the Human Brain, ასოციაცია ზედამხედველობისა და სასწავლო გეგმის შემუშავებისთვის, ალექსანდრია, 1991 წ.
    ჯ.კლემენტი და მ.ა. რეა, მოდელზე დაფუძნებული სწავლა და სწავლება მეცნიერებაში, Springer, ნიდერლანდები, 2008 წ.
    ნ.ა. კუქსონი, W.H. Mather, T. Danino, O. Mondragón- Palomino, R.J. უილიამსი, ლ. Tsimring and J. Hasty, Quueing up for enzymatic processing: correlated signaling through coupled degradation, Molecular Systems Biology 7 (2011), 1. A.S. Gibbons, მოდელზე ორიენტირებული ინსტრუქცია, ჟურნალი სტრუქტურული სწავლისა და ინტელექტუალური სისტემების 4 (2001), 511–540. მ.ტ. Heath, Scientific Computing an Introductory Survey, McGraw-Hill, New York, 1997 წ.
    ა. ჰელანდერი, სტოქასტური სიმულაცია და მონტე კარლოს მეთოდები, 2009 წ.
    გ.ი. ივჩენკო, ვ.ა. კასტანოვი და ი.ნ. კოვალენკო, რიგის სისტემის თეორია, ვიშაჯა შკოლა, მოსკოვი, 1982 წ.
    ზ.ლ. ჯოელი, ნ.ვ. Wei, J. Louis და T.S. ჩუანი, დისკრეტული მოვლენა
    რიგის სისტემების სიმულაცია, in: Sixth Youth Science Conference, Singapore Ministry of Education, Singapore, 2000, pp. 1–5.
    E. Jones, Introduction to Scientific computing with Python, in: SciPy, California Institute of Technology, Pasadena, CA, 2007, გვ. 333.
    M. Joubert and P. Andrews, Research and Developments in probabilities Education internationally, in: British Congress for Mathematics Education, 2010, გვ. 41.
    გ.ე. კარნიადაკისი და რ.მ. Kyrby, პარალელური სამეცნიერო გამოთვლა C++-ში და MPI-ში. პარალელური ალგორითმებისა და მათი განხორციელების უწყვეტი მიდგომა, კემბრიჯის უნივ. პრესა, 2003 წ.
    დ.გ. კენდალი, რიგების თეორიაში მიმდინარე სტოქასტური პროცესები და მათი ანალიზი ჩანერგილი მარკოვის ჯაჭვის მეთოდით, The Annals of Mathematical Statistics 1 (1953), 338–354.
    ᲥᲐᲚᲑᲐᲢᲝᲜᲘ. ხინი და ი.მ. სალეჰი, მოდელები და მოდელირება, შემეცნებითი ინსტრუმენტები სამეცნიერო კვლევისთვის, წიგნში: Models and Modeling in Science Education, Springer, 2011, გვ. 290.
    T. Kiesling and T. Krieger, Efficient parallel queuing system simulation, in: The 38th Conference on Winter Simulation, Winter Simulation Conference, 2006, pp. 1020–1027 წწ.
    J. Kiusalaas, Numerical Methods in Engineering with Python, Cambridge Univ. პრესა, 2010 წ.
    ა.კუმარი, პითონი განათლებისთვის. მათემატიკისა და მეცნიერების სწავლა პითონის გამოყენებით და მათი დაწერა LATEX-ში, ინტერ უნივერსიტეტის ამაჩქარებლის ცენტრი, ნიუ დელი, 2010 წ.
    ჰ.პ. Langtangen, Python Scripting for Computational Science, Springer-Verlag, ბერლინი, 2009 წ.
    ჰ.პ. ლანგტანგენი, პრაიმერი პითონთან სამეცნიერო პროგრამირების შესახებ, Springer-Verlag, ბერლინი, 2011 წ.
    ჰ.პ. ლანგტანგენი, პითონის, როგორც პირველადი ენის გამოყენების გამოცდილება სამეცნიერო გამოთვლის სწავლებისთვის ოსლოს უნივერსიტეტში, ოსლოს უნივერსიტეტი, 2012 წ.
    R. Lehrer and L. Schauble, Cultivating model-based reasoning in Science Education, in: The Cambridge Handbook of the Learning Sciences, Cambridge Univ. პრესა, 2005, გვ. 371–388 წწ.
    G. Levy, შესავალი კვაზი-შემთხვევითი რიცხვების შესახებ, in: Numerical Algorithms, Group, 2012 წ.
    ჯ.ს. ლიუ, მონტე კარლოს სტრატეგიები სამეცნიერო გამოთვლებში, ჰარვარდის უნივერსიტეტი, 2001 წ.
    ვ.ე. მალიშკინი და ვ.დ. კორნეევი, მულტიკომპიუტერების პარალელური პროგრამირება, ნოვოსიბირსკის ტექნიკური უნივერსიტეტი, ნოვოსიბირსკი, 2006 წ.
    ნ.მატლოფი, პროგრამირება პარალელურ მანქანებზე: GPU, მრავალბირთვიანი, კლასტერები და სხვა, კალიფორნიის უნივერსიტეტი, 2012 წ.
    მ.მილრადი, ჯ.მ. სპექტორი და პ.ი. დევიდსენი, მოდელის ხელშემწყობი სწავლა, in: Instructional Design, Development and Evaluation, Syracuse Univ. პრესა, 2003 წ.
    S. Minkevicius, Iterated logarithm law on multiphase queuing systems, Informatica II (1997), 367–376.
    S. Minkevicius and V. Dolgopolovas, Analysis of the law of iterated logaritm for the idle time of multifaza queues int. J. Pure Appl. Მათემატიკა. 66 (2011), 183–190.
    მოდელზე ორიენტირებული სწავლება, მათემატიკური გაგების გზები გეოგებრას გამოყენებით, in: Modeling and Simulations for Learning and Instruction, Sense Publishers, ნიდერლანდები, 2011 წ.
    C.R. მაიერსი და ჯ. Sethna, Python განათლებისთვის: გამოთვლითი მეთოდები არაწრფივი სისტემებისთვის, Computing in Science & Engineering 9 (2007), 75–79.
    H. Niederreiter, შემთხვევითი რიცხვების გენერაცია და კვაზი-მონტე კარლოს მეთოდები, SIAM, 1992 წ.
    ფ.ბ. ნილსენი, რიგის სისტემები: მოდელირება, ანალიზი და სიმულაცია, ინფორმატიკის დეპარტამენტი, ოსლოს უნივერსიტეტი, ოსლო, 1998 წ.
    რ.პ. Sen, Operations Research: Algorithms and Applications, PHI Learning, 2010. ტეგების დამატება

    Გეგმა:

    1. ცენტრალური ზღვრული თეორემის ცნება (ლიაპუნოვის თეორემა)

    2. დიდი რიცხვების კანონი, ალბათობა და სიხშირე (ჩებიშევისა და ბერნულის თეორემა)

    1. ცენტრალური ზღვრული თეორემის ცნება.

    ალბათობათა ნორმალურ განაწილებას დიდი მნიშვნელობა აქვს ალბათობის თეორიაში. ნორმალური კანონი ემორჩილება ალბათობას სამიზნეზე სროლისას, გაზომვებში და ა.შ. კერძოდ, გამოდის, რომ განაწილების კანონი საკმარისად დიდი რაოდენობის დამოუკიდებელი შემთხვევითი ცვლადების ჯამისთვის თვითნებური განაწილების კანონებით ახლოს არის ნორმალურ განაწილებასთან. ამ ფაქტს ცენტრალური ლიმიტის თეორემა ან ლიაპუნოვის თეორემა ეწოდება.

    ცნობილია, რომ ნორმალურად განაწილებული შემთხვევითი ცვლადები ფართოდ გამოიყენება პრაქტიკაში. რა ხსნის ამას? ამ კითხვაზე პასუხი გაცემულია

    ცენტრალური ლიმიტის თეორემა.თუ შემთხვევითი ცვლადი X არის ძალიან დიდი რაოდენობის ურთიერთდამოუკიდებელი შემთხვევითი ცვლადების ჯამი, რომელთაგან თითოეულის გავლენა მთელ ჯამზე უმნიშვნელოა, მაშინ X აქვს განაწილება ნორმალურ განაწილებასთან ახლოს.

    მაგალითი.მოდით გავზომოთ გარკვეული ფიზიკური რაოდენობა. ნებისმიერი გაზომვა იძლევა გაზომილი სიდიდის მხოლოდ სავარაუდო მნიშვნელობას, ვინაიდან მრავალი დამოუკიდებელი შემთხვევითი ფაქტორი (ტემპერატურა, ხელსაწყოს რყევები, ტენიანობა და ა.შ.) გავლენას ახდენს გაზომვის შედეგზე. თითოეული ეს ფაქტორი წარმოშობს უმნიშვნელო „ნაწილობრივ შეცდომას“. თუმცა, ვინაიდან ამ ფაქტორების რაოდენობა ძალიან დიდია, მათი კუმულაციური ეფექტი წარმოშობს უკვე შესამჩნევ „ტოტალურ შეცდომას“.

    მთლიანი ცდომილების გათვალისწინებით, როგორც ურთიერთდამოუკიდებელ ნაწილობრივი შეცდომების ძალიან დიდი რაოდენობის ჯამს, შეგვიძლია დავასკვნათ, რომ მთლიან შეცდომას აქვს განაწილება ნორმალურ განაწილებასთან ახლოს. გამოცდილება ადასტურებს ამ დასკვნის მართებულობას.

    განვიხილოთ პირობები, რომლებშიც დაკმაყოფილებულია „ცენტრალური ლიმიტის თეორემა“.

    x1,X2, ..., Xარის დამოუკიდებელი შემთხვევითი ცვლადების თანმიმდევრობა,

    (X1),(X2), ...,(X) არის ამ სიდიდეების საბოლოო მათემატიკური მოლოდინი, შესაბამისად ტოლია M(Xk)= აკ

    (X1),(X2), ...,(X) - მათი საბოლოო ვარიაციები, შესაბამისად ტოლია (X )= ბკ2

    შემოგვაქვს აღნიშვნა: S= X1+X2 + ...+Xn;

    A k= X1+X2 + ...+Xn=; B2=D (X1)+(X2)+ ...+(X) =

    ჩვენ ვწერთ ნორმალიზებული ჯამის განაწილების ფუნქციას:

    თანმიმდევრობას ამბობენ x1,X2, ..., Xცენტრალური ლიმიტის თეორემა გამოიყენება, თუ რომელიმესთვის xნორმალიზებული ჯამის განაწილების ფუნქცია, როგორც n ® ¥ მიდრეკილია ნორმალური განაწილების ფუნქციისკენ:

    მარჯვენა "style="border-collapse:collapse;border:none;margin-left:6.75pt;margin-right: 6.75pt">

    განვიხილოთ დისკრეტული შემთხვევითი ცვლადი X, მოცემულია განაწილების ცხრილით:

    მოდით დავსვათ ამოცანა, გამოვთვალოთ ალბათობა იმისა, რომ შემთხვევითი ცვლადის გადახრა მისი მათემატიკური მოლოდინიდან არ აღემატება აბსოლუტურ მნიშვნელობას დადებით რიცხვს. ε

    Თუ ε საკმარისად მცირე, ჩვენ ამგვარად შევაფასებთ ამის ალბათობას Xმიიღებს მნიშვნელობებს საკმარისად ახლოს მის მათემატიკურ მოლოდინს. დაამტკიცა უთანასწორობა, რომელიც გვაძლევს საშუალებას მოგვცემს პროცენტის შეფასება.

    ლემა ჩებიშევი.მოცემულია შემთხვევითი X ცვლადი, რომელიც იღებს მხოლოდ არაუარყოფით მნიშვნელობებს M(X) მოლოდინით. ნებისმიერი რიცხვისთვის α>0, გამოხატულება ხდება:

    ჩებიშევის უთანასწორობა.ალბათობა იმისა, რომ X შემთხვევითი ცვლადის გადახრა მისი მათემატიკური მოლოდინიდან აბსოლუტური სიდიდით ნაკლებია დადებით რიცხვზე ε , არანაკლებ 1 – D(X) / ε 2:

    P(|X-M(X)|< ε ) ³ 1 - D (X) / ε 2.

    კომენტარი.ჩებიშევის უთანასწორობას შეზღუდული პრაქტიკული მნიშვნელობა აქვს, რადგან ის ხშირად იძლევა უხეშ და ზოგჯერ ტრივიალურ (უინტერესო) შეფასებას.

    ჩებიშევის უთანასწორობის თეორიული მნიშვნელობა ძალიან დიდია. ქვემოთ ამ უტოლობას გამოვიყენებთ ჩებიშევის თეორემის გამოსაყვანად.

    2.2. ჩებიშევის თეორემა

    თუ X1, X2, ..., Xn.. არის წყვილი დამოუკიდებელი შემთხვევითი ცვლადები და მათი ვარიაციები ერთნაირად შეზღუდულია (არ აღემატებოდეს მუდმივ რიცხვს C), მაშინ, რაც არ უნდა მცირე იყოს დადებითი რიცხვი. ε , უთანასწორობის ალბათობა

    ÷ (X1+X2 + ...+Xn) / n - (M(X1)+M(X2)+ ...+M(Xn))/n |< ε

    თვითნებურად ახლოს იქნება ერთიანობასთან, თუ შემთხვევითი ცვლადების რაოდენობა საკმარისად დიდია.

    P (÷ (X1+X2 + ...+Xn) / n - (M(X1)+M(X2)+ ...+M(Xn))/n |< ε )=1.

    ჩებიშევის თეორემა ამბობს:

    1. ჩვენ განვიხილავთ დამოუკიდებელი შემთხვევითი ცვლადების საკმარისად დიდ რაოდენობას შეზღუდული დისპერსიებით,

    ჩებიშევის თეორემის ფორმულირებისას ვივარაუდეთ, რომ შემთხვევით ცვლადებს განსხვავებული მათემატიკური მოლოდინი აქვთ. პრაქტიკაში ხშირად ხდება, რომ შემთხვევით ცვლადებს აქვთ იგივე მათემატიკური მოლოდინი. ცხადია, თუ კვლავ ვივარაუდებთ, რომ ამ რაოდენობების დისპერსიები შეზღუდულია, მაშინ მათზე ჩებიშევის თეორემა გამოდგება.

    მოდით აღვნიშნოთ თითოეული შემთხვევითი ცვლადის მათემატიკური მოლოდინი ა;

    განსახილველ შემთხვევაში, მათემატიკური მოლოდინების საშუალო არითმეტიკული, როგორც ადვილი შესამჩნევია, ასევე უდრის ა.

    შეიძლება ჩამოყალიბდეს ჩებიშევის თეორემა განსახილველი კონკრეტული შემთხვევისთვის.

    "თუ X1, X2, ..., Xn.. არის წყვილი დამოუკიდებელი შემთხვევითი ცვლადები, რომლებსაც აქვთ იგივე მათემატიკური მოლოდინი a, და თუ ამ ცვლადების დისპერსიები ერთნაირად შეზღუდულია, მაშინ, რაც არ უნდა მცირე იყოს რიცხვი. ε > ოჰ, უთანასწორობის ალბათობა

    ÷ (X1+X2 + ...+Xn) / n - | < ε

    თვითნებურად ახლოს იქნება ერთიანობასთან, თუ შემთხვევითი ცვლადების რაოდენობა საკმარისად დიდია" .

    სხვა სიტყვებით რომ ვთქვათ, თეორემის პირობებში

    P (÷ (X1+X2 + ...+Xn) / n - a |< ε ) = 1.

    2.3. ჩებიშევის თეორემის არსი

    მიუხედავად იმისა, რომ ცალკეულმა დამოუკიდებელმა შემთხვევითმა ცვლადებმა შეიძლება მიიღონ მნიშვნელობები, რომლებიც შორს არის მათი მათემატიკური მოლოდინებისგან, საკმარისად დიდი რაოდენობის შემთხვევითი ცვლადების საშუალო არითმეტიკული დიდი ალბათობით იღებს მნიშვნელობებს გარკვეულ მუდმივ რიცხვთან, კერძოდ, რიცხვთან.

    (M(Xj) + M (X2)+... + მ (Xn))/nან ნომერზე და შიკონკრეტული შემთხვევა.

    სხვა სიტყვებით რომ ვთქვათ, ცალკეულ შემთხვევით ცვლადებს შეიძლება ჰქონდეს მნიშვნელოვანი გავრცელება და მათი საშუალო არითმეტიკული მიმოფანტული მცირეა.

    ამრიგად, არ შეიძლება დარწმუნებით წინასწარ განსაზღვროთ რა შესაძლო მნიშვნელობას მიიღებს თითოეული შემთხვევითი ცვლადი, მაგრამ შეიძლება ვიწინასწარმეტყველოთ, თუ რა მნიშვნელობას მიიღებს მათი არითმეტიკული საშუალო.

    ასე რომ, საკმარისად დიდი რაოდენობის დამოუკიდებელი შემთხვევითი ცვლადის არითმეტიკული საშუალო (რომელთა ვარიაციები ერთნაირად შეზღუდულია) კარგავს შემთხვევითი ცვლადის ხასიათს.

    ეს აიხსნება იმით, რომ თითოეული სიდიდის გადახრები მათი მათემატიკური მოლოდინებიდან შეიძლება იყოს როგორც დადებითი, ასევე უარყოფითი, ხოლო არითმეტიკული საშუალების მიხედვით ისინი აუქმებენ ერთმანეთს.

    ჩებიშევის თეორემა მოქმედებს არა მხოლოდ დისკრეტული, არამედ უწყვეტი შემთხვევითი ცვლადებისთვისაც; ეს არის მაგალითი, რომელიც ადასტურებს მოძღვრების მართებულობას შემთხვევითობასა და აუცილებლობას შორის კავშირის შესახებ.

    2.4. ჩებიშევის თეორემის მნიშვნელობა პრაქტიკისთვის

    მოვიყვანოთ ჩებიშევის თეორემის გამოყენების მაგალითები პრაქტიკული ამოცანების გადაწყვეტაში.

    როგორც წესი, გარკვეული ფიზიკური სიდიდის გასაზომად კეთდება რამდენიმე გაზომვა და მათი არითმეტიკული საშუალო სასურველ ზომად იღება. რა პირობებში შეიძლება ჩაითვალოს გაზომვის ეს მეთოდი სწორად? ამ კითხვაზე პასუხს გვაძლევს ჩებიშევის თეორემა (მისი კონკრეტული შემთხვევა).

    მართლაც, განიხილეთ თითოეული გაზომვის შედეგები, როგორც შემთხვევითი ცვლადები

    X1, X2, ..., Xn

    ამ რაოდენობებზე, ჩებიშევის თეორემა შეიძლება გამოყენებულ იქნას, თუ:

    1) ისინი წყვილთაგან დამოუკიდებელი არიან.

    2) აქვთ იგივე მათემატიკური მოლოდინი,

    3) მათი დისპერსიები ერთნაირად შეზღუდულია.

    პირველი მოთხოვნა დაკმაყოფილებულია, თუ თითოეული გაზომვის შედეგი არ არის დამოკიდებული სხვების შედეგებზე.

    მეორე მოთხოვნა დაკმაყოფილებულია, თუ გაზომვები ხდება სისტემატური (ერთი ნიშნის) შეცდომების გარეშე. ამ შემთხვევაში, ყველა შემთხვევითი ცვლადის მათემატიკური მოლოდინი იგივეა და ტოლია ჭეშმარიტი ზომის ა.

    მესამე მოთხოვნა დაკმაყოფილებულია, თუ მოწყობილობა უზრუნველყოფს გაზომვის გარკვეულ სიზუსტეს. მიუხედავად იმისა, რომ ინდივიდუალური გაზომვების შედეგები განსხვავებულია, მათი გაფანტვა შეზღუდულია.

    თუ ყველა ეს მოთხოვნა დაკმაყოფილებულია, ჩვენ გვაქვს უფლება გამოვიყენოთ ჩებიშევის თეორემა გაზომვის შედეგებზე: საკმარისად დიდი უთანასწორობის ალბათობა

    | (X1 + Xa+...+Xn)/n - a |< ε თვითნებურად ერთიანობასთან ახლოს.

    სხვა სიტყვებით რომ ვთქვათ, საკმარისად დიდი რაოდენობის გაზომვებით, თითქმის დარწმუნებულია, რომ მათი საშუალო არითმეტიკული თვითნებურად ოდნავ განსხვავდება გაზომილი სიდიდის ნამდვილი მნიშვნელობიდან.

    ჩებიშევის თეორემა მიუთითებს იმ პირობებზე, რომლებშიც შეიძლება გამოყენებული იქნას გაზომვის აღწერილი მეთოდი. თუმცა, მცდარია ვიფიქროთ, რომ გაზომვების რაოდენობის გაზრდით შეიძლება თვითნებურად მაღალი სიზუსტის მიღწევა. ფაქტია, რომ მოწყობილობა თავად იძლევა წაკითხვებს მხოლოდ ± α სიზუსტით, შესაბამისად, თითოეული გაზომვის შედეგი და, შესაბამისად, მათი არითმეტიკული საშუალო მიიღება მხოლოდ იმ სიზუსტით, რომელიც არ აღემატება მოწყობილობის სიზუსტეს.

    სტატისტიკაში ფართოდ გამოყენებული შერჩევის მეთოდი ეფუძნება ჩებიშევის თეორემას, რომლის არსი ის არის, რომ შედარებით მცირე შემთხვევითი ნიმუში გამოიყენება შესასწავლი ობიექტების მთელი პოპულაციის (ზოგადი პოპულაციის) შესაფასებლად.

    მაგალითად, ბამბის ბალიშის ხარისხი ფასდება ბალის სხვადასხვა ნაწილიდან შემთხვევით შერჩეული ბოჭკოებისგან შემდგარი პატარა შეკვრით. მიუხედავად იმისა, რომ შეკვრაში ბოჭკოების რაოდენობა გაცილებით ნაკლებია, ვიდრე ბოჭკოში, თავად შეკვრა შეიცავს ბოჭკოების საკმაოდ დიდ რაოდენობას, რომელთა რიცხვი ასობით აღწევს.

    როგორც სხვა მაგალითი, შეიძლება აღინიშნოს მარცვლის ხარისხის განსაზღვრა მცირე ნიმუშიდან. და ამ შემთხვევაში შემთხვევით შერჩეული მარცვლების რაოდენობა მარცვლის მთელ მასასთან შედარებით მცირეა, მაგრამ თავისთავად საკმაოდ დიდია.

    უკვე მოყვანილი მაგალითებიდან შეიძლება დავასკვნათ, რომ პრაქტიკისთვის ჩებიშევის თეორემა შეუფასებელია.

    2.5. თეორემაბერნული

    წარმოებული დამოუკიდებელი ტესტები (არა მოვლენები, არამედ ტესტები). თითოეულ მათგანში, მოვლენის დადგომის ალბათობა უდრის რ.

    ჩნდება კითხვა,რა იქნება მოვლენის დადგომის შედარებითი სიხშირე? ამ კითხვაზე პასუხობს ბერნულის მიერ დადასტურებული თეორემა, რომელსაც ეწოდა „დიდი რიცხვების კანონი“ და საფუძველი ჩაუყარა ალბათობის თეორიას, როგორც მეცნიერებას.

    ბერნულის თეორემა.თუ თითოეულში დამოუკიდებელი ტესტის ალბათობა მოვლენის დადგომა მაგრამარის მუდმივი, მაშინ ალბათობა იმისა, რომ ფარდობითი სიხშირის გადახრა ალბათობიდან იქნება თვითნებურად მცირე აბსოლუტური მნიშვნელობით, თუ ცდების რაოდენობა საკმარისად დიდია.

    სხვა სიტყვებით რომ ვთქვათ, თუ ε >0 არის თვითნებურად მცირე რიცხვი, მაშინ თეორემის პირობებში გვაქვს ტოლობა

    P(| / n - p|< ε)= 1

    კომენტარი.არასწორი იქნებოდა, ბერნულის თეორემის საფუძველზე დავასკვნათ, რომ ცდების რაოდენობის მატებასთან ერთად, ფარდობითი სიხშირე სტაბილურად მიდრეკილია ალბათობისკენ. R;სხვა სიტყვებით რომ ვთქვათ, ბერნულის თეორემა არ გულისხმობს თანასწორობას (t/n) = p,

    ATთეორემა ეხება მხოლოდ იმ ალბათობას, რომ საკმარისად დიდი რაოდენობის ცდაში, ფარდობითი სიხშირე თვითნებურად მცირედ განსხვავდებოდეს მოვლენის დადგომის მუდმივი ალბათობისგან თითოეულ საცდელში.

    ამოცანა 7-1.

    1. შეაფასეთ ალბათობა, რომ 3600 სროლის შემდეგ 6 შემთხვევა იქნება მინიმუმ 900.

    გადაწყვეტილება.მოდით x იყოს 6 ქულის შემთხვევების რაოდენობა 3600 მონეტის გადაგდებაში. ერთ დარტყმაში 6 ქულის მიღების ალბათობა არის p=1/6, შემდეგ M(x)=3600 1/6=600. ჩვენ ვიყენებთ ჩებიშევის უტოლობას (ლემა) მოცემული α = 900-ისთვის

    = (x³ 900) £ 600 / 900 = 2 / 3

    უპასუხე 2 / 3.

    2. ჩატარდა 1000 დამოუკიდებელი ტესტი, p=0.8. იპოვეთ A მოვლენის შემთხვევების რაოდენობის ალბათობა ამ ტესტებში, გადახრის მათემატიკური მოლოდინის მოდულს 50-ზე ნაკლები.

    გადაწყვეტილება. x არის A მოვლენის შემთხვევების რაოდენობა n - 1000 ცდაში.

    M (X) \u003d 1000 0.8 \u003d 800. D(x)=100 0.8 0.2=160

    ჩვენ ვიყენებთ ჩებიშევის უტოლობას მოცემული ε = 50-ისთვის

    P(|x-M(x)|< ε) ³ 1 - D (x) / ε 2

    R(|x-800|< 50) ³ / 50 2 = 1-160 / 2500 = 0,936.

    უპასუხე. 0,936

    3. ჩებიშევის უტოლობის გამოყენებით შეაფასეთ ამის ალბათობა |X - M(X)|< 0,1, если D (X) = 0,001. Ответ Р³0,9.

    4. მოცემული: P(|X- M(X)\< ე) ³ 0,9; (X)= 0.004. ჩებიშევის უტოლობის გამოყენებით იპოვეთ ε . უპასუხე. 0,2.

    აკონტროლეთ კითხვები და ამოცანები

    1. ცენტრალური ლიმიტის თეორემის დანიშნულება

    2. ლიაპუნოვის თეორემის გამოყენებადობის პირობები.

    3. განსხვავება ლემასა და ჩებიშევის თეორემას შორის.

    4. ჩებიშევის თეორემის გამოყენებადობის პირობები.

    5. ბერნულის თეორემის გამოყენებადობის პირობები (დიდი რიცხვების კანონი)

    ცოდნისა და უნარების მოთხოვნები

    მოსწავლემ უნდა იცოდეს ცენტრალური ლიმიტის თეორემის ზოგადი სემანტიკური ფორმულირება. შეძლოს დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ცვლადების ნაწილობრივი თეორემების ფორმულირება. გაიგეთ ჩებიშევის უტოლობა და დიდი რიცხვების კანონი ჩებიშევის ფორმაში. გქონდეთ წარმოდგენა მოვლენის სიხშირეზე, "ალბათობა" და "სიხშირე" ცნებებს შორის ურთიერთობაზე. გაიგეთ დიდი რიცხვების კანონი ბერნულის სახით.

    (1857-1918), გამოჩენილი რუსი მათემატიკოსი

    ალბათობის თეორიის ზღვრული თეორემები

    ჩებიშევის უთანასწორობა

    მოდით განვიხილოთ რამდენიმე დებულება და თეორემა ეგრეთ წოდებული ალბათობის თეორიის ზღვრული თეორემების დიდი ჯგუფიდან, დაამყაროს კავშირი შემთხვევითი ცვლადების თეორიულ და ექსპერიმენტულ მახასიათებლებს შორის მათზე დიდი რაოდენობით ტესტებით. ისინი ქმნიან მათემატიკური სტატისტიკის საფუძველს. ზღვრული თეორემები პირობითად იყოფა ორ ჯგუფად. თეორემების პირველი ჯგუფი, ე.წ დიდი რიცხვების კანონი, ადგენს საშუალო მნიშვნელობების სტაბილურობას, ე.ი. ცდების დიდი რაოდენობით, მათი საშუალო შედეგი წყვეტს შემთხვევითობას და შესაძლებელია პროგნოზირებადი საკმარისი სიზუსტით. თეორემების მეორე ჯგუფი, ე.წ ცენტრალური ლიმიტი, ადგენს იმ პირობებს, რომლითაც შემთხვევითი ცვლადების დიდი რაოდენობის ჯამის განაწილების კანონი განუსაზღვრელი ვადით უახლოვდება ნორმალურს.

    პირველ რიგში, განიხილეთ ჩებიშევის უტოლობა, რომელიც შეიძლება გამოყენებულ იქნას: ა) შემთხვევით ცვლადებთან დაკავშირებული მოვლენების ალბათობის უხეშად შესაფასებლად, რომელთა განაწილება უცნობია; ბ) დიდი რიცხვების კანონის მთელი რიგი თეორემების მტკიცებულება.

    თეორემა 7.1. თუ შემთხვევითი ცვლადი Xაქვს მათემატიკური მოლოდინი და განსხვავება DX, შემდეგ ჩებიშევის უთანასწორობა

    . (7.1)

    გაითვალისწინეთ, რომ ჩებიშევის უტოლობა შეიძლება დაიწეროს სხვა ფორმით:

    ამისთვის სიხშირეებიან მოვლენები დამოუკიდებელი ცდები, რომელთაგან თითოეულში ეს შეიძლება მოხდეს ალბათობით , რომლის განსხვავებაც არის , ჩებიშევის უტოლობას აქვს ფორმა

    უტოლობა (7.5) შეიძლება გადაიწეროს როგორც

    . (7.6)

    მაგალითი 7.1.ჩებიშევის უტოლობის გამოყენებით შეაფასეთ შემთხვევითი ცვლადის გადახრის ალბათობა Xმისი მათემატიკური მოლოდინიდან სამ სტანდარტულ გადახრაზე ნაკლები იქნება, ე.ი. უფრო პატარა.

    გადაწყვეტილება:

    ფორმულით (7.2) დაშვებით, ვიღებთ

    ამ შეფასებას ე.წ სამი სიგმის წესი.

    ჩებიშევის თეორემა

    დიდი რიცხვების კანონის ძირითად დებულებას შეიცავს ჩებიშევის თეორემა. მასში და დიდი რიცხვების კანონის სხვა თეორემებში გამოყენებულია ცნება "შემთხვევითი ცვლადების დაახლოება ალბათობაში".

    შემთხვევითი ცვლადები თანხვედრა ალბათობით A მნიშვნელობამდე (შემთხვევითი ან არა შემთხვევითი), თუ რომელიმესთვის მოვლენის ალბათობა at მიდრეკილია ერთიანობისკენ, ე.ი.

    (ან ). ალბათობის კონვერგენცია სიმბოლურად იწერება შემდეგნაირად:

    უნდა აღინიშნოს, რომ ალბათობის დაახლოებამოითხოვს უთანასწორობის შენარჩუნებას წევრთა დიდი უმრავლესობისთვისთანმიმდევრობები (მათემატიკურ ანალიზში - ყველასთვის n > N, სად - გარკვეული რიცხვი), და თანმიმდევრობის თითქმის ყველა წევრისთვის უნდა მოხვდეს ε- სამეზობლო მაგრამ.

    თეორემა 7.3 (დიდი რიცხვების კანონი P.L. Chebyshev-ის სახით). თუ შემთხვევითი ცვლადები არიან დამოუკიდებლები და არის რიგი C> 0, რომელიც შემდეგ ნებისმიერისთვის

    , (7.7)

    იმათ. ამ შემთხვევითი ცვლადების საშუალო არითმეტიკული ალბათობით კონვერგირდება მათი მათემატიკური მოლოდინების საშუალო არითმეტიკასთან:

    .

    მტკიცებულება. Მას შემდეგ

    .

    შემდეგ, ჩებიშევის უტოლობის (7.2) გამოყენებით შემთხვევით ცვლადზე, გვაქვს

    იმათ. შემთხვევითი ცვლადების საშუალო არითმეტიკული ალბათობით გადადის მათემატიკურ მოლოდინს :

    მტკიცებულება. როგორც

    და შემთხვევითი ცვლადების ვარიაციები, ანუ შემოსაზღვრულია, შემდეგ ჩებიშევის თეორემის (7.7) გამოყენებით მივიღებთ მტკიცებას (7.9).

    ჩებიშევის თეორემის დასკვნა ამართლებს შემთხვევითი ცვლადების „საშუალო არითმეტიკულის“ პრინციპს. Х იმუდმივად გამოიყენება პრაქტიკაში. დიახ, დაე ეს მოხდეს ზოგიერთი სიდიდის დამოუკიდებელი გაზომვები, რომელთა ნამდვილი მნიშვნელობა (უცნობია). თითოეული გაზომვის შედეგი არის შემთხვევითი ცვლადი Х ი. დასკვნის მიხედვით, რაოდენობის მიახლოებითი მნიშვნელობა თქვენ შეგიძლიათ აიღოთ გაზომვის შედეგების საშუალო არითმეტიკული:

    .

    თანასწორობა რაც უფრო ზუსტია, მით მეტი .

    ჩებიშევის თეორემა ასევე ეფუძნება სტატისტიკაში ფართოდ გავრცელებულს შერჩევის მეთოდი, რომლის არსი იმაში მდგომარეობს, რომ დიდი რაოდენობით ერთგვაროვანი მასალის ხარისხი მისი მცირე ნიმუშით შეიძლება ვიმსჯელოთ.

    ჩებიშევის თეორემა ადასტურებს კავშირს შემთხვევითობასა და აუცილებლობას შორის: შემთხვევითი ცვლადის საშუალო მნიშვნელობა პრაქტიკულად არ განსხვავდება არა შემთხვევითი ცვლადისგან.

    ბერნულის თეორემა

    ბერნულის თეორემა ისტორიულად არის დიდი რიცხვების კანონის პირველი და უმარტივესი ფორმა. იგი თეორიულად ასაბუთებს ფარდობითი სიხშირის სტაბილურობის თვისებას.

    თეორემა 7.4 (დიდი რიცხვების კანონი ჯ. ბერნულის სახით). თუ მოვლენის დადგომის ალბათობა მაგრამერთ ტესტში არის , ამ მოვლენის შემთხვევების რაოდენობა ზე დამოუკიდებელი ცდები უდრის , მაშინ ნებისმიერი რიცხვისთვის გვაქვს ტოლობა

    , (7.10)

    ანუ მოვლენის ფარდობითი სიხშირე მაგრამთანხვედრაშია ალბათობა ალბათობასთან ივენთი მაგრამ: .

    მტკიცებულება. ჩვენ შემოგთავაზებთ შემთხვევით ცვლადებს შემდეგნაირად: თუ in მე- სასამართლო პროცესი მოხდა მაგრამ, და თუ არ გამოჩნდება, მაშინ . მერე ნომერი მაგრამ(წარმატებების რაოდენობა) შეიძლება წარმოდგენილი იყოს როგორც

    შემთხვევითი ცვლადების მათემატიკური მოლოდინი და ვარიაციაა: , . X i შემთხვევითი ცვლადების განაწილების კანონს აქვს ფორმა

    Х ი

    ნებისმიერისთვის მე. ამრიგად, შემთხვევითი ცვლადები X იდამოუკიდებელი, მათი განსხვავებები შემოიფარგლება იმავე რაოდენობით, ვინაიდან

    .

    ამიტომ, ჩებიშევის თეორემა შეიძლება გამოვიყენოთ ამ შემთხვევით ცვლადებზე

    .

    ,

    აქედან გამომდინარე, .

    ბერნულის თეორემა თეორიულად ასაბუთებს მოვლენის ალბათობის სავარაუდო გამოთვლის შესაძლებლობას მისი ფარდობითი სიხშირის გამოყენებით. ასე, მაგალითად, ამ მოვლენის ფარდობითი სიხშირე შეიძლება მივიღოთ გოგოს გაჩენის ალბათობად, რომელიც სტატისტიკური მონაცემებით დაახლოებით 0,485-ის ტოლია.

    ჩებიშევის უტოლობა (7.2) შემთხვევითი ცვლადებისთვის

    ფორმას იღებს

    სადაც პი- მოვლენის ალბათობა მაგრამ in მე-მ ტესტი.

    მაგალითი 7.2.ხელნაწერის ერთ გვერდზე ტიპოგრაფიული შეცდომის ალბათობაა 0,2. გამოთვალეთ ალბათობა, რომ ხელნაწერში, რომელიც შეიცავს 400 გვერდს, არასწორი ბეჭდვის სიხშირე განსხვავდება 0,05-ზე ნაკლები ალბათობის შესაბამისი მოდულისგან.

    გადაწყვეტილება:

    ჩვენ ვიყენებთ ფორმულას (7.11). Ამ შემთხვევაში , , , . გვაქვს, ე.ი. .

    ცენტრალური ლიმიტის თეორემა

    ცენტრალური ლიმიტის თეორემა არის ლიმიტის თეორემების მეორე ჯგუფი, რომელიც ამყარებს კავშირს შემთხვევითი ცვლადის ჯამის განაწილების კანონსა და მის შემზღუდველ ფორმას - ნორმალური განაწილების კანონს შორის.

    ჩამოვაყალიბოთ ცენტრალური ლიმიტის თეორემა იმ შემთხვევისთვის, როდესაც ჯამის ტერმინებს აქვთ იგივე განაწილება. ეს თეორემა ყველაზე ხშირად გამოიყენება პრაქტიკაში. მათემატიკურ სტატისტიკაში, შემთხვევითი ცვლადების ნიმუშის განაწილება ერთნაირია, რადგან ისინი მიღებულია ერთი და იგივე ზოგადი პოპულაციისგან.

    თეორემა 7.5. დაე, შემთხვევითი ცვლადები იყოს დამოუკიდებელი, თანაბრად განაწილებული, ჰქონდეს სასრული მათემატიკური მოლოდინი და დისპერსიები. შემდეგ ამ შემთხვევითი ცვლადების ცენტრირებული და ნორმალიზებული ჯამის განაწილების ფუნქცია მიდრეკილია სტანდარტული ნორმალური შემთხვევითი ცვლადის განაწილების ფუნქციაზე.

    ალბათობის თეორიის ცენტრალური ლიმიტის თეორემის (CLT) უმარტივესი ვერსია ასეთია.

    (იდენტურად განაწილებული ტერმინებისთვის). დაე იყოს X 1 , X 2 ,…, X n, … არის დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ცვლადები მათემატიკური მოლოდინებით (X ი) = და დისპერსიები (X ი) = , მე= 1, 2,…, ,… შემდეგ ნებისმიერი რეალური რიცხვისთვის Xარის ზღვარი

    სადაც F(x)არის სტანდარტული ნორმალური განაწილების ფუნქცია.

    ამ თეორემას ზოგჯერ ლინდებერგ-ლევის თეორემასაც უწოდებენ.

    რიგ გამოყენებითი პრობლემების დროს იდენტური განაწილების პირობა არ სრულდება. ასეთ შემთხვევებში ცენტრალური ლიმიტის თეორემა ჩვეულებრივ რჩება ძალაში, მაგრამ გარკვეული პირობები უნდა დაწესდეს შემთხვევითი ცვლადების თანმიმდევრობას. ამ პირობების არსი იმაში მდგომარეობს, რომ არცერთი ტერმინი არ უნდა იყოს დომინანტი, თითოეული ტერმინის წვლილი საშუალო არითმეტიკაში უმნიშვნელო უნდა იყოს საბოლოო ჯამთან შედარებით. ლიაპუნოვის თეორემა ყველაზე ხშირად გამოიყენება.

    ცენტრალური ლიმიტის თეორემა(განსხვავებულად განაწილებული ტერმინებისთვის) – ლიაპუნოვის თეორემა. დაე იყოს X 1 , X 2 ,…, X n, … არის დამოუკიდებელი შემთხვევითი ცვლადები მათემატიკური მოლოდინებით (X ი) = მ იდა დისპერსიები (X ი) = , მე= 1, 2,…, ,... მოდით, ზოგიერთი δ>0, ყველა განხილულ შემთხვევით ცვლადს აქვს 2+δ რიგის ცენტრალური მომენტები და „ლიაპუნოვის წილადი“ მცირდება შეზღუდვის გარეშე:

    შემდეგ ნებისმიერი რეალური რიცხვისთვის Xარის ზღვარი

    სადაც F(x)არის სტანდარტული ნორმალური განაწილების ფუნქცია.

    იდენტურად განაწილებული შემთხვევითი ტერმინების შემთხვევაში

    და ლიაპუნოვის თეორემა გადაიქცევა ლინდებერგ-ლევის თეორემაში.

    შემთხვევითი ცვლადების ცენტრალური ზღვრული თეორემების მოპოვების ისტორია ორ საუკუნეზე გადაჭიმული იყო - დე მოივრის პირველი ნამუშევრებიდან მე -18 საუკუნის 30-იან წლებში, ლინდებერგისა და ფელერის მიერ მე-20 საუკუნის 30-იან წლებში მიღებულ აუცილებელ და საკმარის პირობებამდე.

    ლინდებერგ-ფელერის თეორემა.დაე იყოს X 1 , X 2 ,…, X n, …, არის დამოუკიდებელი შემთხვევითი ცვლადები მათემატიკური მოლოდინებით (X ი) = მ იდა დისპერსიები (X ი) = , მე= 1, 2,…, ,… ზღვრული მიმართება (1), ე.ი. ცენტრალური ლიმიტის თეორემა, დაკმაყოფილებულია თუ და მხოლოდ მაშინ, თუ რომელიმე τ>0

    სადაც ფკ(x) აღნიშნავს შემთხვევითი ცვლადის განაწილების ფუნქციას X კ.

    შემთხვევითი ცვლადების ცენტრალური ლიმიტის თეორემის ჩამოთვლილი ვარიანტების მტკიცებულება შეგიძლიათ ნახოთ ალბათობის თეორიის კლასიკურ კურსში.

    გამოყენებითი სტატისტიკისთვის და, კერძოდ, არარიცხობრივი სტატისტიკისთვის, დიდი მნიშვნელობა აქვს მრავალვარიანტულ ცენტრალურ ზღვრულ თეორემას. საქმე ეხება არა შემთხვევითი ცვლადების ჯამს, არამედ შემთხვევითი ვექტორების ჯამს.

    მრავალგანზომილებიანი კონვერგენციის აუცილებელი და საკმარისი პირობა. დაე იყოს F nაღნიშნავს ერთობლივი განაწილების ფუნქციას -განზომილებიანი შემთხვევითი ვექტორი, = 1,2,… და Fλn . კონვერგენციის აუცილებელი და საკმარისი პირობა F nზოგიერთს -განზომილებიანი განაწილების ფუნქცია არის ის Fλnაქვს ლიმიტი ნებისმიერი ვექტორის λ.

    ზემოაღნიშნული თეორემა ღირებულია, რადგან ვექტორების კონვერგენცია მცირდება მათი კოორდინატების წრფივი კომბინაციების კონვერგენციამდე, ე.ი. ადრე განხილული ჩვეულებრივი შემთხვევითი ცვლადების დაახლოებამდე. თუმცა, ეს არ იძლევა საშუალებას პირდაპირ მიუთითოთ ლიმიტის განაწილება. ეს შეიძლება გაკეთდეს შემდეგი თეორემის გამოყენებით.

    თეორემა მრავალგანზომილებიანი კონვერგენციის შესახებ.დაე იყოს F nდა Fλnიგივეა რაც წინა თეორემაში. დაე იყოს - ერთობლივი განაწილების ფუნქცია -განზომილებიანი შემთხვევითი ვექტორი. თუ განაწილების ფუნქცია Fλnნიმუშის ზომის მატებასთან ერთად გადადის განაწილების ფუნქციასთან F λნებისმიერი ვექტორისთვის λ, სადაც F λარის წრფივი კომბინაციის განაწილების ფუნქცია , მაშინ F nემთხვევა .

    აქ არის კონვერგენცია F nრომ ნიშნავს, რომ ნებისმიერი -განზომილებიანი ვექტორი ისეთი, რომ განაწილების ფუნქცია უწყვეტი რიცხვების მიმდევრობით F nემთხვევა ზრდას ნომერზე . სხვა სიტყვებით რომ ვთქვათ, განაწილების ფუნქციების კონვერგენცია გაგებულია ზუსტად ისე, როგორც ზემოთ შემთხვევითი ცვლადების ლიმიტის თეორემების განხილვისას. წარმოვადგინოთ ამ თეორემების მრავალგანზომილებიანი ანალოგი.

    მრავალგანზომილებიანი ცენტრალური ლიმიტის თეორემა. განვიხილოთ დამოუკიდებელი იდენტურად განაწილებული -განზომილებიანი შემთხვევითი ვექტორები

    სადაც მარტივი ნიშნავს ვექტორის ტრანსპოზიციის ოპერაციას. დავუშვათ შემთხვევითი ვექტორები U nაქვს პირველი და მეორე რიგის მომენტები, ე.ი.

    (U n) = μ, (U n) = Σ,

    სადაც μ არის შემთხვევითი ვექტორის კოორდინატების მათემატიკური მოლოდინების ვექტორი, Σ არის მისი კოვარიანტული მატრიცა. ჩვენ წარმოგიდგენთ საშუალო არითმეტიკული შემთხვევითი ვექტორების თანმიმდევრობას:

    მაშინ შემთხვევით ვექტორს აქვს ასიმპტომური -განზომილებიანი ნორმალური განაწილება, ე.ი. იგი ასიმპტომურად ნაწილდება ისევე, როგორც -განზომილებიანი ნორმალური ნულოვანი საშუალო, კოვარიანტული Σ და სიმკვრივე

    აქ |Σ| არის Σ მატრიცის განმსაზღვრელი. სხვა სიტყვებით რომ ვთქვათ, შემთხვევითი ვექტორის განაწილება ემთხვევა -განზომილებიანი ნორმალური განაწილება ნულოვანი საშუალო და კოვარიანტული მატრიცით Σ.

    შეგახსენებთ, რომ მრავალვარიანტული ნორმალური განაწილება μ მოლოდინით და კოვარიანტული მატრიცით Σ არის განაწილება სიმკვრივით

    მრავალვარიანტული ცენტრალური ლიმიტის თეორემა გვიჩვენებს, რომ დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ვექტორების ჯამების განაწილება ტერმინების დიდი რაოდენობით კარგად არის მიახლოებული ნორმალური განაწილებით, რომლებსაც აქვთ იგივე პირველი ორი მომენტი (შემთხვევითი ვექტორის კოორდინატების მოლოდინის ვექტორი და მისი კორელაცია მატრიცა), როგორც თავდაპირველი ვექტორები. იგივე განაწილების მიტოვება შეიძლება, მაგრამ ეს მოითხოვს სიმბოლიზმის გარკვეულ გართულებას. მთლიანობაში, მრავალგანზომილებიანი კონვერგენციის თეორემიდან გამომდინარეობს, რომ მრავალგანზომილებიანი შემთხვევა ძირეულად არ განსხვავდება ერთგანზომილებიანისაგან.

    მაგალითი.დაე იყოს X 1 , … X n,… არის დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ცვლადები. განიხილეთ -განზომილებიანი დამოუკიდებელი იდენტურად განაწილებული შემთხვევითი ვექტორები

    მათი მათემატიკური მოლოდინი არის თეორიული საწყისი მომენტების ვექტორი, ხოლო კოვარიანტული მატრიცა შედგება შესაბამისი ცენტრალური მომენტებისგან. შემდეგ არის ნიმუში ცენტრალური მომენტების ვექტორი. მრავალვარიანტული ცენტრალური ლიმიტის თეორემა აცხადებს, რომ აქვს ასიმპტომურად ნორმალური განაწილება. როგორც კონვერგენციის მემკვიდრეობის და წრფივი თეორემებიდან (იხ. ქვემოთ) ჩანს, ნიმუშის საწყისი მომენტების სხვადასხვა ფუნქციების განაწილება შეიძლება გამოიტანოს განაწილებიდან. და რადგან ცენტრალური მომენტები გამოიხატება საწყისი მომენტებით, ანალოგიური განცხადება მათთვისაც მართალია.

    წინა