Verjetnost
Prva stran Nazaj Verjetnost Seminar 1 Seminar 2

 

KAZALO:

 

  1. OSNOVE VERJETNOSTNEGA RAČUNA
    1. Izidi in verjetnostni prostori
    2. Elementarna pogojna verjetnost in neodvisnost

     

  2. SLUČAJNE SPREMENLJIVKE IN SLUČAJNI VEKTORJI
    1. Sredstva iz teorije mere
    2. Standardne porazdelitve
    3. Matematično upanje
    4. Transformacije slučajnih spremenljivk
    5. Pogojno matematično upanje in pogojne porazdelitve
    6. Martingali

     

  3. TRANSFORMACIJE IN KONVERGENCE SLUČAJNIH SPREMENLJIVK
    1. Rodovne funkcije in procesi razvejanja
    2. Karakteristične funkcije
    3. Konvergenca slučajnih spremenljivk
    4. Konvergenca v porazdelitvi

 

 

 

1.  OSNOVE VERJETNOSTNEGA RAČUNA

    1.1  Izidi in verjetnostni prostori

 

Primer: V 17. stoletju je bila popularna stava na vsoto pik na treh kockah. Galilej je napisal vse možne izide, ki jih je 63.

Ideja formalizacije verjetnosti je, da napišemo vsaj v načelu vse možne "izide" nekega eksperimenta, ki vsebuje naključnost. Dogodki bodo v formalizaciji postali podmnožice množice vseh izidov. Množico vseh izidov ponavadi označimo z grško črko Ω.

Vsak dogodek se "zgodi" z neko določeno verjetnostjo. Verjetnost bo formalno pravilo, ki vsakemu dogodku priredi število na intervalu [0,1]. Temu številu bomo rekli VERJETNOST DOGODKA. Verjetnost dogodka A označimo s P(A). Pri tem smiselno zahtevamo naslednje:

  1. P({})=0
  2. P(Ω)=1
  3. P(AUB)=P(A)+ P(B), če je AB={}.

Primer: V genetiki nastopajo modeli, kjer izbiramo naključno permutacijo. (podrobnosti-predavanja)

Sedaj nas zanima ali so lahko vse podmnožice dogodki? Odgovor na to je: NE! Omejiti se moramo na poddružino podmnožic, ki bodo dogodki. Kakšna poddružina bo to in kakšno bo tam pravilo P? Odgovor nam daje

IZREK (Caratheodorijev izrek o razširitvi mere): Pravilo P, dano s predpisom P(A)= (1/2)n, lahko razširimo do mere na
σ-algebri, ki jo generirajo cilindrične množice (to so množice, ki imajo predpisanih prvih n členov), oblike
{*}x...x{*}x{0,1}x{0,1}x... (brez dokaza)

Definicija: VERJETNOSTNI PROSTOR je trojica (Ω, F, P), kjer je:

  1. Ω množica izidov
  2. F je σ-algebra podmnožic; v verjetnosti so podmnožice dogodki
  3. P je mera na F z vrednostmi v [0,1] in P(Ω)=1.

Opomba: Nenegativni meri z maso 1 bomo rekli "verjetnostna mera".

Opomba: Vsi izreki in leme bodo tukaj brez dokazov! Le-te lahko naredite sami ali se udeležite predavanj.

LEMA 1.1: Naj bodo A1,...,An dogodki. Potem velja:

  1. P(Aic)=1- P(Ai)
  2. Če je A1<A2, potem je P(A1)< P(A2)
  3. P(A1U A2) = P(A1)+ P(A2) - P(A1A2)
  4. P(UA) = ∑P(Ai) - ∑P(AiAj) + ∑P(AiAjAk) - ... ...+(-1)n-1P(A1...An).

Opomba: Točki (iv.) v srednji šoli rečemo "pravilo vključitev in izključitev".

Primer: Izbiramo slučajno permutacijo, tako da je verjetnost vsake posamezne permutacije enaka 1/n!. Zanima nas verjetnost dogodka, da permutacija nima nobene fiksne točke. Označimo dogodek z A. Lažje je izračunati P(Ac), tj. verjetnost, da ima permutacija vsaj eno fiksno točko. Računamo po formuli za vključitve in izključitve. (podrobnosti-predavanja)

LEMA 1.2:

  1. Če velja A1 < A2 < A3 < ..., potem je P(UAi) = lim P(An), ko n−>.
  2. Če velja A1 > A2 > A3 > ..., potem je P(Ai) = lim P(An), ko n−>.

LEMA 1.3 (Prva Borel-Cantellijeva lema): Naj bodo A1,A2,... dogodki, za katere je ∑P(Ak) < .
Definirajmo Ā = {ωЄΩ: ω vsebovan v neskončno Ak}. Velja P(Ā) = 0.

NAZAJ NA KAZALO!

 

 

    1.2  Elementarna pogojna verjetnost in neodvisnost

 

Primer: Vzemimo 52 standardnih kart, jih premešamo in z vrha damo eno karto igralcu α in eno karto igralcu β. Definiramo dogodka:
A = { α dobi asa}
B = { β dobi asa}.
Dobimo "absolutni verjetnosti" P(A)=4/52 in zaradi simetrije P(B)=4/52. Če pa vemo, da α dobi asa, velja P(B)=3/51, saj izmed 4 asov sedaj ostanejo 3 in namesto vseh 52 kart, jih imamo na voljo le še 51. Torej, če vemo, da se je dogodek A zgodil, se naše "mnenje" o verjetnosti dogodka B spremeni. Isto velja, če se A ni zgodil. "Pogojna verjetnost" dogodka B glede na A je enaka 3/51. Če se je "zgodil" dogodek A, smo s tem omejeni na izide v A. Ideja za pogojno verjetnost je, da je P(B|A) delež B znotraj A.

Definicija: Naj bo P(A)>0. POGOJNA VERJETNOST B glede na A, v oznakah P(B|A), je definirana s predpisom
P(B|A)=P(AB)/P(A).

Primer: Vzemimo družino z 2 otrokoma. Recimo, da je spol otroka z verjetnostjo 1/2 moški(m) in 1/2 ženski(ž). Definirajmo dogodka:
A = {oba otroka sta moškega spola}
B = {vsaj en otrok je moškega spola}
Izračunajmo verjetnost P(A|B). Verjetnostni prostor je {mm, mž, žm, žž}. Verjetnosti izidov so 1/4. Dobimo:
P(A|B)=P(AB)/P(B)= (1/4)/(3/4)=1/3.

Definicija: Končna ali števna družina dogodkov {Hk} je PARTICIJA verjetnostnega prostora, če je UHk=Ω in velja
HiHj={} za i≠j.

LEMA 1.4 (Formula za popolno verjetnost): Predpostavimo, da je Hi particija, P(Hi)>0 za vse i. Velja P(A)=∑P(A|Hi)·P(Hi).

LEMA 1.5: Za dogodke A1,...,An velja P(A1...An)= P(An|A1...An-1 )·P(An-1|A1...An-2)·...· ·P(A3|A1A2)· P(A2|A1)·P(A1).

Primer (Polyeva žara): Začnemo z žaro, v kateri je ena črna kroglica mase θ>0. Na vsakem koraku izberemo kroglico z verjetnostjo, ki je proporcionalna masi, tj. težje kroglice bolj verjetno jemljemo ven. Če je kroglica črna, jo vrnemo v žaro in dodamo novo kroglico mase 1 in barve, ki je še nismo videli. Če smo izbrali barvasto kroglico (tj. tako, ki ni črna), jo vrnemo v žaro in dodamo kroglico mase 1, iste barve, kot je bila izvlečena kroglica.
Vprašanje: Ko žara "raste" ali narašča število barv čez vsako mejo z verjetnostjo 1 ali se ustali pri nekem (slučajnem) številu?
Odgovor: Število barv se nikoli ne ustali z verjetnostjo 1. (podrobnosti-predavanja)

Poglejmo, kaj se lahko zgodi:

Komentar: Na prvem koraku imamo samo eno izbiro, torej izvlečemo črno kroglico, jo vrnemo v žaro in dodamo kroglico oranžne barve. Na drugem koraku izvlečemo oranžno, jo vrnemo v žaro in na tretjem koraku spet izvlečemo črno. Kroglico vrnemo v žaro in dodamo novo kroglico zelene barve, itd.

Primer: V posodi imamo m belih in n črnih kroglic. Igramo naslednjo igro: Igralec A izbira kroglice naključno, dokler ne dobi kroglice druge barve, kot so bile prej izvlečene kroglice. Potem to kroglico vrne v posodo, kroglice ene barve, ki so bile prej izvlečene, pa niso več v igri. Sedaj na 2. koraku igralec B izbira kroglice na enak način. Seveda je sedaj kroglic manj. Igralca se menjavata in slej ko prej bo eden izvlekel zadnjo kroglico.
Vprašanje: Kakšna je verjetnost, da je zadnja kroglica bela?
Odgovor: Verjetnost, da je zadnja kroglica bela je enaka 1/2. (podrobnosti-predavanja)

Primer (Jetniški paradoks): Jetniki A, B in C so v neki mračni deželi obsojeni na smrt. Vladar bo naključno izbral enega od jetnikov in ga pomilostil. Jetnik A pravi: "Ječar, če mi poveš, kdo od jetnikov B in C bo obešen, mi ne daš nobene informacije, saj bo eden od njiju gotovo obešen." Ječar mu odvrne: "Če ti povem, potem ostaneta samo dva jetnika na izbiro za pomilostitev in tvoja verjetnost za preživetje se bo z 1/3 dvignila na 1/2."
Vprašanje: Kdo ima prav?
Napišimo verjetnostni prostor. Le-ta mora biti nekoliko večji kot samo {AB, AC, BC}, saj mora vsebovati tudi ječarjeve izbire. Predlog:

Komentar: Prvi dve črki sta nesrečneža, ki bosta visela, zadnja črka pove, kaj bo rekel ječar, števila, ki so desno, pa so verjetnosti izidov. Tretjine izhajajo iz dejstva, da bo vladar izbiral naključno. Imamo pa tudi opravka s pomanjkljivo informacijo, saj porazdelitev verjetnosti med zadnja dva izida ni jasna iz besedila naloge, zato jo razdelimo tako kot piše. Pri tem upoštevamo, da je xЄ[0,1]. Sedaj računamo pogojne verjetnosti in dobimo odgovor.
Odgovor: Če je x=1/2, ima prav jetnik, v ostalih primerih (še posebej, če je x=0) pa ima prav ječar.
(podrobnosti-predavanja)

 

 

    Neodvisnost dogodkov

 

Kaj pomeni z besedami enakost P(A|B)=P(A)? V tem primeru to pomeni, da B "ne pove nič" o A, česar ne bi vedeli že od prej. Prepišimo to malo drugače:
P(A|B)= P(AB)/P(B)=P(A)    =>    P(AB)=P(A)·P(B).

Definicija: (i) Dogodka A in B sta NEODVISNA, če velja P(AB)=P(A)·P(B).
(ii) Dogodki {Ai} so NEODVISNI, če za vsako končno poddružino Ai1,...,Ain velja P(Aik)=∏P(Aik).

Primer: Delimo po eno karto z dobro premešanega kupa kart.
A={karta je rdeča}
B={karta je as}
A in B sta očitno neodvisna, ker je delež asov med rdečimi in črnimi kartami enak. Formalno: P(A)=1/2, ker je pol rdečih in pol črnih kart, P(B)=4/52, ker so 4 asi med 52 kartami in P(AB)=2/52, ker sta dva rdeča asa med 52 kartami.

Primer (Paradoks Chevaliera de Mereja): Gledamo naslednji igri na srečo:
(a) Vržemo 4 kocke štirikrat. Zmagamo, če vidimo vsaj eno šestico.
(b) Vržemo 2 kocki štiriindvajsetkrat. Zmagamo, če vsaj enkrat pade dvojna šestica.
Vprašanje: V kateri igri imamo večjo verjetnost za zmago?
Namig: Dogodki, povezani z ločenimi kockami ali meti, so neodvisni!
Odgovor: Večjo možnost za zmago imamo v igri (a). (podrobnosti-predavanja)

LEMA 1.6 (Druga Borel-Cantellijeva lema): Naj bodo A1,A2,... neodvisni dogodki, za katere je ∑P(Ak) = .
Definirajmo A= {ωЄΩ: ω vsebovan v neskončno Ak}. Velja P(A) = 1.

Primer (Kockarjev bankrot): Oglejmo si naslednjo igro na srečo: Igralca A in B začneta z m in n zlatniki. V vsaki "rundi" vržeta kovanec. Če je izid grb, igralec A dobi zlatnik od igralca B, če je izid številka, dobi igralec B zlatnik od igralca A. Konec igre je, ko eden od igralcev povsem obere drugega.
Vprašanje: Kolikšna je verjetnost, da bo igralec A obral igralca B?  Torej P(A)=?
Odgovor: Najprej zapišimo nekaj oznak:
* P(G)=p je verjetnost grba
* P(Š)=q je verjetnost številke
* p+q=1
* razmerje q/p označimo z x

Velja:  če je p=q, potem je P(A)= m/(m+n)

če je p≠q, potem je P(A)=(xm-1)/(xm+n-1). (podrobnosti-predavanja)

NAZAJ NA KAZALO!

 

 

 

2.  SLUČAJNE SPREMENLJIVKE IN SLUČAJNI VEKTORJI

 

Začnimo z nekaj primeri za motivacijo.

Primer1: V Galilejevem primeru je bil Ω = {1,2,3,4,5,6}3. Pri metu kock nas ni zanimal posamezni izid, tj. trojica, ampak neka vrednost, povezana z izidom, tj. vsota pik. Možne vrednosti, če govorimo o vsoti pik, so od 3 do 18. Tej vrednosti bomo rekli "slučajna spremenljivka", ker je njena vrednost odvisna od slučaja in ker se spreminja.

Opomba: Tipično označimo slučajne spremenljivke z velikimi tiskanimi črkami s konca abecede, npr. X, Y, Z,...

Primer2: Vzemimo Ω=Sn (tj. permutacije n elementov). Vsako permutacijo lahko zapišemo kot produkt ciklov, npr.
σ=(1234)(56). Permutacije izbiramo naključno, vsako z verjetnostjo 1/n!.
Definiramo lahko celo vrsto slučajnih spremenljivk:
X=število ciklov permutacij
Y=dolžina najdaljšega cikla
Mk=število ciklov dolžine k, k=1,2,...,n
Slučajne spremenljivke lahko tudi sestavimo v vektor, npr.M=(M1,...,Mn). Takemu vektorju rečemo "slučajni vektor".

Primer3: Vzemimo Ω=Sn. Naključno izberimo permutacijo, vsako z verjetnostjo 1/n!. Na naključno izbrani permutaciji izvedemo QuickSort. Slučajna spremenljivka je npr. T=čas, potreben za sortiranje. Kaj bi nas zanimalo v zvezi s T? Če merimo T s celimi števili, nas zanima recimo verjetnost P(T=k).

Definicija: SLUČAJNA SPREMENLJIVKA je merljiva funkcija iz verjetnostnega prostora Ω v nek metrični prostor (M,d), opremljen z Borelovo σ-algebro.

Opomba: (a) Merljivost bomo definirali nekoliko drugače: X:(Ω,F) -> (M,d) je "merljiva", če je praslika vsake Borelove množice v M merljiva v (Ω,F).
Z oznakami: Če je AЄB(M), zahtevamo X-1(A)ЄF.

(b) Elemente Ω tipično označimo z ω. Potem lahko zapišemo recimo X(ω).

(c) Če je M=Rn ali morda Banachov prostor, bomo tipično govorili o slučajnih vektorjih
     namesto o slučajnih spremenljivkah.

Pri slučajnih spremenljivkah nas niti ne zanima toliko sama funkcija X. Bolj nas zanima, s kakšno verjetnostjo bo slučajna spremenljivka "zavzela" dano vrednost.
Sedaj bi radi definirali pojem "porazdelitve" slučajne spremenljivke. Oglejmo si splošno definicijo. Za vsako Borelovo množico A lahko izračunamo verjetnost P(XЄA)=P(X-1(A)). Pogovorno: računamo verjetnost, da vrednost X "pade" v A. S tem smo definirali mero na B(M), tj. Borelova σ-algebra. Mero označimo z μx. Formalno je μx=P(X-1(A)).

Definicija: Meri μx rečemo PORAZDELITEV SLUČAJNE SPREMENLJIVKE X.

Opomba: Besedo "porazdelitev" uporabimo zato, ker μx "porazdeli" verjetnost posameznim Borelovim množicam.

NAZAJ NA KAZALO!

 

 

 

    2.1  Sredstva iz teorije mere

 

Najprej se lotimo Dynkinove leme. Potrebujemo dve na videz suhoparni definiciji.

Definicija: Naj bo (S,Ŝ) merljiv prostor. Družina podmnožic P je π-sistem, če velja:
(a) S Є P
(b) če sta A,B Є P, je tudi AB Є P.

Primeri: (a) Vsaka topologija je π-sistem.

(b) S=R={realna števila}, P={{}, (a,b], a<b} je π-sistem.

(c) S=R, P={R, (-∞,a], a Є R} je π-sistem.

(d) S=Rn, P={Rn, ∏(-∞,ai], ai Є R za i=1,...,n} je π-sistem.

(e) Recimo, da imamo merljiva prostora (S11) in (S22). Definirajmo vse pravokotnike:
     P={AxB Є S1xS2; A Є Ŝ1, B Є Ŝ2}. Ta družina je π-sistem.

Definicija: Naj bo (S,Ŝ) merljiv prostor. Družina L je λ-sistem, če velja:
(a) S Є L
(b) če sta A,B Є L in je A Є B, je B\A Є L
(c) če so A1,A2,...disjunktne in Ai Є L za vsak i, je UAi Є L.

Komentar: Definiciji π-sistema in λ-sistema sta "dve polovici" definicije σ-algebre.

Opomba: Vedno obstaja najmanjša σ-algebra, ki vsebuje dano družino množic (vzamemo presek vseh σ-algeber, ki vsebujejo to družino). Rekli bomo, da ta družina generira σ-algebro.

Primer: Če sta (S11) in (S22) merljiva prostora, potem vsi pravokotniki oblike AxB; A Є Ŝ1, B Є Ŝ2, generirajo produktno
σ-algebro Ŝ12 na prostoru S1xS2.

LEMA 2.1 (Jevgenij Borisovič Dynkin): Naj bo P π-sistem in L λ-sistem, ki vsebuje P. Potem L vsebuje tudi σ-algebro σ(P), ki jo generira P. V oznakah: PЄL => σ(P)ЄL.

Primer uporabe: Naj bo μ končna mera na R. Ali je natanko določena z vrednostmi μ((a,b])?

Dynkin: Pa denimo, da imamo meri μ in η za kateri je μ1((a,b])=μ2((a,b]) za poljubna a<b.
Definiramo L={AЄ B(R): μ1(A)=μ2(A)}. L vsebuje π-sistem P={R,(a,b]: a<b}. P generira Borelovo σ-algebro.
Trivialno preverjanje pove, da je L λ-sistem, torej je L vsebovan v Borelovi σ-algebri B(R).
Meri se ujemata na Borelovih množicah, torej res obstaja ena sama mera.

Primer (Fubinijeva konstrukcija + izrek): Ideja: Imamo prostora z mero (S11,μ) in (S22,η).
Radi bi konstruirali mero μ x η na produktu (S1xS2, Ŝ11), za katero velja
(μ x η)(AxB)=μ(A)·η(B) za AЄŜ1 in BЄŜ2.
Postavimo se na stališče, da Fubinijev izrek "pričakujemo". Vemo kakšna je mera vsakega pravokotnika, radi pa bi definirali mero za poljuben C Є Ŝ11.
Označimo za dani x Є S1 prerez Cx kot: Cx={y Є S2: (x,y) Є C}. Poglejmo sliko:

 

Ugibamo: (μ x η)(C)=∫S1η(Cx)dμ(x).
Sedaj nastopita dve tehnični motnji in sicer  moramo dokazati:
(i) Cx je merljiva množica za vsak xЄS1
(ii) Funkcija x -> η(Cx) je merljiva. (podrobnosti-predavanja)
Komentar: S pomočjo Dynkinove leme in izreka LMK (Lebesgue-ov izrek o monotoni konvergenci; glej predavanja iz Teorije mere) dokažemo obe točki in Fubinijev izrek.

Opomba: Običajna oznaka je ∫Sf(x)dμ(x), v verjetnosti pa se je udomačila oznaka ∫Sf(x)μ(dx), tj. vrednost funkcije pomnožimo z mero koščka, ne pa s koščkom mere.

NAZAJ NA KAZALO!

 

 

 

    2.2  Standardne porazdelitve

 

Formalno so slučajne spremenljivke merljive funkcije X:(Ω,F,P) -> (M,d). Porazdelitev slučajne spremenljivke X je mera μx, definirana s predpisom μx(A)=P(XЄA)=P(X-1(A)).

Definicija: Slučajna spremenljivka je DISKRETNA ali ima DISKRETNO PORAZDELITEV, če obstaja števna množica {x1,x2,...}ЄM, taka, da je P(XЄ{x1,x2,...})=1.

Za diskretne slučajne spremenljivke je porazdelitev μx skoncentrirana na množici {x1,x2,...}. Za opis diskretne mere μx je dovolj navesti μx({xi}) za vsak xi. Velja: P(XЄA)=∑P(X=xi)=∑μx({xi})=μx(A) za xiЄA.

Primer: Recimo, da mečemo kovanec n-krat. Meti so neodvisni, verjetnost za grb pa je pЄ(0,1). Definiramo: X=število grbov v n metih. X je diskretna spremenljivka z možnimi vrednostmi v {0,1,...,n}. Porazdelitev opišemo z verjetnostmi P(X=k). Kako lahko dobimo k grbov v n metih? Recimo GGG...GŠŠŠ...Š, pri čemer je k grbov in n-k številk. Dobimo P(GG...GŠ...Š)=pk ·(1-p)n-k. Uporabili smo predpostavko o neodvisnosti metov. Isto velja za poljuben vrstni red k grbov in n-k številk. Verjetnost za tako zaporedje je vedno pk·(1-p)n-k. Vseh možnih zaporedij s k grbi in n-k številkami je "n nad k" ali če zapišemo s fakultetami: n!/(k!(n-k)!). Pri tem smo izbrali samo pozicije grbov (za številke je simetrično). Posamezna zaporedja vodijo do nezdružljivih dogodkov. Torej je

            za k=0,1,...n. Nekatere porazdelitve imajo svoja imena. Porazdelitev X se imenuje BINOMSKA PORAZDELITEV s parametroma n in p. Oznaka: X~Bin(n,p). Če P(X=k) seštejemo po vseh k, moramo seveda dobiti 1.

Primer: Mečimo kovanec, dokler ne vidimo grba. Naj bo X=število potrebnih metov, vključno z zadnjim.
Medklic: V načelu je lahko X=, če dobimo zaporedje ŠŠŠŠ... Ampak verjetnost tega dogodka je enaka 0. Če neka slučajna spremenljivka ni definirana na množici z mero 0, nas to ne skrbi. To drži tudi za X.
X je diskretna slučajna spremenljivka z vrednostmi v {1,2,...}. Dobiti moramo zaporedje ŠŠŠŠ...ŠG. Velja

             Rečemo, da ima X GEOMETRIJSKO PORAZDELITEV s parametrom p. Oznaka: X~Geom(p).

Primer: Mečemo kovanec in čakamo na m grbov, m>0. Definiramo X=število potrebnih metov, vključno z zadnjim. X je diskretna slučajna spremenljivka z vrednostmi v {m,m+1,...}. Kaj se mora zgoditi? GŠ...Š..G...Š..GG...ŠG, pri čemer zadnji G pomeni grb na k-tem mestu, na prejšnjih k-1 mestih pa je m-1 grbov in (k-1)-(m-1)=k-m številk. Ker so meti neodvisni, je prvih k-1 metov neodvisnih od zadnjega in velja

(*)

           za q=1-p. Rečemo, da ima X NEGATIVNO BINOMSKO PORAZDELITEV s parametroma m in p. Oznaka: X~NegBin(m,p).

Primer: S.Banach je bil strasten kadilec. Vedno si je kupil dve škatli vžigalic (v vsaki škatli je n vžigalic) ter dal eno škatlo v levi in drugo v desni žep. Vsakič, ko je prižigal cigareto, je naključno segel v enega od žepov. Če je iz škatlice vzel zadnjo vžigalico, tega ni opazil in je škatlico dal nazaj v žep. Prej ali slej bo Banach iz žepa potegnil prazno škatlico. Naj bo X=število vžigalic v "drugi" škatlici. Banacha je skrbela verjetnost P(X=0). Izračunajmo porazdelitev P(X=k) za k=0,...n. Zapišemo: P(X=k)=P(v levem žepu 0, v desnem žepu k, Banach seže v levi žep)+P(v desnem žepu 0, v levem žepu k, Banach seže v desni žep). Če se zgodi prva od možnosti, potem to pomeni, da je v levem žepu porabil vseh n vžigalic, v desnem mu jih je ostalo še n-k in trenutno si prižiga 1 cigaret, torej si Banach prižiga (n+(n-k)+ 1)=(2n-k+1)-vi cigaret. Pri tem je natanko (n+1)-krat segel v levi žep. Uporabimo negativno binomsko porazdelitev, pri čemer ima zdaj 2n-k+1 vlogo k-ja in n+1 ima vlogo m-ja iz formule (*)-glej zgoraj! Ker ima dva žepa, bodo v formuli nastopale polovice. Dobimo:

        

 

 

            Zaradi simetrije ima drug dogodek enako verjetnost in na koncu sledi:

            za k=0,1,...,n. Poglejmo še BANACHOVO VERJETNOST:

            Za n=50 vžigalic dobimo P(X=0)≈1/16.

Primer: V posodi imamo B belih in R rdečih kroglic. Naključno izberemo n kroglic brez vračanja. "Naključno" pomeni, da je vsak nabor n kroglic enako verjetno izbran. Označimo N=B+R, X=število belih kroglic med izbranimi kroglicami. X je slučajna spremenljivka z vednostmi med max(0,n-R)≤k≤min(n,B). Porazdelitev opišemo z verjetnostjo P(X=k). Deliti moramo ugodne možnosti z vsemi možnimi izbori. Dobimo:

           za max(0,n-R)≤k≤min(n,B). Rečemo, da ima X HIPERGEOMETRIJSKO PORAZDELITEV s parametri n, B, N. Oznaka: X~HiperGeom(n,B,N).

Primer: Z dobro premešanega kupa 52 standardnih kart razdelimo 5 kart. Kolikšna je verjetnost, da dobimo poker iz asov, tj. 4 asi+neka karta? Označimo X=število asov med 5 kartami. Očitno je X~HiperGeom(5,4,52). Sledi, da je

Primer: Kovanec mečemo vedno večkrat, tj n -> , s tem da je verjetnost grba vedno manjša. Torej, ko mečemo n-krat, vržemo kovanec z verjetnostjo P(grb)=pn, pn -> 0. Vzamemo, da n·pn -> λ>0, ko n-> (pričakovano število grbov konvergira). Kaj se dogaja z verjetnostmi P(Xn=k), ko n-> in Xn~Bin(n, pn)? Računamo limito, ko gre n->. Torej:

           Iz analize si sposodimo: Če cn->c, ko n->, potem (1+cn/n)n -> ec, ko n->. V našem primeru: cn= -λ-nrn -> -λ. Zato je lim P(Xn=k)=(λk/k!)·e. Torej je

           za k=0,1,.... Tako porazdelitev imenujemo POISSONOVA PORAZDELITEV s parametrom λ. Oznaka: X~Po(λ).

Opomba: Poissonova porazdelitev je model za število "redkih" dogodkov v mnogo ponavljanjih, npr. zavarovalne premije in prometne nesreče v zavarovalništvu.

Abracham De Moivre je želel izračunati binomske verjetnosti numerično. To je na roko težko izračunati. De Moivre je najprej izpeljal Stirlingovo formulo, ki pravi:

kjer je |rn|<1/12n. Za primer izračunajmo naslednjo limito za fiksen xЄR:

kjer je Xn~Bin(n,p). Rezultat bo:

 

 (podrobnosti-predavanja)

Opomba: Limiti se reče LAPLACEOV INTEGRALNI LIMITNI IZREK. To je poseben primer centralnega limitnega izreka (2.semester).

IZREK 2.2 (Bernsteinova neenakost): Naj bo Sn~Bin(n,p). Za vsak ε>0 velja

LEMA 2.3:

  1. Če je X=(X1,...,Xn) slučajni vektor z vrednostmi v Rn, potem so X1,...Xn slučajne spremenljivke.
  2. Če so X1,...Xn slučajne spremenljivke z vrenostmi v R, potem je X=(X1,...,Xn) slučajni vektor.

Opomba: Iz leme sledi, da so vsi podvektorji slučajnega vektorja X tudi slučajni vektorji.

Definicija: (a) Naj bo X slučajna spremenljivka z vrednostmi v R. PORAZDELITVENO FUNKCIJO X definiramo kot
Fx(x)=P(X ≤ x)= μx((-,x]).
(b) Naj bo X slučajni vektor z vrednostmi v Rn. PORAZDELITVENO FUNKCIJO definiramo kot
FX(x1,...,xn)= P(Xi ≤ xi za vse i)=μx(∏(-,xi]) za i=1,...,n.

LEMA 2.4: Naj bo Fx porazdelitvena funkcija slučajne spremenljivke X. Velja:

  1. Fx enolično določa μx
  2. Fx je nepadajoča
  3. Fx je desno zvezna
  4. lim Fx(x)=1, ko x-> in lim Fx(x)=0, ko x->-.

Primer: Naj funkcija F ustreza pogojem (ii), (iii) in (iv) iz leme 2.4. Ali je F(x)=μ((-,x]) za neko verjetnostno mero μ na R? Odgovor: DA! (podrobnosti-predavanja)

Opomba: Podobne izreke lahko dokažemo za porazdelitvene funkcije vektorjev.

Druga kategorija porazdelitev, ki jih bomo obširno uporabljali, so mere z gostoto.

Definicija: (a) Porazdelitev μx ina GOSTOTO fx glede na Lebesgueovo mero, če velja P(XЄA)=μx(A)=∫Afx(x)dx.
(b) Vektor X ima GOSTOTO fx, če velja P(XЄA)=μx(A)=∫Afx(x)dx.

Primer: Predstavljajmo si, da mečemo kovanec z verjetnostjo pn, dokler ne dobimo prvega grba. Označimo število metov s Tn. Vemo,da je Tn~Geom(pn). Recimo, da so časovni intervali med meti dolgi hn. Dejanski čas do prvega grba je hn·Tn. Vemo

           Izberimo hn in pn tako, da bo veljalo hn/pn -> λ>0, ko n->. To pomeni, da kovanec mečemo vedno hitreje, verjetnost za grb pa je vedno manjša. Dobimo

           To vzamemo za motivacijo za definicijo eksponentne porazdelitve. Slučajna spremenljivka X ima EKSPONENTNO PORAZDELITEV s parametrom λ>0, če ima gostoto

            Oznaka: X~exp(λ). Velja P(X≥t)=e-λt za t>0.

Definicija: Za slučajne spremenljivke, katerih porazdelitev ima gostoto glede na Lebesgueovo mero, pravimo, da so ZVEZNE.

Opomba: Terminologija je utečena, ni pa dobro izbrana. Ne gre za zveznost X, temveč za absolutno zveznost μx glede na Lebesgueovo mero.

Definicija: VEČRAZSEŽNA NORMALNA GOSTOTA je definirana na Rn kot

 

 

                kjer je XЄRn, Σ je pozitivno definitna matrika in μЄRn je dan vektor.

Opomba: Σ>0, da sploh obstaja integral. V načelu bi morali preveriti, da je ∫fX(x)dx=1. (kasneje!)

NAZAJ NA KAZALO!

 

 

    Neodvisnost slučajnih spremenljivk (vektorjev)

 

Rekli smo, da sta dogodka A in B neodvisna, če je P(AB)=P(A)·P(B). Kdaj sta slučajni spremenljivki X in Y neodvisni? Intuitivno: Če je dogodek A "povezan" z X in B dogodek "povezan" z Y, bi morala biti X in Y neodvisna. Kakšni pa so dogodki, povezani z X? V splošnem so to dogodki oblike {XЄA'} za A'ЄB(R).

Definicija: (a) Slučajni spremenljivki X in Y sta NEODVISNI, če za poljubna A in B velja P(XЄA,YЄB)=P(XЄA)·P(YЄB),
A in B sta Borelovi množici.
(b) Slučajne spremenljivke X1,...,Xn so NEODVISNE, če velja P(X1ЄA1,..., XnЄAn)=P(X1ЄA1)·...·P(XnЄAn)
za vse AiЄB(R).
(c) Slučajne spremenljivke (Xi)iЄI so NEODVISNE, če je neodvisna vsaka končna poddružina teh spremenljivk.

Kako se neodvisnost slučajnih spremenljivkX in Y "pozna" na njuni porazdelitvi? Bolj natančno: Sestavimo vektor (X,Y). Porazdelitev tega slučajnega vektorja je mera μX,Y na R2. Kaj lahko rečemo o tej meri? Začnimo s pravokotniki AxB; A,BЄB(R):
μX,Y(AxB)=P(XЄA,YЄB)=P(XЄA)·P(YЄB)=μX(A) ·μY(B)=(μXY)(AxB).
Ugotavljamo: meri μX,Y in μXY se ujemata na pravokotnikih oblike AxB. Od prej pa vemo: če se meri ujemata na pravokotnikih, se ujemata(Dynkin), torej sta enaki: μX,YXY.

LEMA 2.5 : Slučajne spremenljivke X1,...,Xn so neodvisne, če in samo če je porazdelitev μX1,...,XnX1x...xμXn.

Recimo, da ima vektor X gostoto fX glede na Lebesgueovo mero. Kako najdemo gostoto prve komponente, tj. X1?  X1 ima gostoto, dano z fX1(x1)=∫Rn-1f X(x1,...,xn)dx2...dxn. Enako velja za vse ostale komponente. Če sta X in Y neodvisni, je fX,Y=fX·fY skoraj povsod. (podrobnosti-predavanja)

Primer: Spomnimo se, kako smo definirali večrazsežno normalno porazdelitev. Kdaj so komponente neodvisne? Če so, mora biti fX=fX1·...·fXn. Če so vse funkcije parcialno odvedljive in >0, lahko najprej logaritmiramo in parcialno odvajamo po xi in xj, i≠j. (podrobnosti-predavanja)

Opomba: Odvedljivost fXi za i=1,...,n sledi iz izrekov o integralih s parametrom. (Analiza 2)

Opomba: Robnih gostot nismo izračunali. Dokazali smo, da je v primeru, ko je Σ diagonalna, fX produkt nekih funkcij. Z malenkost Fubinija ugotovimo, da so te neke funkcije proporcionalne robnim gostotam.

Primer: Naj bo X=(X1,...,Xn) slučajni vektor z vrednostmi v Zn (vse komponente so celoštevilske). Če velja P(X1=k1,...,Xn=kn)=f1(k1) ·...·fn(kn) za neke funkcije f1,...,fn, potem so X1,...,Xn neodvisne. (podrobnosti-predavanja)

NAZAJ NA KAZALO!

 

 

 

    2.3  Matematično upanje (pričakovana vrednost)

 

Najprej komentarja za motivacijo:
(i) Ali je povprečje smiselna količina? Je, saj je povprečje nek povzetek podatkov, pri čemer se seveda nekaj informacij izgubi.
(ii) Če kocko vržemo mnogokrat, kaj dobimo v povprečju? Dobimo 3,5.
Bolj splošno: Recimo, da generiramo slučajne spremenljivke X1, X2,..., ki so neodvisne in enako porazdeljene s porazdelitvijo μ. Kateremu številu se bodo približevala povprečja (X1+...+Xn)/n ? (podrobnosti-predavanja)

Definicija: MATEMATIČNO UPANJE slučajne spremenljivke X definiramo kot E(X)=∫Rx(dx). Rečemo, da upanje obstaja, če je ∫R|x|μx(dx)<.

V resnici je običajna definicija naslednja: E(X)=∫ΩX(ω)P(dω). Rečemo, da upanje obstaja, če je ∫Ω|X(ω)|P(dω)<.

LEMA 2.6 : Integral ∫Ω|X(ω)|P(dω) obstaja, če in samo če obstaja integral ∫R|x|μx(dx). Če integrala obstajata, je tudi ∫ΩX(ω)P(dω)= ∫Rx(dx).

LEMA 2.7: Naj bosta X in Y slučajni spremenljivki. Velja:

  1. E(αX+βY)=αE(X)+βE(Y)
  2. če je X≥0, je E(X)≥0
  3. če sta X in Y neodvisni in f in g omejeni Borelovi, je E(f(X)g(Y))=E(f(X))·E(g(Y)).

Komentar: Če obstaja ali E(|XY|) ali E(|X|) in E(|Y|), potem je E(XY)=E(X)·E(Y). Obstoj E(|XY|) implicira E(|X|)<, E(|Y|)< in obratno. Potreben je Fubinijev izrek.

Primer: Naj bo X~Bin(n,p). Izračunajmo E(X). Vemo, da je

            Če to odvajamo po x dobimo

            Sedaj vstavimo x=1 ter upoštevamo, da je p+q=1 in dobimo

            S pomočjo teh enakosti lahko sedaj izračunamo upanje

 

Poglejmo sedaj, kako izračunamo upanje, če je X diskretna slučajna spremenljivka ali če poznamo gostoto slučajne spremenljivke.
(i) Če je X diskretna slučajna spremenljivka z vrednostmi v {x1, x2,...}, je E(X)=Σxk·P(X=xk), če je Σ|xk|P(X=xk)<.
(ii) Če je fx gostota X, je E(X)=∫Rxfx(x)dx, če je ∫R|x|fx(x)dx<.

Primer: Naj bo X HiperGeom(n,B,N). Želimo izračunati E(X). Po definiciji je matematično upanje težko izračunati. Ideja:
Mislimo si, da kroglice izbiramo eno po eno brez vračanja, dokler jih ne izberemo n. Definiramo slučajno spremenljivko

     (*)-nadaljevanje spodaj!

Opomba: Slučajnim spremenljivkam I1,...,Ik pravimo INDIKATORJI. Očitno je X=I1+...+In. Po linearnosti je E(X)=E(I1)+...+E(In).

Definicija: Če je za neko slučajno spremenljivko I verjetnost P(I=0)=q in P(I=1)=p=1-q, pravimo, da ima I BERNOULLIJEVO PORAZDELITEV s parametrom p. Oznaka: I~Bernoulli(p).

Iz definicije takoj sledi: I~Bernoulli(p) => E(I)=p. V našem zgornjem primeru velja Ik~Bernoulli(B/N) za k=1,...,n. Zaradi simetrije je enako verjetno, da je prva kroglica bela, druga kroglica bela,...,n-ta kroglica bela. Sledi: E(X)=E(I1)+...+ E(In)=B/N+...+B/N=n·B/N.

Primer: Naj bo X~N(μ,σ2). Zanima nas E(X) in E(X2).
Rešitev: E(X)=μ in E(X2)=σ22. (podrobnosti-predavanja)

Primer: Dokazali smo tudi formulo: E(g(x,y))=∫g(x,y)μX,Y(dx,dy). Območje integriranja je R2. Bolj splošno, če integriramo po Rn, velja: E(g(x))=∫g(x) μX(dx). Če ima X gostoto, je E(g(x))=∫g(x)fX(dx).
Vzemimo X~N(μ,Σ). Ta X ima gostoto. Zanima nas E(Xi·Xj).
Rešitev: E(Xi·Xj)=μiμjij. (podrobnosti-predavanja)

Primer: Naj bo X≥0. Velja:

          Torej, če povzamemo:

        Podobno velja za ">", če bi pisali (0,) namesto [0,). Za celoštevilske slučajne spremenljivke pa se ta formula poenostavi v

Opomba: To formulo lahko dokažemo tudi direktno.

NAZAJ NA KAZALO!

 

 

    Varianca in kovarianca

 

Motivacija: Matematično upanje je neke vrste "povprečje" slučajne spremenljivke. Radi bi povzeli še "razpršenost". Radi bi predlagali neko mero razpršenosti. Možnosti je več.
Ideja: Razpršenost je povprečna "razdalja" X od matematičnega upanja E(X). Po Gaussu za mero razdalje vzamemo kvadrat. Iskali bomo povprečje (X-E(X))2.

Definicija: VARIANCA slučajne spremenljivke X je definirana kot var(X)=E((X-E(X))2). STANDARDNI ODKLON definiramo kot SD(X)=(var(X))1/2.

Alternativni izraz za varianco je še: var(X)=E((X-E(X))2)=E(X2-2E(X)·X+E(X)2)=E(X2)-2E(X)E(X)+ E(X)2=E(X2)-2E(X)2+E(X)2=E(X2)-E(X)2.

Primer: Naj bo X~Bin(n,p). Zanima nas var(X). Po enem od zgornjih primerov vemo, da je E(X)=np. Sedaj potrebujemo še E(X2). Po istem zgornjem primeru imamo idejo:

            Sedaj to dvakrat odvajamo po x in dobimo

            Vstavimo x=1 ter upoštevamo, da je p+q=1 in dobimo

            Sledi

            Torej je

Primer: Recimo, da je X~HiperGeom(n,B,N). Koliko je var(X)? Spomnimo se, da je X=I1+...+In. Torej iščemo var(X)=var(ΣXk), za k=1,...,n. Po definiciji je var(X)=E(X2)-E(X)2, zato posebej izračunamo E(X2) in E(X)2. Dobimo:

            Ko izraza odštejemo in preuredimo, dobimo:

 

Definicija: Količino E(X·Y)-E(X)·E(Y) imenujemo KOVARIANCA spremenljivk X in Y. Oznaka: cov(X,Y)= E(X·Y)-E(X)·E(Y).

Interpretacija kovariance: Interpretiramo lahko predznak. Pozitiven predznak pomeni, da v primeru, ko je X velik, tudi Y "teži" k temu, da je večji in obratno, ko je kovarianca negativna.

Definicija: KORELACIJSKI KOEFICIENT slučajnih spremenljivk X in Y je količina:

Komentarja:
(i) Po Cauchy-Schwarzovi neenačbi je vedno |ρ(X,Y)|≤1. Če je |ρ(X,Y)|=1, obstajata α in β, da velja αX+βY=γ za neko konstanto γ.
(ii) V grobem smislu ρ meri "moč povezave" med X in Y.

Definicija: (a) Naj bo X slučajni vektor. VARIANCA X je definirana kot matrika (Cij), i,j=1,...,n, pri čemer je Cii=var(Xi) in Cij=cov(Xi,Xj). Oznaka: var(X).
(b) Naj bosta X in Y slučajna vektorja (ne nujno iste dimenzije). KOVARIANČNO MATRIKO definiramo kot cov(X,Y)= (Cij), i=1,...,m in j=1,...,n, Cij=cov(Xi,Yj) in dim(X)=m, dim(Y)=n.

LEMA 2.8 : Naj bosta X in Y slučajna vektorja in A in B matriki takih dimenzij, da lahko izračunamo A·X in B·Y.
Velja: cov(A·X,B·Y)= A·cov(X,Y)·BT.

Vrnitev k primeru: Želeli smo izračunati varianco X~HiperGeom(n,B,N). Glej (*)-zgoraj!! Upoštevamo še znano formulo za varianco vsote in ker vemo, da je Ik~Bernoulli(B/N), velja: var(Ik)=(B/N)·(R/N). Zaradi simetrije je porazdelitev (Ik,Il) enaka za vsak par k,l. Sledi, da so tudi vse kovariance enake. Velja:

 

Izračunajmo sedaj varianco:

 

Primer (Nobelova nagrada za ekonomijop 1954, Harry Markowitz): Imamo enoto denarja (recimo 1 milijon evrov). Na razpolago imamo n različnih delnic. Predpišimo si želeni donos μ. Radi bi porazdelili to enoto denarja med n delnic, da bo tveganje najmanjše možno.
Kaj bomo predpostavljali?
(i) Računamo znotraj fiksnega časovnega obdobja, recimo 1 leto.
(ii) Donosnost delnice i obravnavamo kot slučajno spremenljivko Xi. Predpostavljamo, da poznamo μi=E(Xi) za vse i=1,...,n. μi so pričakovani donosi. (podrobnosti-predavanja)

NAZAJ NA KAZALO!

 

 

 

    2.4  Transformacije slučajnih spremenljivk

 

Vprašanje: Naj bo X slučajni vektor z gostoto fX(x). Recimo, da je dimenzija X enaka n. Naj bo θ:Rn -> Rn. Definiramo Y=θ(X). Y je spet n-dimenzionalni slučajni vektor. Ali ima gostoto? Če jo ima, kako jo izračunamo?
Recimo, da je θ bijektivna in zvezno parcialno odvedljiva. Predpostavimo, da je tudi θ-1 zvezno parcialno odvedljiva.
Slika za R2:

Prvo opažanje: zaradi bijektivnosti je P(U)=P(V). Po drugi strani: če imata x in y gostoti, velja: P(U)=∫Ufx(x)dx in P(V)=∫Vfy(y)dy.
Intuitivno: Isto količino verjetnosti "trpamo" v različne množice. Če θ v točki x "stiska", se bo gostota povečala, če "širi", se bo gostota zmanjšala. Faktor stiskanja/širjenja je Jacobijeva matrika oz. determinanta |Jθ(x)|.
Uganemo: fY(y)=fX( θ-1(y))·|Jθ-1(y)|.

IZREK 2.9 : Naj bo X slučajni vektor z gostoto fX. Naj za neko odprto množico U iz Rn velja P(U)=1. Naj bo θ bijektivna preslikava, θ:U->V, V iz Rn odprta, taka, da sta θ in θ-1 zvezno parcialno odvedljivi.
Potem je gostota Y=θ(X) na V enaka fY(y)=fX( θ-1(y))·|Jθ-1(y)|.

Primer: Naj bosta U in V neodvisni gama spremenljivki, U~Γ(a,λ) in V~Γ(b,λ). Definirajmo (X,Y)=(U/(U+V),U+V). Zanima nas fX,Y. V izreku vzemimo U=(0,)2. Gostota (U,V) je zaradi neodvisnosti enaka:

          Definirajmo θ(u,v)=(u/(u+v),u+v). θ bijektivno preslika (0,)2 na (0,1)x(0,) in θ je ustrezno parcialno odvedljiva. Računamo:

 

            Sledi:

 

            za 0<x<1, y>0.

            Za 0<x<1, y>0 dobimo torej

            Sklepi:
(i) X in Y sta neodvisni, ker je gostota produkt gostot.
(ii) Y~Γ(a+b,λ). Z drugimi besedami: če je U~Γ(a,λ) in V~Γ(b,λ) in sta neodvisni, je U+V~Γ(a+b,λ).

Definicija: Slučajna spremenljivka X z gostoto

               ima BETA PORAZDELITEV s parametroma a,b>0. Oznaka: X~Beta(a,b).

Opomba: Beta porazdelitev lahko "načaramo" iz Gama porazdelitve kot X=U/(U+V).

Primer: Naj bo Z~N(0,I). Gostota Z je

 

           Velja ZTZ=Z12+... +Zn2, detI=1. Naj bo A nxn obrnljiva matrika in μЄRn. Definiramo θ(Z)= A·Z+μ=X.
Velja: θ-1(X)=A-1(X-μ) in Jθ (X)=1/det(A). Odprti množici U in V sta Rn. Za X=θ(Z)=A·Z+μ izračunamo gostoto fX(x). (podrobnosti-predavanja)

Komentar:
(i) Ko smo definirali N(μ,Σ) porazdelitev, smo rekli Σ>0. Po Choleskem lahko zapišemo Σ=A·AT za neko matriko A. Porazdelitev X~N(μ,Σ) je enaka porazdelitvi A·Z+μ, če je Σ=A·AT.
(ii) Naj bo Z~N(0,I) in A simetrična idempotentna matrika, tj. A2=A. Kakšna je porazdelitev slučajne spremenljivke U=ZTAZ?

Predpriprave: (a) Naj bo X~N(μ,Σ) in B obrnljiva nxn matrika. Kakšna je porazdelitev B·X?
X=A·Z+μ => B·X=B·A·Z+B·μ ~N(,BAATBT)=N(,BΣBT).
 (b) Če je Z~N(0,I) in je Q ortogonalna matrika, je QZ~N(0,QIQT)=N(0,I).
 (c) Naj bo Z~N(0,1). Zanima nas gostota Z2. Poiščemo porazdelitveno funkcijo X=Z2. Spoznamo: X~Γ(1/2,1/2). (podrobnosti-predavanja)
Dodatek: Če so Z1,...,Zr neodvisne in Zi~N(0,1), potem je Z12+...+Zr2~Γ(r/2,1/2). V statistiki ima taka porazdelitev ime χ2(r) (=hi kvadrat porazdelitev s parametrom r).

Računamo torej porazdelitev ZTAZ. A je simetrična, zato je A=QTΛQ, kjer je Λ diagonalna. Ker je A idempotentna, so lastne vrednosti 0 in 1. Lahko izberemo

kjer je r=rang(A)=število enic.
Računamo: ZTAZ=ZTQTΛQZ= WTΛW=W12+...+Wr2~Γ(r/2,1/2)=χ2(r). To so kvadrati neodvisnih N(0,1) spremenljivk.
(iii) Naj bo X~N(μ,Σ). Kako bi izračunali robno porazdelitev X1? Označimo:

Ideja: Izbrali bi radi A' in a' tako, da bosta X1 in (Y2,...,Yn) neodvisna. Dovolj je "načarati" nekoreliranost. Označimo Y'=[a' A']·X=(Y2,...Yn). Izračunamo cov(X1,Y')=0. (podrobnosti-predavanja)
Še vedno je vprašanje, kako "načarati" nekoreliranost. Izbrati moramo stolpce v [a' A']T tako, da so ortogonalni na prvo vrstico Σ. Ker je stolpcev n-1, to vedno lahko naredimo in celo tako, da so stolpci linearno neodvisni. (podrobnosti-predavanja)

Primer: Recimo, da sta X in Y slučajni spremenljivki z gostoto fX,Y. Kako najdemo gostoto Z=X+Y? Definirajmo θ(x,y)=(x+y,y). Potem je θ-1(z,y)=(z-y,y) in Jθ-1(z,y)=1. Sledi fZ,Y (z,y)=fX,Y(z-y,y). Porazdelitev Z dobimo kot robno gostoto fZ(z)=∫fX,Y(z-y,y)dy. Če sta X in Y neodvisni, je fZ(z)=∫fX(z-y)·fY(y)dy.

Primer: Naj bosta X in Y slučajni spremenljivki z gostoto fX,Y in Z=Y/X. Zanima nas gostota Z-ja. Definiramo θ(x,y)=(x,y/x). Vzamemo U=R2\{0}xR. Dobimo: θ-1(x,z)=(x,xz) in Jθ-1(x,z)=x. Sledi: fX,Z(x,z)=fX,Y(x,xz)·|x| (=dvojna gostota)
Še robna gostota: fZ(z)=∫fX,Y(x,xz)|x|dx. Naj bosta recimo Z1 in Z2 neodvisni z Zi~N(0,1), i=1,2. Naj bo W=Z1/Z2. Računamo:

Definicija: Slučajna spremenljivka C z gostoto fC(x)=1/π(1+x2) se imenuje CAUCHY-jeva. Oznaka: C~Cauchy.

NAZAJ NA KAZALO!

 

 

    Vsote diskretnih slučajnih spremenljivk

 

Naj bosta X in Y celoštevilski slučajni spremenljivki in Z=X+Y. Porazdelitev Z izračunamo kot P(Z=n)=P(U{X=k,Y=n-k})=ΣP(X=k,Y=n-k) (to je unija disjunktnih dogodkov). Če sta X in Y neodvisni, dobimo P(Z=n)=ΣP(X=k)·P(Y=n-k). Če sta X in Y nenegativni, dobimo formuli: P(Z=n)=ΣP(X=k,Y=n-k), k=0,...,n, za neodvisni X,Y pa P(Z=n)=ΣP(X=k)·P(Y=n-k), k=0,...,n.

Primer: Naj bosta X in Y neodvisni in za k,l=0,1,... a>0, b>0, β>0, (a)k=a·(a+1) ·...·(a+k-1)= Pochhammerjev simbol, naj bo

            Po formuli je

           (podrobnosti-predavanja)

Posledice: (i) Če sta X,Y~Geom(p) in neodvisni, je X+Y~NegBin(2,p).
(ii) Če so X1,...Xm neodvisne in Xi~Geom(p) za i=1,...,m, je X1+...+Xm~NegBin(m,p). Posledično velja: Če sta X,Y neodvisni in X~NegBin(m,p), Y~NegBin(n,p), je X+Y~NegBin(m+n,p).

Opomba: Pogosto smo naleteli na primere, ko sta bili X in Y porazdeljeni po nekem tipu porazdelitev in je bila tudi vsota istega tipa.

Primer: Naj bosta X,Y neodvisni, X~Po(λ), Y~Po(μ). Računamo:

            Sledi: X+Y~Po(λ+μ).

Primer (Zavarovalništvo): V zavarovalništvu privzamemo, da so časi med posameznimi zahtevki neodvisne, enako porazdeljene slučajne spremenljivke z exp(λ) porazdelitvijo. Zanima nas porazdelitev števila zahtevkov do nekega časa T. Dobimo: NT~Po(λT). (podrobnosti-predavanja)

NAZAJ NA KAZALO!

 

 

 

    2.5  Pogojno matematično upanje in pogojne porazdelitve

 

Primer: Recimo, da naključno izberemo točko na trikotniku Δ={(x,y):0≤y≤1, 0≤x≤y}. Slika:

 

           Recimo, da vam povem x koordinato, ne pa y koordinate. Smiselno lahko rečemo, da je matematično upanje pri tej dodatni informaciji (1+x)/2. Ohlapno bi lahko zapisali, da je E(Y|X=x)=(1+x)/2=Ψ(x). Kolmogorov pravi: kot smo zapisali, je E(Y|X=x) neka funkcija x. Pri izbiri točke je tudi x koordinata slučajna! Torej bi morali pogojno matematično upanje obravnavati kot nekaj "slučajnega". Tisto nekaj je številka. Pogojno matematično upanje bi torej moralo biti slučajna spremenljivka. Katera? Če razmislimo, je to (X+1)/2. Oznaka za to slučajno spremenljivko je E(Y|X).

Primer: Dvema igralcema razdelimo po 5 kart s standardnega kupa kart. X=število asov igralca A in Y=število asov igralca B. Zapišemo lahko: za k=0,...,4 je E(Y|X=k)=5·(4-k)/47. Kaj bi bilo E(Y|X)? Rečemo lahko: E(Y|X)=5·(4-X)/47. Kako je s formalnimi definicijami? Definirali smo P(A|B)=P(AB)/P(B). Kot prvi korak poskušajmo definirati E(X|B). Definicijo P(A|B) lahko razumemo, kot da smo "odvrgli" BC in B delili s P(B), da smo spet dobili verjetnostni prostor. S tem razmišljanjem bi moralo biti: E(X|B)=1/P(B)·B X(ω)P(dω)=1/P(B)·E(X·1B).

Opomba: 1B je indikator B, torej ΧB.

Definicija: Če je P(B)>0, definiramo E(X|B)=1/P(B)·E(X·1B).

Opomba: Privzamemo, da je E(|X|)<. Če je {Bk} particija Ω s P(Bk)>0 za vse k, velja E(X)=Σ E(X|Bk)·P(Bk).

Naj bosta X in Y diskretni slučajni spremenljivki z vrednostmi {x1,x2,...} in {y1,y2,...}. Ker poznamo definicijo E(Y|B), lahko definiramo E(Y|{X=xk})=Σyl·P(Y=yl|X=xk). Izraz je odvisen od xk, torej je funkcija xk. Označimo jo s ψ, definirana je na {x1,x2,...}. Rečemo lahko: E(Y|X=xk)=ψ(xk). Kaj bi definirali kot E(Y|X)? Po Kolmogorovu: E(Y|X)=ψ(X).

Retorično vprašanje:
Definirali smo E(Y|X), če je (X,Y) slučajni diskretni vektor. Recimo, da je X' slučajna spremenljivka, taka, da sta družini {{X=xk}} in {{X'=x'l}} enaki. Kaj lahko rečemo o E(Y|X) in E(Y|X')? Po definicijah do zdaj, je E(Y|X)=E(Y|X'). Opažanje: E(Y|X) je odvisno le od tega, kako X "razparcelira" Ω na množice {X=xk}. To preprosto dejstvo povemo na učen način takole: E(Y|X) je odvisno samo od σ(X), kjer je σ(X) najmanjša σ-algebra, glede na katero je X merljiva. Kolmogorov pravi: zakaj ne bi definirali E(X|G), kjer je G neka σ-algebra, vsebovana v σ-algebri F. ( (Ω,F,P) je naš verjetnostni prostor.) Kako? Vrnimo se k diskretnemu primeru. Izračunajmo za neko omejeno gunkcijo g:

 

 

Povzamemo začetek in konec: E(E(X|Y)·g(Y))=E(X·g(Y)).

Opomba: To velja za vsak g.

S čim bi lahko nadomestili g(Y), tako da bi bila definicija uporabna tudi za splošne σ-algebre?
Opazimo: g(Y) je slučajna spremenljivka, merljiva glede na σ(Y). Po drugi strani pa je vsaka σ(Y) merljiva funkcija enaka g(Y) za nek g. Mogoče lahko namesto g(Y) pišemo indikatorje IG' množic G' iz G=σ(Y). Še ena opazka: E(X|Y) je merljiva glede na σ(Y), ker je funkcija Y.

Definicija: Naj bo (Ω,F,P) verjetnostni prostor, X slučajna spremenljivka z E(|X|)< in naj bo G σ-algebra, vsebovana v F. POGOJNO MATEMATIČNO UPANJE E(X|G) je slučajna spremenljivka z lastnostma:
(i) E(X|G) je G-merljiva
(ii) za vsak G'ЄG velja: E(X·IG')=E(E(X|IG')·IG').

Vprašanji: (i) Ali E(X|G) sploh obstaja?
(ii) Če obstaja ali je enolično določeno?

Odgovora: (i) Za dokaz obstoja posežemo po Radon-Nikodymovem izreku. Privzemimo najprej, da je X≥0. Definiramo dve meri na σ-algebri G:
     (1) P|G  (Če P z F zožimo na G, je še vedno mera na G.)
     (2) Q(G)=∫GX(ω)P(dω)  (Zlahka se s pomočjo LMK prepričamo, da je Q mera.)
Po razmisleku dobimo, da je matematično upanje kar Radon-Nikodymov odvod Q glede na P,tj. E(X|G)=dQ/dP. (podrobnosti-predavanja)
(ii) Enoličnost: Recimo, da imamo dva kandidata Z in Z' za E(X|G). Po definiciji je potem: E(ZIG')=E(Z'IG') za G'ЄG. Vstavimo G'={Z>Z'}. Sledi P(Z>Z')=0. Podobno dobimo P(Z<Z')=0. Torej velja Z=Z' skoraj gotovo.

Opombe: (i) Naj bo Ω=[0,1), F=Borelova σ-algebra in P=Lebesgueova mera. Naj bo G σ-algebra, ki jo generirajo intervali [ai,ai+1), a0=0, a012<... in ai->1. Naj bo X slučajna spremenljivka. Katere funkcije so merljive glede na G? To so funkcije, ki so konstantne na [ai,ai+1) za vse i=0,1,2,... Vemo, med katerimi funkcijami iščemo E(X|G). Kolikšna bo vrednost E(X|G) na [ai,ai+1)? To bo kar povprečna vrednost 1/(ai+1-ai)·[ai,ai+1)X(ω)dω.


(ii) Po poti smo govorili o E(X|Y). Ugotovili smo (vsaj v diskretnem primeru), da je E(X|Y)=ψ(Y) za neko funkcijo ψ. Definirali smo E(X|σ(Y)).


Tehnična lema: Naj bo Z σ(Y)-merljiva slučajna spremenljivka. Potem obstaja Borelova funkcija ψ, da velja ψ(Y)=Z. S to tehnično lemo v rokah lahko rečemo, da je E(X|Y)=E(X|σ(y))=ψ(Y) za neko funkcijo ψ. Za diskreten primer je to vse skupaj trivialno, tj. če je (X,Y) diskreten, so trditve trivialne.


(iii) Večina pogojnih matematičnih upanj bo oblike E(X|Y) ali E(XwY1,...,Yn)=E(X|σ(Y1,..., Yn)), kjer je σ(Y1,...,Yn) najmanjša σ-algebra, glede na katero so Yi merljive. Nadaljna verzija tehnične leme pove, da je E(X|Y1,...,Yn)=ψ(Y1,...,Yn).


(iv) Pogosto lahko pogojno matematično upanje uganemo, vendar to ni dokaz. Imamo samo osumljenca. Dokazati moramo, da je osumljenec G-merljiv in da je E(osumljenec· IG)=E(X·IG).

LEMA 2.10 : Naj bosta X1, X2 slučajni spremenljivki, tako da velje E|X1|< in E|X2|<. Naj bo GЄF σ-algebra. Velja:
(i) E(αX1+βX2|G)=αE(X1|G)+βE(X2|G)
(ii) Če je X1≥0, je E(X1|G)≥0
(iii) Naj bo U G-merljiva in E|UX1|<. Potem je E(UX1|G)= U·E(X1|G)
(iv) Naj bo HЄG σ-algebra. Velja: E(X1|H)=E(E(X1|G)|H) (="TOWER PROPERTY")
(v) Naj bo Φ:R->R konveksna in E(|Φ(X1)|)<. Potem velja: E(Φ(X1)|G)≥Φ(E(X1|G)). (=JENSENOVA NEENAKOST)

NAZAJ NA KAZALO!

 

 

 

    Primeri izračuna matematičnega upanja

 

Primer1: Naj bosta X in Y neodvisni slučajni spremenljivki in f:R2->R merljiva, taka, da je E|f(X,Y)|<. Računamo pogojno matematično upanje E(f(X,Y)|Y). Vemo, da je odgovor oblike ψ(Y) za neko merljivo funkcijo ψ. Iščemo to funkcijo. Intuitivna ideja: "Pogojno matematično upanje je matamatično upanje pri danem Y". Ker je X neodvisen od Y, se lahko "pretvarjamo", da je Y konstanta, torej rečemo: ψ(y)=E(f(X,y))=∫Rf(x,y)μX(dx).
Dokazati moramo:
(i) ψ je merljiva in skoraj povsod <:
Glej drobovje Fubinijeve konstrukcije za merljivost.
(ii) ψ(Y) je osumljenec. Merljivost glede na σ(Y) je jasna.
Stranski komentar: po definiciji mora veljati E(E(X|Y)1G)=E(X1G) za vsak GЄσ(Y). Vsak tak G je oblike G=Y-1(B) za neko merljivo množico B. Z drugimi besedami: 1G=1B(Y). S trivialno uporabo izreka o monotoni konvergenci in aproksimacijo nenegativnih omejenih merljivih funkcij z enostavnimi dobimo, da velja (*) E(E(X|Y)·g(Y))=E(X·g(Y)) za vsak omejen merljiv g≥0. Če preverimo (*), smo preverili tudi definicijo. (podrobnosti-predavanja)

Primer2: Naj imata X,Y gostoto fX,Y. Računamo E(X|Y) ali bolj splošno E(Φ(X)|Y). Predpostavljamo E|X|< in E|Φ(X)|<. Vemo: E(Φ(X)|Y)=ψ(Y) za nek ψ. Kandidat za ψ bi bil

           Preverimo pravilnost odgovora: merljivost in končnost funkcije ψ sledita iz Fubinijeve konstrukcije. (podrobnosti-predavanja)

Primer3: Naj bosta (X,Z) in (Y,Z) slučajna vektorja z enako porazdelitvijo. Ali je potem E(X|Z)=E(Y|Z)? (s.g.= skoraj gotovo) Vemo: če imamo gostoto, potem to velja. Poglejmo: E(X|Z)=ψ1(Z) in E(Y|Z)=ψ2(Z). Po definiciji je E(E(X|Z)·g(Z))=E(X·g(Z)) in E(E(Y|Z)·g(Z))=E(Y·g(Z)). Ker sta (X,Z) in (Y,Z) enako porazdeljena, velja enakost E(X·g(Z))=E(Y·g(Z)). Sledi: E(ψ1(Z)·g(Z))=E(ψ2(Z)·g(Z)) za vsako merljivo g≥0. Če vzamemo za g karakteristično funkcijo g(z)=11(z)>ψ2(z)), dobimo P(ψ1(Z)>ψ2(Z))=0. Z zamenjavo vlog dobimo še obratno neenakost in zato velja ψ1(Z)=ψ2(Z) s.g.

Opomba: To ne pomeni, da je ψ12, ampak le ψ1(Z)=ψ2(Z).

Uporaba: Naj bo (X1,...,Xn) slučajni vektor z neodvisnimi, enako porazdeljenimi komponentami. Naj bo Sn=X1+...+Xn. Predpostavljamo E|X1|<. Računamo E(X1| Sn).
Uganemo: E(X1|Sn)=Sn/n.
Preverimo na naslednji način:
Vsi pari (Xi,Sn) so enako porazdeljeni. Sledi: E(X1|Sn)=E(X2|Sn)=...=E(Xn|Sn) s.g. Seštejemo in dobimo: E(X1|Sn)+...+E(Xn|Sn)=E(Sn|Sn)=Sn s.g. Po drugi strani pa je E(X1|Sn)+...+E(Xn|Sn)=n·E(X1|Sn). Sledi: n·E(X1|Sn)=Sn  =>  E(X1|Sn)=Sn/n.

Opomba: Isti razmislek deluje, če vemo, da imajo pari (Xi,Sn) enako porazdelitev. Primer takega pogoja je izmenljivost: X1,...,Xn so izmenljive, če je porazdelitev (Xσ(1),...,Xσ(n)) enaka za vsako permutacijo σЄSn.(=simetrična grupa)

Primer4: Če sta X,Y neodvisni, je E(X|Y)=E(X). Naj bo vektor

             Računamo E(X|Y). Ideja: Ali lahko najdemo tako konstanto α, da bosta spremenljivki X-αY in Y neodvisni? Dovolj je, ker je (X-αY,Y) večrazsežen, normalen, da je cov(X-αY,Y)=0. Računamo: cov(X-αY,Y)=cov(X,Y)-αcov(Y,Y)=σ12-ασ22=0. Dobimo α=σ1222. Sledi: E(X-αY|Y)=E(X-αY)=μ1-αμ2. Po drugi strani pa je E(X-αY|Y)=E(X|Y)-αY. Dobimo rezultat: E(X|Y)=μ1+α(Y-μ2) za α=σ1222.

Posplošimo: Če je X1 neodvisna od (X2,...,Xn), je E(X1|X2,...,Xn)= E(X1). Naj bo X=(X1,...,Xn)~N(μ,Σ), kjer je

              Zanima nas E(X1| X2,...,Xn). Poskusimo odšteti X1 neko linearno kombinacijo X2,...,Xn, tako, da bo rezultat neodvisen od (X2,...,Xn). Iščemo izraz oblike X1-aTX', X'= (X2,...,Xn)T, aT=(a2,...,an). Izračunamo kovarianco: cov(X1-aTX',X')=cov(X1,X')-aTcov(X',X')= σ1-aTΣ'=0. Sledi: a=(Σ')-1σ1T. Dobimo: E(X1-aTX'|X')=E(X1-aTX')=μ1-aTμ'= E(X1|X')-aTX'. Torej je E(X1|X')= μ1+aT(X'-μ').

NAZAJ NA KAZALO!

 

 

 

    Pogojne porazdelitve

 

Začeli bomo s formulo P(A|B)=P(AB)/P(B), P(B)≥0. Recimo, da je X slučajna spremenljivka in B dogodek s P(B)>0. Definirali smo E(X|B)= E(X·1B)/P(B). Kaj bi bila definicija pogojne porazdelitve X glede na B? Porazdelitev je v načelu mera na prostoru, kjer ima X svoje vrednosti. Označimo začasno pogojno porazdelitev z μX(*|B). Kaj bi bila ta mera? μX(A|B)= P({XЄA}B)/P(B). Preverimo, da velja: E(X|B)=∫RX(dx|B) (če je X realna slučajna spremenljivka). Računamo za X≥0:

Pogojno matematično upanje je integral pogojne porazdelitve.

Opomba: Če X ni nenegativna, gledamo X+ in X-.

Naslednji korak: Recimo, da sta X in Y diskretni slučajni spremenljivki. Definirati znamo: μX(*|{Y=yl})= P({XЄ*}{Y=yl})/P(Y=yl)=Q(*,yl); vlogo B igra {Y=yl}. Q je funkcija dveh spremenljivk. Prva spremenljivka je merljiva množica, druga pa možna vrednost Y. Kaj lahko rečemo o funkciji, ki slika A v Q(A,yl)? Funkcija Q:A->Q(*,yl) (za fiksen yl) je mera. Smiselno je definirati Q(*,yl) kot pogojno porazdelitev X glede na {Y=yl}. Ponovimo razmislek Kolmogorova: Za različne yl dobimo različne pogojne porazdelitve (ali različne mere). Ampak yl so možne vrednosti neke slučajne količine Y. Podobno kot pri matematičnih upanjih si drznemo reči, da bo pogojna porazdelitev X glede na Y neka "slučajna mera" (odvisna od Y). Kakšna bi bila pa splošna definicija pogojne porazdelitve? Po istem razmisleku kot pri pogojnih matematičnih upanjih, bomo definirali POGOJNO PORAZDELITEV slučajne spremenljivke X glede na GЄF, kjer je G σ-algebra. Kakšne bi bile zahteve?
(i) Če označimo s Q:BxΩ->[0,1] pogojno porazdelitev, lahko gledamo funkcijo ω->Q(A,ω) za fiksen A.  Zahtevali bi G merljivost.
(ii) Funkcija A->Q(A,ω) je mera za fiksen ω.
(iii) Veljati mora E(1(XЄA)|G)=Q(A,*).

Vprašati se moramo:
(1) Ali tak objekt obstaja?
(2) Ali je enolično določen?

Odgovor:
(1) V splošnem Q ne obstaja. V splošnem je X slučajna spremenljivka z vrednostmi v metričnem prostoru (M,d). Če je (M,d) poljski prostor (tj. v neki ekvivalentni metriki je poln in separabilen), potem Q obstaja.
(2) Enoličnost je preprosta do s.g.

Komentar k zahtevi (iii)  E(1(XЄA)|G)=Q(A,*): Ker je pogojno matematično upanje linearno, velja za vsako enostavno funkcijo f, da je E(f(X)|G)(ω)=∫Mf(x)Q(dx,ω). Kaj če je f nenegativna, merljiva in omejena? Za pogojna matematična upanja velja LMK v smislu: če Y12<...->Y, Yn≥0, E(Y)<, potem E(Y1|G)2|G)<...->E(Y|G).

Za omejeno f≥0 takoj sledi, da je E(f(X)|G)(ω)=∫Mf(x)Q(dx,ω).

Še en dodatek: Če je X≥0, lahko iz istega LMK dobimo E(X|G)(ω)=∫RxQ(dx,ω).

Primeri: (i) Če sta X in Y diskretni, definiramo najprej Q'(A,y)=P(XЄA,Y=y)/P(Y=y) za P(Y=y)>0. Pogojna porazdelitev X glede na Y (ali σ(Y)) je Q(A,ω)=Q'(A,Y(ω)). Trivialno preverimo zahteve.


(ii) Naj bosta X,Y slučajni spremenljivki z gostoto fX,Y na R2. Definirajmo:

            Pogojna porazdelitev je Q(A,ω)=Q'(A,Y(ω)). Preverjanje je rutinsko. (Sredstvo je drobovje Fubinijevega izreka!) V čem je ideja? Pričakujemo, da je pogojna gostota X glede na Y proporcionalna funkciji x->fX,Y(x,y).


(iii) Naj bosta X, Y neodvisna slučajna vektorja z vrednostmi v Rm. Kaj je pogojna porazdelitev Z=X+Y glede na Y? Ideja: Če bi X prišteli fiksen vektor, bi se porazdelitev prestavila za tisti fiksni vektor. Če pa prištevamo neodvisni slučajni vektor, porazdelitev X "slučajno" prestavimo. Ideja: Q(A,ω)=μX( A-Y(ω)). Pri preverjanju nastopi tehnična motnja: dokazati moramo, da je funkcija y->μX(A-y) merljiva za fiksen y. To gre z Dynkinovo lemo. Ostala preverjanja so rutinska.

NAZAJ NA KAZALO!

 

 

 

    2.6  Martingali

 

Najprej potrebujemo nekaj definicij.

Definicija: Naraščajočemu zaporedju σ-algeber F0F1F2...F rečemo FILTRACIJA (prostora Ω).

Pojem martingala je motiviran s "fair" igrami na srečo. Kar pričakujemo v naslednji igri je enako temu, kar trenutno imamo.

Definicija: Naj bo {Fn} filtracija. Zaporedje parov (Xn,Fn), kjer je Xn slučajna spremenljivka z E(|Xn|)< za n≥0 je MARTINGAL, če velja: E(Xn+1|Fn)= Xn za n≥0.

Dodatek: Za vsak n mora biti Xn Fn-merljiva.

Komentar: Fn interpretiramo kot "preteklost" do vključno trenutka n.

Definicija: (i) (Xn,Fn) je SUB-MARTINGAL, če je E(Xn+1|Fn)≥Xn skoraj gotovo.
(ii) (Xn,Fn) je SUPER-MARTINGAL, če je E(Xn+1|Fn)≤Xn skoraj gotovo.

Primeri: (i) Naj bodo X0,...,Xn slučajne spremenljivke, ki so neodvisne in velja E(Xi)=0 za vse i. Naj bo Fn=σ(X0,...,Xn) in Sn=X0+...+Xn. (Sn,Fn) je martingal. Računamo:
E(Sn+1|Fn)=E(Xn+1+Sn|X0,..., Xn)=E(Xn+1|X0,...,Xn)+E(Sn|X0,...,Xn)=E(Xn)+Sn=Sn, saj je E(Xi)=0 za vsak i.


(ii) Naj bodo X1,X2,... neodvisne, enako porazdeljene s P(Xi=1)=p in P(Xi=-1)=1-p=q za p≠1/2. Definiramo Fn=σ(X1,...,Xn), Sn=X1+...+Xn, X0=0. Naj bo Yn=(q/p)Sn. To je De Moivrov martingal. Preverimo:

Oglejmo si sedaj nekaj preprostih posledic definicij.

Posledica1: Naj bo m>n. Potem je E(Xm|Fn)=E(E(Xm|Fm-1)|Fn)=E(Xm-1| Fn)=...=E(Xn|Fn)=Xn.

Posledica2: Iz prve posledice takoj sledi opazka, da za m>n in GЄFn velja E(Xm·1G)=E(Xn·1G).

Opomba: Obe posledici veljata tudi za sub-martingal, tj. E(Xm|Fn)≥Xn in E(Xm·1 G)≥E(Xn·1G).

Posledica3: Iz druge posledice ali iz definicij takoj sledi, da je E(X0)=E(X1)=E(X2)=...= E(Xn)=...
Za sub-martingal pa velja E(X0)≤E(X1)≤E(X2)≤...≤E(Xn)...

Motivacija za koncept opcijskega časa:
Pri igrah na srečo lahko "izstopimo" v slučajnem trenutku T.
Primer: Igramo, dokler dvakrat zapored ne izgubimo, potem nehamo, tj. ko dvakrat zapored izgubimo, nehamo igrat. T postane slučajna spremenljivka z vrednostmi v splošnem 0,1,2,...; (=to je zapis za {0,1,2,...}U{}). Kakšni T-ji pridejo v poštev, če izključujemo jasnovidnost? To pomeni, da izstopimo na podlagi "informacije", ki jo "imamo na razpolago" do T. Kako to opisati matematično? Oglejmo si dogodek {T≤n} za n≥0. Če se ta dogodek zgodi, smo se za izstop odločili na podlagi prvih n iger. Kateri objekt "vsebuje" dogodke v zvezi s prvimi n igrami? To je Fn!

Definicija: Slučajna spremenljivka T:Ω->{0,1,...;} je OPCIJSKI ČAS, če velja, da je T F-merljiva in da je za vsak n≥0 dogodek {T≤n}ЄFn.

Opomba: Take T lahko razumemo kot strategije brez jasnovidnosti.

Primer: (i) Naj bodo X0,X1,...celoštevilske slučajne spremenljivke. Definiramo T=inf{n≥0: XnЄA} s konvencijo inf{{}}=. Pokažimo, da je to opcijski čas: {T≤n}= U{XkЄA}, k=0,...,n. Sledi {T≤n}ЄFn.
(ii) T=inf{n≥1: Xn≥Xn-1}, inf{{}}=. Preverimo: {T≤n}=U{Xk≥Xk-1}, k=1,...,n. Sledi {T≤n}ЄFn.

LEMA 2.11 : Naj bo (Xn,Fn) martingal (oz. sub-martingal). Naj bo T omejen opcijski čas. (Kot funkcija ima zgornjo mejo.) Potem velja: E(XT)=E(X0) (oz. E(XT)≥E(X0)).

Opomba: Formalno je XT=X(ω)T(ω).

Posledica: Recimo, da igramo ruleto in je X0,X1,...naše premoženje v trenutkih n=0,1,...Stave pri ruleti so take, da v povprečju vedno izgubimo. V matematiki se to prevede v izjavo, da je X0,X1,...super-martingal glede na Fn=σ(X0,X1,...,Xn). Za super-martingal in omejen opcijski čas T≤N je E(XT)≤E(X0)=x0=neka konstanta, tj. začeten kup denarja. T je strategija.
Sklep: Vse strategije v omejenem času, ki niso jasnovidne, v povprečju izgubljajo.
Kaj pa strategije, ki niso omejene v času? Uporabimo naslednji trik:
Če sta T in S opcijska časa, je tudi T/\S=min{T,S} opcijski čas. Preverimo: {T/\S≤n}={T≤n}U{S≤n}ЄFn. Konstante so opcijski časi, torej je T/\S opcijski čas. Vemo,da lema 2.11 velja za omejene T. Dosti T je neomejenih.

Protiprimer: Naj bodo X1,X2,... neodvisne slučajne spremenljivke, tako da je P(Xi=1)=P(Xi=-1)=1/2. Definiramo S0=0, Sn=X1+...+Xn, Fn=σ(S0,S1,...,Sn). Velja: (Sn,Fn) je martingal.
Definiramo T=inf{n;Sn=1}. Zlahka dokažemo, da je P(T < )=1. Očitno je E(S0)=0, E(ST)=1 (ker je P(ST=1)=1) in zato lema 2.11 NE VELJA!
Kakšne predpostavke potrebujemo? Vemo, da je T/\N opcijski čas in velja E(XT/\N)=E(X0) (po lemi 2.11). Po drugi strani je res: E|XT-XT/\N|=E(|XT-XN|·1(T>N))≤ E(|XT|·1(T>N))+E(|XN|·1(T>N)). Če je P(T<)=1 (sicer razprava ni smiselna) je lim XT/\N=XT, ko N->. Vemo: E(XT)=E(limXT/\N) za N->. Kakšne predpostavke potrebujemo?

LEMA 2.11(a) : Naj bo (Xn,Fn) martingal (oz. sub-martingal). Naj bo T opcijski čas z P(T<)=1.
Naj velja:
(i) E|XT|<
(ii) limsup E|XN|·1(T>N)=0.
Potem je E(XT)=E(X0)  (oz. E(XT)≥E(X0)).

Primer: Naj bodo X1,X2,...neodvisne, enako porazdeljene slučajne spremenljivke in P(Xi=1)=p, P(Xi=-1)=q, p≠q, S0=0, Sn=X1+...+Xn. Vemo, da je Mn= (q/p)Sn martingal. Skica:

 

            Definirajmo T=inf{n≥1; SnЄ{a,b}}. Očitno je |MT|≤M za nek M. Dokazali smo že, da je P(T<)=1. Oglejmo si še |MN|·1(T>N). Zlahka se prepričamo, da je ta izraz ≤A·1(T>N) za nek A (na 1(T>N) ima MN kvečjemu končno mnogo različnih vrednosti). Oba pogoja sta izpolnjena. Sledi: E(MT)=E(M0)=1 po lemi 2.11(a). Po drugi strani je: MT= (q/p)a·1(ST=a)+(q/p)b·1(ST=b). Sledi: 1=E(MT)=(q/p)a·P(ST=a)+(q/p)b·P(ST=b). Torej je 1-(q/p)a=((q/p)b- (q/p)a)·P(ST=b). Rezultat:

Primer (Maksimalna neenakost): Pogosto je potrebno oceniti verjetnost P(maxXn≥C) za 1≤n≤N. Če je Xn sub-martingal, lahko to verjetnost ocenimo. Kako? Izmislimo si ustrezen opcijski čas in uporabimo lemo 2.11.
Dobimo: P(maxXn≥C)≤E(XN)/C za 1≤n≤N. (podrobnosti-predavanja)

Če Xn niso nenegativni, vzamemo Xn+=max(0,Xn). Zaradi Jensenove neenakosti (x->max(0,x) je konveksna) je E(Xn+1+|Fn)≥E(Xn+1|Fn)+≥Xn+. Iz tega sledi, da je (Xn+,Fn) tudi sub-martingal. Za C > 0 je potem po istem postopku P(maxXn≥C)≤E(XN+)/C (maksimalna neenakost).

Opomba: Elementarno velja za Y≥0, da je P(Y≥C)≤E(Y)/C.

Primer: Vrnimo se k primeru rulete. Xn je super-martingal. Recimo, da imamo končno kredita L, kar pomeni Xn≥-L za vse n. Lema 2.11 pravi, da je E(XT/\N)≤E(X0)=x0. Predpostavimo, da je P(T<)=1. Potem XT/\N->XT, ko N->. Vemo (po Fatoujevi lemi) da je E(XT)=E(liminfXT/\N)≤liminf E(XT/\N)≤liminf x0=x0, pri čemer gre N->.

NAZAJ NA KAZALO!

 

 

 

3.  TRANSFORMACIJE IN KONVERGENCE SLUČAJNIH SPREMENLJIVK

    3.1  Rodovne funkcije in procesi razvejanja

 

Za zaporedje c0,c1,c2,... lahko formalno definiramo potenčno vrsto G(z)=Σckzk; ck,zЄC in k=0,...,. Tej funkciji rečemo RODOVNA FUNKCIJA zaporedja {ck}. Če ta potenčna vrsta konvergira za vse |z|≤ρ, ρ>0, potem G natanko določa koeficiente ck, recimo po formuli

za Kr={z: |z|=r} in 0<r<ρ.
Ideje za rodovne funkcije so imeli De Moivre, Stirling in Euler. Ideja: V rodovno funkcijo lahko "zapakiramo" porazdelitev nenegativne celoštevilske slučajne spremenljivke kot GX(s)=ΣP(X=k)sk= E(sx) in k=0,...,.

Opomba: Razumemo 00=1.

Za primer izračunajmo nekaj rodovnih funkcij:
(i) X~Geom(p)


(ii) X~Po(λ)

Komentarji:
(i) Ker je ΣP(X=k)=1, je G(1)=1 in potenčna vrsta konvergira enakomerno za |s|≤1.
(ii) Za |s|<1 je GX(s) neskončnokrat zvezno odvedljiva.

LEMA 3.1 : (i) GX enolično določa porazdelitev nenegativne celoštevilske slučajne spremenljivke X.

                (ii) Če sta X,Y neodvisni, nenegativni, celoštevilski slučajni spremenljivki, je GX+Y=GX·GY.

                (iii) Velja E(X)=limGX'(s) za s->1 in bolj splošno: E(X·(X-1)·...·(X-k+1))=limGX(k)(s) in s->1.

Primer: Naj bo X celoštevilska, nenegativna, dana s predpisom

            za k=0,1,... in β,a>0. Izračunajmo rodovno funkcijo. Najprej potrebujemo majhen trik:

            Računamo:

 

 

Primer (mešane porazdelitve): Naj bosta X in Λ slučajni spremenljivki in naj za k=0,1,...velja

           Podali smo torej pogojno porazdelitev X glede na Λ. Pogojno na Λ ima X Poissonovo porazdelitev s parametrom Λ. Naj bo Λ~Γ(a,λ). Kakšna je porazdelitev X? Izračunajmo GX:

           Če bi pisali β namesto λ, bi še prej spoznali rodovno funkcijo-glej rezultat prejšnjega primera!

NAZAJ NA KAZALO!

 

 

 

    Procesi razvejanja

 

Leta 1871 je Sir Francis Galton (1822-1911) postavil naslednje vprašanje: vzemimo angleškega aristokrata. Predstavljajmo si (tj. predpostavljajmo), da bo imel k potomcev z verjetnostjo pk za k=0,1,... Vsak od potomcev bo imel spet slučajno število potomcev, neodvisno od ostalih. k potomcev bo imel z verjetnostjo pk. Rodbina se nadaljuje po tem ključu.
Vprašanje: Kolikšna je verjetnost, da rodbina začetnega aristokrata izumre?
Problem je rešil Reverend H.W.Watson, leta 1874 z rodovnimi funkcijami. Za matematično obravnavo moramo jasno povedati predpostavke:
(i) Predpostavljali bomo, da so generacije simultane, tj. da ne pride do zamika.
(ii) Števila potomcev posameznikov v n-ti generaciji so neodvisne slučajne spremenljivke.
Potrebujemo še nekaj oznak: Rodovno funkcijo števila posameznikov označimo z G, torej G(s)=Σpksk. Število posameznikov v n-ti generaciji označimo z Zn, n=0,1,...
Možen graf dogajanja:

Predpostavke moramo prevesti v bolj matematični jezik. Vzemimo (zelo formalno) neskončen nabor slučajnih spremenljivk {ζij}i,j≥1, kjer so ζij neodvisne, enako porazdeljene, nenegativne, celoštevilske slučajne spremenljivke, z rodovno funkcijo G. Postavimo Z0=1, Z111, Z22122+...+ζ2Z1, ..., Zn+1n+1,1+...+ζn+1,Zn.

Opomba: Če je Zn=0, je Zn+1=0.

Opomba: Ker so ζij neodvisne, je Zn neodvisna od ζn+1,1,...,ζn+1,Zn-1.

Potrebujemo lemo:

LEMA 3.2 : Naj bodo ζ12,... neodvisne, enako porazdeljene, nenegativne, celoštevilske slučajne spremenljivke. Naj bo N od njih neodvisna, nenegativna, celoštevilska slučajna spremenljivka. Definiramo: X=ζ1+...+ζN. Velja: GX(s)=GN(Gζ1(s)).

Kaj ta lema pomeni za proces razvejanja? Vemo, da je Zn+1n+1,1+...+ζn+1,Zn in Zn je neodvisen od ζn+1,1n+1,2,... Označimo rodovno funkcijo Zn z Gn. Sledi: Gn+1(s)=Gn(G(s)). Dobimo rekurzivno formulo za rodovne funkcije.

Opomba: Predpostavke lahko zelo kompaktno strnemo v E(sZn+1|Zn,Zn-1,...,Z0)=G(s)Zn.

Nadaljujmo s procesom razvejanja: Označimo An={Zn=0}. Velja: A1A2A3... (tj. ko rodbina enkrat izumre, je ni več). Dogodek {rodbina izumre} je enak uniji UAn, n=1,...,, tj. vsaj ena generacija mora biti prazna. Po lemi 1.2 je η:=P(UAn)=limP(An), n=1,...,. Kako izrazimo P(An)=P(Zn=0) z rodovnimi funkcijami? Velja: P(Zn=0)=Gn(0). Sledi η=limGn(0), ko n->. Iz rekurzije pa sledi: Gn+1=G◦G◦..◦G=G◦Gn (kompozitum je asociativen). Torej je: η=limGn+1(0)=limG(Gn(0))=G(limGn(0))=G(η), ko n->.

Sklep:
η=P(rodbina izumre) je fiksna točka funkcije G na intervalu [0,1]. η=1 je vedno fiksna točka. Ni pa nujno edina! Prava verjetnost je NAJMANJŠA fiksna točka funkcije G na [0,1]. (podrobnosti-predavanja)

IZREK 3.3 : Naj bo Z0,Z1,... proces razvejanja in označimo z μ=E(Z1)=pričakovano število potomcev. Potem velja:
(i) Če je μ<1, je η=1.
(ii) Če je μ>1, je ηЄ[0,1).
(iii) Če je μ=1 in var(Z1)>0, je η=1.

Opomba: Zakaj v točki (iii) predpostavljamo, da je var(Z1)>0? Če tega ne predpostavimo, ostane naslednji primer:

            Torej: P(Butalci forever)=1. Butalska rodovna funkcija je G(s)=s.

Recimo, da je ηЄ[0,1), torej μ>1. Kaj se dogaja z velikostjo populacije, če rodbina ne izumre? Problema se bomo lotili z martingali. Oglejmo si XnZn, kjer je η fiksna točka in ηЄ[0,1). Definiramo Fn= σ(Z0,Z1,...,Zn). Zaporedje (Xn,Fn) je martingal. Zakaj? Predpostavke o procesu razvejanja smo strnili v to, da je E(sZn+1|Z0,...,Zn)=G(s)Zn. Vstavimo s=η in trditev sledi.

 

EKSKURZIJA V MARTINGALE:

Definicija: Zaporedje slučajnih spremenljivk X1,X2,... z vrednostmi v R (ali v (M,d)) KONVERGIRA SKORAJ GOTOVO glede na P, če je P({w: Xn(w) konvergira})=1. Oznaka:

Opomba: (i) V načelu bi morali dokazati, da je dogodek v P(...) merljiv. Vendar ga zlahka napišemo s števnimi unijami in preseki.
(ii) V teoriji mere temu pravimo konvergenca skoraj povsod.

IZREK 3.4 : Naj bo (Xn,Fn) sub-martingal. Naj velja liminfE(Xn+)<; (X+=max(0,X)). Potem zaporedje Xn konvergira s.g. proti X za neko slučajno spremenljivko X, ko n->.

Kaj ta izrek pove o procesu razvejanja? Vemo, da je XnZn martingal. Ker je ηЄ[0,1) in ZnЄ{0,1,2,...}, je Xn omejen, torej je predpostavka iz izreka 3.4 utemeljena oz. izpolnjena. Torej Xn konvergira s.g. Na dogodku {rodbina izumre} je ta limita enaka 1. Označimo X=limXn s.g., n-> in A={Zn=0 za nek n≥1}. Po LDK velja: E(X)= E(limXn)=limE(Xn)=limη=η, n->.
Po drugi strani zapišemo:
E(X)=E(X·1A+X ·1AC)=E(1A+X·1AC)=P(A)+E(X·1AC)= η+E(X·1AC). Ko izraza enačimo, dobimo: η=η+E(X·1AC). Iz tega sledi, da je E(X·1AC)=0. Torej je X=0 na AC, ker je X≥0 s.g.! (podrobnosti-predavanja)

Vrnimo se sedaj h konvergenci martingalov. Najprej potrebujemo preprosto neenačbo za sub-martingal. Če je (Xn,Fn) sub-martingal in sta T in S opcijska časa z 0≤S≤T≤N, potem velja: E(XS)≤E(XT).
Zdaj pa lahko začnemo z dokazovanjem konvergence sub-martingalov. Ideja: Izbrali si bomo interval [a,b]. Dokazali bomo, da sub-martingal "prečka" [a,b] samo končno mnogokrat. Definirajmo nekaj količin za sub-martingal (Xn,Fn):
S1=inf{n≥0, Xn≤a}
T1=inf{n>S1, Xn≥b}
...
Si=inf{n>Ti-1, Xn≤a}
Ti=inf{n>Si, Xn≥b}
Definiramo U(a,b,N)=max(j: Tj≤N). Ta slučajna spremenljivka šteje, kolikokrat je Xn "prečkal" interval [a,b] od spodaj navzgor v času do N. Definirajmo še Si*=Si/\N=min(N,Si) in Ti*=Ti/\N=min(N,Ti). Si* in Ti* so tudi opcijski časi in po definiciji velja Si*≤Ti*.

LEMA 3.5 (Neenačba za prečkanja): Velja E(U(a,b,N))≤E((XN-a)+)/(b-a)≤ (E|XN|+|a|)/(b-a).

LEMA 3.6 : Naj bo XN sub-martingal in naj velja liminfE(Xn+)<, n->. Potem Xn konvergira s.g.

NAZAJ NA KAZALO!

 

 

 

    3.2  Karakteristične funkcije

 

Želimo transformacijo, ki bi bila uporabna za poljubne slučajne spremenljivke in bi imela še kakšno lepo lastnost. Sposodimo si Fourierjevo transformacijo iz analize in definiramo:

Definicija: Naj bo X slučajna spremenljivka z vrednostmi v R. Njeno KARAKTERISTIČNO FUNKCIJO definiramo kot ΦX(t)=E(eitx).

Opomba: (i) Če je Z slučajna spremenljivka z vrednostmi v C, razumemo E(Z) po komponentah.
(ii) ΦX obstaja za vsak t, ker je |eitx|≤1.
(iii) Terminologija je nekoliko nenatančna. V resnici bi morali govoriti o karakterističnih funkcijah porazdelitve X. Lahko napišemo: ΦX(t)=E(eitx)=∫ReitxμX(dx).

Nekaj primerov karakterističnih funkcij:

Primer1: Naj bo X nenegativna, celoštevilska slučajna spremenljivka, z rodovno funkcijo GX. Potem je:

Primer2: Poskusimo izračunati ΦX za X~N(0,1). V načelu je:

 

Primer3: Naj bo X~Γ(a,λ). Računamo karakteristično funkcijo:

            (*)-Utemeljitev zamenjave integrala in vsote:
Po izreku LDK lahko vedno zamenjamo vrstni red, če je Σ|fn| integrabilna. V našem konkretnem primeru je fn(x)=(itx)k·xa-1·e-λx/k!. Dobimo: Σ|fk(x)|=...=xa-1e-λxe|t|·|x|. To je integrabilna funkcija, če je |t|≤λ. Za poljubne t lahko sklepamo na podlagi holomorfnosti funkcije t->ΦX(t) na pozitivni polravnini, tj. Re(z)>0. Bralec: kako pa je z injektivnostjo?

IZREK 3.7 : Karakteristična funkcija ΦX natanko določa porazdelitev μX.

Komentar: Če se izkaže, da je ΦXЄL1(R), lahko z majhno spremembo dokaza ugotovimo, da ima X gostoto, ki je dana z fX(x)=(1/2π)·∫e-itΦX(t)dt.

LEMA 3.8 : (i) Naj bo X slučajna spremenljivka in ΦX njena karakteristična funkcija. Velja: |ΦX|≤1 in ΦX je enakomerno zvezna na R.
(ii) ΦX(-t)=ΦX(t)* (tj. konjugirano-pišemo tudi s črto nad izrazom).
(iii) Če sta X in Y neodvisni, je ΦX+YX·ΦY.

Primeri: (i) Naj bosta X in Y neodvisni in X~Γ(a,λ), Y~Γ(b,λ). Potem je

             Zaradi enoličnosti je X+Y~Γ(a+b,λ).


(ii) Vzemimo X z Laplaceovo porazdelitvijo, tj. fX(x)=1/2·e-|x|. Izračunajmo:

           Iztržili smo naslednje: Če je Y Cauchy-jeva, torej ima gostoto fY(y)=1/(π(1+y2)), je karakteristična funkccija enaka ΦY(t)=e-|t|.


(iii) Naj bodo X1,...,X4 med sabo neodvisne in Xi~N(0,1) za vse i. Definirajmo: Y:=X1·X2+X3·X4. Zanima nas porazdelitev Y. Izračunajmo karakteristično funkcijo produkta X1·X2. Vemo: če sta X,Z neodvisni, je E(f(X,Z)|Z)=ψ(Z), kjer je ψ(Z)=E(f(X,Z)). Pri izračunu se delamo, da je X2 konstanta. Torej je:

            Ker sta X1·X2 in X3·X4 neodvisni in enako porazdeljeni, je ΦY(t)=ΦX1·X2(t)·ΦX3·X4(t)= 1/(1+t2).  To pa je karakteristična funkcija porazdelitve z gostoto fY(y)=(1/2)·e-|y| na R.


(iv) Vemo, da je ΦX(t)=E(eitx)=∫ReitxμX(dx). Kako pa je z odvedljivostjo ΦX? To je vprašanje o odvajanju integrala s parametrom. Izrek, ki zadošča našim potrebam je naslednji:

IZREK : Funkcija t->∫Rf(x,t)μX(dx) je odvedljiva v t0ЄR, če velja:
(i) parcialni odvod ∂f/∂t obstaja za tЄ(t0-ε,t0+ε) in za vsak xЄR
(ii) |∂f/∂t(x,t)|≤g(x) za xЄR, tЄ(t0-ε,t0+ε) in gЄL1X).
V tem primeru je odvod enak ∫∂f/∂t(x,t)μX(dx).

Opomba: Povsem podobni izreki veljajo za višje odvode. (podrobnosti-predavanja)

Še nekaj sorodnikov karakteristične funkcije:

Definicija: Naj bo X nenegativna slučajna spremenljivka s porazdelitvijo μX. LAPLACEOVO TRANSFORMACIJO definiramo kot ψ(λ)=E(e-λx)=∫e-λxμX(dx), xЄ[0,) in λ≥0.

Dve vprašanji:
(i) Enoličnost?
(ii) Kako je z vsotami neodvisnih slučajnih spremenljivk?

Odgovora:
(i) Funkcija z->E(e-zx)=∫e-zxμX(dx) obstaja za Re(z)≥0. Ta funkcija je zvezna za Re(z)≥0. Poleg tega je ta funkcija za Re(z)>0 holomorfna. Opazimo, da je ψ(it)=ΦX(t). Skličemo se na izrek o edinosti iz kompleksne analize: če poznamo ψ(λ) za λЄ(0,), poznamo tudi ψ(z) za Re(z)≥0. Zaradi zveznosti na zaprti polravnini, poznamo ψ tudi na imaginarni osi. Sledi: poznamo karakteristično funkcijo ΦX in s tem porazdelitev.
(ii) Naj bosta X,Y≥0 in neodvisni. Potem je ψX+Y(λ)= E(e-λ(x+y))=E(e-λxe-λy)=E(e-λx)E(e-λy)= ψX(λ)ψY(λ).

Primer: Naj bodo Z1,...,Zn neodvisne in Zi~N(0,1). Definiramo: W=a12/Z12+...+an2/Zn2. Izračunamo gostoto a2/Z2 za Z~N(0,1). Označimo T=a2/Z2. Računamo:

            Odvajamo in dobimo:

            za t>0.

           Sestavine: Vemo, da je Z1/Z2~Cauchy, če sta Z1 in Z2 neodvisni in N(0,1). Torej je E(eitZ1/Z2)= e-|t|. (podrobnosti-predavanja)

Primer: Pogosto imamo v verjetnosti opravka z vsotami slučajno mnogo slučajnih spremenljivk. Tipično: X1,X2,... so neodvisne, enako porazdeljene in N je nenegativna, celoštevilska slučajna spremenljivka. Definiramo:

 

            Podobno kot pri rodovnih funkcijah velja:
(i) ΦS(t)=GNX1(t)).
(ii) Če so Xi≥0, velja tudi ψS(λ)=GNX1(λ)).

Primer: Recimo, da je N~Po(μ) in so Xi~exp(1). Zanima nas porazdelitev X1+...+XN. Vemo, da je GN(s)=e-μ(1-s). Računamo:

            Sledi:

 

NAZAJ NA KAZALO!

 

 

 

    Večrazsežne karakteristične funkcije

 

Ideja je vzeta iz analize (Fourierjeva transformacija).

Definicija: Naj bo X slučajni vektor. Njegovo KARAKTERISTIČNO FUNKCIJO definiramo kot ΦX(t)= E(eitx)=∫RneitxμX(dx).

Vprašanje: Ali ΦX enolično določa μX?

Odgovor: Da! (podrobnosti-predavanja)

Misel: Če imata X in X' enako porazdelitev, imata tudi enako karakteristično funkcijo.

Primer (Slučajni sprehod na Zd): Pijanec začne slučajni sprehod v točki (0,0). Na vsakem koraku si naključno in neodvisno izbere smer, v kateri se bo premaknil. Pomik na koraku n je slučajni vektor z vrednostmi (1,0), (-1,0), (0,1) in (0,-1). Kolikšna je verjetnost, da se bo slučajni sprehajalec vrnil v izhodišče? Odgovor je odvisen od dimenzije!
Slika za d=2:

            Označimo z N=število "obiskov" točke 0. Po razmisleku dobimo: Za d=2 je E(N)=. Za d≥3 z istim postopkom dobimo, da je E(N)<. Označimo z ρ verjetnost, da se pijanec vrne v izhodišče. Po vrnitvi se zgodbica "začne znova". Recimo, da je "poskus" oditi iz (0,0) in se NE vrniti. Posamezni poskusi po vrnitvi v izhodišče so neodvisni. Število obiskov (0,0) bo Geom(1-ρ). Sledi: N~Geom(1-ρ). Vemo, da je E(N)= za d=2 in E(N)< za d≥3 ter E(N)=1/(1-ρ). Torej je: ρ=1 za d=2 in ρ<1 za d≥3. (podrobnosti-predavanja)

NAZAJ NA KAZALO!

 

 

 

    3.3  Konvergenca slučajnih spremenljivk

 

Poznamo več različnih tipov konvergenc slučajnih spremenljivk. Izbira je odvisna od namena. Potrebovali bomo preprosti neenačbi:
Če je slučajna spremenljivka X≥0, je P(X≥x)≤E(X)/X. To je neenačba Markova.
Bolj splošno lahko rečemo: če je Φ:[0,)->[0,) naraščajoča, je P(X≥x)≤E(Φ(X))/Φ(X).
Poseben primer je neenačba Čebiševa: če je Y slučajna spremenljivka, potem je P(|Y-E(Y)|≥y)≤var(Y)/y2.

V naslednjih definicijah naj bodo vse slučajne spremenljivke definirane na istem verjetnostnem prostoru (Ω,F,P).

Definicija: (i) Zaporedje slučajnih spremenljivk X1,X2,...KONVERGIRA V VERJETNOSTI proti spremenljivki X, če za vsak ε>0 obstaja nε, tako da za n≥nε velja  P(|X-Xn|>ε)<ε.


Opomba: Ta konvergenca je v teoriji mere znana kot konvergenca po meri. V definiciji lahko zahtevamo, da je P(|X-Xn|>ε)<δ za n≥nδ,ε, kjer sta ε in δ predpisana.
Oznaka:


(ii) Zaporedje slučajnih spremenljivk X1,X2,...KONVERGIRA SKORAJ GOTOVO proti spremenljivki X, če je P({w: limXn(w)=X(w)})=1, ko n->.


Opomba: V teoriji mere je to konvergenca skoraj povsod. Množico v P(...) lahko zapišemo tudi z unijami in preseki.
Oznaka:

 
(iii) Zaporedje slučajnih spremenljivk X1,X2,...KONVERGIRA V Lp-NORMI proti spremenljivki X, če velja E(|Xn-X|p)->0, ko n-> in p≥1.
Oznaka:

LEMA 3.11 : Naj bodo X1,X2,...;X slučajne spremenljivke.
(i) Če Xn->X s.g., potem Xn->X v verjetnosti.
(ii) Če Xn->X v Lp-normi, potem Xn->X v verjetnosti.

Opomba: To sta edini implikaciji, ki veljata brez dodatnih predpostavk in nobena od implikacij ne velja v obratni smeri.

LEMA 3.12 : Naj bodo X1,X2,...;X slučajne spremenljivke. Velja:
(i) Xn->X v verjetnosti, če in samo če ima vsako podzaporedje {Xnk} nadaljnje podzaporedje, ki konvergira s.g.
(ii) Če je f zvezna funkcija, f:R->R in Xn->X v verjetnosti, potem f(Xn)->f(X) v verjetnosti.

Tipično vprašanje pri konvergenci slučajnih spremenljivk je naslednje: Naj bodo X1,X2,... slučajne spremenljivke in Sn=X1+...+Xn. Kdaj lahko najdemo zaporedji an in bn, da velja (Sn-an)/bn->Y in konvergenca Є{P,s.g.,Lp,d}?

IZREK 3.13 : Naj bodo X1,X2,... nekorelirane slučajne spremenljivke z matematičnim upanjem μ=E(Xn) za vse n. Naj bo var(Xn)≤c< za vse n. Naj bo Sn= X1+...+Xn. Potem velja Sn/n -> μ v verjetnosti, ko n->.

Opomba: To je ŠIBKI ZAKON VELIKIH ŠTEVIL.

Primer: Naj bo f:[0,1]->R zvezna (in s tem enakomerno zvezna). Naj bodo I1,I2,... neodvisne, enako porazdeljene slučajne spremenljivke, Ik~Bernoulli(p). Vemo: var(Ik)=p(1-p)≤1/4 za vse p Є[0,1]. Označimo: Sn=I1+...+In. Vemo: Sn~Bin(n,p). Po izreku vemo, da je Sn/n->p v verjetnosti. Po Čebiševu velja še več: P(|Sn/n - μ|>δ)≤(var(Sn/n))/δ2≤1/4δ2n. Naj bo ε>0. Najprej ocenimo:

            Za zgoraj izbran ε>0 obstaja δ>0, tako da je |f(x)-f(y)|<ε, če je |x-y|≤δ. V zgornji oceni izberimo ta δ in dobimo:

            Ugotovili smo, da velja E(f(Sn/n))->f(p), ko n->, enakomerno v p. Po drugi strani pa je

            Sledi: Bn(p)->f(p) enakomerno za pЄ[0,1]. To je Weierstrassov kriterij-Analiza 1.

IZREK 3.14 : Naj bodo X1,X2,... neodvisne, enako porazdeljene slučajne spremenljivke. Označimo Sn=X1+...+Xn. Naslednji trditvi sta ekvivalentni:
(i) (Sn/n - μn)->0 za neko zaporedje μn.
(ii) x·P(|X1|>x)->0, ko x->. V tem primeru lahko vzamemo μn=E(|X1|·1(|X1|≤n)).

Primer: Kaj so "fair" igre na srečo? Recimo, da igramo isto igro na srečo večkrat. Čisti dobiček v n-ti igri označimo z Xn. Privzamemo, da so X1,X2,...neodvisne in enako porazdeljene slučajne spremenljivke.
Podprimer: Pri ruleti in stavah na številko je P(X1=-1)=36/37 in P(X1=35)=1/37. Sledi: E(X1)=-1/37. Igra v tem smislu ni "fair". Za "fair" igro bi moralo biti E(X1)=0.
Za konkretni primer stave na eno številko, bi za "fair" stavo x moralo veljati: -x·36/37 + 35/37 =0 => x=35/36.
Druga možna interpretacija "fair" stave je naslednja:
Označimo Sn=X1+...+Xn. Lahko rečemo, da je igra "fair", če je razmerje dobiček/vložek≈1. Bolj matematično: Označimo stavo za n iger s cn. Dovolimo si, da je stava na igro odvisna od števila iger. Lahko rečemo, da je igra "fair", če velja Sn/n·cn -> 1, pri čemer lahko tip konvergence še izberemo med {s.g.,P,Lp}.

Primer (Sankt-Petersburški paradoks): Odločimo se igrati n iger. Stava je cn. Ponudnik meče kovanec, dokler ne dobi grba. Če se to zgodi v n-tem metu, je izplačilo 2n. Kaj je fair stava? Če označimo z Xi dobiček, je ta enak Xi=2Yi-cn, kjer je Yi~Geom(1/2). Če izračunamo, je E(Xi)= +-cn=+. Pristop z matematičnimi upanji NE funkcionira.

Komentar: Osnovno verzijo izreka 3.14 zlahka posplošimo: Naj bodo za vsak n slučajne spremenljivke Xn,1,...,Xn,n neodvisne. Če velja

              potem velja

Primer: Pokažimo, da ta izrek "prime" za Sankt-Persburški paradoks. Definiramo kar Xn,k=Xk za vse n in an'=bn=n·log2n. (podrobnosti-predavanja)
Dobimo:

Povzemimo, kaj je bilo pomembno pri konvergenci v verjetnosti:
(i) Kaj je definicija?
(ii) Izrek, ki sklepa o konvergenci v verjetnosti na podlagi s.g. konvergence.
(iii) Ta konvergenca je pogosto dobro tehnično sredstvo.

NAZAJ NA KAZALO!

 

 

 

    Skoraj gotova konvergenca

 

Za slučajne spremenljivke X1,X2,..., ki so neodvisne, enako porazdeljene in velja var(X1)< in E(X1)=0 velja: Sn/n -> 0 v verjetnosti in Sn=X1+...+Xn. Vemo, da je s.g. konvergenca "močnejša". Ali lahko P poostrimo do s.g.? Odgovor je DA!

IZREK 3.15 : Naj bodo X1,X2,...neodvisne, enako porazdeljene slučajne spremenljivke in Sn= X1+...+Xn. Naj bo E(X1)=μ in var(X1)=σ2<. Potem Sn/n -> μ s.g.

Komentar: (i) Izrekom s s.g. konvergenco pogosto rečemo KREPKI ZAKONI VELIKIH ŠTEVIL.
(ii) To je formalna potrditev intuitivne motivacije za definicijo s.g. konvergence.
(iii) Zahteva, da je var(X1)<, je odveč. Izrek velja tudi, če zahtevamo samo E|X1|<. Če pa je E|X1|=, potem izrek ne velja.
(iv) Obstaja mnogo izrekov tipa s.g. konvergence. Novejši tipi takih izrekov uporabljajo martingale za dokaz konvergence.

NAZAJ NA KAZALO!

 

 

 

    3.4  Konvergenca v porazdelitvi

 

Motivacija: Večinoma so nas bolj zanimale porazdelitve, kot pa slučajne spremenljivke same. Mogoče lahko kaj povemo o porazdelitvi vsot Sn=X1+...+Xn za neodvisne slučajne spremenljivke X1,X2,...,tudi, če ne znamo eksplicitno povedati porazdelitve Sn ali je ta komplicirana. Zato potrebujemo koncept "podobnosti" ali "bližine" porazdelitev in koncept konvergence. Porazdelitve so mere. Torej potrebujemo koncept konvergence mer. Ideja je "podobnost na otip". Mero "otipamo" tako, da integriramo neko funkcijo.
Ideja: Poskusimo definirati, da μn->μ, če ∫f(x)μn(dx)->∫f(x)μ(dx) za nek nabor funkcij f. Kaj je pravi nabor? Lahko vzamemo Borelove funkcije z |f|≤1. Dobimo konvergenco v totalni variaciji. Ali bi moralo veljati, da δ1/n->δ0? Velja ||δ1/n0||TV=1 (TV=totalna variacija). Razlog, zakaj to ni dobro, je ta, da so Borelove funkcije preveč "oglate". V verjetnosti definiramo:

Definicija: (i) Če za vsako omejeno, zvezno funkcijo f:(M,d)->R velja ∫Mf(x)μn(dx)->∫Mf(x)μ(dx), ko n->, potem pravimo, da VERJETNOSTNE MERE μn ŠIBKO KONVERGIRAJO proti verjetnostni meri μ.
Oznaka:


(ii) Slučajne spremenljivke X1,X2,... z vrednostmi v (M,d) KONVERGIRAJO V PORAZDELITVI proti X, če za vsako omejeno, zvezno funkcijo f:(M,d)->R velja E(f(Xn))->E(f(X)), ko n->.
Oznaka:

Komentar: (i) Če je (M,d) poljski prostor (poln, separabilen) in so μ mere, ki so "združljive" s topologijo, potem lahko definiramo metriko Prohorova z ρ(μ,ν)=inf{ε>0:μ(F)≤ν(Fε)+ε, F zaprta}, pri čemer je Fε ε-okolica, tj. Fε={y: d(y,F)<ε}.
(ii) V resnici govorimo o konvergenci porazdelitev, ne slučajnih spremenljivk samih.
(iii) Konvergenco in metriko potrebujemo zato, da lahko aproksimiramo komplicirane porazdelitve.

Opomba: Zakaj smo za "otipavanje" mer izbrali zvezne funkcije? Zato, ker bi otipavanje z Borelovimi funkcijami zahtevalo preveč od konvergence. Že pred definicijo smo videli, da v primeru Borelove funkcije dobimo konvergenco v totalni variaciji. Sedaj potrebujemo nekaj tehničnih lem.

LEMA 3.16 : Naslednje trditve so ekvivalentne:
(i) Xn=>X v porazdelitvi
(ii) limsupP(XnЄF)≤P(XЄF) za zaprte F in n->
(iii) liminfP(XnЄG)≥P(XЄG) za odprte G in n->.

Komentarji in posledice:
(i) Iz dokaza leme je razvidno, da se lahko pri definiciji omejimo na enakomerno zvezne funkcije f.
(ii) Naj bodo X1, X2,... slučajne spremenljivke z vrednostmi v R. Izjava Xn=>X v porazdelitvi je ekvivalentna izjavi FXn(x)->FX(x) za vse x, v katerih je FX zvezna. To je pravzaprav stara definicija zveznosti.

Primer: Naj bodo X1,X2,... neodvisne slučajne spremenljivke in Xi~U(0,1) za i≥1. Definiramo Mn=max(X1,...,Xn). Oglejmo si zaporedje n·(1-Mn). Računamo za X≥0:

             Ko gre n->, dobimo limP(n·(1-Mn)≤X)=1-e-x. Povzemimo:

            Na desni je porazdelitvena funkcija slučajne spremenljivke X~exp(1). Konvergenca velja za vse XЄR. Zapišemo:

 

Komentar: Konvergenca FXn je ena od glavnih metod za dokazovanje konvergence v porazdelitvi.

LEMA 3.17 : Naj bodo X1,X2,...;X in Y1,Y2,... slučajne spremenljivke. Naj velja: Xn->X v porazdelitvi in Yn->0 v verjetnosti. Potem velja: Xn+Yn->X v porazdelitvi.

Opomba: Če bi imeli Yn->0 v porazdelitvi namesto v verjetnosti, potem lema ne bi veljala!

NAZAJ NA KAZALO!

 

 

 

    Uporaba karakterističnih funkcij

 

IZREK 3.18 (P.Levy): Naj bodo X1,X2,... slučajne spremenljivke z vrednostmi na R. Naj bodo ΦX1X2,... njihove karakteristične funkcije. Če velja ΦXn->g(t) po točkah za vsak t in je g zvezna v t=0, potem je g karakteristična funkcija neke slučajne spremenljivke X in velja Xn->X v porazdelitvi.

Komentar: Zakaj zveznost v t=0? To je gotovo potreben pogoj. Če Xn->X v porazdelitvi in opazimo, da je x->eitx zvezna, sledi, da mora biti tudi ΦX zvezna v t=0 (kar tako ali tako vemo). Prva res tehtna uporaba je naslednja:

IZREK 3.19 (CENTRALNO LIMITNI IZREK): Naj bodo X1,X2,... neodvisne, enako porazdeljene slučajne spremenljivke z E(X1)=μ, var(X1)=σ2 in naj velja E|X1|3<. Označimo Sn=X1+...+Xn. Velja:

Definicija: Družina verjetnostnih mer {μi} je TESNA (beri OMEJENA), če za vsak ε>0 obstaja kompaktna množica Kε, da velja μi(Kε)>1-ε za vse i.

IZREK 3.20: Naj bo {μk} tesno zaporedje verjetnostnih mer. Tako zaporedje ima konvergentno podzaporedje in s tem tudi stekališče.

LEMA 3.21 : Če za zaporedje mer μ12,... velja Φk(t)->g(t) po točkah, ko n-> in je g zvezna v t=0, potem je zaporedje tesno.

Bistvo dokaza Levy-jevega izreka: Ker Φn->g in je g zvezna v t=0, je {μk} tesno. Kot tako ima stekališče po izreku 3.20. Konvergenca Φn pa pomeni, da je stekališče največ eno. S tem je izrek dokazan.

Definicija: TRIKOTNA SHEMA slučajnih spremenljivk je nabor Xnk, n≥1, 1≤k≤rn.

Posplošitev centralnega limitnega izreka je:

IZREK 3.22 (Lindeberg-Fellerjev izrek): Naj bo {Xnk} trikotna shema slučajne spremenljivke Z in rn->, naraščajoče zaporedje. Naj velja:
(i) Za vsak n so Xn1,...,Xnrn neodvisne slučajne spremenljivke.
(ii) E(Xnk)=0 za vse n,k in sn2=var(Xn1)+...+var(Xnrn)<.
(iii) Za vsak ε>0 naj velja Lindeberg-Fellerjev pogoj:

                    Označimo: Sn=(Xn1+...+Xnrn)/sn. Velja Sn->Z~N(0,1).

Komentar: (i) Ne zahtevamo, da so Xn1,Xn2,... enako porazdeljene. Ohranimo pa predpostavko o neodvisnosti.
(ii) Kaj pove Lindeberg-Fellerjev pogoj? V grobem pove, da novena od slučajnih spremenljivk Xn1,Xn2,... ni bistveno "večja" od ostalih.

Primer: V kitajsko restavracijo prihajajo po vrsti naravna števila. V restavraciji je neskončno miz, ki so oštevilčene z 1,2,3,...Dogaja se naslednje:
(i) 1 se usede za mizo 1
(ii) ko pride k, si ogleda mize in sede levo od j z verjetnostjo 1/(θ+k-1) ali pa se usede za naslednjo še nezasedeno mizo z verjetnostjo θ/(θ+k-1). k se obnaša neodvisno od tega, kaj so naredili 1,2,...,k-1. Slika:

            V resnici smo konstruirali slučajno permutacijo π=(13)(265)(4)(7). Če bi šli do n, bi dobili slučajno permutacijo n števil. Naj bo Sn število zasedenih miz po n gostih. Kaj znamo povedati o Sn za velike n? Definirajmo

            Zapišemo lahko: Sn1+...+ξn. Iz besedila naloge sledi, da so ξ12,... neodvisne in da je ξi~Bernoulli(θ/(θ+i-1)).
Komentar: Za θ>0 in fiksen n rečemo, da ima Sn Poisson-Dirichletovo(θ) porazdelitev.
Rodovna funkcija Sn je oblike

            Omejimo se na primer, ko je θ=1. V tem primeru vsako permutacijo dobimo z verjetnostjo 1/n! in rodovna funkcija je

          P(Sn=k) je koeficient pri sk v zgornji rodovni funkciji. Vemo, da so ti koeficienti P(Sn=k)=Sn(k)/n!, kjer je Sn(k) Stirlingovo število prve vrste. Za Sn(k) ni uporabne eksplicitne oblike. Za aproksimacije se zatečemo k Lindeberg-Fellerju. Velja: Sn1+...+ξn, kjer so ξi neodvisne, vendar ne enako porazdeljene slučajne spremenljivke. Preveriti moramo predpostavke Lindeberg-Fellerjevega izreka. (podrobnosti-predavanja) Dobimo:

LEMA 3.23 : Naj bodo Z1,...,Zn in W1,...,Wn kompleksna števila, po absolutni vrednosti manjša od θ. Velja:

Posledica: Za kompleksna števila Cn,C iz Cn->C, sledi (1+Cn/n)->eC, ko n->.

LEMA 3.24 : Za xЄR velja

Opomba: Zadnje leme so samo sredstvo za pomoč pri dokazu Lindeberg-Fellerjevega izreka!

Komentar: (i) V prvi verziji centralno limitnega izreka smo predpostavljali E|X1|3<. Če vzamemo kar Xnk=Xk v Lindeberg-Fellerjevem izreku, vidimo, da predpostavka ni potrebna. Dovolj je predpostavljati E(X1)=μ in var(X1)=σ2<.
(ii) Levy-jev izrek velja tudi v več dimenzijah.

NAZAJ NA KAZALO!

 


KONEC