Es ist zweckmäßig, die Varianz unter Verwendung einer Formel zu berechnen, die unter Verwendung der Varianz-Eigenschaften leicht erhalten werden kann. Mathematische Erwartung und Varianz einer Zufallsvariablen

Parametername Wert
Thema des Artikels: Dispersionseigenschaften
Kategorie (thematische Kategorie) Mathe

1.Die Varianz der Konstanten C ist0,DC = 0, VON = const.

Beweise. DC = M.(VONMC) 2 = M.(VONVON) = 0.

2. D.(CX) = VON 2 DX.

Beweise. D.(CX) = M.(CX) 2 – M. 2 (CX) = C. 2 MX 2 – C. 2 (MX) 2 = C. 2 (MX 2 – M. 2 X.) = VON 2 DX.

3. Wenn X und Y.unabhängige Zufallsvariablen, dann

Beweise.

4. Wenn X. 1 , X. 2 , … also nicht abhängig .

Diese Eigenschaft kann durch Induktion mit Eigenschaft 3 nachgewiesen werden.

Beweise... D (X - Y) \u003d DX + D (–Y) \u003d DX + (–1) 2 D (Y) \u003d DX + D (Y).

6.

Beweise. D (C + X) \u003d M (X + C - M (X + C)) 2 \u003d M (X + C - MX - MC) 2 \u003d M (X + C - MX - C) 2 \u003d M (X - MX) 2 \u003d DX.

Sei unabhängige Zufallsvariablen und.

Lassen Sie uns eine neue Zufallsvariable zusammenstellen und die mathematische Erwartung und Varianz ermitteln Y..

; .

Das heißt, bei n® ¥ Die mathematische Erwartung des arithmetischen Mittels von n unabhängigen identisch verteilten Zufallsvariablen bleibt unverändert und entspricht der mathematischen Erwartung a, während die Varianz gegen Null tendiert.

Diese Eigenschaft der statistischen Stabilität des arithmetischen Mittels liegt dem Gesetz der großen Zahlen zugrunde.

Dispersionseigenschaften - Konzept und Typen. Klassifizierung und Merkmale der Kategorie "Eigenschaften der Dispersion" 2017, 2018.

  • - Dispersionseigenschaften

    1) Die Varianz der Konstante ist Null. 2) Der konstante Faktor kann durch Quadrieren außerhalb des Dispersionszeichens genommen werden. 3) Die Varianz der Summe zweier unabhängiger Zufallsvariablen ist gleich der Summe der Varianzen dieser Werte. 4) Die Varianz der Differenz zweier unabhängiger Zufälle ....


  • - Dispersionseigenschaften

    1. Die Varianz der Konstante ist 0. Beweis D [c] \u003d 0 D [c] \u003d M-M2 [c] \u003d c2-c2 \u003d 0 2. Der Konstantenfaktor kann durch Quadrieren außerhalb des Vorzeichens der Varianz genommen werden. Beweis: D \u003d c2D [x] DM-M2 \u003d c2M-c2M [x] \u003d c2 (2-M [x]]) \u003d c2D [x] 3. Dispersion der Summe unabhängiger Zufallsvariablen D [x + y] \u003d D [ x] + D [y] ....


  • - Dispersionseigenschaften

    1. Die Varianz der Konstante ist Null. 2.Wenn eine konstante Zahl A von allen Werten der Optionen abgezogen wird, ändert sich das mittlere Abweichungsquadrat (Varianz) nicht davon. (2.14) Dies bedeutet, dass die Varianz nicht anhand der angegebenen Werte des Attributs berechnet werden kann, sondern anhand ihrer ....


  • - Dispersionseigenschaften

    Eigenschaft 1. Die Streuung des konstanten Wertes ist gleich Null:. Beweise. ... Andererseits behält ein konstanter Wert den gleichen Wert bei und weist keine Streuung auf. Eigenschaft 2. Der konstante Faktor kann außerhalb des Dispersionszeichens durch Quadrieren genommen werden: Beweis .....


  • - Dispersionseigenschaften.

    1) (das Quadrat der Funktion befindet sich unter dem Integral). 2) (. 3) (Ausgabe selbst, Herausnehmen unter der Summe oder unter dem Integral). Die Standardabweichung wird aufgerufen. Zusätzlich zu diesen grundlegenden numerischen Eigenschaften wird der Asymmetriekoeffizient verwendet, Kurtosis ist ein Maß für die Peakedness ....


  • - Dispersionseigenschaften

    einer). Dispersion ist nicht zufällige Variable gleich 0. D [X] \u003d 0 Þ ergibt sich aus der Definition. D [X] \u003d M (C - M [C]) 2 \u003d M (0) \u003d 0 2). D [X] ³0 Dies folgt aus der Tatsache, dass D [X] \u003d M [(X-mx)] 2³0 3). Wenn a und b Konstanten sind, dann ist D \u003d b2 · D [X]. Dies folgt aus der Definition der Varianz. 4). Dispersion hat tatsächlich Additivität ...

  • Dispersion einer Zufallsvariablen und ihrer Eigenschaften.

    Viele Zufallsvariablen haben die gleiche mathematische Erwartung, aber unterschiedliche mögliche Werte. Daher reicht eine mathematische Erwartung nicht aus, um eine Zufallsvariable zu charakterisieren.

    Lass das Einkommen X.und Y.(in Dollar) von zwei Firmen werden durch Ausschüttungen angegeben:

    Manchmal ist es zweckmäßig, eine andere Formel zu verwenden, die unter Verwendung der Eigenschaften der mathematischen Erwartung erhalten werden kann.

    Eine Dispersion liegt vor, wenn die Reihe (bzw. das Integral) konvergiert.

    Nicht negative Zahl namens standardabweichungzufällige Variable H. H. Es hat die Dimension einer Zufallsvariablen X. und definiert ein bestimmtes Standard-Root-Mean-Square-Dispersionsintervall, das symmetrisch zur mathematischen Erwartung ist. Der Wert wird manchmal als Standardabweichung bezeichnet.

    Die Zufallsvariable wird aufgerufen zentriert, wenn . Die Zufallsvariable wird aufgerufen normalisiert (Standard) wenn.

    Fahren wir mit dem Beispiel fort... Berechnen wir die Varianz der Einkommen der beiden Unternehmen:

    Wenn wir die Varianz vergleichen, sehen wir, dass das Einkommen des zweiten Unternehmens stärker variiert als das des ersten.

    Dispersionseigenschaften.

    1. Die Streuung eines konstanten Wertes ist Null; , wenn konstante. Dies ist offensichtlich, da ein konstanter Wert eine mathematische Erwartung hat, die gleich einem konstanten Wert ist, d.h. ...

    2. Konstanter Multiplikator C. kann aus dem Varianzzeichen herausgenommen werden, indem es zuerst quadriert wird.

    Ja wirklich,

    3. Die Varianz der algebraischen Summe zweier unabhängiger Zufallsvariablen ist gleich der Summe ihrer Varianz, d. H.

    Der Ausdruck heißt kovarianz der Werte X und Y.(siehe Thema 4, §2). Für unabhängige Zufallsvariablen ist die Kovarianz Null, d.h.

    Mit dieser Gleichheit können Sie die Liste der Eigenschaften der mathematischen Erwartung erweitern. Wenn die Zufallsvariablen X und Y unabhängig sinddann ist die mathematische Erwartung des Produkts gleich dem Produkt der mathematischen Erwartungen, nämlich:

    Wenn die Zufallsvariable linear transformiert wird, d.h. dann

    .

    Beispiel 1. Lassen Sie es produziert werden nunabhängige Tests, die Wahrscheinlichkeit des Auftretens eines Ereignisses EIN in jedem von denen ist konstant und gleich p... Was ist die Varianz der Anzahl der Ereignisse? EIN in diesen Tests?

    Entscheidung. Sei die Anzahl des Auftretens des Ereignisses EIN im ersten Versuch - die Anzahl des Auftretens des Ereignisses EINim zweiten Versuch usw. Dann die Gesamtzahl des Auftretens des Ereignisses EINim n Tests gleich

    Unter Verwendung der Eigenschaft 3 der Varianz erhalten wir

    Hier haben wir die Tatsache genutzt, dass , ich \u003d (siehe Beispiele 1 und 2, Abschnitt 3.3.1.)

    Beispiel 2. Lassen Sie X - die Höhe der Einzahlung (in Dollar) bei der Bank - gegeben durch die Wahrscheinlichkeitsverteilung

    X.
    ich = 0,01 0,03 0,10 0,30 0,5 0,06

    Finden Sie den durchschnittlichen Einzahlungsbetrag und die Abweichung.

    Entscheidung. Der durchschnittliche Einzahlungsbetrag entspricht der mathematischen Erwartung

    Um die Varianz zu berechnen, verwenden wir die Formel

    D (X) \u003d 8196 - 7849,96 \u003d 348,04.

    Standardabweichung

    Momente.

    Um den Einfluss dieser möglichen Werte der Zufallsvariablen auf die mathematische Erwartung zu berücksichtigen X.Da diese groß sind, aber eine geringe Wahrscheinlichkeit haben, ist es ratsam, die mathematischen Erwartungen einer positiven ganzzahligen Potenz einer Zufallsvariablen zu berücksichtigen.

    Im vorherigen haben wir eine Reihe von Formeln angegeben, mit denen wir die numerischen Eigenschaften von Funktionen ermitteln können, wenn die Verteilungsgesetze der Argumente bekannt sind. In vielen Fällen muss man jedoch nicht einmal die Verteilungsgesetze von Argumenten kennen, um die numerischen Eigenschaften von Funktionen zu finden, aber es reicht aus, nur einige ihrer numerischen Eigenschaften zu kennen. während wir in der Regel auf Vertriebsgesetze verzichten. Die Bestimmung der numerischen Eigenschaften von Funktionen durch gegebene numerische Eigenschaften der Argumente ist in der Wahrscheinlichkeitstheorie weit verbreitet und ermöglicht es, die Lösung einer Reihe von Problemen erheblich zu vereinfachen. Diese vereinfachten Methoden sind größtenteils lineare Funktionen; Einige elementare nichtlineare Funktionen ermöglichen jedoch auch einen ähnlichen Ansatz.

    In der vorliegenden Darstellung stellen wir eine Reihe von Theoremen zu den numerischen Eigenschaften von Funktionen vor, die in ihrer Gesamtheit einen sehr einfachen Apparat zur Berechnung dieser Eigenschaften darstellen, der unter einer Vielzahl von Bedingungen anwendbar ist.

    1. Erwarteter Wert nicht zufälliger Wert

    Die formulierte Eigenschaft ist offensichtlich genug; es kann bewiesen werden, indem ein nicht zufälliger Wert als eine bestimmte Form eines zufälligen Wertes mit einem möglichen Wert mit einer Wahrscheinlichkeit von eins betrachtet wird; dann durch die allgemeine Formel für die mathematische Erwartung:

    .

    2. Dispersion einer nicht zufälligen Menge

    Wenn es sich um eine nicht zufällige Menge handelt, dann

    3. Herausnehmen eines nicht zufälligen Wertes für das Vorzeichen der mathematischen Erwartung

    , (10.2.1)

    das heißt, eine nicht zufällige Größe kann außerhalb des Vorzeichens der mathematischen Erwartung genommen werden.

    Beweise.

    a) Für diskontinuierliche Mengen

    b) Für kontinuierliche Mengen

    .

    4. Subtraktion eines nicht zufälligen Wertes für das Vorzeichen der Streuung und der Standardabweichung

    Wenn es sich um einen nicht zufälligen Wert handelt, sondern um einen zufälligen Wert, dann

    , (10.2.2)

    das heißt, eine nicht zufällige Größe kann aus dem Vorzeichen der Varianz herausgenommen werden, indem sie quadriert wird.

    Beweise. Per Definition der Varianz

    Folge

    ,

    das heißt, ein nicht zufälliger Wert kann durch seinen absoluten Wert aus dem Vorzeichen der Standardabweichung herausgenommen werden. Wir erhalten den Beweis, indem wir die Quadratwurzel der Formel (10.2.2) extrahieren und berücksichtigen, dass die r.s.s. ist ein im Wesentlichen positiver Wert.

    5. Mathematische Erwartung der Summe der Zufallsvariablen

    Beweisen wir das für zwei beliebige Zufallsvariablen und

    das heißt, die mathematische Erwartung der Summe zweier Zufallsvariablen ist gleich der Summe ihrer mathematischen Erwartungen.

    Diese Eigenschaft wird als Erwartungsadditionssatz bezeichnet.

    Beweise.

    a) Sei ein System diskontinuierlicher Zufallsvariablen. Wir wenden auf die Summe der Zufallsvariablen die allgemeine Formel (10.1.6) für die mathematische Erwartung einer Funktion zweier Argumente an:

    .

    Ho repräsentiert nichts weiter als die Gesamtwahrscheinlichkeit, dass ein Wert einen Wert annimmt:

    ;

    daher,

    .

    Lassen Sie uns das auf ähnliche Weise beweisen

    ,

    und der Satz ist bewiesen.

    b) Sei ein System kontinuierlicher Zufallsvariablen. Nach der Formel (10.1.7)

    . (10.2.4)

    Wir transformieren das erste der Integrale (10.2.4):

    ;

    ähnlich

    ,

    und der Satz ist bewiesen.

    Es ist besonders zu beachten, dass der Satz der Addition mathematischer Erwartungen für alle Zufallsvariablen gilt, sowohl abhängig als auch unabhängig.

    Der Satz der Addition mathematischer Erwartungen wird auf eine beliebige Anzahl von Begriffen verallgemeinert:

    , (10.2.5)

    das heißt, die mathematische Erwartung der Summe mehrerer Zufallsvariablen ist gleich der Summe ihrer mathematischen Erwartungen.

    Für den Beweis reicht es aus, die vollständige Induktionsmethode anzuwenden.

    6. Mathematische Erwartung einer linearen Funktion

    Betrachten Sie eine lineare Funktion mehrerer zufälliger Argumente:

    wo sind nicht zufällige Koeffizienten. Lassen Sie uns das beweisen

    , (10.2.6)

    das heißt, die mathematische Erwartung einer linearen Funktion ist gleich der gleichen linearen Funktion der mathematischen Erwartungen der Argumente.

    Beweise. Unter Verwendung des Additionssatzes für m. und die Regel zum Platzieren eines nicht zufälligen Werts außerhalb des m.o.-Zeichens erhalten wir:

    .

    7. Dispepdies sind die Summen von Zufallsvariablen

    Die Varianz der Summe zweier Zufallsvariablen entspricht der Summe ihrer Varianzen zuzüglich des doppelten Korrelationsmoments:

    Beweise. Wir bezeichnen

    Durch den Satz der Addition mathematischer Erwartungen

    Gehen wir von Zufallsvariablen zu entsprechenden zentrierten Werten. Wenn wir Gleichheit (10.2.9) Begriff für Begriff von Gleichheit (10.2.8) subtrahieren, haben wir:

    Per Definition der Varianz

    q.E.D.

    Die Formel (10.2.7) für die Varianz der Summe kann auf eine beliebige Anzahl von Begriffen verallgemeinert werden:

    , (10.2.10)

    wo das Korrelationsmoment der Größen ist, bedeutet das Vorzeichen unter der Summe, dass die Summierung für alle möglichen paarweisen Kombinationen von Zufallsvariablen gilt .

    Der Beweis ähnelt dem vorherigen und folgt aus der Formel für das Quadrat eines Polynoms.

    Die Formel (10.2.10) kann in einer anderen Form geschrieben werden:

    , (10.2.11)

    wobei die Doppelsumme für alle Elemente der Korrelationsmatrix des Quantitätssystems gilt enthält sowohl Korrelationsmomente als auch Varianz.

    Wenn alle Zufallsvariablen Das Betreten des Systems ist nicht korreliert (d. h. at). Die Formel (10.2.10) hat die Form:

    , (10.2.12)

    das heißt, die Varianz der Summe der nicht korrelierten Zufallsvariablen ist gleich der Summe der Varianzen der Terme.

    Diese Aussage ist als Varianzadditionssatz bekannt.

    8. Dispersion einer linearen Funktion

    Betrachten Sie eine lineare Funktion mehrerer Zufallsvariablen.

    wo sind nicht zufällige Werte.

    Beweisen wir, dass die Varianz dieser linearen Funktion durch die Formel ausgedrückt wird

    , (10.2.13)

    wo ist das Korrelationsmoment der Größen?

    Beweise. Lassen Sie uns die Notation einführen:

    . (10.2.14)

    Wenn wir auf die rechte Seite der Ausdrucksformel (10.2.14) (10.2.10) für die Varianz der Summe anwenden und dies berücksichtigen, erhalten wir:

    wo ist das Korrelationsmoment der Größen:

    .

    Berechnen wir diesen Moment. Wir haben:

    ;

    ähnlich

    Wenn wir diesen Ausdruck in (10.2.15) einsetzen, gelangen wir zur Formel (10.2.13).

    Im Sonderfall bei allen Mengen unkorreliert, Formel (10.2.13) hat die Form:

    , (10.2.16)

    das heißt, die Varianz der linearen Funktion nicht korrelierter Zufallsvariablen ist gleich der Summe der Produkte der quadratischen Koeffizienten durch die Varianzen der entsprechenden Argumente.

    9. Mathematische Erwartung des Produkts von Zufallsvariablen

    Die mathematische Erwartung des Produkts zweier Zufallsvariablen entspricht dem Produkt ihrer mathematischen Erwartungen zuzüglich des Korrelationsmoments:

    Beweise. Wir gehen von der Definition des Korrelationsmoments aus:

    Wir transformieren diesen Ausdruck unter Verwendung der Eigenschaften der mathematischen Erwartung:

    was offensichtlich der Formel (10.2.17) entspricht.

    Wenn die Zufallsvariablen nicht korreliert sind, hat die Formel (10.2.17) die Form:

    das heißt, die mathematische Erwartung des Produkts zweier unkorrelierter Zufallsvariablen ist gleich dem Produkt ihrer mathematischen Erwartungen.

    Diese Aussage ist als Erwartungsmultiplikationssatz bekannt.

    Die Formel (10.2.17) ist nichts anderes als ein Ausdruck des zweiten gemischten zentralen Moments des Systems durch das zweite gemischte anfängliche Moment und die mathematischen Erwartungen:

    . (10.2.19)

    Dieser Ausdruck wird in der Praxis häufig verwendet, wenn das Korrelationsmoment auf dieselbe Weise berechnet wird, wie für eine Zufallsvariable die Varianz häufig durch das zweite Anfangsmoment und die mathematische Erwartung berechnet wird.

    Der Satz der Multiplikation mathematischer Erwartungen wird auf eine beliebige Anzahl von Faktoren verallgemeinert. Nur in diesem Fall reicht es für seine Anwendung nicht aus, dass die Größen nicht korreliert sind, sondern es ist erforderlich, dass auch einige höhere Mischmomente verschwinden, deren Anzahl von der Anzahl der Terme im Produkt abhängt. Diese Bedingungen sind sicherlich erfüllt, wenn die im Produkt enthaltenen Zufallsvariablen unabhängig sind. In diesem Fall

    , (10.2.20)

    das heißt, die mathematische Erwartung des Produkts unabhängiger Zufallsvariablen ist gleich dem Produkt ihrer mathematischen Erwartungen.

    Diese Aussage lässt sich leicht durch die Methode der vollständigen Induktion beweisen.

    10. Dispersion des Produkts unabhängiger Zufallsvariablen

    Beweisen wir das für unabhängige Mengen

    Beweise. Bezeichnen wir. Per Definition der Varianz

    Da die Mengen unabhängig sind, und

    Bei unabhängigen Werten sind auch unabhängig; daher,

    ,

    Aber es gibt nichts mehr als das zweite anfängliche Moment der Größe und wird daher durch die Varianz ausgedrückt:

    ;

    ähnlich

    .

    Wenn wir diese Ausdrücke in die Formel (10.2.22) einsetzen und ähnliche Begriffe einbringen, gelangen wir zur Formel (10.2.21).

    Wenn zentrierte Zufallsvariablen multipliziert werden (Werte mit mathematischen Erwartungen gleich Null), hat die Formel (10.2.21) die Form:

    , (10.2.23)

    das heißt, die Varianz des Produkts unabhängiger zentrierter Zufallsvariablen ist gleich dem Produkt ihrer Varianzen.

    11. Höhere Momente der Summe der Zufallsvariablen

    In einigen Fällen ist es notwendig, die höchsten Momente der Summe unabhängiger Zufallsvariablen zu berechnen. Lassen Sie uns einige diesbezügliche Beziehungen beweisen.

    1) Wenn die Mengen unabhängig sind, dann

    Beweise.

    woher durch den Satz der Multiplikation mathematischer Erwartungen

    Aber das erste zentrale Moment für jede Größe ist Null; Die beiden Mittelterme verschwinden und die Formel (10.2.24) ist bewiesen.

    Die Beziehung (10.2.24) kann leicht durch Induktion auf eine beliebige Anzahl unabhängiger Begriffe verallgemeinert werden:

    . (10.2.25)

    2) Das vierte zentrale Moment der Summe zweier unabhängiger Zufallsvariablen wird durch die Formel ausgedrückt

    wo sind die Abweichungen der Mengen und.

    Der Beweis ist dem vorherigen völlig ähnlich.

    Durch die Methode der vollständigen Induktion ist es einfach, eine Verallgemeinerung der Formel (10.2.26) auf eine beliebige Anzahl unabhängiger Terme zu beweisen.

    Entscheidung.

    Als Maß für die Streuung der Werte einer Zufallsvariablen verwenden wir dispersion

    Dispersion (das Wort Dispersion bedeutet "Dispersion") ist Maß für die Streuung der Werte einer Zufallsvariablen in Bezug auf seine mathematische Erwartung. Varianz ist die mathematische Erwartung des Quadrats der Abweichung einer Zufallsvariablen von ihrer mathematischen Erwartung

    Wenn die Zufallsvariable mit einem unendlichen, aber zählbaren Satz von Werten diskret ist, dann

    wenn die Reihe auf der rechten Seite der Gleichheit konvergiert.

    Dispersionseigenschaften.

    • 1. Die Varianz einer Konstanten ist Null
    • 2. Die Varianz der Summe der Zufallsvariablen ist gleich der Summe der Varianzen
    • 3. Der konstante Faktor kann aus dem Dispersionszeichen im Quadrat entnommen werden

    Die Varianz der Differenz von Zufallsvariablen ist gleich der Summe der Varianzen

    Diese Eigenschaft ist eine Folge der zweiten und dritten Eigenschaft. Dispersionen können sich nur summieren.

    Es ist zweckmäßig, die Varianz anhand einer Formel zu berechnen, die mit den Varianzeigenschaften leicht ermittelt werden kann

    Die Varianz ist immer positiv.

    Die Varianz hat abmessungen das Quadrat der Dimension der Zufallsvariablen selbst, was nicht immer praktisch ist. Daher die Menge

    Mittlere quadratische Abweichung (Standardabweichung oder Standard) einer Zufallsvariablen ist der arithmetische Wert der Quadratwurzel ihrer Varianz

    Wirf zwei Münzen mit 2 und 5 Rubel hinein. Wenn eine Münze mit einem Wappen herausfällt, werden null Punkte vergeben, und wenn eine Zahl, dann ist die Anzahl der Punkte gleich dem Wert der Münze. Finden Sie die mathematische Erwartung und Varianz der Anzahl der Punkte.

    Entscheidung. Finden wir zuerst die Verteilung der Zufallsvariablen X - die Anzahl der Punkte. Alle Kombinationen - (2; 5), (2; 0), (0; 5), (0; 0) - sind gleich wahrscheinlich und das Verteilungsgesetz:

    Erwarteter Wert:

    Wir finden die Varianz durch die Formel

    warum berechnen

    Beispiel 2.

    Finde unbekannte Wahrscheinlichkeit r., mathematische Erwartung und Varianz einer diskreten Zufallsvariablen, die durch die Wahrsgegeben ist

    Wir finden die mathematische Erwartung und Varianz:

    M.(X.) = 00,0081 + 10,0756 + 20,2646 + 3 0,4116 + +40,2401=2,8

    Zur Berechnung der Varianz verwenden wir die Formel (19.4)

    D.(X.) = 020 ,0081 + 120,0756 + 220,2646 + 320,4116 + 420,2401 - 2,82 = 8,68 -

    Beispiel 3. Zwei gleichberechtigte Athleten veranstalten ein Turnier, das entweder bis zum ersten Sieg eines von ihnen oder bis zu fünf gespielten Spielen dauert. Die Wahrscheinlichkeit, in einem Spiel für jeden der Athleten zu gewinnen, beträgt 0,3, und die Wahrscheinlichkeit eines Unentschieden beträgt 0,4. Finden Sie das Verteilungsgesetz, die mathematische Erwartung und die Varianz der Anzahl der gespielten Spiele.

    Entscheidung.Zufälliger Wert X.- Die Anzahl der gespielten Spiele nimmt Werte von 1 bis 5 an, d.h.

    Lassen Sie uns die Wahrscheinlichkeiten für das Ende des Spiels bestimmen. Das Spiel endet im ersten Spiel, wenn jemand anderes seine Athleten gewinnt. Die Gewinnwahrscheinlichkeit ist

    R.(1) = 0,3+0,3 =0,6.

    Wenn es ein Unentschieden gab (die Wahrscheinlichkeit eines Unentschieden beträgt 1 - 0,6 \u003d 0,4), wird das Spiel fortgesetzt. Das Spiel endet im zweiten Spiel, wenn im ersten Spiel ein Unentschieden stattgefunden hat und im zweiten Spiel jemand gewonnen hat. Wahrscheinlichkeit

    R.(2) = 0,4 0,6=0,24.

    Ebenso endet das Spiel im dritten Spiel, wenn zwei Unentschieden hintereinander gespielt wurden und erneut jemand gewonnen hat

    R.(3) = 0,4 0,4 0,6 = 0,096. R.(4)= 0,4 0,4 0,4 0,6=0,0384.

    Das fünfte Spiel ist das letzte in einer Variation.

    R.(5)= 1 - (R.(1)+R.(2)+R.(3)+R.(4)) = 0,0256.

    Lassen Sie uns alles in einen Tisch legen. Das Verteilungsgesetz der Zufallsvariablen "Anzahl der gewonnenen Spiele" hat die Form

    Erwarteter Wert

    Die Varianz wird nach der Formel (19.4) berechnet.

    Diskrete Standardverteilungen.

    Binomialverteilung. Lassen Sie das Schema von Bernoullis Experimenten implementieren: n identische unabhängige Experimente, in denen jeweils das Ereignis EIN kann mit konstanter Wahrscheinlichkeit erscheinen pund wird nicht mit Wahrscheinlichkeit erscheinen

    (siehe Vorlesung 18).

    Die Anzahl der Ereignisse EIN in diesen n Experimente ist eine diskrete Zufallsvariable X., deren mögliche Werte sind:

    0; 1; 2; ... ; m; ... ;; n.

    Eintrittswahrscheinlichkeit m Ereignisse A in einer bestimmten Reihe von n Experimente mit und das Verteilungsgesetz einer solchen Zufallsvariablen sind durch die Bernoulli-Formel gegeben (siehe Vorlesung 18).

    Numerische Merkmale einer Zufallsvariablen X. verteilt über binomialgesetz:

    Wenn n ist groß (), dann wird aus Formel (19.6) die Formel

    eine tabellarische Gauß-Funktion (eine Wertetabelle der Gauß-Funktion finden Sie am Ende von Vorlesung 18).

    In der Praxis ist oft nicht die Eintrittswahrscheinlichkeit wichtig. m Veranstaltungen EIN in einer bestimmten Reihe von n Experimente und die Wahrscheinlichkeit, dass das Ereignis EIN wird mindestens erscheinen

    zeiten und nicht mehr Male, d. h. die Wahrscheinlichkeit, dass X Werte annimmt

    Dazu müssen Sie die Wahrscheinlichkeiten summieren

    Wenn n ist groß (), dann wird aus Formel (19.9) die ungefähre Formel

    tabellarische Funktion. Die Tabellen finden Sie am Ende von Vorlesung 18.

    Beachten Sie bei der Verwendung von Tabellen Folgendes

    Beispiel 1... Ein Auto, das sich einer Kreuzung nähert, kann mit der gleichen Wahrscheinlichkeit auf einer der drei Straßen weiterfahren: A, B oder C. Fünf Autos fahren bis zur Kreuzung. Finden Sie die durchschnittliche Anzahl von Autos, die auf Straße A fahren, und die Wahrscheinlichkeit, dass drei Autos auf Straße B fahren.

    Entscheidung. Die Anzahl der Autos, die auf jeder Straße vorbeifahren, ist eine Zufallsvariable. Wenn wir davon ausgehen, dass alle Autos, die sich der Kreuzung nähern, unabhängig voneinander fahren, wird diese Zufallsvariable nach dem Binomialgesetz mit verteilt

    n \u003d 5 und p = .

    Daher wird die durchschnittliche Anzahl von Autos, die der Straße A folgen, durch die Formel (19.7) angegeben.

    und die erforderliche Wahrscheinlichkeit für

    Beispiel 2. Die Wahrscheinlichkeit eines Geräteausfalls für jeden Test beträgt 0,1. 60 Gerätetests werden durchgeführt. Wie hoch ist die Wahrscheinlichkeit, dass das Gerät ausfällt: a) 15 Mal; b) nicht mehr als 15 mal?

    ein.Da die Anzahl der Tests 60 beträgt, verwenden wir die Formel (19.8).

    Nach Tabelle 1 des Anhangs zu Vorlesung 18 finden wir

    b... Wir verwenden die Formel (19.10).

    Gemäß Tabelle 2 des Anhangs zu Vorlesung 18

    • - 0,495
    • 0,49995

    Poisson-Verteilung) das Gesetz der seltenen Phänomene).Wenn n toll, aber r. klein (), während das Produkt usw behält einen konstanten Wert bei, den wir mit l bezeichnen,

    dann wird die Formel (19.6) zur Poisson-Formel

    Das Verteilungsgesetz von Poisson hat die Form:

    Offensichtlich ist die Definition von Poissons Gesetz korrekt, da Haupteigenschaft einer Verteilungsreihe

    erfüllt, weil die Summe der Serien

    Die Serienerweiterung der Funktion für

    Satz. Die mathematische Erwartung und Varianz einer Zufallsvariablen, die gemäß dem Poissonschen Gesetz verteilt ist, stimmen überein und sind gleich dem Parameter dieses Gesetzes, d.h.

    Beweise.

    Beispiel. Um seine Produkte auf den Markt zu bringen, stellt das Unternehmen Flugblätter in die Postfächer. Frühere Erfahrungen zeigen, dass in etwa einem von 2.000 Fällen eine Bestellung folgt. Ermitteln Sie die Wahrscheinlichkeit, dass mindestens eine Bestellung nach dem Einreichen von 10.000 Flugblättern eingeht, die durchschnittliche Anzahl der eingegangenen Bestellungen und die Varianz der Anzahl der eingegangenen Bestellungen.

    Entscheidung... Hier

    Wir finden die Wahrscheinlichkeit, dass mindestens eine Ordnung durch die Wahrscheinlichkeit des entgegengesetzten Ereignisses eintrifft, d.h.

    Ein zufälliger Strom von Ereignissen.Ein Ereignisstrom ist eine Folge von Ereignissen, die zu zufälligen Zeiten auftreten. Typische Beispiele für Abläufe sind Störungen in Computernetzwerken, Anrufe an Telefonzentralen, ein Abfluss von Anfragen nach Reparaturen von Geräten usw.

    Fließen Ereignisse aufgerufen stationär, wenn die Wahrscheinlichkeit, dass eine bestimmte Anzahl von Ereignissen auf das Zeitintervall der Länge fällt, nur von der Länge des Intervalls abhängt und nicht vom Ort des Zeitintervalls auf der Zeitachse.

    Die Stationaritätsbedingung wird durch den Fluss von Ansprüchen erfüllt, deren Wahrscheinlichkeitsmerkmale nicht von der Zeit abhängen. Insbesondere ist ein stationärer Fluss durch eine konstante Dichte (die durchschnittliche Anzahl von Anforderungen pro Zeiteinheit) gekennzeichnet. In der Praxis gibt es häufig Anwendungsflüsse, die (zumindest für einen begrenzten Zeitraum) als stationär angesehen werden können. Beispielsweise kann der Anruffluss an einer Stadttelefonzentrale im Zeitintervall von 12 bis 13 Stunden als stationär angesehen werden. Der gleiche Fluss während des ganzen Tages kann nicht mehr als stationär betrachtet werden (nachts ist die Anrufdichte viel geringer als tagsüber).

    Fließen Ereignisse, die als Stream bezeichnet werden ohne NachwirkungWenn für nicht überlappende Zeitsegmente die Anzahl der Ereignisse, die auf eines von ihnen fallen, nicht von der Anzahl der Ereignisse abhängt, die auf andere fallen.

    Die Bedingung des Fehlens von Nachwirkungen - die für den einfachsten Fluss am wichtigsten ist - bedeutet, dass Anwendungen unabhängig voneinander in das System eintreten. Beispielsweise kann der Passagierstrom, der eine U-Bahn-Station betritt, als ein Fluss ohne Nachwirkung betrachtet werden, da die Gründe, die die Ankunft eines einzelnen Passagiers zu diesem Zeitpunkt und nicht zu einem anderen Zeitpunkt verursacht haben, in der Regel nicht mit ähnlichen Gründen für andere Passagiere verbunden sind. Die Bedingung für das Fehlen einer Nachwirkung kann jedoch aufgrund des Auftretens einer solchen Abhängigkeit leicht verletzt werden. Beispielsweise kann der Passagierstrom, der eine U-Bahn-Station verlässt, nicht mehr ohne Nachwirkung als Fluss betrachtet werden, da die Abfahrtsmomente von Passagieren, die mit demselben Zug ankommen, voneinander abhängig sind.

    Fließen Ereignisse aufgerufen gewöhnlichewenn die Wahrscheinlichkeit, dass zwei oder mehr Ereignisse ein kleines Zeitintervall t treffen, im Vergleich zur Wahrscheinlichkeit, ein Ereignis zu treffen, vernachlässigbar ist (in diesem Zusammenhang wird das Poissonsche Gesetz das Gesetz der seltenen Ereignisse genannt).

    Die Gewöhnlichkeitsbedingung bedeutet, dass Ordnungen einzeln und nicht paarweise, dreifach usw. auftreten. Varianzabweichung Bernoulli-Verteilung

    Beispielsweise kann der Kundenstrom, der einen Friseur betritt, als nahezu normal angesehen werden. Wenn in einem außergewöhnlichen Fluss Aufträge nur paarweise, nur in Drillingen usw. empfangen werden, kann ein außergewöhnlicher Fluss leicht auf einen gewöhnlichen reduziert werden; Hierzu reicht es aus, den Fluss von Paaren, Dreifachen usw. anstelle eines Stroms einzelner Ansprüche zu berücksichtigen. Es wird schwieriger, wenn sich jeder Anspruch zufällig als doppelt, dreifach usw. herausstellen kann. Dann müssen wir uns mit einem Strom nicht homogener, aber heterogener Ereignisse befassen.

    Wenn der Ereignisfluss alle drei Eigenschaften hat (das heißt, er ist stationär, gewöhnlich und hat keine Nachwirkung), wird er als einfachster (oder stationärer Poisson-) Fluss bezeichnet. Der Name "Poisson" beruht auf der Tatsache, dass, wenn die aufgeführten Bedingungen erfüllt sind, die Anzahl der Ereignisse, die auf ein festes Zeitintervall fallen, verteilt wird poissons Gesetz

    Hier ist die durchschnittliche Anzahl von Ereignissen EINerscheint pro Zeiteinheit.

    Dieses Gesetz ist ein Parameter, d.h. Zum Einstellen ist nur ein Parameter erforderlich. Es kann gezeigt werden, dass die mathematische Erwartung und Varianz im Poissonschen Gesetz numerisch gleich sind:

    Beispiel... Angenommen, mitten in einem Arbeitstag beträgt die durchschnittliche Anzahl der Anfragen 2 pro Sekunde. Wie groß ist die Wahrscheinlichkeit, dass 1) nicht eine einzige Anfrage in einer Sekunde eintrifft, 2) 10 Anfragen in zwei Sekunden eintreffen?

    Entscheidung. Da die Gültigkeit der Anwendung des Poissonschen Gesetzes zweifelsfrei ist und sein Parameter angegeben ist (\u003d 2), wird die Lösung des Problems auf die Anwendung der Poissonschen Formel (19.11) reduziert.

    1) t = 1, m = 0:

    2) t = 2, m = 10:

    Das Gesetz der großen Zahlen.Die mathematische Grundlage für die Tatsache, dass die Werte einer Zufallsvariablen um einige Konstanten gruppiert sind, ist das Gesetz der großen Zahlen.

    Historisch gesehen war Bernoullis Theorem die erste Formulierung des Gesetzes der großen Zahlen:

    "Mit einer unbegrenzten Zunahme der Anzahl identischer und unabhängiger Experimente n konvergiert die Auftrittshäufigkeit von Ereignis A in der Wahrscheinlichkeit gegen seine Wahrscheinlichkeit", d.h.

    wo ist die Häufigkeit des Auftretens von Ereignis A in n Experimenten,

    Sinnvoll bedeutet Ausdruck (19.10), dass bei einer großen Anzahl von Experimenten die Häufigkeit des Auftretens des Ereignisses EIN kann die unbekannte Wahrscheinlichkeit dieses Ereignisses ersetzen und je größer die Anzahl der durchgeführten Experimente ist, desto näher ist p * an p. Eine interessante historische Tatsache. K. Pearson warf 12000 Mal eine Münze und sein Wappen fiel 6019 Mal (Häufigkeit 0,5016). Er warf dieselbe Münze 24.000 Mal und erhielt 12.012 Wappen, d.h. Frequenz 0,5005.

    Die wichtigste Form des Gesetzes der großen Zahlen ist der Satz von Chebyshev: mit einer unbegrenzten Zunahme der Anzahl unabhängiger Experimente mit endlicher Varianz, die unter identischen Bedingungen durchgeführt wurden, konvergiert das arithmetische Mittel der beobachteten Werte einer Zufallsvariablen in der Wahrscheinlichkeit gegen ihre mathematische Erwartung... Analytisch kann dieser Satz wie folgt geschrieben werden:

    Der Satz von Chebyshev hat neben seinem theoretischen Grundwert wichtige praktische Anwendungen, beispielsweise in der Messtheorie. Nach n Messungen einer bestimmten Menge xErhalten Sie unterschiedliche nicht übereinstimmende Werte x1, x2, ..., xn... Für den ungefähren Wert des gemessenen Wertes x Nehmen Sie das arithmetische Mittel der beobachteten Werte

    Dabei, je mehr Experimente durchgeführt werden, desto genauer ist das Ergebnis. Der Punkt ist, dass die Varianz der Menge mit zunehmender Anzahl der durchgeführten Experimente abnimmt.

    D.(x1) = D.(x2)=…= D.(xn) D.(x), dann

    Die Beziehung (19.13) zeigt, dass selbst bei einer hohen Ungenauigkeit der Messinstrumente (großer Wert) aufgrund einer Zunahme der Anzahl der Messungen ein Ergebnis mit beliebig hoher Genauigkeit erzielt werden kann.

    Mit der Formel (19.10) können wir die Wahrscheinlichkeit ermitteln, dass die statistische Häufigkeit nicht mehr als von der Wahrscheinlichkeit abweicht

    Beispiel. Die Wahrscheinlichkeit eines Ereignisses in jedem Versuch beträgt 0,4. Wie viele Tests müssen durchgeführt werden, um mit einer Wahrscheinlichkeit von mindestens 0,8 zu erwarten, dass die relative Häufigkeit eines Ereignisses um weniger als 0,01 von der Wahrscheinlichkeit des absoluten Werts abweicht?

    Entscheidung.Nach Formel (19.14)

    daher gibt es laut Tabelle zwei Anwendungen

    daher, n 3932.

    Dispersion (Streuung) einer diskreten ZufallsvariablenD (X) ist die mathematische Erwartung des Quadrats der Abweichung einer Zufallsvariablen von ihrer mathematischen Erwartung

    1 Eigenschaft... Die Varianz des konstanten Wertes C ist Null; D (C) \u003d 0.

    Beweise. Per Definition der Varianz ist D (C) \u003d M (2).

    Ab der ersten Eigenschaft des erwarteten Wertes ist D (C) \u003d M [(C - C) 2] \u003d M (0) \u003d 0.

    2 Eigenschaft. Der konstante Faktor kann aus dem Varianzzeichen herausgenommen werden, indem er quadriert wird:

    D (CX) \u003d C 2 D (X)

    Beweise. Per Definition der Varianz ist D (CX) \u003d M (2)

    Aus der zweiten Eigenschaft der Erwartung ist D (CX) \u003d M (2) \u003d C 2 M (2) \u003d C 2 D (X)

    3 Eigenschaft. Die Varianz der Summe zweier unabhängiger Zufallsvariablen ist gleich der Summe der Varianzen dieser Werte:

    D \u003d D [X] + D.

    Beweise. Nach der Formel zur Berechnung der Varianz haben wir

    D (X + Y) \u003d M [(X + Y) 2] - 2

    Wenn wir die Klammern erweitern und die Eigenschaften der mathematischen Erwartung der Summe mehrerer Größen und des Produkts zweier unabhängiger Zufallsvariablen verwenden, erhalten wir

    D (X + Y) \u003d M - 2 \u003d M (X2) + 2M (X) M (Y) + M (Y2) - M2 (X) - 2M (X) M (Y) - M2 (Y) \u003d ( M (X2) - 2) + (M (Y2) - 2) \u003d D (X) + D (Y). Also ist D (X + Y) \u003d D (X) + D (Y)

    4 Eigenschaft... Die Varianz der Differenz zweier unabhängiger Zufallsvariablen entspricht der Summe ihrer Varianzen:

    D (X - Y) \u003d D (X) + D (Y)

    Beweise. Aufgrund der dritten Eigenschaft ist D (X - Y) \u003d D (X) + D (–Y). Bei der zweiten Eigenschaft

    D (X - Y) \u003d D (X) + (–1) 2 D (Y) oder D (X - Y) \u003d D (X) + D (Y)

    Numerische Eigenschaften von Zufallsvariablensystemen. Korrelationskoeffizient, Eigenschaften des Korrelationskoeffizienten.

    Korrelationsmoment.Das Merkmal der Beziehung zwischen Zufallsvariablen ist die mathematische Erwartung des Produkts von Abweichungen von ihren Verteilungszentren (wie die mathematische Erwartung einer Zufallsvariablen manchmal genannt wird), die als Korrelationsmoment oder Kovarianz bezeichnet wird:

    Berechnung des Korrelationsmoments diskrete Mengen Verwenden Sie die Formel:

    und für kontinuierliche Mengen - die Formel:

    Korrelationskoeffizient rxy der Zufallsvariablen X und Y wird als Verhältnis des Korrelationsmoments zum Produkt bezeichnet quadratische Mittelwertabweichungen Mengen:
    - Korrelationskoeffizient;

    Eigenschaften des Korrelationskoeffizienten:

    1. Wenn X und Y unabhängige Zufallsvariablen sind, dann ist r \u003d 0;

    2. -1 ≤ r ≤ 1. Außerdem, wenn | r | \u003d 1, dann ist zwischen X und Y nämlich funktional lineare Beziehung;

    3. r charakterisiert die relative Größe der Abweichung von M (XY) von M (X) M (Y) und seitdem Die Abweichung findet nur für abhängige Werte statt, dann charakterisiert r die Dichtheit der Abhängigkeit.

    Lineare Regressionsfunktion.

    Betrachten Sie eine zweidimensionale Zufallsvariable (X, Y), wobei X und Y abhängige Zufallsvariablen sind. Stellen wir eine der Größen als Funktion der anderen dar. Wir beschränken uns auf eine ungefähre Darstellung (eine genaue Annäherung ist im Allgemeinen nicht möglich) der Größe Y in Form einer linearen Funktion der Größe X:

    wobei α und β zu bestimmende Parameter sind.

    Satz. Lineare quadratische mittlere quadratische Regression Y auf X hat die Form

    wo m x \u003d M (X), m y \u003d M (Y), σ x \u003d √ D (X), σ y \u003d √ D (Y), r \u003d µ xy / (σ x σ y) - korrelationskoeffizient von X- und Y-Werten.

    Der Koeffizient β \u003d rσ y / σ x heißt regressionskoeffizienten Y bis X und gerade

    gerade genannt quadratische mittlere Regression Y bis X.

    Markov-Ungleichung.

    Formulierung der Markov-Ungleichung

    Wenn es unter den Werten der Zufallsvariablen X keine negativen Werte gibt, ist die Wahrscheinlichkeit, dass ein Wert angenommen wird, der die positive Zahl A überschreitet, nicht mehr als ein Bruchteil, d. H.

    und die Wahrscheinlichkeit, dass es einen Wert annimmt, der eine positive Zahl A nicht überschreitet, ist nicht geringer, d.h.

    Chebyshevs Ungleichung.

    Chebyshevs Ungleichung... Die Wahrscheinlichkeit, dass die Abweichung einer Zufallsvariablen X von ihrer mathematischen Erwartung im absoluten Wert kleiner als eine positive Zahl ε ist, ist nicht kleiner als 1 - D [X] ε 2

    P (| X - M (X) |< ε) ≥ 1 –D(X)ε 2

    Beweise. Da die Ereignisse in der Verwirklichung von Ungleichheiten bestehen

    P (| X - M (X) |< ε) и P(|X – M(X)| ≥ε) противоположны, то сумма их вероятностей равна единице, т. е.

    P (| X - M (X) |< ε) + P(|X – M(X)| ≥ ε) = 1.

    Daher die Wahrscheinlichkeit des Interesses an uns

    P (| X - M (X) |< ε) = 1 − P(|X – M(X)| > ε).

    Somit reduziert sich das Problem auf die Berechnung der Wahrscheinlichkeit P (| X –M (X) | ≥ ε).

    Schreiben wir einen Ausdruck für die Varianz der Zufallsvariablen X.

    D (X) \u003d 2 p1 + 2 p 2 +. ... ... + 2 p n

    Alle Begriffe in dieser Summe sind nicht negativ. Wir verwerfen die Begriffe, für die | x i - M (X) |< ε (для оставшихся слагаемых |x j – M(X)| ≥ ε), вследствие чего сумма может только уменьшиться. Условимся считать для определенности, что отброшено k первых слагаемых (не нарушая общности, можно считать, что в таблице распределения возможные значения занумерованы именно в таком порядке). Таким образом,

    D (X) ≥ 2 p k + 1 + 2 p k + 2 +. ... ... + 2 p n

    Beide Seiten der Ungleichung | x j –M (X) | ≥ ε (j \u003d k + 1, k + 2, ..., N) sind positiv, daher erhalten wir durch Quadrieren die äquivalente Ungleichung | x j - M (X) | 2 ≥ ε 2. Ersetzen jedes der Faktoren in der verbleibenden Summe

    | x j - M (X) | 2 erhalten wir durch die Zahl ε 2 (die Ungleichung kann nur stärker werden)

    D (X) ≥ ε 2 (p k + 1 + p k + 2 + ... + P n)

    Nach dem Additionssatz ist die Summe der Wahrscheinlichkeiten p k + 1 + p k + 2 +. ... . + p n ist die Wahrscheinlichkeit, dass X einen der Werte x k + 1 + x k + 2 + annimmt, egal welcher. ... . + x n, und für jeden von ihnen erfüllt die Abweichung die Ungleichung | x j - M (X) | ≥ ε. Dies impliziert, dass die Summe p k + 1 + p k + 2 +. ... ... + p n drückt die Wahrscheinlichkeit aus

    P (| X - M (X) | ≥ ε).

    Dies ermöglicht es uns, die Ungleichung für D (X) als umzuschreiben

    D (X) ≥ ε 2 P (| X - M (X) | ≥ ε)

    P (| X - M (X) | ≥ ε) ≤ D (X) / ε 2

    Wir bekommen endlich

    P (| X - M (X) |< ε) ≥D(X)/ε 2

    Chebyshevs Theorem.

    Chebyshevs Theorem. Wenn - paarweise unabhängige Zufallsvariablen, deren Varianzen einheitlich begrenzt sind (eine konstante Zahl nicht überschreitenVON ), dann egal wie klein die positive Zahl istε , die Wahrscheinlichkeit der Ungleichheit

    wird willkürlich nahe an der Einheit liegen, wenn die Anzahl der Zufallsvariablen groß genug ist.

    Mit anderen Worten, unter den Bedingungen des Satzes

    Beweise... Wir betrachten eine neue Zufallsvariable - das arithmetische Mittel der Zufallsvariablen

    Lassen Sie uns die mathematische Erwartung von X finden. Unter Verwendung der Eigenschaften der mathematischen Erwartung (ein konstanter Faktor kann außerhalb des Vorzeichens der mathematischen Erwartung genommen werden, die mathematische Erwartung der Summe ist gleich der Summe der mathematischen Erwartungen der Terme) erhalten wir

    (1)

    Wenn wir Chebyshevs Ungleichung auf X anwenden, haben wir

    oder unter Berücksichtigung der Beziehung (1)

    Unter Verwendung der Varianz-Eigenschaften (der konstante Faktor kann durch Quadrieren außerhalb des Vorzeichens der Varianz genommen werden; die Varianz der Summe unabhängiger Zufallsvariablen ist gleich der Summe der Varianzen der Terme) erhalten wir

    Durch die Bedingung werden die Varianzen aller Zufallsvariablen durch eine konstante Zahl C begrenzt, d.h. Ungleichheiten finden statt:

    (2)

    Ersetzen rechte Seite (2) in Ungleichung (1) (warum letztere nur gestärkt werden kann) haben wir

    Wenn wir also als n → ∞ an die Grenze gehen, erhalten wir

    Da die Wahrscheinlichkeit eins nicht überschreiten kann, können wir schließlich schreiben

    Der Satz ist bewiesen.

    Bernoullis Satz.

    Bernoullis Satz. Wenn in jedem von n unabhängigen Tests die Wahrscheinlichkeit p des Auftretens des Ereignisses A konstant ist, ist die Wahrscheinlichkeit, dass die Abweichung der relativen Häufigkeit von der Wahrscheinlichkeit p im absoluten Wert beliebig klein ist, wenn die Anzahl der Versuche groß genug ist, willkürlich nahe bei Eins.

    Mit anderen Worten, wenn ε eine willkürlich kleine positive Zahl ist, dann ist unter den Bedingungen des Satzes die Gleichheit

    Beweise... Bezeichnen wir mit X 1 diskrete Zufallsvariable - die Anzahl der Ereignisse eines Ereignisses im ersten Test danach X 2 - in dieser Sekunde, ..., X n - im nth Test. Es ist klar, dass jede der Größen nur zwei Werte annehmen kann: 1 (Ereignis A ist aufgetreten) mit Wahrscheinlichkeit p und 0 (das Ereignis ist nicht aufgetreten) mit Wahrscheinlichkeit.



    error:Inhalt ist geschützt !!