eBooks

Grundwissen Stochastik

0810
2020
978-3-8385-5252-1
978-3-8252-5252-6
UTB 
Karl-Heinz Krüger

Die Stochastik bzw. die Wahrscheinlichkeitsrechnung gehört insbesondere in den Bachelorstudiengängen der Naturwissenschaften zum Handwerkszeug. Dieses Buch vermittelt die Grundlagen der Wahrscheinlichkeitsrechnung und setzt nur schulische Mathekenntnisse voraus. Beispiele machen den Stoff begreifbar. Auf häufig gemachte Fehler weist der Autor hin. Aufgaben mit Lösungen helfen beim Verständnis. Das Buch richtet sich an Studierende der Naturwissenschaften - insbesondere an angehende Wirtschaftsinformatiker.

Mit Aufgaben und Lösungen ,! 7ID8C5-cfcfcg! ISBN 978-3-8252-5252-6 Karl-Heinz Krüger Grundwissen Stochastik Die Stochastik gehört in den Bachelorstudiengängen der Natur- und Wirtschaftswissenschaften zum Handwerkszeug. Dieses Buch vermittelt die Grundlagen der Wahrscheinlichkeitsrechnung und setzt lediglich schulische Mathekenntnisse voraus. Karl-Heinz Krüger geht auf Häufigkeiten und Wahrscheinlichkeiten sowie auf Zufall, Erwartung und Verteilung ein. Wissenswertes rund um Stichproben und Tests runden das Buch ab. Beispiele sowie Aufgaben mit Lösungen helfen beim Verständnis. Das Lehrbuch richtet sich an Studierende der Naturwissenschaften - insbesondere auch an angehende Wirtschaftsinformatiker. Natur- und Wirtschaftswissenschaften Informatik Grundwissen Stochastik Krüger Dies ist ein utb-Band aus dem UVK Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehrbücher und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb-shop.de QR-Code für mehr Infos und Bewertungen zu diesem Titel 52526 Krüger_M_-5252.indd 1 52526 Krüger_M_-5252.indd 1 07.07.20 14: 45 07.07.20 14: 45 Eine Arbeitsgemeinschaft der Verlage Böhlau Verlag · Wien · Köln · Weimar Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Wilhelm Fink · Paderborn Narr Francke Attempto Verlag / expert verlag · Tübingen Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Ernst Reinhardt Verlag · München Ferdinand Schöningh · Paderborn transcript Verlag · Bielefeld Eugen Ulmer Verlag · Stuttgart UVK Verlag · München Vandenhoeck & Ruprecht · Göttingen Waxmann · Münster · New York wbv Publikation · Bielefeld utb 5252 Karl-Heinz Krüger Grundwissen Stochastik UVK Verlag · München Der Autor Dr. Karl-Heinz Krüger lehrt Statistik für Wirtschaftsingenieure an der DHBW Baden-Württemberg. Umschlagabbildung: © pxel66 · iStockphoto Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. 1. Auflage 2020 © UVK Verlag 2020 - ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Internet: www.narr.de eMail: info@narr.de Einbandgestaltung: Atelier Reichert, Stuttgart CPI books GmbH, Leck UTB-Nr. 5252 ISBN 978-3-8252-5252-6 (Print) ISBN 978-3-8385-5252-1 (ePDF) Inhalt Was Sie vorab wissen sollten! ......................................................... 11 Lust auf Stochastik ............................................................................... 15 Vorschau ................................................................................................... 18 Bezeichnungen und Abkürzungen ................................................. 21 Numerik ..................................................................................................... 23 1 Grundwissen Mathematische Grundlagen ....................................................... 27 Mengen............................................................................................ 36 Kombinatorik ................................................................................. 43 Regression....................................................................................... 49 Fehlerfortpflanzung ...................................................................... 52 2 Häufig- und Wahrscheinlichkeiten Die Geburt der Stochastik........................................................... 55 Zufallsexperimente, ihre Ergebnisse und ihre Ereignisse ... 57 Häufigkeit und Wahrscheinlichkeit ......................................... 60 Einige interessante Wahrscheinlichkeiten.............................. 67 Die B ERNOULLI -Formel ................................................................. 72 Die hypergeometrische Wahrscheinlichkeit .......................... 79 Die bedingte Wahrscheinlichkeit.............................................. 82 Ereignisbäume ............................................................................... 90 6 Inhalt 3 Zufall, Erwartung und Verteilung Zufallszahlen.................................................................................. 95 Verteilungen................................................................................. 101 Der Erwartungswert................................................................... 108 Varianz und Streuung ................................................................ 115 Die Exponentialverteilung ........................................................ 120 Die Normalverteilung ................................................................ 122 Testverteilungen ......................................................................... 126 Mehrere Zufallszahlen ............................................................... 128 Große Zahlen ............................................................................... 135 4 Stichproben und Tests Stichproben .................................................................................. 141 Signifikanz-Test .......................................................................... 148 Der Chi-Test................................................................................. 156 Vertrauensintervalle................................................................... 160 Aufgaben und Lösungen ⁉ Aufgaben zur Kombinatorik ......................................................... 165 ⁉ Aufgaben zur Fehlerfortpflanzung .............................................. 167 ⁉ Aufgaben zur Regression ............................................................... 167 ⁉ Aufgaben zur Wahrscheinlichkeit ............................................... 168 ⁉ Aufgaben zu ZuZa ........................................................................... 171 ⁉Aufgaben zum Erw........................................................................... 172 ⁉ Aufgaben zu Tests ........................................................................... 172 Inhalt 7 ‼ Lösungen der historischen Aufgaben ........................................... 175 ‼ Lösungen der Kombi-Aufgaben ..................................................... 177 ‼ Lösungen zur Fehlerfortpflanzung ................................................ 180 ‼ Lösungen zur Regression................................................................. 181 ‼ Lösungen zur Wahrscheinlichkeit................................................. 182 ‼ Lösungen zu ZuZa............................................................................. 187 ‼ Lösungen zu Erw ............................................................................... 189 ‼ Lösungen zu Tests ............................................................................. 191 Herleitungen ......................................................................................... 193 Tabellen ................................................................................................... 200 Literatur .................................................................................................. 205 Von J AKOB I B ERNOULLI (1654-1705) stammt eine der wichtigsten Erkenntnisse der Stochastik: Wenn man beim n-maligen Wiederholen eines Zufallsexperiments die Zahl k der Erfolge zählt, dann kann k jeden Wert k = 0,1, … , n annehmen. Sonst wäre es kein Zufallsexperiment. Haben alle n Wiederholungen die gleiche Einzelwahrscheinlichkeit p, dann hat das Zufallsereignis E: «bei n Versuchen genau k Erfolge» die Wahrscheinlichkeit Prob(E) = Bin p; n (k) ∶≝ �nk� ∙ p k ∙ (1-p) n-k Dabei ist � n k � ∶ ≝ n! k! ∙ ( n-k ) ! n! ∶≝ 2 ∙ 3 ∙ … ∙ n 0! = 1! ∶≝ 1 Das Zufallsexperiment »Würfeln mit einem Würfel« hat die sechs möglichen Ergebnisse ⚀ ⚁ ⚂ ⚃ ⚄ ⚅ Man nennt einen Würfel ideal, wenn er die sog. L APLACE -Eigenschaft besitzt, d.h. jedes der sechs möglichen Ergebnisse hat die gleiche Wahrscheinlichkeit p = 1 6 ⁄ . Betrachtet man das Würfeln einer ⚅ als Erfolg, dann hat bei n=20 Versuchen ein k-maliger Erfolg die Wahrscheinlichkeiten k= 0 1 2 3 4 5 6 7 8 9 10…20 1000·Bin= 26 104 198 238 202 129 65 26 8 2 <1 0,0 0,1 0,2 0,3 0 1 2 3 4 5 6 7 8 9 10 Bin 1/ 6; 20 (k=0,1,...,10) Was Sie vorab wissen sollten! Dieses Taschenbuch behandelt das Thema Stochastik. Der Begriff 𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎𝜎 𝜎𝜎𝜏𝜏𝜎𝜎𝜏𝜏𝜎𝜎 stammt - wie vieles in der Mathematik - aus dem Griechischen. Dahinter steckt in lateinischen Buchstaben ausgedrückt stochastike techne, die Kunst des Ratens oder Vermutens. Ich fasse die Stochastik als Wahrscheinlichkeitsrechnung und Statistik auf. Die folgenden Seiten sind aus einer Vorlesung an der Dualen Hochschule Baden Württemberg (DHBW) entstanden. Sie wenden sich vor allem an Studienanfänger, die aufbauend auf ihrem mathematischen Abiturwissen Stochastik lernen wollen  oder müssen 😐😐 . Das sind insbesondere WINT-Studierende. WINT steht für W irtschaft, I nformatik, N aturwissenschaft und T echnik. Mir ist bewusst, dass der Begriff Abiturwissen angesichts der föderalen Strukturen unseres Schulsystems durchaus unkonkret ist. Ich habe deswegen in einem Kapitel → Mathematisches Grundwissen vorangestellt, das meiner Meinung nach den Schritt vom Abitur zur Hochschule erleichtern könnte. Leser, die über tiefgreifendere mathematische Kenntnisse verfügen, können diese Seiten gerne überblättern und als bekannt abnicken. In den Vorlesungen höre ich von Studierenden oft, dass ihnen die Stochastik fremder als Nachbarthemen wie etwa Analysis, Differentialrechnung, Lineare Algebra oder Vektorgeometrie erscheint. Ich glaube, dass diese Fremdheit mit einem Mangel an Didaktik einhergeht. Deswegen berücksichtige ich auf den folgenden Seiten explizit Einwände, Anregungen und Kritik meiner Studierenden. Kurze Bezeichner verwirren und … Beim Studium anderer Lehrbücher habe ich gelegentlich sprechende Bezeichner vermisst. Ich habe dabei an die allgemeine Mathematik mit Bezeichnern wie sin, cos, log ... oder an die Vektoranalysis mit sprechenden Bezeichnern wie grad, div, rot … gedacht. Dabei kamen mir Bezeichner wie P(), E() und V() für wirklich wichtige zentrale Stochastikfunktionen wie Wahrscheinlichkeit, Erwartungswert und 12 Was Sie vorab wissen sollten! Variation als zu kümmerlich vor. Hinzu kommt, dass solche Aller- Welt-Bezeichner für sonstige Funktionen tabu waren. Wenn man die Menge der Primzahlen kurz mit P bezeichnen möchte, dann kann man das für Probability reservierte P nicht mehr benützen, ohne Verwirrung zu stiften. Viele Autoren haben eine Mischform gewählt: zwar E(), aber dann Var() oder Bin() und Hyp() usw. Andere Autoren benützen besonders stilisierte Buchstaben wie ℙ () f ü r die Wahrscheinlichkeit. … sprechende Bezeichner fördern das Verständnis Ich versuche in diesem Taschenbuch, ALLE wichtigen Größen der Stochastik durch etwas längere und sprechende Bezeichner etwas augenfälliger und hoffentlich einprägsamer rüberzubringen. Ich hoffe, die Gewöhnung an meine gewöhnungsbedürftigen Bezeichner gelingt, und auch der Vergleich mit anderen Autoren wird nicht über Gebühr erschwert. Die Suche nach sprechenden Bezeichnern hat mich dazu verführt, z.B. drei zentrale Begriff aller Stochastik: die Wahrscheinlichkeit, den Erwartungswert und die Variation mit Prob(), Erw() und Var() zu bezeichnen. Allerdings kürze ich in längeren Rechnungen oder Herleitungen oft wieder Prob() durch P() ab. Das wird dann aber immer extra erwähnt. Diese Verschwendung von Druckzeichen  habe ich zu kompensieren versucht, indem ich gewagte Abkürzungen wie ZuEx, BeEx oder ZuZa für die sehr häufig auftretenden Begriffe Zufallsexperiment, B ERNOULLI -Experiment oder Zufallszahl benütze. Ich habe alle Bezeichner und Abkürzungen im Abschnitt → Bezeichner in einer Liste zusammengefasst. Ich stelle gerne Formeln eines Themas in Form von Tabellen zusammen. Ich hoffe, dass die daraus resultierende Flut von Tabellen der Übersicht dient und dem Erlernen der wichtigsten Formeln hilft. Es gelang mir nicht, eine gewisse Redundanz in den vielen Tabellen zu vermeiden. Von Studierenden werden in Prüfungen meist Anwendungen, Formeln, Verfahren und weniger ihre Begründungen gefragt. Ich habe daher die meisten Herleitungen, Begründungen und Beweise aus dem Was Sie vorab wissen sollten! 13 Hauptteil entfernt und in den Anhang (→ Herleitungen) oder gar auf Hinweise zur Literatur (→ Literatur) verschoben. E XCEL und Taschenrechner nutzen Ich löse in diesem Taschenbuch numerische Probleme ausschließlich mit E XCEL und genieße dessen reichhaltiges Angebot an statistischen Funktionen (→ Numerik). Prüflinge werden in Klausuren wohl kaum über E XCEL verfügen. Ich rate daher dringend, Teile der dargestellten E XCEL -Berechnungen mit dem Taschenrechner (TR) nachzuvollziehen, der in der Prüfung zur Verfügung steht. Was der TR nicht kann, muss schlimmstenfalls Tabellen 😐😐 entnommen werden. Ich halte es anno 2020 für überholt, Werte von stochastischen Funktionen Tabellen zu entnehmen. Trotzdem habe ich für Studierende, die in ihren Klausuren noch keine professionelle digitale Hilfsmittel nutzen dürfen, wenige Tabellen mit sparsamen Erklärungen am Ende des Buches angefügt. Was ist Zufall? Aller Stochastik liegt der Begriff Zufall zugrunde. Was dieser Begriff im menschlichen Denken wirklich meint, muss die Philosophie klären (oder zu klären versuchen). Ich versuche als Philosophielaie eine Annäherung an den Begriff Zufall durch zwei Beispiele von sog. Zufallsexperimenten (ZuEx): Wenn sich in einem Becher ein oder mehrere Würfel befinden und man den geschlossenen Becher erst kräftig schüttelt und dann die Würfel schwungvoll auf den Tisch schüttet, dann wird allein vom Zufall bestimmt, welche Seite jedes Würfels oben liegt. Der Würfler kann dies NICHT beeinflussen. Wenn in einer Trommel 49 nummerierte Kugeln liegen, dann wird durch kräftiges Rühren deren Position innerhalb der Trommel allein vom Zufall bestimmt. Bei einer blinden Entnahme von sechs Kugeln kann niemand vorhersagen, welche es sein werden. Die LOTTO-Fee oder die LOTTO-Gesellschaft können das Ergebnis nicht beeinflussen. 14 Was Sie vorab wissen sollten! Zu guter Letzt habe ich ein Kapitel mit → Aufgaben und deren Lösungen angehängt. Dazu ein Rat: Versuchen Sie gleich nach dem Studium eines Kapitels des Hauptteils die dazu gehörenden Aufgaben zu lösen und beachten Sie dabei die Tipps. Danke Ich danke meinem Sohn Tim Felix Krüger und seiner Ehefrau Edith für eine sehr genaue und kritische Durchsicht meines Manuskripts. Die Qualität des endgültigen Werks ist zu einem großen Teil ihren Bemühungen zu verdanken. Mein Sohn war außerdem eine große Hilfe beim Erstellen der Graphiken. Ulm, im Sommer 2020 Karl-Heinz Krüger Lust auf Stochastik Ich versuche die Lust auf Stochastik durch einige recht populäre Fragestellungen zu wecken. Diese Fragen lauten oft: „Welche Chance habe ich …? “ oder „Wie wahrscheinlich ist …? “ Den Begriffen Chance und Wahrscheinlichkeit haftet dabei etwas Vages an, an das man sich gewöhnen muss. Die Stochastik wurde um 1650 geboren, als französische Adelige am Hof von Ludwig XIV. in Versailles versuchten, sich ihre Langeweile mit Glückspielen zu vertreiben (→ 2.1). Wenn man einem Würfelspieler sagt, seine Chance eine ⚅ zu würfeln sei 1/ 6 ≈ 17%, dann muss er begreifen, dass es möglich ist, dass er nach 30 Versuchen immer noch KEINE ⚅ gewürfelt hat. Allerdings ist dies sehr unwahrscheinlich. Die Stochastik sagt ihm, die Wahrscheinlichkeit dafür ist Prob(«nach 30 Würfen keine 6») = � 56 � 30 ≈ 0.0042 = 0.42% , (1) wobei der Zahlenwert 100% heißen würde: Das Ereignis ist sicher. Mehr als die Aussage (1) kann und will die Stochastik nicht leisten. Ich verwende zur Angabe einer Wahrscheinlichkeit die Bezeichnung Prob(«Ereignis»), abgeleitet vom englischen Begriff Probability. Man kann versuchen, den Würfelspieler zu trösten: Wenn 10 000 Spieler würfeln, dann wird es darunter mit großer Wahrscheinlichkeit 42 geben, die nach 30 Versuchen noch keine ⚅ erzielt haben. Aber selbst dies ist nicht sicher, sondern nur sehr wahrscheinlich. Mit den folgenden Beispielen versuche ich die Lust auf Stochastik weiter zu steigern. Beispiel: LOTTO Aus 49 nummerierten Kugeln werden 6 zufällig gezogen. Ein Tipp versucht vorherzusagen, welche 6 Kugeln es sein werden. 16 Lust auf Stochastik  Wie viele verschiedene Tipps gibt es?  Welche Chance auf r = 0, 1, … 6 Richtige hat ein Tipp?  Wie wahrscheinlich ist es, dass sich das gleiche LOTTO-Ergebnis nach n Ziehungen wiederholt? Beispiel: TOTO Bei einem TOTO-Tipp sind die Ergebnisse von 11 Fußballspielen mit einer der Angaben 0, 1, 2 vorherzusagen.  Wie viele verschiedene Tipps sind möglich?  Welche Chance auf r = 0, 1, 2, …, 11 Richtige hat ein Tipp? Beispiel: Party Auf einer Party sind n Personen.  Wie wahrscheinlich ist es, dass 2 Teilnehmer den gleichen Geburtstag (Tag, Monat) haben?  Ab welcher Besucherzahl n ist die Wahrscheinlichkeit größer als 50%? Beispiel: 3-Würfelspiel Der Betreiber eines Spielsaloons bietet seinen Spielern an, mit 3 Würfeln in einem Becher gleichzeitig zu würfeln. Wenn der Spieler zuvor einen beliebigen Einsatz e gemacht hat, dann bietet der Spielbetreiber die Auszahlung a/ e = p|q|0 an. Die Vielfache p und q richten sich danach ob die Augensumme eine Prim- oder eine Quadratzahl war. Der Spielbetreiber möchte nun durch sein Angebot seine Spieler zum Spielen verführen, aber gleichzeitig sein ökonomisches Überleben sichern.  Welche Werte für p oder q sind möglich, welche sind sinnvoll? Beispiel: Katholiken im Ausschuss In einem Parlament, beispielsweise im Bundestag, gibt es N Abgeordnete, darunter K Katholiken. Es wird rein vom Zufall gesteuert ein Ausschuss mit n< N Mitgliedern gebildet.  Mit welcher Wahrscheinlichkeit sind im Ausschuss k Katholiken? Lust auf Stochastik 17 Beispiel: Überbuchen Eine Fluggesellschaft (FG) macht die Erfahrung, dass bei vielen Flügen oft nicht alle Passagiere, die den Flug gebucht haben, diesen auch wirklich antreten. Sie verkauft daher mehr Tickets t als Sitzplätze s vorhanden sind. Erscheinen mehr als s Fluggäste, dann wird versucht, die zu viel erschienenen Fluggäste mit großzügigen Angeboten (Preisnachlass, Abendessen, Hotelübernachtung …) zu einer Umbuchung zu bewegen. Der Manager der FG legt für einen bestimmten Flug t>s fest und möchte nun wissen:  Wie wahrscheinlich ist es, dass 1, 2, 3, …, t-s Passagiere umgebucht werden müssen? Beispiel: Gruppen-Screening Beim Eintritt der USA in den Zweiten Weltkrieg mussten Millionen von Rekruten medizinisch untersucht werden. Bei bestimmten Krankheiten reicht es, das Blut (oder den Urin) von n Rekruten zu mischen und diese Mischung zu untersuchen. Bei einem negativen Gruppenbefund sind alle n Rekruten dieser Gruppe gesund. Bei einem positiven Gruppenbefund sind weitere n Untersuchungen jedes einzelnen Rekruten notwendig. Es stellen sich zwei Fragen:  Lässt sich durch Gruppenbildung die Zahl der notwendigen Untersuchungen verringern?  Wenn ja, was ist dann die ideale Gruppengröße n? Beispiel: Wahlprognosen Das Wahlverhalten einer bestimmten Wählergruppe mit N Wahlberechtigten soll ermittelt werden. Alle N Wahlberechtigte dieser Gruppe zu befragen ist nicht möglich, weil zu langwierig, zu teuer. Es werden nur n ≪ N Wahlberechtigte befragt. Die Stochastik nennt so etwas eine n-aus-N-Stichprobe. Wegen n ≪ N hat diese Befragung eine gewisse Irrtumswahrscheinlichkeit (TW).  Welche Obergrenze hat dieseTW bei gegebenem N und n?  Wie viele Wahlberechtigte (n=? ) muss man befrage, damit TW kleiner als ein vorgegebener Wert bleibt? 18 Vorschau Beispiel: Schraubenproduktion Eine Firma stellt Schrauben her und stellt fest, dass die Durchmesser D und Längen L streuen. Beide Maße sind normalverteilt und haben die Streuungen σ D und σ L . Der Firmenchef bestimmt, dass nur Schrauben verkauft werden, die um weniger als ΔD/ D und ΔL/ L vom Sollwert abweichen.  Mit welchem Ausschuss muss er rechnen? Ein persönliches Bekenntnis Mein erster Kontakt mit der Stochastik erfolgte, als ich andere Teilgebiete der Mathematik (Differentialgleichungen, Vektorgeometrie, Vektoranalysis, …) schon absolviert hatte. Allein schon die Fragestellungen der Stochastik betrachtete ich anfänglich mit einer gewissen Skepsis. Eine Ausnahme bildete die Kombinatorik, deren Fragestellungen und Ergebnisse ich von vorn herein als sinnvoll und nützlich empfand. Meine Skepsis gegenüber der Stochastik verschwand, als ich den Geniestreich des J.B ERNOULLI kennenlernte, und ebenso beeindruckt haben mich die Beispiele Überbuchte Flüge und Gruppen-Srceening. Vielleicht macht der eine oder andere Stochastik-Newcomer ähnliche Erfahrungen. Vorschau In dieser Vorschau werden wesentliche Grundbegriffe und Gedanken der Stochastik kurz vorgestellt. Die Stochastik beschäftigt sich mit »Zufallsexperimenten« ZuEx. Diese haben immer mehrere, oft viele mögliche »Ergebnisse« ω. Das »Prinzip Zufall« unterstellt, dass ein Ergebnis nicht vorhergesagt und vom Ausführenden nicht beeinflusst werden kann. Ein Wahrsager oder die LOTTO-Fee wären sonst schnell Multimilliardäre. Alle möglichen Ergebnisse ω eines ZuEx werden zur »Ergebnismenge« Ω zusammengefasst. Ω = {ω 1 ; ω 2 ; … ; ω n } n = |Ω| Vorschau 19 Eine Teilmenge von Ω wird »Ereignis« genannt. Dabei wird Ω selbst als »sicheres Ereignis« bezeichnet. Das besondere »unmögliche Ereignis« ∅, die leere Menge, hat KEINE Ergebnisse. Wie alle Mengen kann man Ereignisse beschreiben oder durch Aufzählen ihrer Ergebnisse angeben. Ereignis «Beschreibung» {Aufzählung} der Ergebnisse Die »Anzahl der Ergebnisse« eines Ereignisses E bezeichne ich mit |E|. Durch viele Wiederholungen eines ZuEx (Empirie) kann man die (absoluten und relativen) »Häufigkeiten« seiner Ergebnisse ermitteln. Der Begriff »Wahrscheinlichkeit« wird empirisch aus »relativen Häufigkeiten« entwickelt. Die »Wahrscheinlichkeitsfunktion« Prob ordnet jedem Ereignis E eine reelle Zahl zu 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸 ⊆ 𝛺𝛺 → 〈𝑤𝑤𝐸𝐸𝐸𝐸𝑤𝑤 𝑧𝑧𝑧𝑧𝐸𝐸𝐸𝐸𝜎𝜎𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸𝑒𝑒 〉 → 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐸𝐸) 𝜖𝜖 [0 … 1] wobei 0 = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(∅) ≤ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐸𝐸) ≤ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝛺𝛺) = 1 Da Ereignisse »Mengen« von Ergebnissen sind, spielen Mengenbegriffe eine große Rolle. Dazu gehören das Gegenereignis E̅ sowie die UND- und ODER-Verknüpfung mit den wichtigen Eigenschaften: 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐸𝐸�) = 1 − 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐸𝐸) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∪ 𝐵𝐵) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) + 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) − 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) ∙ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 𝐴𝐴 (𝐵𝐵) In der letzten Formel taucht die »bedingte Wahrscheinlichkeit« auf, der ein eigener Abschnitt (→ Abschnitt 2.5) gewidmet ist. Ein Meilenstein der Stochastik ist die B ERNOULLI -Erkenntnis 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 �«𝑃𝑃𝐸𝐸𝐸𝐸 𝐸𝐸 𝑊𝑊𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸ℎ𝜎𝜎𝑜𝑜𝑧𝑧𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝑍𝑍𝑧𝑧𝐸𝐸𝑍𝑍 𝐸𝐸𝐸𝐸𝐸𝐸𝑔𝑔𝑧𝑧 𝑘𝑘 𝐸𝐸𝐸𝐸𝐸𝐸𝜎𝜎𝑜𝑜𝐸𝐸𝐸𝐸 » � = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) 20 Vorschau Die Eigenschaften der wichtigen »Binominalfunktion« werden in → Abschnitt 2.5 ausführlich erläutert. Ereignissen werden, soweit möglich, sog. »Zufallzahlen« (ZuZa) zugeordnet. 𝑍𝑍𝑧𝑧𝐸𝐸𝑍𝑍: 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸 ⊆ 𝛺𝛺 → 〈𝑤𝑤𝐸𝐸𝐸𝐸𝑤𝑤 𝑧𝑧𝑧𝑧𝐸𝐸𝐸𝐸𝜎𝜎𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸𝑒𝑒〉 → 𝑍𝑍𝑧𝑧𝑍𝑍𝑔𝑔 𝑍𝑍 𝜖𝜖 ℤ | ℝ Man unterscheidet Zϵℤ und Zϵℝ und spricht von »diskreten« und »stetigen« ZuZa. Der Unterschied diskret | stetig besteht vor allem darin, dass man statt Summen ∑ Integrale ∫ bildet. Ich beschränke mich in dieser Vorschau auf die Betrachtung diskreter ZuZa. Mit ZuZa gibt es »ZuZa-Ereignisse« und diese haben Wahrscheinlichkeiten. Die beiden wichtigsten sind 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) ≡ 𝑃𝑃(𝑘𝑘) und P𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝑘𝑘) ≡ 𝐹𝐹(𝑘𝑘) Dabei ist k ein beliebiger konkreter Wert der diskreten ZuZa Z. P wird »Verteilung« und F wird »Verteilungsfunktion« genannt, wobei immer alle möglichen k-Werte ins Auge gefasst werden. Im Hauptteil werden die wichtigsten Verteilungen der Stochastik diskret z → k stetig z → = t | x Prob(Z = z) Bin p; n (k) Hyp N; K; n (k) Exp μ (t) Norm μ; σ (x) ausführlich besprochen. ZuZa haben einen »Erwartungs-Wert« und eine »Streuung«. Beide werden in → Abschnitt 3.3 und → Abschnitt 3.4 ausführlich besprochen. Im weiteren Verlauf wird die Beurteilung von Wahrscheinlichkeiten mittels »Stichproben« erläutert. Dabei wird häufig das folgende Prinzip angewandt: Für eine »Irrtumswahrscheinlichkeit« wird ein maximal-tolerierter Wert (oft α genannt) vorgegeben. Dann wird mit dieser Vorgabe auf gewisse Eigenschaften der unterstellten Verteilung geschlossen. Dies wird beim »Signifikanz-« und »Chi- Test« sowie zu den »Konfidenzintervallen« angewendet. Bezeichnungen und Abkürzungen 21 Bezeichnungen und Abkürzungen Allgemeine Bezeichnungen und Abkürzungen Bsp Beispiel jeweils ohne PUNKT Abb Abbildung Tab Tabelle Def Definition TR Taschenrechner q.e.d. quod erat demonstrandum (lat) was zu beweisen war invFkt Inverse oder Umkehrfunktion 𝑦𝑦 = 𝐹𝐹𝑘𝑘𝑒𝑒(𝑍𝑍) ⇔ 𝑍𝑍 = 𝐸𝐸𝐸𝐸𝑖𝑖𝐹𝐹𝑘𝑘𝑒𝑒(𝑦𝑦) x = a | b x kann a oder b sein Gleichheitszeichen a : = b a wird durch b definiert b =: a a ≡ b a und b bezeichnen das Gleiche 𝑔𝑔 ≜ 𝑃𝑃 für a wird b gefordert ∑ {𝑝𝑝𝐸𝐸𝜎𝜎𝑃𝑃(𝜔𝜔)} ≜ 1 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝜔𝜔 a ≈ b a ist ungefähr b oft ist b ein gerundeter Zahlenwert a ~ b a wird durch b geschätzt Einige griechische Buchstaben sind in der Stochastik reserviert. Sie dürfen für keinen anderen Zweck verwendet werden! ω omega das Ergebnis eines ZuEx Ω Omega Menge ALLER Ergebnisse eines ZuEx = Sicheres Ereignis ω ∈ Ω E ⊆ Ω µ mü Erwartungswert Erw σ sigma Streuung σ² = Variation 22 Bezeichnungen und Abkürzungen φ phi Standardnormalverteilung Norm0; 1 Ф Phi kumulierte Standardnormalverteilung NormSum0; 1 Bezeichner der Stochastik BinKo Binomialkoeffizient �𝐸𝐸𝑘𝑘� gesprochen ‚n über k‘ ZuEx Zufallsexperiment »Beschreibung« BeEx(n) B ERNOULLI -Experiment mit n Wiederholungen E: «…» Zufalls-Ereignis «AugenSumme<5» E= {…} {2,3,4} ∅ unmögliches Ereignis leere Menge (∅ ≠ Ф) prob(ω) elementare Wahrscheinlichkeit des Ergebnisses ω engl: probability Prob(E) Wahrscheinlichkeit des Ereignisses E ZuZa Zufallszahl bevorzugt (groß) Z ProbSum kumulierte Wahrscheinlichkeit ProbSum = ∑Prob Erw Erwartungswert µ Var Variation σ² Bin Binomialverteilung Binp; n(k) Hyp hypergeometrische Verteilung HypN; K; n(k) Poi P OISSON -Verteilung Poiμ(k) Exp Exponentialverteilung Expμ(t) (≠ exp(t) ≡ et) Norm Normalverteilung Normμ; σ(x) Numerik 23 Chi Chi-Verteilung Chig(x) Stud Student- oder t-Verteilung Studg(x) Die Unterscheidung von prob und Prob ist etwas spitzfindig, da 𝑝𝑝𝐸𝐸𝜎𝜎𝑃𝑃(𝜔𝜔) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃({𝜔𝜔}) Zu den Trennzeichen P UNKT , K OMMA und S EMIKOLON habe ich eine eigene (anglophile) Ansicht.  Der P UNKT trennt in einer Dezimal-Zahl beide Teile, also ist 𝜋𝜋 ≈ 3.1416 . Eine Folge ist: Es gibt keine sog. Komma-Zahlen.  Das K OMMA und/ oder das S EMIKOLON trennen in Aufzählungen Objekte voneinander. Wenn sich in einer Urne unter N Kugeln genau K schwarze befinden und man zieht zufällig n<N Kugeln, dann ist die Wahrscheinlichkeit, genau k schwarze zu erwischen, 𝐻𝐻𝑦𝑦𝑝𝑝 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (𝑘𝑘)  Das Tausender-Trennzeichen ist bei mir ein Leerzeichen. Es gibt beim LOTTO-6aus49 𝑚𝑚 = �49 6 � = 13 983 816 verschiedene Möglichkeiten. Bei dem von mir verwendeten eingedeutschten E XCEL wurde leider 😞😞 der angelsächsische Dezimal-Punkt durch das deutsche Komma ersetzt und das Tausender-Trennzeichen wurde mit PUNKT bezeichnet. Ich verwende oft den senkrechten Strich | für das logische ODER. Numerik Die Numerik berechnet konkrete Zahlenwerte. Vor dem Aufkommen von (Personal-)Computern, war es üblich, Werte stochastischer Funktionen Tabellen zu entnehmen. Solche Tabellen wurden von fleißigen Mathematikern erstellt. Mit dem Aufkommen elektronischer Rechner wurden diese Tabellen immer 24 Stochastikfunktionen weniger wichtig. Wer heute (2020) stochastische Probleme numerisch lösen muss, kann bequem und elegant TR und vor allem PC-Rechenprogramme wie E XCEL benützen. Ich genieße und verwende in diesem Büchlein die reiche Vielfalt von E XCEL s Stochastikfunktionen. Bei den mir bekannten TR ist der Umfang an Stochastikfunktionen leider sehr bescheiden. Stochastikfunktionen allgemeine | meine Bezeichnung E XCEL -Bezeichnung (dt) n! FAKULTÄT (n) Γ(x) GAMMA (x) �nk� ≡ BinKo(n, k) KOMBINATIONEN (n; k) Prob Bin p; n (k) BINOM.VERT (k; n; p; c) Hyp N,K,n (k) HYPGEOM.VERT (k; K; n; N; c) Poi μ (k) POISSON.VERT (k; µ; c) Exp μ (t) EXPON.VERT (t; λ; c) (λ =1/ µ) Norm μ,σ (x) NORM.VERT (x; µ; σ; c) Chi g (x) CHIQU.VERT (x; g; c) Stud g (x) T.VERT (x; g; c) invProbSum invBinSum p,n (α) BINOM.INV (n; p; α) invNormSum μ,σ (p) NORM.INV (p; µ; σ) invChiSum g (p) CHIQU.INV (p; g) invStudSum g (p) T.INV (p; g) Bei den VERT eilungen unterscheidet E XCEL durch einen letzten Parameter c (engl. cumulated), ob die kumulierte (c=1) oder die nicht- Stochastikfunktionen 25 kumulierte Verteilung (c=0) gemeint ist. Ich betone das kumuliert durch das Anhängsel Sum. Ein besonderes Lob verdient E XCEL für die fx-Taste: ⇒ In der E XCEL -Tabelle wird in der Zelle B4 die Wahrscheinlichkeit für k = 35 Erfolge eines BeEx mit n=100 Versuchen, einer Einzelwahrscheinlichkeit p=0.4 berechnet, also BINOM.VERT(k; n; p; 0) . Meine Bezeichnung wäre: Bin p; n (k) . Im angelsächsischen Sprachraum sind folgende Begriffe weit verbreitet: englisch kurz unsere Bezeichnung (→ später) P robability- D istribution- F unction PDF Prob(Z=k) Verteilung C umulated-(Probability-) D istribution- F unction CDF Prob(Z≤k) Verteil(ungs)funktion Die Kürzel PDF und CDF sind daher auf einigen TR und in englischsprachigen PC-Programmen (z.B. Mathematica) zu finden. 1 Grundwissen 1.1 Mathematische Grundlagen Primzahlen Sie sind ein Mysterium der Mathematik. Zu ihnen gibt es bis heute ungelöste Fragen. Dabei ist ihre Definition sehr simpel: Eine Primzahl ist natürlich 𝜖𝜖ℕ und >1. Sie hat außer 1 und sich selbst keinen Teiler. Von den ersten Primzahlen: {2,3,5,7,11,13,17,19,23,29,31,37,41,43,47, 53,59,61,67,71,73,79,83,89,97} sind 15 <50 und 25 <100. Mehrfach-Summen und -Produkte 𝑥𝑥 1 + 𝑥𝑥 2 + 𝑥𝑥 3 + ⋯ + 𝑥𝑥 𝑛𝑛 = : ∑ {𝑥𝑥 𝑖𝑖 } 𝑛𝑛𝑖𝑖=1 𝑥𝑥 1 ∙ 𝑥𝑥 2 ∙ 𝑥𝑥 3 ∙ … ∙ 𝑥𝑥 𝑛𝑛 = : ∏ {𝑥𝑥 𝑖𝑖 } 𝑛𝑛𝑖𝑖=1 Die großen griechischen Buchstaben ∑ (sigma) und ∏ (pi) entsprechen den lateinischen S und P und stehen für Summe und Produkt. Dazu 2 Bsp: ∑ {𝑖𝑖} = 𝑛𝑛2 ∙ (𝑛𝑛 + 1) 𝑛𝑛𝑖𝑖=1 der Geniestreich des jungen C.F. G AUSS ∏ ⎩⎨⎧ 𝑖𝑖 } 𝑛𝑛𝑖𝑖 =1 = 𝑛𝑛 ! gesprochen n-fakultät Parameter und Argumente Wie in der Tabelle der Stochastikbezeichner bereits angekündigt, bezeichne ich Funktionen mit Parametern und Argumenten in der Art: Fkt Parameter (Argumente) oder Fkt p 1 ; p 2 ; … (x 1 ; x 2 ; … ) 28 Grundwissen Ich verwende dabei wie E XCEL das Semikolon (; ) als Trennzeichen, um Problemen mit Dezimalpunkt oder -komma aus dem Weg zu gehen. Es gibt in der Stochastik mehrere Funktionen, deren Argument sich über ein Intervall erstreckt. Ich bezeichne dies mit: Fkt(a … b) Verschieben und Dehnen eines Funktionsgraphen Man kann einen Funktionsgraphen waagrecht und senkrecht verschieben und/ oder dehnen. Tab 1: Verschieben und Dehnen von Funktionsgraphen 𝑦𝑦 = 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍) 〈→ 𝑧𝑧 ; ↑ 𝑖𝑖〉 𝑦𝑦 − 𝑖𝑖 = 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍 − 𝑧𝑧) 𝑦𝑦 = 𝑖𝑖 + 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍 − 𝑧𝑧) 〈↔ 𝑝𝑝 ; ↕ 𝑞𝑞〉 𝑦𝑦/ 𝑞𝑞 = 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍/ 𝑝𝑝) 𝑦𝑦 = 𝑞𝑞 ∙ 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍/ 𝑝𝑝) Man sollte sich merken: Verschieben (⟶, ↑) heißt subtrahieren und dehnen (↔, ↕) heißt dividieren. Ich benütze hier als Funktionsbezeichner fkt(x) und nicht das übliche, kurze f(x), weil dieses in der Stochastik für die Wahrscheinlichkeitsdichte stetiger Zufallszahlen (→ Abschnitt 3.1) reserviert ist. Bsp: In der Stochastik ist die Glockenfunktion φ(x) = 1 √2π ∙ exp �− 12 ∙ x 2 � mit der Normiertheit: ∫ {𝜑𝜑(𝑍𝑍)} = 1 ∞ −∞ von großer Bedeutung. Durch eine x-Verschiebung und eine xy-Dehnung φ(x) ⇒〈→ 𝜇𝜇 ; ↑ 0; ↔ 𝜎𝜎 ; ↕ 1 𝜎𝜎 ⁄ 〉 ⇒ Norm μ; σ (x) = 1 σ ∙ φ � x−μ σ � wird aus φ die allgemeine, sog. Normalverteilung. Die gleichzeitige x-Dehnung um σ und y-Dehnung um 1/ σ bewirkt, dass die Funktion normiert bleibt. Eine y-Verschiebung macht bei einer Verteilung der Stochastik keinen Sinn, weil sonst die Normiertheit verloren ginge. 1.1 Mathematische Grundlagen 29 Norm 0; 1 (x) = φ(x) Norm 3; 2 (x) = 12 ∙ φ �x − 3 2 � Abb 1: Glockenfunktion und Normalverteilung Umrechnen von Potenzen auf unterschiedliche Basen Aus b x = c z folgt durch Logarithmieren log c (b x ) = x ∙ log c (b) = log c (c z ) = z und damit die Umrechnung einer Potenz von einer Basis b auf eine andere c b x = c x∙log c (b) ⇒〈 c → e=E ULER -Zahl 〉⇒ b x = e x∙ln(b) Es lohnt sich, vor allem die letzte Formel mit E ULER s e als Standardbasis einzuprägen. Umkehrfunktion y = Fkt(x) ⟹ x = invFkt(y) Da alle Funktionen y-eindeutig sein müssen, kann eine Fkt nur dort invertiert werden, wo sie monoton ist. Ich halte die angelsächsische Schreibweise Fkt -1 für problematisch, da sie auch für den Kehrwert stehen könnte. y = x 2 ⟹ y −1 = �x −2 Kehrwert √x inverse Funktion� y = Fkt(x) und x = invFkt(y) haben zunächst noch den gleichen Graphen, es wurde ja nur die Funktionsgleichung umgestellt. Durch das Vertauschen x ↔ y wird der Funktionsgraph an der ersten Winkelhalbierenden gespiegelt. 1 0.1 0.4 30 Grundwissen Die exp-Funktion y = exp(x) ≡ e x und ihre Inversion x = ln(y) Vertauschen x↔y y = ln(x) = Spiegeln an y=x Abb 2: exp- und ln-Funktion Tab 2: Beispiele zu Funktion und Umkehrfunktion y = Fkt(x) Einschränkung x = invFkt(y) y = a ∙ x + b a≠0 x = (y − b) a ⁄ y = exp(x) keine x = ln(y) y = x 2 x≥0 x = �y y = x 3 keine x = �y 3 y = sin(x) − π 2 ⁄ ≤ x ≤ π 2 ⁄ x = arcsin(y) Tab 3: Wichtige Summen und Grenzwerte ∑ {k} = 1 + 2 + ⋯ + n = n2 ∙ (n + 1) nk=1 vom jungen Genie C.F. G AUSS lim n→∞ �1 + x n � n = e x ≡ exp(x) E ULER s Zahl e ≈ 2.71828 … ∑ � x k k! � = 1 + x + x² 2! + x 3 3! + ⋯ = e x ∞k=0 ∑ �x k � = 1 + x + x 2 + ⋯ + x n = 1−x n+1 1−x nk=0 |x|<1; n→∞ �⎯⎯⎯⎯⎯⎯� 1 1−x geometrische Reihe 1 1 exp(x) ln(x) 1.1 Mathematische Grundlagen 31 Binomische Formel Jeder kennt die Binomischen Formeln: (𝑔𝑔 ± 𝑃𝑃) 2 = 𝑔𝑔 2 ± 2𝑔𝑔𝑃𝑃 + 𝑃𝑃 2 und (𝑔𝑔 + 𝑃𝑃) ∙ (𝑔𝑔 − 𝑃𝑃) = 𝑔𝑔 2 − 𝑃𝑃 2 . Ich behandle (a-b)² als (a+b)² mit b<0 und kenne somit nur zwei Bin-Formeln. Die erste Bin-Formel wird auf höhere Exponenten (𝑔𝑔 + 𝑃𝑃) 𝑛𝑛 verallgemeinert. (a + b) 2 = (a + b) ∙ (a + b) =. . . = 1a 2 + 2ab + 1b 2 (a + b) 3 = (a + b) 2 ∙ (a + b) =. . . = 1a 2 + 3a 2 b + 3ab 2 + 1b 3 (a + b) 4 = (a + b) 3 ∙ (a + b) = ⋯ = 1a 4 + 4a 3 b + 6a 2 b 2 + 4ab 3 + 1b 4 Für beliebig große Exponenten n folgt so Die allgemeine Binomische Formel (BinFo) (a + b) n = �n0� ∙ a n ∙ b 0 + �n1� ∙ a n−1 ∙ b 1 + ⋯ + �nn� ∙ a 0 ∙ b n = ∑ ��nk� ∙ a n−k ∙ b k � nk=0 Die �𝐸𝐸𝑘𝑘� werden n über k gesprochen und Binomialkoeffizienten (kurz BinKo) genannt; k kann die Werte k=0,1,2,…,n annehmen. Tab 4: Eigenschaften der Binomialkoeffizienten (BinKos) Randwerte Symmetrie P ASCAL - Rekursion explizite Definition �n0� = �nn� = 1 �n1� = � n n − 1� = n �nk� = � n n − k� �nk� = �n − 1 k − 1� + �n − 1 k � �nk� ∶= n! k! ∙(n−k)! 0! ≝ 1 P ASCAL s Dreieck {1} {1, 1} {1, 2, 1} {1, 3, 3, 1} {1, 4, 6, 4, 1} {1, 5, 10, 10, 5, 1} {1, 6, 15, 20, 15, 6, 1} 32 Grundwissen In der Kombinatorik wird gezeigt: Der Satz von den Teilmengen Eine Menge Ω mit n = |Ω| Elementen hat �nk� Teilmengen mit je k Elementen. Sie hat insgesamt ∑ �nk� = nk=0 2 n Teilmengen, wobei die leere Menge ∅ mit k=0 und Ω selbst mit k=n dazu gehören. Die Anzahl 2 𝑛𝑛 aller Teilmengen einer n-Menge folgt aus der BinFo mit a=b=1. Die Regel von lʹHospital Diese Regel behandelt Grenzwerte von Brüchen mit speziellen, zunächst unbestimmten Quotienten lim x→⋯ � u(x) v(x) � = » 00 | ∞∞ « = lim x→⋯ � u′(x) v′(x) � L‘Hospital Dies sollte nicht mit der Quotientenregel � uv � ′ = u ′ ∙v−u∙v ′ v² verwechselt werden. Bsp 1: lim x→0 � sin x x � = � 00 � → (l′Hospital) = lim x→0 � cos x 1 � = 1 Bsp 2: lim 𝑥𝑥→∞ � 𝑥𝑥 𝑛𝑛 𝑎𝑎 𝑥𝑥 � = � ∞∞ � → (𝑜𝑜 ′ 𝐻𝐻𝜎𝜎𝐸𝐸𝑝𝑝𝐸𝐸𝑒𝑒𝑔𝑔𝑜𝑜 𝑛𝑛 ) = ⋯ = lim 𝑥𝑥→∞ � 𝑛𝑛! 𝑎𝑎 𝑥𝑥 � = 0 Mit Bsp 2 ist gezeigt: Für große x wächst die Exponential-Funktion 𝐸𝐸 𝑥𝑥 immer stärker als jede Potenz-Funktio 𝑍𝑍 𝑛𝑛 . Die Produkt- oder partielle Integration Aus der Produktregel des Ableitens folgt durch Integration ∫{u ∙ v} ′ = [u ∙ v] = ∫{u ′ ∙ v} + ∫{u ∙ v′} oder umgestellt ∫{u ∙ v′} = [u ∙ v] − ∫{u′ ∙ v} ����� ev. einfacher 1.1 Mathematische Grundlagen 33 Bei einer geschickten Verteilung der Faktoren u,vʹ erscheint neben dem ausintegrierten […] oft ein einfacheres Integral. Bsp 1: ∫ �x ⏟ u ∙ e ax � v′ � = �x ∙ 1a e ax � − ∫ �1 ∙ 1a e ax � ������� einfacher = � 1 a² ∙ (ax − 1) ∙ e ax � Bsp 2: ∫ �x 2 � u ∙ e ax � v ′ � = �x 2 ∙ 1a e ax � − 2a ∙ ∫{x ∙ e ax } ������� einfacher s.o. = ⋯ = � 1 a³ ∙ (a 2 x 2 − 2ax + 2) ∙ e ax � Solche Integrale werden bei der Exp-Verteilung (→ Abschnitt 3.5) für den Erw und die Var benötigt. Die Gamma-Funktion Γ(x) ≔ ∫ t x−1 ∙ e −t ∙ dt ∞ 0 (x ∈ℝ ) Γ(1) = � e −t ∙ dt ∞ 0 = −[e −t ] 0∞ = −0 + 1 = 1 Die Rekursion Γ(x + 1) = x ∙ Γ(x) folgt aus einer Produkt- oder partiellen Integration 𝛤𝛤(𝑍𝑍 + 1) = � 𝑒𝑒 𝑥𝑥 ⏟ 𝑢𝑢 ∙ 𝐸𝐸 −𝑡𝑡 � 𝑣𝑣′ ∙ 𝑤𝑤𝑒𝑒 = − [𝑒𝑒 𝑥𝑥 ∙ 𝐸𝐸 −𝑡𝑡 ] 𝑡𝑡=0 𝑡𝑡=∞ ��������� =0 𝑓𝑓ü𝑟𝑟 𝑥𝑥>0 + 𝑍𝑍 ∙ � 𝑒𝑒 𝑥𝑥−1 ∙ 𝐸𝐸 −𝑡𝑡 ∙ 𝑤𝑤𝑒𝑒 ∞ 0 ����������� =𝛤𝛤(𝑥𝑥) ∞ 0 = 𝑍𝑍 ∙ 𝛤𝛤(𝑍𝑍) Dabei wurde beachtet, dass t x e t x>0; t→∞ �⎯⎯⎯⎯⎯� � ∞∞ � → (L′Hospital x ) → 0 . Für natürliche n ∈ℕ folgt Γ(n + 1) = n! In der Stochastik spielen halbzahlige Argumente eine Rolle: Γ � 12 � = √π Γ �n + 12 � = (2n)! n! ∙4 n ∙ √π 34 Grundwissen Die S TIRLING -Näherung Die Fakultät n! wächst für große n gigantisch. Selbst E XCEL streikt ab 171! > 10 308 . Hier hilft (manchmal) die S TIRLING -Näherung weiter n! ≈ √2πn ∙ � ne � n ≡ st . Tab 5: Zur S TIRLING -Näherung n= 10 50 100 150 170 171 n! = 3,63E+06 3,04E+64 9,33E+157 5,71E+262 7,26E+306 #ZAHL! st= 3,60E+06 3,04E+64 9,32E+157 5,71E+262 7,25E+306 #ZAHL! st/ n! = 99,17% 99,83% 99,92% 99,94% 99,95% #ZAHL! Für n>9 unterscheiden sich die Fakultät und die S TIRLING -Näherung (st) um weniger als 1%. Stochastikprobleme führen manchmal auf Quotienten mit gigantischen Fakultäten in Zähler und Nenner aber der Quotient selbst ist klein. Mit derS TIRLING -Näherung kann man manchmal eine Berechnung mit lauter erträglichen Zahlen erzielen. Ein Bsp: k! n! ≈ k k+1 2 ⁄ e k ∙ e n n n+1 2 ⁄ = e n−k ∙ �k n� 1 2 ⁄ ∙ k k n n = �e n� n−k ∙ �k n� k+1 2 ⁄ Die N EWTON -Iteration In der Schulmathematik wird intensiv das Lösen von Gleichungen trainiert. Man kann in Gleichungen immer alles auf die linke Seite bringen. Daher sind das Lösen einer Gleichung und das Bestimmen der Nullstelle(n) (NSt) einer Funktion gleiche Problemstellungen. g(x) = 0 ⇒ x = Lösung | NSt In der Schulmathematik werden viele Beispiele intensiv trainiert, bei denen eine explizite Lösungsformel existiert. Ein berühmtes Bsp ist die quadratische Geleichung g(x) ≡ a ∙ x 2 + b ∙ x + c = 0 ⇒ (a ≠ 0) ⇒ x = �−b ∓ √b 2 − 4 ∙ a ∙ c�/ 2a Für viele andere Gleichungen | Funktionen gibt es keine solche explizite Lösungsformel. 1.1 Mathematische Grundlagen 35 Bsp: g(x) = a m ∙ x m + a m−1 ∙ x m−1 + ⋯ + a 0 = 0 für m>3 g(x) = x 2 − exp(x) g(x) = x/ 2 − sin(x) Die N EWTON -Iteration geht davon aus, dass man einen guten Startwert x 0 raten kann, für den g(x 0 ) ≈ 0 ist. Sie versucht ein besseres x 1 zu finden, das dichter bei der wahren Nullstelle liegt. Die Tangente bei x 0 hat die Steigung g ′ (x 0 ) = g(x 0 ) x 0 −x 1 Umgestellt erhält man die Formel der N EWTON -Iteration x 1 = x 0 − g(x 0 ) g ′ (x 0 ) Abb 3: Die Newton-Iteration Mit sukzessivem x 1 → x 0 entsteht eine Iteration. Partielle Ableitungen Sie sind kein Abiturstoff, aber etwas sehr Einfaches. Es gibt Funktionen mit 2 und mehr Variablen. Bsp: mit 2 Variablen x,y 𝐸𝐸(𝑍𝑍; 𝑦𝑦) = 𝑍𝑍 2 ∙ sin(𝑦𝑦) Es gibt 2 verschiedene partielle Ableitungen � 𝜕𝜕𝑓𝑓 𝜕𝜕𝑥𝑥 � = 2 ∙ 𝑍𝑍 ∙ sin(𝑦𝑦) und � 𝜕𝜕𝑓𝑓 𝜕𝜕𝜕𝜕 � = 𝑍𝑍 2 ∙ cos(𝑦𝑦) Das Ableitungssymbol benützt den Differential-Quotienten mit einem stilisierten ∂. Wichtig ist: Beim partiellen Ableiten wird die andere Variable als konstant angesehen. x 0 x 1 g(x 0 ) g(x 1 ) 36 Grundwissen 1.2 Mengen In einer Menge werden Objekte unserer Anschauung und unseres Denkens zu einer neuen Einheit zusammengefasst und mit einem Überbegriff bezeichnet. Solche Überbegriffe sind für unser logisches, mathematisches Denken und für unsere Kommunikation unverzichtbar. Ein Bsp einer berühmten Menge der Mathematik: Tab 6: Platonische Körper = Körper begrenzt von gleichen, regelmäßigen Vielecken Körper Tetraeder Hexaeder Oktaeder Dodekaeder Ikosaeder Oberfläche 4 Dreiecke 6 Quadrate 8 Dreiecke 12 Fünfecke 20 Dreiecke Grafiken der P LATON ischen Körper findet man bei Wikipedia. Wer sich tetra = 4, hexa = 6, okta = 8, dodeka = 12, ikosa = 20 merkt, hat etwas (alt-)griechisch gelernt. Ein Hexaeder mit 6 Quadraten wird auch Würfelʹ genannt. Man könnte alle 5 P LATON ische Körper als Spielwürfel verwenden. L. E ULER (1707-1783) konnte zeigen, dass es außer den 5 oben genannten keine weitere P LATON ische Körper gibt. Es gibt z.B. keinen Körper, der von regelmäßigen 6-Ecken begrenzt wird. Tab 7: Weitere Bsp von Mengen Menge «Beschreibung» {Aufzählung} Mächtigkeit JZ «Jahreszeiten» {Frühling,…, Winter} |JZ|=4 PSS «die Planeten unseres Sonnensystems» {Merkur, Venus, Erde, Mars, …, Neptun} |PSS|=8 (*) ℙ «Primzahlen» {2,3,5,7,...} |ℙ|=∞ 1.2 Mengen 37 ℙ2 «zweistellige Primzahlen» {11,13,...,97} |ℙ2|=21 QZ «Quadratzahlen» {1,4,9,16,...} |QZ|=∞ PZT «pythagoräische Zahlentripel» a²+b²=c² a,b,c∈ℕ {(3,4,5); (5,12,13); ...} |PZT|=∞ KZT «kubische Zahlentripel» a³+b³=c³ a,b,c ∈ℕ { } |KZT|=0 (*) Lange Zeit wurde Pluto als neunter Planet gezählt. Er wurde aber 2006 zum Miniplanet degradiert. Die hier verwendete Symbolik werde ich durchgehend benützen. Menge «Beschreibung» {Aufzählung} und |Menge|=Anzahl der Elemente Man beachte die besondere Reihenfolge « » der französischen Anführungszeichen. Man kann leicht einsehen, dass es «Beschreibungen» der leeren Menge ∅ mit |∅|=0 geben kann. Bsp: «Kubische Zahlen-Tripel» = {.} = ∅. Ein Kuriosum der Mathematik-Geschichte: Der Satz von F ERMAT Der Franzose DE F ERMAT (1607-1665) notierte um 1640 am Rand einer mathematischen Veröffentlichung sinngemäß: Das Zahlentripel 3, 4, 5 ist pythagoräisch, da es die Eigenschaft 3 2 + 4 2 = 5 2 besitzt. Es gibt unendlich viele Zahlentripel 𝑔𝑔, 𝑃𝑃, 𝑐𝑐 𝝐𝝐ℕ mit dieser pythagoräischen Eigenschaft 𝑔𝑔 2 + 𝑃𝑃 2 = 𝑐𝑐 2 . Bsp: 5 2 + 12 2 = 13 2 ; 8 2 + 15 2 = 17 2 ; 20 2 + 21 2 = 29 2 ; … Es gibt aber keine solche ganzzahlige Tripel mit der Eigenschaft 𝑔𝑔 3 + 𝑃𝑃 3 = 𝑐𝑐 3 oder gar 𝑔𝑔 𝑛𝑛 + 𝑃𝑃 𝑛𝑛 = 𝑐𝑐 𝑛𝑛 mit n>3. DE F ERMAT behauptete weiter: Dies ist offensichtlich. F ERMAT ’s Problem war lange Zeit als eines der ungelösten Probleme der Mathematik bekannt. Viele Mathematiker (u.a. L. E ULER ) sind an einem Beweis gescheitert. Es hat ca. 350 Jahre gedauert, bis 1994 A.W ILES , R.T AYLOR in einem denkwürdigen Vortrag in Cambridge 38 Grundwissen den Beweis erbrachten. Dies war ein Meilenstein der Mathematik- Geschichte . Tab 8: Die Zahlenmengen der Mathematik: ℕ ⊂ ℕ₀ ⊂ ℤ ⊂ ℚ ⊂ ℝ ⊂ ℂ natürlich ℕ = {1,2,3, … } ℕ 0 = {0,1,2,3, … } zum Zählen ganz ℤ = {… , −2, −1, ±0, +1, +2, … } mit Vorzeichen rational ℚ: «𝑞𝑞 = 𝑧𝑧 𝐸𝐸 ⁄ 𝑚𝑚𝐸𝐸𝑒𝑒 𝑧𝑧 ∈ ℤ 𝑧𝑧𝐸𝐸𝑤𝑤 𝐸𝐸 ∈ ℕ» Brüche irrational √2, 𝐸𝐸, 𝜋𝜋, … ∉ ℚ reell ℝ = �… , ±0, … , √2, … , 𝐸𝐸, … , 𝜋𝜋, … � alles Messbare komplex ℂ: «𝑧𝑧 = 𝑍𝑍 + 𝐸𝐸 ∙ 𝑦𝑦 𝑚𝑚𝐸𝐸𝑒𝑒 𝑍𝑍, 𝑦𝑦𝜖𝜖ℝ 𝑧𝑧𝐸𝐸𝑤𝑤 𝐸𝐸 2 = −1» abstrakt ℂ ist die Königin aller Zahlenmengen der Mathematik. Sie hat fantastische Eigenschaften. Sie spielt aber in der Stochastik fast und bei mir überhaupt keine Rolle. In der Stochastik sind sog. Zufallszahlen Z sehr wichtig. Der Unterschied Z ∈ ℤ | ℝ wird als diskret | stetig bezeichnet und eine große Rolle spielen. Tab 9: Eigenschaften von Mengen und ihren Beziehungen Ω Grundmenge umfasst alle Elemente Weltbevölkerung ∅ leere Menge hat keine Elemente |∅| = 0 ω ∈ M ω ist Element der Menge M Vereinsmitglied ω ∉ M ω ist KEIN Element der Menge M kein Vereinsmitglied 1.2 Mengen 39 |𝑀𝑀| ∈ ℕ 0 die Zahl der Elemente von M auch ‚Mächtigkeit‘ genannt M� Komplementärmenge ‚M NICHT‘ enthält alle ω ∉ M T ⊆ M T ist Teilmenge von M T=M ist möglich T ⊂ M T ist echte Teilmenge von M es gibt Elemente mit ω ∈ M und ω ∉ T A ∪ B Vereinigung alle ω ∈ A ODER ω ∈ B A ∩ B Schnittmenge alle ω ∈ A U ∩ D ω ∊ B A ∩ B = ∅ disjunkte Mengen Männer und Frauen A ⊔ B Vereinigung disjunkter Mengen A\B A ohne B = A ∩ B� alle ω ∈ A UND ω ∉ B Die Schreibweise U ∩ D ist als Eselsbrücke gedacht. Elemente einer Menge werden nie doppelt aufgeführt: {2,3,5,6} ∪ {1,2,3,4,5} = {1,2,3,4,5,6} aber nicht {1,2,2,3,3,4,5,5,6}. Mengen sind ungeordnet. Eine andere Reihenfolge in der Anordnung der Elemente ändert die Menge nicht. Ordnet man die Liste von Studenten eines Semesterkurses alphabetisch oder nach dem IQ (Alter, Körpergröße usw.), dann ist die Reihenfolge (i.d.R) eine andere, aber der Kurs ist der gleiche. Man betrachtet oft Mengen A, B etc., die alle Teilmenge einer Grundmenge Ω sind. Tab 10: Mengenbeziehungen, veranschaulicht durch V ENN -Diagramme Teilmenge A ⊂ B 40 Grundwissen elementfremd = disjunkt A ∩ B = ∅ Komplementärmenge A� NICHT Vereinigung A ∪ B ODER Schnitt A ∩ B U∩D Differenz A\B OHNE Exklusiv-Oder AxB XOR Zu beachten ist: ODER ist inklusiv gemeint. Bsp: Wer eine ‚1‘ in Mathe ODER Physik hat, erhält ein Stipendium, wer beides hat, erst recht. Manche betonen das Inklusive durch die 1.2 Mengen 41 Formulierung ‚oder/ und‘. Das Exklusiv-Oder XOR wird im Deutschen mit ‚entweder oder‘ ausgedrückt, wobei AxB = (A\B) ⊔ (B\A) = (A ∩ B�) ⊔ (A� ∩ B) . Für die beiden besonders wichtigen Mengenverknüpfungen UND und ODER gibt es auch eine schöne schaltungstechnische Darstellung, bei der das Inklusive von ODER leicht einzusehen ist. A ODER B A U ∩ D B Abb 4: ODER und UND, visualisiert mit Schaltern Für die Mächtigkeit zweier endlicher Mengen gilt |A| + |B| = |A ∪ B| + |A ∩ B| Bsp: In einem Ort gibt es einen Turn- und einen Gesangsverein, A und B. Beide Vereine planen einen gemeinsamen Ausflug, an dem alle Vereinsmitglieder teilnehmen. Der Organisator entscheidet zu Recht, dass er Busse mit |𝐴𝐴 ∪ 𝐵𝐵| = |𝐴𝐴| + |𝐵𝐵| − |𝐴𝐴 ∩ 𝐵𝐵| Plätzen bestellen muss. Ein Mitglied in beiden Vereinen, also ein singender Turner oder ein turnender Sänger benötigt nur einen Platz. Er wird bei |𝐴𝐴| + |𝐵𝐵| doppelt gezählt. Dies wird durch das −|𝐴𝐴 ∩ 𝐵𝐵| korrigiert. Tab 11: Vergleich von Formeln der Mengen- und der Zahlen-Algebra Mengen-Algebra Zahlen-Algebra A� = A −(−a) = a doppelte Negation A ∩ B = B ∩ A a + b = b + a a · b = b · a kommutativ A B A B 42 Grundwissen (A ∩ B) ∩ C = A ∩ B ∩ C (a + b) + c = a + b + c (a · b) · c = a · b · c assoziativ A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) a · (b + c) = (a · b) + (a · c) distributiv A ∩ A� = ∅ a + (−a) = 0 A ∩ ∅ = ∅ A ∩ Ω = A a · 0 = 0 a · 1 = a A ∩ B �������� = A� ∪ B� D E M ORGAN Der Vergleich ist z.T. etwas gewagt, da es keine konsequente Zuordnung (∩∪) → (+•) gibt. Die Mengenformeln können mit V ENN -Diagrammen (=Mengenbilder) recht einfach bewiesen werden. Es wurde nur eine Hälfte der Mengengesetze aufgeführt. Die zweite Hälfte erhält man durch Das Dualitätsgesetz der Mengen-Algebra Aus einer gültigen Formel der Mengen-Algebra wird durch die Vertauschungen ∩ ↔ ∪ und Ω ↔ ∅ wieder eine gültige Formel der Mengen-Algebra. Dies ist beim Distributivgesetz besonders verblüffend, weil es in der Zahlen-Algebra kein solch duales Distributivgesetz gibt: a ∙ (b + c) = (a ∙ b) + (a ∙ c) (∙)↔(+) �⎯⎯⎯⎯� a + (b ∙ c) ≠ (a + b) ∙ (a + c) Satz von den Mengenbeziehungen Alle Mengenbeziehungen lassen sich mit NICHT, UND und ODER darstellen. In der Aussagenlogik werden statt Mengen Aussagen betrachtet und es gelten völlig analoge Formeln. Die Verknüpfungen UND und ODER werden dort eckig dargestellt: ᴧ und v. 1.3 Kombinatorik 43 1.3 Kombinatorik In der Kombinatorik wird die Grundfrage »Wie viele Möglichkeiten gibt es … « beantwortet. Zur Einstimmung ein populäres Kombiproblem: Ich habe als Dozent von den n Teilnehmern meiner Vorlesung eine alphabetisch sortierte Namensliste. Nach einer Klausur sortiere ich die Liste neu nach der erreichten Punktzahl. Diese Sortierung kann sich bei jeder der folgenden Klausuren ändern. Es stellt sich die Kombifrage: Wie viele verschiedene Listen mit unterschiedlicher Sortierung (Anordnung) sind möglich? Wenn ein Student (eventuell durch Protest) eine andere (bessere ) Note erhält, dann verändert (verbessert ) dies seinen Listenplatz und es ergibt sich eine neue Liste. Die Anzahl der möglichen Listen ist: M Liste = n ∙ (n − 1) ∙ … ∙ 3 ∙ 2 =: n! Begründung:  auf dem ersten Listenplatz kann jeder der n Studenten stehen.  auf dem zweiten Listenplatz kann jeder der restlichen (n-1) Studenten stehen.  auf dem dritten Listenplatz kann jeder der restlichen (n-2) Studenten stehen.  auf dem vorletzten Listenplatz kann einer der beiden letzten Studenten stehen. Dass man multiplizieren muss, kann man sich mit dem Bsp n=3 leicht klar machen. (a, b, c); (a, c, b) ����������� a an Stelle 1 ; (b, a, c); (c, a, b) ����������� a an Stelle 2 ; (b, c, a); (c, b, a) ����������� a an Stelle 3 6 = 3 ∙ �Anordnungen von 2 ��������������� =2 � 44 Grundwissen Wenn ein viertes ‚d‘ hinzukommt, dann kann es an jeder der 4 Stellen stehen und drumherum gibt es jeweils die oben aufgezählten 6 Möglichkeiten der drei a, b, c. Das n! wird n fakultät gesprochen und in E XCEL (dt) mit FAKUL- TÄT(n) aufgerufen. Leider haben nur k von n Studenten die Klausur bestanden . Es soll eine Besten- oder Rangliste der Besteher nach der erzielten Punktezahl erstellt werden. Diese Liste hat nur k≤n Plätze, da leider (n-k) Studenten die Klausur nicht bestanden haben . Eine solche »k-aus-n-Rangliste« hat M RangListe = n ∙ (n − 1) ∙ … ∙ (n − (k − 1)) ������������������� k Faktoren Möglichkeiten. Auf dem letzten, dem k-ten Ranglistenplatz kann noch jeder der (k-1) nicht-durchgefallenen Studenten stehen. Beim Lösen kombinatorischer Probleme scheinen mir 3 Begriffe hilfreich: Tupel, Liste und Menge ▪ Das k-Tupel Ein k-Tupel hat k Plätze, auf denen verschiedene Werte stehen können. Das klassische Beispiel sind deutsche KFZ-Kennzeichen, die wie folgt aufgebaut sind: Ort XY ZZZ . Der Ort ist vorgegeben. An den Stellen X und Y können je 26 verschiedene Buchstaben stehen. An der Stelle X kann auch ein Leerzeichen stehen. ZZZ steht für eine maximal dreistellige Zahl > 0. Also kann es 𝑀𝑀 = 27 ∙ 26 ∙ 999 = 701 298 verschiedene KFZ- Kennzeichen dieser Art geben. Bei einer Millionenstadt mit mehr als 700 000 Fahrzeugen muss man erhöhen: ZZZ → ZZZZ, und es ergeben sich 𝑀𝑀 ≈ 7 𝑀𝑀𝐸𝐸𝑜𝑜𝑜𝑜𝐸𝐸𝜎𝜎𝐸𝐸𝐸𝐸𝐸𝐸 Möglichkeiten. 1.3 Kombinatorik 45 Eine Grundeinsicht aller Kombinatorik ist: aus UND wird MAL Wenn auf einem ersten Tupelplatz n 1 verschiedene Objekte UND auf einem zweiten Tupelplatz n 2 Objekte stehen können, dann gibt es für die Belegung beider Plätze 𝑀𝑀 = 𝐸𝐸 1 ∙ 𝐸𝐸 2 Möglichkeiten. Der engagierte Leser kann sich mit a,b für den ersten und 1, 2, 3 für den zweiten Tupelplatz leicht klar machen, dass es M = n 1 ∙ n 2 = 2 ∙ 3 = 6 Möglichkeiten gibt. Jeder Platz eines Tupels hat seine eigene Vorratsmenge mit je n i Elementen. Tab 12: Die Belegung eines k-Tupels Jeder Platz … p 1 p 2 … p k … wird belegt mit Elementen aus einer eigenen Vorratsmenge ↑ ↑ … ↑ Jede der k Vorratsmengen hat eine eigene Zahl an Elementen n 1 n 2 … n k Die Anzahl verschiedener k-Tupel ist: M Tup = n 1 ∙ n 2 ∙ … ∙ n k (2a) Auf verschiedenen Plätzen können die gleichen Werte stehen, das hängt vom jeweiligen Vorrat ab. Ein Sonderfall ist es, wenn alle Vorräte die gleiche Anzahl an Elementen enthalten, dann ist n 1 =n 2 =…=n und M Tup; spezial = n k (2b) Beim TOTO sind für k=11 Spiele jeweils n=3 Vorhersagen (0,1,2) zu machen. M TOTO = 3 11 = 177 147 (2c) 46 Grundwissen ▪ Die k-aus-n-Rangliste Sie wurde schon als Eingangsbeispiel geschildert. Danach hat eine k-aus-n-Rangliste M RangListe = n ∙ (n − 1) ∙ (n − 2) ∙ … ∙ (n − k + 1) (2d) Möglichkeiten. Der Sonderfall k=n führt auf M RangListe,alle = n ∙ (n − 1) ∙ (n − 2) ∙ … ∙ 1 =: n! Man kann (2a) erweitern: M RangListe = n ∙ (n − 1) ∙ (n − 2) ∙ … ∙ (n − k + 1) ∙ (n − k) ∙ (n − k − 1) ∙ … ∙ 1 (n − k) ∙ (n − k − 1) ∙ … ∙ 1 und erhält die wichtige und einprägsame Formel M RangListe = n! (n−k)! (2e) Damit diese Formel auch im Sonderfall n=k gilt, definiert man: 0! ≝ 1 . Die Formel (2e) ist für die gesamte Kombinatorik als Ranglistenformel sehr wichtig. Man kann sie wie folgt interpretieren: Von n Teilnehmern eines Wettbewerbs gibt es n! verschiedene Anordnungen. Werden davon k≤n als ‚Beste‘ in einer Rang-Liste mit Anordnung geführt, dann ist die Anordnung der (n-k) nicht berücksichtigten belanglos. Für sie gibt es (n-k)! mögliche Anordnungen; damit ist zu dividieren. Viele Kombi-Lösungen beruhen darauf, das Ranglistenproblem zu erkennen (→ Aufgaben) und n sowie k richtig zuzuordnen. ▪ Die k-aus-n-Teilmenge Die n-Menge wurde schon in → Abschnitt 1.2 behandelt. In der Ranglisten-Formel (2e) ist der Zähler (n! ) die Zahl aller möglichen Anordnungen in einer n-Liste. Der Nenner (n-k)! reduziert dies um die Anzahl der Anordnungen der (n-k) Elemente, die in der Rangliste nicht vorkommen. Wenn auch die Anordnung (Reihenfolge) der k Listen-Plätze keine Rolle spielt, dann muss man noch durch k! teilen: 1.3 Kombinatorik 47 M TeilMenge = n! k! ∙(n−k)! = : �nk� ≡ BinKo(n; k) Ein klassisches Teilmengenproblem ist L OTTO -6aus49 mit M LOTTO = �49 6 � = 13 983 816 Möglichkeiten. Mit E XCEL berechnet man BinKo(n; k) als KOMBINA- TIONEN (n; k) Wem das Teilmengen-Problem besonders naheliegt, der löst das Ranglisten-Problem oft auch wie folgt:  man wählt von n Objekten k aus (Teilmengenproblem) → M 1 = �nk� = 𝐸𝐸! 𝑘𝑘! ∙ ( 𝐸𝐸−𝑘𝑘 ) !  UND bildet von den k Auserwählten alle möglichen Anordnungen → M 2 = k!  aus UND wird MAL, und es folgt das bekannte 𝑀𝑀 RangListe = M 1 ∙ M 2 = n! ( n−k ) ! . ▪ Kombiproblem: Ausschuss In einer Urne befinden sich N durchnummerierte Kugeln mit verschiedenen Farben, darunter K schwarze. Es wird eine Stichprobe mit n Kugeln zufällig entnommen. Wenn unter den n entnommenen Kugeln k schwarze Kugeln sind, dann gibt es dafür M Aus = �Kk� ∙ �N − K n − k � Möglichkeiten. Bsp: Ein Parlament hat N Mitglieder, darunter K Katholiken. Es wird ein Ausschuss mit n Mitgliedern, darunter k Katholiken gebildet. Man muss von den K Katholiken k UND von den (N-K) Nicht- Katholiken (n-k) auswählen. Das Produkt ist wieder leicht  einzusehen. Tab 13: Eine Zusammenstellung wichtiger Formeln der Kombinatorik RangListe M RangListe = n! (n−k)! Sonderfall k=n M RangListe = n! 0! ≝ 1 48 Grundwissen Teilmenge M TeilMenge = n! k! ∙(n−k)! ≡ �nk� ≡ BinKo(n; k) Sonderfall LOTTO M LOTTO = �49 6 � = 13 983 816 Tupel M Tup = n 1 ∙ n 2 ∙ … ∙ n k Sonderfall gleiche n M Tup = n k Sonderfall TOTO M TOTO = 3 11 = 177 147 Ausschuss M Aus = �Kk� ∙ �N − K n − k � Man kann einige der wichtigen Kombi-Formeln auf das kombinatorische »k-aus-n-Urnen-Problem« zurückführen. Aus einer Urne mit n unterscheidbaren Kugeln werden nacheinander zufällig k Kugeln gezogen. Man unterscheidet nun,  ob nach einer Ziehung die gezogene Kugel wieder zurückgelegt und neu gemischt wird, und  ob bei der Ziehung auf die Reihenfolge geachtet wird oder nicht. Tab 14: Die Zahl der Möglichkeiten M des »k-aus-n-Urnenproblems« Zurücklegen ja nein (k≤n) Reihenfolge ja T OTO M rz = n k Rangliste M rz� = n! (n − k)! Variationen nein Urne M r�z = �n + k − 1 k � L OTTO M r�z� = �nk� Kombinationen Manche unterscheiden die Reihenfolge Ja/ Nein als Variation/ Kombination. Diese Begriffsunterscheidung hilft einem beim Lösen von Kombiproblemen aber wenig. 1.4 Regression 49 1.4 Regression Die Regressionsgerade In einem Versuch werden zwei Größen x und y gemessen. Ein Bsp wäre es, den Wasserdruck y abhängig von der Tauchtiefe x zu untersuchen. Die n Messpunkte werden in einem xy-Koordinatensystem visualisiert. Abb 5: Ein Bsp einer Regressionsgerade Die n Messpunkte scheinen auf einer Geraden zu liegen: g(x) = a ∙ x + b . Man möchte nun die Parameter a und b der Geraden bestimmen, die am besten passt. C. F. G AUSS schlug vor, dass man dazu die Summe der (y-Abstände)² minimieren solle ; d.h. Q(a, b) ∶= � �y i − g(x i )�² ni=1 = � �y i − (a ∙ x i + b)�² ni=1 → minimal Q hängt von den gegebenen n Messwertpunkten und den beiden gesuchten Parametern a und b ab. Im Minimum (Tiefpunkt) einer solchen Funktion zweier Variablen Q(a,b) müssen ihre partiellen Ableitungen Null sein: �∂Q ∂a � b = � {2 ∙ (y i − a ∙ x i − b) ∙ (−x i )} i = 2n ∙ �x 2 ��� ∙ a + x� ∙ b − xy ���� ≜ 0 �∂Q ∂b� a = � {2 ∙ (y i − a ∙ x i − b) ∙ (−1)} = 2n ∙ (x� ∙ a + b − y�) i ≜ 0 0 2 4 6 8 10 0 1 2 3 4 5 6 7 8 50 Grundwissen Ich habe ∑ {1} = 𝐸𝐸 𝑖𝑖 beachtet und folgende Abkürzungen eingeführt: x k ��� ∶= 1 n ∙ ∑ �x ik � i (k =1,2) y � ∶= 1n ∙ ∑ � y i � i xy ��� ∶= 1 n ∙ ∑ {x i ∙ y i } i Das so entstandene lineare (2x2)-Gleichungssystem lässt sich leicht  lösen �x 2 ��� x� x� 1� ∙ �a b� = �xy ��� y� � ⇒ a = (xy ��� − x� ∙ y�)/ �x 2 ��� − x� 2 � b = y� − a ∙ x� (1) Die Ausgleichsgerade g = a ∙ x + b ⏟ y�−a∙x � ⇒ g − y� = a ∙ (x − x�) geht immer durch den Schwerpunkt (x�; y�) der Wolke der Messpunkte . In der → Tabelle in Abb 5 ist eine entsprechende Berechnung mit 8 konkreten Messpunkten durchgeführt. Es bleibt noch zu zeigen, dass für Q(a,b) tatsächlich ein Minimum vorliegt. Man benötigt dazu die partiellen 2-ten Ableitungen � ∂²Q ∂a² � = 2n ∙ x² � � ∂²Q ∂b² � = 2n � ∂²Q ∂a ∂b � = 2n ∙ x� Für ein Minimum muss die Hesse-Matrix positiv definiert sein [11] � ∂²Q ∂a² � ∙ � ∂ 2 Q ∂b 2 � − � ∂ 2 Q ∂a ∂b � 2 = 4n 2 ∙ �x 2 ��� − x� 2 � = 4n 2 ∙ (x − x�) 2 ����������� > 0 Im letzten Schritt wurde die Steiner-Vereinfachung benützt (x − x�) 2 ����������� = (x 2 − 2xx� + x� 2 ) ��������������������� = x 2 ��� − 2x�x� + x� 2 = x 2 ��� − x� 2 Nicht-lineare Regressionsprobleme Das oben geschilderte Verfahren geht prinzipiell auch für einige nicht-lineare Funktionen, bei denen die Gerade 𝑦𝑦(𝑍𝑍) = 𝑔𝑔 ∙ 𝑍𝑍 + 𝑃𝑃 durch einen anderen Funktionstyp ersetzt wird z.B. 1.4 Regression 51 Tab 15: Bsp nicht-linearer Regressionsrobleme 1 Quadratische Parabel y(x) = a ∙ x 2 + b ∙ x + c Q(a, b, c) 2 Exponentialfunktion y(x) = a ∙ exp(b ∙ x) Q(a, b) 3 Glockenfunktion y(x) = 1 √2π ∙ ex p �− 12 ∙ � x−a b � 2 � 4 Gravitationsgesetz y(x) = a x² ⁄ Q(a) Das G AUSS -Prinzip bleibt dabei erhalten Q(a, … ) ∶= ∑ �y i − y(x i )�² i → minimal ⇒ � ∂Q ∂a � = ⋯ = 0 Den Funktionstyp y(x) muss man dabei festlegen. Diesen sollte die „Messpunkte-Wolke“ oder eine zugrunde liegende Theorie nahelegen. Quadratische Parabel Die drei Forderungen � ∂Q ∂a � = � ∂Q ∂b � = � ∂Q ∂c � = 0 führen auf ein lineares (3x3)-Gleichungssystem �x 4 ��� x 3 ��� x 2 ��� x 3 ��� x 2 ��� x� x 2 ��� x� 1 � ∙ �a bc� = �x²y ����� xy ��� y� �, wobei x k ���: = 1 n ∙ ∑ �x ik � i und x k y �����: = 1 n ∙ ∑ �x ik ∙ y i � i Exponentialfunktion Man geht durch Logarithmieren auf die neue Variable v über, die linear mit x zusammenhängt ln y � v = ln a � c + b ∙ x v(x) = c + b ∙ x Das jetzt lineare Problem kann wie oben behandelt werden. Dabei ist es gut zu wissen, dass sich jede Exponentialfunktion mit 52 Grundwissen beliebiger Basis b>0 auf die E ULER -Basis e umrechnen lässt: b x = e x∙ln b . Glockenfunktion Man erhält ein nicht-lineares (2x2)-System, dessen Lösung sehr anspruchsvoll ist und meist nur mit einem rein numerischen Verfahren, oft nur iterativ möglich ist. Gravitationsgesetz Mit der Substitution v=1/ x² wird das Problem linear. 1.5 Fehlerfortpflanzung Ich beschränke mich auf Formeln mit zwei fehlerbehafteten Größen. Eine Verallgemeinerung auf mehr als zwei Größen sollte problemlos  möglich sein. Ein Beispiel: Ein industriell gefertigter Zylinder hat den Radius r und die Höhe h und damit das Volumen V = π ∙ r 2 ∙ h (1) und die Oberfläche A = 2 ∙ πr 2 ��� Boden+Deckel + 2πr ∙ h ����� Mantel = 2π ∙ r ∙ (r + h) (2) Wiederholte Messungen zeigen, dass die Messgrößen r und h um ihre Mittelwerte streuen. Man gibt solch streuende Messwerte in folgender Form an: r = r̅ ± ∆r und h = h � ± ∆h Wir betrachten hier r̅ und h � sowie ∆r und ∆h als durch Messungen gegebene Werte. Wie die Streuungen ∆r und ∆h verteilt sind spielt hier keine Rolle. Oft werden relative Streuungen ∆r r̅ ⁄ und ∆h h � ⁄ in % angegeben. Auch die berechneten Größen streuen 1.5 Fehlerfortpflanzung 53 V = V� ± ∆V und A = A� ± ∆A Die Streuungen ∆V und ∆A muss man aber nicht auch noch messen, sondern kann sie auf Grund der bekannten Formeln (1) und (2) berechnen. Betrachtet man allgemein eine beliebige Formel-Größe F(x,y), die von zwei Messgrößen x und y abhängt, dann pflanzen sich die Streuungen ∆x und ∆y auf die Streuung ∆F fort: ∆x, ∆y → ∆F . Zur Berechnung dieser Fehlerfortpflanzung gibt es die Betrags- und die G AUSS -Formel: ∆F = ��∂F ∂x� x �; y� ∙ ∆x� + ��∂F ∂y� x �; y� ∙ ∆y� ∆F 2 = ��∂F ∂x� x �; y� ∙ ∆x� 2 + ��∂F ∂y� x �; y� ∙ ∆y� 2 Die Indizes bei den partiellen Ableitungen bedeuten, dass nach dem Ableiten für die Variablen x, y die Mittelwerte x�, y� eingesetzt werden sollen. Für das Zylindervolumen ist V(r, h) = π ∙ r 2 ∙ h ∂V ∂r = 2π ∙ r ∙ h und ∂V ∂h = π ∙ r² (3) Der engagierte Leser wird sicher gern  die analogen Formeln für die Zylinderoberfläche A nach (2) entwickeln. Tab 16: Fehlerfortpflanzung bei einem Zylinder 54 Grundwissen Die Berechnungen in dieser sehr kompakten E XCEL -Tabelle gehen im Prinzip von links oben nach rechts unten.  r und h, sowie ∆r/ r und ∆h/ h sind gegebene Messwerte, die hier vollkommen willkürlich angenommen wurden  aus den relativen Streuungen werden absolute ∆r und ∆h berechnet (alles in mm)  mit r und h sind A und V nach (1) und (2) gegeben  die partiellen Ableitungen 𝜕𝜕𝐴𝐴/ 𝜕𝜕𝐸𝐸 ... sind somit nach (3) und (4) auch gegeben, wobei immer wieder die Werte für r und h eingesetzt werden  die Formeln ‚linear‘ und ‚Gauss‘ führen direkt auf ∆A und ∆V  und diese auf die relativen Streuungen ∆A/ A und ∆V/ V. 2 Häufig- und Wahrscheinlichkeiten 2.1 Die Geburt der Stochastik Französische Adlige vertrieben sich in der Mitte des 17. Jahrhunderts die Zeit mit Glücksspielen und wollten ihre Gewinnchancen wissen. In dieser Zeit lebte auch der Mathematiker B LAISE P ASCAL (1623-1662) am Hof des Sonnenkönigs L OUIS XIV. Im Jahr 1654 wandte sich der Chevalier D E M ERÉ an P ASCAL mit der Frage: Die Frage von D E M ERÉ an P ASCAL Was hat mehr Chancen:  bei 4 Würfen mit einem Würfel mindestens eine ⚅ oder  bei 24 Würfen mit zwei Würfeln mindestens eine Doppelsechs ⚅ ⚅ zu erzielen? Das Jahr 1654 gilt somit als die Geburtsstunde der Stochastik. Ähnliche Fragen wurden einem Mathematiker vorher noch nie gestellt. Nach dieser Geburt der Stochastik erfolgten in rascher Folge weitere berühmt gewordene historische Stochastikaufgaben. G. W. L EIBNIZ ( 1646-1716 ) stellte sich die folgende Frage (und beantwortete sie falsch ): Das Problem von L EIBNIZ Was ist leichter: mit zwei Würfeln die Augensumme 11 oder 12 zu würfeln? 56 2 Häufig- und Wahrscheinlichkeiten G ALILEO G ALILEI (1564-1642) stellte fest: Das Problem von G ALILEI Beim Würfeln mit drei Würfeln haben die beiden Augensummen S=9 und S=10 die gleiche Anzahl an Realisierungen, nämlich 6: «S=9» = {1+2+6 | 1+3+5 | 1+4+4 | 2+2+5 | 2+3+4 | 3+3+3} «S=10» = {1+3+6 | 1+4+5 | 2+2+6 | 2+3+5 | 2+4+4 | 3+3+4} Aber «S=10» erscheint öfter als «S=9». Warum? C HRISTIAN H UYGENS (1629-1695) stellte gleich zwei Aufgaben: Das erste Problem von H UYGENS Ein Spieler A mischt ein Skatblatt mit 32 Spielkarten zu je 4 Farben. Sein Partner B zieht daraus 4 Karten. Er gewinnt den kompletten Einsatz, wenn er 4 verschiedene Farben gezogen hat. Sonst gewinnt sein Gegner A. Welchen Einsatz müssen beide Spieler leisten, wenn es auf lange Sicht fair sein soll? Das zweite Problem von H UYGENS Zwei Spieler A und B werfen abwechselnd zwei Würfel. A fängt an und gewinnt bei «Augensumme S=6». B ist zweiter und gewinnt bei «Augensumme S=7».  Welche Chance hat jeder bei seinem ersten Wurf zu gewinnen?  Welche Chance hat jeder bei seinem zweiten Wurf zu gewinnen?  Welche Chance hat jeder bei seinem n-ten Wurf zu gewinnen?  Welche Chance hat jeder überhaupt (nach sehr vielen Würfen) zu gewinnen? Die Lösungen sind am Ende unter Aufgaben und Lösungen zu finden. 2.2 Zufallsexperimente, ihre Ergebnisse und ihre Ereignisse 57 2.2 Zufallsexperimente, ihre Ergebnisse und ihre Ereignisse Jeder kennt Zufallsexperimente (kurz ZuEx). Tab 17: Drei Beispiele von Zufallsexperimenten ZuEx 4 Reißnägel 3 Würfel LOTTO 6 aus 49 ein Ergebnis ω ⚂⚀⚅ (S,R,S,S) (3,1,6) (15,25,27,30,42,48) die Anzahl |Ω| aller möglichen Ergebnisse 2 4 =16 6 3 =216 �49 6 � = 13 983 816 Das Ergebnis eines ZuEx bezeichne ich mit ω (griech. omega). Die Menge aller möglichen Ergebnisse bezeichne ich mit dem großen griechischen Omega Ω = {𝜔𝜔 1 , 𝜔𝜔 2 , … , 𝜔𝜔 𝑛𝑛 } . Die Anzahl der möglichen Ergebnisse bezeichne ich mit Betragsstrichen |Ω|. Ich betrachte zunächst nur ZuEx mit endlicher Ergebnismenge |Ω|< ∞ . Das angegebene LOTTO-Ergebnis spielt als LOTTO-Sensation (→ Abschnitt 2.4) eine besondere Rolle. Es gibt beim ZuEx mit mehreren gleichartigen Objekten (Reißnägel, Würfel etc.) ein immer wiederkehrendes Problem: „Sind sie unterscheidbar oder nicht? “ Wenn die Würfel (etwa durch ihre Farbe) unterscheidbar sind, dann bedeutet dies, dass die Ereignisse ⚂⚀⚅ und ⚀⚂⚅ verschieden sind. Um nicht dauernd graphische Auszeichnungen zu bemühen, werden beide Würfel-Ergebnisse auch 25 30 48 15 27 42 58 2 Häufig- und Wahrscheinlichkeiten durch die Reihenfolge unterschieden: (3,1,6) ≠ (1,3,6). Wobei jede Position einer Würfelfarbe entspricht. Man mache sich auch klar, dass die Farbunterschiede verblassen können (etwa durch UV-Einstrahlung). Dieses Verschwinden der Farbunterschiede kann aber das Ergebnis eines ZuEx nicht beeinflussen! Bei den meisten Fragestellungen ist es nützlich, die Würfel als unterscheidbar anzusehen. Alle Stochastik beruht auf allgemeinen Lebenserfahrungen. Lebenserfahrung 1 der Stochastik Ein Zufallsexperiment (ZuEx) hat immer mehrere, oft viele mögliche Ergebnisse. Welches Ergebnis bei einem Versuch eintritt, kann nicht vorhergesagt und vom Ausführenden nicht beeinflusst werden, es wird allein vom Zufall bestimmt. Der Begriff Zufall dominiert die gesamte Stochastik. Seine philosophische erkenntnistheoretische Tiefe kann hier nicht weiter diskutiert werden. Jeder LOTTO-Spieler träumt davon, mit seinen 6 Kreuzen in 49 Feldern das Ergebnis der nächsten Ziehung (6 aus 49) vorherzusagen. Dass er dabei 13 983 816 Möglichkeiten hat, wird ihn frustrieren, aber es ist stochastische Realität. Ob das Ziehungsergebnis wirklich nur dem Zufall überlassen wird, mag jeder Beobachter der gläsernen Ziehungstrommel selbst beurteilen. Der bei jeder Ziehung anwesende Jurist ist davon überzeugt. Ereignisse Ein Würfler könnte sein Ergebnis verdecken und verkünden: «Ich habe eine Primzahl gewürfelt». Seine Mitspieler können daraus schließen: Also hat er eine ⚁ oder ⚂ oder ⚄ gewürfelt. Der Würfler hat die Beschreibung eines Zufalls-Ereignisses formuliert. 2.2 Zufallsexperimente, ihre Ergebnisse und ihre Ereignisse 59 Tab 18: Beispiele zu ZuEx und Ereignissen ZuEx Ereignis E |E| »1 Würfel« «Primzahl» {2,3,5} 3 »2 Würfel« «Augensumme=7» {(1,6); (2,5); (3,4); …} 6 »LOTTO« «nur Quadratzahlen» {(1,4,9,16,25,36); …; (4,9,16,25,36,49)} �76� = 7 »LOTTO« «nur Primzahlen» {(2,3,5,7,11,13); …; (29,31,37,41,43,47)} �15 6 � = 5005 »Skat« «alle 4 Buben in einer Hand» zu komplex 3 ∙ �28 6 � ∙ �22 10� ∙ �12 10� ≈ 4.8 ∙ 10 13 Es gibt unter den 49 LOTTO-Zahlen 7 Quadratzahlen: {1, 4, 9, 16, 25, 36, 49} und 15 Primzahlen: {2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47}. Zum Skatspiel: Ein Skatblatt hat 32 Karten mit 4 verschiedenen Farben. Jede Farbe hat einen Buben. Die Karten werden an 3 Spieler verteilt (je 10) und zwei bleiben als Reiz verdeckt auf dem Tisch liegen. Ich werde immer wieder diese Symbolik benützen: Ereignis : «Beschreibung» Ereignis = {Aufzählung} |Ereignis| = Anzahl der Ergebnisse Leicht einzusehen ist: Ereignisse sind Teilmengen der Ergebnismenge E ⊆ Ω Im Deutschen sind Ergebnis und Ereignis phonetisch sehr ähnlich. Das provoziert Versprecher. Manche Autoren ersetzen daher Ergebnis durch Ausgang. Ich bleibe bei Ergebnis. 60 2 Häufig- und Wahrscheinlichkeiten Da Ereignisse Mengen sind, müssen Begriffe der Mengenlehre angewendet werden. (→ Mengen) Man kann beim ZuEx »2 Würfel« folgende Ereignisse für die Augensumme AS formulieren: E 5 : «AS=2» = {2} elementar |E 5 | = 1 E 6 : «AS ≠ 2» = {3,4,…,12} Gegenereignis E 6 = E� 5 E 7 : «AS>13» = Ø unmöglich |Ø| = 0 E 8 : «AS<13» = Ω sicher |Ω| = 11 Für Ereignis und Gegenereignis gelten E ∪ E� = Ω und E ∩ E� = ∅, woraus folgt: | 𝐸𝐸 | + � 𝐸𝐸 �� = | Ω | . Ereignisse mit der Eigenschaft 𝐴𝐴 ∩ 𝐵𝐵 = ∅ werden element-fremd oder disjunkt genannt. 2.3 Häufigkeit und Wahrscheinlichkeit Ein Würfelspieler würfelt sehr oft mit dem immer gleichen Würfel. Er hält dabei fest, wie oft er jedes der Ergebnisse ω= ⚀ , ⚁ , … ⚅ nach n=10, 20, 30, … Würfen erzielt hat. Mit diesen absoluten Häufigkeiten n(ω) bildet er die relativen Häufigkeiten h n (𝜔𝜔) ≔ n(𝜔𝜔) n = Zahl der Ergebnisse ω Zahl der Versuche (1) und hält seine h-Werte in Grafiken fest. Ein Bsp für ω= ⚅ : Abb 6: Relative Häufigkeiten beim n-fachen Würfeln 2.3 Häufigkeit und Wahrscheinlichkeit 61 Für die 6 möglichen Ergebnisse werden sich die 6 Grafiken unterscheiden. Vor allem im Bereich weniger Versuche (n<50) wird es große Unterschiede geben. Selbst bei einer Wiederholung des ZuEx kann es für das gleiche Ergebnis ω für kleine n große Unterschiede geben. Aber es gibt eine dominierende Gemeinsamkeit: Es werden sich alle h n ( 𝜔𝜔 )-Werte für genügend große n (>100) einem Trendwert p( 𝜔𝜔 ) nähern. Dieses Trendphänomen ist die … Lebenserfahrung 2 der Stochastik Wiederholt man ein ZuEx unter immer gleichen Bedingungen sehr oft, dann nähern sich die relativen Häufigkeiten h eines Ergebnisses einem Trendwert p. h n (𝜔𝜔) n→∞ �⎯⎯⎯� p(𝜔𝜔) Ich verwende den Begriff Trendwert und nicht Grenzwert. Dieser von C AUCHY (1789-1857) für Zahlenfolgen und Funktionen in die Mathematik eingeführte Begriff hat eine strenge Definition, die hier NICHT angewendet werden kann. Betrachtet man alle möglichen Ergebnisse ω eines ZuEx, dann ist ∑ {n(ω)} = n alle ω und somit ∑ {h(ω)} = ∑ {p(ω)} alle ω = 1 alle ω Die 6 Trendwerte des Würfels können dabei verschieden sein. Bei einem idealsymmetrischen Würfel wird sich allerdings p 1 =p 2 = … =p 6 = ⅙ ergeben . Er besitzt die sog. L APLACE -Eigenschaft. Die empirische Wahrscheinlichkeit Diese Stabilisierung der relativen Häufigkeit eines Ergebnisses nach vielen Versuchen h n (ω) viele Versuche �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� p(ω) hat den Mathematiker R ICHARD VON M ISES (1883-1953) dazu verführt, die elementare Wahrscheinlichkeit eines Ergebnisses als Grenzwert von relativen Häufigkeiten nach unendlich vielen Versuchen zu definieren. 62 2 Häufig- und Wahrscheinlichkeiten prob(ω) ∶= lim n→∞ h n ( 𝜔𝜔 ) Abgeleitet vom englischen probability bezeichne ich die Wahrscheinlichkeit eines Ergebnisses mit prob. Viele Autoren schreiben dafür nur kurz p(). Ich halte prob() für augenfälliger (siehe Vorwort). Viele Kollegen von R ICHARD VON M ISES haben diese Definition als zu empirisch abgelehnt. Sie sagten: „Man kann nicht unendlich oft würfeln“. Trotzdem muss die elementare prob()-Funktion empirisch, d.h. durch viele Versuche ermittelt werden. Aber solche Versuche sind nicht Aufgabe der Mathematik, sondern der Empirik. Man könnte ein Wort von A LBERT E INSTEIN abwandeln und sagen: „Ein Mathematiker würfelt nicht“. Der Mathematiker zieht sich elegant aus der Affäre, indem er sagt: Wir Mathematiker stellen stochastische Überlegungen erst an, wenn für ALLE Ergebnisse ω eines ZuEx die elementaren Wahrscheinlichkeiten prob(ω) bekannt sind. Woher sie stammen ist uns egal. Sie müssen nur die beiden Forderungen 0 < prob ( ω ) < 1 und ∑ {prob(ω)} = 1 alle ω erfüllen. Die letzte Forderung wird Normiertheit genannt. Würde für einen Würfel etwa folgende Tabelle geliefert: ω= ⚀ ⚁ ⚂ ⚃ ⚄ ⚅ ∑ prob(ω)= 0.166 0.168 0.165 0.169 0,167 0.164 0.999 dann müsste sie abgelehnt werden, weil die Normiertheit nicht erfüllt ist. Erst eine Korrektur der Art prob(6) → 0.165 würde eine akzeptable Tabelle für die elementaren Wahrscheinlichkeiten prob ergeben. Die Wahrscheinlichkeit eines Ereignisses ist die Summe über alle seine elementaren Wahrscheinlichkeiten Prob(E) = � {prob(ω)} ω∈E 2.3 Häufigkeit und Wahrscheinlichkeit 63 Ein Bsp Prob(«gewürfelt wurde eine Primzahl») = prob(2) + prob(3) + prob(5) = 0.168 + 0.165 + 0.167 = 0.500 Zu den Ereignissen E gehört das unmögliche ∅ und das sichere Ereignis Ω mit den Eigenschaften 0 = Prob(∅) ≤ Prob(E) ≤ Prob(Ω) = 1 Die axiomatische Wahrscheinlichkeit Angelehnt an das geniale Werk Die Elemente des griechischen Mathematikers E UKLID (≈-300) fordern moderne Philosophen und Mathematiker (B. R USSEL , L. W ITTGENSTEIN , D. H ILBERT u.a.), dass in einer mathematischen Theorie aus wenigen Grundannahmen, den sog. Axiomen , alle weiteren Gesetze logisch durch Implikationen ( ⇒ ) abgeleitet werden müssen. Die Axiome sollten möglichst von geringer Anzahl, möglichst einfach und auf alle Fälle widerspruchsfrei sein. Sie müssen nicht weiter begründet werden. A. N. K OLMOGOROV (1903-1987) hat diesen Wunsch nach Axiomatik im Jahr 1933 für den Begriff Wahrscheinlichkeit perfekt und genial erfüllt. Die Axiome des K OLMOGOROV zur Prob-Funktion Zufallsexperimente produzieren Zufalls-Ereignisse A, B, …, E, … Sie sind Teilmengen der Ergebnis-Menge Ω des sog. sicheren Ereignisses. Zu den Teilmengen gehört auch die leere Menge ∅, das sog. unmögliche Ereignis. Die Wahrscheinlichkeits-Funktion Prob beschreibt eine Zuordnung der Art I Ereignis E ⊆ Ω ist zugeordnet �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� Prob(E) ∈ [0 … 1] ⊂ ℝ mit den Eigenschaften II Prob(Ω) = 1 III A ∩ B = ∅ ⇒ Prob(A ∪ B) = Prob(A) + Prob(B) 64 2 Häufig- und Wahrscheinlichkeiten Alle Mathematiker waren von der Schlichtheit des Axiomensystems beeindruckt und akzeptierten es. K OLMOGOROV s Definition benützt nur Ereignisse als Teilmenge der Ergebnismenge Ω und keine Ergebnisse. Ergebnisse sind elementare Ereignisse mit genau einem Element. Wie in der axiomatischen Mathematik üblich, musste K OLMOGOROV zeigen, dass alle weiteren Eigenschaften der Prob-Funktion durch logische Implikationen ⇒ aus den Axiomen folgen. Dies ist K OLMOGOROV gelungen. Ein Beispiel ist der sehr allgemeine Additionssatz der Wahrscheinlichkeit Prob(A ∪ B) = Prob(A) + Prob(B) − Prob(A ∩ B) Für seine Herleitung kürze ich mal wieder ab Prob() → P() und benütze das folgende Mengendiagramm: Abb 7: Additionssatz der Wahrscheinlichkeit Das Mengendiagramm zeigt, dass A ∪ B = (A ∩ B�) ⊔ (A ∩ B) ⊔ (A� ∩ B) ������������������� disjunkt A = (A ∩ B�) ⊔ (A ∩ B) ������������� disjunkt ⇒ P(A) = P(A ∩ B�) + P(A ∩ B) B = (A ∩ B) ⊔ (A� ∩ B) ������������� disjunkt ⇒ P(B) = P(A ∩ B) + P(A� ∩ B) P(A ∪ B) = P(A ∩ B�) ������� P(A)−P(A∩B) + P(A ∩ B) + P(A� ∩ B) ������� P(B)−P(A∩B) = P(A) + P(B) − P(A ∩ B) A� ∩ B B A A ∩ B� A ∩ B� Ω 2.3 Häufigkeit und Wahrscheinlichkeit 65 Manche benützen für die ODER-Verknüpfung disjunkter Ereignisse einen extra Operator: A ∪ B A∩B=∅ �⎯⎯⎯⎯� A ⊔ B Dann vereinfacht sich K OLMOGOROV -III zu Prob(A ⊔ B) = Prob(A) + Prob(B) . Wie bei Axiomensystemen üblich könnte man K OLMOGOROV -III durch den Additionssatz ersetzen und daraus dann Axiom-III implizieren. Tab 19: Die wichtigsten Eigenschaften der Prob-Funktion 0 = Prob(∅) ≤ Prob(E) ≤ Prob(Ω) = 1 [1] Prob(E�) = 1 − Prob(E) [2] B ⊆ A ⟹ Prob(B) ≤ Prob(A) [3] Prob(A ∪ B) = Prob(A) + Prob(B) − Prob(A ∩ B) [4] Prob(A ∩ B) = Prob(A) ∙ Prob A (B) [5] [1] Neben dem beliebigen (E) gibt es das unmögliche (∅) und das sichere (Ω) Ereignis [2] 𝐸𝐸� = Ω\E ist das Gegen-Ereignis [3] B ist ein Teil-Ereignis von A [4] ODER gibt PLUS minus U ∩ D [5] UND gibt MAL aber bedingt Die letzte Formel wurde hinzugefügt, obwohl die bedingten Wahrscheinlichkeit Prob A (B) erst später erklärt wird. Die Schreibweise U ∩ D soll als Eselsbrücke dienen, um sich den Unterschied ∩ kontra ∪ leichter einprägen zu können. Die L APLACE -Eigenschaft Oft wird bei einem ZuEx die L APLACE -Eigenschaft unterstellt: »alle Ergebnisse sind gleich wahrscheinlich« also prob(ω 1 ) = prob(ω 2 ) = ⋯ 66 2 Häufig- und Wahrscheinlichkeiten Ein einfaches Bsp ist der idealsymmetrische Würfel mit prob(1) = prob(2) = ⋯ = prob(6) = ⅙ . Mit der L APLACE -Eigenschaft folgt prob(ω i ) = 1 |Ω| und Prob(E) = |E| |Ω| = günstig möglich Diese L APLACE -Formel wird in der Wahrscheinlichkeitsrechnung sehr häufig angewendet. Bsp: Beim Würfeln mit zwei L APLACE -Würfeln sei: E: «AugenSumme = 5» . Dann ist |𝐸𝐸| = 4 und Prob(E) = |E| |Ω| ⁄ = 4 36 = 19 . Bsp: Um mit 6 Kreuzen in den 49 Feldern eines LOTTO-Zettels r Richtige zu erzielen, muss man r Kreuze in den 6 richtigen Feldern UND (6-r) Kreuze in den 43 falschen Feldern machen. Das Ereignis E r : «r Richtige» hat die Wahrscheinlichkeit 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐸𝐸 𝑟𝑟 ) = |𝐸𝐸 𝑟𝑟 | |Ω| ⁄ → 𝑃𝑃(𝐸𝐸) . Die Kombinatorik lehrt: |E r | = �6r� ∙ � 43 6 − r� und |Ω| = �49 6 � =BinKo(49; 6) Tab 20: LOTTO Wenn Wahrscheinlichkeiten P sehr klein sind, dann werden gern ihre Kehrwerte 1/ P angegeben. Man benützt dann die Sprechweise: »die Wahrscheinlichkeit ist ‚eins-zu-1/ P‘«. Beim Lotto ist die Wahrscheinlichkeit für «6 Richtige» eins-zuca. 14 Millionen. 2.4 Einige interessante Wahrscheinlichkeiten 67 2.4 Einige interessante Wahrscheinlichkeiten Ein klassisches Beispiel: Ich kürze mal wieder ab: Prob() → P() ZuEx: »Mit einem idealen Würfel wird 2-mal gewürfelt« Frage 1: „Wie groß ist die Wahrscheinlichkeit A: «erst eine 6» UND B: «dann eine 5» zu würfeln? “ Lösung: L APLACE P(A)=P(B)= 1 / 6 Unabhängigkeit P(A∩B)=P(A) ‧ P(B)= 1 / 6 ‧ 1 / 6 = 1 / 36 Frage 2: „Wie groß ist die Wahrscheinlichkeit für E: «mindestens eine 6» zu würfeln? “ Drei verschiedene Lösungen: L APLACE : E= { (1,6), (2,6), …, (6,6), (6,5), …, (6,1) } |E|=11 |Ω|=36 P(E) = |E| |Ω| ⁄ = 11 / 36 E̅ : « keine 6» E i : «bei einem Wurf eine 6» Unabhängigkeit P(E�) = P(E� 1 ∩ E� 2 ) = P(E� 1 ) ∙ P(E� 2 ) = 5 / 6 ∙ 5 / 6 = 25 / 36 P(E) = 1 − P(E�) = 11 / 36 Additionssatz : P(E) = P(E 1 ∪ E 2 ) = P(E 1 ) + P(E 2 ) − P(E 1 ∩ E 2 ) = 1 / 6 + 1 / 6 - 1 / 36 = 11 / 36 Ein Partyproblem: Gleiche Geburtstage Auf einer Party sind n Gäste. Man hängt einen Jahreskalender auf und lässt die Gäste der Reihe nach ihren Geburtstag (GT) (=Tag.Mon) ankreuzen. Man möchte Partygäste, die nur alle 4 Jahre am 29. Februar Geburtstag haben, nicht vor den Kopf stoßen, also hängt man den Jahreskalender eines Schaltjahres mit m=366 Tagen auf. Wenn ein Partygast auf einen schon mal angekreuzten GT trifft, dann liegt eine Kollision vor und das Ankreuzen wird abgebrochen. Man stellt die Partyfrage: Mit welcher Wahrscheinlichkeit haben mindestens zwei Gäste den gleichen Geburtstag? 68 2 Häufig- und Wahrscheinlichkeiten Man kann versuchen, das Niveau der Party zu steigern und die Gäste schätzen lassen, ab welcher Gästezahl n diese Wahrscheinlichkeit > 50% oder > 99% wird. Man kann weiter versuchen, seine Partygäste durch den Vortrag der folgenden Lösung zu beeindrucken. Der erste Schritt ist, vom Ereignis «mindestens zwei» das Gegenereignis «keine zwei» ins Auge zu fassen. Dieses Motto: Denke auch an das Gegenereignis hilft bei vielen Stochastikproblemen weiter. Also betrachtet man die Ereignisse A n : «von n Partygästen haben mindestens zwei den gleichen GT» und A̅ n : «alle n Partygäste haben verschiedene GT». Der erste Partygast hat m=366, der zweite m-1=365, der dritte m- 2=364, …, der n-te Partygast hat m-(n-1) Möglichkeiten, sein Kreuz zu machen. Mit aus UND wird MAL folgt Prob(A� n ) = 1 − P m (n) = mm ∙ m − 1 m ∙ m − 2 m ∙ … ∙ m − (n − 1) m = �1 − 1 m � ∙ �1 − 2 m � ∙ … ∙ �1 − n−1 m � (1) Man kann dies für kleine n rekursiv mit einer E XCEL -Tabelle berechnen: Für größere n ist die Rekursion lästig. Das Produkt in (1) wird mit (𝑚𝑚 − 𝐸𝐸)! erweitert. 1 − P m (n) = mm ∙ m−1 m ∙ m−2 m ∙ … ∙ m−(n−1) m ∙ (m−n)! (m−n)! = m! m n ∙(m−n)! (2) Alle 3 Zahlen in diesem Bruch sind für große n gigantisch. Selbst E XCEL streikt ab 171! Man weiß aber, dass |1 − 𝑃𝑃 𝑚𝑚 (𝐸𝐸)| < 1 ist. Es entsteht ein für die Stochastik typisches numerisches Problem: Eine Wahrscheinlichkeit 0≤Prob≤1 ist aus einem Bruch mit großen (sogar gigantischen) Zahlen zu berechnen. Hier hilft (manchmal) die S TIRLING -Näherung weiter. 2.4 Einige interessante Wahrscheinlichkeiten 69 n! ≈ √2πn ∙ � ne � n (3) Sie liefert schon für n>10 brauchbare Näherungs-Werte. Nach etwas Bruch- und Potenzrechnen folgt aus (2) mit (3) die Formel P m (n) ≈ 1 − e −n ∙ � m m−n � m−n+1 2 ⁄ . (4) Hier sind alle Zahlen mit m=366 und n≤m für E XCEL kein numerisches Problem. Abb 8: Die Wahrscheinlichkeit gleicher Geburtstage bei n Partygästen Ich habe es trotz reicher Partyerfahrung noch nie erlebt, dass die Stochastikresulate P m ( n ≥ 23 ) > 50% und P m ( n ≥ 57 ) ≥ 99% von Stochastiklaien annähernd richtig geraten wurden. Eine LOTTO-Sensation Die deutsche staatliche TOTO-LOTTO-Gesellschaft feierte 1995 ihr 40-jähriges Bestehen und verkündete eine „Sensation“. Bei der 3 016-ten Ziehung am 05. Jun. 1995 wurden zum 2-ten Mal die gleichen 6 Kugeln (15, 25, 27, 30, 42, 48) wie schon bei der 1 628-ten Ziehung 9 Jahre davor gezogen. Dies wurde als „Sensation“ empfunden, weil es m ∶= �49 6 � = 13 983 816 ≈ 14 Mill 0% 20% 40% 60% 80% 100% 0 10 20 30 40 50 60 70 80 70 2 Häufig- und Wahrscheinlichkeiten (eine wirklich große Zahl! ) verschiedene LOTTO-Ergebnisse gibt. Angesichts dieser 14 Mill möglichen LOTTO-Ergebnisse verblüfft die geringe Zahl von 3 016 Ziehungen. Die Stochastik kann zeigen, dass dies ‚gar nicht so verblüffend‘ ist. Das Ereignis A n = «bei n Ziehungen gab es mindestens 2 mal das gleiche Ergebnis» und sein Gegenereignis A� n = «bei n Ziehungen gab es immer verschiedene Ergebnisse» haben eine große Ähnlichkeit mit dem Problem: »gleiche Geburtstage« (s.o.). Nur ist jetzt der Kalender mit m=366 Tagen durch eine Liste mit m=13 983 816 LOTTO-Ergebnissen zu ersetzen. Eine Lösung mit S TIRLING würde auf (4) führen und mit dem riesigen m keinen mit E XCEL berechenbaren Wert ergeben! Man muss raffinierter argumentieren und versuchen, 𝑃𝑃 𝑚𝑚 (𝐸𝐸) einzugrenzen. Mit einer Verallgemeinerung von ln(a ∙ b) = ln(a) + ln(b) folgt aus (2): ln(1 − P) = ln �∏ �1 − k m � n−1 k=1 � = ∑ �ln �1 − k m �� n−1 k=1 (5) wobei ich vorübergehend abkürze: P m (n) → P . Dieser Trick, aus einem Vielfachprodukt mit dem Logarithmus eine Summe zu machen, ist sehr beliebt. Logarithmen großer Zahlen sind vergleichsweise immer klein. Bsp: ln (1 000 000) ≈ 13.8. Der ln (1 - x) wird nun nach oben und unten abgeschätzt. Die Graphik links zeigt, dass für alle x>0 gilt ln(x) ≤ x − 1 Es folgen einige Ersetzungen: x → 1 − y ⇒ ln(1 − y) ≤ −y x → 1/ z ⇒ ... ⇒ ln(z) ≥ z−1 z z → 1 − x ⇒ ln(1 − x) ≥ −x 1−x Abb 9: Eine rationale Eingrenzung des ln (1-x) 1 1 2.4 Einige interessante Wahrscheinlichkeiten 71 Dadurch wird der natürliche Logarithmus rational eingegrenzt: −x 1−x ≤ ln(1 − x) ≤ −x < 0 ⇒ 〈x → k m 〉 ⇒ − k m−k ≤ ln �1 − k m � ≤ − k m (6) Dies gilt auch für die Summen, wobei die immer gleichen Summationsgrenzen k=1 … (n-1) der Übersichtlichkeit wegen vorübergehend unterschlagen werden: − ∑ � k m−k � k ������� U ≤ ∑ �ln �1 − k m �� k ����������� ln(1−P) ≤ − ∑ � k m � k ��� O (O≠0) Da der ln streng monoton wächst, folgt auch −U ≤ ln(1 − P) ≤ −O oder exp(−U) ≤ (1 − P) ≤ exp(−O) und P wird näherungsweise als Mittelwert seiner Grenzen berechnet: P ≈ 1 − �exp(−U) + exp(−O)�/ 2 (7) Die Grenzen U und O werden weiter abgeschätzt: U ∶= ∑ � k m−k ��� ≥m−(n−1) � k ≤ 1 m−n+1 ∙ ∑ {k} k ��� n∙ (n−1) 2 = n∙(n−1) 2∙(m−n+1) O ≔ � {k m ⁄ } k = 1 m ∙ � {k} k ����� n∙(n−1) 2 = 1 m ∙ n ∙ (n − 1) 2 Abb 10: Die Wahrscheinlichkeit eines Lottoduplikats 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 0 5.000 10.000 15.000 20.000 72 2 Häufig- und Wahrscheinlichkeiten Bei n=3 016 LOTTO-Ziehungen ist die Wahrscheinlichkeit für ein Duplikat ungefähr 27.8%. Zum Vergleich: Beim ZuEx »Werfen zweier Würfel« ist Prob(«AugenSumme ≤ 5») = 10 36 ≈ 27.8% . Also ist diese „Lotto-Sensation“ so sensationell auch wieder nicht. Ab n=4 404 Ziehungen ist die Wahrscheinlichkeit für ein Duplikat größer als 50%. Ab n=11 351 Ziehungen ist die Wahrscheinlichkeit für ein Duplikat größer als 99%. Ab n=m+1=13 983 817 Ziehungen ist ein Duplikat sicher ! Die beiden Bsp Gleiche Geburtstage und LOTTO-Sensation zeigen, dass zur numerischen Berechnung von Wahrscheinlichkeiten manchmal tief in die mathematische Trickkiste gegriffen werden muss. 2.5 Die B ERNOULLI -Formel Der Mathematiker J AKOB B ERNOULLI ( 1654-1705 ) stammt aus der berühmten Schweizer Wissenschaftlerfamilie. Er beschäftigte sich u.a. mit der »mehrfachen Wiederholung eines ZuEx unter immer gleichen Bedingungen«. Ich nenne so etwas ein B ERNOULLI -Experiment, kurz BeEx. Das Leitbeispiel ist das »mehrfache Werfen des gleichen Würfels«. B ERNOULLI verwarf die Frage »Wie oft erscheint bei n-maligem Würfeln eine ⚅ ? « als Versuch der Wahrsagerei. B ERNOULLI erkannte dagegen: Wenn der Zufall regiert, dann ist bei n Wiederholungen JEDE ZAHL k=0,1,2, …, n an Erfolgen möglich! Ich bezeichne dabei »das Würfeln einer ⚅ als Erfolg«. Man kann sich auch jedes andere mögliche Würfelergebnis als Erfolg denken. B ERNOULLI stellte sich die sinnvollere B ERNOULLI -Frage: Wie wahrscheinlich ist es, «bei n-maligem Würfeln genau k-mal eine ⚅ zu erzielen»? Allgemeiner: Wie wahrscheinlich ist es, «bei n Wiederholungen genau k-mal einen Erfolg zu erzielen»? 2.5 Die Bernoulli-Formel 73 J. B ERNOULLI fand (→ Herleitungen) Die B ERNOULLI -Formel Beim B ERNOULLI -Ereignis 𝐵𝐵: «𝑃𝑃𝐸𝐸𝐸𝐸 𝐸𝐸 𝑊𝑊𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸ℎ𝜎𝜎𝑜𝑜𝑧𝑧𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸𝐸𝐸𝑔𝑔𝑧𝑧 𝑘𝑘 𝐸𝐸𝐸𝐸𝐸𝐸𝜎𝜎𝑜𝑜𝐸𝐸𝐸𝐸» kann k die Werte k=0,1,2,…,n annehmen. B hat die Wahrscheinlichkeit 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) . Dabei ist 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) ∶≝ �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ (1 − 𝑝𝑝) 𝑛𝑛−𝑘𝑘 die Binomial-Verteilung mit dem Binomial-Koeffizient 𝐵𝐵𝐸𝐸𝐸𝐸𝐵𝐵𝜎𝜎(𝐸𝐸, 𝑘𝑘) ≡ �𝐸𝐸𝑘𝑘� ∶≝ 𝐸𝐸! 𝑘𝑘! ∙ (𝐸𝐸 − 𝑘𝑘)! Diese B ERNOULLI -Formel ist ein Meilenstein der Mathematikgeschichte. Ihre Bedeutung für die Stochastik kann kaum überschätzt werden. Ein Trost: In der numerischen Praxis braucht man die recht komplizierte Definition der Bin-Funktion gar nicht zu kennen, da ihre konkreten Zahlenwerte mit den bekannten Numerik-Helferlein (TR, PC, Tabellen) ermittelt werden. Trotzdem sollte man einige spezielle Werte der Bin-Verteilung in Formeln kennen: Bei einem Versuch ist die Wahrscheinlichkeit eines Erfolgs 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝟏𝟏 (𝟏𝟏) = 𝑝𝑝 Dabei muss man 0! ∶≝ 1 akzeptieren. Bei n Wiederholungen gab es … Prob= … «immer» 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 = 𝐸𝐸) = 𝑝𝑝 𝑛𝑛 … «nie» 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 = 0) = (1 − 𝑝𝑝) 𝑛𝑛 74 2 Häufig- und Wahrscheinlichkeiten … «genau 1-mal» 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 = 1) = 𝐸𝐸 ∙ 𝑝𝑝 ∙ (1 − 𝑝𝑝) 𝑛𝑛−1 … «mindestens 1-mal» 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 > 0) = 1 − (1 − 𝑝𝑝) 𝑛𝑛 einen Erfolg Die hier geschilderten Ereignisse kommen in Fragen und oft auch in Klausuren immer wieder vor. Ein weiteres im Vorwort erwähntes Bsp: Prob(«bei 30mal würfeln keine 6») = Bin 1 6; 30 ⁄ (0) = � 56 � 30 ≈ 0.0042 Aus der allgemeinen binomischen Formel (p + q) n = ∑ ��nk� ∙ p k ∙ q n−k � nk=0 folgt mit q=1-p, dass die Bin-Verteilung normiert ist ∑ �Bin p; n (k)� nk=0 = 1. n=10 n=20 0,00 0,10 0,20 0,30 0,40 0 1 2 3 4 5 6 7 0,00 0,10 0,20 0,30 0 1 2 3 4 5 6 7 8 9 10 2.5 Die Bernoulli-Formel 75 n=50 Abb 11: Visualisierung von 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 = 0,1,2, … , 𝐸𝐸) für p=⅙ und n = 10,20,50 Die Tabelle zeigt Bin-Verteilungen mit einem Maximum. Es gibt aber auch Bin-Verteilungen mit zwei gleichen, neben einander liegenden Maxima. Bsp: p=0.5; n=33 Bin(16) = Bin(17) = 0.13583376 Abb 12: Eine Bin-Verteilung mit 2 Maxima Es fällt auf: Das Maximum oder die beiden Maxima liegen immer dicht bei n · p. Die B ERNOULLI -Summe Während die B ERNOULLI -Formel die Wahrscheinlichkeit Prob( « bei n Wiederholungen gab es 𝐆𝐆𝐆𝐆𝐆𝐆𝐆𝐆𝐆𝐆 k Erfolge » ) = Prob(Z = k) = Bin p; n (k) berechnet, interessiert oft auch Prob( « bei n Wiederholungen gab es 𝐇𝐇Ö𝐂𝐂𝐇𝐇𝐂𝐂𝐂𝐂𝐆𝐆𝐆𝐆𝐂𝐂 k Erfolge » ) = Prob(Z ≤ k) = BinSum p; n (k) 0,00 0,05 0,10 0,15 0,20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 0,00 0,02 0,04 0,06 0,08 0,10 0,12 0,14 0,16 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 76 2 Häufig- und Wahrscheinlichkeiten Ich habe dabei eine neue kurze Schreibweise «𝑍𝑍 = 𝑘𝑘» und «𝑍𝑍 ≤ 𝑘𝑘» für sogenannte Zufallszahlenereignisse eingeführt. Sie symbolisieren das GENAU und das HÖCHSTENS sehr kurz und gut. Ihnen ist später ein eigener Abschnitt (→ Abschnitt 3.1) gewidmet. Ich halte meine etwas lang geratene Bezeichnung BinSum für aussagekräftig und didaktisch nützlich. Für solche ZuZa-Ereignisse gilt «Z ≤ k» = «Z = 0» ⊔ «Z = 1» ⊔ «Z = 2» ⊔ … ⊔ «Z = k» wobei die einzelnen Ereignisse paarweise disjunkt sind; d.h. «Z = k 1 » ∩ «Z = k 2 » = ∅ für k 1 ≠ k 2 Aus dem bekannten ODER (ohne UND) gibt PLUS folgt Prob(Z ≤ k) = Prob(Z = 0) + Prob(Z = 1) + ⋯ + Prob(Z = k) oder kurz Prob(Z ≤ k) = � {Prob(Z = i)} ki=0 ≝: ProbSum(k) Diese recht allgemeine Formel bedeutet speziell für die Bin-Verteilung Prob(Z ≤ k) = � �Bin p; n (i)� ki=0 ≝: BinSum(k) Abb 13: Bin und BinSum beim 1-Würfelexperiment 0,00 0,10 0,20 0,30 0,40 0 1 2 3 4 5 6 7 Bin 0,0 0,2 0,4 0,6 0,8 1,0 0 1 2 3 4 5 6 7 BinSum 2.5 Die Bernoulli-Formel 77 In E XCEL werden Bin- und BinSum-Werte mit BINOM.VERT ( k; n; p; c ) ermittelt. Das vierte Argument regelt mit c=0 oder c=1, ob Bin- oder BinSum-Werte berechnet werden. Man sollte sich die sehr hohe Wahrscheinlichkeit Prob(«bei 10mal würfeln gab es 𝐇𝐇Ö𝐂𝐂𝐇𝐇𝐂𝐂𝐂𝐂𝐆𝐆𝐆𝐆𝐂𝐂 5mal eine ⚅ ») = BinSum 16 ; 10 (5) ≈ 0.998 in aller Ruhe klarmachen. Tab 21: Weitere Eigenschaften der Bin-Verteilung (Abkürzung q: =1-p) Maximum k� �k� − n ∙ p� < 1 (→ Herleitungen) Symmetrie Bin p; n (k) = 〈p ↔ q ∩ k ↔ n − k〉 = Bin q; n (n − k) k-Rekursion Bin(k+1) Bin(k) = n−k k+1 ∙ pq (→ Herleitungen) n-Rekursion Bin p; n+1 (k) = p ∙ Bin p; n (k − 1) + q ∙ Bin p; n (k) Praxis der Stochastik: Überbuchte Flüge Fluggesellschaften (FG) stellen fest, dass von den Passagieren, die einen Flug buchen, oft nur ein Teil von p=95 … 100% den Flug auch wirklich antritt. Um eine möglichst vollständige Auslastung ihrer Flugzeuge zu erreichen, überbucht die FG ihre Flüge. Überbuchen heißt: Es werden mehr Tickets t verkauft als Sitzplätze s vorhanden sind: t>s. Erscheinen mehr Fluggäste als Sitzplätze vorhanden sind, dann werden sie gefragt, wer auf diesen Flug verzichten möchte. Zur Verlockung werden großzügige Entschädigungen angeboten z.B.  Preisnachlass für einen alternativen Flug,  ein Flug morgen nach einer großzügig bezahlten Übernachtung im Flughafenhotel. 78 2 Häufig- und Wahrscheinlichkeiten Wer zustimmt, wird umgebucht. Diese Taktik kann sich auf lange Sicht für die FG lohnen. Die Wahrscheinlichkeit p für das Erscheinen eines Passagiers muss jede FG aus ihrer langjährigen Erfahrung ermitteln. Je besser sie das wahre p trifft, umso besser bewährt sich ihre Taktik. Dieses p kann für unterschiedliche Flugarten (Economy, Business etc.) verschieden sein. Der CEO legt für einen Flug das p fest und lässt t≥s Tickets verkaufen. Er hat schon ein wenig stochastisches Denken gelernt und stellt seinem Chefmathematiker folgende Fragen: [a] „Mit welcher Zahl an erscheinenden Passagieren muss ich im Mittel rechnen“? [b] „Mit welcher Wahrscheinlichkeit bekommen alle erscheinenden Passagiere einen Sitzplatz“? [c] „Mit welcher Wahrscheinlichkeit muss mehr als ein Passagier umgebucht werden“? Der Mathematiker erkennt: Wenn jeder Passagier mit der gleichen Wahrscheinlichkeit p erscheint, dann ist das Erscheinen von k Passagieren eine k-fache Wiederholung eines ZuEx, also ein BeEx Prob(«von t Passagieren erscheinen genau k») = Bin p; t (k) Der Mathematiker sagt sich: Die Zahl Z der erscheinenden Passagiere ist eine typische ZuZa. Sie ist binomialverteilt. Damit beantwortet der Mathematiker die vom Chef gestellten Fragen wie folgt: [a] Erw Bin = p ∙ t [b] Prob(Z ≤ s) = BinSum p; t (s) [c] Prob(Z > s + 1) = 1 − Prob(Z ≤ s + 1) = 1 − BinSum p; t (s + 1) Der Mathematiker ist an seiner Karriere interessiert und übergibt seinem Chef eine E XCEL -Tabelle, mit der dieser ‚spielen‘ kann. 2.6 Die hypergeometrische Wahrscheinlichkeit 79 Tab 22: Überbuchte Flüge Die Berechnung in den Spalten [a], [b] und [c] [a] = p · t [b] = BINOM.VERT (s; t; p; 1) [c] = 1 - BINOM.VERT (s+1,t,p; 1) Der Chef kann nur in den dunkel hinterlegten Zellen Einträge machen; die restlichen sind schreibgeschützt. Die Spalte mit den Berechnungen bekommt der Chef natürlich nicht zu sehen. Der Chef ist trotzdem begeistert und erhöht spontan das Gehalt seines Mathematikers. Die Leistungen des Mathematikers,  Verteilung erkennen und festlegen (hier Bin),  Ereignisse definieren und ihre Wahrscheinlichkeiten berechnen, können als Modell für die Lösungen analoger Probleme (evt. verbunden mit Gehaltserhöhungen) dienen. 2.6 Die hypergeometrische Wahrscheinlichkeit In einem Parlament (z.B. Bundestag oder Landtag) gibt es unter N Abgeordneten K Katholiken. Es soll ein parlamentarischer Ausschuss mit n<N Mitgliedern gebildet werden. Das Parlament beschließt, den Ausschuss rein vom Zufall gesteuert zu bilden. Dazu werden in eine Urne N Kugeln gelegt, für jeden Abgeordneten eine mit seinem Namen. Die Kugeln werden je nach Religionszugehörigkeit gefärbt, Katholiken natürlich schwarz . Die Frage „Wie viele Katholiken sind im Ausschuss? “ kann niemand beantworten, wenn die Auswahl allein dem Zufall überlassen wird. Aber die Frage nach der Wahrscheinlichkeit Prob(«im Ausschuss sitzen genau k Katholiken») 80 2 Häufig- und Wahrscheinlichkeiten Plenum Ausschuss N=15 K=6 n=7 k=4 Abb 14: Die Hypergeometrische Wahrscheinlichkeit kann die Stochastik beantworten. Die Kombinatorik lehrt: Wenn aus N Parlamentariern n Ausschussmitglieder ausgewählt werden, dann gibt es dafür �𝑁𝑁𝐸𝐸 � Möglichkeiten. Wenn aus K Katholiken k UND aus (N-K) Nicht-Katholiken (n-k) ausgewählt werden, dann gibt es dafür �𝐵𝐵𝑘𝑘 � ∙ �𝑁𝑁 − 𝐵𝐵 𝐸𝐸 − 𝑘𝑘 � Möglichkeiten. Aus UND wurde mal wieder MAL. Bei einem LOTTO-Experiment kann wohl niemand ernsthaft an der L APLACE -Unterstellung, »alle Ergebnisse sind gleich wahrscheinlich« zweifeln. Mit L APLACE Prob = günstig möglich ⁄ wird Prob(«im Ausschuss sind genau k Katholiken») = Hyp N; K; n (k) ∶= �Kk� ∙ �N − K n − k � �Nn� � Diese Hyp-Verteilung hat drei Parameter N; K; n und ein Argument k. Alle vier sind ∈ℕ . Weiter ist Prob(«im Ausschuss sind höchstens k Katholiken») = HypSum N; K; n (k) ∶= � � Hyp N; K; n (i)� ki=0 Hyp und HypSum N= 100 K= 40 n= 20 k= 3 4 5 6 7 8 9 10 11 12 13 Hyp= 0,007 0,026 0,065 0,124 0,180 0,201 0,175 0,119 0,064 0,027 0,009 HypSum= 0,009 0,034 0,099 0,224 0,403 0,604 0,779 0,898 0,962 0,989 0,997 HYPGEOM.VERT(k; n; K; N; 0) HYPGEOM.VERT(k; n; K; N; 1) 2.6 Die hypergeometrische Wahrscheinlichkeit 81 Abb 15: Eine Visualisierung der hyper-geometrischen Verteilung Bin oder Hyp Bei der Ausschussbildung wird eine gezogene Kugel nicht wieder zurückgelegt. Die Wahrscheinlichkeit für schwarz im ersten Zug ist p=K/ N. Sie ändert sich aber bei jedem weiteren Zug, wenn nicht zurückgelegt wird. Würde man jede gezogene Kugel wieder zurücklegen, dann hätte man bei jedem Zug die gleiche Wahrscheinlichkeit p=K/ N für schwarz also eine Bin-Verteilung. Stichproben erfolgen i.d.R. ohne Zurücklegen. Zurücklegen ja 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝐾𝐾/ 𝑁𝑁; 𝑛𝑛 (𝑘𝑘) nein 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) = 𝐻𝐻𝑦𝑦𝑝𝑝 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (𝑘𝑘) Prob(Z=k) ist eine vorweggenommene Bezeichnung, die erst im Abschnitt →Zufallszahlen genau erklärt wird. Ein Bsp mit N=100; K=40; n=30; p=0.4 Abb 16: Ein Vergleich Bin oder Hyp 0,00 0,05 0,10 0,15 0,20 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Hyp | Bin 0,0 0,2 0,4 0,6 0,8 1,0 3 4 5 6 7 8 9 10 11 12 13 HypSum 0,00 0,05 0,10 0,15 0,20 3 4 5 6 7 8 9 10 11 12 13 Hyp 82 2 Häufig- und Wahrscheinlichkeiten Praxis der Stochastik: Deutscher Bundestag Der 19-te Deutsche Bundestag wurde 2017 gewählt und hat N=709 Mitglieder. Die Zahl der Katholiken war nicht zu ermitteln; aber die Zahl der Frauen F=219 (F/ N=31%). In den Ausschuss »Arbeit und Soziales« wurden n=46 Parlamentarier gewählt. Würde man den Ausschuss per LOTTO-Ziehung (politischer Blödsinn! ) bilden, dann könnte die Stochastik die Wahrscheinlichkeit für «f Frauen im n- Ausschuss» berechnen. Tab 23: Frauenanteil eines Bundestagsausschusses Tatsächlich ist der Frauenanteil in diesem Ausschuss mit f=27, also f/ n≈59%, überdurchschnittlich hoch. Rein stochastische hat f=14 die größte Wahrscheinlichkeit Hyp N; F; n (14) ≈ 13% . Der wirkliche Frauenanteil f=27 hat rein stochastisch nur eine sehr geringe Wahrscheinlichkeit von Hyp N; F; n (27) ≈ 0.0037% . 2.7 Die bedingte Wahrscheinlichkeit Ich beginne mit einem Urnenbeispiel: In zwei Urnen U 1; 2 befinden sich jeweils w 1; 2 weiße und s 1; 2 schwarze, also insgesamt k 1; 2 = s 1; 2 + w 1; 2 Kugeln. Abb 17: Zwei Urnen mit weißen und schwarzen Kugeln Man wählt verdeckt eine Urne und zieht daraus verdeckt eine Kugel. Man interessiert sich für die Wahrscheinlichkeit des Ereignisses: 19. Deutscher Bundestag 2017 N= 709 F= 219 n= 46 p=F/ N= 31% k^= 14 k= 8 10 12 14 16 18 20 22 24 27 Hyp= 1,5% 5,2% 10,4% 13,1% 10,7% 5,9% 2,2% 0,6% 0,1% 3,7E-05 w1 s1 U 1 w2 s2 U 2 2.7 Die bedingte Wahrscheinlichkeit 83 W: «die gezogene Kugel ist weiß» Wenn man wüsste, welche Urne gewählt wurde: U i ∶ «Urne i = 1,2 wurde gewählt» wäre die Antwort leicht: Prob U 1 (W) = w 1 k 1 und Prob U 2 (W) = w 2 k 2 Das Ereignis U i ist hier eine Bedingung der Wahrscheinlichkeit. Ich schreibe: 𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏 𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁 (𝐆𝐆𝐏𝐏𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐁𝐄𝐄), kurz 𝐏𝐏𝐏𝐏𝐏𝐏𝐏𝐏 𝐁𝐁 (𝐆𝐆) (1) Manche Autoren bevorzugen die Bezeichnung P(E|B); ich nicht. Es handelt sich bei diesem Bsp um ein 2-stufiges ZuEx. Zuerst kommt die »Wahl der Urne« mit dem Ereignis 𝑈𝑈 1; 2 , dann kommt das »Ziehen der Kugel« mit dem Ereignis E. Dieses Zuerst… dann… wird meiner Meinung nach durch 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 𝑈𝑈 𝑖𝑖 (𝐸𝐸) besser (anschaulicher, übersichtlicher) ausgedrückt als durch 𝑃𝑃(𝐸𝐸|𝑈𝑈 𝑖𝑖 ) . Dies ist Geschmackssache. Es entsteht die Frage nach Prob(W) d er Wahrscheinlichkeit für weiß ohne Bedingung. Das ist die Wahrscheinlichkeit für eine weiße Kugel, wenn man auch die Urnenwahl dem Zufall überlässt, also verdeckt wählt. Die Ereignis-Algebra sagt W = �U 1 ∩ W ����� A � ∪ �U 2 ∩ W ����� B � = A ⊔ B ��� disjunkt A ∩ B = (U 1 ∩ W) ∩ (U 2 ∩ W) = U 1 ∩ U 2 ����� ∅ ∩ W = ∅ Man kann nicht U 1 UND U 2 wählen. Der Additionssatz sagt Prob(W) = Prob(A ⊔ B) = Prob(A) + Prob(B) = Prob(U 1 ∩ W) + Prob(U 2 ∩ W) Erst im nächsten Bsp wird begründet, dass Prob(U ∩ W) = Prob(U) ∙ Prob U (W) . 84 2 Häufig- und Wahrscheinlichkeiten Damit folgt: Prob(W) = Prob(U 1 ) ������� 1 2 ⁄ ∙ Prob U 1 (W) + Prob(U 2 ) ������� 1 2 ⁄ ∙ Prob U 2 (W) = 12 ∙ �w 1 k 1 + w 2 k 2 � Dieses Prob(W) ist nicht-bedingt und wird totale Wahrscheinlichkeit genannt. Ein zweites Bsp soll die Begriffe bedingte und totale Wahrscheinlichkeit weiter erläutern. Beispiel: Rauchende Frauen N Personen werden befragt, ob sie rauchen oder nicht, und außerdem wird festgehalten, ob sie weiblich oder männlich sind. Mit einer geeigneten Strichliste erhält man als Ergebnis der Befragung vier Zahlen als absolute Häufigkeiten rf, rm, nf, nm, die in einer 4-Feldertafel übersichtlich dargestellt und ausgewertet werden: Tab 24: 4-Feldertafel der ‚rauchenden Frauen‘ Frau ↓ Mann ↓ ∑ → Raucher R → rf rm r = rf+rm Nichtraucher R� → nf nm n = nf+nm ∑↓ f = rf+nf m = rm+nm N = f+m = r+n Mit den Ereignissen F: «Frau», M: «Mann» und R: «Raucher» werden folgende relative Häufigkeiten definiert: relative Häufigkeiten H Frauen 𝐻𝐻(𝐹𝐹) = 𝐸𝐸 𝑁𝑁 ⁄ Männer 𝐻𝐻(𝑀𝑀) = 𝑚𝑚 𝑁𝑁 ⁄ rauchende Frauen 𝐻𝐻(𝐹𝐹 ∩ 𝑅𝑅) = 𝐸𝐸𝐸𝐸 𝑁𝑁 ⁄ 2.7 Die bedingte Wahrscheinlichkeit 85 rauchende Männer 𝐻𝐻(𝑀𝑀 ∩ 𝑅𝑅) = 𝐸𝐸𝑚𝑚 𝑁𝑁 ⁄ Raucher 𝐻𝐻(𝑅𝑅) = 𝐸𝐸 𝑁𝑁 ⁄ Nichtraucher 𝐻𝐻(𝑅𝑅�) = 𝐸𝐸 𝑁𝑁 = (𝑁𝑁 − 𝐸𝐸) 𝑁𝑁 ⁄ ⁄ Diese relativen Häufigkeiten sind alle nicht-bedingt , weil sie sich auf N, die Zahl der insgesamt Befragten beziehen. Wer sich aber für geschlechtliche Unterschiede interessiert, für den sind bedingte relative Häufigkeiten interessant. Man muss folgende (rel) Häufigkeiten unterscheiden: rauchende Frauen Frauen, die rauchen 𝐻𝐻(𝐹𝐹 ∩ 𝑅𝑅) = 𝐸𝐸𝐸𝐸 𝑁𝑁 ⁄ 𝐻𝐻 𝐹𝐹 (𝑅𝑅) = 𝐸𝐸𝐸𝐸 𝐸𝐸 ⁄ Das 𝐻𝐻 𝐹𝐹 (𝑅𝑅) ist bedingt, weil es sich nur auf den Frauenanteil bezieht. Mit etwas Bruchrechnen sind folgende Zusammenhänge leicht einzusehen: H(F ∩ R) = rf N = f N ∙ rf f = H(F) ∙ H F (R) (2) und H(R) = r N = rf + rm N = f N ∙ rf f + mN ∙ rm m = H(F) ∙ H F (R) + H(F�) ∙ H F� (R) , (3) wobei ich einen »Mann« als »Nicht-Frau«  bezeichnet habe: M = F� . Da Wahrscheinlichkeiten empirisch aus relativen Häufigkeiten gewonnen werden, wird dies eins-zu-eins auf Wahrscheinlichkeiten übertragen Merkspruch Aus U∩D wird MAL, aber bedingt Formel Prob(B ∩ E) = Prob(B) ∙ Prob B (E) 86 2 Häufig- und Wahrscheinlichkeiten Für Axiomatiker wie K OLMOGOROV ist Prob B (E) ∶≝ Prob(B∩E) Prob(B) ≠0 (4) schlicht eine Definition . Da die UND-Verknüpfung kommutativ ist, kann man vertauschen B↔E und erhält die Formel von B AYES Prob(B) ∙ Prob B (E) =⏟ B↔E Prob(E) ∙ Prob E (B) (5) Aus (3) wird so: Die totale Wahrscheinlichkeit Prob(E) = Prob(B) ∙ Prob B (E) + Prob(B�) ∙ Prob B� (E) Sie berechnet die nicht-bedingte=totale Wahrscheinlichkeit aus bedingten Wahrscheinlichkeiten. Auch für bedingte Wahrscheinlichkeiten gilt die bekannte Formel: Prob B (E�) = 1 − Prob B (E) (6) Der Beweis geht aus von einem Mengendiagramm. B = �(B ∩ E�) ⊔ (B ∩ E)� und (B ∩ E�) ∩ (B ∩ E) = ∅ Prob(B) = Prob �(B ∩ E�) ⊔ (B ∩ E) ������������� disjunkt � = Prob(B ∩ E�) + Prob(B ∩ E) = Prob(B) ∙ Prob B (E�) + Prob(B) ∙ Prob B (E) Nach einer Division mit Prob(B) ≠ 0 folgt (6). Die UND-Formel kann auf drei Ereignisse verallgemeinert werden: E B B ∩ E� B ∩ E Ω 2.7 Die bedingte Wahrscheinlichkeit 87 Prob �A ∩ B ��� D ∩ C� = Prob(D) ∙ Prob D (C) = Prob(A) ∙ Prob A (B) ∙ Prob A∩B (C) Eine Verallgemeinerung auf mehr als 3 Ereignisse sollte kein Problem sein. Verallgemeinerung der bedingten und totalen Wahrscheinlichkeit auf mehrere Bedingungen Man kann die oben geschilderte Raucherbefragung auch so durchführen, dass man nicht das Geschlecht, sondern den Familienstand = {ledig, verheiratet, geschieden, verwitwet} = {L, V, G, W} unterscheidet. Die vier Familienstände bilden wie Frau und Mann eine sog. paarweise disjunkte Zerlegung der Ergebnismenge Ω. Dabei sind die jeweiligen Schnittmengen leer; z.B. ist L ∩ V = ∅ , und die Vereinigung aller ergibt die gesamte Ergebnismenge L ⊔ V ⊔ G ⊔ W = Ω . Wählt man neutrale Bezeichnungen für solch eine Zerlegung und verallgemeinert die Bezeichner, so findet man paarweise disjunkte Zerlegung B i ∩ B k = ∅ und B 1 ⊔ B 2 ⊔ … ⊔ B n = Ω bedingte Wahrscheinlichkeit Prob B i (E) = Prob(B i ∩ E) Prob(B i ) Ω B 1 B 2 B 3 B 4 E B 1 ∩E 88 2 Häufig- und Wahrscheinlichkeiten Satz von B AYES Prob(E) ∙ Prob E (B i ) = Prob(B i ) ∙ Prob B i (E) totale Wahrscheinlichkeit Prob(E) = ��Prob(B i ) ∙ Prob B i (E)� i Abb 18: Eine 4-fache Zerlegung in paarweise disjunkte Ereignisse B i Unabhängige Ereignisse Oft kann man zwei Ereignisse als unabhängig ansehen. Einfache Beispiele (vermeintlich) unabhängiger Ereignisse: mehrmaliges Würfeln mit dem gleichen Würfel; Würfeln mit zwei Würfeln; mehrmaliges Schießen auf eine Scheibe. Vorsicht beim Schießen! Beim mehrmaligen Schießen könnte es sein, dass erste Misserfolge den Schützen nervös machen und seine Treffsicherheit bei nachfolgenden Schüssen beeinflussen. Dann wären nachfolgende Schüsse vom Ergebnis der ersten Schüsse NICHT unabhängig. Etwas an den Haaren herbei Gezogenes: Man könnte einen Würfel bauen, der beim Werfen seinen Schwerpunkt verändert, und zwar je nach Ergebnis unterschiedlich. Dabei wäre Ingenieurskunst gefragt. Dann würde der zweite Wurf vom Ergebnis des ersten Wurfs beeinflusst und beide Würfe wären nicht mehr unabhängig! Zwei Ereignisse A und B heißen unabhängig, wenn in der allgemeinen Formel Prob(A ∩ B) = Prob(A) ∙ Prob A (B) die Bedingung entfällt; d.h. wenn Prob(A ∩ B) = Prob(A) ∙ Prob(B) Beachtung verdient: Die Unabhängigkeit von Ereignissen ist keine Eigenschaft der Ereignisse alleine, ihre Wahrscheinlichkeiten Prob gehen mit in die Definition ein. Ein weiteres Bsp: Bei einer Musterung werden Größe (A) und Gewicht (B) der Rekruten erfasst. Da größere Menschen auch schwerer sind, ist keine Unabhängigkeit zu erwarten. 2.7 Die bedingte Wahrscheinlichkeit 89 Praxis der Stochastik: Eine klassische Aufgabe Ein Industrieprodukt wird von drei Lieferanten A, B, C geliefert. Jeder Lieferant hat einen gewissen Anteil an der Gesamtlieferung und einen eigenen Ausschuss an defekten Produkten. Die Zahlenwerte sind in der Tabelle unten gegeben. Es stellen sich zwei Fragen: a) Mit welchem Ausschuss ist insgesamt zu rechnen? b) Ein der Gesamtlieferung entnommenes Produkt ist defekt. Mit welcher Wahrscheinlichkeit wurde es von A, B oder C geliefert? Zur Beantwortung betrachtet man die Ereignisse A i : «das Produkt stammt von Lieferant A, B, C» und D: «das Produkt ist defekt» a) ist die Frage nach der totalen Wahrscheinlichkeit für das Ereignis D Prob(D) = � �Prob(A i ) ∙ Prob A i (D)� i = 3.7% b) ist die Frage nach 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 𝐷𝐷 (𝐴𝐴 𝑖𝑖 ) und ist mit B AYES zu beantworten: Prob D (A i ) = Prob(A i ) ∙ Prob A i (D) ��������������� gegeben Prob(D) ������� total � = 27.0%|32.4%|40.5% Tab 25: Ein Bsp zur bedingten und totalen Wahrscheinlichkeit Die Frage a) kann man allein mit dem „gesunden Menschenverstand“ beantworten, indem man 1 000 Produkte ins Auge fasst. Die Antwort b) benötigt schon etwas Stochastik-Wissen. Bei der Lösung eines Stochastikproblems sollte man unbedingt Ereignisse glasklar definieren und dann die richtigen Formeln verwenden. 90 2 Häufig- und Wahrscheinlichkeiten 2.8 Ereignisbäume Man kann mehrstufige ZuEx sehr anschaulich mit Ereignisbäumen visualisieren. Ich behandle das Thema Ereignisbäume nur sehr kurz, weil ich ihre Bedeutung für Stochastiklösungen für gering erachte. In den Rechtecken stehen Ereignisse. An den Pfeilen stehen (bedingte) Wahrscheinlichkeiten. Bedingungen kommen zuerst. Längs eines Pfades muss man die Wahrscheinlichkeiten multiplizieren: P(B ∩ E) = P(B) ∙ P B (E). Für die totale Wahrscheinlichkeit eines Ereignisses E muss man alle Zweige mit E in der Endzeile addieren: P(E) = P(B ∩ E) + P(B� ∩ E) Abb 19: Ein zweistufiges ZuEx visualisiert mit einem Ereignisbaum Achtung Gartenfreunde: Man kann die Graphik des gezeigten Ereignisbaums als sein ‚unterirdisches Wurzelwerk‘ ansehen oder annehmen, dass er mit seinem ‚überirdischen Blätterwerk‘ auf dem Kopf steht. Es gibt auch die ‚liegende‘ Variante. Eine Erfahrung mit einigen (nicht wenigen) meiner Studenten: Ihr Mathelehrer hatte offensichtlich das Thema ‚Ereignisbäume‘ als Hobby und sie vermissten in meiner Vorlesung eine ähnliche Begeisterung für dieses Thema. Ich glaube, Ereignisbäume sind sehr anschaulich, keine Frage. Aber: Bei der Lösung einer (Klausur-) Aufgabe ist ihre Zeichnung zeitraubend. Lösungen mit (den richtigen) Stochastikformeln und geeigneten Abkürzungen führen (meiner Meinung nach! ) ohne Ereignisbaum oft schneller zur Lösung. B B� B ∩ E B ∩ E� 𝐵𝐵� ∩ 𝐸𝐸 𝐵𝐵� ∩ 𝐸𝐸� 𝑃𝑃 𝐵𝐵� 𝑃𝑃 𝐵𝐵 𝑃𝑃 𝐵𝐵 𝐸𝐸 𝑃𝑃 𝐵𝐵 𝐸𝐸� 𝑃𝑃 𝐵𝐵� 𝐸𝐸 𝑃𝑃 𝐵𝐵� 𝐸𝐸� 2.8 Ereignisbäume 91 Ein weiteres Urnenbeispiel: Abb 20: Eine Urne mit b blauen, g gelben, r roten Kugeln (k=b+g+r) Der Urne werden nacheinander zwei Kugeln ohne Zurücklegen entnommen. Mit einfachen, aber naheliegenden Bezeichnungen ist:  Prob(«zuerst blau») = P(b) = bk  Prob(«rot nach blau») = P b (r) = r k−1  Prob(«blau nach blau») = P b (b) = b−1 k−1 Ich verwende eine sehr verkürzte Schreibweise und hoffe auf Verständnis. Abb 21: Ein Ereignisbaum zum Urnenproblem b g r b g r b g r b g r b g r Zug 1 Zug 2 Pb(b) Pb(g) Pb(r) Pg(b) Pg(g) Pg(r) Pr(b) Pr(g) Pr(r) P(b) P(g) P(r) P(bb)=P(b)·Pb(b) P(bg)=P(b)·Pb(g) P(gb)=P(g)·Pg(b) 92 2 Häufig- und Wahrscheinlichkeiten In den abgerundeten Rechtecken stehen Ereignisse . An den Verbindungspfeilen stehen Wahrscheinlichkeiten , die ich kurz mit P bezeichne. Die bekannte Formel Prob(A ∩ B) = Prob(A) ∙ Prob A (B) „U∩D gibt MAL aber bedingt“ führt hier auf die Pfadregel, die besagt, dass man die einzelnen Wahrscheinlichkeiten multiplizieren muss. Um die Wahrscheinlichkeit Prob(«die zweite Kugel ist blau») = P(bb ∪ gb ∪ rb) = P(b) ∙ P b (b) + P(g) ∙ P g (b) + P(r) ∙ P r (b) zu berechnen, muss man die entsprechenden Produkte der Ereignisse b nach dem zweiten Zug im Baum addieren. Dies ist die Formel der nicht-bedingten, totalen Wahrscheinlichkeit. P(bb ∪ gb ∪ rb) = bk ∙ b − 1 k − 1 + g k ∙ b k − 1 + r k ∙ b k − 1 = b ∙ (b − 1 + g + r) k ∙ (k − 1) = bk Dazu noch ein Bsp: Prob(«beide Kugeln haben die gleiche Farbe») = P(bb ∪ gg ∪ rr) = P(b) ∙ P b (b) + P(g) ∙ P g (g) + P(r) ∙ P r (r) = bk ∙ b − 1 k − 1 + g k ∙ g − 1 k − 1 + r k ∙ r − 1 k − 1 = b 2 + g 2 + r 2 − k k ∙ (k − 1) Etwas Kurioses: Das Ziegenproblem Quelle [16] Ein Kandidat (K) eines Ratespiels kann in einer allerletzten Runde seinen endgültigen Gewinn bestimmen. Er wird vor 3 Türen gestellt und erfährt, dass hinter einer der 3 Türen der Hauptgewinn A (ein Auto, ein Ferrari) versteckt ist und hinter den anderen beiden je ein Trostpreis Z (eine Ziege). Der Kandidat soll nun seinen Gewinn (A oder Z) bestimmen, in dem er eine der 3 Türen wählt. Nach dieser K-Wahl öffnet der Moderator (M) eine der beiden anderen Türen, hinter der eine Ziege steht. Der Moderator weiß 2.8 Ereignisbäume 93 natürlich, was hinter jeder Tür verborgen ist. Jetzt sind nur noch zwei Türen verschlossen. Der Moderator überlässt nun dem Kandidaten die Möglichkeit, zu wechseln, also die andere Tür zu wählen. Es entsteht die Frage: Soll der Kandidat wechseln? Manche lassen sich zu der falschen Antwort verführen: Nach der M-Aktion befinden sich hinter den beiden noch verschlossenen Türen das A und eine Z je mit der Wahrscheinlichkeit ½. Somit hat ein Wechsel oder kein Wechsel die gleiche Wahrscheinlichkeit. Der Ablauf wird durch einen simplen Ereignisbaum erläutert. Bei seiner ersten Wahl trifft der Kandidat die A- oder eine Z-Tür mit den Wahrscheinlichkeiten 1/ 3 oder 2/ 3. Bei der Z-Wahl des Kandidaten mit 2/ 3 kann der Moderator nur die andere Z-Türe öffnen. Also steht hinter der nicht gewählten und nicht geöffneten Tür mit Sicherheit das Auto A. Man erkennt, dass der Kandidat das Auto A ohne Wechsel mit der Wahrscheinlichkeit 1/ 3 und mit Wechsel mit der doppelten Wahrscheinlichkeit 2/ 3 erhält. Man muss dem Kandidaten empfehlen: Wechsle! 3 Zufall, Erwartung und Verteilung 3.1 Zufallszahlen Manchmal werden den Ereignissen eines ZuEx Zahlen zugeordnet. Ein Bsp: Tab 26: Ein Bsp einer Zufalls-Zahl (ZuZa) beim ZuEx ist einem Ereignis zugeordnet die ZuZa AugenSumme 2Würfel ⚂ ⚅  Z=9 ZuEx: Zufalls − Ereignis E ⊆ Ω wird zugeordnet �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� ZufallsZahl Z ∈ ℝ Ich spreche von Zufallszahlen, kurz ZuZa, und mein Lieblingsbezeichner dafür ist Z . Manche Autoren sprechen auch von Zufallsvariablen und viele bevorzugen X als deren Bezeichner. Beispiele für ZuZa von populären ZuEx:  ein Würfelspieler zählt, wie oft er die ⚅ gewürfelt hat  ein Biathlet zählt, wie oft er getroffen hat  eine Radarfalle der Polizei misst Geschwindigkeiten  bei einer Musterung werden Größe und Gewicht eines Rekruten gemessen Beim Würfelspiel und beim Biathlon kann es nur ganze (=diskrete) Zahlen 0, 1, 2, ... geben. Bei der Radarfalle und der Musterung ist eine beliebige Genauigkeit der Messwerte mit Kommazahlen denkbar. Es gibt daher zwei Arten von ZuZa: 96 3 Zufall, Erwartung und Verteilung diskret: Zϵℤ und stetig: Zϵℝ Manche nennen stetig (mit einer gewissen Berechtigung) auch kontinuierlich. Ich betrachte zunächst nur diskrete ZuZa und erst später stetige. Man sollte bei den letzten beiden Beispielen beachten, dass in der Stochastik neben den gemessenen Werten (Geschwindigkeit, Größe und Gewicht) vor allem ihre Häufigkeiten von Interesse sind. Beim Definieren von ZuZa kann eine gewisse Willkür vorliegen. Dies soll am ZuEx »2Würfel« erläutert werden. Man kann den Ereignissen zuordnen Z = AugenSumme ∈ AS = {2,3, … ,12} |AS| = 11 Z = AugenProdukt ∈ AP = {1,2, … ,36} |AP| = 18 Z = |AugenDifferenz| ∈ AD = {0,1,2,3,4,5} |AD| = 6 Beim Augenprodukt ist zu beachten, dass nur die Zahlen in Frage kommen, die nur Primfaktoren <7 haben. Bei der Augendifferenz ist der Betrag |2-3|=|3-2|=1 gemeint. Die folgenden Bsp sollen zeigen, dass solche Zuordnungen in einem Bereich von naheliegend bis willkürlich liegen können. ZuEx: »Glücksspiel« → Z=Gewinn willkürlich Bei Glücksspielen wie Würfeln, Roulette, TOTO, LOTTO, … wird einem Ereignis ein Gewinn Z in € gemäß den Spielregeln recht willkürlich zugeordnet. ZuEx: »Klausur« → Z=Note etwas willkürlich Die Leistung einer Klausur wird mit einer Note, einer ZuZa beurteilt. Natürlich ist es fragwürdig, das Schreiben einer Klausur, als Zufallsexperiment zu bezeichnen! BeEx: »n-maliges Wiederholen des gleichen ZuEx« → Z=Zahl der Erfolge fast zwingend B ERNOULLI ‘s berühmte Erkenntnis ist 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) 3.1 Zufallszahlen 97 ZuEx: Werfen eines Reißnagels → Z=? Abb 22: Seiten- und Rückenlage eines geworfenen Reißnagels Es macht wenig Sinn, den beiden Ereignissen (Seiten- und Rückenlage) eine ZuZa zuzuordnen. Eine solche Zuordnung wäre äußerst willkürlich. Versuche mit Reißnägeln sollen (anscheinend) erbracht haben, dass Prob(SL)=60% und Prob(RL)=40% ist. Beide elementaren Wahrscheinlichkeiten sind interessant, haben aber NICHTS mit einer ZuZa zu tun. Histogramme Bsp: Radarfalle Das Protokoll einer Radarfalle (100m hinter dem Ortsschild) könnte wie folgt aussehen: Abb 23: Die Messergebnisse einer Radarfalle Es zeigt die absoluten n i und relativen Häufigkeiten h i =n i / ∑n i der gemessenen Geschwindigkeiten x i (immer in km/ h). Im Intervall x=50-69 ist eine Auflösung von ∆x=5 protokolliert. Jemand (z.B. ein Verkehrspsychologe) möchte nun diese Häufigkeiten mit z.T. feinerer Auflösung haben. Aus den Protokollen der Polizei ist diese feinere Auflösung von ∆x=1 zu ermitteln. SL RL 0,0 0,1 0,2 0,3 <50 50-54 55-59 60-64 65-69 >69 rel.Häufigkeiten h 98 3 Zufall, Erwartung und Verteilung Tab 27: Die Messergebnisse mit feinerer Auflösung Man beachte: Es gibt unterschiedliche Breiten von Intervallen: ∆x i =3,2,5,1,1,1,1,1,5 . Stabdiagramme für n oder h sind bei unterschiedlichen ∆x-Intervallen nicht sinnvoll. Abb 24: Häufigkeit und Häufigkeitsdichte Das h-Stabdiagramm suggeriert den falschen Eindruck, dass Werte im Bereich 60 … 65 gering waren. Besser ist es, rel. Häufigkeiten auf das Intervall zu beziehen, also Häufigkeitsdichten f i = h i ∆x i ⇒ h i = f i ∙ ∆x i (2) zu bilden. Aber selbst das f-Stabdiagramm vermittelt noch einen falschen Eindruck, weil es graphisch nicht die unterschiedliche Auflösung ∆x i berücksichtigt. Häufigkeiten h i können nach (2) als 0,0 0,1 0,2 0,3 <50 50-52 53-54 55-59 60 61 62 63 64 65-69 >69 rel.Häufigkeiten h 0,00 0,02 0,04 0,06 0,08 50-52 53-54 55-59 60 61 62 63 64 65-69 >69 Häufigkeitsdichten f 3.1 Zufallszahlen 99 Rechtecke der Höhe f i und der Breite ∆x i angesehen werden. Sie werden sehr anschaulich durch ein Histogramm visualisiert: Abb 25: Ein Histogramm der Häufigkeitsdichte f Die unterschiedlichen Auflösungen ∆x i sind optisch sehr schön zu erkennen. Relative Häufigkeiten h für ein größeres Intervall berechnet man als Summe über solche Rechtecke h(a ≤ x < b) = ∑ {f i ∙ ∆x i } i (3) Dazu ein Bsp mit Werten der oben geschilderten Radarfalle: h(53 ≤ x < 63) = 0.010 ∙ 2 + 0.038 ∙ 5 + 0.056 ∙ 1 + 0.058 ∙ 1 + 0.058 ∙ 1 = 0.382 Stetige Zufallszahlen Ich verfolge die Wahrscheinlichkeitsdichte f weiter, beschränke mich aber auf eine einheitliche Auflösung ∆x. Abb 26: Ein Histogramm der Häufigkeitsdichte f f x 100 3 Zufall, Erwartung und Verteilung Die oberen Mittelpunkte der Rechtecke der diskreten Häufigkeitsdichten wurden mit einer stetigen Funktion f(x) verbunden. Wen dieses Bild an die Einführung des Integralbegriffs erinnert, der liegt vollkommen richtig. Bei immer feiner werdender Auflösung ∆x → 0 wird aus der Summe (3) das Integral ∑ {f i ∙ ∆x i } i ∆x i →0 �⎯⎯� ∫{f(x) ∙ dx} (4) Aus den diskreten Häufigkeitsdichten f i wird die stetige Häufigkeits-Dichte f(x). Manche nennen stetig mit einer gewissen Berechtigung auch kontinuierlich. Häufigkeitsdichten f sind keine Häufigkeiten, aber man kann mit ihnen Häufigkeiten berechnen. Bei einer stetigen ZuZa kann man Häufigkeiten nur für ein Intervall angeben: h(a < Z < b) = ∫ {f(x) ∙ dx} b a (5) Häufigkeitsdichten stetiger ZuZa haben noch eine verblüffende Eigenschaft. Fragt man bei der Radarfalle nach der Zahl der Fahrzeuge, die mit x = 65,432 km/ h erwischt wurden, dann kann die Antwort nur KEI- NES lauten. Wenn es doch eines gegeben haben sollte, dann braucht man nur die Zahl der Nachkommastellen zu steigern, um einzusehen, dass für stetige ZuZa (vielleicht etwas verblüffend) gilt h(Z = x) = 0 (6) Wenn man von Häufigkeiten zu Wahrscheinlichkeiten stetiger ZuZa übergeht, dann verlangt die Axiomatik (K OLMOGOROV ): Wahrscheinlichkeitsdichten Bei stetigen ZuZa muss für weitere stochastische Überlegungen die Wahrscheinlichkeitsdichte f(x) gegeben sein. Sie darf nicht negativ und muss normiert sein: f(x) ≥ 0 und ∫ {f(x)} alle x ≜ 1 3.2 Verteilungen 101 Wahrscheinlichkeiten von stetigen ZuZa gibt es nur für Intervalle Prob(a < x ≤ b) = � {f(x)} b a Solch stetige Wahrscheinlichkeitsdichten f sind etwas Abstraktes, man kann sie meist nicht komplett messen. Man kann bestenfalls einige diskrete Werte messen und f dann als glatte, stetige Funktion durch die Messpunkte legen, ähnlich wie bei der Regression. Oft ergibt sich das f(x) aus allgemeinen theoretischen Überlegungen, wie z.B. bei der Normalverteilung (→ Abschnitt 3.6). Der Übergang diskret → stetig wird bei Bin → Norm noch eine große Rolle spielen. Eine ganz allgemeine mathematische Einsicht ist, dass manchmal das analoge stetige Problem einfacher als das diskrete zu lösen ist. So sind z.B. die diskreten Summen ∑ {𝐸𝐸 𝑘𝑘 } 𝑖𝑖 für k≠0; 1 nicht einfach zu berechnen, aber das analoge stetige Integral �{ 𝑍𝑍 𝐸𝐸 } = � 𝑍𝑍 𝐸𝐸+1 ( 𝐸𝐸 + 1 ) ⁄ 𝐸𝐸ü𝐸𝐸 𝐸𝐸 ≠ −1 ln | 𝑍𝑍 | 𝐸𝐸ü𝐸𝐸 𝐸𝐸 = −1 � ist für ALLE r ∈ℝ (! ) kein Problem. 3.2 Verteilungen Wenn man Ereignissen eine ZuZa Z zuordnet, dann gibt es neue, sog. ZuZa-Ereignisse der Art «Z=3» «Z=k» «Z>5» «Z≤k» usw. Solche ZuZa-Ereignisse haben ZuZa-Wahrscheinlichkeiten wie z.B. Prob(«Z = 3») 102 3 Zufall, Erwartung und Verteilung Ich vereinfache meist die Bezeichnung: Prob(«Z = 3») → 〈 einfacher 〉 → Prob(Z = 3) . Fasst man bei dem ZuZa-Ereignis «Z=k» ALLE möglichen k-Werte ins Auge, dann spricht man von einer Verteilung . Der Begriff Verteilung hat eine etwas andere Bedeutung. - Bei diskreten ZuZa ist sie: die Wahrscheinlichkeit Prob(Z=k) - Bei stetigen ZuZa ist sie: die Wahrscheinlichkeitsdichte f(x) In beiden Fällen werden alle möglichen k|x-Werte ins Auge gefasst. Die ZuZa Z kann diskret oder stetig sein. Ich betone diesen Unterschied oft dadurch, dass ich z anders bezeichne: z diskret → k und z stetig → x. Der Begriff Verteilung macht auch (schon) für Häufigkeiten einen Sinn. So kann ein Lehrer die Verteilung seiner 6 Noten auf 20 Klassenarbeiten wie folgt angeben: Der Lehrer wird die n k -Tabelle bevorzugen, die Stochastik bevorzugt die h k -Tabelle mit h k = n k / ∑ {n i } alle i . 0 1 2 3 4 5 6 1 2 3 4 5 6 nk 0,0 0,1 0,2 0,3 1 2 3 4 5 6 hk 3.2 Verteilungen 103 Neben der eigentlichen Verteilung Prob(Z = z) wird auch oft noch die sog. Verteilungsfunktion Prob(Z ≤ z) betrachtet. P(k) ∶= Prob(Z = k) F(k) ∶= Prob(Z ≤ k) ≡ ProbSum(k) Stabdiagramm Treppendiagramm Abb 27: Verteilung P und Verteilungsfunktion F diskret 𝐸𝐸(𝑍𝑍) > 0 ≠ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑍𝑍) = 0 𝐹𝐹(𝑍𝑍) ∶= 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝑍𝑍) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃𝑃𝑃𝑧𝑧𝑚𝑚(𝑍𝑍) zwei stetige Funktionsgraphen Abb 28: Wahrscheinlichkeitsdichte f und Verteilungsfunktion F stetig Die Verteilungsfunktion F ist immer monoton wachsend; d.h. F(b > a) ≥ F(a) . Die Tatsache, dass für stetige ZuZa Z immer Prob(Z = x) = 0 ist, hat die angenehme Folge, dass man bei ZuZa-Wahrscheinlichkeiten für stetige ZuZa (aber nur bei diesen! ) die Ungleichheitszeichen < und ≤ sowie > und ≥ NICHT unterscheiden muss. Die beiden wichtigen Stochastikbegriffe: Verteilung und Verteilungsfunktion sind also ZuZa-Wahrscheinlichkeiten , wobei immer an alle möglichen Z-Werte gedacht wird. Z k P(k) Z k F(k) 1 104 3 Zufall, Erwartung und Verteilung Man kann bedauern, dass für zwei wichtige Stochastikfunktionen Wahrscheinlichkeitsdichte und Verteilungsfunktion so schlichte Alle- Welt-Bezeichner wie f und F als Abkürzungen verwendet werden. Aber es ist unausrottbare Tradition. Ich bevorzuge (klein) k für irgendeinen der möglichen Z-Werte einer diskreten und (klein) x für einen möglichen Wert einer stetigen ZuZa. Bei Aussagen, bei denen Z stetig ODER diskret sein kann, verwende ich (klein) z für einen konkreten Z-Wert. Manche Autoren verwenden f(k) auch für diskrete ZuZa; ich NICHT. Ich verwende die Abkürzung P(k) ∶= Prob(Z = k) nur für die Verteilung diskreter ZuZa und f(x) nur für die Wahrscheinlichkeitsdichte stetiger ZuZa. Das in der Literatur weit verbreitete P() für die allgemeine Wahrscheinlichkeit hat also bei mir nur die angegebene enge Bedeutung. Meine sicher etwas gewöhnungsbedürftige Bezeichnung ProbSum verwende ich wie folgt: ProbSum(k) ∶= Prob(Z ≤ k) = � �Prob(Z = i) ��������� P(i) � alle i≤k Bei stetigen ZuZa muss man die Summe durch ein Integral ersetzen. ProbSum(x) ∶= Prob(Z ≤ x) = � {f(t)} alle t≤x Dabei habe ich das Differential dt ‚schlampig‘ weggelassen. Dies, um die Ähnlichkeit mit der diskreten Summe zu visualisieren. Ich werde dies immer mal wieder tun, ich hoffe, das stiftet keine Verwirrung. In beiden Fällen ist ProbSum(a … b) ∶= Prob(a < Z ≤ b) = ProbSum(b) − ProbSum(a) Man kann alle diskrete ZuZa-Wahrscheinlichkeiten auf die Verteilungsfunktion F zurückführen. Bsp: Prob(Z = k) = Prob(Z ≤ k) − Prob(Z ≤ k − 1) = ProbSum(k − 1 … k) = F(k) − F(k − 1) Prob(Z > k) = 1 − Prob(Z ≤ k) = 1 − ProbSum(k) = 1 − F(k) 3.2 Verteilungen 105 Prob(a < Z ≤ b) = Prob(Z ≤ b) − Prob(Z ≤ a) = ProbSum(a … b) = F(b) − F(a) Bei stetigen ZuZa ist zu beachten, dass Prob(Z = x) = 0 und es Wahrscheinlichkeiten nur für Intervalle Prob(u < Z < v) = ∫ {f(x)} v u = F(v) − F(u) gibt. Angenehm dabei ist, dass man < und ≤ nicht unterscheiden muss. Beispiel Es wird mit einem Würfel gewürfelt bis zum Eintreffen der ersten ⚅ , aber höchstens m-mal. Die ZuZa Z zählt die Würfe. Es sind zwei Verläufe denkbar:  Die erste ⚅ trat beim k-ten Versuch ein, mit k<m  Bei den ersten (m-1) Versuchen gab es keine ⚅ ; das Ergebnis des m-ten Versuchs ist belanglos, da auf jeden Fall abgebrochen wird. Mit p = 1 6 ⁄ und q ≔ 1 − p = 5 6 ⁄ wird Prob(Z = k) ≡ P(k) = �q k−1 ∙ p k < m) q m−1 k = m � Prob(Z ≤ k) ≡ F(k) = � {P(i)} ki=1 Für m=10 findet man so Abb 29: Würfeln bis zu einer 6, aber höchstens 10 mal 0,00 0,05 0,10 0,15 0,20 1 2 3 4 5 6 7 8 9 10 P(k) 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 F(k) 106 3 Zufall, Erwartung und Verteilung Den Peak bei k=m=10 kann man verstehen, wenn man bedenkt, dass beim letzten Wurf ALLE Ergebnisse ⚀ , …, ⚅ möglich sind. P(k) ist normiert � {𝑃𝑃(𝑘𝑘)} =⏟ 𝑗𝑗=𝑘𝑘−1 𝑝𝑝 ∙ � �𝑞𝑞 𝑗𝑗 � 𝑚𝑚−2 𝑗𝑗=0 ������� 𝑔𝑔𝑎𝑎𝑔𝑔.𝑅𝑅𝑎𝑎𝑖𝑖ℎ𝑎𝑎 𝑚𝑚𝑘𝑘=1 + 𝑞𝑞 𝑚𝑚−1 = 𝑝𝑝 ∙ (1 − 𝑞𝑞 𝑚𝑚−1 )/ (1 − 𝑞𝑞) ����� 𝑝𝑝 + 𝑞𝑞 𝑚𝑚−1 = 1 Lässt man die Einschränkung „aber höchstens m-mal“ fallen, dann ist ein beliebig großes m möglich und Prob(Z = k) ≡ P(k) = q k−1 ∙ p mit k = 1,2, … , ∞ . Die Normiertheit bleibt erhalten: � [𝑃𝑃(𝑘𝑘)] = 𝑝𝑝 ∙ � [𝑞𝑞 𝑗𝑗 ] ∞𝑗𝑗=0 ������� 𝑔𝑔𝑎𝑎𝑔𝑔.𝑅𝑅𝑎𝑎𝑖𝑖ℎ𝑎𝑎 ∞𝑘𝑘=1 = 𝑝𝑝/ (1 − 𝑞𝑞) ����� 𝑝𝑝 = 1 Es fällt (emotional) immer wieder schwer einzusehen, dass es für die ZuZa Z im Prinzip keine Obergrenze gibt! Man muss sich an die „Denke“ der Stochastik gewöhnen. Sie behauptet, dass es möglich ist, dass jemand nach 10-, 100-, 1000-mal würfeln keine ⚅ gewürfelt hat! Sie sagt aber auch, dass dies äußerst unwahrscheinlich ist. 𝑃𝑃(𝑘𝑘) = � 56 � 𝑘𝑘 k= 1 10 100 1 000 … P(k)= 0,833 0,162 1,2E-08 6,6E-80 Wenn jeder der ca. 7 Mrd. Erdbewohner (2020) 100-mal würfelt, dann ist es sehr wahrscheinlich, dass 7 ∙ 10 9 ∙ 1.2 ∙ 10 −8 ≈ 84 Erdbewohner keine ⚄ gewürfelt haben. Quantile Ich nenne ein Quantil schlicht eine invProbSum. ProbSum(𝐳𝐳 = ? ) = PS = gegeben ⇒ 𝐳𝐳 = invProbSum(PS) = ein „Quantilʺ E XCEL bietet für alle wichtigen Verteilungen diese invProbSum an; z.B. BINOM.INV,NORM.INV 3.2 Verteilungen 107 ProbSum-Funktionen sind immer monoton wachsend und haben die Obergrenze 1. Bei stetigen ZuZa ist die Inversion kein Problem, da ProbSum immer streng monoton wächst. Bsp: NormSum Abb 30: Quantil stetig Mit der NormSum als Bsp habe ich auf die Normalverteilung (→ Abschnitt 3.6) vorgegriffen. Aber bei diskreten ZuZa ist ProbSum treppenartig und daher ist die Inversion ein (kleines) Problem. Abb 31: Quantil diskret am Bsp invBinSum Das Problem BinSum 0.4; 20 (k =? ) = 0.6 kann nur mit zwei Ungleichungen beantwortet werden: BinSum(k < 9) < 0.6 < BinSum(k ≥ 9) Eine Antwort k=8.3 wäre unsinnig. E XCEL bietet BINOM.INV (n; p; BS) an, obwohl Bin diskret ist. Bsp: BINOM.INV (20; 0.4; 0.6)=9. Dies macht ein Durchsuchen der Bin- Sum-Tabelle überflüssig, ProbSum(x) invProbSum(PS) PS 1 x 0,0 0,2 0,4 0,6 0,8 1,0 6 7 8 9 10 11 12 BinSum(k) 108 3 Zufall, Erwartung und Verteilung 3.3 Der Erwartungswert Zur Einführung ein besonders einfaches Beispiel: Abb 32: Das Glücksrad Ein Spieler darf nach Zahlung eines beliebigen Einsatzes e das Glücksrad drehen. Das Glücksrad bleibt nach einigen Umdrehungen zufällig in einem der 4 Sektoren stehen. Der Spieler erhält das im Sektor angegebene (a/ e)-fache seiner Einzahlung. Diese (a/ e)- Werte sind ZuZa, die der Spielbetreiber völlig willkürlich gewählt hat. In der Zeile Erw sind die Gewinnerwartungen (𝑔𝑔 𝐸𝐸 ⁄ ) ∙ 𝑝𝑝 eines Spielers für jeden Sektor und ihre Summe ∑{(a e ⁄ ) ∙ p} ≈ 0.833 . aufgelistet. Ein notorischer Spieler kann auf lange Sicht dieses Verhältnis Aus-/ Einzahlung erwarten . Er muss demnach bei diesem Glücksrad auf lange Sicht mit einem Verlust von 16,7% seines Einsatzes rechnen. Den Spielbetreiber macht dies natürlich glücklich. Wenn er versucht, die Attraktivität seines Spiels durch andere a/ e-Werte zu steigern, Tab 28: Glücksrad mit neuen Werten 3.3 Der Erwartungswert 109 dann sind seine Spieler glücklicher. Aber beim letzten Bsp ist seine Insolvenz mit ~8.3% Dauerverlust absehbar. Tab 29: Definition des Erwartungswertes diskret stetig Erw(Z) ≡ μ ∶≝ � {k ∙ P(k)} alle k � {x ∙ f(x)} alle x Wobei ich die Abkürzung Prob(Z = k) →⏟ kurz P(k) benützt habe. Der Erwartungswert wird auch gern mit µ abgekürzt. Das griechische µ (gesprochen mü) entspricht dem lateinischen ‚m‘ und dieses steht für M ittelwert. µ ist in der Stochastik als Kurzbezeichner für den Erw reserviert und darf in keiner anderen Bedeutung verwendet werden. Ich habe beim stetigen Integral das Differential ‚schlampig‘ weggelassen, damit die Ähnlichkeit zur Summe augenfälliger wird. Ich werde das immer wieder tun. Viele Autoren bezeichnen den Erwartungswert nur mit E. Da E u.a. schon als Bezeichnung für ein Ereignis vorkommt, werde ich in diesem Buch immer die längere Version Erw oder die Abkürzung µ verwenden. Der Begriff Erwartungs-Wert wird oft auf Funktionen g(Z) einer ZuZa Z verallgemeinert (hier nur diskret) Erw�g(Z)� = ∑ �g(k) ∙ Prob(Z = k) ��������� P(k) � alle k (1) Das spezielle 𝐸𝐸(𝑘𝑘) = (𝑘𝑘 − 𝜇𝜇)² führt auf die Varianz (→ 3.4) Ein weiteres Beispiel: Ein 1-Würfelspiel Beim Würfeln mit einem L APLACE -Würfel muss man einen Einsatz e leisten und erhält bei einer gewürfelten Quadratzahl (1; 4) den Betrag a/ e ausbezahlt, aber sonst nichts. Die ZuZa Z=Augenzahl mit Z ∈ {1|2|3|4|5|6} hat die Wahrscheinlichkeiten (L APLACE ) 110 3 Zufall, Erwartung und Verteilung 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) ≡ 𝑃𝑃(𝑘𝑘) mit 𝑃𝑃(1) = 𝑃𝑃(2) = ⋯ = 𝑃𝑃(6) = 1 6 ⁄ und den Erw(Z) = ∑ [k ∙ P(k)] = (1 6 ⁄ ) ∙ (1 + 2 + 3 + 4 + 5 + 6) = 3.5 k . Die Auszahlung wird beschrieben durch eine Funktion g(k) = �a/ e für k = 1; 4 0 sonst � (a/ e=Aus/ Einzahlung) also wird Erw�g(Z)� = ∑ [g(k) ∙ P(k)] k = ae ∙ � 16 + 16 � = 13 ∙ ae . Mit a/ e<3 wird der Spielveranstalter langfristig reich. Ein weiteres Beispiel: Ein 2-Würfelspiel Ein Spielbetreiber bietet seinen Spielern an, einen Einsatz e zu zahlen und dann mit 2 Würfeln gleichzeitig zu würfeln. Ist die Augensumme eine Primzahl, dann wird das p-fache des Einsatzes und bei einer Quadratzahl das q-fache ausbezahlt. Der Spielbetreiber stellt sich die Frage, welche Werte von p und q möglichst viele Spieler anlocken, aber ihn trotzdem ökonomisch überleben lassen. Es folgt eine Tabelle mit 2 Versionen. Tab 30: 2-Würfelspiel 3.3 Der Erwartungswert 111 Es gibt 11 verschiedene Ereignisse mit Augensumme Z=k=2; 3; …; 12. In der Spalte «Z=k» ist nur immer eines der Ergebnisse aufgelistet. Für die Augensumme k=7 seien als Bsp alle n=6 Möglichkeiten aufgelistet: k=7: |1+6 | 2+5 | 3+4 | 4+3 | 5+2 | 6+1| Ich habe mir (wie eingangs empfohlen) unterscheidbare Würfel vorgestellt, sodass ich |1+6| und |6+1| unterscheide. Mit der Version1 (p=1.5; q=2.0) geht der Spielbetreiber langfristig bankrott. Er muss 1.4% mehr ausbezahlen, als er einnimmt. Mit der Version2 (p=1.2; q=2.5) kann er sich mit einem langfristigen Gewinn von 1.4% über Wasser halten. Praxis der Stochastik: Das Morra-Spiel Quelle [7] Das Morra-Spiel ist eine einfachere Variante des bekannten Spiels Papier-Schere-Stein und in Italien weit verbreitet. Die Vereinfachung besteht darin, dass jeder der beiden Spieler A, B nur einen oder zwei Finger zeigen darf. Die Spielregel unterscheidet nun, ob die Fingerzahlen f A,B gleich oder verschieden sind. Je nachdem muss B an A oder A an B einen gewissen Betrag zahlen. Welcher Betrag gezahlt werden muss, richtet sich nach der Fingersumme f=f A +f B . Tab 31: Die Morra-Spielregeln gezeigte Finger Summe Zahlung 𝐸𝐸 𝐴𝐴 = 𝐸𝐸 𝐵𝐵 = 1|2 𝐸𝐸: = 𝐸𝐸 𝐴𝐴 + 𝐸𝐸 𝐵𝐵 = 2|4 𝐴𝐴 ← 〈𝑐𝑐 ∙ 𝐸𝐸〉 ← 𝐵𝐵 𝐸𝐸 𝐴𝐴 ≠ 𝐸𝐸 𝐵𝐵 𝐸𝐸: = 𝐸𝐸 𝐴𝐴 + 𝐸𝐸 𝐵𝐵 = 3 𝐴𝐴 → 〈𝑐𝑐 ∙ 𝐸𝐸〉 → 𝐵𝐵 Man beachte die Nicht-Symmetrie zwischen A und B. Der Faktor c bestimmt den Nervenkitzel des Spiels mit z.B. c=0.10, 0.50, 1.00, 5.00 € usw. Wenn man annimmt, dass jeder Spieler einen Finger mit der Wahrscheinlichkeit a oder b hebt, dann sind (1-a) und (1-b) die Wahrscheinlichkeiten, dass er zwei Finger hebt. 112 3 Zufall, Erwartung und Verteilung Man kann den Spielgewinn von A oder B mit den ZuZa A und B (=- A) beschreiben. Ich hoffe, dass die gleichen Bezeichnungen A, B für den Spieler und seinen Gewinn keine Verwirrung stiftet. Die Gewinnerwartungen der beiden Spieler sind demnach 𝐸𝐸𝐸𝐸𝑤𝑤(𝐴𝐴) = −𝐸𝐸𝐸𝐸𝑤𝑤(𝐵𝐵) = ∑ {𝐴𝐴 𝑖𝑖 ∙ 𝑃𝑃(𝐴𝐴 𝑖𝑖 )} 3𝑖𝑖=1 = �2𝑐𝑐 � 𝐴𝐴 1 ∙ 𝑔𝑔 ∙ 𝑃𝑃 � 𝑃𝑃(𝐴𝐴 1 ) � + �4𝑐𝑐 � 𝐴𝐴 2 ∙ (1 − 𝑔𝑔) ∙ (1 − 𝑃𝑃) ����������� 𝑃𝑃(𝐴𝐴 2 ) � + �−3𝑐𝑐 � 𝐴𝐴 3 ∙ (𝑔𝑔 ∙ (1 − 𝑃𝑃) + (1 − 𝑔𝑔) ∙ 𝑃𝑃) ����������������� 𝑃𝑃(𝐴𝐴 3 ) � =…= 𝑐𝑐 ∙ �4 + 12 ∙ 𝑔𝑔 ∙ 𝑃𝑃 − 7 ∙ (𝑔𝑔 + 𝑃𝑃) ������������������� ≔𝐺𝐺 𝐴𝐴 � Nun kann jeder Spieler seine Gewinnerwartung 𝑐𝑐 ∙ 𝐺𝐺 𝐴𝐴; 𝐵𝐵 (𝑔𝑔; 𝑃𝑃) mit der Funktion 𝐺𝐺 𝐴𝐴 = −𝐺𝐺 𝐵𝐵 = 4 + 12 ∙ 𝑔𝑔 ∙ 𝑃𝑃 − 7 ∙ (𝑔𝑔 + 𝑃𝑃) durch die Wahl von a oder b selbst bestimmen. Einige Bsp, bei denen Spieler A sein a wählt: «A zeigt immer nur einen Finger» a=1: G A (1, b) = −3 + 5b «A zeigt abwechselnd einen oder zwei Finger» a=1/ 2: G A (1 2 ⁄ , b) = 1 2 ⁄ − b Wenn beide a=b=1/ 2 wählen, dann ist G A =G B =0, und das Spiel ist ausgewogen. Wenn man G A (a,b) als stetige Funktion auffasst, dann zeigen die Ableitungen � ∂G A ∂a � = 12 ∙ b − 7 und � ∂G A ∂b � = 12 ∙ a − 7 , dass G A bei a=b=7/ 12 ein absolutes Minimum hat. Damit wird G A �a, b = 7 12 � = 4 + 7 ∙ a − 7 ∙ a − 49 12 = − 1 12 3.3 Der Erwartungswert 113 und dies gilt für ALLE (! ) a. Durch die Strategie b= 7 / 12 wird also die Gewinnerwartung Erw(A) = −c 12 ⁄ negativ und minimal. Der Spieler B kann also das Morra-Spiel langfristig mit der (b=7/ 12)-Strategie gewinnen. Der Spieler A hat dabei keine Chance einer Gegenwehr. (b=7/ 12)-Strategie heißt, Spieler B muss bei 12 Versuchen 7-mal einen und 5-mal zwei Finger heben. Erfahrene Italiener kennen die Problematik und lassen nach einigen Spielen die Rollen tauschen: A↔B. Praxis der Stochastik: Gruppenuntersuchung Quelle [7] Beim Eintritt der USA in den Zweiten Weltkrieg mussten Millionen von Rekruten medizinisch untersucht werden. Bei bestimmten Krankheiten reicht es, das Blut (oder Urin) von n Rekruten zu mischen und diese Mischung zu untersuchen. Bei einem negativen Gruppenbefund sind alle n Rekruten dieser Gruppe gesund. Bei einem positiven Gruppenbefund sind weitere n Untersuchungen jedes einzelnen Rekruten notwendig. Es stellen sich zwei Fragen:  Kann man durch Gruppenbildung die Zahl der Untersuchungen verringern und,  wenn JA, was ist die ideale Gruppengröße n? Bei einer gewählten Gruppengröße n ist die Zahl Z der notwendigen Untersuchungen einer Gruppe eine klassische, diskrete ZuZa mit nur zwei Werten. Z = � 1 1 + n� bei �negativem positivem � GruppenBefund Es sei p die Wahrscheinlichkeit für die Erkrankung eines einzelnen Rekruten. Dann ist q=1-p die Wahrscheinlichkeit für eine Nicht-Erkrankung und Prob(Z = 1) = q n sowie Prob(Z = 1 + n) = 1 − q n Für den Erwartungswert von Z folgt dann: Erw(Z) = � {k ∙ Prob(Z = k)} = alle k (1 ∙ q n ) + �(1 + n) ∙ (1 − q n )� = 1 + n − n ∙ q n Man erwartet, dass weniger als n Untersuchungen der Gruppe notwendig sind, also dass 114 3 Zufall, Erwartung und Verteilung Erw(Z) <⏟ ! n ⇒ q > n −1 n ⁄ =: g(n) (2) Um das Minimum von g(n) mit Hilfe von Ableitungen zu finden, wird n vorübergehend als stetig angesehen: g(n) = n −1 n ⁄ = exp �− ln n n � ⇒ g′(n) = 1 n² ∙ (ln n − 1) ∙ exp �− ln n n � ≜ 0 ⇒ n 0 = e ≈ 2.72 Der Vorzeichenwechsel von gʹ bei n 0 =e und eine kleine Wertetabelle: bestätigen das Minimum 𝐸𝐸(3) ≤ 𝐸𝐸(𝐸𝐸) . Die Forderung (2) hat zur Folge, dass p ≤ 1 − 3 −1 3 ⁄ ≈ 0.307 sein muss. Die Gruppenbildung lohnt sich also nur, wenn die Wahrscheinlichkeit p einer Einzelerkrankung kleiner als 30% ist. Betrachtet man die zu erwartende Anzahl an Untersuchungen pro Person Erw(Z) n = 1 + 1 n − q n = : h q (n) ⁄ so zeigen einige einfache Graphiken … dass diese h q (n) -Funktionen ein Minimum bei n o , der optimalen Gruppengröße haben. Diese optimalen Gruppengröße n o kann durch einfaches Suchen in einer Wertetabelle (ohne Bild) gefunden werden. 0,00 0,50 1,00 1,50 1 2 3 4 5 6 7 8 9 q=0.8 0,00 0,50 1,00 1,50 1 2 3 4 5 6 7 8 9 q=0.9 0,18 0,20 0,22 0,24 6 7 8 9 10 11 12 13 14 q=0.99 3.4 Varianz und Streuung 115 Optimale Gruppengröße n o beim Gruppen-Screening Dabei ist 1 − h q (n) d ie Ersparnis pro Person bei Gruppenbildung. 3.4 Varianz und Streuung Ich betrachte zunächst zwei Verteilungen von diskreten ZuZa, die den gleichen Erwartungswert µ haben aber sich deutlich unterscheiden. Als Bsp kann man an die Noten (k=1, …, 6) zweier Klassenarbeiten einer Klasse mit n=20 Schülern denken. n k sind die absoluten Häufigkeiten jeder Note. Beide Klassenarbeiten haben den gleichen Durchschnitt μ=3.2. Sie haben aber augenscheinlich einen großen Unterschied in der Streuung der Werte. Abb 33: Zwei Verteilungen mit gleichem Erw, aber verschiedener Varianz 0 1 2 3 4 5 6 1 2 3 4 5 6 0 1 2 3 4 5 6 1 2 3 4 5 6 116 3 Zufall, Erwartung und Verteilung Bei der zweiten KA sind gute und schlechte Noten häufiger als Noten in der Nähe des Durchschnitts. Die Noten von KA2 streuen deutlich mehr als die Noten von KA1. Es gibt mehr „Ausreißer“. Um solche Streuungen zu beschreiben, definiert man die Varianz: Tab 32: Definition der Varianz diskret stetig 𝑉𝑉𝑔𝑔𝐸𝐸(𝑍𝑍) ≡ 𝜎𝜎 2 ∶= � {(𝑘𝑘 − 𝜇𝜇) 2 ∙ 𝑃𝑃(𝑘𝑘)} 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑘𝑘 � {(𝑍𝑍 − 𝜇𝜇) 2 ∙ 𝐸𝐸(𝑍𝑍)} 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑥𝑥 Das griechische σ (gesprochen sigma) entspricht dem lateinischen s und dieses steht für S treuung. σ ist in der Stochastik als Kurzbezeichner für die Streuung reserviert und darf in keiner anderen Bedeutung verwendet werden. Das Quadrat bewirkt, dass große Abweichungen von μ hohes Gewicht haben, egal ob sie weit unterhalb oder weit oberhalb liegen. Ohne das Quadrat wäre (hier nur diskret) �{(k − μ) 1 ∙ P(k)} = �{𝑘𝑘 ∙ 𝑃𝑃(𝑘𝑘)} ��������� 𝜇𝜇 − 𝜇𝜇 ∙ �{P(k)} ������� 1 = 0 Verschiebungssatz oder S TEINER -Vereinfachung Wenn man die Var als Erw ausgedrückt Var(Z) ≡ Erw((Z − μ) 2 ) , dann gilt der bemerkenswerte Verschiebungssatz oder die S TEI- NER -Vereinfachung (→ Herleitungen) Erw�(Z − μ)²� = Erw (Z 2 ) − �Erw(Z) ����� μ � 2 = σ² ⇒ Erw(Z 2 ) = μ 2 + σ² (1) Die S TEINER -Vereinfachung wurde ursprünglich für Mittelwerte formuliert (z − z�) 2 ����������� = z 2 ��� − z� 2 . 3.4 Varianz und Streuung 117 Man kann ihre Gültigkeit an einigen selbstgewählten Zahlenbeispielen leicht überprüfen. Bei vielen konkreten Werten von Z ist Erw(Z²) − μ² mit dem TR deutlich einfacher als Erw�(Z − μ)²� zu berechnen. Bei E XCEL macht es allerdings kaum einen Unterschied. Erw und Var der Bin-Verteilung (→ Herleitungen) Erw Bin ≡ μ Bin = n ∙ p und Var Bin ≡ σ Bin 2 = n ∙ p ∙ (1 − p) (2) Ein häufiger Fehler ist es, diese beiden sehr populären Formeln auf andere Verteilungen anzuwenden. Zum Vergleich seien die Werte der Hyp-Verteilung (ohne Herleitung) angegeben mit p=K/ N: Erw Hyp ≡ μ Hyp = n ∙ p und Var Hyp ≡ σ Hyp 2 = n ∙ p ∙ (1 − p) ∙ N−n N−1 . ( 3) Oft interessiert die relative Häufigkeit ℎ = 𝑍𝑍 𝐸𝐸 ⁄ eines Erfolgs bei n Wiederholungen. Für diese ZuZa h gilt dann: Erw(h) = p und Var(h) = p ∙ (1 − p)/ n . Erw und Var von Y = a · X + b Für eine ZuZa X und zwei Konstante a und b (keine ZuZa) ist Y = a · X + b eine Lineare Transformation von X auf eine andere ZuZa Y. Dabei gilt (→ Herleitungen) Tab 33: Erw und Var der linearen Funktion Y = a · X + b Erw(a ∙ X + b) = a ∙ Erw(X) + b μ y = a ∙ μ x + b Var(a ∙ X + b) = a 2 ∙ Var(X) σ y2 = a 2 ∙ σ x2 Bsp: Celsius und Fahrenheit Die deutsche Wettervorhersage ist 𝐸𝐸𝐸𝐸𝑤𝑤(𝑋𝑋) = 24°𝐶𝐶 und 𝑉𝑉𝑔𝑔𝐸𝐸(𝑋𝑋) = 4 . Für die Fahrenheitskala ist Y = a ∙ X + b mit a=1.8 und b=32. Also wird 𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌) = 1.8 ∙ 24 + 32 = 75.2 und Var(Y) = 1.8 2 ∙ 4 = 12.96 . Bsp: Werfen zweier Würfel Zum beliebten ZuEx »Werfen zweier Würfel« werden für zwei Varianten der Zuordnung einer ZuZa (Z = Augensumme; Z = Betrag der Augendifferenz) nochmals der Begriff Verteilung, Verteilfunk- 118 3 Zufall, Erwartung und Verteilung tion und die Berechnung von Erw und Var mal ohne und mal mit S TEINER erläutert. Abb 34: Das ZuEx »Werfen zweier Würfel« mit ZuZa Z=Augensumme 0,0 0,5 1,0 2 3 4 5 6 7 8 9 10 11 12 Verteilungsfunktion F(k) 0,0 0,1 0,1 0,2 0,2 2 3 4 5 6 7 8 9 10 11 12 Verteilung P(k) 3.4 Varianz und Streuung 119 Abb 35: Das ZuEx »Werfen zweier Würfel« mit ZuZa Z=|Augendifferenz| In den letzten beiden Spalten der E XCEL -Tabellen wurde die Varianz mal ohne und mal mit der S TEINER -Vereinfachung berechnet. Bei der Berechnung der absoluten Häufigkeiten n ist es wieder nützlich, sich die beiden Würfel als unterscheidbar (etwa durch verschiedene Färbung) zu denken. Tab 34: Eigenschaften von Verteilungen diskret 𝑘𝑘 ∈ ℤ stetig 𝑍𝑍 ∈ ℝ Prob(Z = z) Prob(Z = k) = : P(k) > 0 Prob(Z = x) = 0 (! ! ) Prob(Z ≤ z) =: F(z) F(k) = � {P(i)} alle i≤k F(x) = � {f(t)} alle t≤x Prob(a < Z ≤ b) = � {P(i)} bi=a+1 = F(b) − F(a) � {f(x)} = F(b) − F(a) b a Normierung � {P(k)} ≜ 1 alle k � {f(x)} alle x ≜ 1 Erw ≡ μ ∶= � {k ∙ P(k)} alle k � {x ∙ f(x)} alle x Var ≡ σ 2 ∶= � {(k − μ)² ∙ P(k)} alle k � {(x − μ)² ∙ f(x)} alle x Erw(Z 2 ) ∶= � {k² ∙ P(k)} alle k � {x² ∙ f(x)} alle x 0,0 0,5 1,0 1 2 3 4 5 6 Verteilungsfunktion F(k) 0,0 0,1 0,2 0,3 0,4 1 2 3 4 5 6 Verteilung P(k) 120 3 Zufall, Erwartung und Verteilung Die Werte der letzten Zeile werden gern in der S TEINER -Vereinfachung μ 2 + σ 2 = Erw(Z 2 ) benützt. 3.5 Die Exponentialverteilung Die Exponentialverteilung ist eine der einfachsten, praxisrelevanten stetigen Verteilungen. Ich wage eine philosophische Bemerkung: „Alles im Leben ist endlich“. Dies gilt für Lebewesen und auch für Industrieprodukte. Die „Lebenserwartung“ wird durch eine Exponentialverteilung gut beschrieben. Ich bezeichne bei diesem Bsp die „ZuZa-an-sich“ nicht mit Z, sondern mit T, und einen konkreten Wert nicht mit x, sondern mit t; beides angelehnt an das engl. t ime. die Wahrscheinlichkeitsdichte f = Exp 𝐸𝐸(𝑒𝑒) = 𝑔𝑔 ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔 ∙ 𝑒𝑒) 𝑔𝑔 > 0 𝑒𝑒 ∈ [0 … ∞] im Prinzip die Verteilungsfunktion F=ExpSum 𝐹𝐹(𝑒𝑒) = � 𝐸𝐸(𝜎𝜎) ∙ 𝑤𝑤𝜎𝜎 𝑡𝑡 0 = 1 − 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔 ∙ 𝑒𝑒) die Integrationsvariable ist das griechische τ „tau“ Abb 36: Die Exponentialverteilung und ihre Verteilungsfunktion Die stetige Wahrscheinlichkeitsdichte f ist gegenüber der Lebenszeit t aufgetragen. Sie gibt an, welcher Anteil an dem Anfangswert a nach einer gewissen Zeit t noch „lebt“. Der Erw wird in diesem Zusammenhang gern „Lebenserwartung“ genannt. f=Exp a/ e 1/ a t 0 a F=ExpSum t 0 1 3.5 Die Exponentialverteilung 121 Erw Exp ≡ μ Exp = a ∙ � t ∙ exp(−a ∙ t) ∙ dt ∞ 0 = 1a Wahrscheinlichkeitsdichte und Verteilungsfunktion hängen nur von einem Parameter µ ab. 𝐸𝐸 𝐸𝐸𝑥𝑥𝑝𝑝 (𝑒𝑒) = 𝐸𝐸𝑍𝑍𝑝𝑝 𝜇𝜇 (𝑒𝑒) = 1 𝜇𝜇 ∙ 𝐸𝐸𝑍𝑍𝑝𝑝 �− 𝑒𝑒 𝜇𝜇� 𝐹𝐹 𝐸𝐸𝑥𝑥𝑝𝑝 (𝑒𝑒) ≡ 𝐸𝐸𝑍𝑍𝑝𝑝𝑃𝑃𝑧𝑧𝑚𝑚 𝜇𝜇 (𝑒𝑒) = � 𝐸𝐸𝑍𝑍𝑝𝑝 𝜇𝜇 (𝜎𝜎) ∙ 𝑤𝑤𝜎𝜎 𝑡𝑡 0 = 1 − 𝐸𝐸𝑍𝑍𝑝𝑝 �− 𝑒𝑒 𝜇𝜇� Oft interessiert die Wahrscheinlichkeit (z.B. Lebensversicherer) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(«ä𝑜𝑜𝑒𝑒𝐸𝐸𝐸𝐸 𝑔𝑔𝑜𝑜𝐸𝐸 𝑒𝑒 𝑧𝑧𝑧𝑧 𝑤𝑤𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸») = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑇𝑇 > 𝑒𝑒) = 1 − 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑇𝑇 ≤ 𝑒𝑒) = 1 − 𝐸𝐸𝑍𝑍𝑝𝑝𝑃𝑃𝑧𝑧𝑚𝑚 𝜇𝜇 (𝑒𝑒) = 𝐸𝐸𝑍𝑍𝑝𝑝 �− 𝑒𝑒 𝜇𝜇� Die Varianz der Exp-Verteilung: 𝑉𝑉𝑔𝑔𝐸𝐸 𝐸𝐸𝑥𝑥𝑝𝑝 = 𝜎𝜎 𝐸𝐸𝑥𝑥𝑝𝑝 2 = � (𝑒𝑒 − 𝜇𝜇)² ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒 ∞ 0 → (𝑃𝑃𝑒𝑒𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸) = 𝑔𝑔 ∙ � 𝑒𝑒² ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒 ∞ 0 − 𝜇𝜇² → (𝐻𝐻𝐸𝐸𝐸𝐸𝑜𝑜𝐸𝐸𝐸𝐸𝑒𝑒𝑧𝑧𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸) = 𝜇𝜇² ⇒ σ Exp = μ Exp Bei der Exp-Verteilung sind Erw und Streuung gleich. Bsp: Lebenserwartungen Ein elektronisches Bauteil (BT) hat eine mittlere Lebensdauer T� = 1000h . Wie groß ist die Wahrscheinlichkeit, dass ein BT … a) in den ersten 500h ausfällt? b) länger als 2000h lebt? c) zwischen der 1000-ten und 2000-ten Betriebsstunde ausfällt? d) Bis zu welchem Zeitpunkt „leben“ noch mehr als 70%? Antworten: 𝜇𝜇 = 1000 𝐸𝐸𝑍𝑍𝑝𝑝𝑃𝑃𝑧𝑧𝑚𝑚( 𝑒𝑒 ) = 1 − 𝐸𝐸𝑍𝑍𝑝𝑝 ( − 𝑒𝑒 𝜇𝜇 ⁄ ) 122 3 Zufall, Erwartung und Verteilung a) 𝑃𝑃rob(T ≤ 500) = ExpSum(500) = 39.3% b) Prob(T > 2000) = 1 − ExpSum(2000) = 13.5% c) Prob(1000 < T < 2000) = ExpSum(2000) − ExpSum(1000) = 23.3% d) Prob(T > t =? ) = 1 − ExpSum(t) = exp(− t μ ⁄ ) = p = 0.7 ⇒ t = −μ ∙ ln(p) = 357 Tab 35: Antworten 3.6 Die Normalverteilung Ich erläutere zuerst die Funktion mit ihren wichtigsten mathematischen Eigenschaften und dann ihre Bedeutung für die Stochastik. Diese Bedeutung wird erst in → Große Zahlen beim → Zentralen Grenzwertsatz endgültig erklärt werden. Der überragende C. F. G AUSS konnte zeigen, dass eine Glockenfunktion der Art g a; b (x) = a ∙ exp(−bx 2 ) mit 𝑔𝑔, 𝑃𝑃𝜖𝜖ℝ + und 𝑍𝑍𝜖𝜖ℝ normiert ist; wenn 𝑔𝑔 = �𝑃𝑃 𝜋𝜋 ⁄ (Beweis → [5]) Normiert heißt ∫ �g a; b (x) ∙ dx� = 1 ∞ −∞ . In der Stochastik spielt die normierte Glockenfunktion mit b=1/ 2 eine besondere Rolle. Für sie wurde in der Stochastik das griechische φ (phi) reserviert. Ihre ‚Aufleitung‘ (ein „Mathelehrersprech“) wird mit Ф (großem Phi) bezeichnet. 3.6 Die Normalverteilung 123 𝜑𝜑(𝑍𝑍) ∶≝ 1 √2𝜋𝜋 ∙ 𝐸𝐸𝑍𝑍𝑝𝑝 �− 𝑍𝑍 2 2 � 𝜙𝜙(𝑍𝑍) ∶≝ � 𝜑𝜑(𝑒𝑒) 𝑥𝑥 −∞ ∙ 𝑤𝑤𝑒𝑒 Abb 37: Die normierte Gauss-Glockenfunktion der Stochastik Die Wertetabellen wurden sehr kurz gehalten wegen der Achsensymmetrie von phi zu x=0: φ(−x) = φ(x) und der Punktsymmetrie von Phi zu (0; 0.5): Φ(−x) = 1 − Φ(x) Verschiebt man die φ-Funktion um µ in x-Richtung und dehnt sie gleichzeitig in x-Richtung um σ und in y-Richtung um 1/ σ, so erhält man die Normalverteilung der Stochastik Norm μ; σ (x) = 1 σ ∙ φ � x−μ σ � NormSum μ; σ (x) = Φ � x−μ σ � (1) Die x-Dehnung um σ und die y-Dehnung um 1/ σ bewirken, dass die Normiertheit Φ(∞) = 1 erhalten bleibt. Eine Verschiebung in y-Richtung macht bei einer Verteilung keinen Sinn, weil sonst die Normiertheit verloren ginge. 0,0 0,1 0,2 0,3 0,4 0,5 -4 -3 -2 -1 0 1 2 3 4 0,0 0,2 0,4 0,6 0,8 1,0 -4 -3 -2 -1 0 1 2 3 4 124 3 Zufall, Erwartung und Verteilung Der Begriff „normal“ wird in der Mathematik etwas überstrapaziert und zu oft für sehr unterschiedliche Eigenschaften verwendet. μ = Erw und σ = √Var sind als Parameter in die Normalsverteilung bereits eingebaut. Wie bei stetigen ZuZa üblich, berechnet man Wahrscheinlichkeiten normalverteilter ZuZa für Intervalle Prob(x 1 < Z < x 2 ) = NormSum μ,σ (x 1 … x 2 ) ≡ NormSum μ,σ (x 2 ) − NormSum μ,σ (x 1 ) (2) Ich verwende also für die NormSum-Funktion zwei Versionen, eine mit einem Argument und eine mit zwei. Sie hängen wie in (2) angegeben miteinander zusammen. Die Normalverteilung hängt mit der φ| Ф -Funktion über die sog. Standardnormalkoordinaten u = x−μ σ (3) zusammen. Mit ihrer Hilfe kann man alle Norm- und NormSum- Werte aus je nur EINER (! ) φ- oder Ф -Tabelle entnehmen. Wenn man bedenkt, dass wichtige andere Verteilungen wie Bin, Hyp, … oft durch Norm angenähert werden können, dann kann man ermessen, welche Bedeutung die oben gegebenen Formeln in der Zeit des „aus-Tabellen-Lesens“ hatten ( noch haben? ). ̶ ̶ ̶ ̶ ̶ ̶ ̶ σ=1 ········· σ=2 - - σ=0.5 Abb 38: Drei Beispiele von Normalverteilungen mit μ =0 Die φ-Werte sind abhängig von der Streuung σ um den μ-Wert konzentriert. 1 0.4 0.8 3.6 Die Normalverteilung 125 𝑁𝑁𝑃𝑃(𝑘𝑘) = 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚𝑃𝑃𝑧𝑧𝑚𝑚 𝜇𝜇,𝜎𝜎 (𝜇𝜇 − 𝑘𝑘 ∙ 𝜎𝜎; 𝜇𝜇 + 𝑘𝑘 ∙ 𝜎𝜎) = 1 − 2 ∙ 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚𝑃𝑃𝑧𝑧𝑚𝑚 0,𝜎𝜎 (−𝑘𝑘 ∙ 𝜎𝜎) Abb 39: Sigma-Umgebungen Praxis der Stochastik: Der Ausschuss einer Produktion (1) Von einer Schraubenproduktion ist bekannt, dass die Längen L streuen. Tests haben gezeigt, dass die Längen normalverteilt sind und mit 4% um den Mittelwert 40 (alles in mm) streuen. Der Produzent möchte nur Schrauben ausliefern, die um höchstens 5% vom Sollwert 40 abweichen. Er möchte nun wissen, welchen Anteil an Ausschuss er recyceln muss. Für die normalverteilte ZuZa L=Länge ist L� ≡ μ =40, σ=0.04·40=1.6 und ΔL=0.05·40=2. Den Ausschuss errechnet man als Prob(|L − L�| > ΔL) = 2 ∙ NormSum 0,σ (−∆L) ≈ 21% 68% 95% 99.7% 1σ 2σ 3σ 126 3 Zufall, Erwartung und Verteilung Abb 40: Ausschuss bei einer Schraubenproduktion 3.7 Testverteilungen Ich stelle kurz zwei Testverteilungen ohne Herleitungen vor. Diese findet man etwa unter Literatur in → [5]. Die Chi-Verteilung Es seien n stetige, stochastisch unabhängige, standardnormalverteilte ZuZa gegeben. X 1 , X 2 , …, X n mit der jeweiligen Wahrscheinlichkeitsdichte f(x i ) = Norm μ=0; σ=1 (x i ) . Die Summe der Quadrate bezeichnet man mit ∑ �X i2 � ni=1 = X 2 ≡ Chi 2 Das griechische X wird ‚chi‘ gesprochen. Beide Bezeichnungen X 2 ≡ Chi 2 sind Tradition. Chi-verteilte, stetige ZuZa Z haben die Wahrscheinlichkeitsdichte f(x) = Chi n (x) . 0 0,1 0,2 0,3 34 36 38 40 42 44 46 Ausschuss 21% 3.7 Testverteilungen 127 𝐶𝐶ℎ𝐸𝐸 𝑛𝑛 (𝑍𝑍) ∶≝ 𝑔𝑔 𝑛𝑛 ∙ 𝑍𝑍 (𝑛𝑛 2 ⁄ −1) ∙ 𝐸𝐸𝑍𝑍𝑝𝑝 �− 𝑥𝑥2 � 𝑔𝑔 𝑛𝑛 = 1 2 𝑛𝑛 2 ⁄ ∙Γ(𝑛𝑛 2 ⁄ ) 𝐶𝐶ℎ𝐸𝐸 𝑛𝑛 (𝐸𝐸 − 2) = 𝑚𝑚𝑔𝑔𝑍𝑍𝐸𝐸𝑚𝑚𝑔𝑔𝑜𝑜 𝐸𝐸𝐸𝐸𝑤𝑤 𝐶𝐶ℎ𝑖𝑖 ≡ 𝜇𝜇 𝐶𝐶ℎ𝑖𝑖 = 𝐸𝐸 𝑉𝑉𝑔𝑔𝐸𝐸 𝐶𝐶ℎ𝑖𝑖 ≡ 𝜎𝜎 𝐶𝐶ℎ𝑖𝑖 2 = 2 ∙ 𝐸𝐸 E XCEL : CHIQU.VERT(x; n; c) CHIQU.INV (p; n) Abb 41: Die Chi-Verteilung Chi n -Verteilungen mit n<3 spielen in der Praxis keine Rolle. Die Student- oder t-Verteilung Die Student- oder t-Verteilung wurde 1908 vom Mathematiker W. S. G OSSET unter dem Pseudonym „Student“ veröffentlicht. Wenn X eine Norm 0; 1 -verteilte und Y eine Chi n -verteilte stetige ZuZa ist, dann ist 𝑍𝑍 = 𝑋𝑋 �𝑌𝑌/ 𝑛𝑛 eine Stud n -verteilte stetige ZuZa. 𝑃𝑃𝑒𝑒𝑧𝑧𝑤𝑤 𝑛𝑛 (𝑍𝑍) = 𝑔𝑔 𝑛𝑛 ∙ �1 + 𝑥𝑥² 𝑛𝑛 � −(𝑛𝑛+1)/ 2 𝑔𝑔 𝑛𝑛 = Γ((𝑛𝑛+1) 2 ⁄ ) √𝑛𝑛∙𝜋𝜋∙Γ(𝑛𝑛 2 ⁄ ) = 𝑃𝑃𝑒𝑒𝑧𝑧𝑤𝑤 𝑛𝑛 (0) 𝐸𝐸𝐸𝐸𝑤𝑤 𝑆𝑆𝑡𝑡𝑢𝑢𝑆𝑆 ≡ 𝜇𝜇 𝑆𝑆𝑡𝑡𝑢𝑢𝑆𝑆 = 0 𝑉𝑉𝑔𝑔𝐸𝐸 𝑆𝑆𝑡𝑡𝑢𝑢𝑆𝑆 ≡ 𝜎𝜎 𝑆𝑆𝑡𝑡𝑢𝑢𝑆𝑆 2 = 𝐸𝐸/ (𝐸𝐸 − 2) E XCEL : T.VERT(x; n; c) T.INV(p; n) Abb 42: Eigenschaften der Student- oder t-Verteilung Für n>30 ist Norm eine gute Näherung für Stud. Dann ist für alle x �𝑃𝑃𝑒𝑒𝑧𝑧𝑤𝑤 𝑛𝑛 (𝑍𝑍) − 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚 0; 𝜎𝜎 (𝑍𝑍)� < 0.01. 0,00 0,05 0,10 0,15 0,20 0,25 0 1 2 3 4 5 6 7 8 Chi n=3,4,5 0,0 0,1 0,2 0,3 0,4 -10 -5 0 5 10 Stud n=4 128 3 Zufall, Erwartung und Verteilung 3.8 Mehrere Zufallszahlen Zur Einführung ein einfaches ZuEx mit einem Hexa- und einem Oktaeder in einem Würfelbecher. Hexaeder: 6 Quadrate Oktaeder: 8 gleichseitige Dreiecke In diesem Zusammenhang nenne ich beide Spielwürfel. Hexaeder werden auch nur Würfel genannt. Beide Spielwürfel seien mit Zahlen beschriftet. Jeder Spielwürfel zeigt die ZuZa X ∊ {1,2, …,6} Y ∊ {1,2, …,8} an. Die Ergebnismenge des 2-Würfelspiels ist dann Ω={(1,1); (1,2); …; (6,8)} mit |Ω| = 48 wobei ich bei einem Ergebnis (x,y) immer die Augenzahl x des Hexaeders zuerst angebe. Beide Spielwürfel seien ideal (L APLACE ). Dann ist Prob(X = x) → (kurz) = P(x = 1,2, … ,6) = 1 6 ⁄ Prob(Y = y) → ( kurz ) = P(y = 1,2, … ,8) = 1 8 ⁄ Prob(«X = x» ∩ «Y = y») → (kurz) = P(x, y) = 1 48 ⁄ . Beide ZuZa X und Y können als stochastisch unabhängig angesehen werden; die beiden Spielwürfel wissen nichts voneinander. Ein zweites Bsp soll die Erfassung von Rekruten sein. Für jeden Rekruten werden die beiden ZuZa X=Köpergröße und Y=Körpergewicht gemessen. Wenn beide ZuZa auf ganze cm und ganze kg gerundet werden, dann sind sie diskret. Allerdings kann man KEINE Unabhängigkeit erwarten. Größere Menschen haben in der Regel auch ein größeres Gewicht! Die Heeresleitung könnte z.B. festlegen, dass Fallschirmspringer nur werden kann, wer nicht zu groß und nicht zu klein und gleichzeitig nicht zu schwer und nicht zu leicht ist. Also für den gilt: «170 ≤ 𝑋𝑋 ≤ 190» ������������� 𝐴𝐴 ∩ «65 ≤ 𝑌𝑌 ≤ 90» ����������� 𝐵𝐵 3.8 Mehrere Zufallszahlen 129 Da A und B als abhängig betrachtet werden müssen, gilt für die Häufigkeiten h h(A ∩ B) ≠ h(A) ∙ h(B) Abhängige ZuZa sind ein eigenes Thema der Stochastik und werden unter den Begriffen ‚Kovarianz‘ und ‚Korrelation‘ behandelt. Erw und Var von X+Y und X•Y Für zwei ZuZa X und Y gilt: (→ Herleitungen) Tab 36: Erw und Var von X + Y und X · Y 𝐸𝐸𝐸𝐸𝑤𝑤(𝑋𝑋 + 𝑌𝑌) = 𝐸𝐸𝐸𝐸𝑤𝑤 (𝑋𝑋) + 𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌) 𝜇𝜇 𝑥𝑥+𝜕𝜕 = 𝜇𝜇 𝑥𝑥 + 𝜇𝜇 𝜕𝜕 𝑉𝑉𝑔𝑔𝐸𝐸(𝑋𝑋 + 𝑌𝑌) = 𝑉𝑉𝑔𝑔𝐸𝐸(𝑋𝑋) + 𝑉𝑉𝑔𝑔𝐸𝐸(𝑌𝑌) + 2 ∙ 𝐵𝐵𝜎𝜎𝑖𝑖(𝑋𝑋, 𝑌𝑌) ������� 𝑠𝑠.𝑢𝑢. 𝜎𝜎 𝑥𝑥+𝜕𝜕 2 = 𝜎𝜎 𝑥𝑥2 + 𝜎𝜎 𝜕𝜕2 + 2 ∙ 𝜎𝜎 𝑥𝑥∙𝜕𝜕 130 3 Zufall, Erwartung und Verteilung Wenn 𝐵𝐵𝜎𝜎𝑖𝑖(𝑋𝑋, 𝑌𝑌) = 0 ist, dann sagt man, X und Y seien unkorreliert. Wichtig dabei ist unabhängig ⇒ unkorreliert aber unkorreliert ⇏ unabhängig Für beliebige ZuZa gilt also immer Erw(X + Y) = Erw(X) + Erw(Y) (1) und für unkorrelierte ZuZa gilt Var(X + Y) = Var(X) + Var(Y) und Erw(X ∙ Y) = Erw(X) ∙ Erw(Y) (2) Var(X ∙ Y) spielt bei praktischen Anwendungen keine Rolle und wird daher nicht weiter betrachtet. Wenn man bedenkt, dass bei vielen mathematischen Funktionen 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍 + 𝑦𝑦) ≠ 𝐸𝐸𝑘𝑘𝑒𝑒(𝑍𝑍) + 𝐸𝐸𝑘𝑘𝑒𝑒(𝑦𝑦) ist, Bsp: �x + y ≠ √x + �y sin ( x + y ) ≠ sin ( x ) + sin ( y ) exp(x + y) ≠ exp(x) + exp(y) … dann ist es „eine Gnade der Stochastik“, dass für die beiden wichtigen Funktionen Erw und Var wenigstens für unabhängige ZuZa die „Bauchgefühlformeln“ (1) und (2) gelten. Man kann diese Formeln auf mehr als 2 ZuZa verallgemeinern. Ohne Einschränkungen gilt Erw(∑ Z i ) = ∑{Erw(Z i )} μ Σ = ∑ μ i (3) Und für mehrere unkorrelierte ZuZa gilt Erw(∏ Z i ) = ∏{Erw(Z i )} μ Π = ∏ μ i (4) und Var(∑ Z i ) = ∑{Var(Z i )} σ Σ2 = ∑ σ i2 (5) 3.8 Mehrere Zufallszahlen 131 Dabei sei betont, dass die einfache „Bauchgefühlformel“ (5) für Varianzen, aber nicht für deren Wurzeln, den Streuungen σ Σ ≠ ∑ σ i gilt. Im Sonderfall, dass alle X i den gleichen Mittelwert µ und die gleiche Varianz σ 2 haben, wird μ Σ = n ∙ μ und σ Σ2 = n ∙ σ 2 also σ Σ = √n ∙ σ (6) Wobei √𝐸𝐸 ein wenig verblüfft. Beispiel zu Var(X + Y) Wir betrachten den Sonderfall X=Y. Eine ZuZa X ist von sich selbst abhängig. Nach → Tab 38 ist Var( X + X ) ≡ Var ( 2 ∙ X ) = 2 2 ∙ Var ( X ) ≠ Var ( X ) + Var ( X ) = 2 ∙ Var ( X ) Beispiel zu korrelierten ZuZa Bei einem Spielwürfel (Hexaeder) sind die oben- und untenliegenden ZuZa X und Y so beschriftet, dass immer X+Y=7 = |1+6|2+5|3+4| ist. Y hängt also von X ab. Damit wird Erw(X + Y) = 16 ∙ �(1 + 6) + (2 + 5) + ⋯ � = 42 6 = 7 = Erw(X) + Erw(Y) = 72 + 72 und Erw(X ∙ Y) = 16 ∙ �(1 ∙ 6) + (2 ∙ 5) + ⋯ � = 56 6 = 9 + 13 ≠ Erw(X) ∙ Erw(Y) = 72 ∙ 72 = 12 + 14 Dies bestätigt, dass für korrelierte ZuZa zwar (immer) Erw(X + Y) = Erw(X) + Erw(Y) gilt, aber Erw(X ∙ Y) ≠ Erw(X) ∙ Erw(Y) sein kann. Beispiel zu abhängigen ZuZa ZuEx: »Werfen zweier Würfel« ZuZa S=Augensumme, ZuZa D=Augendifferenz Ereignis: (6; 6) ⇒ S=12 und D=0. Prob(S = 12) = 1 36 ⁄ , Prob(D = 0) = 6 36 ⁄ 132 3 Zufall, Erwartung und Verteilung Prob �« S = 12 ����� A » ∩ « D = 0 ��� B »� = Prob(6; 6) = 1 36 ⁄ , aber Prob �S = 12 ����� A � ∙ Prob �D = 0 ��� B � = 1 216 ⁄ Also ist 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) ≠ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) ∙ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) und die ZuZa-Ereignisse A und B sind abhängig. Beispiel: Eine Schraubenproduktion (2) Ein Fabrikant produziert zylindrische Maschinenschrauben. Dabei stellt er durch genaue Messungen fest, dass die Durchmesser X und die Längen Y streuen , also Zufallszahlen sind. Da im Prinzip beliebig genau gemessen werden kann, werden X und Y als stetige ZuZa angesehen. Hier nochmals die beiden wichtigen Eigenschaften einer stetigen ZuZa Prob(Z = x) = 0 und Prob(a < Z < b) = ∫ f(x) ∙ dx b a mit der 1D-Wahrscheinlichkeitsdichte f(x). Bei zwei stetigen ZuZa X und Y gibt es analog die 2D-Wahrscheinlichkeitsdichte f(x,y) mit Prob(«a < X < b» ∩ «c < Y < d») = ∫ �∫ f(x, y) ∙ dy d c � ∙ dx b a Wenn X und Y als stochastisch unabhängig angesehen werden, dann kann man faktorisieren ; d.h. f(x, y) = u(x) ∙ v(y) und aus dem Doppel-Integral wird das Produkt zweier Einzel-Integrale: Prob(a < X < b) ∙ Prob( c < Y < d) = �� u(x) ∙ dx b a � ∙ �� v(y) ∙ dy d c � = �U(b) − U(a)� ∙ �V(d) − V(c)� Dabei wurde unterstellt, dass für die 1D-Funktionen u und v je eine Verteilungsfunktion vorliegt 3.8 Mehrere Zufallszahlen 133 U(x) ≝ ∫ u(t) ∙ dt ≡ ProbSum(x) x −∞ und analog für v In der Praxis liegt häufig Normalverteilung vor, dann ist U(b) − U(a) = NormSum(a; b) und analog für v Der Mathematiker behauptet, die D- und L-Werte streuen unabhängig voneinander und sind normalverteilt mit 2% D-Streuung und 3% L-Streuung. Der Produzent entschließt sich, nur Schrauben mit |∆𝐷𝐷| 𝐷𝐷� < 4% ⁄ und |∆L| L� < 5% ⁄ ausliefern zu lassen und möchte nun wissen, welchen Ausschuss in % er zu erwarten hat. Es liegen zwei normalverteilte ZuZa D und L vor. Ausgeliefert wird nur der Anteil P = Prob �« |∆D| D� < 0.04 ⁄ » ������������� D ∩ « |∆L| L� < 0.05 ⁄ » ������������� L � Bei Unabhängigkeit darf man faktorisieren: P = Prob(D ∩ L) = Prob(D) ∙ Prob(L) = P D ∙ P L Normalverteilt heißt: P D = NormSum (D� − ∆D; D� + ∆D) P L = NormSum (L� − ∆L; L� + ∆L) Numerik mit E XCEL µ s σ=µ·s d Δ=µ·d P 1 - PD·PL Dicke D 6 2% 0,12 4% 0.24 0.954 13.7% Länge L 25 3% 0,75 5% 1.25 0.904 Die beiden P-Werte werden errechnet nach: NORM.VERT(µ+∆; µ; σ; 1)-NORM.VERT(µ-∆; µ; σ; 1) Es müssen also ca 14% recycelt werden. Erw und Var von Mittelwerten Man bildet aus n stochastisch unabhängigen ZuZa X i mit jeweils gleichem Erw(X i ) = μ und gleicher Var(X i ) = σ² 134 3 Zufall, Erwartung und Verteilung die Summe S = ∑ X i i = n ∙ μ und den Mittelwert X� = 1 n ∙ S = μ Beides sind wieder streuende ZuZa. Man denke etwa an viele n- Stichproben, die man Lieferungen von Industrieprodukten entnimmt. Da sie der gleichen Produktion entstammen kann man gleiche µ und σ unterstellen. Die Mittelwerte verschiedener Stichproben sind aber nicht alle gleich, sondern streuen. Ihre Varianz ist dann Var(X�) ≡ σ� 2 = Var �1n ∙ S� → (3.3.2) → �1n� 2 ∙ Var(S) = � 1 n � 2 ∙ n ∙ σ 2 = σ² n ⇒ 𝛔𝛔� 𝟐𝟐 = 𝛔𝛔² 𝐁𝐁 oder σ� = σ √n (7) Ein etwas verblüffendes Resultat. Die Streuung des Mittelwerts ist kleiner als die der einzelnen ZuZa. Das kann man so erklären, dass sich Abweichungen nach links oder rechts vom Mittelwert teilweise ausgleichen. Beispiel: der Blockkondensator In einem elektrischen Blockkondensator werden mehrere Schichten von Metall- und Papierfolien (Leiter und Isolator) über einander geschichtet. Die Dicken dieser Schichten streuen, sind also ZuZa. Jede der beiden Foliendicken (Metall oder Papier) hat die Erwartungswerte µ M und µ P sowie die Streuungen σ M und σ P . Sie werden als bekannte Messgrößen vorausgesetzt. Jedes Folienpaar (Metall+Papier) hat demnach für die ZuZa Dicke den Erw 𝜇𝜇 = 𝜇𝜇 𝑀𝑀 + 𝜇𝜇 𝑃𝑃 und die Var σ 2 = σ M2 + σ P2 Wir nehmen an, dass es n Folienpaare gibt. Die Schichtdicke Z der gesamten Schicht mit n Folienpaaren hat daher den Erw μ Σ = n ∙ μ und die Streuung σ Σ = √n ∙ σ Die letzte Formel verblüfft ein wenig. Mit der Zahl n der Folienpaare wächst die Gesamtstreuung σ nicht linear mit n, sondern nur mit √n . Dies kann man sich so erklären: Das Zusammentreffen von mal dickeren und mal dünneren Schichten reduziert die Gesamtstreuung. 3.9 Große Zahlen 135 3.9 Große Zahlen Die Ungleichung von Tschebyscheff P. L. T SCHEBYSCHEFF (1821-1894) ging aus von der Definition der Varianz einer ZuZa Z Var(Z) ≡ σ 2 = �∑ {(k − μ)² ∙ P(k) } alle k ∫ {(x − μ)² ∙ f(x)} alle x diskret stetig � Mal wieder benütze ich die Abkürzung 𝑃𝑃(𝑘𝑘) ∶= 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) und lasse beim Integral schlampig das Differential weg. Ich verfolge nur die stetige Version mit der Wahrscheinlichkeitsdichte f weiter. Bei diskreten ZuZa müssen die Integrale durch Summen ersetzt werden. T SCHEBYSCHEFF teilte den Bereich irgendeiner Verteilung für alle x in zwei Teile: x-Werte in einer Umgebung von μ 𝐴𝐴: |𝑍𝑍 − 𝜇𝜇| < 𝑐𝑐 und den Rest weiter weg von μ 𝐵𝐵: |𝑍𝑍 − 𝜇𝜇| ≥ 𝑐𝑐 Abb 43: Tschebyscheff’s Bereichsaufspaltung Aus dieser Aufteilung folgt 𝜎𝜎 2 = � {(𝑍𝑍 − 𝜇𝜇) 2 ∙ 𝐸𝐸(𝑍𝑍)} 𝐴𝐴 ��������������� ≥0 + � �(𝑍𝑍 − 𝜇𝜇) 2 ������� ≥𝑐𝑐 2 ∙ 𝐸𝐸(𝑍𝑍)� 𝐵𝐵 ≥ 𝑐𝑐² ∙ ∫ {𝐸𝐸(𝑍𝑍)} 𝐵𝐵 ������� 𝑃𝑃𝑟𝑟𝑔𝑔𝑃𝑃(|𝑍𝑍−𝜇𝜇|≥𝑐𝑐) und damit A μ+c μ-c B B 136 3 Zufall, Erwartung und Verteilung Die Ungleichung von T SCHEBYSCHEFF 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(|𝑍𝑍 − 𝜇𝜇| ≥ 𝑐𝑐) ≤ � 𝜎𝜎𝑐𝑐 � 2 oder 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(|𝑍𝑍 − 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍)| ≥ 𝑐𝑐) ≤ 𝑉𝑉𝑔𝑔𝐸𝐸(𝑍𝑍) 𝑐𝑐 2 ⁄ Bemerkenswert ist die Allgemeinheit dieser Ungleichung, Sie gilt für jede Verteilung, also nicht nur für die in → Abb 43 als Graphik benützte Normalverteilung. Gesetz der großen Zahl Wiederholt man ein ZuEx (z.B. Werfen eines Würfels) unter immer gleichen Bedingungen n-mal und tritt dabei ein Erfolg (z.B. eine ⚅ ) k-mal ein, dann ist ℎ = 𝑘𝑘 𝐸𝐸 ⁄ die relative Häufigkeit für einen Erfolg. Die Stochastiklebenserfahrung 2 (→ Abschnitt 2.3) lehrt: Für größere Zahlen n an Versuchen weicht h immer weniger von einem Trendwert p ab. p wird empirische Wahrscheinlichkeit genannt. Bei einem idealen Würfel ist p≈⅙. Dieses „immer weniger“ kann man nun quantifizieren. Die ZuZa Z=Zahl-der-Erfolge ist binomialverteilt und hat den Erw 𝜇𝜇 𝐵𝐵𝑖𝑖𝑛𝑛 = 𝐸𝐸 ∙ 𝑝𝑝 und die Var 𝜎𝜎 𝐵𝐵𝑖𝑖𝑛𝑛 2 = 𝐸𝐸 ∙ 𝑝𝑝 ∙ (1 − 𝑝𝑝) . Nach den Formeln von Abschnitt 3.3 folgt Erw(h) ≡ μ = Erw (Z)/ n = p und Var(h) ≡ σ 2 = Var (Z)/ n 2 = p ∙ (1 − p)/ n Aus der T SCHEBYSCHEFF -Ungleichung folgt dann Prob (|h − p| ≥ ε) ≤ p∙(1−p) n∙ε 2 ≤ 1 4∙n∙ε² Bei der letzten Abschätzung wurde beachtet, dass 𝑝𝑝 ∙ (1 − 𝑝𝑝) bei 𝑝𝑝 = 1 2 ⁄ seinen größten Wert ¼ annimmt. Dies führt auf 3.9 Große Zahlen 137 Das Gesetz der großen Zahl 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 (|ℎ − 𝑝𝑝| ≥ 𝜏𝜏) ≤ 1 4∙𝑛𝑛∙𝜀𝜀 2 𝑛𝑛→∞ �⎯⎯� 0 In Worten: Bei n Wiederholungen eines ZuEx ist es für größere n immer unwahrscheinlicher, dass sich Häufigkeit h und Wahrscheinlichkeit p um beliebig wenig ( ɛ ) voneinander unterscheiden. Die Rolle von n (einer großen Zahl an Wiederholungen) und ɛ (einer beliebig kleinen Zahl) sind in dieser Formulierung besonders wichtig. Damit sind die in → Abschnitt 2.4 angeführte Lebenserfahrung 2 und das sog. Trendverhalten quantifiziert . Zentrale Grenzwertsätze (ZGWS) Die ZGWS sind wichtige, fundamentale Erkenntnisse der Stochastik. Es gibt mehrere ZGWS. Ich versuche jeweils eine einfache, anschauliche (nicht immer ganz präzise) Formulierung. Eine historisch frühe Version (um 1800) ist: Der ZGWS von M OIVRE und L APLACE 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) und 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚 𝜇𝜇; 𝜎𝜎 (𝑘𝑘) unterscheiden sich kaum für nicht zu kleine n (>9), wenn man die Parameter umrechnet nach μ = n ∙ p σ = �n ∙ p ∙ (1 − p) (*) Für größere n werden die Unterschiede immer geringer. Man kann dies heutzutage mit Computergraphiken leicht  bestätigen. 138 3 Zufall, Erwartung und Verteilung Tab 38: Vergleich von Bin mit Norm für p=0.4 n=10 n=50 n=100 Diskrete Bin-Werte sind wie üblich als Stäbe ( 𝑘𝑘𝜖𝜖ℕ ), stetige Norm- Werte ( 𝑍𝑍𝜖𝜖ℝ ) sind als stetiger Funktionsgraph gezeichnet. Die Näherung Bin p; n (k) ≈ Norm μ; σ (k) = 1 σ ∙ φ � k−μ σ � war im Tabellenzeitalter besonders interessant, weil man komplexe Bin p; n -Tabellen mit zwei Parametern durch eine einzige φ Tabelle ohne Parameter ersetzen konnte. Die Erkenntnis von M OIVRE & L APLACE (um 1733) wurde um 1900 (u.a. von A.L JAPUNOFF , G.P OLYA , J.W.L INDEBERG , P.L EVY ) sehr verallgemeinert. Man ließ insbesondere die Bin-Voraussetzung fallen. Zentraler Grenzwertsatz (ZGWS) Wenn n ZuZa X i jeweils die Erwartungswerte µ i und Streuungen σ i haben, dann hat die Summe 𝑃𝑃 𝑛𝑛 ∶= ∑ {𝑋𝑋 𝑖𝑖 } 𝑖𝑖 den Erw μ = ∑ {𝜇𝜇 𝑖𝑖 } 𝑖𝑖 und bei stochastisch unabhängigen X i die Var σ 2 = ∑ {σ i2 } 𝑖𝑖 . Falls von den ZuZa X i keine dominiert, dann ist S n für genügend große n normalverteilt Prob(S n ≤ x) n groß �⎯⎯⎯⎯� NormSum μ; σ (x) = Φ � x−μ σ � In der Praxis kann n genügend groß durch n > 30 erfüllt werden. 3.9 Große Zahlen 139 Sind schon die X i normal verteilt, dann ist S n für alle n, also auch kleine, ebenfalls normal verteilt. Der ZGWS beeindruckt durch die geringen Voraussetzungen, die in der Praxis sehr oft erfüllt sind. Bsp: Bei einer industriellen Fertigung kommt ein Maß eines Produktes durch die Summe vieler einzelner ZuZa zustande. X 1 =Fehler beim Greifen, X 2 =Fehler beim Einspannen, X 3 =Fehler beim Drehmeißel usw. Die beim ZGWS gemachten Voraussetzungen über die ZuZa X i sind also im wirklichen Leben sehr oft erfüllt. Dies erklärt die enorme Bedeutung der Normalverteilung. 4 Stichproben und Tests 4.1 Stichproben Stichproben zu erfassen ist eine grundsätzliche Methode aller Statistik. Jeder kennt die Hochrechnungen an einem Wahlsonntag. Sie beruhen auf einer sog. repräsentativen Umfrage im Wahlvolk. Innerhalb einer Bevölkerungsgruppe (Frauen, Männer, Junioren, Senioren usw.) werden die befragten Personen statistisch ausgewählt und zu ihrem Wahlverhalten befragt. Dabei wird nur ein kleiner Teil von n Personen dieser Bevölkerungsgruppe mit N Personen befragt. Alle Mitglieder einer Bevölkerungsgruppe zu befragen ist schlicht nicht möglich. Also muss man sich auf n ≪ N beschränken. Man spricht dann von einer Stichprobe vom Umfang n oder kurz von einer n-Stichprobe. Wenn man die Zahl N aller Objekte der Grundgesamtheit kennt, dann spricht man auch von einer n-aus-N- Stichprobe. Für die Beschränkung n ≪ N gibt es eine Fülle von Argumenten. Z.B. kann man beim Testen der Bruchgrenzen eines Produktes nur wenige Produkte wirklich zerbrechen. Zu viele wäre ökonomischer Unsinn. Man ermittelt statistische Eigenschaften der Stichprobe wie z.B. Art der Verteilung, Mittelwert, Streuung usw. und versucht auf entsprechende Eigenschaften der Grundgesamtheit zu schließen. Will man statistische Prognosen wagen, dann muss bei einer Stichprobe die Auswahl der Elemente aus der betreffenden Grundgesamtheit zufällig und unabhängig voneinander geschehen. Man kann bei einer n-aus-N-Stichprobe k Gegenstände finden, die eine gewisse Eigenschaft (z.B. ‚defekt‘) haben. Man kann einen geprüften Gegenstand wieder zurücklegen oder nicht. 142 4 Stichproben und Tests Tab 39: Vergleich von Bin- und Hyp-Verteilung mit ohne Zurücklegen Prob(Z = k) = Bin p; n (k) Prob(Z = k) = Hyp N; K; n (k) Erw Bin (k) ≡ μ Bin = n ∙ p Erw Hyp (k) ≡ μ Hyp = n ∙ p mit p ≔ K N Var Bin (k) ≡ σ Bin 2 = n ∙ p ∙ (1 − p) Var Hyp (k) ≡ σ Hyp 2 = n ∙ p ∙ (1 − p) ∙ N−n N−1 relative Häufigkeit: h ∶= k n Erw Bin (h) = p Erw Hyp (h) = p ∶= K N Var Bin (h) = p∙(1−p) n Var Hyp (h) = p∙(1−p) n ∙ N−n N−1 mit p ≔ K N N=500 K=200 n=50 p=0,4 Bei Hyp ist K die Zahl der Werte der Grundgesamtheit, die diese gewisse Eigenschaft (z.B. defekt) haben. Diese Zahl kennt man allerdings in den seltensten Fällen! Wenn n ≪ N dann ist 𝑁𝑁−𝑛𝑛 𝑁𝑁−1 ≈ 1 und der Unterschied zwischen Hyp und Bin ist sehr gering. 0,00 0,02 0,04 0,06 0,08 0,10 0,12 0,14 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 Hyp Bin 4.1 Stichproben 143 Der Schluss von einer n-Stichprobe auf das p der Grundgesamtheit Ein typisches Bsp ist die Befragung von n Wahlberechtigten, um daraus auf den Stimmenanteil p der Partei XYZ in der Gesamtbevölkerung zu schließen. Bei der Befragung haben sich k der n Befragten als Wähler der XYZ-Partei geoutet. Damit ist k/ n die relative Häufigkeit von XYZ-Wählern. Es entsteht die Frage: „Mit welcher Sicherheit kann man aus k/ n auf das p der Grundgesamtheit schließen“? Die Stochastik bietet dafür an, die Wahrscheinlichkeit eines Irrtums zu begrenzen und fasst dies in die Formel: Prob �� k n − p� ≤ ε� ≥ γ (1) Mit zwei vorgegebenen (! ) Werten:  möglichst wenig Abweichung zwischen k/ n und p ɛ möglichst klein 1 … 5%  eine möglichst große Vertrauenswahrscheinlichkeit γ möglichst groß 95 … 99% kann die Stochastik daraus gewisse Schlussfolgerungen ziehen. α=1-γ wird in diesem Zusammenhang auch Irrtumswahrscheinlichkeit genannt und manchmal statt γ möglichst klein vorgegeben. Solche Formeln wie (1) bestimmen ganz wesentlich die angewandte Stochastik. Man kann die Stichprobe als BeEx „mit Zurücklegen“ durchführen. Das bedeutet, dass bei der Wahlbefragung ein schon einmal Befragter noch einmal befragt werden kann. Bei n ≪ N ist dies aber äußerst unwahrscheinlich. Aus (1) wird mit p = μn γ ≤ Prob �� k n − μn � ≤ ε� = Prob(−ε ∙ n ≤ k − μ ≤ ε ∙ n) = Prob �− ε∙n σ � u=−o ≤ k−μ σ � x ≤ ε∙n σ � o � 144 4 Stichproben und Tests Achtung: Ich verwende ein o für oben, wobei o≠0 ist. γ ≤ Prob(x ≤ o) − Prob(x < u) = ProbSum(o) − ProbSum(u) Wenn der Stichprobenumfang n groß genug ist, dann kann man nach M OIVRE -L APLACE nähern ProbSum ≈ Ф. γ ≤ Φ(o) − Φ(u) ��� Φ(−o)=1−Φ(o) = 2 ∙ Φ(o) − 1 ⇒ Φ(o) ≥ γ+1 2 � β ⇒ o ≥ invΦ(β) o = ε∙n σ = ε∙n �n∙p∙(1−p) = ε ∙ � n p∙(1−p) ≥ invΦ(β) ⇒ n ≥ p ∙ (1 − p) ������� ≤ 1 4 ⁄ ∙ � invΦ(β) ε � 2 Da man p nicht kennt, muss man 𝑝𝑝 ∙ (1 − 𝑝𝑝) wie angegeben abschätzen. Die p-Parabel hat bei p = ½ ihr Maximum ¼. Also wird (1) erfüllt, wenn 𝐸𝐸 ≥ � 𝑖𝑖𝑛𝑛𝑣𝑣𝛷𝛷(𝛽𝛽) 2𝜀𝜀 � 2 mit 𝛽𝛽 = 𝛾𝛾+1 2 (2) Will man mit einer n-Stichprobe den Parameter p einer Bin-verteilten Grundgesamtheit schätzen, und sich dabei eine durch ɛ und γ begrenzte Irrtumswahrscheinlichkeit (α=1-γ) erlauben, dann muss man für den Stichprobenumfang n mindestens den durch (2) gegebenen Wert wählen. Tab 40: Minimaler Stichprobenumfang bei vorgegeben ɛ und γ nach (1) und (2) Die Aufbereitung einer Stichprobe durch Klassenbildung Ein Bsp: Gegeben sei eine Stichprobe mit n Messwerten (z.B. Längen, Gewichte, Zeiten, Kapazitäten usw.). Um folgende Tabellen übersichtlich zu halten, habe ich den Stichprobenumfang n=12 ɛ γ ß invФ n≥ 0,05 0,9 0,95 1,645 271 invФ(ß)= NORM.INV(ß; 0; 1) 0,01 0,9 0,95 1,645 6764 0,01 0,95 0,975 1,960 9604 4.1 Stichproben 145 recht klein gewählt. In der Praxis wird oft mit viel größerem n gearbeitet. Tab 41: Aufbereiten einer Stichprobe durch Klassenbildung Von den n=12 Rohwerten haben mehrere den gleichen Zahlenwert. Insgesamt gibt es nur k=5 verschiedene Zahlenwerte. Die Stichprobe wird aufbereitet:  man ordnet die n Stichprobenwerte x i nach ihrer Größe (in der Regel aufsteigend)  man faßt alle gleichen Stichprobenwerte zu einer Klasse zusammen; dabei entstehen k Klassen (k≤n)  jede Klasse hat die absolute und die relative Häufigkeit n j und h j = n j ∑ �n j � j ⁄ . Häufigkeiten haben die leicht einsehbare Eigenschaft der Normiertheit ∑ �n j � kj=1 = n und ∑ �h j � kj=1 = 1 (3) Den Stichprobenmittelwert x̅ kann man auf dreierlei Weise berechnen x� ∶= 1 n ∙ ∑ {x i } ni=1 = 1 n ∙ ∑ �x j ∙ n j � kj=1 = ∑ �x j ∙ h j � kj=1 = 54 12 = 4.5 ⁄ (4) 146 4 Stichproben und Tests Die vielen, verwirrend ähnliche Summen ∑ i über Rohwerte und ∑ j über Klassen sollte man gut auseinanderhalten. Analog zum Stichprobenmittelwert x� gibt es die Stichprobenvarianz s 2 ∶= 1 n−1 � ‼! ∙ ∑ {(x i − x�) 2 } ni=1 Wir halten die kleine Überraschung (! ) in Worten fest: Bei der Definition der Stichprobenvarianz wird die Summe nicht durch n, sondern durch (n-1) dividiert. Der Grund ist, dass s² erwartungstreu ist ( → Herleitungen). Aber 1 𝑛𝑛 ∙ ∑ (𝑍𝑍 𝑖𝑖 − 𝑍𝑍�) 2 𝑛𝑛𝑖𝑖=1 = 𝑛𝑛−1 𝑛𝑛 ∙ 𝐸𝐸² ist NICHT erwartungstreu. Erwartungstreu heißt Erw(s 2 ) = σ 2 . Dabei sollte man auseinanderhalten  Erwartungswert und Streuung der Grundgesamtheit µ und σ  Mittelwertwert und Streuung der Stichprobe x̅ und s Mit den Ergebnissen des → Abschnitts 3.8 seien hier noch einmal Eigenschaften wesentlicher Größen einer Stichprobe zusammengestellt: Satz: Eigenschaften von Mittelwert und Varianz einer Stichprobe Sind n ZuZa X1, X2, …, Xn paarweise stochastisch unabhängig und haben je den gleichen Erw µ und die gleiche Var σ², dann ist der Stichprobenmittelwert x� normal verteilt und es gilt Erw(x�) = μ Var(x�) ≡ σ� 2 = σ² n Erw(s²) = σ 2 Die Streuung des Stichprobenmittelwertes σ� = σ √n ⁄ wird also mit wachsendem Stichprobenumfang mit dem Faktor 1 √n ⁄ kleiner. 4.1 Stichproben 147 Mit absoluten und relativen Häufigkeiten gibt es wieder mehrere (z.T. verwirrend viele) Möglichkeiten, die Stichprobenvarianz zu berechnen s 2 = 1 n−1 ∙ ∑ (x i − x�) 2 ni=1 = 1 n−1 ∙ ∑ ��x j − x�� 2 ∙ n j � kj=1 = n n−1 ∙ ∑ ��x j − x�� 2 ∙ h j � kj=1 s 2 = n n − 1 ∙ �x 2 ��� − x� 2 � Bei der letzten Formel wurde der Mittelwert der Quadrate definiert: x� 2 ≝ 1 n ∙ ∑ �x i2 � = 1 n ∙ ∑ �x j2 ∙ n j � kj=1 = ∑ �x j2 ∙ h j � kj=1 ni=1 und die S TEINER -Vereinfachung angewendet: ∑(x i − x�) 2 = ∑�x i2 − 2 ∙ x i ∙ x� + x� 2 � = ∑ x i2 � n∙x 2 ���� − 2 ∙ x� ∙ ∑ x i � n∙x � + x� 2 ∙ ∑ 1 � n = n ∙ �x 2 ��� − x� 2 � Dies sind wieder viele verblüffend ähnliche Formeln, bei denen man genau auf die Indizes und die Obergrenzen achten muss. Eine Stichprobenauswertung Einer Produktion von Schrauben wurden n=100 entnommen und ihre Durchmesser (ZuZa Z) auf 0.01 mm genau gemessen. Die Messwerte liegen im Bereich x j ∈ [3,46 … 3,54] (alles in mm). Aus der Messgenauigkeit ergeben sich k=8 verschiedene Klassen. Ich unterschlage die Urliste wegen ihres Umfangs n=100. Die bereits aufbereitete Stichprobe wurde mit einer E XCEL -Tabelle ausgewertet. Da die Messwerte bereits in Klassen eingeteilt wurden, kann es nur Formeln mit Häufigkeiten n j oder h j geben! Tab 42: Auswertung einer n=100-Stichprobe 148 4 Stichproben und Tests Abb 44: Auswertung einer n=100-Stichprobe Die x j und n j sind gemessene Werte, der Rest ist Auswertung. Der Mittelwert wurde berechnet nach x� = 1 n ∙ ∑ �x j ∙ n j � = ∑ �x j ∙ h j � = 3.492 j j Die Stichprobenvarianz s 2 mal ohne und mal mit S TEINER berechnet. 𝐸𝐸 2 = 1 𝑛𝑛−1 ∙ ∑ ��𝑍𝑍 𝑗𝑗 − 𝑍𝑍�� 2 ∙ 𝐸𝐸 𝑗𝑗 � 𝑗𝑗 = 𝑛𝑛 𝑛𝑛−1 ∙ �∑ �𝑍𝑍 𝑗𝑗2 ∙ ℎ 𝑗𝑗 � 𝑗𝑗 ������� 𝑥𝑥 2 ���� − 𝑍𝑍� 2 � ≈ (0.0163) 2 4.2 Signifikanz-Test Manche sprechen auch vom Hypothesentest . Die Grundgedanken des Signifikanztests (ST) werden an einem kommunalpolitischen Bsp erläutert. Eine Stadtverwaltung (SV) plant ein umstrittenes Bauprojekt. Eine frühere Bürgerbefragung hatte p 0 =60% Befürworter ergeben. Eine Bürgerinitiative (BI) 0 5 10 15 20 25 30 3,46 3,47 3,48 3,49 3,50 3,51 3,52 3,54 nj 4.2 Signifikanz-Test 149 behauptet, dass es inzwischen weniger Befürworter gibt. Die SV beharrt auf der Null-Hypothese : H 0 : »es gibt nach wie vor mindestens p 0 Befürworter« Die BI behauptet die Gegen-Hypothese: H1: »es gibt inzwischen weniger als p 0 Befürworter« SV: H 0 : p ≥ p 0 kontra BI: H 1 ∶ p < p 0 Die BI strebt einen sog. linksseitigen Signifikanztest (ST) an, bei dem p < p 0 vermutet wird. Eine erneute Befragung aller Bürger halten beide Parteien für zu aufwändig und zu teuer. Sie einigen sich darauf, die Weiterführung des Projekts vom Ergebnis einer repräsentativen Umfrage abhängig zu machen. Bei einer solchen repräsentativen Umfrage werden von allen N Bürgern n zufällig ausgewählte Bürger befragt und die Zahl k der Befürworter registriert. Statistiker nennen so etwas eine naus-N-Stichprobe. Um Kosten zu sparen wird meist n ≪ N gewählt. Es entsteht die Frage: »Wie beurteilt man ein Ergebnis mit k Befürwortern bei einer naus-N-Stichprobe«. Anders gefragt: »Bei welchem Ergebnis k wird man H 0 ablehnen (H 0 ↓) oder akzeptieren (H 0 ↑)« Einer schlägt vor, dass man wie folgt entscheide: Ein Mathematiker wendet ein: Die n-Stichprobe ist ein ZuEx und kann prinzipiell jeden Wert k=0, 1, 2, …, n haben. Falls es keinen Meinungswechsel in der Bevölkerung gegeben haben sollte, dann hat 𝑘𝑘 0 = 𝐸𝐸 ∙ 𝑝𝑝 0 die höchste Wahrscheinlichkeit. 150 4 Stichproben und Tests Aber k-Werte in der Umgebung von k 0 sind auch noch recht wahrscheinlich. Dies zeigen z.B. die Bin-Grafiken in 2.5. Die Befragung der n Bürger ist ein ZuEx mit entweder einer Hyp- oder einer Bin-Verteilung. Die Problematik Hyp oder Bin wurde im Abschnitt 2.6 ausführlich diskutiert. Da man meist die Zahl K der Befürworter in der Gesamtbevölkerung (N) nicht kennt, wählt man Bin mit p 0 =K/ N. Prob(Z = k) = Bin p 0 ; n (k) (1) Die Parteien sehen ein, dass eine Entscheidung der simplen Art nicht sinnvoll ist und beschließen: Nur wenn die Zahl k der Befürworter deutlich unter k 0 liegt. verwerfen wir die Null-Hypothese. Dieses deutlich unter k 0 verlangt die Angabe einer Untergrenze u<k 0 . Der Mathematiker warnt: Wie auch immer Ihr Euch entscheidet, Ihr könnt Euch irren. Irren heißt  die Null-Hypothese zu verwerfen, obwohl sie richtig ist (Fehler 1. Art), oder  die Null-Hypothese beizubehalten, obwohl sie falsch ist (Fehler 2. Art). Diese Fehler werden am Ende dieses Abschnitts detaillierter besprochen. Welches u man auch immer wählt, ein solcher Irrtum hat eine Irrtumswahrscheinlichkeit IW(u) = Prob(Z < u) links (2) Wenn man ein u wählt, dann kann man mit (2a) die IW(u) berechnen. Falls einem diese IW nicht passt, könnte man ein anderes u 4.2 Signifikanz-Test 151 wählen und eine neue IW berechnen. Der Mathematiker schlägt vor, »den-Spieß-umzudrehen«. Er meint: Die »Spieß-Umkehr« des linksseitigen Signifikanztests H 1 : p < p 0 Eine maximal tolerierte Irrtumswahrscheinlichkeit α wird vorgegeben Prob(Z ≤ u) ≡ ProbSum(u) < α und damit eine Untergrenze u ermittelt u = invProbSum(α) Mit der Entscheidung (1) ist Prob=Bin und u ein Quantil von BinSum. Ich nenne es invBinSum. Es sei in diesem Zusammenhang an die in Abschnitt 3.2 ausführlich diskutierte Problematik des Quantils invProbSum einer diskreten ZuZa erinnert. Man sollte in diesem Zusammenhang nie vergessen, dass ProbSum immer wächst. Dieses Quantil u ist die gesuchte Entscheidungsgrenze des linksseitigen ST: u = invBinSum p 0 ; n (α) (3) In der Praxis wird das vorgegebene α klein gewählt (=1 … 5%) und dann nach (3) die Untergrenze u bestimmt. Mit diesem u kann man nach (2) wiederum die wirkliche IW(u) berechnen. Man sollte das vorgegebene α und diese IW(u) unterscheiden. Tab 43: Bürgerbefragung, Signifikanttest links 152 4 Stichproben und Tests Wer nicht über die invBinSum-Funktion verfügt, muss die BinSum- Tabelle wie rechts dargestellt durchsuchen, und zwar je nach gewähltem α an der richtigen Stelle. Damit wird das BI/ SV-Problem gelöst: Die Nullhypothese p=p 0 wird abgelehnt H 0 ↓, wenn die n=100-Stichprobe bei vorgegebenem α=1% (3%; 5%) weniger als 48 (51; 52) Befürworter erbrachte. Ein problematischer Würfel Von einem idealen Würfel wird erwartet, dass er jede Augenzahl mit Prob=p 0 = ⅙ liefert. Man sagt dann: Er besitze die L A P LACE -Eigenschaft: Alle Ergebnisse sind gleich wahrscheinlich. Von einem problematischen Würfel wird behauptet, er sei nicht-ideal, er liefere eine ⚅ zu selten oder zu oft oder: Tab 44: Die 3 möglichen Signifikanz-Tests p<p 0 p>p 0 p≠p 0 links rechts zweiseitig Neben dem linksseitigen ST (der Bürgerbefragung) gibt es auch den rechtsseitigen und den zweiseitigen. Der zweiseitige ST besteht aus einem links- UND einem rechtsseitigen. Beim rechtsseitigen ST wird aus (2a) IW(o) = Prob(Z > o) (2b) für eine obere Grenze o. Ich hoffe, der ungewöhnliche Bezeichner o (≠0) stiftet keine Verwirrung. Tab 45: Die beiden Signifikanz-Tests links rechts Null-Hypothese H0: 𝑝𝑝 = 𝑝𝑝 0 Gegen-Hypothesen H1 𝑝𝑝 < 𝑝𝑝 0 𝑝𝑝 > 𝑝𝑝 0 die maximal tolerierte IW 𝜎𝜎 = 1 … 5% wird vorgegeben 4.2 Signifikanz-Test 153 die Grenzen unten/ oben werden bestimmt 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝑧𝑧) > 𝜎𝜎 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝜎𝜎) > 1 − 𝜎𝜎 𝑧𝑧 = 𝐸𝐸𝐸𝐸𝑖𝑖𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚(𝜎𝜎) 𝜎𝜎 = 𝐸𝐸𝐸𝐸𝑖𝑖𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚(1 − 𝜎𝜎) H0 wird abgelehnt ↓, wenn 𝑘𝑘 < 𝑧𝑧 𝑘𝑘 > 𝜎𝜎 Irrtumswahrscheinlichkeit 𝐼𝐼𝑊𝑊(𝑧𝑧) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 < 𝑧𝑧) = 𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚(𝑧𝑧 − 1) 𝐼𝐼𝑊𝑊(𝜎𝜎) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 > 𝜎𝜎) = 1 − 𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚(𝜎𝜎) Beim fragwürdigen Würfel (s.o.) wird die Null-Hypothese p=p0= ⅙ mit einem linken oder/ und rechten ST und n Würfen überprüft. Tab 46: ST links ODER rechts [0 [k 0 ]n k<u : H 0 ↓ k≥u : H 0 ↑ | Ablehnung | Annahme | [u [ 0 [ k 0 ] n k≤o : H 0 ↑ k>o : H 0 ↓ | Annahme | Ablehnung | ] o 154 4 Stichproben und Tests Beim zweiseitigen ST wird die vorgegeben IW=α je zur Hälfte nach links und rechts verteilt. Für den oben beschriebenen problematischen Würfel mit der Null-Hypothese p≠p0= ⅙ findet man mit einem 2-seitigen ST folgendes. Tab49: ST links UND rechts = zweiseitig Eine allgemeine Beobachtung: Wenn man die vorgegebene IW α vergrößert, dann verschlankt sich der Akzeptanzbereich. Die oben angesprochenen Fehler sollen nun etwas genauer besprochen werden. Ausgangspunkt ist eine Null-Hypothese H 0 die wahr oder falsch sein kann. Mit einer der oben geschilderten Tests (z.B. dem ST) wird entschieden ob H 0 akzeptiert (↑) oder abgelehnt (↓) wird. Bei Entscheidungen über Hypothesen sind vier Fälle mit zwei Fehl-Entscheidungen  möglich: ↑↑ Hypothese ist richtig und wird akzeptiert  ↓↓ Hypothese ist falsch und wird abgelehnt  ↑↓ Hypothese ist richtig, wird aber abgelehnt  ↓↑ Hypothese ist falsch, wird aber akzeptiert  Man nennt die beiden Fehler  ↑↓ und ↓↑ auch Fehler 1. und 2. Art. Als Bsp sei ein rechtsseitiger ST betrachtet: 4.2 Signifikanz-Test 155 H 1 : p > p 0 ; c = invBinSum(1 − α); IW(c) = 1 − BinSum(c) Abb 45: Fehler 1. Art bei einem ST Die konkreten Zahlenberechnungen werden mit einem unüblichen, zu großen α=10% durchgeführt, damit die Abbildungen deutlicher werden. Der für die Entscheidung (Annahme ↑ oder Ablehnung ↓) kritische Wert wird mit c bezeichnet. Der Ablehnungsbereich ist (c … n]=[12 … 20]. Seine Wahrscheinlichkeit Prob(Z>c) ist gleichzeitig die Irrtumswahrscheinlichkeit IW und auch die Wahrscheinlichkeit Prob(H 0 r↓) für den Fehler 1. Art. Es wurde außer der Binauch die dazu passende stetige Normalverteilung gezeichnet. Die Wahrscheinlichkeit für den Fehler 2. Art Prob(H 0 f↑) hängt davon ab, welches p das wahre ist. Abb 46: Fehler 2. Art bei einem ST mit richtigem p=0.6 Man beachte, der kritische Trennwert c=11 ist unverändert. Der Fehler 2. Art ist jetzt der Bereich [0 … c]=[0 … 11]. Um die folgende Abbildung nicht zu überladen, wird nur noch die stetige Verteilung einmal die angenommene und die tatsächliche gezeichnet. 156 4 Stichproben und Tests Abb 47: zu den Fehlern 1. und 2. Art Für den Fehler 1. Art ist die angenommene auch die richtige Verteilung. Die mit α gekennzeichnete Fläche ist die Wahrscheinlichkeit Prob(H 0 r↓). ß kennzeichnet Prob(H 0 f↑) die IW für den Fehler 2. Art bei dem H 0 beibehalten wird, obwohl falsch. Dabei hängt ß noch vom wahren Wert p ab. Man kann leicht einsehen, dass eine Verkleinerung von α das c nach rechts verschiebt und sich dabei ß vergrößert. Die Summe α+ß (46%) der beiden Fehler bleibt dabei unverändert. Diese kann man nur verkleinern, indem man die Stichprobenanzahl n vergrößert. Tab 47: Fehler 1. und 2. Art bei erhöhtem Stichprobenumfang n=50 4.3 Der Chi-Test Die Bezeichnung kommt vom griechischen Buchstaben X, der ‚chi‘ gesprochen wird. Das Chi-Problem Von einer ZuZa ist die Verteilung Prob nicht bekannt. Es wird aber vermutet, dass eine bekannte Verteilung Prob* ganz gut passen könnte. Diese Vermutung soll mit einem Chi-Test überprüft werden. 4.3 Der Chi-Test 157 Kandidaten für diese hypothetische Verteilung Prob* sind die bekannten Hyp, Bin, Norm usw. Die Null-Hypothese H 0 lautet: »die vermutete Verteilung Prob* ist die richtige«, kurz Prob = Prob*. Ich schildere das Chi-Verfahren als Kochrezept ohne theoretische Begründungen. Eine solche findet man etwa in → [5]. Dem Chi-Test liegt eine n-Stichprobe mit k Klassen zugrunde. Einige Parameter der hypothetischen Verteilung Prob* sind nicht bekannt und müssen mit Parametern der Stichprobe geschätzt werden. Häufig geschätzte Werte sind der Erw μ~z� = Stichprobenmittelwert und die Streuung σ~s = Stichprobenstreuung. Tab 48: Der Chi-Test n Messwerte eine Stichprobe liegen vor 𝑍𝑍 1 , 𝑍𝑍 2 , … , 𝑍𝑍 𝑛𝑛 die Messwerte sind in k Klassen mit absoluten Häufigkeiten nj eingeteilt 𝐸𝐸 1 , 𝐸𝐸 2 , … , 𝐸𝐸 𝑘𝑘 der Freiheitsgrad g wird ermittelt (s.u.) 𝐸𝐸 = (𝑘𝑘 − 1) − (𝑍𝑍𝑔𝑔ℎ𝑜𝑜 𝑤𝑤𝐸𝐸𝐸𝐸 𝑃𝑃𝑐𝑐ℎä𝑒𝑒𝑧𝑧𝑤𝑤𝐸𝐸𝐸𝐸𝑒𝑒𝐸𝐸 ) hypothetische Wahrscheinlichkeiten jeder Klasse 𝑝𝑝 𝑗𝑗∗ = � 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 ∗ �𝑍𝑍 = 𝑘𝑘 𝑗𝑗 � 𝑤𝑤𝐸𝐸𝐸𝐸𝑘𝑘𝐸𝐸𝐸𝐸𝑒𝑒 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 ∗ �𝑍𝑍 𝑗𝑗−1 < 𝑍𝑍 < 𝑍𝑍 𝑗𝑗 � 𝐸𝐸𝑒𝑒𝐸𝐸𝑒𝑒𝐸𝐸𝐸𝐸 � hypothetische absoluten Häufigkeiten jeder Klasse 𝐸𝐸 𝑗𝑗∗ = 𝐸𝐸 ∙ 𝑝𝑝 𝑗𝑗∗ der X²-Wert, ist ein Maß für die Abweichung beider Verteilungen 𝑋𝑋 2 = � ��𝐸𝐸 𝑗𝑗 − 𝐸𝐸 𝑗𝑗∗ �² 𝐸𝐸 𝑗𝑗∗ � 𝑘𝑘𝑗𝑗=1 maximal-tolerierte Irrtumswahrscheinlichkeit auch Signifikanzniveau 𝜎𝜎 = 1, … , 5% 158 4 Stichproben und Tests kritischer Trennwert c � �𝐶𝐶ℎ𝐸𝐸 𝑔𝑔 (𝑍𝑍) ∙ 𝑤𝑤𝑍𝑍� 𝑐𝑐 0 ≡ 𝐶𝐶ℎ𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 𝑔𝑔 (𝑐𝑐) = 1 − 𝜎𝜎 𝑐𝑐 = 𝐸𝐸𝐸𝐸𝑖𝑖𝐶𝐶ℎ𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 𝑔𝑔 (1 − 𝜎𝜎) Entscheidung 𝑋𝑋 2 < 𝑐𝑐 ⇒ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 ∗ 𝐸𝐸𝐸𝐸𝑒𝑒 𝐸𝐸𝐸𝐸𝑐𝑐ℎ𝑒𝑒𝐸𝐸𝐸𝐸 Ich bezeichne den Freiheits g rad mit g . Weit verbreitet ist stattdessen f oder df . Ich befürchte, das könnte zu Verwechslungen mit der Wahrscheinlichkeitsdichte führen. ChiSum-Werte und ihre Inversion stellen die wenigsten TR zur Verfügung. Da Studierende in Klausuren wohl kaum über E XCEL verfügen, haben sie nur die Möglichkeit, numerische Werte einer Tabelle zu entnehmen. Ein einfaches Beispiel zum Chi-Test: Der L APLACE -Würfel Quelle [11] Ein Würfel wird als L APLACE -Würfel angeboten. Die Null-Hypothese H 0 behauptet: »Alle k=6 Augenwerte haben die gleiche Wahrscheinlichkeit ⅙«. Es wurde eine Stichprobe mit n=120 Würfen durchgeführt. Der Chi-Wert wird in einer E XCEL -Tabelle berechnet: Tab 49: Chi-Test mit einem Würfel Es wird die maximal tolerierte Irrtumswahrscheinlichkeit α=5% gewählt. Mit k=6 Klassen, dem Freiheitsgrad g=k-1=5 und α=0.05 0,00 0,10 0,20 0 5 10 c 1-α α 4.3 Der Chi-Test 159 wird das Quantil 𝑐𝑐 = 𝐸𝐸𝐸𝐸𝑖𝑖𝐶𝐶ℎ𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 5 (0.95) = 11.07 aus der invChiSum- Tabelle (→ Tabellen) gelesen. Tab 50: Ein Auszug aus der invChiSum-Tabelle Entscheidung: Da Chi=3.8 < c=11.07 ist, wird Prob* akzeptiert. Diese Entscheidung kann mit höchstens 5% Irrtumswahrscheinlichkeit falsch sein. Chi-Beispiel: Normalverteilte Serienproduktion Quelle [11] Von einem Messwert X einer Serienproduktion wird behauptet, er sei normal verteilt: Prob* = Norm Der Serienproduktion wurde eine n=100-Stichprobe entnommen und exakt vermessen. Die Messwerte lagen im Bereich 48...54 mm und wurden in k=6 Klassen eingeteilt. Die Klassenmitten werden mit xj bezeichnet. Die abs. Häufigkeiten nj jeder Klasse wurden festgehalten. Von der Normalverteilung sind weder µ noch σ bekannt, sie werden mit Stichprobenwerten geschätzt: 𝜇𝜇~𝑍𝑍� und 𝜎𝜎~𝐸𝐸 . Damit ist der Freiheitsgrad g=(k-1)-2=3. Tab 51: Chi-Wert wird in einer E XCEL -Tabelle berechnet 160 4 Stichproben und Tests Erläuterung der hypothetischen Wahrscheinlichkeiten p j *. Die Grenzen der Normalverteilung wurden auf (−∞ … + ∞) ausgedehnt. p 1∗ = ∫ Norm (x) ∙ dx x 1 +0.5 −∞ = NormSum(x 1 + 0,5) p j=2…5 ∗ = ∫ Norm (x) ∙ dx x j +0.5 x j −0.5 = NormSum�x j + 0.5� − NormSum(x j − 0.5) p 6∗ = 1 − ∑ �p j∗ � 5j=1 Es wird α=1% gewählt. Tab 52: Ein Auszug aus der invChiSum-Tabelle Trennwert c=invChiSum(α; g)=11.34 Entscheidung: Da Chi=3.42 < c=11.34 wird die Null-Hypothese Prob*=Norm akzeptiert ↑. 4.4 Vertrauensintervalle Die allgemeine Theorie Manchmal kennt man von einer Verteilung den Typ wie Bin, Norm, .... aber einer ihrer Parameter wie p, µ, σ, … sind nicht bekannt. Ein solcher Parameter p wird dann oft mit dem Wert einer n-Stichprobe geschätzt. Hier ist p ein beliebiger Parameter, nicht unbedingt die Einzelwahrscheinlichkeit einer Bin-Verteilung! Die Stochastik kann für einen solchen Parameter p ein Vertrauens- oder Konfidenzintervall angeben: u ≤ p ≤ o (man beachte o≠0) 4.4 Vertrauensintervalle 161 Die Konfidenzgrenzen u, o ermittelt man, indem man die Vertrauenswahrscheinlichkeit vorgibt . Prob(u ≤ p ≤ o) = γ = vorgegeben (1) Diese Vorgabe von γ ist eine Spieß-Umkehr, wie sie beim Signifikanztest ausführlich geschildert wurde. Für γ sind große Werte knapp unter 1 üblich (γ=1 ist nicht möglich! ) in der Industrie: γ = 95 … 99% in der Medizin: γ = 99 … 99.9% Wenn γ die Vertrauenswahrscheinlichkeit ist, dann ist α = 1 − γ die Misstrauens- oder Irrtumswahrscheinlichkeit α = 1 − γ = 1 − Prob(u ≤ p ≤ o) = Prob(p < u) ��������� α u =ProbSum(u) + Prob(p > o) ��������� α o =1−ProbSum(o) (2) Abb 48: zum Vertrauensintervall [u … o] Als Verteilung Prob kommen nur stetige Verteilungen wie Norm, Chi, Stud, … in Frage, also muss man bei Prob die Ungleichheitszeichen < und ≤ sowie > und ≥ NICHT unterscheiden. Die Vertrauensgrenzen ermittelt man nach (2) als Quantile u = invProbSum(α u ) und o = invProbSum(1 − α o ) (3) Es ist üblich, α auf zwei gleiche Hälften zu verteilen α u = α o = α2 = 1−γ 2 Mit diesem Trick können aus einem γ zwei Grenzen u und o ermittelt werden. u, o = invProbSum�(1 ∓ γ)/ 2� (4) 162 4 Stichproben und Tests Bsp 1: Das Vertrauensintervall für den Erw µ einer stetigen ZuZa Quelle [11] Es liege eine n-Stichprobe vor. Dann ist (→ Abschnitt 4.1) Erw(x�) = μ und Var(x�) = σ 2 n = σ� 2 . (5) Bezüglich der Streuung σ der Grundgesamtheit sind zwei Fälle denkbar: a) σ ist bekannt ⇒ Prob=Norm (Begründung → [11]) Dieser Fall ist nicht ganz unrealistisch, da viele Hersteller solche Streuwerte als Maschinenparameter mit angeben. b) σ ist nicht bekannt ⇒ Prob=Stud (Begründung → [11]) σ wird über die Stichprobenstreuung geschätzt σ~s (→ Abschnitt 4.1). In Standardnormalkoordinaten z = x−x � σ� (6) ist bekanntlich (→ Abschnitt 1.6) Norm μ; σ (x) = Norm 0; 1 (z) = Φ(z) Ф ist wie Stud symmetrisch zu z=0. Also wird aus (2) in beiden Fällen sinngemäß z u,o = invProbSum�(1 ∓ γ)/ 2� =: ∓c wobei c = invProbSum (β) = � invΦ(β) invStudSum(β)� Fall a Fall b mit β ∶= 1+γ 2 Ein Zurückrechnen nach (5) und (6) ergibt für die Vertrauensgrenzen des Erw: μ u,o = x� − z u,o ∙ σ √n = x� ∓ c ∙ σ √n (7) Die invProbSum-Werte mit Prob=Norm/ Stud müssen eventuell den Tabellen (→Tabellen) entnommen werden. 4.4 Vertrauensintervalle 163 Tab 53: Ein Vertrauensintervall für den Erw μ Eine Stichprobe mit n=10 Messwerten xi i= 1 2 3 4 5 6 7 8 9 10 xi= 10 8 9 10 11 10 9 12 8 12 (xi-x̅)²= 0,01 3,61 0,81 0,01 1,21 0,01 0,81 4,41 3,61 4,41 x̅= 9,9 s²= 2,1 a) σ ist gegeben σ= 2 c= invФ= NORM.INV(ß; 0; 1) γ= 0,95 ß= 0,975 c= 1,96 µu= 8,66 µo= 11,14 0,99 0,995 2,58 8,27 11,53 b) σ wird geschätzt s= 1,45 c= invStudSum= T.INV(ß; n-1) γ= 0,95 ß= 0,975 c= 2,2622 µu= 8,86 µo= 10,94 0,99 0,995 3,250 7,84 11,96 Die Ergebnisse sind also Fall a) γ=95% 8.66 ≤ µ ≤11.14 γ=99% 8.27 ≤ µ ≤11.53 Fall b) γ=95% 8.86 ≤ µ ≤10.94 γ=99% 7.78 ≤ µ ≤12.02 Ein Vergrößern der Vertrauenswahrscheinlichkeit γ vergrößert auch das Vertrauensintervall [μ u … μ o ]. Beispiel 2: Das Vertrauensintervall für die unbekannte Streuung σ einer normalverteilten ZuZa σ wird mit der Streuung s einer n-Stichproben geschätzt σ~s (→ Abschnitt 4.1). Die stetige ZuZa (Begründung → [11]) z = g ∙ � s σ � 2 mit dem Freiheitsgrad g=n (8) ist Chi-verteilt. Man ermittelt so die Vertrauensgrenzen von z analog zu nach (4) z u,o = invChiSum g �(1 ∓ γ)/ 2� Und mit (6) folgt σ u,o = s ∙ �g/ z u,o (9) Ob der Erwartungswert µ dabei bekannt oder unbekannt ist, spielt dabei keine Rolle. Tab 54: Ein Vertrauensintervall für die Streuung σ 164 4 Stichproben und Tests Beispiel 3: Auswertung einer Messreihe Wenn man die gleiche Messgröße Z mit mehreren Messungen misst, ist das Ergebnis nicht immer gleich, sondern streut. Die zufälligen (nicht systematischen) Messfehler haben eine Reihe von Ursachen, die sich alle zum Gesamtmessfehler addieren. Nach dem ZGWS sind solche Messwerte Z annähernd normalverteilt. Stochastisch betrachtet man eine solche Messreihe 𝑍𝑍 = {𝑍𝑍 1 , 𝑍𝑍 2 , … , 𝑍𝑍 𝑛𝑛 } als eine n-Stichprobe aus einer Grundgesamtheit mit Stichprobenmittelwert und Varianz μ~x� = 1 n ∙ ∑ [x i ] i und σ²~s² = 1 n−1 ∙ ∑ [(x� − x i )²] i Beide werden als Schätzwerte für die Parameter µ und σ² der Grundgesamtheit angesehen. Man gibt das Ergebnis einer solchen Messung in Form eines Vertrauensintervalls an Z = x� ± ∆x ⇔ x� − ∆x ��� u ≤ Z ≤ x� + ∆x ��� o (o≠0) Mit der üblichen Vorgabe der Vertrauenswahrscheinlichkeit γ (=95 … 99%) ermittelt man Δx als stochastische Größe wie bei (5). ∆x = c ∙ s √n mit c = invStudSum g (β) und β = (1 + γ) 2 ⁄ g = n - 1 (10) Tab 55: Auswertung einer Messreihe Aufgaben und Lösungen Ich wage es, Erkenntnisse meiner persönlichen und pädagogischen Erfahrung voranzustellen. Das Lösen von Aufgaben soll den Stoff des vorangegangenen Kapitels thematisieren und den Studierenden dazu bringen, sich wesentliche Begriffe und Gedankengänge zu erarbeiten (evt. durch Zurückblättern) und einzuprägen. Von einer Aufgabe die Lösung zu recherchieren, zu kopieren und abzuheften beruhigt die Nerven, bringt aber nur minimalen Erkenntnisgewinn. Aber um diesen geht es! Man gewinnt neue Erkenntnisse nur, wenn man das Problem, seine Fragestellung erkennt, einordnen kann (ein erster Schritt) und eigene Lösungsversuche startet. Wer weiß, wo die Lösung steht, aber nicht sofort nachschaut, sondern erst eine eigene Lösung versucht, hat nicht nur einen starken Charakter, sondern bildet neues Wissen! Diese eigenen Lösungsversuche sind unglaublich wichtig, ohne sie kommt man nicht weiter. Selbst wenn man die Lösung nicht hinbekommt, ist schon eine gedankliche Auseinandersetzung mit dem Problem ein Gewinn! Wenn man eigene Lösungsversuche mit veröffentlichten Lösungen vergleicht, dann kann dies frustrieren, hilft aber dennoch weiter. ⁉ Aufgaben zur Kombinatorik Aufgabe | Pferderennen An einem Pferderennen nehmen n Pferde teil. Wie viele Möglichkeiten gibt es, das Siegerpodest mit 3 Plätzen zu besetzen? Aufgabe | Diagonalen Wie viele Diagonalen hat ein konvexes n-Eck? Aufgabe | Klausur In einer Klausur sind 10 Aufgaben zu lösen. Die Klausur besteht, wer die ersten 3 und insgesamt mindestens 7 Aufgaben richtig löst. Auf wie viele Arten kann man diese Klausur bestehen? 166 Aufgaben und Lösungen Aufgabe | Hotel Im Fall g>z werden (g-z) Gäste im benachbarten Hotel untergebracht. Auf wie viele Arten kann man die Unterbringung realisieren? Aufgabe | Tanzschule In einer Tanzschule gibt es m Mädchen und b Buben. Wie viele verschiedene Paarungen sind möglich, wenn a) m=b b) m<b c) m>b? Wenn zwei Buben ihre Partnerin tauschen, soll dies als neue Möglichkeit gezählt werden. Aufgabe | Fünf an einem Tisch An einem quadratischen Tisch stehen 5 Stühle. Der Tisch ist groß genug, so dass auch alle 5 Stühle an einer Seite Platz haben. Wie viele Möglichkeiten gibt es, die 5 Personen an den Tisch setzen? Tauschen zwei Personen ihre Plätze, so soll dies als neue Möglichkeit gezählt werden. Aufgabe | Semesterkurse Die 40 Studierenden eines Semesters sollen in 4 Kurse mit je 10 Teilnehmern eingeteilt werden. Die Einteilung wird vollkommen dem Zufall überlassen. a) Wie viele verschiedene Kursbildungen sind möglich? Wenn zwei Teilnehmer ihre Kurse tauschen, dann entsteht eine neue Möglichkeit. Jetzt kommen noch 2 Studierende hinzu. Es sollen je zwei 10-er und zwei 11-er Kurse gebildet werden. b) Wie viele verschiedene Kursbildungen sind jetzt möglich? Aufgabe | Mississippi Der Name eines der längsten Flüsse der USA hat 11 Buchstaben. Wie viele verschiedene Möglichkeiten gibt es, die Buchstaben aneinander zu reihen? Beachten Sie: dies ergibt fast nie ein sinnvolles „Wort“. ⁉ Aufgaben zur Fehlerfortpflanzung 167 Aufgabe | Briefchaos Einer Sekretärin wurde fristlos gekündigt. Sie soll als letzte Aufgabe n fertige Briefe in n beschriftete Kuverts stecken und frankieren. Die Sekretärin will sich für ihre Kündigung rächen und steckt jeden Brief in ein falsches Kuvert. Es entsteht die Frage: Wie viele Möglichkeiten M n gibt es für das perfekte Briefchaos? Ein Tipp: Machen Sie sich klar, dass M 1,2,3 =0,1,2 und tasten Sie sich rekursiv an M 4, 5, … heran. Es ist nur diese rekursive Lösung gefragt. ⁉ Aufgaben zur Fehlerfortpflanzung Aufgabe | Federpendel Bei einem Federpendel hängt die Schwingungsdauer 𝑇𝑇 = 2𝜋𝜋 ∙ �𝑚𝑚 𝑘𝑘 ⁄ von der Masse m und der Federkonstanten k ab. Die Masse 1.5 kg streut um 1%, die Federkonstante 10 5 N/ m um 2%. Um wieviel streut die Schwingungsdauer? Aufgabe | Fadenpendel Bei einem Fadenpendel hängt die Schwingungsdauer T = 2π ∙ �g ℓ ⁄ von der Fallbeschleunigung g und der Pendellänge ℓ ab. Man kann dabei T und ℓ sehr genau messen und daraus die Fallbeschleunigung g ermitteln. Eine Messung ergab T = 8.80 sec ± 2% und ℓ = 5 m ± 3%. Welche Werte gibt es für g und ∆g? ⁉ Aufgaben zur Regression Aufgabe | Regressionsgerade Gegeben sind 8 Messpunkte: x i = 2 3.5 4 5.3 5.8 6.2 7 8.8 y i = 3 4 4.8 5.1 5.9 5.9 6.2 7.9 Zu ermitteln ist die Regressionsgerade, die diese Punkte „am besten trifft“. 168 Aufgaben und Lösungen ⁉ Aufgaben zur Wahrscheinlichkeit Aufgabe | Verknüpfte Ereignisse Für zwei beliebige Ereignisse A und B sind gegeben: 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) = 𝑔𝑔 , 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) = 𝑃𝑃 und 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑐𝑐 . Berechnen Sie die folgenden Wahrscheinlichkeiten unter ausschließlicher Verwendung von a,b,c: a) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∪ 𝐵𝐵) b) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴̅ ∪ 𝐵𝐵�) c) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴̅ ∩ 𝐵𝐵�) d) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵�) e) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃�(𝐴𝐴 ∩ 𝐵𝐵�) ∪ (𝐴𝐴̅ ∩ 𝐵𝐵)� Aufgabe | r Richtige beim TOTO Beim TOTO sind 11 Spielergebnisse mit je 3 Möglichkeiten (0,1,2) vorherzusagen. Welche Wahrscheinlichkeit haben r=0,1,2,…,11 Richtige? Aufgabe | LOTTO mit 5 Kreuzen Jemand macht versehentlich nur 5 statt 6 Kreuze im 7x7-Feld eines LOTTO-Zettels. Gezogen werden wie immer 6 aus 49 Kugeln. Welche Chance hat der Spieler auf r Richtige? Aufgabe | LOTTO mit nur Quadrat- oder nur Primzahlen Beim LOTTO-6aus49 gab es bei zwei Ziehungen die Ereignisse: A: «nur Quadratzahlen» B: «nur Primzahlen». Gesucht sind Prob(A) und Prob(B). Aufgabe | Überlebenschance eines Hasen Ein Jäger hat eine Trefferquote t. Er schießt s-mal auf einen Hasen. Welche Chance hat der Hase zu überleben? ⁉ Aufgaben zur Wahrscheinlichkeit 169 Aufgabe | Skat Beim Skatspiel werden 32 Karten, darunter 4 unterschiedliche Buben, auf 3 Spieler verteilt. 2 Karten bleiben verdeckt auf dem Tisch liegen. Wie groß ist die Wahrscheinlichkeit, dass a) ich alle vier Buben bekomme? b) alle vier Buben in einer Hand sind? c) jeder Spieler genau einen Buben hat? Aufgabe | Heilungschancen Ein Medikament wirkt im Schnitt bei 80 von 100 Patienten. Es werden 123 Patienten behandelt. a) Wie viele der 123 Patienten werden geheilt? b) Welche Zahl an Geheilten kann man erwarten? c) Wie wahrscheinlich ist es, dass genau 100 geheilt werden? d) Wie wahrscheinlich ist es, dass mindestens 100 geheilt werden? Aufgabe | Zwei Schützen Von zwei Schützen weiß man, dass sie mit den Wahrscheinlichkeiten a und b treffen. In einem Wettkampf schießt jeder n-mal. Welche Wahrscheinlichkeiten haben folgende Ereignisse? E: «Jeder trifft 1-mal» F: «Nur einer trifft 1-mal» G: «Keiner trifft» Aufgabe | Kneipenbesuch Ein Kneipenbesucher besucht seine 3 Lieblingskneipen A, B, C an 3, 2, 1 Tagen pro Woche. a) Mit welcher Wahrscheinlichkeit trifft man ihn an einem Montag in einer der 3 Kneipen? Der Zufall will es, dass man IHN bei einem Besuch einer der 3 Kneipen antrifft. b) Wie groß ist die Wahrscheinlichkeit, dass es die Kneipe A,B,C war? 170 Aufgaben und Lösungen Aufgabe | Defekte Glühbirnen In einer Warenlieferung von 100 Glühbirnen (GB) befinden sich 7 defekte. Zu Kontrollzwecken werden der Lieferung 5 GB zufällig und ohne Zurücklegen entnommen. Gesucht ist die Wahrscheinlichkeit dafür, dass diese Stichprobe a) «genau 3» b) «keine» c) «mindestens eine» d) «höchstens 3» defekte GB enthält. Aufgabe | Wahlverhalten In einer Großstadt wurde die Sympathie von 3 Altersgruppen Junior, Erwachsener, Senior der Wahlberechtigten zu den politischen Parteien A, B, C und X (= sonstige inkl. Nichtwähler) ermittelt. Bevölkerungsgruppe= Junior Erwachsener Senior Bevölkerungsanteil= 27% 45% 28% Sympathisant von A= 22% 25% 44% Sympathisant von B= 33% 45% 22% Sympathisant von C= 11% 15% 25% Sympathisant von X= 34% 15% 9% a) Mit welchem Stimmenanteil kann jede Partei am kommenden Wahlsonntag rechnen? Ein Wähler outet sich vor einem Wahllokal als A-, B-, C- oder X- Sympathisant. b) Mit welcher Wahrscheinlichkeit ist er Junior, Erwachsener oder Senior? ⁉ Aufgaben zu ZuZa 171 Aufgabe | Erweiterung von 2 auf 3 Die bekannten Formeln für zwei Ereignisse Prob(A ∪ B) = Prob(A) + Prob(B) − Prob(A ∩ B) und Prob(A ∩ B) = Prob(A) ∙ Prob 𝐴𝐴 (B) sind auf drei Ereignisse zu verallgemeinern. ⁉ Aufgaben zu ZuZa Aufgabe | Münze & Würfel Es sollen zwei ZuEx »Werfen einer Münze« und »Würfeln mit 1 Würfel« verglichen werden. Es wird jeweils 5-mal geworfen. Es werden die ZuZa M=„Anzahl Kopf“ und W=„Anzahl ⚅ “ betrachtet. Geben Sie die Verteilungen der ZuZa M und W an und zeichnen Sie deren Graphen! Aufgabe | PrimFakt Von den ganzen Zahlen 10 bis 20 sei Z die jeweilige Anzahl an Primfaktoren. Z.B. hat 12=2·2·3 drei Primfaktoren. Geben Sie die Verteilung der ZuZa Z an und zeichnen Sie deren Graphen! Aufgabe | Eine stetige Verteilung Die Funktion 𝐸𝐸 𝑎𝑎; 𝑃𝑃 (𝑍𝑍) = �𝑔𝑔 ∙ 𝑍𝑍² ∙ (𝑃𝑃 − 𝑍𝑍) 0 ≤ 𝑍𝑍 ≤ 𝑃𝑃 0 𝐸𝐸𝜎𝜎𝐸𝐸𝐸𝐸𝑒𝑒 � 𝑔𝑔, 𝑃𝑃 ∈ ℝ + soll Wahrscheinlichkeitsdichte f(x) einer stetig verteilte ZuZa Z werden. a) Skizzieren Sie den Graphen von g 4; 2 (x)! b) Welche Werte müssen die Parameter a und b haben? c) Wie lautet die zugehörige Verteilungsfunktion F? d) Berechnen Sie die Wahrscheinlichkeit dafür, dass die ZuZa Z einen Wert kleiner oder gleich 1 annimmt! e) Berechnen Sie Erw(Z) und Var(Z)! 172 Aufgaben und Lösungen ⁉ Aufgaben zum Erw Aufgabe | Eintritt würfeln Bei einer Veranstaltung kann man entweder 3 € bezahlen oder den Eintrittsbetrag würfeln. a) Wie würden Sie sich entscheiden? Von den Besuchern haben sich 60% für den Würfeleintritt entschieden. b) Mit welchem Erlös kann der Veranstalter rechnen? Aufgabe | LOTTO-MinMax Es seien X die kleinste und Y die größte der 6 Zahlen eines LOTTO- Ergebnisses. Gesucht sind a) Die Verteilungen der ZuZa X und Y b) Die Erwartungswerte Erw(X) und Erw(Y) Die Zahlenwerte von b) sind numerisch einfach als Summe zu ermitteln. Es empfiehlt sich eine E XCEL -Tabelle. Aufgabe | 3-Würfelspiel Bei einem Würfelspiel werden 3 L APLACE -Würfel gleichzeitig geworfen und die ZuZa Z=Augensumme festgehalten. Ein Spielbetreiber bietet nun an, dass er bei einer gewürfelten Primzahl das p-fache und bei einer gewürfelten Quadratzahl das q-fache des Einsatzes, sonst aber nichts ausbezahlt. a) Kann der Spielbetreiber mit p=2, q=3 ökonomisch überleben? b) Testen Sie auch p=1.5, q=2! ⁉ Aufgaben zu Tests Aufgabe | Partei Eine Partei hatte bei der letzten Wahl einen Stimmenanteil von 35%. Die Wahl ist einige Monate her und die Partei möchte wissen, ob ⁉ Aufgaben zu Tests 173 sich die Wählerstimmung inzwischen verbessert oder verschlechtert hat. Ein Meinungsforschungsinstitut (MFI) soll dies mit einer Befragung von 100 Wahlberechtigten prüfen. Das MFI sagt: Die Frage ist mit einer solchen Stichprobe nur mit einer gewissen Irrtumswahrscheinlichkeit (IW) zu beantworten. Die Partei gibt diese als 2% vor. Bei der Befragung gab es k Wählerstimmen für die Partei. a) Welche k-Werte werden das MFI veranlassen zu sagen: Die Stimmung hat sich a1) verschlechtert a2) verbessert a3) nicht verändert? b) Welche Irrtumswahrscheinlichkeit hat das jeweilige Ergebnis des MFI? 175 Lösungen Lösungen Bei den im Folgenden dargestellten Lösungen gibt es immer mal wieder rein numerische Berechnungen, die mit E XCEL erledigt werden. Dabei entstehen z.T. Tabellen, deren Umfang für eine Stochastikklausur nicht möglich wäre. Sie sollen nur ‚die Berechnung an sich‘ zeigen. Es lohnt sich evt., einzelne Werte mit dem TR zu überprüfen. Wichtig dabei ist es, die Methode dieser Berechnung zu begreifen. Ich benütze meist die Abkürzung Prob() → P() ‼ Lösungen der historischen Aufgaben Lösung | Pascal Bei «mindestens eine» drängt sich die das Gegenereignis «keine» auf: P(E 1 ) = 1 − P(E 1 ���) = 1 − � 56 � 4 ≈ 0.52 P(E 2 ) = 1 − P(E 2 ���) = 1 − � 35 36 � 24 ≈ 0.49 Lösung | Leibniz Man sollte sich die Würfel unterscheidbar denken. «S=12» = {(6+6)} «S=11» = {(5+6); (6+5)} P(S=12)=1/ 36 P(S=11)=2/ 36 Lösung | Galilei Es ist immer gut sich vorzustellen, dass die 3 Würfel etwa durch ihre Farbe unterscheidbar sind, sodass man ⚀ , ⚁ , ⚂ und ⚁ , ⚀ , ⚂ unterscheiden kann. Die Anzahl der Möglichkeiten für das Ergebnis (1; 2; 6) ist demnach 3! =6. Die Anzahl der Möglichkeiten für das Ergebnis (2; 2; 5) ist demnach 3, die 5 kann an 3 verschiedenen Stellen stehen. 176 Lösungen |Ω|=6³=216 «S=9» = �(1 + 2 + 6); (1 + 3 + 5); (2 + 3 + 4)� ��������������������������� ; 3∙3! �(2 + 2 + 5); (1 + 4 + 4)� ������������������� ; 2∙3 (3 + 3 + 3) ��������� 1 |S=9| = 3·3! +2·3+1=25 ⇒ P(S=9) = 25/ 216 «S=10» = �(1 + 3 + 6); (1 + 4 + 5); (2 + 3 + 5)� ��������������������������� ; 3∙3! �(2 + 2 + 6); (2 + 4 + 4); (3 + 3 + 4)� ��������������������������� 3∙3 |S=10| = 3·3! +3·3=27 ⇒ P(S=10) = 27/ 216 Man muss Galilei beglückwünschen, dass er den geringen Unterschied von 2/ 216≈0.009 experimentell ermittelt hat. Lösung | Huygens.1 Jede Farbe hat 8 Karten. P(«vier verschiedene Farben») = 32 32 ∙ 32−8 31 ∙ 32−8∙2 30 ∙ 32−8∙3 29 = 24 31 ∙ 16 30 ∙ 8 29 ≈ 0.114 Die Einsätze sollten also bei einem fairen Spiel wie 886: 114 verteilt sein. Lösung | Huygens.2 «S=6»={(1+5); (2+4); (3+3); (4+2); (5+1)} a ≔ P(S = 6) = 5 36 ⁄ a�: = 1 − a = 31 36 «S=7»={(1+6); (2+5); (3+4); (4+3); (5+2); (6+1)} b: = P(S = 7) = 6 36 ⁄ b �: = 1 − b = 30/ 36 Der Spielverlauf kann sehr schön durch einen EreignisBaum veranschaulicht werden: Abb 49: Ereignisbaum A a a A1* B b b B1* A … ‼ Lösungen der Kombi-Aufgaben 177 𝐴𝐴 𝑛𝑛 ∗ : «A gewinnt beim n-ten Wurf» 𝐵𝐵 𝑛𝑛∗ : «B gewinnt bei seinem n-ten Wurf» P(A 1 ∗ ) = a = 5/ 36 ≈ 0.139 P(B 1∗ ) = a� ∙ b = 31 ∙ 6/ 36² ≈ 0.144 P(A 2 ∗ ) = �a� ∙ b �� ∙ a = 31 ∙ 30 ∙ 5/ 36 3 ≈ 0.010 P(B 2∗ ) = �a� ∙ b �� ∙ a� ∙ b = 31 2 ∙ 30 ∙ 6/ 36 4 ≈ 0.103 P(A n ∗ ) = �a� ∙ b �� ∙ �a� ∙ b �� ∙ … ∙ �a� ∙ b �� ����������������� ∙ a n−1 = r n−1 ∙ a wobei r ∶= a� ∙ b � = 30 ∙ 31/ 36 2 ≈ 0.718 P(B n∗ ) = �a� ∙ b �� ∙ �a� ∙ b �� ∙ … ∙ �a� ∙ b �� ����������������� ∙ a� ∙ b n−1 = r n−1 ∙ a� ∙ b Man beachte: B n∗ ≠ A n ∗ ���� , da z.B. P(A 1 ∗ ) + P(B 1∗ ) = 5 36 + 31 ∙ 6 36 2 ≠ 1 P(«A gewinnt») = P(A 1 ∗ ∪ A 2 ∗ ∪ … ) = P(A 1 ∗ ) + P(A 2 ∗ ) + ⋯ = (1 + r + r 2 + ⋯ ) ������������� 1 (1−r) ≈3.541 ∙ 𝑔𝑔 ≈ 0.492 ‼ Lösungen der Kombi-Aufgaben Lösung | Pferderennen Es handelt sich um das typische Ranglistenproblem mit (hier) M = n! (n−3)! Möglichkeiten. Beliebt ist auch die alternative Lösung: Von den n Pferden werden 3 ausgewählt. Dafür gibt es �n3� Möglichkeiten (Teilmengenproblem). Die 3 ausgewählten Pferde kann man auf 3! verschiedene Weisen auf die 3 Podestplätze verteilen. Daher gibt es M = �n3� ∙ 3! = n! 3! ∙(n−3)! ∙ 3! = n ∙ (n − 1) ∙ (n − 2) Möglichkeiten. 178 Lösungen Lösung | Diagonalen Man kann die n Eckpunkte mit �n2� = n! 2! ∙(n−2)! = n∙(n−1) 2 Linien verbinden. Aber die n Seiten sind keine Diagonalen, also gibt es d = n∙(n−1) 2 − n = n∙(n−3) 2 Diagonalen. Lösung | Klausur Man muss außer den ersten 3 von den restlichen 7 Aufgaben mindestens 4 lösen. Man kann also 4 oder 5 oder 6 oder 7 restliche Aufgaben lösen. Dafür gibt es �74� + �75� + �76� + �77� = 35 + 21 + 7 + 1 = 64 Möglichkeiten. Aus ODER wurde PLUS. Lösung | Hotel Es gibt zwei Fälle: g≤z und g>z. Man muss aus einer Menge eine Teilmenge auswählen und diese anordnen. Beide Fälle kann man daher als ein Ranglistenproblem ansehen. g≤z: Die g Gäste sind die Listenplätze, auf die die z Zimmer verteilt werden. 𝑀𝑀 = 𝑧𝑧! (𝑧𝑧 − 𝐸𝐸)! ⁄ Die Anordnung der (z-g) nicht-belegten Zimmer ist belanglos. Mit z=g und 0! =1 wird M=z! . g>z: Die z Zimmer sind die Listenplätze, auf die die g Gäste verteilt werden. 𝑀𝑀 = 𝐸𝐸! (𝐸𝐸 − 𝑧𝑧)! ⁄ Die Anordnung der (g-z) im benachbarten Hotel untergebrachten Gäste ist belanglos. Lösung | Tanzschule Ein Ranglistenproblem mit 𝑀𝑀 = 𝐸𝐸! (𝐸𝐸 − 𝑘𝑘)! ⁄ Möglichkeiten, wobei n≥k und 0! =1. a) M=m! =b! b) M=b! / (b-m)! c) M=m! / (m-b)! ‼ Lösungen der Kombi-Aufgaben 179 Lösung | 5 an einem Tisch Man kann die 5 Stühle wie folgt an die 4 Tischseiten stellen: StuhlVerteilung 5 0 0 0 4 1 0 0 3 2 0 0 3 1 1 0 2 2 1 0 2 1 1 1 Möglichkeiten 4 4·3=12 4·3=12 4·3=12 4·3=12 4 56 Bei der ‚3 1 1 0‘-Anordnung stehen 3 Stühle an einer, und je einer an zwei weiteren Tischseiten. Eine Tischseite ist unbesetzt. Man hat für die 3-er-Belegung 4 und dann für die 0-Belegung noch 3 Möglichkeiten. Also hat man 4·3=12 Möglichkeiten. Somit gibt es insgesamt 56 verschiedene Stuhlanordnungen. Man kann die 5 Personen auf 5! verschiedene Weisen auf die Stühle setzen. Also gibt es 56·5! = 6720 Möglichkeiten, die 5 Personen an den Tisch zu setzen. Lösung | Semesterkurse a) Man wählt erst 10-aus-40, dann 10-aus-30, … . 𝑀𝑀 = �40 10� ∙ �30 10� ∙ �20 10� ∙ �10 10� = ⋯ = 40! (10! ) 4 ⁄ ≈ 4.7 ∙ 10 21 b) Man kann die beiden Nachzügler auf 4·3=12 Arten auf die 4 Gruppen verteilen. Also erhöht sich die Zahl der Möglichkeiten um den Faktor 12. Lösung | Mississippi Unter den 11 Buchstaben von „Mississippi“ gibt es ein ‚M‘, zwei ‚p‘ und je vier ‚i‘, ‚s‘. Eine Anordnung von 11 Buchstaben hat 11! Möglichkeiten. Aber eine Vertauschung gleicher Buchstaben verändert das „Wort“ nicht. Also gibt es: 𝑀𝑀 = 11! 1! ∙2! ∙4! ∙4! = 34 650 Möglichkeiten. Lösung | Briefchaos M 1 =0 dürfte klar sein. Bei n=2 wäre 1 2 nicht-chaotisch, da Brief B1 in Kuvert K1 und Brief B2 in Kuvert K2 steckt. Ich gehe also davon aus, dass die Kuverts in einer bestimmten, immer gleichen Reihenfolge 1 2 vorliegen. Es gibt nur ein 2er-Chaos 2 1 , bei dem B2 in K1 und B1 in K2 steckt; also ist M 2 =1. Bei n=3 Briefen wäre 1 2 3 nicht- 180 Lösungen chaotisch. 2 1 3 wäre nur teil-chaotisch, da B3 richtig steckt. Erst wenn man B3 mit B1 oder B2 tauscht, wird das Chaos perfekt. Es gibt also zwei perfekte 3er-Chaos: 3 1 2 und 2 3 1. Also ist M 3 =2. Nun kommt B4 zunächst in K4 hinzu. Dabei muss man 2 Fälle unterscheiden: es lag ein schon perfektes 3er-Chaos vor 3 1 2 4 . B4 muss mit B1, B2 oder B3 getauscht werden → 3·M 3 Möglichkeiten. es lag ein 3er-Teil-Chaos vor, ein Brief war im richtigen Kuvert 2 1 3 4 . B4 muss mit dem richtig sortierten B3 getauscht werden → 3·M 2 Möglichkeiten. Zusammen wird M 4 =3·(M 3 +M 2 ). Dies kann leicht auf n=5 verallgemeinert werden und gibt M 5 =4·(M 4 +M 3 ). Und noch allgemeiner: 𝑀𝑀 𝑛𝑛+1 = 𝐸𝐸 ∙ (𝑀𝑀 𝑛𝑛 + 𝑀𝑀 𝑛𝑛−1 ) . Diese iterative Lösung soll genügen. ‼ Lösungen zur Fehlerfortpflanzung Lösung | Federpendel 𝑇𝑇(𝑚𝑚, 𝑘𝑘) = 2𝜋𝜋 ∙ 𝑚𝑚 1 2 ⁄ ∙ 𝑘𝑘 −1 2 ⁄ ⇒ 𝜕𝜕𝜕𝜕 𝜕𝜕𝑚𝑚 = 𝜋𝜋 √𝑚𝑚∙𝑘𝑘 𝜕𝜕𝜕𝜕 𝜕𝜕𝑘𝑘 = −𝜋𝜋 ∙ � 𝑚𝑚 𝑘𝑘 3 ∆𝑇𝑇 = �� 𝜕𝜕𝜕𝜕 𝜕𝜕𝑚𝑚 � ∙ ∆𝑚𝑚� + �� 𝜕𝜕𝜕𝜕 𝜕𝜕𝑘𝑘 � ∙ ∆𝑘𝑘� Feder-Pendel alles in m-kg-sec nach Betrag m= 1,5 Δm= 1% 0,015 ∂T/ ∂m= 0,2565 T= 0,7695 k= 100 Δk= 2% 2 ∂T/ ∂k= -0,0038 ΔT= 0,0115 ΔT/ T= 1,5% ‼ Lösungen zur Regression 181 Lösung | Fadenpendel 𝐸𝐸(ℓ, 𝑇𝑇) = ℓ ∙ 𝑇𝑇 2 / 4𝜋𝜋² ⇒ 𝜕𝜕𝑔𝑔 𝜕𝜕ℓ = 𝜕𝜕 2 4𝜋𝜋² 𝜕𝜕𝑔𝑔 𝜕𝜕𝜕𝜕 = ℓ∙𝜕𝜕 2𝜋𝜋² (∆𝐸𝐸) 2 = �� 𝜕𝜕𝑔𝑔 𝜕𝜕ℓ � ∙ ∆ℓ� 2 + �� 𝜕𝜕𝑔𝑔 𝜕𝜕𝜕𝜕 � ∙ ∆𝑇𝑇� 2 Faden-Pendel alles in m-kg-sec nach G AUSS ℓ= 5 Δℓ= 0,02% 0,001 ∂g/ ∂ℓ= 1,9616 g= 9,8079 T= 8,8 ΔT= 0,01% 0,00088 ∂g/ ∂T= 2,2291 Δg= 0,0028 Δg/ g= 0,03% ‼ Lösungen zur Regression Lösung | Regressionsgerade 𝑦𝑦(𝑍𝑍) = 𝑔𝑔 ∙ 𝑍𝑍 + 𝑃𝑃 (→ 1.4) 𝑔𝑔 = (𝑥𝑥𝜕𝜕 ����−𝑥𝑥�∙𝜕𝜕�) �𝑥𝑥 2 ����−𝑥𝑥� 2 � 𝑃𝑃 = 𝑦𝑦� − 𝑔𝑔 ∙ 𝑍𝑍� 0 2 4 6 8 10 0 2 4 6 8 10 182 Lösungen ‼ Lösungen zur Wahrscheinlichkeit Lösung | Verknüpfte Ereignisse (ich kürze ab Prob → P) a) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = a + b − c Additionssatz b) P(A� ∪ B�) = P(A ∩ B ��������) = 1 − P(A ∩ B) = 1 − c DeMorgan c) P(A� ∩ B�) = P(A ∪ B ��������) = 1 − P(A ∪ B) = 1 − a − b + c d) Mengenbild A = (A ∩ B�) ⊔ (A ∩ B) ������������� disjunkt P(A ∩ B�) = P(A) − P(A ∩ B) = a − c e) Mengenbild (A ∩ B�) ∪ (A� ∩ B) = (A ∩ B�) ⊔ (A� ∩ B) ������������� disjunkt P�(A ∩ B�) ⊔ (A� ∩ B)� = P(A ∩ B�) + P(A� ∩ B) = a − c + b − c = a + b − 2c Lösung | Richtige beim TOTO Man muss bei r der 11 Spiele die einzig richtige Vorhersage machen, dafür hat man �11 𝐸𝐸 � Möglichkeiten UND man muss bei den restlichen (11-r) Spielen eine der beiden falschen Vorhersagen machen, dafür gibt es 2 11−𝑟𝑟 Möglichkeiten. Aus UND wird mal wieder MAL. Insgesamt gibt es 3 11 Möglichkeiten. Mit L APLACE (günstig/ möglich) folgt: Prob(«r Richtige beim TOTO») = �11 r � ∙ 2 11−r / 3 11 . ‼ Lösungen zur Wahrscheinlichkeit 183 Lösung | LOTTO mit nur 5 Kreuzen E r : «r Kreuze in den 6 richtigen Feldern UND (5-r) Kreuze in den 43 falschen Feldern» |E r | = �6r� ∙ � 43 5 − r� (aus UND wurde MAL) |Ω| = �49 5 � L A P LACE : P(E r ) = |E r | |Ω| ⁄ Lösung | LOTTO mit nur Quadrat- oder nur Primzahlen Unter den 49 möglichen LOTTO-Zahlen gibt es 7 Quadrat- und 15 Primzahlen. |A| = �76� = 7 |B| = �15 6 � = 5 005 |Ω| = �49 6 � . L APLACE Prob(A) = |A| |Ω| ⁄ und Prob(B) = |B| |Ω| ⁄ Lösung | Überlebenschance eines Hasen Der Jäger muss s-mal daneben schießen: 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(«𝑤𝑤𝐸𝐸𝐸𝐸 𝐻𝐻𝑔𝑔𝐸𝐸𝐸𝐸 ü𝑃𝑃𝐸𝐸𝐸𝐸𝑜𝑜𝐸𝐸𝑃𝑃𝑒𝑒») = (1 − 𝑒𝑒) 𝑠𝑠 Lösung | Skat Die Anzahl aller möglichen Verteilungen ist |Ω| = �32 10� ∙ �22 10� ∙ �12 10� ≈ 2.75 ∙ 10 15 a) Ich erhalte die 4 Buben und von den 28 restlichen 6 weitere zufällig gewählte Karten. Meine beiden Partner erhalten dann von den restlichen 22 je 10 per Zufall und zwei kommen als Reiz auf den Tisch. 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) = �28 6 � ∙ �22 10� ∙ �12 10� / |Ω| |A| |B| |Ω| |A|/ |Ω| |B|/ |Ω| 7 5005 13.983.816 5,0E-07 0,00036 184 Lösungen b) Jeder der 3 Spieler kann die 4 Buben erhalten 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) = 3 ∙ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) c) Man verteilt zuerst die 4 Buben auf die 3 Spieler und den Reiz und dann den Rest 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐶𝐶) = 4! ∙ �28 9 � ∙ �19 9 � ∙ �10 9 � / |Ω| Lösung | Heilungschancen Ein klassisches BeEx mit Prob = Bin p; n und p=0.8, n=123. a) Eine Antwort wäre versuchte Wahrsagerei! Macht die Stochastik NICHT! b) 𝐸𝐸𝐸𝐸𝑤𝑤 = 𝐸𝐸 ∙ 𝑝𝑝 = 98.4 c) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(« 𝐺𝐺𝐸𝐸𝑁𝑁𝐴𝐴𝑈𝑈 𝑘𝑘 = 100 𝑤𝑤𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸ℎ𝐸𝐸𝐸𝐸𝑜𝑜𝑒𝑒») = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) ≈ 8.6% d) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(« 𝑀𝑀𝐼𝐼𝑁𝑁𝐷𝐷𝐸𝐸𝑃𝑃𝑇𝑇𝐸𝐸𝑁𝑁𝑃𝑃 𝑘𝑘 = 100 𝑤𝑤𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸ℎ𝐸𝐸𝐸𝐸𝑜𝑜𝑒𝑒») = 𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) ≈ 67.6% Lösung | 2 Schützen Mehrmaliges Schießen mit immer gleicher Trefferwahrscheinlichkeit ist ein klassisches BeEx. Ereignisse A k |B k : «Schütze A|B trifft bei n Versuchen GENAU kmal» 𝑃𝑃(𝐴𝐴 𝑘𝑘 |𝐵𝐵 𝑘𝑘 ) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝=𝑎𝑎|𝑃𝑃; 𝑛𝑛 (𝑘𝑘) Abkürzungen: 𝑔𝑔� = 1 − 𝑔𝑔 und 𝑃𝑃� = 1 − 𝑃𝑃 𝐸𝐸 = 𝐴𝐴 1 ∩ 𝐵𝐵 1 ����� unabhängig 𝑃𝑃(𝐸𝐸) = 𝑃𝑃(𝐴𝐴 1 ) ∙ 𝑃𝑃(𝐵𝐵 1 ) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑎𝑎; 𝑛𝑛 (1) ∙ 𝐵𝐵𝐸𝐸𝐸𝐸 𝑃𝑃; 𝑛𝑛 (1) = 𝐸𝐸 2 ∙ 𝑔𝑔 ∙ 𝑃𝑃 ∙ �𝑔𝑔� ∙ 𝑃𝑃�� 𝑛𝑛−1 𝐹𝐹 = � 𝐴𝐴 0 ∩ 𝐵𝐵 1 ����� 𝑢𝑢𝑛𝑛𝑎𝑎𝑃𝑃ℎä𝑛𝑛𝑔𝑔𝑖𝑖𝑔𝑔 � ⊔ � 𝐴𝐴 1 ∩ 𝐵𝐵 0 ����� 𝑢𝑢𝑛𝑛𝑎𝑎𝑃𝑃ℎä𝑛𝑛𝑔𝑔𝑖𝑖𝑔𝑔 � ��������������������� 𝑆𝑆𝑖𝑖𝑠𝑠𝑗𝑗𝑢𝑢𝑛𝑛𝑘𝑘𝑡𝑡 𝑃𝑃(𝐹𝐹) = 𝑃𝑃(𝐴𝐴 0 ) ∙ 𝑃𝑃(𝐵𝐵 1 ) + 𝑃𝑃(𝐴𝐴 1 ) ∙ 𝑃𝑃(𝐵𝐵 0 ) 𝑃𝑃(𝐹𝐹) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑎𝑎; 𝑛𝑛 (0) ∙ 𝐵𝐵𝐸𝐸𝐸𝐸 𝑃𝑃; 𝑛𝑛 (1) + 𝐵𝐵𝐸𝐸𝐸𝐸 𝑎𝑎; 𝑛𝑛 (1) ∙ 𝐵𝐵𝐸𝐸𝐸𝐸 𝑃𝑃; 𝑛𝑛 (0) = 𝑔𝑔� 𝑛𝑛 ∙ 𝐸𝐸 ∙ 𝑃𝑃 ∙ 𝑃𝑃� 𝑛𝑛−1 + 𝐸𝐸 ∙ 𝑔𝑔 ∙ 𝑔𝑔� 𝑛𝑛−1 ∙ 𝑃𝑃� 𝑛𝑛 = ⋯ = 𝐸𝐸 ∙ �𝑔𝑔� ∙ 𝑃𝑃�� 𝑛𝑛−1 ∙ (𝑔𝑔 + 𝑃𝑃 − 2𝑔𝑔𝑃𝑃) ‼ Lösungen zur Wahrscheinlichkeit 185 𝐺𝐺 = 𝐴𝐴 0 ∩ 𝐵𝐵 0 ����� unabhängig 𝑃𝑃(𝐺𝐺) = 𝑃𝑃(𝐴𝐴 0 ) ∙ 𝑃𝑃(𝐵𝐵 0 ) = 𝑔𝑔� 𝑛𝑛 ∙ 𝑃𝑃� 𝑛𝑛 . Lösung | Kneipenbesuch Ereignis A i : «man geht in die Kneipe A,B oder C» 𝑃𝑃(𝐴𝐴 𝑖𝑖 ) = 13 Ereignis T: «man trifft IHN» 𝑃𝑃 𝐴𝐴 𝑖𝑖 (𝑇𝑇) = 37 ; 27 ; 17 a) der „Montag“ ist belanglos. P(A i ∩ T) = P(A i ) ∙ P A i (T) = 3 21 ; 2 21 ; 1 21 b) T = (A 1 ∩ T) ⊔ (A 2 ∩ T) ⊔ (A 3 ∩ T) ⇒ P(T) = ∑ �P(A i ) ∙ P A i (T)� = 6 21 i = 27 (total) B AYES : P T (A 2 ) = P(A 2 ) ∙ P A 2 (T)/ P(T) = 13 ∙ 27 / 27 = 13 analog P T (A 1 ) = 12 und P T (A 3 ) = 16 . Lösung | Glühbirnen Ohne Zurücklegen sind die Defekten in der n-Stichprobe Hyp-verteilt, mit N=100, K=7, n=5. a) 𝑃𝑃(«𝐸𝐸𝐸𝐸𝐸𝐸𝑔𝑔𝑧𝑧 𝑘𝑘 = 3 𝐷𝐷𝐸𝐸𝐸𝐸𝐸𝐸𝑘𝑘𝑒𝑒𝐸𝐸 ») = 𝐻𝐻𝑦𝑦𝑝𝑝 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (𝑘𝑘 = 3) ≈ 0,20% b) 𝑃𝑃(«𝑘𝑘𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐷𝐷𝐸𝐸𝐸𝐸𝐸𝐸𝑘𝑘𝑒𝑒𝐸𝐸 ») = 𝐻𝐻𝑦𝑦𝑝𝑝 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (0) ≈ 69,03% c) 𝑃𝑃(« 𝑚𝑚𝐸𝐸𝐸𝐸𝑤𝑤𝐸𝐸𝐸𝐸𝑒𝑒𝐸𝐸𝐸𝐸𝐸𝐸 𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐷𝐷𝐸𝐸𝐸𝐸𝐸𝐸𝑘𝑘𝑒𝑒𝐸𝐸») = 1 − 𝑃𝑃(«𝑘𝑘𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸 𝐷𝐷𝐸𝐸𝐸𝐸𝐸𝐸𝑘𝑘𝑒𝑒𝐸𝐸») = 1 − 𝐻𝐻𝑦𝑦𝑝𝑝 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (0) ≈ 30,97% d) 𝑃𝑃(« ℎö𝑐𝑐ℎ𝐸𝐸𝑒𝑒𝐸𝐸𝐸𝐸𝐸𝐸 𝑘𝑘 = 3 𝐷𝐷𝐸𝐸𝐸𝐸𝐸𝐸𝑘𝑘𝑒𝑒𝐸𝐸») = 𝐻𝐻𝑦𝑦𝑝𝑝𝑃𝑃𝑧𝑧𝑚𝑚 𝑁𝑁; 𝐾𝐾; 𝑛𝑛 (𝑘𝑘 = 3) ≈ 99,996% Lös: Wahlverhalten Die drei %-Angaben der 2-ten Zeile sind Bevölkerungsanteile 𝑃𝑃�𝐵𝐵 1,2,3 � = 𝑃𝑃( 𝐽𝐽𝑧𝑧𝐸𝐸𝐸𝐸𝜎𝜎𝐸𝐸 , 𝐸𝐸𝐸𝐸𝑤𝑤𝑔𝑔𝑐𝑐ℎ𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸, 𝑃𝑃𝐸𝐸𝐸𝐸𝐸𝐸𝜎𝜎𝐸𝐸) = 27%; 45%; 28% Die weiteren zwölf %-Angaben sind bedingte Wahrscheinlichkeiten 𝑃𝑃 𝐵𝐵 𝑖𝑖 (𝐴𝐴 𝑘𝑘 ) mit 𝐴𝐴 1,2,3,4 = 𝑃𝑃𝑔𝑔𝐸𝐸𝑒𝑒𝐸𝐸𝐸𝐸 𝐴𝐴, 𝐵𝐵, 𝐶𝐶, 𝑋𝑋 . z.B. 𝑃𝑃 𝐵𝐵 1 (𝐴𝐴 2 ) = 33% 186 Lösungen a) Der Stimmenanteil jeder Partei A setzt sich aus den 3 Bevölkerungsanteilen zur totalen Wahrscheinlichkeit zusammen 𝑃𝑃(𝐴𝐴 𝑘𝑘 ) = ∑ {𝑃𝑃(𝐵𝐵 𝑖𝑖 ∩ 𝐴𝐴 𝑘𝑘 )} 𝑖𝑖 = ∑ �𝑃𝑃(𝐵𝐵 𝑖𝑖 ) ∙ 𝑃𝑃 𝐵𝐵 𝑖𝑖 (𝐴𝐴 𝑘𝑘 )� 𝑖𝑖 =29.5%; 35.3%; 16.7%; 18.5% b) Der Befragte gibt seine Sympathie A k preis, wodurch diese zur Bedingung wird. Die U∩D-Verknüpfung ist kommutativ 𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃(𝐴𝐴) ∙ 𝑃𝑃 𝐴𝐴 (𝐵𝐵) =⏟ 𝐴𝐴↔𝐵𝐵 𝑃𝑃(𝐵𝐵 ∩ 𝐴𝐴) = 𝑃𝑃(𝐵𝐵) ∙ 𝑃𝑃 𝐵𝐵 (𝐴𝐴) ⇒ 𝑃𝑃 𝐴𝐴 𝑘𝑘 (𝐵𝐵 𝑖𝑖 ) = 𝑃𝑃(𝐵𝐵 𝑖𝑖 ) ∙ 𝑃𝑃 𝐵𝐵 𝑖𝑖 (𝐴𝐴 𝑘𝑘 ) ����������� 𝑔𝑔𝑎𝑎𝑔𝑔𝑎𝑎𝑃𝑃𝑎𝑎𝑛𝑛 / 𝑃𝑃(𝐴𝐴 𝑘𝑘 ) ��� 𝑡𝑡𝑔𝑔𝑡𝑡𝑎𝑎𝑎𝑎 Lösung | Erweiterung von 2 auf 3 𝑃𝑃 �𝐴𝐴 ∪ 𝐵𝐵 ∪ 𝐶𝐶 ��� 𝐷𝐷 � = 𝑃𝑃(𝐴𝐴 ∪ 𝐷𝐷) = 𝑃𝑃(𝐴𝐴) + 𝑃𝑃(𝐷𝐷) − 𝑃𝑃(𝐴𝐴 ∩ 𝐷𝐷) = 𝑃𝑃(𝐴𝐴) + 𝑃𝑃(𝐵𝐵 ∪ 𝐶𝐶) − 𝑃𝑃 �𝐴𝐴 ∩ (𝐵𝐵 ∪ 𝐶𝐶) ��������� (𝐴𝐴∩𝐵𝐵) ����� 𝑈𝑈 ∪ (𝐴𝐴∩𝐶𝐶) ����� 𝑉𝑉 � = 𝑃𝑃(𝐴𝐴) + 𝑃𝑃(𝐵𝐵) + 𝑃𝑃(𝐶𝐶) − 𝑃𝑃(𝐵𝐵 ∩ 𝐶𝐶) − 𝑃𝑃(𝑈𝑈) − 𝑃𝑃(𝑉𝑉) + 𝑃𝑃 �𝑈𝑈 ∩ 𝑉𝑉 ��� 𝐴𝐴∩𝐵𝐵∩𝐶𝐶 � = 𝑃𝑃(𝐴𝐴) + 𝑃𝑃(𝐵𝐵) + 𝑃𝑃(𝐶𝐶) − 𝑃𝑃(𝐵𝐵 ∩ 𝐶𝐶) − 𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) − 𝑃𝑃(𝐴𝐴 ∩ 𝐶𝐶) +𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵 ∩ 𝐶𝐶) 𝑃𝑃 �𝐴𝐴 ∩ 𝐵𝐵 ��� 𝐷𝐷 ∩ 𝐶𝐶� = 𝑃𝑃(𝐷𝐷) ∙ 𝑃𝑃 𝐷𝐷 (𝐶𝐶) = 𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) ∙ 𝑃𝑃 𝐴𝐴∩𝐵𝐵 (𝐶𝐶) = 𝑃𝑃(𝐴𝐴) ∙ 𝑃𝑃 𝐴𝐴 (𝐵𝐵) ∙ 𝑃𝑃 𝐴𝐴∩𝐵𝐵 (𝐶𝐶) ‼ Lösungen zu ZuZa 187 ‼ Lösungen zu ZuZa Einige der folgenden Aufgaben könnte man mit relativen Häufigkeiten lösen. Ich benütze immer gleich Wahrscheinlichkeiten und wie so oft die Abkürzung: 𝑃𝑃(𝑘𝑘) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) . Lösung | Münze & Würfel Jeweils ein klassisches BeEx mit n=5; k=0, 1, …, n; Z=M|W=„Anzahl Kopf“ | „Anzahl ⚅ “ 𝑃𝑃(𝑘𝑘) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) = 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) und 𝐹𝐹(𝑘𝑘) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝑘𝑘) = 𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) ≔ ∑ �𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝐸𝐸)� 𝑘𝑘𝑖𝑖=0 Lösung | PrimFakt Die Verteilung einer diskreten ZuZa Z wird beschrieben durch 𝑃𝑃(𝑘𝑘) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘)) und 𝐹𝐹(𝑘𝑘) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 ≤ 𝑘𝑘)) ≡ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃𝑃𝑃𝑧𝑧𝑚𝑚(𝑘𝑘) = � {𝑃𝑃(𝐸𝐸)} 𝑖𝑖≤𝑘𝑘 188 Lösungen Lösung | StetigeVerteilung a) 𝐸𝐸 4; 2 (𝑍𝑍) = 4 ∙ 𝑍𝑍 2 ∙ (2 − 𝑍𝑍) b) Normierung: 1 ≜ ∫ �𝐸𝐸 𝑎𝑎; 𝑃𝑃 (𝑍𝑍) ∙ 𝑤𝑤𝑍𝑍� = 𝑔𝑔 ∙ �𝑃𝑃 ∙ 𝑥𝑥 3 3 − 𝑥𝑥 4 4 � 0𝑃𝑃 𝑃𝑃 0 = 𝑎𝑎∙𝑃𝑃 4 12 ⇒ 𝑔𝑔 ∙ 𝑃𝑃 4 = 12 c) VerteilungsFunktion: 𝐹𝐹(𝑍𝑍) = ∫ {𝐸𝐸(𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒} = 𝑔𝑔 ∙ �𝑃𝑃 ∙ 𝑥𝑥 3 3 − 𝑥𝑥 4 4 � 𝑥𝑥 0 d) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(0.5 ≤ 𝑍𝑍 ≤ 1.5) = 𝐹𝐹 � 32 � − 𝐹𝐹 � 12 � = ⋯ = 𝑔𝑔 ∙ � 13 12 ∙ 𝑃𝑃 − 54 � e) 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍) = ∫ {𝑍𝑍 ∙ 𝐸𝐸(𝑍𝑍) ∙ 𝑤𝑤𝑍𝑍} 𝑃𝑃 0 = 𝑔𝑔 ∙ �𝑃𝑃 ∙ 𝑥𝑥 4 4 − 𝑥𝑥 5 5 � 0𝑃𝑃 = 𝑎𝑎∙𝑃𝑃 5 20 = 12 20 𝑃𝑃 0,0 0,1 0,2 0,3 0,4 1 2 3 4 P(k) 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 F(k) 1 1 5 2 ‼ Lösungen zu Erw 189 = 35 𝑃𝑃 𝑉𝑉𝑔𝑔𝐸𝐸(𝑍𝑍) = 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍 2 ) − 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍) 2 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍 2 ) = ∫ {𝑍𝑍 2 ∙ 𝐸𝐸(𝑍𝑍) ∙ 𝑤𝑤𝑍𝑍} 𝑃𝑃 0 = 𝑔𝑔 ∙ �𝑃𝑃 ∙ 𝑥𝑥 5 5 − 𝑥𝑥 6 6 � 0𝑃𝑃 = 𝑎𝑎∙𝑃𝑃 6 30 = 12 30 𝑃𝑃 2 = 25 𝑃𝑃 2 ‼ Lösungen zu Erw Lösung | Eintritt würfeln a) Die ZuZa Z = Augenzahl ∈ {1, 2, …, 6} hat den 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍) = ∑ �𝐸𝐸 ∙ 𝑃𝑃(𝐸𝐸) � 1 6 ⁄ � 6𝑖𝑖=1 = 16 ∙ ∑ [𝐸𝐸] = 3.5 6𝑖𝑖=1 , also würde ich 3 € bezahlen. b) 𝐸𝐸𝐸𝐸𝑤𝑤(«𝐸𝐸𝐸𝐸𝐸𝐸𝑒𝑒𝐸𝐸𝐸𝐸𝑒𝑒𝑒𝑒 𝑝𝑝𝐸𝐸𝜎𝜎 𝐵𝐵𝐸𝐸𝐸𝐸𝑧𝑧𝑐𝑐ℎ𝐸𝐸𝐸𝐸») = 3.5 ∙ 0.6 + 3 ∙ 0.4 = 3.3 €. Lösung | L OTTO -MinMax Für alle LOTTO-Ergebnisse gibt es |Ω| = �49 6 � Möglichkeiten. a) X kann die Werte k=1; 2; …; 44 annehmen. Für die die restlichen 5 größeren L OTTO -Zahlen gibt es 𝑚𝑚 𝑥𝑥 (𝑘𝑘) = �49 − 𝑘𝑘 5 � Möglichkeiten. Y kann die Werte k=6; 7; …; 49 annehmen. Für die restlichen 5 kleineren L OTTO -Zahlen gibt es 𝑚𝑚 𝜕𝜕 (𝑘𝑘) = �𝑘𝑘 − 1 5 � Möglichkeiten. Mit L A P LACE ist die jeweilige Verteilung 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑋𝑋|𝑌𝑌 = 𝑘𝑘) ≡ 𝑃𝑃 𝑍𝑍|𝑦𝑦 ( 𝑘𝑘 ) = 𝑚𝑚 𝑍𝑍|𝑦𝑦 ( 𝑘𝑘 ) / | Ω | b) 𝐸𝐸𝐸𝐸𝑤𝑤(𝑋𝑋) = ∑ {𝑘𝑘 ∙ 𝑃𝑃 𝑥𝑥 (𝑘𝑘)} 44 𝑘𝑘=1 𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌) = ∑ �𝑘𝑘 ∙ 𝑃𝑃 𝜕𝜕 (𝑘𝑘)� 49 𝑘𝑘=6 Die Summen werden numerisch in einer E XCEL -Tabelle mit 44 Zeilen (=Summanden) ermittelt 190 Lösungen Die Zeilen 3 … 42 sind ausgeblendet Lösung | 3-Würfelspiel (viel zu umfangreich für eine Klausur) Bei 3 Würfeln gibt es 16 mögliche Augensummen k=3, 4, …, 18. Wie die absoluten Häufigkeiten n i zustande kommen, soll am Bsp k=9 erklärt werden: | 1 + 2 + 6 ������� 3! | 1 + 3 + 5 ������� 3! | 1 + 4 + 4 ������� 3 | 2 + 2 + 5 ������� 3 | 2 + 3 + 4 ������� 3! | 3 + 3 + 3 ������� 1 | → �𝑍𝑍 = 9 ��� 25 � Alle absoluten Häufigkeiten haben die Summe ∑ {𝐸𝐸 𝑖𝑖 } 𝑖𝑖 = 216 = 6 3 . ‼ Lösungen zu Tests 191 Die Gewinnerwartung eines Spielers ist 𝐴𝐴𝑢𝑢𝑠𝑠𝐴𝐴𝑎𝑎ℎ𝑎𝑎𝑢𝑢𝑛𝑛𝑔𝑔 𝐸𝐸𝑖𝑖𝑛𝑛𝑎𝑎𝑎𝑎𝑔𝑔𝑎𝑎 = ∑ �� 𝑎𝑎𝑎𝑎 � 𝑘𝑘 ∙ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝑍𝑍 = 𝑘𝑘) ��������� 𝑃𝑃(𝑘𝑘) � 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑘𝑘 . In den Spalten a/ e ist das Verhältnis Aus-/ Einzahlung abhängig von p/ q=Prim-/ Quadratzahl tabelliert. Bei p=2; q=3 ist der Erw(a/ e)=1.148 und der Spielbetreiber geht bankrott, da er ca. 15% mehr ausbezahlen muss als er einnimmt. Bei p=1.5; q=2 ist der Erw(a/ e)=0.822 und der Spielbetreiber ist glücklich, da er nur ca. 82% seiner Einnahmen ausbezahlen muss. ‼ Lösungen zu Tests Lösung | Partei Es handelt sich um einen zweiseitigen Signifikanztest. Es wird mit α links,rechts =1% und 2% gerechnet. α=1% u[ 24 o] 47 α=2% [ 25 ] 46 [u ]o schlechter [ unverändert ] besser [0 ]n k Signifikanz-Test links k IW =BINOM.VERT(k; n; p0; 1) p0= 0,35 n= 100 22 0,3% α u IW 23 0,7% 1% 24 0,66% 24 1,2% u=BINOM.INV(n; p0; α) 2% 25 1,21% 25 2,1% IW=BINOM.VERT(u-1; n; p0; 1) Signifikanz-Test rechts k IW =1-BINOM.VERT(k-1; n; p0; 1) p0= 0,35 n= 100 45 2,5% α o IW 46 1,5% 1% 47 0,88% 47 0,9% o=1+BINOM.INV(n; p0; 1-α) 2% 46 1,50% 48 0,5% IW=1-BINOM.VERT(o-1; n; p0; 1) Herleitungen Die S TEINER -Vereinfachung Bei der folgenden Herleitung wird Prob(Z=z) vorübergehend mit P(z) abgekürzt. Die Herleitung wird nur für eine diskrete ZuZa durchgeführt. Bei einer stetigen ZuZa sind die Summen durch Integrale zu ersetzen. 𝑉𝑉𝑔𝑔𝐸𝐸(𝑍𝑍) ≡ 𝜎𝜎 2 = 𝐸𝐸𝐸𝐸𝑤𝑤((𝑍𝑍 − 𝜇𝜇) 2 ) = � {(𝑧𝑧 𝑖𝑖 − 𝜇𝜇) 2 ∙ 𝑃𝑃(𝑧𝑧 𝑖𝑖 )} 𝑖𝑖 = ∑ ��𝑧𝑧 𝑖𝑖2 − 2 ∙ 𝜇𝜇 ∙ 𝑧𝑧 𝑖𝑖 + 𝜇𝜇 2 � ∙ 𝑃𝑃(𝑧𝑧 𝑖𝑖 )� 𝑖𝑖 = ∑ �z i2 ∙ P(z i )� i ��������� Erw(Z 2 ) − 2 ∙ μ ∙ ∑ {z i ∙ P(z i )} i ��������� μ + μ 2 ∙ ∑ P(z i ) i ����� 1 = 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍 2 ) − 𝜇𝜇 2 Sehr einprägsam ist die Kurzform: 𝐸𝐸𝐸𝐸𝑤𝑤(𝑍𝑍 2 ) = 𝜇𝜇 2 + 𝜎𝜎² Die Berechnung von 𝑉𝑉𝑔𝑔𝐸𝐸 = (∑ 𝑧𝑧²) − 𝜇𝜇² ist mit einem TR wesentlich einfacher als 𝑉𝑉𝑔𝑔𝐸𝐸 = ∑(𝑧𝑧 − 𝜇𝜇)² . Bei E XCEL macht es fast keinen Unterschied. Die B ERNOULLI -Formel Ich werde mehrfach die allgemeinen Grundformeln für Wahrscheinlichkeiten benützen: 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∪ 𝐵𝐵) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) + 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐵𝐵) − 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴) ∙ 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃 𝐴𝐴 (𝐵𝐵) Oft sind Ereignisse disjunkt, dann ist 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃𝐸𝐸𝜎𝜎𝑃𝑃(∅) = 0 . Oft sind Ereignisse unabhängig, dann fällt bei U∩D die Bedingung weg. Ich kürze in der folgenden Herleitung vorübergehend Prob() durch P() ab. Wenn ein Erfolg E die Wahrscheinlichkeit 𝑃𝑃(𝐸𝐸) = 𝑝𝑝 hat, dann hat ein Misserfolg E̅ die Wahrscheinlichkeit 𝑃𝑃(𝐸𝐸� ) = 1 − 𝑝𝑝 ≡ 𝑞𝑞 . 194 Herleitungen Bei zwei Versuchen ist die Wahrscheinlichkeit für zwei Erfolge p·p, für zwei Misserfolge q·q und für einen Erfolg und einen Misserfolg 2·p·q. Der Faktor 2 kommt daher, dass es Erfolg und Misserfolg als E E̅ oder E̅ E geben kann. 𝑃𝑃�(𝐸𝐸 ∩ 𝐸𝐸�) ∪ (𝐸𝐸� ∩ 𝐸𝐸)� = 𝑃𝑃(𝐸𝐸 ∩ 𝐸𝐸�) + 𝑃𝑃(𝐸𝐸� ∩ 𝐸𝐸) = 𝑃𝑃(𝐸𝐸) ∙ 𝑃𝑃(𝐸𝐸�) + 𝑃𝑃(𝐸𝐸�) ∙ 𝑃𝑃(𝐸𝐸) = 𝑝𝑝 ∙ 𝑞𝑞 + 𝑞𝑞 ∙ 𝑝𝑝 Wenn es bei n Wiederholungen genau k Erfolge gibt, dann gibt es auch genau (n-k) Misserfolge. Ich betrachte jetzt das spezielle Ereignis A 1 , bei dem alle k Erfolge E bei den ersten k Versuchen und alle (n-k) Misserfolge Ē bei den restlichen (n-k) Versuchen eintreten. 𝐴𝐴 1 = 𝐸𝐸 ∩ 𝐸𝐸 ∩ … ∩ 𝐸𝐸 ����������� 𝑘𝑘 ∩ 𝐸𝐸� ∩ 𝐸𝐸� ∩ … ∩ 𝐸𝐸� ����������� 𝑛𝑛−𝑘𝑘 Dieses Ereignis hat die Wahrscheinlichkeit 𝑃𝑃(𝐴𝐴 1 ) = 𝑃𝑃(𝐸𝐸) ∙ 𝑃𝑃(𝐸𝐸) ∙ … ∙ 𝑃𝑃(𝐸𝐸) ��������������� 𝑘𝑘 ∙ 𝑃𝑃(𝐸𝐸�) ∙ 𝑃𝑃(𝐸𝐸�) ∙ … ∙ 𝑃𝑃(𝐸𝐸�) ��������������� 𝑛𝑛−𝑘𝑘 = 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 Von diesem Ereignisse A 1 gibt es nun viele verschiedene Varianten. Wenn man k Querstriche beliebig auf n Ereignisse setzen kann, dann heißt dies: man muss von n Elementen k auswählen. Die Kombinatorik sagt, dass es dafür 𝑚𝑚 = �𝐸𝐸𝑘𝑘� = 𝑛𝑛! 𝑘𝑘! ∙(𝑛𝑛−𝑘𝑘)! Möglichkeiten gibt. Die B ERNOULLI -Wahrscheinlichkeit ist dann 𝐵𝐵𝐸𝐸𝐸𝐸 = 𝑃𝑃(𝐴𝐴 1 ∪ 𝐴𝐴 2 ∪ … ∪ 𝐴𝐴 𝑚𝑚 ) = 𝑃𝑃(𝐴𝐴 1 ) + 𝑃𝑃(𝐴𝐴 2 ) + ⋯ + 𝑃𝑃(𝐴𝐴 𝑚𝑚 ) , wobei 𝐴𝐴 𝑖𝑖 ∩ 𝐴𝐴 𝑘𝑘 = ∅ . Dabei sind alle Ereignisse A i gleich wahrscheinlich und es folgt: 𝐵𝐵𝐸𝐸𝐸𝐸 = 𝑚𝑚 ∙ 𝑃𝑃(𝐴𝐴 1 ) = �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 Womit die epochale B ERNOULLI -Formel bewiesen ist. Erw und Var der Bin-Verteilung Die Bin-Verteilung der Stochastik hängt mit der allgemeinen Bin- Formel zusammen Herleitungen 195 (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛 = � ��𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 ����������������������� 𝑎𝑎𝑎𝑎𝑎𝑎𝑔𝑔𝑎𝑎𝑚𝑚𝑎𝑎𝑖𝑖𝑛𝑛𝑎𝑎 𝐵𝐵𝑖𝑖𝑛𝑛−𝐹𝐹𝑔𝑔𝑟𝑟𝑚𝑚𝑎𝑎𝑎𝑎 𝑞𝑞=1−𝑝𝑝 �⎯⎯⎯� 1 = ∑ ��𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ (1 − 𝑝𝑝) 𝑛𝑛−𝑘𝑘 ��������������� 𝐵𝐵𝑖𝑖𝑛𝑛 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) � 𝑘𝑘 Ich betrachte vorübergehend das p als stetige Funktionsvariable und leite beide Seiten der allgemeinen Bin-Formel nach p ab (die Logik u=v ⇒ u‘=v‘ sollte kein Problem sein) 𝐸𝐸 ∙ (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛−1 = ∑ ��𝐸𝐸𝑘𝑘� ∙ 𝑘𝑘 ∙ 𝑝𝑝 𝑘𝑘−1 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 Nach einer Multiplikation mit p folgt 𝐸𝐸 ∙ 𝑝𝑝 ∙ (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛−1 = ∑ ��𝐸𝐸𝑘𝑘� ∙ 𝑘𝑘 ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 𝑞𝑞=1−𝑝𝑝 �⎯⎯⎯� 𝒏𝒏 ∙ 𝒑𝒑 = ∑ {𝑘𝑘 ∙ 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘)} 𝑘𝑘 = 𝝁𝝁 𝑩𝑩𝑩𝑩𝒏𝒏 Ich lasse hier bei Bin die immer gleichen Parameter p; n weg. Die binomische Formel wird nochmals nach p abgeleitet: 𝐸𝐸 ∙ (𝐸𝐸 − 1) ∙ (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛−2 = ∑ ��𝐸𝐸𝑘𝑘� ∙ 𝑘𝑘 ∙ (𝑘𝑘 − 1) ∙ 𝑝𝑝 𝑘𝑘−2 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 Mit p² wird multipliziert: 𝐸𝐸 ∙ (𝐸𝐸 − 1) ∙ 𝑝𝑝 2 ∙ (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛−2 = ∑ �𝑘𝑘 ∙ (𝑘𝑘 − 1) ∙ �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 Es wird ausmultipliziert und die Summe rechts wird zerlegt: (𝐸𝐸 2 − 𝐸𝐸) ∙ 𝑝𝑝 2 ∙ (𝑝𝑝 + 𝑞𝑞) 𝑛𝑛−2 = ∑ �𝑘𝑘 2 ∙ �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 − ∑ �𝑘𝑘 ∙ �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 � 𝑘𝑘 Mit q=1-p wird �𝐸𝐸 ∙ 𝑝𝑝 � 𝜇𝜇 � 2 − 𝐸𝐸 ∙ 𝑝𝑝 2 ��� 𝑝𝑝∙𝜇𝜇 = ∑ {𝑘𝑘 2 ∙ 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘)} 𝑘𝑘 ����������� 𝐸𝐸𝑟𝑟𝐸𝐸(𝑘𝑘²)=𝜇𝜇 2 +𝜎𝜎² − ∑ {𝑘𝑘 ∙ 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘)} 𝑘𝑘 ����������� 𝜇𝜇 ⇒ μ 2 − μ ∙ p = μ 2 + σ² − μ und es folgt 𝝈𝝈 𝑩𝑩𝑩𝑩𝒏𝒏 𝟐𝟐 = 𝒏𝒏 ∙ 𝒑𝒑 ∙ (𝟏𝟏 − 𝒑𝒑) 196 Herleitungen Das Maximum der Bin-Funktion Zunächst sei die k-Rekursion gezeigt: Bin(k + 1) Bin(k) = � 𝐸𝐸 𝑘𝑘 + 1� ∙ 𝑝𝑝 𝑘𝑘+1 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘−1 �𝐸𝐸𝑘𝑘� ∙ 𝑝𝑝 𝑘𝑘 ∙ 𝑞𝑞 𝑛𝑛−𝑘𝑘 = 𝐸𝐸! (𝑘𝑘 + 1)! ∙ (𝐸𝐸 − 𝑘𝑘 − 1)! ∙ 𝑘𝑘! ∙ (𝐸𝐸 − 𝑘𝑘)! 𝐸𝐸! ∙ 𝑝𝑝𝑞𝑞 = 𝑛𝑛−𝑘𝑘 𝑘𝑘+1 ∙ 𝑝𝑝𝑞𝑞 Links/ rechts von ihrem Maximum k� wächst/ fällt die Bin-Funktion streng monoton. links ist 𝑘𝑘 ≤ 𝑘𝑘� rechts ist 𝑘𝑘 ≥ 𝑘𝑘� 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘 + 1) > 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘) 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘 + 1) < 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘) die folgenden Umformungen sind für beide Seiten gleich > → # < → # 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘 + 1) # 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘) mit der k-Rekursion 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘 + 1) 𝐵𝐵𝐸𝐸𝐸𝐸(𝑘𝑘) = 𝐸𝐸 − 𝑘𝑘 𝑘𝑘 + 1 ∙ 𝑝𝑝𝑞𝑞 # 1 (𝐸𝐸 − 𝑘𝑘) ∙ 𝑝𝑝 # (𝑘𝑘 + 1) ∙ 𝑞𝑞 𝐸𝐸 ∙ 𝑝𝑝 # 𝑘𝑘 ∙ (𝑝𝑝 + 𝑞𝑞) ����� 1 + 𝑞𝑞 𝐸𝐸 ∙ 𝑝𝑝 − 𝑘𝑘 # 𝑞𝑞 # → > # → < 𝐸𝐸 ∙ 𝑝𝑝 − 𝑘𝑘 > 𝑞𝑞 > −1 𝐸𝐸 ∙ 𝑝𝑝 − 𝑘𝑘 < 𝑞𝑞 < 1 dies kann für 𝑘𝑘 → 𝑘𝑘� zusammengefasst werden −1 < 𝐸𝐸 ∙ 𝑝𝑝 − 𝑘𝑘� < 1 �𝐸𝐸 ∙ 𝑝𝑝 − 𝑘𝑘� � < 1 Bei der Bin-Verteilung liegen also der 𝐸𝐸𝐸𝐸𝑤𝑤 𝐵𝐵𝑖𝑖𝑛𝑛 = 𝐸𝐸 ∙ 𝑝𝑝 und ihr Maximum 𝑘𝑘� um weniger als 1 auseinander. Herleitungen 197 Erw und Var von Y = a·X + b Ich beweise die Formel für Var(Y=a·X+b), wobei ich die Formel für den Erw 𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌) = 𝑔𝑔 ∙ 𝐸𝐸𝐸𝐸𝑤𝑤(𝑋𝑋) + 𝑃𝑃 als gegeben voraussetze. Var(Y) = µ y → (Steiner) = 𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌 2 ) − �𝐸𝐸𝐸𝐸𝑤𝑤(𝑌𝑌)� 2 = 𝐸𝐸𝐸𝐸𝑤𝑤(𝑔𝑔 2 ∙ 𝑋𝑋 2 + 2𝑔𝑔𝑃𝑃 ∙ 𝑋𝑋 + 𝑃𝑃 2 ) − (𝑔𝑔 ∙ 𝐸𝐸𝐸𝐸𝑤𝑤(𝑋𝑋) + 𝑃𝑃) 2 = a 2 ∙ Erw(X 2 ) + 2ab ∙ μ 𝑥𝑥 + b 2 − a 2 ∙ 𝜇𝜇 𝑥𝑥2 − 2ab ∙ μ 𝑥𝑥 − b 2 = a 2 ∙ � Erw (X 2 ) − 𝜇𝜇 𝑥𝑥2 ��������� 𝑉𝑉𝑎𝑎𝑟𝑟(𝑋𝑋) � → (Steiner) = a 2 ∙ Var(X) q.e.d. Der Erw und Var der Exp-Verteilung Die stetige Exp-Verteilung hat die Wahrscheinlichkeitsdichte: 𝐸𝐸(𝑒𝑒) = 𝐸𝐸𝑍𝑍𝑝𝑝(𝑒𝑒) = 𝑔𝑔 ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔𝑒𝑒) mit 𝑒𝑒 ∈ [0 … ∞) Der Erw ist 𝐸𝐸𝐸𝐸𝑤𝑤 𝐸𝐸𝑥𝑥𝑝𝑝 ≡ 𝜇𝜇 = 𝑔𝑔 ∙ � 𝑒𝑒 ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒 ∞ 0 → (𝐸𝐸. 𝜎𝜎. ) = − 1 𝑎𝑎 ∙ � 𝑎𝑎𝑡𝑡+1 𝑎𝑎𝑥𝑥𝑝𝑝(𝑎𝑎𝑡𝑡) � 0∞ = − 1 𝑎𝑎 ∙ � ∞∞ ⏟ 0 − 1� = 1 𝑎𝑎 Die Var ist 𝑉𝑉𝑔𝑔𝐸𝐸 𝐸𝐸𝑥𝑥𝑝𝑝 ≡ 𝜎𝜎 2 = 𝑔𝑔 ∙ � (𝑒𝑒 − 𝜇𝜇)² ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒 ∞ 0 → (𝑃𝑃𝑒𝑒𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸) = 𝑔𝑔 ∙ ∫ 𝑒𝑒² ∙ 𝐸𝐸𝑍𝑍𝑝𝑝(−𝑔𝑔𝑒𝑒) ∙ 𝑤𝑤𝑒𝑒 ∞ 0 − 𝜇𝜇² → (𝐸𝐸. 𝜎𝜎. ) = − 1 𝑎𝑎 2 ∙ � 𝑎𝑎 2 𝑡𝑡 2 +2𝑎𝑎𝑡𝑡+2 𝑎𝑎𝑥𝑥𝑝𝑝(𝑎𝑎𝑡𝑡) � 0∞ − 𝜇𝜇 2 = 2 𝑎𝑎 2 − 1 𝑎𝑎 2 = 1 𝑎𝑎 2 = 𝜇𝜇² Herleitung der P OISSON -Formel Die folgenden Herleitungen benützen zwei grundlegende Formeln der exp-Funktion: 198 Herleitungen 𝐸𝐸𝑍𝑍𝑝𝑝(𝑍𝑍) ≡ 𝐸𝐸 𝑥𝑥 = lim n→∞ �1 + x n � n = ∑ � 𝑥𝑥 𝑘𝑘 𝑘𝑘! � ∞𝑘𝑘=0 mit der irrationalen E ULER -Zahl e = exp(1) ≈ 2.7182818… sowie den Erw der Bin-Verteilung 𝐸𝐸𝐸𝐸𝑤𝑤 𝐵𝐵𝑖𝑖𝑛𝑛 ≡ 𝜇𝜇 𝐵𝐵𝑖𝑖𝑛𝑛 = 𝑝𝑝 ∙ 𝐸𝐸 Es wird nun folgender Grenzwert gebildet: 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) 𝑛𝑛→∞; 𝑝𝑝→0; 0<𝑛𝑛∙𝑝𝑝=𝜇𝜇<∞ �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� 𝑃𝑃𝜎𝜎𝐸𝐸 𝜇𝜇 (𝑘𝑘) 𝐵𝐵𝐸𝐸𝐸𝐸 𝑝𝑝; 𝑛𝑛 (𝑘𝑘) = 𝑛𝑛! 𝑘𝑘! ∙(𝑛𝑛−𝑘𝑘)! ∙ 𝑝𝑝 𝑘𝑘 ∙ (1 − 𝑝𝑝) 𝑛𝑛−𝑘𝑘 → �𝑝𝑝 = 𝜇𝜇𝑛𝑛 � = n∙(𝑛𝑛−1)∙…∙�𝑛𝑛−(𝑘𝑘−1)� k! ∙ � 𝜇𝜇𝑛𝑛 � k ∙ �1 − 𝜇𝜇𝑛𝑛 � n−k = 𝑛𝑛𝑛𝑛 ∙ 𝑛𝑛−1 𝑛𝑛 ∙ … ∙ 𝑛𝑛−𝑘𝑘+1 𝑛𝑛 ∙ 𝜇𝜇 𝑘𝑘 𝑘𝑘! ∙ �1 − 𝜇𝜇𝑛𝑛 � n ∙ �1 − 𝜇𝜇𝑛𝑛 � −k 𝑛𝑛→∞ �⎯⎯� = 1 ∙ �1 − 1 n � ∙ … ∙ �1 − k−1 n � ����������������� →1 ∙ μ k k! ∙ �1 − μn � n ������� →e −μ ∙ �1 − μn � −k ������� →1 𝑛𝑛→∞ �⎯⎯� e −μ ∙ μ k k! =: Poi μ (k) Poi(k) ist eine Verteilung mit einer unendlichen Def-Menge k ∈ℕ ₀={0, 1, 2, …} und nur einem Parameter μ. Poi(k) ist eine Wahrscheinlichkeit und muss normiert sein. ∑ Poi(k) = e −μ ∙ ∑ μ k k! ∞k=0 ����� e μ ∞k=0 = 1 Erw und Var von Poi 𝐸𝐸𝐸𝐸𝑤𝑤 𝑃𝑃𝑔𝑔𝑖𝑖 = ∑ {𝑘𝑘 ∙ 𝑃𝑃𝜎𝜎𝐸𝐸(𝑘𝑘)} ∞𝑘𝑘=0 = e −μ ∙ ∑ �k ∙ μ k k! � ∞k=0 = e −μ ∙ ∑ � μ k (k−1)! � ∞k=1 = e −μ ∙ μ ∙ ∑ � μ k−1 (k−1)! � ∞k=1 = 𝜇𝜇 ∙ 𝐸𝐸 −𝜇𝜇 ∙ ∑ 𝜇𝜇 𝑛𝑛 𝑛𝑛! ∞𝑛𝑛=0 ����� 𝑎𝑎 𝜇𝜇 = µ 𝑉𝑉𝑔𝑔𝐸𝐸 𝑃𝑃𝑔𝑔𝑖𝑖 = ∑ {(𝑘𝑘 − 𝜇𝜇) 2 ∙ 𝑃𝑃𝜎𝜎𝐸𝐸(𝑘𝑘)} ∞𝑘𝑘=0 = (Steiner) = ∑ {𝑘𝑘 2 ∙ 𝑃𝑃𝜎𝜎𝐸𝐸(𝑘𝑘)} ∞𝑘𝑘=0 − 𝜇𝜇 2 Herleitungen 199 = 𝐸𝐸 −𝜇𝜇 ∙ ∑ �𝑘𝑘 2 ∙ 𝜇𝜇 𝑘𝑘 𝑘𝑘! � ∞𝑘𝑘=0 − 𝜇𝜇 2 = 𝐸𝐸 −𝜇𝜇 ∙ ∑ �𝑘𝑘 ∙ 𝜇𝜇 𝑘𝑘 (𝑘𝑘−1)! � ∞𝑘𝑘=1 − 𝜇𝜇 2 = 𝐸𝐸 −𝜇𝜇 ∙ ∑ �� 𝑘𝑘−1 (𝑘𝑘−1)! + 1 (𝑘𝑘−1)! � ∙ 𝜇𝜇 𝑘𝑘 � ∞𝑘𝑘=1 − 𝜇𝜇 2 = e −μ ∙ ∑ � μ k (𝑘𝑘−2)! � ∞k=2 + e −μ ∙ ∑ � μ k (𝑘𝑘−1)! � ∞k=1 − 𝜇𝜇 2 = e −μ ∙ 𝜇𝜇 2 ∙ ∑ � μ (𝑘𝑘−2) (𝑘𝑘−2)! � ∞k=2 ��������� 𝑎𝑎 𝜇𝜇 + e −μ ∙ μ ∙ ∑ � μ (𝑘𝑘−1) (𝑘𝑘−1)! � ∞k=1 ��������� 𝑎𝑎 𝜇𝜇 − 𝜇𝜇 2 = µ Bei der P OISSON -Verteilung Poiµ(k) sind Erw = Var = µ. Var(X+Y) und Kovarianz Ich benütze vorübergehend die Abkürzungen 𝐸𝐸𝐸𝐸𝑤𝑤( ) → 𝐸𝐸( ) und 𝑉𝑉𝑔𝑔𝐸𝐸( ) → 𝑉𝑉( ) . Ich setze 𝐸𝐸(𝑋𝑋 + 𝑌𝑌) = 𝐸𝐸(𝑋𝑋) + 𝐸𝐸(𝑌𝑌) voraus und wende 𝑉𝑉(𝑍𝑍) = 𝐸𝐸(𝑍𝑍²) − 𝐸𝐸(𝑍𝑍)² auf 𝑍𝑍 = 𝑋𝑋 + 𝑌𝑌 an. 𝑉𝑉(𝑋𝑋 + 𝑌𝑌) = 𝐸𝐸�(𝑋𝑋 + 𝑌𝑌)²� − 𝐸𝐸(𝑋𝑋 + 𝑌𝑌) 2 = 𝐸𝐸(𝑋𝑋 2 + 2 ∙ 𝑋𝑋 ∙ 𝑌𝑌 + 𝑌𝑌 2 ) − (𝐸𝐸(𝑋𝑋) 2 + 2 ∙ 𝐸𝐸(𝑋𝑋) ∙ 𝐸𝐸(𝑌𝑌) + 𝐸𝐸(𝑌𝑌)²) = 𝐸𝐸(𝑋𝑋²) − 𝐸𝐸(𝑋𝑋) 2 ����������� 𝑉𝑉(𝑋𝑋) + 𝐸𝐸(𝑌𝑌 2 ) − 𝐸𝐸(𝑌𝑌) 2 ����������� 𝑉𝑉(𝑌𝑌) + 2 ∙ �𝐸𝐸(𝑋𝑋 ∙ 𝑌𝑌) − 𝐸𝐸(𝑋𝑋) ∙ 𝐸𝐸(𝑌𝑌) ��������������� 𝐾𝐾𝑔𝑔𝑣𝑣(𝑋𝑋,𝑌𝑌) � Die Erwartungstreue der Stichprobenvarianz Es geht darum, in der Stichprobenvarianz die merkwürdige Division mit (n-1) zu erklären. 𝐸𝐸 2 = 1 𝑛𝑛−1 ∙ ∑ (𝑧𝑧 𝑖𝑖 − 𝑧𝑧̅) 2 𝑛𝑛𝑖𝑖=1 Das Bauchgefühl würde eine Division mit n wie beim Mittelwert erwarten. 𝑃𝑃 = 1 𝑛𝑛 ∙ ∑ (𝑧𝑧 𝑖𝑖 − 𝑧𝑧̅) 2 = 𝑛𝑛−1 𝑛𝑛 ∙ 𝐸𝐸 2 𝑛𝑛𝑖𝑖=1 Ich verwende den Erw µ und die Var σ² der Grundgesamtheit. Die Strichprobenwerte in b werden um µ nach rechts verschoben. Eine solche Verschiebung beeinflusst die Streuung NICHT! 200 Tabellen 𝐸𝐸 ∙ 𝑃𝑃 = ∑ (𝑧𝑧 𝑖𝑖 − 𝑧𝑧̅) 2 →𝜇𝜇 �� ∑{((z i − μ) − (z� − μ))²} = ∑ {(z i − μ) 2 − 2 ∙ (z i − μ) ∙ (z� − μ) + (z� − μ) 2 } = ∑(𝑧𝑧 𝑖𝑖 − 𝜇𝜇) 2 − 2 ∙ (𝑧𝑧̅ − 𝜇𝜇) ∙ ∑{𝑧𝑧 𝑖𝑖 − 𝜇𝜇} ������� 𝑛𝑛∙(𝐴𝐴�−𝜇𝜇) + (𝑧𝑧̅ − 𝜇𝜇) 2 ∙ ∑ 1 � 𝑛𝑛 = ∑(z i − μ) 2 − n ∙ (z� − μ) 2 Ich lasse (schreibfaul) die immer gleichen Grenzen i=1, 2, …, n bei den Summen weg. Erw(b) = Erw � 1 n ∙ ∑(z i − μ) 2 � − Erw((z� − μ) 2 ) ����������� 𝑉𝑉𝑎𝑎𝑟𝑟(𝐴𝐴�) = 1 n ∙ ∑ �Erw((z i − μ) 2 ) ����������� 𝜎𝜎 𝑖𝑖2 � − Var(z�) Im Abschnitt → Mehrere Zufallszahlen wurde begründet, dass ∑ {𝜎𝜎 𝐸𝐸2 } = 𝐸𝐸 ∙ 𝜎𝜎² und Var(z�) = 𝜎𝜎² 𝑛𝑛 . Also folgt Erw(b) = σ 2 − σ 2 n = �1 − 1 n � ∙ σ 2 = n−1 n ∙ σ 2 Damit ist Erw(𝑃𝑃) = n−1 n ∙ σ 2 ≠ σ 2 aber Erw(s 2 ) = Erw � 𝑛𝑛 𝑛𝑛−1 ∙ 𝑃𝑃� = σ 2 ⇒ s ist erwartungstreu . Der Unterschied mit dem Faktor 𝐸𝐸/ (𝐸𝐸 − 1) ist für große n sehr gering. Tabellen Viele Studenten werden in Klausuren gezwungen, numerische Werte Tabellen zu entnehmen, weil ihr schlichter TR nicht über die entsprechende Stochastikfunktion verfügt. Ich füge daher einige Techniken zum Umgang mit Tabellen hier an. Lineare Interpolation Als Beispiel betrachte ich die folgende Ф(x)-Tabelle mit der Auflösung ∆𝑍𝑍 = 0.01 . Tabellen 201 Gesucht sind: 𝛷𝛷(0.14𝟕𝟕) = ? sowie Φ(𝑍𝑍 =? ) = 0.6000 . Aber eine Tabelle mit der höheren Auflösung ∆𝑍𝑍 = 0.001 steht nicht zur Verfügung. Hier hilft die Lineare Interpolation weiter. Sie unterstellt einen linearen Verlauf zwischen den beiden benachbarten Funktionswerten (x 1 |y 1 )---(x 2 |y 2 ) und benützt den Strahlensatz. Lineare Interpolation 𝜕𝜕−𝜕𝜕 1 𝑥𝑥−𝑥𝑥 1 = 𝜕𝜕 2 −𝜕𝜕 1 𝑥𝑥 2 −𝑥𝑥 1 ≡ ∆𝜕𝜕 ∆𝑥𝑥 𝑦𝑦 = 𝑦𝑦 1 + (𝑍𝑍 − 𝑍𝑍 1 ) ∙ ∆𝜕𝜕 ∆𝑥𝑥 x↔y 𝑍𝑍 = 𝑍𝑍 1 + (𝑦𝑦 − 𝑦𝑦 1 ) ∙ ∆𝑥𝑥 ∆𝜕𝜕 Damit kann man die oben gestellte Aufgabe lösen: Beim ersten Bsp erkennt man, dass 𝑥𝑥−𝑥𝑥 1 𝑥𝑥 2 −𝑥𝑥 1 = 0.7 und rechnet mit dem TR einfach: 𝑦𝑦 = 𝑦𝑦 1 + 0.7 ∙ ∆𝑦𝑦 x 1 x x 2 y 1 y y 2 202 Tabellen Stetigkeitskorrektur Tabellen für die äußerst wichtige Bin-Verteilung sind sehr aufwändig, weil es zwei Parameter p und n gibt. Oft ist nur eine geringe Genauigkeit gefordert und diskrete Bin-Werte können durch stetige Norm-Werte recht gut angenähert werden. Siehe auch → Abschnitt 3.9 Große Zahlen. 𝐵𝐵𝐸𝐸𝐸𝐸𝑃𝑃𝑧𝑧𝑚𝑚 𝑝𝑝; 𝑛𝑛 (𝑘𝑘 1 … 𝑘𝑘 2 ) 𝜇𝜇 =𝑝𝑝∙𝐸𝐸; 𝜎𝜎= � 𝜇𝜇∙ ( 1−𝑝𝑝 ) �⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯� NormSum μ; σ (x 1 … x 2 ) = Φ �x 2 − μ σ � − Φ �x 1 − μ σ � Es bleibt die Frage, wie die NormSum-Grenzen x 1; 2 aus den gegebenen BinSum-Grenzen k 1; 2 zu berechnen sind. Das folgende Bsp zeigt, dass x 1; 2 =k 1; 2 kein gutes Näherungsergebnis liefert. Stetigkeitskorrektur Die 3 Rechtecke 𝐵𝐵𝐸𝐸𝐸𝐸(3) + 𝐵𝐵𝐸𝐸𝐸𝐸(4) + 𝐵𝐵𝐸𝐸𝐸𝐸(5) werden durch 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚𝑃𝑃𝑧𝑧𝑚𝑚(3 … 5) schlecht, aber durch 𝑁𝑁𝜎𝜎𝐸𝐸𝑚𝑚𝑃𝑃𝑧𝑧𝑚𝑚(2.5 … 5.5) besser angenähert. Dieses Erweitern um ∓ 0.5 nach links und rechts nennt man die Stetigkeitskorrektur. 2 3 4 5 6 7 Tabellen 203 204 Tabellen Literatur [1] Beyer u.a.: „Wahrscheinlichkeitsrechnung und Statistik“, Thun, Frankfurt/ M. [2] Blume: „Statistische Methoden für Ingenieure und Naturwissenschaftler“, VDI, Düsseldorf [3] Bosch: „Elementare Einführung in die Wahrscheinlichkeitsrechnung“, Vieweg+Teubner, Wiesbaden [4] Bosch: „Elementare Einführung in die angewandte Statistik“, Vieweg+Teubner, Wiesbaden [5] Fisz: „Wahrscheinlichkeitsrechnung und mathematische Statistik“, DVW, Berlin [6] Heinhold & Gaede: „Ingenieur-Statistik“, Oldenbourg, München [7] Henze: „Stochastik für Einsteiger“, Vieweg+Teubner, Wiesbaden [8] Krengel: „Einführung in die Wahrscheinlichkeitsrechnung und Statistik“, Vieweg+Teubner, Wiesbaden [9] Kreyszig: „Statistische Methoden und ihre Anwendungen“, Vandenhoeck+Ruprecht, Göttingen [10] Lipschutz: „Wahrscheinlichkeitsrechnung“, McGraw-Hill, New York [11] Papula: „Mathematik für Ingenieure und Naturwissenschaftler“, Vieweg+Teubner, Wiesbaden, 6. Auflage, 2011. [12] Pearson (1900): „On the criterion …”, Philosophical Magazine, Series 5. 50 (302), 157-75 [13] Spiegel: „Statistik“, McGraw-Hill, New York [14] Stahel: „Statistische Datenanalyse“, Vieweg+Teubner, Wiesbaden 206 Literatur [15] Weber: „Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure“, Vieweg+Teubner, Stuttgart [16] https: / / de.wikipedia.org/ wiki/ Ziegenproblem (abgerufen am 15.04.2020) Mit Aufgaben und Lösungen ,! 7ID8C5-cfcfcg! ISBN 978-3-8252-5252-6 Karl-Heinz Krüger Grundwissen Stochastik Die Stochastik gehört in den Bachelorstudiengängen der Natur- und Wirtschaftswissenschaften zum Handwerkszeug. Dieses Buch vermittelt die Grundlagen der Wahrscheinlichkeitsrechnung und setzt lediglich schulische Mathekenntnisse voraus. Karl-Heinz Krüger geht auf Häufigkeiten und Wahrscheinlichkeiten sowie auf Zufall, Erwartung und Verteilung ein. Wissenswertes rund um Stichproben und Tests runden das Buch ab. Beispiele sowie Aufgaben mit Lösungen helfen beim Verständnis. Das Lehrbuch richtet sich an Studierende der Naturwissenschaften - insbesondere auch an angehende Wirtschaftsinformatiker. Natur- und Wirtschaftswissenschaften Informatik Grundwissen Stochastik Krüger Dies ist ein utb-Band aus dem UVK Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehrbücher und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb-shop.de QR-Code für mehr Infos und Bewertungen zu diesem Titel 52526 Krüger_M_-5252.indd 1 52526 Krüger_M_-5252.indd 1 07.07.20 14: 45 07.07.20 14: 45