Statistik für Ingenieure und Naturwissenschaftler
Grundlagen und Anwendung statistischer Verfahren
0707
2014
978-3-8169-8154-1
expert verlag
Richard Mohr
Bei der Beurteilung von Problemen der industriellen Massenproduktion (Qualitätssicherung), bei Versuchs-Planung und Auswertung werden verstärkt mathematisch-statistische Prüfverfahren herangezogen. Oft werden statistische Verfahren benutzt, ohne dass man sich der Voraussetzungen und Grenzen dieser Rezepte bewusst ist. Das Buch macht mit den Denkweisen und Begriffen sowie den grundlegenden Verfahren der Statistik vertraut und versetzt den Leser in die Lage, detaillierte Fachliteratur und Software-Produkte zu verstehen. Dabei treten an die Stelle mathematischer Beweise Plausibilitätsbetrachtungen, die durch praktische Beispiele untermauert werden.
Richard Mohr Statistik für Ingenieure und Naturwissenschaftler Statistik für Ingenieure und Naturwissenschaftler Grundlagen und Anwendung statistischer Verfahren Prof. Dr. Richard Mohr 3., überarbeitete Auflage Kontakt & Studium Band 557 Herausgeber: Prof. Dr.-Ing. Dr. h.c. Wilfried J. Bartz Dipl.-Ing. Hans-Joachim Mesenholl Dipl.-Ing. Elmar Wippler TAE 3., überarbeitete Auflage 2014 2., erweiterte Auflage 2008 1. Auflage 2003 Bei der Erstellung des Buches wurde mit großer Sorgfalt vorgegangen; trotzdem lassen sich Fehler nie vollständig ausschließen. Verlag und Autoren können für fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Für Verbesserungsvorschläge und Hinweise auf Fehler sind Verlag und Autoren dankbar. © 2003 by expert verlag, Wankelstr. 13, D -71272 Renningen Tel.: + 49 (0) 71 59 - 92 65 - 0, Fax: + 49 (0) 71 59 - 92 65 - 20 E-Mail: expert@expertverlag.de, Internet: www.expertverlag.de Alle Rechte vorbehalten Printed in Germany Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Dies gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. ISBN 978-3-8169-3154-6 Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / www.dnb.de abrufbar. Bibliographic Information published by Die Deutsche Bibliothek Die Deutsche Bibliothek lists this publication in the Deutsche Nationalbibliografie; detailed bibliographic data are available on the internet at http: / / www.dnb.de Vorwort F¨ahigkeiten in der Auswertung von Datenmaterialien durch statistische Verfahren und Kenntnisse der Wahrscheinlichkeitsrechnung geh¨oren heute zum R¨ ustzeug von Ingenieuren, Naturwissenschaftlern und Betriebswirten in fast allen Industriezweigen. Deshalb sollten auch in jedem naturwissenschaftlichen, technischen oder betriebswirtschaftlichen Studium die Grundlagen statistischer Verfahren vermittelt werden. Das Anliegen dieses Buches besteht darin, Studenten verschiedenster Fachrichtungen und in der Praxis t¨atige Ingenieure mit den Grundlagen statistischer Schlussweisen vertraut zu machen und sie zu sachlich richtiger Anwendung zu bef¨ahigen. Ausgehend von Grundkenntnissen in Differential- und Integralrechnung wurde bei der methodischen Gestaltung des Buches Wert darauf gelegt, die zum Verst¨andnis notwendige mathematische Theorie m¨oglichst einfach zu gestalten. Aus diesem Grund musste bei manchen tiefergehenden Sachverhalten auf die exakte mathematische Begr¨ undung verzichtet werden. An deren Stelle treten Plausibilit¨ats¨ uberlegungen und informative Schaubilder. Anhand zahlreicher Beispiele aus den Ingenieurwissenschaften werden typische Aufgaben formuliert, gel¨ost und interpretiert. Das Buch gliedert sich in drei Themenbereiche: die beschreibende Statistik einschließlich der Themenbereiche Korrelation und Regression, die Wahrscheinlichkeitsrechnung mit den f¨ ur die Praxis relevanten Pr¨ ufverteilungen sowie die schließende Statistik mit den wichtigsten Sch¨atz- und Pr¨ ufverfahren. Ein Kapitel zur statistischen Qualit¨atskontrolle rundet die Darstellung ab. Das Buch ist auch zum Selbststudium geeignet. Beispiele mit L¨osungen erm¨oglichen eine Verst¨andniskontrolle. Dem heute weit verbreiteten Einsatz von leistungsf¨ahigen Computern und Statistik-Paketen zur Auswertung umfangreichen Datenmaterials wurde Rechnung getragen. Deshalb entf¨allt die fr¨ uher ¨ ubliche Angabe von Berechnungsverfahren und Nomogrammen. Der Schwerpunkt der Darstellung liegt in einer ausf¨ uhrlichen Beschreibung statistischer Verfahren sowie deren Voraussetzungen und Zielsetzungen. Dadurch wird der Anwender zum richtigen Einsatz von Programmen und der Interpretation der Resultate bef¨ahigt. Viele Berechnungen und graphische Darstellungen in diesem Buch wurden mit MATLAB erstellt. Die anderen Abbildungen sind mit einem von Herrn Dr. Bernhard G¨otz ( † ) Universit¨at Stuttgart, entwickelten Graphik-Paket gerechnet und gestaltet worden. Ihm sei an dieser Stelle herzlich gedankt. Besonders danken m¨ochte ich meinen Kollegen der Hochschule Esslingen f¨ ur die Durchsicht des Manuskripts und die wertvollen Anregungen w¨ahrend der Entstehung. Alfdorf, im Juli 2012 Richard Mohr ii INHALTSVERZEICHNIS Inhaltsverzeichnis 1 Einf¨ uhrung 1 2 Beschreibende Statistik 2 2.1 Merkmaltypen und Stichproben . . . . . . . . . . . . . . . . . . . . . . . . 2 2.2 Graphische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2.1 Qualitative Merkmale (Stabdiagramm, Kreissektor) . . . . . . . . . 3 2.2.2 Quantitative Merkmale (Histogramm) . . . . . . . . . . . . . . . . 3 2.3 Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3.1 Arithmetisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3.2 Median . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.3 Harmonisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3.4 Geometrisches Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3.5 Gewichtete Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3.6 Winsorisierte oder gestutzte Mittel . . . . . . . . . . . . . . . . . . 9 2.4 Quantile einer Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.5 Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.5.1 Mittlerer Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.5.2 Varianz und Standardabweichung . . . . . . . . . . . . . . . . . . . 11 2.6 Transformation, R¨ange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3 Korrelation und Regression 16 3.1 Lineare Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2 Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.2.1 Empirische Regressionskurven . . . . . . . . . . . . . . . . . . . . . 23 3.2.2 Regression zweiter Art . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.2.3 Regressionsgerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.2.4 Regressionskurven allgemeiner Art . . . . . . . . . . . . . . . . . . 28 3.2.5 Bestimmtheitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 4 Zeitreihen 31 4.1 Autokorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2 Komponentenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.2.1 Trendbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2.2 Glatte Komponente . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.2.3 Saisonbereinigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 INHALTSVERZEICHNIS iii 5 Wahrscheinlichkeit 42 5.1 Klassischer Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . 44 5.2 Grenzen des klassischen Wahrscheinlichkeitsbegriffs . . . . . . . . . . . . . 47 5.3 Geometrische Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . 47 5.4 Stetige Zufallsgr¨oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 6 Zufallsvariable (ZV) 51 6.1 Diskrete Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.1.1 Erwartungswert einer diskreten ZV . . . . . . . . . . . . . . . . . . 53 6.1.2 Varianz und Standardabweichung bei einer diskreten ZV . . . . . . 54 6.2 Stetige Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.3 Eigenschaften von Erwartungswert und Varianz . . . . . . . . . . . . . . . 57 6.3.1 Lineare Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3.2 Summe von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . 57 6.3.3 Nichtlineare Transformationen . . . . . . . . . . . . . . . . . . . . . 60 6.3.4 Gaußsche Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . 62 7 Spezielle diskrete Verteilungen 63 7.1 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.2 Geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.3 Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 8 Lebensdauerverteilungen 72 9 Normalverteilung 75 9.1 Gaußsche Glockenkurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 9.2 Standardnormalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 9.3 Verteilungsfunktion der N (0, 1)-Normalverteilung . . . . . . . . . . . . . . 80 9.4 N (μ, σ 2 )-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 9.5 Approximation der Binomialverteilung . . . . . . . . . . . . . . . . . . . . 84 9.6 Lognormalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 10 Wichtige Pr¨ ufverteilungen 86 10.1 χ 2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 10.2 Student-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 10.3 F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 11 Stichprobentheorie 91 11.1 Vorgehensweise bei statistischen Verfahren . . . . . . . . . . . . . . . . . . 91 11.2 Stichproben bei endlichen Grundgesamtheiten . . . . . . . . . . . . . . . . 92 iv INHALTSVERZEICHNIS 11.3 Stichprobenwerte als Realisierung von Zufallsvariablen . . . . . . . . . . . 92 12 Parametersch¨atzung 93 12.1 Sch¨atzwert f¨ ur eine unbekannte Wahrscheinlichkeit . . . . . . . . . . . . . 94 12.2 Sch¨atzwert f¨ ur den relativen Anteil in einer endlichen Grundgesamtheit . . 94 12.3 Sch¨atzwert f¨ ur einen unbekannten Erwartungswert . . . . . . . . . . . . . . 95 12.4 Sch¨atzwert f¨ ur eine unbekannte Varianz . . . . . . . . . . . . . . . . . . . . 96 12.5 Maximum-Likelihood-Methode . . . . . . . . . . . . . . . . . . . . . . . . . 97 13 Signifikanztests 100 13.1 Streubereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 13.2 Tests ¨ uber Parameter der Normalverteilung . . . . . . . . . . . . . . . . . 105 13.2.1 Test eines Erwartungswerts μ bei bekannter Varianz σ 2 . . . . . . . 105 13.2.2 Test eines Erwartungswerts μ bei unbekannter Varianz . . . . . . . 106 13.2.3 Test einer unbekannten Varianz σ 2 . . . . . . . . . . . . . . . . . . 106 13.3 Test einer unbekannten Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . 107 13.4 Vergleich der Parameter zweier Verteilungen . . . . . . . . . . . . . . . . . 110 13.4.1 Test der Erwartungswerte zweier unabh¨angiger Verteilungen . . . . 110 13.4.2 Test der Erwartungswerte zweier verbundener Stichproben . . . . . 113 13.5 Vergleich zweier Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . 114 13.6 G¨ utefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 14 Konfidenzintervalle 118 14.1 Konfidenzintervalle f¨ ur Parameter der Normalverteilung . . . . . . . . . . . 119 14.2 Konfidenzintervall f¨ ur eine Wahrscheinlichkeit p . . . . . . . . . . . . . . . 122 14.3 Konfidenzintervall f¨ ur den Erwartungswert λ einer Poissionverteilung . . . 124 15 Vertrauensintervall f¨ ur Regressionsgeraden 127 15.1 Sch¨atzung der Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 15.2 Vertrauens- und Prognose-Intervall . . . . . . . . . . . . . . . . . . . . . . 130 15.3 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 16 ¨ Uberpr¨ ufung von Voraussetzungen 135 16.1 Quantil-Quantil-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 16.2 χ 2 -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 16.2.1 Test von vorgebenen Wahrscheinlichkeiten . . . . . . . . . . . . . . 138 16.2.2 Test einer Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . 140 17 χ 2 -Unabh¨angigkeitstests 144 INHALTSVERZEICHNIS v 18 Varianzanalyse 148 18.1 Einfache Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 18.2 Doppelte Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 18.3 Problematik einfacher Varianztests . . . . . . . . . . . . . . . . . . . . . . 157 19 Ausreißer und Toleranzintervalle 159 19.1 Ausreißer-Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 19.2 Toleranzgrenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 20 Verteilungsfreie Verfahren 163 20.1 Vorzeichentest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 20.2 Test und Konfidenzintervall f¨ ur den Median . . . . . . . . . . . . . . . . . 165 20.3 Bootstrapping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 21 Statistische Qualit¨atskontrolle 173 21.1 Kontrollkarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 21.1.1 ¯ x-Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 21.1.2 ˜ x-Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 21.1.3 s-Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 21.2 Prozessf¨ahigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 21.3 p-Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 21.4 Kontrollkarten mit Ged¨achtnis . . . . . . . . . . . . . . . . . . . . . . . . . 186 21.5 Ungew¨ohnliche Messwertfolgen . . . . . . . . . . . . . . . . . . . . . . . . . 189 21.6 Pr¨ ufpl¨ane f¨ ur die Attributpr¨ ufung . . . . . . . . . . . . . . . . . . . . . . . 189 21.6.1 Aufbau eines einfachen Pr¨ ufplans . . . . . . . . . . . . . . . . . . . 189 21.6.2 Operationscharakteristik f¨ ur einen einfachen Pr¨ ufplan . . . . . . . . 190 21.6.3 Kenngr¨oßen eines Pr¨ ufplans . . . . . . . . . . . . . . . . . . . . . . 192 21.7 Messende Abnahmepr¨ ufung . . . . . . . . . . . . . . . . . . . . . . . . . . 196 A Kombinatorik 204 A.1 Fundamentales Z¨ahlprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 A.2 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 A.2.1 Geordnete Stichprobe ohne Zur¨ ucklegen . . . . . . . . . . . . . . . 206 A.2.2 Ungeordnete Stichproben ohne Zur¨ ucklegen . . . . . . . . . . . . . 206 A.2.3 Geordnete Stichproben mit Zur¨ ucklegen . . . . . . . . . . . . . . . 208 A.2.4 Ungeordnete Stichproben mit Zur¨ ucklegen . . . . . . . . . . . . . . 209 B Wahrscheinlichkeitsrechnung 211 B.1 Zufallsexperimente, Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . 211 B.2 Ereignisalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 vi INHALTSVERZEICHNIS B.3 Axiomatische Definition der Wahrscheinlichkeit . . . . . . . . . . . . . . . 216 B.4 Rechnen mit Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . 217 B.5 Bedingte Wahrscheinlichkeiten und unabh¨angige Ereignisse . . . . . . . . . 219 C Markow-Ketten 221 D Tafeln 231 Verteilungsfunktion der Standard-Normalverteilung . . . . . . . . . . . . . . . . 231 Quantile der Standard-Normalverteilung . . . . . . . . . . . . . . . . . . . . . . 233 Quantile der t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Quantile der χ 2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Ablehnungsgrenzen bei Vorzeichentest . . . . . . . . . . . . . . . . . . . . . . . 237 Quantile der F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 Literaturverzeichnis 239 Index 240 1 1 Einf¨ uhrung Sammeln von Beobachtungsdaten, sie zu ordnen und in graphisch ansprechender Form darzustellen ist Aufgabe der beschreibenden Statistik. Ein spektakul¨ares Beispiel ist die monatliche Bekanntgabe der Arbeitslosenzahlen. Dar¨ uber hinaus werden diese Daten noch aufbereitet, so wird z. B. der jahreszeitliche Einfluss auf das Einstellungsverhalten ”herausgerechnet” (Saisonbereinigung). Ebenso werden die aktuellen Daten mit denen der Vormonate verglichen. Weiter wird nach Zusammenh¨angen mit anderen volkswirtschaftlichen Daten gesucht. (Regressionsrechnung) Die sogenannte schließende Statistik geht ¨ uber das reine Sammeln und Aufbereiten von Daten hinaus. Hier soll versucht werden, Eigenschaften einer sogenannten Grundgesamtheit - z. B. alle produzierten Gl¨ uhlampen - dadurch zu ergr¨ unden, dass wir eine sogenannte Stichprobe entnehmen, diese untersuchen und dann auf die Grundgesamtheit zur¨ uckschließen. Grundgesamtheit Auswertung der Stichprobe Stichprobe R¨ uckschluss Charakteristische Gr¨oßen der Grundgesamtheit werden durch Auswerten der Stichprobe gesch¨atzt - Ausschussanteil der Gl¨ uhlampen -. Ein R¨ uckschluss auf die Grundgesamtheit ist nur mit gewissen Unsicherheiten m¨oglich, bedingt durch statistische Schwankungen der Zufallsauswahl der Stichprobe. Diese Unsicherheiten zu quantifizieren ist ein Hauptziel der vorliegenden Darstellung. Die dazu n¨otigen Modellbildungen f¨ ur Zufallsprozesse sind ein zentraler Punkt dieses Buchs. Absolute Sicherheit ist nur durch eine sogenannte Vollerhebung erreichbar. Selbst das ist nicht immer m¨oglich, so zum Beispiel bei Pr¨ ufungen, bei denen das Werkst¨ uck zerst¨ort wird oder bei Messung der Lebensdauer. In diesem Grundkurs ¨ uber statistische Methoden werden zun¨achst die sp¨ater notwendigen Begriffsbildungen in einer Darstellung der beschreibenden Statistik eingef¨ uhrt. Nach Bereitstellung notwendiger Erkenntnisse aus der Wahrscheinlichkeitsrechnung erfolgt die Darstellung statistischer Pr¨ ufverfahren. Dabei soll vor allem ein Verst¨andnis f¨ ur die zugrunde liegenden Modellvorstellungen erzeugt werden. Einige theoretische Er¨orterungen wurden in den Anhang ausgelagert. Sie sind in sich abgeschlossen und k¨onnen bei Bedarf erg¨anzend herangezogen werden, um das Verst¨andnis f¨ ur die statistische Denkweise zu vertiefen. 2 2 Beschreibende Statistik 2 Beschreibende Statistik Stichprobenmaterial ist in seiner Ursprungsform oft nur schwer ¨ uberschaubar. Aus diesem Grund wird in der beschreibenden Statistik versucht, Zahlenmaterial ¨ ubersichtlich graphisch darzustellen und einige repr¨asentative Parameter zur Beschreibung einer Stichprobe zu bestimmen. 2.1 Merkmaltypen und Stichproben Wir unterscheiden bei Beobachtungen (Stichproben) folgende Merkmaltypen: a) klassifikatorische Merkmale; Beispiel: Steuerklasse, Religionszugeh¨origkeit b) Rangmerkmale; Beispiel: Besoldungsgruppen bei Beamten c) quantitative Merkmale (a) diskret - z¨ahlen; Beispiel: Anzahl der Ausschussst¨ ucke einer Stichprobe (b) stetig - messen; Beispiel: Gewicht des Zuckerpakets einer Stichprobe Sinn und Unsinn beim Umgang mit statistischem Material • Oft ordnet man klassifikatorischen Merkmalen Zahlen zu (Verschl¨ usselung); z. B. Religionszugeh¨origkeit: Religion evangelisch katholisch sonstige keine Schl¨ ussel 1 2 3 4 Dadurch wird aber ein klassifikatorisches Merkmal nicht zu einem quantitativen! Durchschnittsbildung ist z. B. Unsinn! • Rangmerkmale werden ebenfalls oft verschl¨ usselt; z. B. Interesse an beruflicher Fortbildung sehr interessiert interessiert wenig interessiert nicht interessiert 4 3 2 1 Hier ist nur Reihenfolge, der Rang von Bedeutung! Ein Beobachtungswert heißt Stichprobenwert. Die Anzahl der Werte heißt Stichprobenumfang. Die n Stichprobenwerte bezeichnen wir der Reihe nach mit x 1 , x 2 , . . . , x n (nach eventueller Verschl¨ usselung). Damit stellen wir die Stichprobe als n-Tupel (Vektor) dar. x = (x 1 , x 2 , . . . , x n − 1 , x n ) 2.2 Graphische Darstellung 3 2.2 Graphische Darstellung Durch graphische Darstellungen von Stichproben kann ein erster ¨ Uberblick ¨ uber das Zahlenmaterial gewonnen werden. Mit ihrer Hilfe k¨onnen oft ohne große Rechnereien entscheidende Schl¨ usse gezogen werden. 2.2.1 Qualitative Merkmale (Stabdiagramm, Kreissektor) Bei qualitativen Merkmalen stellt man die absoluten und relativen H¨aufigkeiten dar. Beispiel 2.1: Stimmen- und Sitzverteilung bei einer Landtagswahl. Das betrachtete Merkmal ist ”gew¨ahlte Partei“. Partei Stimmenanteil in % Anzahl der Mandate CDU 49,0 66 SPD 32,9 42 Gr¨ une 7,9 10 FDP 5,9 7 Sonstige 4,3 0 Summe 100,0 125 50 10 CDU SPD Gr¨ une FDP Sonstige Stimmenanteil in % Bild 2.1 CDU SPD Gr¨ une FDP Mandate Bild 2.2 Bei jeder Darstellung durch Fl¨achen entspricht die Gesamtfl¨ache der Summe aller H¨aufigkeiten. Diese Gesamtfl¨ache muss dann im Verh¨altnis der einzelnen H¨aufigkeiten aufgeteilt werden. 2.2.2 Quantitative Merkmale (Histogramm) Bei quantitativen Merkmalen stellen die Stichprobenwerte Zahlen dar, die auf dem Zahlenstrahl aufgetragen werden k¨onnen. Soll zum Beispiel das Ergebnis einer Klassenarbeit dargestellt werden, so werden die Zensuren (1,...,6) auf der x-Achse aufgetragen, die relative H¨aufigkeit der einzelnen Zensuren ergibt die H¨ohe des Stabs. 4 2 Beschreibende Statistik Falls ein Merkmal sehr viele Auspr¨agungen besitzt (z. B. beim Messen oder Wiegen) ist ein Stabdiagramm zur graphischen Darstellung nicht mehr geeeignet. Hier w¨ urden viele Merkmalwerte sehr selten oder ¨ uberhaupt nicht vorkommen. In diesem Fall benutzt man eine Klasseneinteilung. Beispiel 2.2: Bei einer Radarkontrolle wurden diejenigen Fahrzeuge registriert, welche die Geschwindigkeit von 55 km/ h ¨ uberschritten hatten. Bez¨ uglich der H¨ohe des Verwarnungsgeldes wurden drei Klassen gebildet. Klasse Klassengrenzen H¨aufigkeit 1 55 - 60 (einschließlich) 58 2 60 - 70 (einschließlich) 30 3 70 - 100 (einschließlich) 12 Summe 100 Bei einem Histogramm werden ¨ uber den einzelnen Klassen senkrecht nach oben Rechtecke gezeichnet. F¨ ur die Gr¨oße des Rechtecks ergeben sich nun die M¨oglichkeiten: a) H¨ohe des Rechtecks ist proportional zur relativen H¨aufigkeit 58 : 30 : 12 b) Fl¨ache des Rechtecks ist proportional zur relativen H¨aufigkeit 58 5 : 30 10 : 12 30 50 10 55 60 70 100 Bild 2.3 10 1 55 60 70 100 Bild 2.4 Beim ersten Histogramm wird auf der y-Achse die relative oder absolute H¨aufigkeit aufgetragen. Es besteht die Gefahr, dass bei oberfl¨achlicher Betrachtung falsche Schl¨ usse gezogen werden. Die Rechteckfl¨ache der dritten Klasse ist gr¨oßer als die der ersten Klasse. Daher k¨onnte man den falschen Schluss ziehen, die absolute H¨aufigkeit der dritten Klasse sei auch gr¨oßer! Beim zweiten Histogramm wird auf der y-Achse die absolute Klassenh¨aufigkeit/ Klassenbreite aufgetragen. Die absoluten H¨aufigkeiten der Klassen k¨onnen als Rechteckfl¨achen gedeutet werden. Im Folgenden werden wir ausschließlich diese Darstellung benutzen. Damit ist auch ein widerspruchsfreier Anschluss an die Wahrscheinlichkeitsrechnung gegeben. Ein fl¨achenproportionales Histogramm erh¨alt man mit der Vorschrift Rechtecksh¨ohe = absolute Klassenh¨aufigkeit Klassenbreite . 2.3 Mittelwerte 5 2.3 Mittelwerte Das reine Aufz¨ahlen der Zahlenwerte einer Stichprobe ist un¨ ubersichtlich. M¨ochte man die Stichprobe durch einen Zahlenwert charakterisieren, so benutzt man Mittelwerte. Wir werden feststellen, dass neben dem bekannten arithmetischen Mittelwert auch noch andere Begriffsbildungen sinnvoll sind. Diese sogenannten Lageparameter beschreiben die Lage der gesamten Stichprobe auf dem Zahlenstrahl. 2.3.1 Arithmetisches Mittel Nach dem statistischen Jahrbuch betrug in der BRD im Jahre 2007 der pro-Kopf-Verbrauch an Bier: je Einwohner 112 Liter je potentieller Verbraucher 137 Liter Zur Berechnung wurde der gesamte Bierausstoß a) durch die Gesamtbev¨olkerungszahl b) durch die Anzahl der Personen ¨ uber 15 Jahre dividiert. H¨atte jede dieser Personen den Durchschnittswert getrunken, so w¨are der gleiche Bierverbrauch entstanden. Den Mittelwert x einer Stichprobe erh¨alt man dadurch, dass die Summe aller Stichprobenwerte durch die Anzahl der Stichprobenwerte dividiert wird. Also x = x 1 + x 2 + . . . + x n n = 1 n · n ∑ i=1 x i . Dieser Mittelwert heißt arithmetisches Mittel. Mittelwertberechnung bei Klasseneinteilung Ist die Stichprobe nur noch in Form einer Klasseneinteilung gegeben, so l¨asst sich der Mittelwert nicht mehr exakt bestimmen. Bei gegebener Klasseneinteilung geht man nun so vor, als ob alle Werte einer Klasse mit der Klassenmitte identisch w¨aren. Zur Berechnung dieses Wertes werden die Klassenh¨aufigkeiten mit den Klassenmitten multipliziert. Beim Beispiel aus Abschnitt 2.2.2 erh¨alt man mit der dort vorgegebenen Klasseneinteilung f¨ ur den arithmetischen Mittelwert: Klasse Klassengrenze Klassenmitte H¨aufigkeit Produkt 1 55 - 60 57.5 58 58 · 57.5 2 60 - 70 65 30 30 · 65 3 70 - 100 85 12 12 · 85 Summen 100 6305 Die durchschnittliche Geschwindigkeit derjenigen 100 Autofahrer, die schneller als 55 km/ h fuhren, war ungef¨ahr gleich x ≈ 6305 100 = 63.05 km/ h . 6 2 Beschreibende Statistik 2.3.2 Median Wenn wir die n Stichprobenwerte der Gr¨oße nach anordnen, so nennen wir den mittleren Wert Median. ungerade Zahl von Stichprobenwerten n = 2l + 1 : x 1 ≤ x 2 ≤ . . . ≤ x l − 1 ≤ x l ≤ x l+1 ≤ x l+2 ≤ . . . ≤ x 2l ≤ x 2l+1 ⇒ Median ˜ x = x l+1 gerade Zahl von Stichprobenwerten n = 2l : x 1 ≤ x 2 ≤ . . . ≤ x l − 1 ≤ x l ≤ x l+1 ≤ x l+2 ≤ . . . ≤ x 2l − 1 ≤ x 2l ⇒ Median ˜ x = x l + x l+1 2 H¨ochstens die H¨alfte der Stichprobenwerte sind kleiner als der Median und h¨ochstens die H¨alfte der Stichprobenwerte gr¨oßer als ˜ x. Vergleich von Mittelwert und Median Aus dem Mittelwert x erh¨alt man durch Multiplikation mit der Anzahl der Stichprobenwerte die Summe aller Stichprobenwerte. Damit gibt das arithmetische Mittel Auskunft ¨ uber die Gesamtsumme (vergleiche Beispiel in Abschnitt 2.3.1: Bierausstoß). F¨ ur solche Probleme ist damit das arithmetische Mittel geeignet. Durch den Mittelwert werden die Stichprobenwerte im Allgemeinen in zwei verschieden starke Gruppen zerlegt. Im Extremfall kann es vorkommen, dass auf der einen Seite des Mittelwerts nur ein einziger Stichprobenwert liegt. Dies tritt bei sogenannten Ausreißern auf. Beim Median dagegen liegen links und rechts davon je die H¨alfte der Stichprobenwerte. Im Gegensatz zum arithmetischen Mittel hat die Gr¨oße der Stichprobenwerte außerhalb des mittleren Bereichs keinen Einfluss auf den Median. Der Median des Einkommens teilt die Bev¨olkerung in zwei H¨alften. Die einen geh¨oren zur unteren, die anderen zur oberen Einkommensh¨alfte. Wegen der Spitzenverdiener d¨ urfte das arithmetische Mittel h¨oher sein als der Median. Preise bestimmter Haushaltsger¨ate sind in einzelnen Gesch¨aften verschieden. Auch hier ist der Median dem Durchschnittspreis vorzuziehen, weil die große Masse von K¨aufern, welche nicht bei Billiganbietern oder in sehr teuren Gesch¨aften kauft, im Allgemeinen Preise bezahlen wird, die n¨aher beim Median als beim Durchschnittspreis sind. Aus diesem Grund wird bei vielen Testuntersuchungen der Median als mittlerer Preis und nicht der Durchschnittspreis angegeben. Auch bei der Untersuchung der Studiendauer von Studierenden ist der Median besser geeignet als die durchschnittliche Studiendauer, da diese durch die ewigen Studenten in die H¨ohe getrieben werden. So kann es vorkommen, dass die mittlere Studiendauer einer Fachrichtung ¨ uber 13 Semestern liegt, w¨ahrend der Median nur 11 Semester betr¨agt. Die H¨alfte der Studenten ben¨otigen also zu ihrem Studium h¨ochstens 11 Semester. 2.3 Mittelwerte 7 2.3.3 Harmonisches Mittel Bei manchen Problemen f¨ uhrt das arithmetische Mittel in die Irre. Dies sei an folgendem Beispiel demonstriert. Beispiel 2.3: Ein Sportflugzeug fliege viermal hintereinander jeweils 300 km mit jeweils konstanter Geschwindigkeit und zwar die erste Strecke mit 300 km/ h, die zweite mit 400 km/ h, die dritte mit 500 km/ h und die letzte Strecke mit 600 km/ h. Gesucht ist die Durchschnittsgeschwindigkeit, also diejenige konstante Geschwindigkeit, mit der die gesamte Strecke von 1200 km in der gleichen Zeit geflogen w¨ urde. Als arithmetisches Mittel ergibt sich: x = 300 + 400 + 500 + 600 4 = 450 km/ h Die Durchschnittsgeschwindigkeit errechnet sich als Quotient der insgesamt zur¨ uck gelegten Strecke - 4 · 300 = 1200[km/ h] - durch die insgesamt ben¨otigte Zeit. Wir bestimmen die einzelnen Zeiten durch t i = 300 v i und erhalten als Durchschnittsgeschwindigkeit: v = 4 · 300 300 300 + 300 400 + 300 500 + 300 600 = 4 1 300 + 1 400 + 1 500 + 1 600 ≈ 421.0526 km/ h Das arithmetische Mittel w¨are nur dann die L¨osung, wenn die verschiedenen Geschwindigkeiten gleich lang eingehalten worden w¨aren. Die Durchschnittgeschwindigkeit ergibt sich auch, wenn man bei der Mittelung die Geschwindigkeiten mit den zugeh¨origen Zeiten gewichtet (vergleiche Abschnitt 2.3.5). v = v 1 · t 1 + v 2 · t 2 + v 3 · t 3 + v 4 · t 4 t 1 + t 2 + t 3 + t 4 mit t i = 300 v i = v 1 · 300 v 1 + v 2 · 300 v 2 + v 3 · 300 v 3 + v 4 · 300 v 4 300 v 1 + 300 v 2 + 3000 v 3 + 300 v 4 = 4 1 v 1 + 1 v 2 + 1 v 3 + 1 v 4 Falls alle n Stichprobenwerte x 1 , x 2 , . . . , x n von Null verschieden sind, heißt x h = n 1 x 1 + 1 x 2 + . . . + 1 x n = n n ∑ i=1 1 x i das harmonische Mittel der Stichprobe. 2.3.4 Geometrisches Mittel Bei Wachstumsprozessen dient in der Regel das geometrische Mittel zum Beschreiben des durchschnittlichen Wachstums. Dies sei an einem Beispiel aus der Finanzmathematik erl¨autert. 8 2 Beschreibende Statistik Beispiel 2.4: W¨ahrend vier aufeinanderfolgender Jahre betrage die Preissteigerungsrate 2.5 % , 1.8 % , 3.1 % und 3.9 % . Wenn wir die Preisentwicklung eines Produkts verfolgen wollen, m¨ ussen wir den Anfangspreis mit Faktoren q 1 = 1.025; q 2 = 1.018; q 3 = 1.031; q 4 = 1.039 multiplizieren. Wollen wir die durchschnittliche Preissteigerungsrate bestimmen, so suchen wir nach einem Faktor q mit der Eigenschaft q 4 = q 1 · q 2 · q 3 · q 4 q = 4 √ q 1 · q 2 · q 3 · q 4 = 4 √ 1.025 · 1.018 · 1.031 · 1.039 = 1.028... Das geometrische Mittel kann nur von Stichproben berechnet werden, deren Werte alle positiv sind. Dann lautet das geometrische Mittel x g = n √ x 1 · x 2 · . . . · x n Gr¨oßenbeziehungen zwischen arithmetischem Mittel x a , geometrischem Mittel x g und harmonischem Mittel x h einer Stichprobe: F¨ ur positive Stichprobenwerte x i gilt: min i=1,...,n (x i ) ≤ x h ≤ x g ≤ x a ≤ max i=1,...,n (x i ) 2.3.5 Gewichtete Mittel Will man einzelnen Werten eines Datensatzes unterschiedliche Gewichtung beimessen, benutzt man gewichtete Mittel. • gewichtetes arithmetisches Mittel x = w 1 · x 1 + w 2 · x 2 + . . . + w n · x n w 1 + w 2 + . . . + w n Beispiel: Unterschiedliche Gewichtung von m¨ undlicher und schriftlicher Leistung • gewichtetes harmonisches Mittel x h = w 1 + w 2 + . . . + w n w 1 x 1 + w 2 x 2 + . . . + w n x n Beispiel: Die Strecken w i werden mit den Geschwindigkeiten x i zur¨ uckgelegt. • gewichtetes geometrisches Mittel: x g = w √ x w 1 1 · x w 2 2 · . . . · x w 2 n ; w = w 1 + w 2 + . . . + w n Beispiel: Produktivit¨atsfaktoren gewichtet mit den Umsatzzahlen Die Gewichte w i sind positiv. Sind auch negative Gewichte zugelassen, so spricht man von Extrapolation. 2.4 Quantile einer Stichprobe 9 2.3.6 Winsorisierte oder gestutzte Mittel Sind Daten durch Ausreißer, d. h. durch wenige zu hohe oder/ und zu niedrige Werte verunreinigt, so schneidet man eine gleiche Anzahl von Werten am Anfang und am Ende ab. Von den ¨ ubrig bleibenden Werten wird dann der Mittelwert berechnet. Zun¨achst werden die Daten der Gr¨oße nach angeordnet. Ein 10 % winsorisiertes Mittel erh¨alt man dadurch, dass man 5 % der Werte am unteren sowie 5 % am oberen Ende wegl¨asst und von den verbleibenden Werten das arithmetische Mittel berechnet. Ebenso sind auch einseitig gestutzte Mittel sinnvoll. Eine solche Mittelwertbildung ist wie der Median unempfindlicher gegen Ausreißer. Man muss sich aber bewusst sein, dass durch das Weglassen der extremen Messwerte Information ¨ uber die Stichprobe verloren geht. Machmal geben auch Ausreißer einen wichtigen Hinweis auf den zu beobachtenden Prozess. 2.4 Quantile einer Stichprobe Der Median teilt die Stichprobe in zwei Gruppen. Dabei gilt: Links und rechts vom Median liegen jeweils 50 % aller Stichprobenwerte. 1 Anstelle dieser 50 %-Einteilung k¨onnte man z. B. von unten her eine 80 %-Einteilung vornehmen. Gleichwertig damit ist eine 20 %-Einteilung von oben her. Dazu wird ein Stichprobenwert oder der Mittelwert zweier benachbarter Stichprobenwerte so bestimmt, dass links davon h¨ochstens 80 % der Stichprobenwerte und rechts davon h¨ochstens 20 % der Werte liegen. Dieser Zahlenwert heißt das 80 %-Quantil oder das 0.8-Quantil. q sei eine beliebige Zahl zwischen null und eins. Die Stichprobenwerte werden der Gr¨oße nach steigend angeordnet. Dann heißt ein Stichprobenwert oder das arithmetische Mittel zweier benachbarter Stichprobenwerte x (q) das q-Quantil, wenn links von ihm h¨ochstens 100 · q % und rechts von ihm h¨ochstens 100 · (1 − q) % aller Stichprobenwerte liegen. Bei der Untersuchung der Studiendauer (vergleiche Abschnitt 2.3.2) erwies sich der Median als aussagekr¨aftiger als der arithmetische Mittelwert. Weitere Informationen w¨ urden sicherlich andere Quantile liefern, z. B. das 0.75-Quantil. Es erm¨oglicht dann die Aussage, dass 75 % der Studenten h¨ochstens so viel Zeit bis zum Abschluss ihres Studiums ben¨otigen. Falls das 0.9-Quantil 12 Semester betr¨agt, besagt dies, dass 90 % der Studierenden dieses Fachbereichs sp¨atestens nach 12 Semestern ihr Examen ablegen. 1 Genau gilt diese Aussage nur bei einer geraden Stichprobenzahl. Bei ungerader Stichprobenzahl ist ja ein Stichprobenwert mit dem Median identisch. Diesen k¨onnen wir in Gedanken je zur H¨alfte nach links und rechts rechnen. 10 2 Beschreibende Statistik 2.5 Streuungsmaße Die Angabe eines Lageparameters (z. B. des Mittelwertes) reicht zur Charakterisierung einer Stichprobe nicht aus. Es ist m¨oglich, dass v¨ollig verschiedene Stichproben den gleichen Mittelwert besitzen. Dies sei an folgendem Beispiel erl¨autert: Untersucht werden Nagelt¨ uten mit der Aufschrift ”100 St¨ uck“. Zur Kontrolle werden aus der Lieferung zweier verschiedener Firmen jeweils 20 Packungen ausgew¨ahlt. Dabei ergaben sich folgende absolute H¨aufigkeitsverteilungen: Firma A: Inhalt 98 99 100 101 102 H¨aufigkeit 1 4 8 4 3 Firma B: Inhalt 96 97 98 99 100 101 102 103 104 H¨aufigkeit 1 2 2 2 4 3 3 1 2 Als Mittelwert erhalten wir in beiden F¨allen: x A = 98 + 4 · 99 + 8 · 100 + 4 · 101 + 3 · 102 20 = 100.2 x B = 96 + 2 · 97 + 2 · 98 + 2 · 99 + 4 · 100 + 3 · 101 + 3 · 102 + 103 + 2 · 104 20 = 100.2 Das unterschiedliche Verhalten der Stichproben wird durch die beiden Stabdiagramme deutlich: 5 1 98 100 102 x Bild 2.5 5 1 96 98 100 102 104 x Bild 2.6 Beide Stichproben besitzen denselben Mittelwert, ihre Stabdiagramme sind trotzdem v¨ollig verschieden. Bei der ersten Stichprobe sind die Werte in der N¨ahe des Mittelwerts konzentriert, w¨ahrend die Werte der zweiten Stichprobe st¨arker streuen. In diesem Abschnitt soll das Streuverhalten einer Stichprobe durch einen Parameter charakterisiert werden. Um das unterschiedliche Streuungsverhalten von zwei oder mehreren Stichproben zu visualisieren, benutzt man h¨aufig sogenannte Box-Plots. F¨ ur jede Stichprobe wird eine Box konstruiert: 2.5 Streuungsmaße 11 Deutung 2 kleinster Wert unteres Quartil Median oberes Quartil gr¨oßter Wert Bild 2.7 Als oberes bzw. unteres Quartil bezeichnen wir die Marke mit der Eigenschaft, dass 25 % der Stichprobenwerte oberbzw. unterhalb dieser Marke liegen. Die Differenz oberes minus unteres Quartil heißt Quartilsabstand (interquartile range). Durch Box-Plots erh¨alt man einen groben ¨ Uberblick ¨ uber die Lage der Stichprobenwerte. 2.5.1 Mittlerer Abstand F¨ ur ein sinnvolles Streuungsmaß darf es keine Rolle spielen, ob ein Stichprobenwert rechts oder links vom Mittelwert liegt. Entscheidend ist nur der Abstand vom Mittelwert. Es ist daher naheliegend, den durchschnittlichen Abstand der Stichprobenwerte vom arithmetischen Mittelwert wie folgt zu definieren: Der mittlere Abstand einer Stichprobe vom Mittelwert x ist erkl¨art durch d = Summe aller Abst¨ande vom Mittelwert Anzahl der Stichprobenwerte = 1 n · n ∑ i=1 | x i − x | 2.5.2 Varianz und Standardabweichung Der mittlere Abstand der Stichprobenwerte vom arithmetischen Mittelwert liefert zwar den plausibelsten Parameter ¨ uber die Streuung der Stichprobenwerte. Der Umgang mit Betr¨agen ist jedoch in der Regel sehr m¨ uhsam. 3 Der Mathematiker C. F. Gauß hat des- 2 H¨aufig werden Ausreißer (vgl. Abschnitt 19) mit einer speziellen Symbolik dargestellt. 3 So sind bei Betragsfunktionen s¨amtliche Hilfsmittel der Differentialrechnung nicht anwendbar. 12 2 Beschreibende Statistik halb vorgeschlagen, anstelle der Abst¨ande | x i − x | deren Abstandsquadrate | x i − x | 2 = (x i − x) 2 zu benutzen. 4 Zun¨achst w¨are es naheliegend, die Summe dieser Abstandsquadrate durch n zu teilen. Im Vordergrund steht hier die Beurteilung der gegenseitigen Lage von n Messpunkten; diese wird durch (n − 1) Zwischenr¨aume bestimmt. Deshalb wird hier die Summe durch n − 1 geteilt. 5 Wenn man Maßeinheiten ber¨ ucksichtigt - z. B. L¨ange eines Nagels in cm - so hat die Varianz die Einheit cm 2 . Die Wurzel aus der Varianz hat die urspr¨ ungliche Einheit und wird als Standardabweichung bezeichnet. Der Ausdruck s 2 = 1 n − 1 · n ∑ i=1 (x i − x) 2 = 1 n − 1 · [ n ∑ i=1 x 2 i − n · (x) 2 ] = Summe der Abstandsquadrate vom Mittelwert Stichprobenumfang minus 1 heißt die Varianz der Stichprobe. Ihre positive Quadratwurzel s = √ s 2 nennt man die Standardabweichung oder Streuung der Stichprobe. F¨ ur die praktische Berechnung ist die zweite Beziehung geeigneter. Hier muss man nur die Quadrate der Stichprobenwerte summieren, davon das n-fache Quadrat des Mittelwerts subtrahieren und den so erhaltenen Wert noch durch n − 1 dividieren. Man teilt durch die Zahl der Freiheitsgrade. Die gegenseitige Lage von n Stichprobenwerten wird durch (n − 1) Abst¨ande bestimmt. F¨ ur die Stichproben aus Abschnitt 2.5 sollen nun die beiden Streuungsmaße bestimmt werden. F¨ ur die Firma A ergibt sich: Wert h i : H¨aufigkeit Δ i : Abstand von ¯ x h i · Δ i Δ 2 i h i · Δ 2 i 98 1 2.2 2.2 4.84 4.84 99 4 1.2 4.8 1.44 5.76 100 8 0.2 1.6 0.04 0.32 101 4 0.8 3.2 0.64 2.56 102 3 1.8 5.4 3.24 9.72 Summen 20 17.2 23.20 Mittlerer Abstand d = 17.2 20 = 0.86; Varianz s 2 = 23.2 19 ≈ 1.221053 ; Standardabweichung s = √ 1.221053 ≈ 1.1050 . 4 Die Anpassung eines Ausgleichspolynoms an Messdaten erfolgt ebenfalls nach dem Prinzip der kleinsten Fehlerquadrate. Vgl. Abschnitt 3.2.3. 5 Diese Inkonsequenz in Bezug auf den mittleren Abstand hat wohl historische Gr¨ unde und wird im Abschnitt 6 mehr verdeutlicht. 2.6 Transformation, R¨ange 13 Ein analoges Tableau ergibt f¨ ur die Firma B: Mittlerer Abstand d = 36.4 20 = 1.82; Varianz s 2 = 99.2 19 ≈ 5.221053 ; Standardabweichung s = √ 5.221053 ≈ 2.2850 . In beiden F¨allen ist der mittlere Abstand kleiner als die Standardabweichung. Dieser Zusammenhang gilt allgemein. 6 In jeder Stichprobe ist der mittlere Abstand nicht gr¨oßer als die Standardabweichung. d = 1 n · n ∑ i=1 | x i − x | ≤ √ √ √ √ 1 n − 1 · n ∑ i=1 (x i − x) 2 = s . Da die Standardabweichung bzw. Varianz am einfachsten zu handhaben ist und in der Statistik die gr¨oßten Anwendungsm¨oglichkeiten besitzt, benutzen wir fast ausschließlich dieses Abweichungsmaß. Die Standardabweichung besitzt dieselbe Dimension wie die Daten und erm¨oglicht deshalb anders als die Varianz eine anschauliche Deutung. Große Abweichungen fallen bei der Standardabweichung st¨arker ins Gewicht als bei der Berechnung des mittleren Abstands. Interessant ist auch der folgende Zusammenhang. Das arithmetische Mittel x minimiert die Funktion a −→ s 2 (a) = 1 n − 1 · n ∑ i=1 (x i − a) 2 und ist in diesem Sinne ein optimaler Repr¨asentant der Stichprobenwerte. 2.6 Transformation, R¨ange Oft werden bei Datenmengen Bezugspunkt und Maßeinheit ver¨andert (z. B. bei Temperaturmessung: ¨ Ubergang von Fahrenheit zu Celsius). Dies bedeutet, dass man die Daten einer linearen Transformation unterwirft: y = a + b · x Die Lage- und Streuparameter (Mittelwert, Median, mittlerer Abstand, Standardabweichung, Varianz) ¨andern sich bei linearen Transformationen wie folgt: Lagey = a + b · Lagex Streuungy = | b | · Streuungx Varianzy = b 2 · Varianzx 6 Grundidee: 1 2 ( | a | + | b | ) ≤ √ 1 2 ( a 2 + b 2 ) 1 4 ( a 2 + 2 | a || b | + b 2 ) ≤ 1 2 ( a 2 + b 2 ) 0 ≤ 1 4 ( a 2 − 2 | a || b | + b 2 ) 0 ≤ ( | a | − | b | ) 2 14 2 Beschreibende Statistik Die Form der Verteilung ¨andert sich bei einer linearen Transformation nicht. Werden bei einem Histogramm die Grenzen mit transformiert, so ¨andert sich beim transformierten Histogramm praktisch nur die Achsenbeschriftung. Bei Datenmengen mit starken Gr¨oßenunterschieden der Messdaten ist oft eine logarithmische Transformation hilfreich. y = log a (x + c) ; a : Basis, c : Verschiebung (bei negativen x-Werten! ) Wird die Basis 10 gew¨ahlt, so ergeben sich die Zehnerpotenzen als Maßeinheit. Bei Z¨ahldaten wird h¨aufig eine Wurzeltransformation der Form durchgef¨ uhrt: y = √ x + c ; c : Verschiebung (bei negativen x-Werten! ) Beim Z¨ahlen seltener Ereignisse (vgl. Abschnitt 7.3) hat sich f¨ ur die Konstante c der Wert 3/ 8 bew¨ahrt. Bei solchen nichtlinearen Transformationen ver¨andern sich die Form der Verteilung sowie die Lage- und Streuparameter. Beispiel 2.5: Bei den beiden folgenden Histogrammen wurde die Datenmenge des ersten Bilds 2.8 der Transformation y = ln x unterzogen. Dabei ergab sich folgender Sachverhalt: Originaldaten Transformierte Daten Vergleich Mittelwert ¯ x = 6.478 Mittelwert ¯ y = 1.734 ln ¯ x = 1.868 Median ˜ x = 6.838 Median ˜ y = 1.923 ln ˜ x = 1.923 Standardabweichung s x = 2.906 Standardabweichung s y = 0.567 ln s x = 1.067 Der arithmetische Mittelwert ver¨andert sich, w¨ahrend der Median invariant ist. Die Form des Histogramms ¨andert sich; ebenso die Standardabweichung. Bild 2.8 (Originaldaten) 2.6 Transformation, R¨ange 15 Bild 2.9 (transformierte Daten) Andere monotone Abbildungen (z.B. y = √ x + c) zeigen ¨ahnliche Effekte bzgl. Streuungsverhalten, arithmetischem Mittelwert und Verteilungsstruktur der Datenmenge. Nur der Median geht bei monotonen Transformationen in den neuen Median ¨ uber. Die Form der Verteilung und die ¨ ubrigen Lageparameter ver¨andern sich. Dieser Effekt ist oft gewollt. Es gelingt damit manchmal, f¨ ur eine vorgegebene Datenmenge die gew¨ unschte Verteilungsstruktur zu erreichen. Eine wichtige monotone Transformation eines Datensatzes ist die sogenannte Rang-Transformation. Hier spielt nur die Anordnung der Messwerte auf der reellen Zahlenachse eine Rolle. Sie vergr¨obert die Messdaten einer Stichprobe auf die Reihenfolge der Messwerte bez¨ uglich der reellen Achse. Man kann dadurch auch den Einfluss von Ausreißer-Daten entscheidend reduzieren. Der Rang einer Zahl x i gibt an, die wievielt-kleinste Zahl sie in der vorgegebenen Datenmenge ist. Bei Gleichheit werden die entsprechenden Rangzahlen gemittelt. Rangzahlen machen nur im Zusammenhang mit der gesamten Datenmenge Sinn. Beispiel 2.6: z. B. hat x 6 = 1.0 den Rang < x 6 >= 3, da 1.0 der drittkleinste Messwert ist. i 1 2 3 4 5 6 7 8 9 10 x i 1.2 2.4 1.3 1.3 0.0 1.0 1.8 0.8 4.6 1.4 Rang < x i > 4 9 5.5 5.5 1 3 8 2 10 7 Wie wir im folgenden Kapitel sehen werden, spielt diese Transformation vor allem bei mehrdimensionalen Stichproben eine Rolle. 16 3 Korrelation und Regression 3 Korrelation und Regression H¨aufig werden f¨ ur das Objekt einer Beobachtung (Stichprobe) mehrere Merkmale notiert. So erhebt man z. B. von jedem Sch¨ uler einer Klasse Gr¨oße, Gewicht und die Noten in Mathematik, Physik und Deutsch. Diese verschiedenen Merkmale k¨onnen entweder v¨ollig unabh¨angig voneinander sein (Gr¨oße eines Sch¨ ulers und dessen Deutschnote) oder in einen inneren Zusammenhang stehen. Es ist einleuchtend, dass zwischen der Außentemperatur und dem Brennstoffverbrauch eines Heizkraftwerks eine Abh¨angigkeit besteht. Jedoch kann aus der genauen Außentemperatur nicht auf den exakten Brennstoffverbrauch geschlossen werden - zuf¨allige Einfl¨ usse wie Freizeitverhalten und Lebensgewohnheiten der Bewohner etc. - werden ebenfalls einen gewissen Einfluss aus¨ uben. Der maximale Grad von Abh¨angigkeit ist gegeben, wenn zwischen den Beobachtungsgr¨oßen ein funktionaler Zusammenhang besteht (Fl¨ache und Seitenl¨ange eines Quadrats). Zwischen den beiden Extremen - totale Unabh¨angigkeit und funktionaler Zusammenhang - gibt es viele Zwischenstufen. Diese zu untersuchen und zu quantifizieren ist Aufgabe dieses Kapitels. Wir beschr¨anken uns dabei auf Stichproben mit zwei Merkmalen (bivariate Stichproben) { (x 1 , y 1 ), (x 2 , y 2 ), . . . , (x n , y n ) } . Die denkbaren Abh¨angigkeiten zwischen den Merkmalen einer Stichprobe k¨onnen vielf¨altiger Natur sein. Ist ein funktionaler Zusammenhang nicht explizit bekannt, so wird man zun¨achst nach einer linearen (verallgemeinert: polynomialen) Abh¨angigkeit suchen. Folgende Fragen sind von praktischem Interesse: a) Kann man den Grad der Abh¨angigkeit zwischen zwei Merkmalen einer Stichprobe mit einer geeigneter Kennzahl quantifizieren? ⇒ Korrelationsrechnung b) Kann man eine n¨aherungsweise funktionelle Abh¨angigkeit zwischen den Merkmalen mathematisch formulieren? ⇒ Regressionsrechnung Es liegt nahe, die Wertepaare als Punkt in einem zweidimensionalen Koordinatensystem darzustellen. Diese Darstellung heißt Streudiagramm (scatterplot). Sie erm¨oglicht es, auf einen Blick etwaige Zusammenh¨ange zwischen den beiden Merkmalen zu erkennen. Die folgenden Bilder sollen den Grad einer linearen Abh¨angigkeit zwischen zwei Merkmalen veranschaulichen. Im Vorgriffauf den ¨ ubern¨achsten Abschnitt ist jeweils eine Gerade eingezeichnet, die m¨oglichst gut zu der Punktwolke passt. 3.1 Lineare Korrelation 17 Bild 3.1 Bild 3.2 W¨ahrend beim ersten Bild alle Punkte relativ nahe an einer sogenannten Ausgleichsgeraden liegen, also eine starke lineare Abh¨angigkeit der beiden Merkmale angenommen werden kann, streut die Punktewolke des zweiten Bildes ziemlich stark um diese Gerade. 3.1 Lineare Korrelation Gesucht ist eine Maßzahl f¨ ur die St¨arke und Richtung eines linearen Zusammenhangs zwischen zwei Merkmalen. Diese Zahl soll nicht vom Nullpunkt der Mess-Skala und den gew¨ahlten Maßeinheiten abh¨angen. Wir betrachten deshalb die standardisierten Daten: ˆ x i = x i − ¯ x s x , ˆ y i = y i − ¯ y s y ; ¯ x, ¯ y : Mittelwerte s x , s y : Standardabweichungen Hat ein Wertepaar (ˆ x i | ˆ y i ) das gleiche Vorzeichen, so deutet dies auf einen positiven Zusammenhang zwischen den beiden Merkmalen hin. Eine Vergr¨oßerung von x korrespondiert mit einem gr¨oßeren y-Wert. Wertepaare (ˆ x i | ˆ y i ) mit ungleichen Vorzeichen weisen auf einen negativen Zusammenhang hin. Die einfachste Funktion, die diesen Zusammenhang misst, ist das Produkt ˆ x i · ˆ y i . Ein Maß f¨ ur den Zusammenhang zwischen den x- und y-Werten der Stichprobe erh¨alt man durch Ausmitteln der einzelnen Beitr¨age. ˆ y ˆ x (ˆ x i | ˆ y i ) ˆ x i · ˆ y i Bild 3.3 r(x, y) = 1 n − 1 n ∑ i=1 ˆ x i · ˆ y i 18 3 Korrelation und Regression F¨ ur die Originaldaten (x i | y i ) ergibt sich mit r(x, y) = 1 n − 1 n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) √ √ √ √ 1 n − 1 n ∑ i=1 (x i − ¯ x) 2 √ √ √ √ 1 n − 1 n ∑ i=1 (y i − ¯ y) 2 = s xy s x · s y , s xy = 1 n − 1 n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) empirische Kovarianz, ein Maß f¨ ur den Zusammenhang zwischen den x- und y-Werten der Stichprobe, der sogenannte Korrelationskoeffizient. Liegt ein linearer Zusammenhang y i = a + b · x i vor, so ergibt sich mit y i − ¯ y = b · (x i − ¯ x) f¨ ur den Z¨ahler des Korrelationskoeffizienten: 1 n − 1 n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) = b n − 1 n ∑ i=1 (x i − ¯ x) 2 = b · s 2 x Weiter gilt f¨ ur die Varianz des zweiten Merkmals (y-Werte) Y : s 2 y = b 2 · s 2 x s y = | b | · s x . Bei linearer Abh¨angigkeit erhalten wir f¨ ur den Korrelationskoeffizienten: r(x, y) = 1 n − 1 n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) √ √ √ √ 1 n − 1 n ∑ i=1 (x i − ¯ x) 2 √ √ √ √ 1 n − 1 n ∑ i=1 (y i − ¯ y) 2 = b · s 2 x s x · | b | · s x = b | b | = ± 1 D. h. f¨ ur eine positive Steigung des linearen Zusammenhangs wird der Korrelationskoeffizient 1, bei einer negativen Steigung zu -1. In allen anderen F¨allen liegt r(x, y) zwischen -1 und 1. Der Korrelationskoeffizient kann auch anschaulich als Skalarprodukt interpretiert werden. r(x, y) = 1 n − 1 n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) √ √ √ √ 1 n − 1 n ∑ i=1 (x i − ¯ x) 2 √ √ √ √ 1 n − 1 n ∑ i=1 (y i − ¯ y) 2 = n ∑ i=1 (x i − ¯ x) · (y i − ¯ y) √ √ √ √ n ∑ i=1 (x i − ¯ x) 2 √ √ √ √ n ∑ i=1 (y i − ¯ y) 2 Mit u = ⎛ ⎜ ⎜ ⎜ ⎝ x 1 − ¯ x x 2 − ¯ x ... x n − ¯ x ⎞ ⎟ ⎟ ⎟ ⎠ und v = ⎛ ⎜ ⎜ ⎜ ⎝ y 1 − ¯ y y 2 − ¯ y ... y n − ¯ y ⎞ ⎟ ⎟ ⎟ ⎠ 3.1 Lineare Korrelation 19 l¨asst sich der Z¨ahler von r(x, y) als Skalarprodukt interpretieren, die Ausdr¨ ucke im Nenner als Betr¨age und wir erhalten die Darstellung 1 r(x, y) = u · v | u | · | v | . F¨ ur n = 3 ist r der Kosinus des Winkels zwischen den Vektoren u und v. Damit kann r nur Werte zwischen -1 und +1 annehmen. Linear abh¨angige Messwerte (x i | y i ) liegen auf einer Geraden. Falls r(x, y) = 0 ist, so besteht kein linearer Zusammenhang zwischen den beiden Variablen. Es kann aber sehr wohl ein anderer funktionaler Zusammenhang existieren. So besitzt z. B. jede Datenmenge, die symmetrisch zu einer Geraden x = a liegt, stets den Korrelationskoeffizienten r(x, y) = 0. (Im nebenstehenden Bild ist a = 0 und ¯ x = ¯ y = 0 .) x y ( x i | y i ) x i · y i Bild 3.4 Soll nur der Grad der linearen Abh¨angigkeit beschrieben werden - unabh¨angig vom Vorzeichen des Korrelationskoeffizienten - benutzt man das sogenannte Bestimmtheitsmaß (siehe auch Abschnit 3.2.5). R = r 2 . r(x, y) misst nur die St¨arke des linearen Zusammenhangs. Die zu folgenden Streudiagrammen geh¨orenden Datenmengen besitzen alle denselben Korrelationskoeffizienten r(x, y) ≈ 0.7, haben aber ein stark unterschiedliches Streuverhalten. Die Angabe des Korrelationskoeffizienten allein sagt ¨ uber den Zusammenhang unter Umst¨anden nicht viel aus. Man sollte stets auch einen Blick auf das Streudiagramm werfen. r = 0.71 Stichprobe A Bild 3.5 r = 0.69 Stichprobe B Bild 3.6 r = 0.70 Stichprobe C Bild 3.7 1 F¨ ur n > 3 gilt ebenfalls diese Beziehung (Schwarzsche Ungleichung). u · v ≤ | u | · | v | 20 3 Korrelation und Regression r = 0.71 Stichprobe D Bild 3.8 r = 0.71 Stichprobe E Bild 3.9 r = 0.69 Stichprobe F Bild 3.10 Wie obige Beispiele zeigen, wird der Korrelationskoeffizient stark von Ausreißern beeinflusst (z. B. Bild 3.9 und 3.10). Die Daten der Bilder 3.7 und 3.8 k¨onnten aus verschiedenen Stichproben stammen. Bei Bild 3.6 scheint aus messtechnischen Gr¨ unden kein y-Wert gr¨oßer als der zugeh¨orige x-Wert zu sein. Ein robusteres Maß f¨ ur einen Zusammenhang zwischen Zufallsvariablen ist der sogenannte Rang-Korrelationskoeffizient. Er misst nicht nur den linearen Anteil. Der Rang einer Zahl x i innerhalb einer Stichprobe gibt an, die wievielt-kleinste Zahl sie im Ensemble ist. Bei Gleichheit werden die entsprechenden Rangzahlen gemittelt; siehe Abschnitt 2.6. Beispiel 3.1: Rangtransformation einer zweidimensionalen Stichprobe: (1.2 | 2.5), (2.4 | 4.7), (1.3 | 2.5), (1.3 | 2.6), (0 | 0.1), (1 | 1.9), (1.8 | 3.7), (0.8 | 1.5), (4.6 | 9), (1.4 | 3) i 1 2 3 4 5 6 7 8 9 10 x i 1.2 2.4 1.3 1.3 0 1 1.8 0.8 4.6 1.4 Rang(x i ) 4 9 5.5 5.5 1 3 8 2 10 7 y i 2.5 4.7 2.5 2.6 0.1 1.9 3.7 1.5 9 3 Rang(y i ) 4.5 9 4.5 6 1 3 8 2 10 7 Rangtransformierte Stichprobe: (4 | 4.5), (9 | 9), (5.5 | 4.5), (5.5 | 6), (1 | 1), (3 | 3), (8 | 8), (2 | 2), (10 | 10), (7 | 7) Unter der Spearmanschen Rang-Korrelation versteht man die einfache Korrelation zwischen den R¨angen der x i und den R¨angen der y i . Da sich die R¨ange von x i bzw. y i bei monotonen Transformationen nicht ¨andern, ist die Rang-Korrelation bez¨ uglich solcher Transformationen invariant. Ein Ausreißer ver¨andert die Rang-Korrelation nur minimal. Die Spearmansche Rang-Korrelation misst also nicht St¨arke und Richtung eines linearen Zusammenhangs, sondern diejenige des monotonen Zusammenhangs. Die folgenden Bilder zeigen die Streudiagramme der rangtransformierten Stichproben von oben; außerdem ist die jeweilige Rang-Korrelation angegeben. 3.1 Lineare Korrelation 21 r = 0.70 R¨ange der Stichprobe A Bild 3.11 r = 0.67 R¨ange der Stichprobe B Bild 3.12 r = 0.72 R¨ange der Stichprobe C Bild 3.13 r = 0.61 R¨ange der Stichprobe D Bild 3.14 r = 0.28 R¨ange der Stichprobe E Bild 3.15 r = 0.75 R¨ange der Stichprobe F Bild 3.16 ¨ Ubertragung auf H¨aufigkeitstabellen Hier wird nun angenommen, dass Stichprobenwerte (x i , y k ) nicht nur einmal vorkommen, sondern mehrfach auftreten k¨onnen. Mit h ik bezeichnen wir die H¨aufigkeit des Wertepaars (x i , y k ). In diesem Fall k¨onnen wir die Konzeption der Kovarianz bzw. Korrelation sofort sinngem¨aß ¨ ubertragen. H¨aufigkeitstabelle einer zweidimensionalen Stichprobe: Dabei sind h . k und h i . die Summenh¨aufigkeit der entsprechenden Spalte bzw. Zeile - genannt Randh¨aufigkeiten. h i . = h(x i ) = r ∑ k=1 h ik h . k = h(y k ) = m ∑ i=1 h ik y 1 y 2 . . . y k . . . y r x 1 h 11 h 12 . . . h 1k . . . h 1r h 1 . x 2 h 21 h 22 . . . h 2k . . . h 2r h 2 . ... ... ... ... ... ... ... ... x i h i1 h i2 . . . h ik . . . h ir h i . ... ... ... ... ... ... ... ... x m h m1 h m2 . . . h mk . . . h mr h m . h . 1 h . 2 . . . h . k . . . h . r h . . = n 22 3 Korrelation und Regression Die Summe ¨ uber alle H¨aufigkeiten sei gleich n. h . . = r ∑ k=1 h . k = m ∑ i=1 h i . = m ∑ i=1 r ∑ k=1 h ik = n Die Berechnung des empirischen Korrelationskoeffizienten ergibt sich daraus zu r = m ∑ i=1 r ∑ k=1 h ik x i y k − 1 n m ∑ i=1 h i . x i r ∑ k=1 h . k y k √ √ √ √ m ∑ i=1 h i . x 2 i − 1 n ( m ∑ i=1 h i . x i ) 2 · √ √ √ √ r ∑ k=1 h . k y 2 k − 1 n ( r ∑ k=1 h . k y k ) 2 Beispiel 3.2: Der Zusammenhang zwischen Mathematik- und Physiknote soll bei 100 Abiturienten untersucht werden. Dazu liege die folgende H¨aufigkeitstabelle vor. Hierbei sollen die x i die Bedeutung der Physiknote haben, die y k stehen f¨ ur die Mathematiknote; z. B. gibt es vier Abiturienten mit Mathematiknote 2 und Physiknote 3. 1 2 3 4 5 6 h i . 6 0 0 1 1 0 0 2 5 0 1 2 4 2 1 10 4 0 2 7 10 1 0 20 3 3 6 15 6 3 1 34 2 5 10 4 3 1 1 24 1 2 4 3 1 0 0 10 h . k 10 23 32 25 7 3 100 Wir erhalten als Korrelationskoeffizienten: r = 980 − 1 100 · 305 · 302 √ 1054 − 1 100 · 302 2 · √ 1073 − 1 100 · 305 2 = 0.4138 Genauere Untersuchungen ¨ uber Vertrauensintervalle f¨ ur Kovarianz, Korrelationskoeffizienten und die noch zu behandelnden Koeffizienten der Regressionsgeraden setzen im Allgemeinen eine zweidimensionale Normalverteilung voraus. Dazu wird auf Abschnitt 15 sowie weiterf¨ uhrende Literatur verwiesen. Interpretation von Korrelationskoeffizienten Eines der heikelsten Probleme in der Anwendung statistischer Schlussweisen ist die Interpretation von gefundenen Korrelationen. Zun¨achst kann eine Korrelation (mit kleinem Absolutbetrag) rein zuf¨allig von 0 verschieden sein. Die Grenzen, außerhalb derer man auf einen statistisch gesicherten Zusammenhang schließen darf, werden in der schließenden Statistik hergeleitet (vgl. Kapitel 15) und k¨onnen aus Tabellen entnommen werden (z. B. Sachs: Statistische Methoden). 3.2 Regression 23 Selbst ein statistisch gesicherter und im Streudiagramm offensichtlicher Zusammenhang braucht jedoch noch lange kein urs¨achlicher Zusammenhang zu sein! So l¨asst sich zwischen Schuhgr¨oße und Einkommen ein statistisch gesicherter Zusammenhang finden, wenn man Frauen und M¨anner zusammen betrachtet (Frauen haben im Allgemeinen ein kleineres Einkommen und kleinere Schuhe als M¨anner! ). Die Korrelation verschwindet, wenn man jede Gruppe getrennt untersucht. Besonders gef¨ahrlich ist die Deutung bei Zeitreihen. Hier gibt es h¨aufig generelle Tendenzen f¨ ur beide Merkmale, die einen urs¨achlichen Zusammenhang vort¨auschen k¨onnen. Betrachtet man in Ostpreußen zwischen 1900 und 1930 die Zahl der Storchennester und die Geburtenrate, so l¨asst sich eine stochastisch gesicherte Korrelation feststellen. Ursache ist jedoch nicht die Geschichte mit dem Klapperstorch, sondern die fortschreitende Industrialisierung. 3.2 Regression H¨angen bei einer bivariaten Stichprobe die Merkmale voneinander ab, dann versucht die Regressionsanalyse einen ungef¨ahren funktionalen Zusammenhang zwischen den beiden Merkmalen zu ermitteln. Dabei unterscheidet man zwischen Zielgr¨oße und Ausgangsgr¨oße (erkl¨arende Variable). Diese Zuordnung ist oft durch klare kausale Zusammenh¨ange gegeben, manchmal ist es auch willk¨ urlich, welches Merkmal als Zielgr¨oße definiert wird. Im folgenden Abschnitt soll nun versucht werden, aus einem bekannten Wert der Ausgangsgr¨oße auf einen ungef¨ahr zu erwartenden Wert der Zielgr¨oße zu schließen. Man spricht auch von Prognose oder Vorhersage. An den beiden folgenden Beispielen wird dieser Sachverhalt illustriert. a) Zwischen der Seitenl¨ange x eines Quadrats und seinem Fl¨acheninhalt y besteht die Beziehung: y = x 2 Es besteht ein bekannter funktionaler Zusammenhang. Aus der Seitenl¨ange kann - bis auf etwaige Messfehler - exakt die Fl¨ache vorhergesagt werden. b) Zwischen der Gr¨oße x eines zuf¨allig ausgew¨ahlten Menschen und seinem K¨orpergewicht y d¨ urfte auch ein Zusammenhang bestehen - allerdings kein exakter. Aus Erfahrung weiß man, dass ein gr¨oßerer Mensch im Mittel auch schwerer ist. Die Faustregel ”gr¨oßerer Mensch ⇒ gr¨oßeres Gewicht“ ist aber nicht immer erf¨ ullt. 3.2.1 Empirische Regressionskurven Wir betrachten dazu nochmals den Zusammenhang zwischen Mathematik- und Physiknote bei 100 Abiturienten. Erg¨anzend zum alten Schema bestimmen wir noch die bedingten 24 3 Korrelation und Regression Mittelwerte xy k = 1 h . k · m ∑ i=1 h ik x i , k = 1, 2, . . . , r yx i = 1 h i . · r ∑ k=1 h ik y k , i = 1, 2, . . . , m 1 2 3 4 5 6 h i . yx i 6 0 0 1 1 0 0 2 3.50 5 0 1 2 4 2 1 10 4.00 4 0 2 7 10 1 0 20 3.50 3 3 6 15 6 3 1 34 3.09 2 5 10 4 3 1 1 24 2.50 1 2 4 3 1 0 0 10 2.30 h . k 10 23 32 25 7 3 100 xy k 2.10 2.39 3.13 3.64 3.57 3.33 Z. B. ist ¯ xy 3 = 3.13 der Mittelwert aller Mathematiknoten derjenigen Abiturienten, die in Physik eine 3 erhalten haben. Abiturienten mit der Mathematiknote 5 haben im Fach Physik durchschnittlich die Note ¯ yx 5 = 4.00 erreicht. Die Punkte (x i , yx i ) sind im folgenden Schaubild geradlinig miteinander verbunden. Auf ihr liegen die Mittelwerte der Physiknoten in Abh¨angigkeit von der Mathematiknote (gekennzeichnet mit *). Die so entstandene Kurve heißt empirische Regressionskurve der Stichprobe y bez¨ uglich x. Entsprechend ergibt sich eine Regressionskurve x bez¨ uglich y (gekennzeichnet mit ◦ ). Interpretation: Sch¨ uler mit der Mathematiknote 1 haben in Physik im Durchschnitt die Note 2.3 etc. Bild 3.17 Das oben beschriebene Verfahren macht nur dann Sinn, wenn zu einem Merkmal x i mehrere Auspr¨agungen des Merkmals y k geh¨oren und umgekehrt. Sollte dies nicht der Fall sein, so hilft unter Umst¨anden eine Klasseneinteilung. 3.2.2 Regression zweiter Art Die Bestimmung der Regressionsfunktion im vorangegangenen Abschnitt ist recht m¨ uhsam und gestattet nur bei großem n eine zufriedenstellende Beschreibung der gegenseitigen stochastischen Abh¨angigkeit. Daher ist es manchmal sinnvoll, unter bestimmten Funktionstypen (z. B. Geraden, Parabeln, Exponentialfunktionen oder Logarithmen) diejenige zu 3.2 Regression 25 bestimmen, die nach dem Prinzip der kleinsten Abweichungsquadrate optimal zur Punktewolke liegt. Man nennt dies Regression zweiter Art. 3.2.3 Regressionsgerade Es sei x x 1 x 2 . . . x n y y 1 y 2 . . . y n eine Stichprobe mit zwei Merkmalen. Wir suchen nun eine Gerade, die m¨oglichst gut zur Stichprobe passt. F¨ ur die Anpassung einer Geraden an eine Punktewolke gibt es mehrere denkbare Vorgehensweisen. ¨ Ublicherweise benutzt man das Prinzip, die Summe der vertikalen Abstandsquadrate (grau unterlegte Fl¨achen) zwischen Punkte und Gerade zu minimieren. ( x 1 , y 1 ) ( x 2 , y 2 ) ( x 3 , y 3 ) optimal Bild 3.18 Herleitung der Regressionsgeraden mit einfachen Hilfsmitteln der Analysis Eine Gerade hat zwei Freiheitsgrade (Steigung und Verschiebung in y-Richtung). Mit den frei w¨ahlbaren Parametern ˆ y, m lassen sich mit dem Ansatz ˜ y = ˆ y + m · (x − ¯ x) mit ¯ x = 1 n n ∑ i=1 x i , ˆ y, m ∈ IR s¨amtliche Geraden darstellen. (¯ x ist der arithmetische Mittelwert der x-Werte der Stichprobe! ) Die Summe der Abstandsquadrate Gerade - Messpunkte soll minimal werden! d 2 (ˆ y, m) = n ∑ i=1 (y i − ˆ y − m(x i − ¯ x)) 2 = n ∑ i=1 (y i − ˆ y) 2 − 2m n ∑ i=1 (y i − ˆ y)(x i − ¯ x) + m 2 n ∑ i=1 (x i − ¯ x) 2 = n ∑ i=1 (y i − ˆ y) 2 − 2m { n ∑ i=1 x i y i − ¯ x n ∑ i=1 y i ︸ ︷︷ ︸ =n¯ y − ˆ y n ∑ i=1 (x i − ¯ x) ︸ ︷︷ ︸ =0 } + m 2 n ∑ i=1 (x i − ¯ x) 2 = n ∑ i=1 (y i − ˆ y) 2 ︸ ︷︷ ︸ =D 1 (ˆ y) − 2m { n ∑ i=1 x i y i − n¯ x¯ y } + m 2 n ∑ i=1 (x i − ¯ x) 2 ︸ ︷︷ ︸ =D 2 (m) Die beiden Summanden D 1 (ˆ y) und D 2 (m) h¨angen jeweils nur von einer Variablen ab. Wir erhalten das Minimum von d 2 (ˆ y, m), indem wir die Minima der beiden Summanden getrennt bestimmen. Minimum von D 1 d dˆ y n ∑ i=1 (y i − ˆ y) 2 = − 2 { n ∑ i=1 y i − nˆ y } ! = 0 ˆ y = 1 n n ∑ i=1 y i = ¯ y 26 3 Korrelation und Regression Minimum von D 2 d dm [ − 2m { n ∑ i=1 x i y i − n¯ x¯ y } + m 2 n ∑ i=1 (x i − ¯ x) 2 ] = − 2 { n ∑ i=1 x i y i − n¯ x¯ y } +2m n ∑ i=1 (x i − ¯ x) 2 ! = 0 m = n ∑ i=1 x i y i − n¯ x¯ y n ∑ i=1 (x i − ¯ x) 2 = n ∑ i=1 x i y i − n¯ x¯ y n ∑ i=1 (x i ) 2 − n¯ x 2 = s xy s 2 x Die Regressionsgerade hat also die Gleichung: ˜ y = ¯ y + m · (x − ¯ x) mit ¯ x = 1 n n ∑ i=1 x i , ¯ y = 1 n n ∑ i=1 y i und m = s xy s 2 x Die Regressionsgerade geht durch den Schwerpunkt (¯ x | ¯ y) der Punktewolke. Die Regressionsgerade wird deshalb h¨aufig in der folgenden Form geschrieben: ˜ y − y = m · (x − x) = s xy s 2 x · (x − x) Die Gerade eignet sich zur Gewinnung von Sch¨atzwerten von y bei gegebenen x-Werten. Die Zahl m heißt empirischer Regressionskoeffizient von y bez¨ uglich x. Werden in obiger Beziehung die Bedeutung der x- und y-Werte miteinander vertauscht, so ergibt sich mit ˜ x − x = m ∗ · (y − y) = s xy s 2 y · (y − y) die Gleichung der empirischen Regressionsgeraden von x bez¨ uglich y. Die beiden Regressionsgeraden haben die Steigungen m = s xy s 2 x und 1 m ∗ = s 2 y s xy . Ist die Kovarianz s xy = 0, so ergeben sich m = 0 und m ∗ = ∞ . Der Tangens des Schnittwinkels der beiden Regressionsgeraden h¨angt mit Kovarianz und Varianz bzgl. x und y wie folgt zusammen: tan(α − β) = tan α − tan β 1 + tan α · tan β = s xy s 2 x − s 2 y s xy 1 + s 2 y s 2 x = s 2 xy − s 2 x · s 2 y s xy (s 2 x + s 2 y ) 3.2 Regression 27 Wurde die Skalierung im x- und y-Bereich so vorgenommen, dass die Varianzen zu 1 werden, so erh¨alt man einen einfachen Zusammenhang mit dem Korrelationskoeffizienten, n¨amlich r(x, y) = s xy . F¨ ur den Winkel zwischen den Geraden erh¨alt man: tan Δϕ = s 2 xy − 1 2s xy = 1 2 · ( r(x, y) − 1 r(x, y) ) . F¨ ur r = ± 1 wird der Schnittwinkel zu Null, f¨ ur r = 0 wird Δϕ = π 2 . Die folgenden Bilder zeigen einige Beispiele f¨ ur Regressionsgeraden bei verschiedenen Korrelationskoeffizienten. Es f¨allt auf, dass mit zunehmendem Betrag des Korrelationskoeffizienten die beiden Regressionsgeraden n¨aher aneinander r¨ ucken. Bild 3.19 Bild 3.20 Bild 3.21 Bild 3.22 Die Wahl der Zielvariablen h¨angt von der konkreten Fragestellung ab. Grunds¨atzlich sind die Variablen x und y gleichberechtigt. 28 3 Korrelation und Regression 3.2.4 Regressionskurven allgemeiner Art Bei vielen Problemen in der Praxis ist es sinnvoll, anstelle der Regressionsgeraden einen anderen Kurventyp zu w¨ahlen - z. B. Polynome, Exponentialfunktionen und Logarithmen. (So ist bei konstanter Beschleunigung der Zusammenhang zwischen Weg und Zeit quadratisch! ) Ein Regressionspolynom vom Grad m ergibt sich mit dem Ansatz y = a 0 + a 1 · x + a 2 · x 2 + . . . + a m · x m Die Berechnung der Koeffizienten a i geschieht nach demselben Schema (Abstandsquadrate werden minimiert! ) wie bei der Geraden - nur rechentechnisch etwas aufw¨andiger. Die Nutzung entsprechender Software-Pakete (z. B. MATLAB, Excel) ist dazu empfehlenswert. Auch hier kann wieder die Bedeutung von x und y vertauscht werden. Es ergeben sich dann Regressionsans¨atze der Bauart: x = a 0 + a 1 · y + a 2 · y 2 + . . . + a m · y m Die folgenden Streudiagramme zeigen Regressionspolynome zweiter und dritter Art. Bild 3.23 Bild 3.24 Auch Ans¨atze mit allgemeinen Funktionstypen y(x) sind oft sinnvoll. Die Parameter der Regressionsfunktion y(x) werden so bestimmt, dass die Summe der Abstandsquadrate von Messwert y i und prognostiziertem Wert ˜ y(x i ) (Quadrat der Residuen) minimal wird. Res 2 (y) = n ∑ i=1 (y i − ˜ y(x i )) 2 Regressionsprobleme f¨ ur Polynome lassen sich stets auf eindeutig l¨osbare lineare Gleichungssysteme zur¨ uckf¨ uhren. Bei allgemeineren Regressionsans¨atzen ist dies nicht mehr der Fall. Allgemeinere, nichtlineare Optimierungsverfahren sind dann anzuwenden. Unter Umst¨anden geht dabei die Eindeutigkeit der L¨osung verloren. 3.2 Regression 29 Bei manchen Funktionstypen f¨ uhrt eine Koordinatentransformation wieder zum linearen Problem. a) y = A · e bx geht durch Logarithmieren ¨ uber in: ln y ︸︷︷︸ z = ln A + b · x b) y = A · x b geht durch Logarithmieren ¨ uber in: ln y ︸︷︷︸ z = ln A + b · ln x ︸︷︷︸ t Man erh¨alt zwischen z und x bzw. t wieder einen linearen Zusammenhang. Minimiert werden die Abstandsquadrate der transformierten Daten 2 . Beispiel 3.3: Die folgende Datenmenge legt eine Wurzelfunktion als Regressionskurve zwischen x und y nahe. Im transformierten Streudiagramm wird der lineare Zusammenhang deutlich. Die r¨ ucktransformierte Regressionsfunktion y = 1.9708 · x 0.5060 ist nicht das Minimum der kleinsten Abstandsquadrate! Eine nichtlineare Optimierung (numerisches Problem! ) ergibt eine Verbesserung um circa 5 % des Residuums 3 . Transformierte Daten Bild 3.25 r¨ ucktransformierte Regression Bild 3.26 direkte Optimierung Bild 3.27 2 Die so bestimmten Parameter sind nicht mit dem urspr¨ unglichen Minimierungsproblem der Originaldaten identisch. 3 Summe der Quadrate der vertikalen Abst¨ande von Messwerten und Regressionsfunktion. 30 3 Korrelation und Regression 3.2.5 Bestimmtheitsmaß Das Bestimmtheitsmaß einer Regression ˜ y(x) = f(x) gibt Antwort auf die Frage: Welcher Anteil der beobachteten Schwankungen der Messwerte y i werden durch die Regression erkl¨art? Dem gegen¨ uber stehen die Abweichungen der beobachteten Messwerte y i von den zugeh¨origen Werten ˜ y(x i ) auf der Regressionskurve. Die Unbestimmtheit dr¨ uckt sich durch den Quotienten U aus. Wir definieren als Bestimmtheitsmaß einer Regression ˜ y(x): U = n ∑ i=1 ( y i − ˜ y(x i ) ) 2 n ∑ i=1 ( y i − ¯ y ) 2 B = 1 − U = 1 − n ∑ i=1 ( y i − ˜ y(x i ) ) 2 n ∑ i=1 ( y i − ¯ y ) 2 F¨ ur eine lineare Regression ˜ y(x) = ¯ y + S xy S x · S y (x − ¯ x) gilt der Zerlegungssatz 4 : n ∑ i=1 ( y i − ¯ y ) 2 = n ∑ i=1 ( ˜ y(x i ) − ¯ y ) 2 ︸ ︷︷ ︸ = S 2 R + n ∑ i=1 ( y i − ˜ y(x i ) ) 2 ︸ ︷︷ ︸ = S 2 Δ D. h. die Gesamtvarianz l¨asst sich zerlegen in einen durch die Regression erkl¨arten Anteil S 2 R und die Residuen R 2 Δ . Damit l¨asst sich im linearen Fall das Bestimmtheitsmaß wie folgt darstellen: B = 1 − n ∑ i=1 ( y i − ˜ y(x i ) ) 2 n ∑ i=1 ( y i − ¯ y ) 2 = S 2 R + S 2 Δ − S 2 Δ S 2 R + S 2 Δ = n ∑ i=1 ( ˜ y(x i ) − ¯ y ) 2 n ∑ i=1 ( y i − ¯ y ) 2 Weiter ergibt sich ein einfacher Zusammenhang mit dem Korrelationskoeffizienten: B = n ∑ i=1 ( ˜ y(x i ) − ¯ y ) 2 n ∑ i=1 ( y i − ¯ y ) 2 = n ∑ i=1 [ S xy S 2 x ( x i − ¯ x )] 2 n ∑ i=1 ( y i − ¯ y ) 2 = S 2 xy S 2 x · S 2 y = r 2 4 n ∑ i=1 ( y i − ¯ y ) 2 = n ∑ i=1 ( y i − ˜ y ( x i ) + ˜ y ( x i ) − ¯ y ) 2 = n ∑ i=1 ( ˜ y ( x i ) − ¯ y ) 2 + 2 n ∑ i=1 ( y i − ˜ y ( x i ) ) · ( ˜ y ( x i ) − ¯ y ) ︸ ︷︷ ︸ = M + n ∑ i=1 ( y i − ˜ y ( x i ) ) 2 M = n ∑ i=1 ( y i − ¯ y − S xy S x ·S y ( x i − ¯ x ) ) · ( S xy S x ·S y ( x i − ¯ x ) ) = n ∑ i=1 { ( y i − ¯ y ) S xy S 2 x ( x i − ¯ x ) − S 2 xy S 4 x ( x i − ¯ x ) 2 } = S 2 xy S 2 x − S 2 xy S 2 x = 0 31 4 Zeitreihen In diesem Abschnitt werden zweidimensionale Stichproben betrachtet, wobei die x-Koordinate stets die Bedeutung der Zeit hat. Wir betrachten Beobachtungswerte y i zum Zeitpunkt t i . H¨aufig werden die Stichproben in gleichen zeitlichen Abst¨anden gezogen. Wenn wir t i = i setzen, so wird auf der Zeitachse einfach ein Maßstab festgelegt. Beispiele sind die monatlichen Arbeitslosenzahlen, die Quartalszahlen f¨ ur das Bruttosozialprodukt etc. Die Paare (t i , y i ), i = 1, 2, . . . , n, stellt man h¨aufig in einem kartesischen Koordinatensystem dar, dem sogenannten Zeitreihendiagramm. Oft verbindet man diese Punkte geradlinig miteinander und erh¨alt so eine Darstellung der Zeitreihe als Polygonzug. Es w¨are auch eine Verbindung der Punkte (t i , y i ) mittels Splines vorstellbar. 1 4.1 Autokorrelation Neben einem Plot der Zeitreihe bietet sich als n¨achster Schritt eine Regressionsanalyse an. Außer den Lage- und Streuparametern ¯ y = 1 n n ∑ i=1 y i ; s 2 = 1 n − 1 n ∑ i=1 (y i − ¯ y) 2 ; der Zeitreihe ist vor allem der innere Zusammenhang zwischen den zeitlich verschiedenen Beobachtungswerten von Interesse. In den Regressionsmodellen des vorangegegangenen Abschnitts spielte der lineare Zusammenhang eine zentrale Rolle. Dabei war die empirische Kovarianz bzw. der Korrelationskoeffizient ein Maß f¨ ur den inneren Zusammenhang. r = n ∑ i=1 (t i − ¯ t) · (y i − ¯ y) √ √ √ √ n ∑ i=1 (t i − ¯ t) 2 √ √ √ √ n ∑ i=1 (y i − ¯ y) 2 Um die St¨arke des linearen Zusammenhangs aufeinanderfolgender Beobachtungen zu messen, bilden wir die (n − 1) Paare aufeinanderfolgender Messwerte und bestimmen den zugeh¨origen Korrelationskoeffizienten. (y 1 , y 2 ), (y 2 , y 3 ), (y 3 , y 4 ), . . . , (y n − 1 , y n ) ; ¯ y 1 = 1 n − 1 n − 1 ∑ i=1 y i ; ¯ y 2 = 1 n − 1 n ∑ i=2 y i ; 1 Eine Verbindung der Punkte mit einem Polynom ist nicht ratsam, da Polynome ab dem Grad n > 4 wellig werden. 32 4 Zeitreihen ˜ r = n − 1 ∑ i=1 (y i − ¯ y 1 ) · (y i+1 − ¯ y 2 ) √ √ √ √ n − 1 ∑ i=1 (y i − ¯ y 1 ) 2 √ √ √ √ n ∑ i=2 (y i − ¯ y 2 ) 2 Entsprechend k¨onnen die Korrelationskoeffizienten f¨ ur weiter auseinander liegende Beobachtungen berechnet werden. Dazu untersuchen wir die Paare: (y 1 , y 1+t ), (y 2 , y 2+t ), (y 3 , y 3+t ), . . . (y n − t , y n ) ; t = 0, 1, . . . , n − 1 . Da sich die verschiedenen arithmetischen Mittel und Standardabweichungen im Allgemeinen wenig unterscheiden, setzt man das allgemeine arithmetische Mittel und die Summe der Abstandsquadrate der Ausgangsreihe ein. Man erh¨alt so den Autokorrelationskoeffizienten: r t = n − t ∑ i=1 (y i − ¯ y) · (y i+t − ¯ y) n ∑ i=1 (y i − ¯ y) 2 ; t = 0, 1, . . . , n − 1 Beispiel 4.1: Gegeben ist die Zeitreihe y i 4 2 3 7 5 2 2 9 5 1 Bild 4.1 Ein m¨aßig ausgepr¨agter Vierer-Zyklus ist erkennbar. Deshalb soll der Autokorrelationskoeffizient r 4 berechnet werden. Entsprechend dem unten zusammengefassten Berechnungsschema erh¨alt man: r 4 = 6 ∑ i=1 (y i − ¯ y) · (y i+4 − ¯ y) 10 ∑ i=1 (y i − ¯ y) 2 = 28 58 = 0.4828 t i 1 2 3 4 5 6 7 8 9 10 ∑ y i 4 2 3 7 5 2 2 9 5 1 40 y i − ¯ y 0 − 2 − 1 3 1 − 2 − 2 5 1 − 3 − (y i − ¯ y) 2 0 4 1 9 1 4 4 25 1 9 58 y i+4 − ¯ y 1 − 2 − 2 5 1 − 3 − − − − − (y i − ¯ y) · (y i+4 − ¯ y) 0 4 2 15 1 6 − − − − 28 Tr¨agt man s¨amtliche Autokorrelationskoeffizienten ¨ uber der Zeitverschiebung ab, so ergibt sich das sogenannte Korrelogramm. Es liefert eine wesentliche Information ¨ uber die Zeitreihe, insbesonders ¨ uber Zyklen. 4.2 Komponentenmodell 33 Beispiel 4.2: Zur weiteren Illustration betrachten wir die Monatsums¨atze eines Brennstoffh¨andlers. Tr¨agt man s¨amtliche Autokorrelationskoeffizienten ¨ uber der Zeitverschiebung auf, so zeigt sich f¨ ur t = 12 der st¨arkste lineare Zusammenhang. F¨ ur Vielfache von 12 ergeben sich ebenfalls lokale Maxima. Δ Bild 4.2 4.2 Komponentenmodell Als Beispiel betrachten wir die Arbeitslosenzahlen in der BRD. Innerhalb der einzelnen Jahre treten kurzfristige Schwankungen auf, die auf jahreszeitliche Einfl¨ usse zur¨ uckzuf¨ uhren sind. Im Winter sind die Arbeitslosenzahlen stets h¨oher als in der warmen Jahreszeit. Ebenso ist in der Urlaubszeit (Juli, August) stets ein kleiner Anstieg der Erwerbslosenzahl zu beobachten. Man spricht hier von saisonalen Schwankungen, die sich relativ unver¨andert jedes Jahr wiederholen. In der Zeitreihe kann man weiter einen langfristigen Trend erkennen - den globalen Anstieg der Arbeitslosenzahlen ab 1970. Eine Zwischenrolle spielt der Einfluss der Konjunktur, die eine gewisse Regelm¨aßigkeit erkennen l¨asst. Die L¨ange der Konjunkturzyklen schwankt zwischen f¨ unf und sieben Jahren. F¨ ur Ver¨anderungen der Zahlenwerte sind auch zuf¨allige, nichtvorhersagbare Ereignisse von Bedeutung. Wenn wir unterstellen, dass sich die soeben beschriebenen Einfl¨ usse additiv ¨ uberlagern 2 , erhalten wir das klassische Komponentenmodell f¨ ur Zeitreihen: y t = m t + k t + s t + r t m t : Trendkomponente s t : Saisonkomponente k t : Konjunkturkomponente r t : Restkomponente 2 Bei Zeitreihen mit anwachsenden Saisonausschl¨agen kann auch ein multiplikativer Zusammenhang sinnvoll sein. y t = m t · k t · s t · r t Durch Logarithmieren kann dies auf den additiven Fall zur¨ uckgef¨ uhrt werden. 34 4 Zeitreihen In vielen Zeitreihen sind nur die Saisonkomponente s t und die Restkomponente r t f¨ ur das Oszillieren der Zeitreihe verantwortlich. Ohne diese Einfl¨ usse w¨are die Zeitreihe wesentlich glatter. Wir fassen deshalb Trendkomponente und Konjunkturkomponente 3 zur sogenannten glatten Komponente zusammen: g t = m t + k t . Ebenso wird manchmal die saisonale und konjunkturelle Komponente zur zyklischen Komponente zusammengefasst: z t = k t + s t . Insgesamt erh¨alt man folgende formale Beschreibung des additiven Modells: zyklische Komponente ︷ ︸︸ ︷ Reihe = Trend + Konjunktur + Saison + Rest ︸ ︷︷ ︸ glatte Komponente Wir wollen uns nun mit Verfahren zur Sch¨atzung der einzelnen Komponenten besch¨aftigen. 4.2.1 Trendbestimmung Das einfachste Modell besteht in der Annahme eines linearen bzw. polynomialen Trends. Zur Bestimmung der Trendgeraden ˆ m = a · t + b sind zwei Vorgehensweisen gebr¨auchlich: • Methode der kleinsten Quadrate Bestimmung einer Regressionsgeraden mit der in Abschnitt 3.2.3 beschriebenen Methode. Bei ¨aquidistanten Zeitpunkten t i = i vereinfachen sich die Formeln zu: ¯ t = 1 n n ∑ i=1 i = 1 n · n(n + 1) 2 = n + 1 2 1 n n ∑ i=1 t 2 i = 1 n n ∑ i=1 i 2 = 1 n · n(n + 1)(2n + 1) 6 = (n + 1)(2n + 1) 6 ¯ y = 1 n n ∑ i=1 y i ; 1 n n ∑ i=1 t i · y i = 1 n n ∑ i=1 i · y i a = 12 n ∑ i=1 i · y i − 6(n + 1) · n ∑ i=1 y i n(n 2 − 1) b = ¯ y − n + 1 2 · a = 4n + 2 n − 1 ¯ y − 6 · n ∑ i=1 i · y i n(n − 1) 3 Zur Sch¨atzung von Konjunkturzyklen werden h¨aufig Verfahren der Fourier-Analysis benutzt. Diese darzustellen ¨ ubersteigt den Rahmen des vorliegenden Buches. 4.2 Komponentenmodell 35 • Reihenh¨alftung Dazu teilt man die Beobachtungswerte in eine untere und obere H¨alfte. Falls eine Zeitreihe aus einer ungeraden Anzahl von Werten besteht, wird der mittlere Wert weggelassen. Wir berechnen f¨ ur jede H¨alfte den Schwerpunkt und verbinden die beiden Punkte durch die Trendgerade. F¨ ur eine Reihe von geradem Umfang n = 2k erhalten wir bei ¨aquidistanten Zeitpunkten: untere Reihenh¨alfte ¯ t u = 1 k k ∑ i=1 i = k + 1 2 ¯ y u = 1 k k ∑ i=1 y i obere Reihenh¨alfte ¯ t o = 1 k 2k ∑ i=k+1 i = 3k + 1 2 ¯ y o = 1 k 2k ∑ i=k+1 y i Die Trendgerade durch die beiden Punkte (¯ t u , ¯ y u ) und (¯ t o , ¯ y o ) ergibt sich zu: ˆ m t = ¯ y u + ¯ y o − ¯ y u k ( t − k + 1 2 ) Es sind auch nichtlineare Trendmodelle (Potenz- und Exponential-Ans¨atze, etc.) m¨oglich. Die im vorangegangenen Abschnitt beschriebenen Regressionsans¨atze finden entsprechend Anwendung. Beispiele folgen in Abschnitt 4.2.3. Logistisches Modell Es ist oft unrealistisch, f¨ ur Wachstumsprozesse ein unbeschr¨anktes Anwachsen zu unterstellen. Vielmehr ist h¨aufig eine obere Grenze f¨ ur das Wachstum anzunehmen. So verhindern z. B. biologische oder ¨okologische Restriktionen, dass ein Wachstum ¨ uber alle Grenzen m¨oglich ist. Ein typisches Modell f¨ ur derartige Wachstumsvorg¨ange ist die sogenannte logistische Funktion. m(t) = G 1 + be − at ; a, b, G ∈ IR + Sie strebt f¨ ur t → ∞ der S¨attigungsgrenze G zu. Die von m(t) beschriebene S-f¨ormige S¨attigungskurve ist bei vielen Wachstumsvorg¨angen zu beobachten. Das zugrunde liegende Modell wird deutlicher, wenn wir die zur logistischen Funktion f¨ uhrende Differentialgleichung bestimmen. Dazu bilden wir die logarithmische Ableitung von m(t). ln m(t) = ln ( G 1 + be − at ) = ln G − ln (1 + be − at ) d dt : ˙ m(t) m(t) = a · b · e − at ( 1 + be − at ) = a · be − at + 1 − 1 ( 1 + be − at ) = a · ( 1 − 1 1 + be − at ) = a · ( 1 − m(t) G ) mit G = S¨attigungsgrenze 36 4 Zeitreihen Diese Differentialgleichung (Verhulstsche Differentialgleichung) beschreibt die relative Wachstumsrate in Abh¨angigkeit vom erreichten Wert m(t). F¨ ur kleine m(t) ist diese Rate ungef¨ahr gleich der Wachstumsrate beim ungebremsten exponentiellen Anwachsen. Je st¨arker sich m(t) der Grenze G n¨ahert, desto kleiner wird die Wachstumsrate und geht bei Ann¨aherung an die Grenze gegen Null. Es ist nicht m¨oglich, f¨ ur die Anpassung der Parameter a, b, G an die vorgegebene Zeitreihe ein explizites Verfahren zur Minimierung der Abstandsquadrate anzugeben. Inzwischen besitzt jedoch jedes Mathematik-Paket eine komfortable Prozedur zur Anpassung nichtlinearer Modelle (z. B. MATLAB die Prozedur lsqcurvefit ), so dass sich f¨ ur den Anwender keine großen Probleme ergeben. Gegebenenfalls sollte man die Prozedur mit verschiedenen Startwerten aufrufen. Beispiel 4.3: Das Bev¨olkerungswachstum des Bundeslandes Nordrhein-Westfalen soll mit einer Logistik-Funktion modelliert werden. Jahr 1961 1963 1965 1967 1969 1971 1973 1975 1977 1979 Mio. Einw. 15.920 16.280 16.661 16.835 17.044 17.091 17.223 17.176 17.052 17.002 Mit den Startwerten a 0 = 0.5; b 0 = 0.1; G = 17 ergab sich f¨ ur die optimalen Parameter a = 0.516262 . . . ; b = 0.135244 . . . ; G = 17.15349. Bild 4.3 4.2 Komponentenmodell 37 4.2.2 Glatte Komponente Trend- und Konjunkturkomponente ergeben zusammen die glatte Komponente. Die glatte Komponente wird h¨aufig durch gleitende Durchschnitte gesch¨atzt. Bei einem gleitenden Durchschnitt ungerader Ordnung 2l + 1 wird der arithmetische Mittelwert zwischen aktuellem Wert und den jeweils l Zeiteinheiten zuvor und danach bestimmten Messwerten errechnet: ¯ y (2l+1) j = 1 2l + 1 l ∑ i= − l y j+i j = l + 1, l + 2, . . . , n − l Bei gerader Ordnung 2l werden die beiden am weitesten entfernten Werte jeweils mit dem halben Gewicht ber¨ ucksichtigt: ¯ y (2l) j = 1 2l ⎡ ⎣ l − 1 ∑ i= − (l − 1) y j+i + 12 (y j − l + y j+l ) ⎤ ⎦ j = l + 1, l + 2, . . . , n − l Die gleitenden Durchschnitte bilden eine verk¨ urzte Zeitreihe mit n − 2l Werten. Liegt eine saisonale Abh¨angigkeit mit der Periodenl¨ange s vor, so liefern die gleitende Durchschnitte der Ordnung s eine gute Sch¨atzung der glatten Komponente, wenn die folgenden Bedingungen n¨aherungsweise erf¨ ullt sind: • Die Saisonkomponenten wiederholen sich periodisch und sind innerhalb einer Periode auf die Summe 0 normiert. s t+s = s t ; s t + s t+1 + . . . + s t+s − 1 = 0 • Innerhalb eines Periodenzeitraums kann die glatte Komponente gut durch eine Gerade approximiert werden. • Die Restkomponente ist im Mittel 0. Im inneren Bereich kann unter diesen Voraussetzungen die glatte Komponente durch gleitende Durchschnitte der Periodenl¨ange s gesch¨atzt werden: ˆ g t = ¯ y (s) t , t = l + 1, l + 2, . . . , n − l ; mit Periodenl¨ange s = 2l bzw. s = 2l + 1 Durch gleitende Durchschnitte gehen an den beiden R¨andern jeweils l Werte verloren. Dies ist besonders f¨ ur den aktuellen Rand der Zeitreihe nicht akzeptabel. Um einigermaßen zuverl¨assige Werte zu erhalten, extrapoliert man die Randpunkte und wendet dann darauf das oben beschriebene Verfahren der gleitenden Durchschnitte an. F¨ ur den Fall s = 4 erl¨autern wir die notwendigen Schritte: 38 4 Zeitreihen Zun¨achst bestimmen wir f¨ ur die letzten vier Punkte eine Trendgerade. Beginnen wir mit der Nummerierung neu, so ist an den Datensatz { y 1 , y 2 , y 3 , y 4 } eine Regressionsgerade y = m · t + b anzupassen. Gem¨aß Abschnitt 3.2.3 ergibt sich als L¨osung: m = 4 ∑ k=1 k · y k − 2.5 4 ∑ k=1 y k 4 ∑ k=1 k 2 − 4 · (2.5) 2 = − 3y 1 − y 2 + y 3 + 3y 4 10 b = 1 4 4 ∑ k=1 y k − − 3y 1 − y 2 + y 3 + 3y 4 10 · 2.5 = 2y 1 + y 2 − y 4 2 Es m¨ ussen nun die extrapolierten Werte y 5 und y 6 auf der soeben bestimmten Geraden bestimmt werden. y 5 = m · 5 + b = − y 1 + y 3 + 2y 4 2 y 6 = m · 6 + b = − 8y 1 − y 2 + 6y 3 + 13y 4 10 Mit den extrapolierten Werten ergeben sich die fehlenden gleitenden Durchschnitte: ¯ y (4) 3 = 1 8 (y 1 + 2y 2 + 2y 3 + 2y 4 + y 5 ) = 1 16 (y 1 + 4y 2 + 5y 3 + 6y 4 ) ¯ y (4) 4 = 1 8 (y 2 + 2y 3 + 2y 4 + 2y 5 + y 6 ) = 1 80 ( − 18y 1 + 9y 2 + 36y 3 + 53y 4 ) Das letzte Resultat l¨asst sich als gewichteter arithmetischer Durchschnitt der letzten Periode deuten. Die Gewichtungsschemata anderer gleitender Durchschnitte k¨onnen einschl¨agigen Handb¨ uchern entnommen werden. 4.2.3 Saisonbereinigung Unter den Modellannahmen des vorangegangenen Abschnitts kann die glatte Komponente g t = m t + k t durch die gleitenden Durchschnitte der Periodenl¨ange s gesch¨atzt werden. Die Differenzen y t − ¯ y (s) t k¨onnen als Sch¨atzwerte f¨ ur die saisonale Komponente und die Restkomponente benutzt werden. y t − ¯ y (s) t ≈ s t + r t , t = l + 1, l + 2, . . . , n − l mit s = 2l bzw. s = 2l + 1 Da sich nach unserer Modellannahme die Saisonfiguren zyklisch wiederholen, gilt f¨ ur die Saisonkomponenten s j = s j+s = s j+2s = . . . , j = 1, 2, . . . , s Der Einfachheit halber nehmen wir an, dass f¨ ur die gleitenden Durchschnitte h vollst¨andige Saisonzyklen zur Verf¨ ugung stehen. Zur Sch¨atzung der j-ten Saisonkomponente bilden wir zun¨achst den Mittelwert der zur Verf¨ ugung stehenden Werte y t − ¯ y (s) t f¨ ur den 4.2 Komponentenmodell 39 entsprechenden Saisonzeitpunkt. So wird man z. B. bei einem Zw¨olfmonatszyklus alle f¨ ur Januar zur Verf¨ ugung stehenden Differenzen zwischen Beobachtungswert und gleitendem Durchschnitt addieren und durch h dividieren, usw. ˜ s j = 1 h h − 1 ∑ i=0 ( y j+s · i − ¯ y (s) j+s · i ) , j = l + 1, l + 2, . . . , l + s Die Indizierung der Sch¨atzwerte ˜ s j ist dabei im Sinne von modulo s zu interpretieren. So ist zum Beispiel bei einem Zw¨olfmonatszyklus ˜ s 14 mit ˜ s 2 zu identifizieren. Nach der Modellannahme sind die Saisonkomponenten auf die Summe 0 normiert. Diese Eigenschaft ergibt sich durch die folgende Korrektur: ˆ s j = ˜ s j − 1s s ∑ i=1 ˜ s i , j = 1, 2, . . . , s . Diese Sch¨atzwerte ˆ s j der Saisonkomponente einer Zeitreihe nennt man auch Saisonnormale. Die Differenzreihe y t − ˆ s t bezeichnet man als saisonbereinigte Zeitreihe. Das konkrete Vorgehen zur Berechnung von Trend und Saisonnormale sei an folgendem Beispiel erl¨autert. Beispiel 4.4: In der nebenstehenden Tabelle sei der Stromverbrauch (in kWh) einer Familie pro Quartal vermerkt. Die Periodenl¨ange ist gleich vier. Jahr 1. Quartal 2. Quartal 3. Quartal 4. Quartal 1989 2102 1916 1821 2198 1990 2309 2089 1922 2311 1991 2378 2309 2145 2501 1992 2571 2304 2221 2402 1993 2567 2406 2312 2619 1994 2552 2403 2334 2708 1995 2633 2524 2407 2758 Sch¨atzung der Trendgeraden durch Reihenh¨alftung Jede Reihenh¨alfte besteht aus k=14 Werten. F¨ ur die Schwerpunkte erh¨alt man: ¯ t u = k + 1 2 = 7.5 ; ¯ t o = 3k + 1 2 = 21.5 ; ¯ y u = 1 14 14 ∑ i=1 y i = 2205.4 ; ¯ y o = 1 14 28 ∑ i=15 y i = 2489 ˆ m t = 2205.4 + 2489 − 2205.4 21.5 − 7.5 · (t − 7.5) = 2053.5 + 20.26 · t Trendgerade Sch¨atzung der Trendgeraden mittels Regression ¯ y = 1 n n ∑ i=1 y i = 2347.2 ; n ∑ i=1 i · y i = 993784 ; 40 4 Zeitreihen a = 12 n ∑ i=1 i · y i − 6(n + 1) n ∑ i=1 y i n(n 2 − 1) = 12 · 993784 − 6 · 29 · 28 · 2347.2 28 · (28 2 − 1) = 22.34 b = ¯ y − n + 1 2 · a = 2347.2 − 14.5 · 22.34 = 2023.3 ˆ m t = 2023.3 + 22.34 · t Trendgerade Wie wir anhand des Diagramms feststellen werden, scheint ein Polynom zweiter Ordnung die Trendentwicklung besser zu treffen. Mit den im vorangegangenen Abschnitt entwickelten Methoden ergibt sich: ˆ m t = 1940.3 + 38.93 · t + 0.572 · t 2 Trendparabel Sch¨atzung der glatten Komponente mittels gleitender Durchschnitte (s = 4) Da eine Periode aus vier Quartalen besteht, berechnen wir die gleitenden Durchschnitte der Ordnung 4. Aus den vorgelegten Daten k¨onnen die gleitenden Durchschnitte vom dritten Quartal 1989 bis zum zweiten Quartal 1995 berechnet werden. ¯ y (4) t = y t − 2 + 2y t − 1 + 2y t + 2y t+1 + y t+2 8 ; t = 3, 4, . . . , 26 F¨ ur die Randwerte muss das oben entwickelte Gewichtungsschema benutzt werden. ¯ y (4) 27 = 1 16 (y 25 + 4y 26 + 5y 27 + 6y 28 ) ¯ y (4) 28 = 1 80 ( − 18y 25 + 9y 26 + 36y 27 + 53y 28 ) ¯ y (4) 2 = 1 16 (y 4 + 4y 3 + 5y 2 + 6y 1 ) ¯ y (4) 1 = 1 80 ( − 18y 4 + 9y 3 + 36y 2 + 53y 1 ) Die Resultate sind in der nachfolgenden Tabelle zusammengefasst (gerundet). Jahr 1. Quartal 2. Quartal 3. Quartal 4. Quartal 1989 1965.1 1979.6 2035.1 2082.6 1990 2116.9 2143.6 2166.4 2202.5 1991 2257.9 2309.5 2357.4 2380.9 1992 2389.8 2386.9 2374.0 2386.3 1993 2410.4 2448.9 2474.1 2471.9 1994 2474.3 2488.1 2509.4 2534.6 1995 2558.9 2574.3 2582.0 2601.9 Berechnung der Saisonnormalen Jahr 1. Quartal 2. Quartal 3. Quartal 4. Quartal 1989 - - -214.125 115.375 1990 192.125 -54.625 -244.375 108.500 1991 120.125 -0.500 -212.375 120.125 1992 181.250 -82.875 -153.000 15.750 1993 156.625 -42.875 -162.125 147.125 1994 77.750 -85.125 -175.375 173.375 1995 74.125 -50.250 - - Wir bestimmen die um die glatte Komponente bereinigte Zeitreihe y t − ¯ y (4) t f¨ ur die sechs inneren Perioden. Die Resultate sind in nebenstehender Tabelle zusammengefasst. 4.2 Komponentenmodell 41 Zur Sch¨atzung der quartalstypischen Abweichung von der glatten Komponente berechnen wir die arithmetischen Mittelwerte der Werte in den Spalten obiger Tabelle: ˜ s 1 = 802 6 = 133.7 ˜ s 2 = − 316.25 6 = − 52.7 ˜ s 3 = − 1161.375 6 = − 193.6 ˜ s 4 = 680.25 6 = 113.4 Zur Normierung ( ∑ ˆ s i = 0) bestimmen wir den Korrekturterm n = 1 4 4 ∑ i=1 ˜ s i = 0.77 4 und erhalten damit aus ˆ s i = ˜ s t − n die Saisonnormalen: ˆ s 1 = 133.5 ˆ s 2 = − 52.9 ˆ s 3 = − 193.8 ˆ s 4 = 113.2 Die n¨achste Tabelle enth¨alt die Werte der saisonbereinigten Reihe. In der nachfolgenden Graphik sind die angesprochenen Komponenten eingetragen. Da sich der Trend quadratisch verh¨alt, weicht die saisonbereinigte Reihe stark von den gleitenden Durchschnitten ab. Jahr 1. Quartal 2. Quartal 3. Quartal 4. Quartal 1989 1968.5 1968.9 2014.8 2084.8 1990 2175.5 2141.9 2115.8 2197.8 1991 2244.5 2361.9 2338.8 2387.8 1992 2437.5 2356.9 2414.8 2288.8 1993 2433.5 2458.9 2505.8 2505.8 1994 2418.5 2455.9 2527.8 2594.8 1995 2499.5 2576.9 2600.8 2644.8 Bild 4.4 42 5 Wahrscheinlichkeit 5 H¨aufigkeit und Wahrscheinlichkeit In den vorangegangenen Kapiteln ging es darum, Datenmaterial zu ordnen und ¨ ubersichtlich darzustellen, Regressionskurven einzupassen usw. Wir wollen nun die Rolle des reinen Beobachters aufgeben und versuchen, sogenannte Zufallsexperimente theoretisch zu durchdringen (vgl. auch Anhang B). Dies sei an zwei Beispielen erl¨autert. M¨ unzwurf: Versuch Nr.: 1 2 3 4 5 6 7 8 9 10 Ergebnis : Z W W Z Z W Z Z Z W h 10 (Z) = 6 absolute H¨aufigkeit von ”Zahl“ r 10 (Z) = 6 10 relative H¨aufigkeit von ”Zahl“ W¨ urfel: Versuch Nr.: 1 2 3 4 5 6 7 8 9 10 11 12 Ergebnis : 1 5 2 1 4 4 5 1 4 2 1 6 h 12 (1) = 4 absolute H¨aufigkeit von ”1“ r 12 (1) = 4 12 relative H¨aufigkeit von ”1“ Definition: Das gleiche Zufallsexperiment werde n-mal durchgef¨ uhrt. Dann heißt die Anzahl der Versuche, bei denen das Ereignis A eintritt, die absolute H¨aufigkeit des Ereignisses A; sie wird mit h n (A) bezeichnet. Der Quotient r n (A) = h n (A) n heißt relative H¨aufigkeit. Die relative H¨aufigkeit wird bei statistischen Fragestellungen eine wichtige Rolle spielen. Eigenschaften der relativen H¨aufigkeiten a) Die relative H¨aufigkeit liegt stets zwischen null und eins. 0 ≤ r n (A) ≤ 1 b) Das sichere Ereignis Ω (Augenzahl gr¨oßer 0) besitzt die relative H¨aufigkeit eins. r n (Ω) = 1 c) Das unm¨ogliche Ereignis ∅ (Augenzahl kleiner 1) besitzt die relative H¨aufigkeit null. r n ( ∅ ) = 0 d) Sind die beiden Ereignisse A (z. B. Augenzahl 1) und B (z. B. Augenzahl gerade) unvereinbar, so addieren sich die relativen H¨aufigkeiten: r n (A ∪ B) = r n (A) + r n (B) falls A ∩ B = ∅ 43 Die relative H¨aufigkeit h¨angt vom Zufall ab Bei obigem Zufallsexperiment 12-maliges Werfen eines W¨ urfels ergab sich als relative H¨aufigkeit f¨ ur ”Augenzahl 1” die Zahl r 12 (”1”) = 4 12 = 13 Theoretisch h¨atte man - unverf¨alschter W¨ urfel vorausgesetzt - nur 1 6 erwartet. Wir nennen nun diesen theoretischen Wert die Wahrscheinlichkeit p(”1”) f¨ ur das Eintreten des Ereignisses ”Augenzahl 1”. F¨ uhrt man eine Versuchsserie erneut durch, werden sich in der Regel die relativen H¨aufigkeiten ¨andern, auch wenn die Anzahl der Versuche in beiden Serien gleich groß ist. Wie die Ergebnisse der einzelnen Versuchsschritte, so h¨angen die daraus berechneten relativen H¨aufigkeiten vom Zufall ab. Stabilisierung der H¨aufigkeiten bei großem Stichprobenumfang Mittels eines Zufallszahlengenerators spielen wir Roulette mit der Ergebnismenge Ω = { 0, 1, 2, 3, . . . , 35, 36 } . Die relative H¨aufigkeit des ersten Dutzends D = { 1, 2, . . . , 11, 12 } wird berechnet und in der folgenden Graphik dargestellt. Die Anzahl der Versuchsdurchf¨ uhrungen wird beginnend bei k = 10 in Zehnerschritten bis zu k = 2000 gesteigert. r n (k) k 1 . 0 0 . 5 200 2000 1000 Bild 5.1 Man stellt im Laufe der Zeit eine gewisse Stabilisierung um den Zahlenwert 12 37 ≈ 0.324 fest. Dieser Zahlenwert ist gleich der Wahrscheinlichkeit des Ereignisses D. Zun¨achst sind die Abweichungen noch recht groß. Ab ca. 200 Spielen tritt eine Stabilisierung ein. Allgemein kann man bei großen Versuchsserien feststellen, dass h¨aufig im Laufe der Zeit eine Stabilisierung der relativen H¨aufigkeiten eines Ereignisses A eintritt. Bei großem Stichprobenumfang k schwanken die relativen H¨aufigkeiten mehr oder minder stark um einen festen Zahlenwert (= Wahrscheinlichkeit). Diesen Sachverhalt bezeichnet man auch als Gesetz der großen Zahlen. Dieser Stabilisierungseffekt tritt allerdings nur unter folgenden Voraussetzungen ein: 44 5 Wahrscheinlichkeit a) Das Experiment wird jedesmal unter denselben Bedingungen durchgef¨ uhrt. b) Die einzelnen Versuchsergebnisse d¨ urfen auf die Ergebnisse der nachfolgenden Einzelexperimente keinen Einfluss haben. Interpretation einer Wahrscheinlichkeit Die Wahrscheinlichkeit P (A) eines Ereignisses A ist ein Maß f¨ ur die Chance des Eintretens des Ereignisses A. Falls das entsprechende Zufallsexperiment sehr oft unabh¨angig und unter denselben Bedingungen durchgef¨ uhrt wird, schwankt nach dem Gesetz der großen Zahlen die relative H¨aufigkeit des Ereignisses A um die Wahrscheinlichkeit. Die Wahrscheinlichkeit P (A) kann als theoretisches Gegenst¨ uck zur relativen H¨aufigkeit r n (A) interpretiert werden. Die Wahrscheinlichkeit P (A) eines Ereignisses A kann als Sch¨atzwert f¨ ur die relative H¨aufigkeit benutzt werden. F¨ ur die Wahrscheinlichkeiten ergeben sich dieselben Eigenschaften wie f¨ ur die relativen H¨aufigkeiten: a) Die Wahrscheinlichkeit f¨ ur jedes Ereignis A liegt stets zwischen null und eins. 0 ≤ P (A) ≤ 1 b) Das sichere Ereignis besitzt die Wahrscheinlichkeit eins: P (Ω) = 1 c) Das unm¨ogliche Ereignis besitzt die Wahrscheinlichkeit null: P ( ∅ ) = 0 d) Sind die beiden Ereignisse A und B unvereinbar, so addieren sich die Wahrscheinlichkeiten: P (A ∪ B) = P (A) + P (B) falls A ∩ B = ∅ e) Die Summe der Wahrscheinlichkeiten von Ereignis A und Gegenereignis ¯ A ist eins. P (A) + P ( ¯ A ) = 1 Die klassische Wahrscheinlichkeitsrechnung besch¨aftigt sich mit dem Problem, aus bekannten Wahrscheinlichkeiten f¨ ur Grundereignisse (Elementarereignisse) auf die Wahrscheinlichkeit eines zusammengesetzten Ereignisses zu schließen. Im Anhang B wird auf diese Problematik n¨aher eingegangen. 5.1 Klassischer Wahrscheinlichkeitsbegriff Wie errechnen wir nun bei komplizierteren Zufallsexperimenten die Wahrscheinlichkeiten P (A)? Aus der Theorie der Gl¨ ucksspiele stammt der folgende nahe liegende klassische Wahrscheinlichkeitsbegriff. F¨ ur diesen Wahrscheinlichkeitsbegriffben¨otigt man die nachstehenden Voraussetzungen: 5.1 Klassischer Wahrscheinlichkeitsbegriff 45 a) Das Zufallsexperiment besitzt nur endlich viele verschiedene Versuchsergebnisse. b) Keines der m¨oglichen Versuchsergebnisse darf bevorzugt auftreten. Hierf¨ ur sagt man auch: S¨amtliche Versuchsergebnisse besitzen die gleiche Chance. Beispiele f¨ ur diesen Sachverhalt sind: M¨ unzwurf, idealer W¨ urfel, Roulette etc. Wahrscheinlichkeit eines beliebigen Ereignisses Wir betrachten ein Ereignis A, welches aus r verschiedenen Versuchsergebnissen besteht. Beim W¨ urfeln besteht z. B. das Ereignis ”gerade Augenzahl” aus drei verschiedenen Versuchsergebnissen G = { 2, 4, 6 } . Hier ist also r = 3 und n = 6. Die Chance f¨ ur das Eintreten des Ereignisses A ist r-mal gr¨oßer als die eines einzelnen Versuchsergebnisses (Elementarereignisses). Dem Ereignis A ordnen wir deshalb den Quotienten r n als Wahrscheinlichkeit zu. Satz: Bei einem Zufallsexperiment seien genau n verschiedene Versuchsausg¨ange m¨oglich, die alle gleich wahrscheinlich sind. Das Ereignis A bestehe aus r verschiedenen Versuchsergebnissen (Elementarereignissen). Dann lautet der klassische Wahrscheinlichkeitsbegriffdes Ereignisses A: P (A) = r n = | A | | Ω | = Anzahl der f¨ ur A g¨ unstigen F¨alle Anzahl der m¨oglichen F¨alle Falls die Berechnung der Wahrscheinlichkeit f¨ ur das Komplement¨arereignis ¯ A einfacher ist als f¨ ur das Ereignis A, ist es sinnvoll, zun¨achst diese Wahrscheinlichkeit zu berechnen. Beispiel 5.1: Augensumme beim Werfen mit zwei W¨ urfeln. Das Zufallsexperiment bestehe im Werfen zweier idealer W¨ urfel, wobei als Ergebnis die Summe beider Augenzahlen berechnet wird. Zur Modellbildung werden zun¨achst die beiden W¨ urfel unterscheidbar gemacht: einer sei rot, der andere weiß. Dann treten als Versuchsergebnisse zwei Zahlen auf. Diese k¨onnen als Zahlenpaare gedeutet werden, wobei wir verabreden, dass die Augenzahl des weißen W¨ urfels an die erste Stelle soll, die Augenzahl des roten W¨ urfels an die zweite Position. Unter Ber¨ ucksichtigung der Reihenfolge handelt es sich um geordnete Zahlenpaare (n, m), wobei n, m die Werte { 1, 2, . . . , 6 } annehmen k¨onnen. Insgesamt gibt es 6 · 6 = 36 verschiedene Zahlenpaare, die wir als gleichwahrscheinlich annehmen. Die Ergebismenge Ω besteht aus 36 Elementareignissen, von denen jedes die gleiche Wahrscheinlichkeit p = 1 36 besitzt. Zahlenpaare mit derselben Augensumme liegen in der Tabelle auf einer Parallelen zur Nebendiagonale. (1, 1) (1, 2) (1, 3) (1, 4) (1, 5) (1, 6) (2, 1) (2, 2) (2, 3) (2, 4) (2, 5) (2, 6) (3, 1) (3, 2) (3, 3) (3, 4) (3, 5) (3, 6) (4, 1) (4, 2) (4, 3) (4, 4) (4, 5) (4, 6) (5, 1) (5, 2) (5, 3) (5, 4) (5, 5) (5, 6) (6, 1) (6, 2) (6, 3) (6, 4) (6, 5) (6, 6) Alle m¨oglichen Augensummen und ihre Wahrscheinlichkeiten sind in der nachfolgenden Tabelle zusammengestellt. 46 5 Wahrscheinlichkeit Summe k Augenpaare g¨ unstige F¨alle p(k) 2 (1,1) 1 1 36 3 (2,1), (1,2) 2 2 36 4 (3,1), (2,2), (1,3) 3 3 36 5 (4,1), (3,2), (2,3), (1,4) 4 4 36 6 (5,1), (4,2), (3,3), (2,4), (1,5) 5 5 36 7 (6,1), (5,2), (4,3), (3,4), (2,5), (1,6) 6 6 36 8 (6,2), (5,3), (4,4), (3,5), (2,6) 5 5 36 9 (6,3), (5,4), (4,5), (3,6) 4 4 36 10 (6,4), (5,5), (4,6) 3 3 36 11 (6,5), (5,6) 2 2 36 12 (6,6) 1 1 36 Summen 36 1 Die Wahrscheinlichkeiten f¨ ur die Augensummen steigen zun¨achst um 1 36 an. Die Augensumme 7 besitzt die gr¨oßte Wahrscheinlichkeit. Die Wahrscheinlichkeiten sind symmetrisch zur Augensumme 7. 1 Die Kennzeichnung (F¨arben) der beiden W¨ urfel ist nur n¨otig, um f¨ ur die Berechnung der Wahrscheinlichkeiten ein einfacheres Modell zu gewinnen. Selbstverst¨andlich besitzen die Augensummen zweier idealer W¨ urfel immer die gleichen Wahrscheinlichkeiten, auch wenn sie nicht unterscheidbar sind. Benutzt man nur einen W¨ urfel und wirft diesen unabh¨angig voneinander zweimal, so ergibt sich das gleiche Modell. Der klassische Wahrscheinlichkeitsbegriffl¨auft in der Regel auf das Abz¨ahlen verschiedener M¨oglichkeiten beim Ausw¨ahlen und Anordnen hinaus. Im Anhang A werden vier grundlegende Abz¨ahlverfahren erl¨autert. Die Wahrscheinlichkeit ergibt sich dann stets als Quotient: Anzahl der g¨ unstigen F¨alle dividiert durch die Anzahl der m¨oglichen F¨alle. 1 Zum gleichen Resultat kommt man, wenn man sich ¨ uberlegt, auf wie viele Arten man die Zahl k in zwei Summanden mit nat¨ urlichen Zahlen zerlegen kann. 2 = 1 + 1 3 = 1 + 2 , 2 + 1 4 = 1 + 3 , 2 + 2 , 3 + 1 5 = 1 + 4 , 2 + 3 , 3 + 2 , 4 + 1 6 = 1 + 5 , 2 + 4 , 3 + 3 , 4 + 2 , 5 + 1 7 = 1 + 6 , 2 + 5 , 3 + 4 , 4 + 3 , 5 + 2 , 6 + 1 8 = 2 + 6 , 3 + 5 , 4 + 4 , 5 + 3 , 6 + 2 9 = 3 + 6 , 4 + 5 , 5 + 4 , 6 + 3 ... ... ... 5.2 Grenzen des klassischen Wahrscheinlichkeitsbegriffs 47 5.2 Grenzen des klassischen Wahrscheinlichkeitsbegriffs F¨ ur das Geschlecht eines neugeborenen Kindes gibt es die beiden M¨oglichkeiten Knabe oder M¨adchen. Wie statistisch nachgewiesen ist, sind beide Ereignisse nicht gleich wahrscheinlich. Die Wahrscheinlichkeit einer Knabengeburt ist etwas gr¨oßer als 1 2 . Es werden also auf Dauer mehr Knaben als M¨adchen geboren. Weshalb dies so ist, wird wohl ein Geheimnis der Natur bleiben. Es ist ein Beispiel daf¨ ur, dass aus der Endlichkeit der Ergebnismenge keinesfalls die Gleichwahrscheinlichkeit aller Versuchsergebnisse folgt. In diesem erweiterten Sinne ist die einem Ereignis A zugeordnete Wahrscheinlichkeit P (A) A −→ P (A) eine Zuordnungsvorschrift, die denselben Gesetzm¨aßigkeiten wie die relative H¨aufigkeit gen¨ ugt. 5.3 Geometrische Wahrscheinlichkeiten Die Formel f¨ ur die klassische Wahrscheinlichkeit gilt f¨ ur Zufallsexperimente mit einer endlichen Ausgangsmenge, die alle gleich wahrscheinlich sind. Wir wollen diese Beziehung auf Zufallsexperimente mit einer kontinuierlichen Zufallsgr¨oße ¨ ubertragen, bei denen kein Ereignis bevorzugt auftritt (Gleichverteilung). Die Berechnung der Wahrscheinlichkeit geschieht dann ¨ uber entsprechende L¨angenbzw. Fl¨achenberechnungen. Beispiel 5.2: Mit welcher Wahrscheinlichkeit bleibt der Zeiger einer Drehscheibe im grau unterlegten Bereich 0 ≤ ϕ ≤ π 3 stehen? Analog zu dem Prinzip ”g¨ unstige F¨alle durch m¨ogliche F¨alle“ bestimmen wir die Wahrscheinlichkeit mittels ”L¨ange des g¨ unstigen Bereichs durch L¨ange des m¨oglichen Bereichs“ zu: Ω = [0, 2π]; A = [0, π 3 ] P (A) = π3 2π = 1 6 L¨asst sich wie im obigen Beispiel das sichere Ereignis Ω darstellen als Intervall der L¨ange L(Ω) und das Ereignis A als Teilintervall der L¨ange L(A), dann ist die Wahrscheinlichkeit des Ereignisses A unter der Voraussetzung der Gleichverteilung gegeben durch: Bild 5.2 P (A) = L(A) L(Ω) Die klassische Wahrscheinlichkeit und die geometrische Wahrscheinlichkeit lassen sich zusammenfassen in der Beziehung p(A) = Maß von A Maß von Ω Dabei verstehen wir unter Maß die Anzahl der Punkte, die L¨ange, die Fl¨ache, das Volumen etc. 48 5 Wahrscheinlichkeit Beispiel 5.3: Buffonsches Nadelproblem: Eine Nadel der L¨ange l wird auf eine Ebene mit parallelen Linien im Abstand L > l zuf¨allig geworfen. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass die Nadel einen der Striche kreuzt? L l sin α α x Bild 5.3 α : Neigungswinkel der Nadel gegen die Parallelen x : Abstand des unteren Nadelendes von der n¨achsth¨oheren Geraden Die m¨oglichen Ausg¨ange des Experiments k¨onnen durch die Zahlenpaare (α, x) mit 0 ≤ α ≤ π; 0 ≤ x ≤ L beschrieben werden. Im Folgenden wollen wir davon ausgehen, dass kein Zahlenpaar bevorzugt auftritt. F¨ ur die Ergebnismenge erhalten wir Ω = { (α, x) | 0 ≤ α ≤ π; 0 ≤ x ≤ L } Soll die Nadel kreuzen, so muss f¨ ur x und α gelten: 0 ≤ x ≤ l sin α , und wir erhalten f¨ ur das Ereignis A Nadel kreuzt eine Linie die Darstellung: A = { (α, x) ∈ Ω | 0 ≤ x ≤ l sin α } . L x α π Ω A l Bild 5.4 Alle f¨ ur das Ereignis A g¨ unstigen Punkte liegen im dunkel markierten Bereich. Als Wahrscheinlichkeit f¨ ur A bestimmen wir das Verh¨altnis der Fl¨acheninhalte von Ω und A. F (Ω) = Lπ ; F (A) = ∫ π 0 l sin α dα = [ − l cos α ] π 0 = 2l P (A) = F (A) F (Ω) = 2l Lπ 5.4 Stetige Zufallsgr¨oßen 49 5.4 Stetige Zufallsgr¨oßen Bei der Drehscheibe und beim Buffonschen Nadelproblem sind wir davon ausgegangen, dass jede m¨ogliche Auspr¨agung der Zufallsgr¨oße - Winkelstellung - gleich wahrscheinlich ist. Dies ist jedoch bei vielen uns interessierenden Zufallsexperimenten nicht der Fall. Untersuchen wir zum Beispiel bei einem Produktionsprozess Abweichungen vom eingestellten Sollwert, so sind wohl geringere Abweichungen wahrscheinlicher als sehr große Diskrepanzen zum eingestellten Sollwert (hoffentlich! ). Dies sei an folgendem Beispiel plausibel gemacht: Die folgende Tabelle stelle ein Messprotokoll beim Nachwiegen von zweihundert Schokoladentafeln (100 g) dar (vgl. Seite 76). 99.31 96.54 95.91 98.74 101.90 101.02 98.39 99.00 99.29 101.40 ... ... ... ... ... ... ... ... ... ... 104.48 96.99 95.09 101.82 97.61 101.30 99.21 99.98 95.58 100.82 Zur Aufbereitung der Datenmengen werden die Zahlen (Messwerte) in Klassen eingeteilt. Dabei hat k die Bedeutung der Klassennummer, N (k) die der absoluten H¨aufigkeit und h(k) die der relativen H¨aufigkeit. Bei der Klasseneinteilung wurden Ausreißer, d. h. Messwerte mit großer Abweichung vom Sollwert, nicht ber¨ uckichtigt. In der nachfolgende Skizze ist zum Histogramm der Stichprobe eine passende Glockenkurve eingezeichnet. k Klasse N (k) h(k) 1 90.5 < x ≤ 91.5 0 0.00 ... ... ... ... 5 94.5 < x ≤ 95.5 6 0.03 ... ... ... ... 10 99.5 < x ≤ 100.5 30 0.15 11 100.5 < x ≤ 101.5 22 0.11 ... ... ... ... 14 103.5 < x ≤ 104.5 9 0.05 ... ... ... ... H¨aufigkeiten 100 5 Bild 5.5 Die ¨ Ubereinstimmung des Histogramms mit einer Glockenkurve h¨angt auch von der gew¨ahlten Klasseneinteilung ab. Die beiden folgenden Skizzen beziehen sich auf dieselbe Datenmenge, lediglich die Zahl der Klassen wurde ver¨andert. 50 5 Wahrscheinlichkeit H¨aufigkeiten 100 10 Bild 5.6 H¨aufigkeiten 100 10 Bild 5.7 Der optische Zusammenhang zwischen den Rechtecken des Histogramms und der Glockenkurve ist analog zu bewerten wie der Zusammenhang zwischen den beobachteten relativen H¨aufigkeiten beim W¨ urfeln und der theoretischen Wahrscheinlichkeit f¨ ur eine ”1” , also p(”1”)= 1 6 . Die Messwerte einer Stichprobe m¨ ussen zun¨achst durch ein Histogramm aufbereitet werden. Bei großer Anzahl der Messwerte und passenden Klassengrenzen wird sich die Struktur des Histogramms einer stetigen Funktion ann¨ahern. Wenn wir nach einem theoretischen Gegenst¨ uck zur relativen H¨aufigkeit f¨ ur die Klasse 11: Gewicht zwischen 100,5 und 101,5 suchen, so erh¨alt man daf¨ ur die Fl¨ache unterhalb der Kurve zwischen den Grenzen 100,5 und 101,5. (Vergleiche die Einf¨ uhrung des Integrals als Grenzwert von Rechteckfl¨achen! ) Bei stetigen Zufallsgr¨oßen ergibt sich nun ein prinzipielles Problem: Es ist sinnlos, nach der Wahrscheinlichkeit daf¨ ur zu fragen, dass das Gewicht einer gewogenen Schokoladentafel genau 101,2751 g betr¨agt. Dagegen ergibt es einen Sinn, die Wahrscheinlichkeit daf¨ ur zu bestimmen, dass das Gewicht der Schokoladentafel zwischen 101 g und 102 g liegt. Dies entspricht der relativen H¨aufigkeit bei einer Klasseneinteilung des Stichprobenmaterials. Es sei x das Gewicht der gewogenen Schokoladentafel. Wir erkl¨aren die theoretische Wahrscheinlichkeit P (a < x ≤ b), dass x zwischen a und b liegt, als Fl¨ache unterhalb der passenden Kurve zwischen a und b. a b x P (a < x ≤ b) In folgenden Kapiteln werden wir uns mit der Frage besch¨aftigen, welche Messwerte zu welchem Kurventyp passen. 51 6 Zufallsvariable (ZV) In diesem Abschnitt wollen wir den Ausgang eines Zufallsexperiments mit einer reellen Zahl in Zusammenhang bringen. Bei vielen Zufallsexperimenten wird gemessen oder gez¨ahlt; das Ergebnis ist eine reelle Zahl. Beispiele: - Augenzahl eines W¨ urfels - Gr¨oße einer zuf¨allig ausgew¨ahlten Person - Anzahl der Versuche, bis eine 6 gew¨ urfelt wird Bei Zufallsexperimenten, deren Ausg¨ange nicht unmittelbar Zahlen sind, ordnet man den Ergebnissen oft Zahlen zu - z. B. bei der Qualit¨atskontrolle wird dem Ergebnis ”brauchbar“ die Zahl 1 zugeordnet, ”unbrauchbar“ die Zahl 0. Im Folgenden wollen wir stets davon ausgehen, dass das Ergebnis eines Zufallsexperiments durch eine reelle Zahl charakterisiert wird. Dieser Zusammenhang l¨asst sich durch eine Funktion darstellen. Wir erkl¨aren auf der Ergebnismenge Ω eine Funktion ω ∈ Ω X −→ x = X (ω) ∈ IR, die ihre Werte in Abh¨angigkeit vom Zufall annimmt. Man nennt eine solche Funktion Zufallsvariable (ZV). Bezeichnungen: X Zufallsvariable (Funktion) mit großen Buchstaben x Werte, die die Zufallsvariable annimmt, mit kleinen Buchstaben Zu jedem Elementarereignis ω ∈ Ω geh¨ort eine Wahrscheinlichkeit p(ω). Daraus lassen sich auch Wahrscheinlichkeiten f¨ ur die Zufallsvariable X erkl¨aren. P ( X = a) = p( { ω ∈ Ω | X (ω) = a } ) ”Ereignis X = a” Beispiel 6.1: Anzahl der ”Wappen” beim dreimaligen Werfen einer idealen M¨ unze. Ω = { (ZZZ), (ZZW ), (ZW Z), (W ZZ), (ZW W ), (W ZW ), (W W Z), (W W W ) } X (ω) : Anzahl der Wappen 0 1 2 3 ( ZZZ ) ( ZZW ) ( ZW Z ) ( W ZZ )( ZW W ) ( W ZW ) ( W W Z ) ( W W W ) Bei einer idealen M¨ unze ist die Wahrscheinlichkeit f¨ ur eines dieser Elementarereignisse P (. . .) = ( 1 2 ) 3 = 1 8 . Damit erhalten wir nebenstehende Tabelle: k 0 1 2 3 P ( X = k) 1 8 3 8 3 8 1 8 52 6 Zufallsvariable (ZV) Entsprechend kann man nach der Wahrscheinlichkeit fragen, dass die Zufallsvariable X Werte in einem Intervall a < x ≤ b annimmt. P (a < X ≤ b) = P ( { ω ∈ Ω | a < X (ω) ≤ b } ) ”Ereignis a < X ≤ b ” Wir unterscheiden zwischen stetigen und diskreten Zufallsvariablen. 6.1 Diskrete Zufallsvariable Definition: Eine Zufallsvariable heißt diskret, falls ihr Wertevorrat nur endlich viele oder abz¨ahlbar unendlich viele verschiedene Werte enth¨alt. Bemerkung: abz¨ahlbar unendlich bedeutet, dass eine Nummerierung der Menge mit nat¨ urlichen Zahlen m¨oglich ist. Zur Beschreibung einer diskreten Zufallsvariablen ben¨otigt man die Wahrscheinlichkeiten P ( X = x k ) = f(x k ) Die Ereignisse ” X = x 1 ”, ” X = x 2 ”, . . . sind disjunkt, bilden damit eine Ausgangsmenge, aus der alle f¨ ur X relevanten Ereignisse aufgebaut werden k¨onnen. F¨ ur die Funktion f(x k ) gilt: 0 ≤ f(x k ) ≤ 1 ∑ f(x k ) = 1 Eine diskrete Zufallsvariable kann somit durch die Zahlenpaare (x k , f(x k )) beschrieben werden. Beispiel 6.2: Anzahl der W¨ urfe bis zur ersten ”6” . x k 1 2 3 4 . . . k . . . f(x k ) 16 56 · 16 ( 5 6 ) 2 · 16 ( 5 6 ) 3 · 16 . . . ( 5 6 ) k − 1 · 16 . . . Wir ¨ uberpr¨ ufen die Normierungseigenschaft: ∑ f(x k ) = 1 6 + 56 · 16 + ( 5 6 ) 2 · 16 + ( 5 6 ) 3 · 16 + . . . + ( 5 6 ) k − 1 · 16 + . . . = 16 [ 1 + 5 6 + ( 5 6 ) 2 + ( 5 6 ) 3 + . . . + ( 5 6 ) k − 1 + . . . ] = 16 · 1 1 − 5 6 = 1 6.1 Diskrete Zufallsvariable 53 Die f(x k ) sind das theoretische Gegenst¨ uck zu den relativen H¨aufigkeiten bei Beobachtungsreihen. Das theoretische Gegenst¨ uck zur Summenh¨aufigkeit ist die Verteilungsfunktion F (x). Sie gibt an, mit welcher Wahrscheinlichkeit die Zufallsvariable Werte ≤ x annimmt. F (x) = P ( X ≤ x) = ∑ x k ≤ x f(x k ) Wir wollen die Wahrscheinlichkeiten f(x k ) und die zugeh¨orige Verteilungsfunktion F (x k ) anhand des Beispiels dreimaliges Werfen einer idealen M¨ unze als Stabdiagramm bzw. Treppenfunktion interpretieren. Die Zufallsvariable X ist die Anzahl der geworfenen Wappen. x k 0 1 2 3 f(x k ) 18 38 38 18 F (x k ) 18 48 78 1 1 f ( x k ) x 0 1 2 3 Stabdiagramm Bild 6.1 1 0 1 2 F ( x ) Treppenfunktion x 3 Bild 6.2 Eigenschaften der Verteilungsfunktion: F ( −∞ ) = 0 , F ( ∞ ) = 1 x 1 < x 2 = ⇒ F (x 1 ) ≤ F (x 2 ) F (x) ist eine Treppenfunktion mit den Stufen f(x k ) bei x k . Mit der Verteilungsfunktion lassen sich Wahrscheinlichkeiten bequem darstellen: P (a < X ≤ b) = F (b) − F (a) P ( X ≤ a) = F (a) P ( X > a) = 1 − F (a) 6.1.1 Erwartungswert einer diskreten ZV Der Erwartungswert entspricht dem zu erwartenden Mittelwert bei h¨aufiger Durchf¨ uhrung eines Zufallsexperiments. Beispiel 6.3: Anzahl der Wappen bei dreimaligem M¨ unzwurf. Wie viele Wappen sind bei h¨aufiger Durchf¨ uhrung des Versuchs zu erwarten? x = 0 · 18 + 1 · 38 + 2 · 38 + 3 · 18 = 1.5 54 6 Zufallsvariable (ZV) Definition: Der gewichtete Mittelwert aller m¨oglichen Werte x i , gewichtet mit den Wahrscheinlichkeiten f(x i ), heißt Erwartungswert der Zufallsvariablen X . μ = E( X ) = ∑ x i · f(x i ) Beispiel 6.4: Ein Spieler wirft zwei M¨ unzen. Bei ”WW” erh¨alt er 4 e , f¨ ur jedes ”Z” muss er 1 e zahlen. Ist das Spiel fair? Ω = { ZZ, ZW, W Z, W W } Die Zufallsvariable X habe die Bedeutung des Gewinns. − 2 − 1 4 x ( ZZ ) ( ZW ) ( W Z ) ( W W ) Bild 6.3 x k − 2 − 1 4 f(x k ) 14 12 14 Erwartungswert: μ = E( X ) = ( − 2) · 14 + ( − 1) · 12 + 4 · 14 = 0 faires Spiel 6.1.2 Varianz und Standardabweichung bei einer diskreten ZV Die Standardabweichung ist ein Maß f¨ ur die Abweichung einer Zufallsvariablen vom Erwartungswert (=Mittelwert). Es ist das mit den Wahrscheinlichkeiten gewichtete Abstandsquadrat der Abweichung der Zufallsvariablen vom Erwartungswert. Sie ist das theoretische Gegenst¨ uck zu der in Abschnitt 2.5.2 eingef¨ uhrten empirischen Varianz. Definition: Die Streuungsparameter einer diskreten Zufallsvariablen X mit Erwartungswert μ = E( X ) sind wie folgt erkl¨art: σ 2 = V ar( X ) = E([ X − μ] 2 ) = ∑ (x i − μ) 2 · f(x i ) Bezeichnungen: σ 2 : Varianz σ = √ σ 2 : Standardabweichung Die Varianz l¨asst sich noch in anderer Form darstellen: ∑ (x i − μ) 2 · f(x i ) = ∑ (x 2 i − 2x i μ + μ 2 ) · f(x i ) = ∑ x 2 i · f(x i ) − ∑ 2x i μ · f(x i ) + ∑ μ 2 · f(x i ) = ∑ x 2 i · f(x i ) − 2μ ∑ x i · f(x i ) ︸ ︷︷ ︸ =μ + μ 2 ∑ f(x i ) ︸ ︷︷ ︸ =1 = ∑ x 2 i · f(x i ) − μ 2 6.2 Stetige Zufallsvariable 55 6.2 Stetige Zufallsvariable Wir betrachten nun Zufallsvariable, deren Wertebereich ein Intervall auf der reellen Zahlengerade ist. Beispiel 6.5: Drehscheibe X : Winkel des zur Ruhe gekommenen Zeigers gegen Bezugsrichtung x ∈ [0, 2π) x Bild 6.4 Bei einer idealen Scheibe ist kein Winkel bevorzugt. P (a < X ≤ b) = b − a 2π mit 0 ≤ a ≤ b < 2π P ( X = a) = 0 f(x k ) hat damit kein direktes Analogon. F¨ ur die Verteilungsfunktion findet man eine Entsprechung: P ( X ≤ z) = F (z) = ⎧ ⎪ ⎨ ⎪ ⎩ 0 f¨ ur z ≤ 0 z 2π f¨ ur 0 ≤ z < 2π 1 f¨ ur z ≥ 2π F ( z ) 1 2 π z Bild 6.5 Mit dieser Funktion F (z) l¨asst sich die Wahrscheinlichkeit, dass der Zeiger zwischen den Winkeln a und b zum Stillstand kommt, wie folgt darstellen: P (a < X ≤ b) = F (b) − F (a) Dies erinnert an die Auswertung eines bestimmten Integrals: ∫ b a f(x) dx = F (b) − F (a) Wir deuten die obige Verteilungsfunktion F (x) als Integral F (x) = ∫ x −∞ f(u) du mit f(x) = ⎧ ⎪ ⎨ ⎪ ⎩ 0 f¨ ur x ≤ 0 1 2π f¨ ur 0 ≤ x < 2π 0 f¨ ur x ≥ 2π f ( x ) 1 2π 2 π x Bild 6.6 56 6 Zufallsvariable (ZV) Definition: Eine Zufallsvariable X heißt stetig, wenn eine nichtnegative, integrierbare Funktion f(x) existiert, so dass die zugeh¨orige Verteilungsfunktion F (x) wie folgt dargestellt werden kann: F (x) = P ( X ≤ x) = x ∫ −∞ f(u) du f(x) heißt Dichte oder Dichtefunktion der Zufallsvariablen X . Bei der Berechnung von Wahrscheinlichkeiten einer stetigen Zufallsvariablen k¨onnen die Intervallgrenzen hinzugenommen oder weggelassen werden - ohne dass sich am Integral etwas ¨andert! Wegen F ( ∞ ) = 1 gilt: ∫ ∞ −∞ f(u) du = 1 Weiter gilt f¨ ur jede Stetigkeitstelle von f(x) : F ′ (x) = f(x) Beim ¨ Ubertragen der Begriffe Erwartungswert, Varianz etc. auf stetige Zufallsvariable ist das Summationszeichen durch das Integral zu ersetzen. diskret stetig F (x) = ∑ x i ≤ x f(x i ) F (x) = x ∫ −∞ f(u) du μ = E( X ) = ∑ x i · f(x i ) μ = E( X ) = ∞ ∫ −∞ x · f(x) dx σ 2 = ∑ (x i − μ) 2 · f(x i ) = ∑ x 2 i · f(x i ) − μ 2 σ 2 = ∞ ∫ −∞ (x − μ) 2 · f(x) dx = ∞ ∫ −∞ x 2 · f(x) dx − μ 2 Ist f(x) in einer Umgebung von x 0 stetig, so kann f(x) als Wahrscheinlichkeitsdichte gedeutet werden. P (x 0 ≤ X ≤ x 0 + h) h = 1 h x 0 +h ∫ x 0 f(u) du −→ f(x 0 ) f¨ ur h −→ 0 . 6.3 Eigenschaften von Erwartungswert und Varianz 57 6.3 Eigenschaften von Erwartungswert und Varianz Einige f¨ ur die Anwendungen wichtige Eigenschaften von Varianz und Erwartungswert sollen hier untersucht werden. Wir erl¨autern dies am Modell einer diskreten Zufallsvariablen. Eine ¨ Ubertragung auf eine stetige Zufallsvariable ist durch Austausch von Summen- und Integralzeichen einfach m¨oglich. 6.3.1 Lineare Transformation Es sei X eine Zufallsvariable, dann gilt bei einer linearen Transformation (z. B. ¨ Anderung des Maßsystems bei einer Temperaturmessung von Celsius in Fahrenheit etc.) f¨ ur Erwartungswert und Varianz: E(a X + b) = aE( X ) + b V ar(a X + b) = a 2 V ar( X ) Beweis: E(a X + b) = ∑ (ax i + b)f(x i ) = a ∑ x i · f(x i ) ︸ ︷︷ ︸ μ + b · ∑ f(x i ) ︸ ︷︷ ︸ =1 V ar(a X + b) = ∑ (ax i + b − [aμ + b]) 2 · f(x i ) = a 2 · ∑ (x i − μ) 2 · f(x i ) ︸ ︷︷ ︸ V ar( X ) = a 2 · V ar( X ) Zu jeder Zufallsvariablen kann man die sogenannte normierte Zufallsvariable Z bilden: Z = X − μ σ mit μ = ∑ x i · f(x i ) ; σ 2 = ∑ (x i − μ) 2 · f(x i ) F¨ ur diese Zufallsvariable gilt: E( Z ) = 0 ; V ar( Z ) = 1 . 6.3.2 Summe von Zufallsvariablen X und Y seien zwei voneinander unabh¨angige Zufallsvariable 1 . Die zugeh¨origen Wahrscheinlichkeiten werden durch f(x i ) bzw. g(y j ) beschrieben. Dann gilt f¨ ur die Wahrscheinlichkeit P ( X = x i , Y = y j ) = f(x i ) · g(y j ) W¨ahrend bei linearen Transformationen die Form der Verteilungsfunktion nur affin verzerrt wird, ver¨andert sich bei der Summation das Erscheinungsbild - auch wenn wir die Summe identisch verteilter Zufallsvariablen betrachten. 1 Der Begriff ”stochastisch unabh¨angig“ wird im Anhang B genauer erkl¨art. 58 6 Zufallsvariable (ZV) Zur Bestimmung von Erwartungswert und Varianz m¨ ussen wir die Doppelsummen ¨ uber alle Kombinationen der x i und y j betrachten. E( X + Y ) = ∑ i,j (x i + y j ) · f(x i )g(y j ) = ∑ i x i · f(x i ) · ∑ j g(y j ) ︸ ︷︷ ︸ =1 + ∑ j y j · g(y j ) · ∑ i f(x i ) ︸ ︷︷ ︸ =1 = E( X ) + E( Y ) = μ x + μ y F¨ ur die Varianz ergibt sich: V ar( X + Y ) = ∑ i,j (x i + y j − μ x − μ y ︸ ︷︷ ︸ (x i − μ x ) + (y j − μ y ) ) 2 · f(x i )g(y j ) = ∑ i,j (x i − μ x ) 2 · f(x i )g(y j ) + ∑ i,j (y j − μ y ) 2 · f(x i )g(y j ) + 2 ∑ i,j (x i − μ x ) · (y j − μ y ) · f(x i )g(y j ) = ∑ i (x i − μ x ) 2 · f(x i ) · ∑ j g(y j ) ︸ ︷︷ ︸ =1 + ∑ j (y j − μ y ) 2 · g(y i ) · ∑ i f(x i ) ︸ ︷︷ ︸ =1 + 2 ∑ i (x i − μ x ) · f(x i ) ︸ ︷︷ ︸ =0 · ∑ j (y j − μ y ) · g(y j ) ︸ ︷︷ ︸ =0 = V ar( X ) + V ar( Y ) Vergleich von 2 X und X 1 + X 2 Das Werfen von zwei W¨ urfeln und die Addition der Augenzahlen ist ein Beispiel f¨ ur die Summenbildung X 1 + X 2 . Das Werfen eines W¨ urfels und die Verdoppelung der Augenzahl ist ein Beispiel f¨ ur die lineare Transformation 2 X . Nimmt man den arithmetischen Mittelwert identischer Zufallsvariablen, so wird die Varianz des Mittelwerts kleiner. Beispiel 6.6: Als Beispiel f¨ ur die Summenbildung betrachten wir die Augensumme beim W¨ urfeln von n idealen W¨ urfeln. a) Werfen eines idealen W¨ urfels F¨ ur die Zufallsvariable X der Augenzahl eines idealen W¨ urfels erh¨alt man: μ = E( X ) = 6 ∑ i=1 i · 16 = 7 2 σ 2 = V ar( X ) = 6 ∑ i=1 i 2 · 16 − ( 7 2 ) 2 = 35 12 6.3 Eigenschaften von Erwartungswert und Varianz 59 b) Gleichzeitiges Werfen von n W¨ urfeln Gleichzeitig sollen voneinander unabh¨angig n W¨ urfel geworfen werden. Die Zufallsvariable S n beschreibe die Augensumme. Diese Zufallsvariable ist die Summe von n unabh¨angigen Zufallsvariablen, welche alle den gleichen Erwartungswert μ = 7 2 und die Varianz σ 2 = 35 12 besitzen. Wegen der vorausgesetzten Unabh¨angigkeit k¨onnen die Erwartungswerte und Varianzen addiert werden. μ n = E( S n ) = n · 72 V ar( S n ) = n · 35 12 c) Mittlere Augenzahl bei n W¨ urfen Die mittlere (durchschnittliche) Augenzahl wird durch die Zufallsvariable X = 1 n · S n beschrieben. Sie besitzt den Erwartungswert μ n = E( X ) = 1 n · E( S n ) = 1 n · n · 72 = 7 2 und die Varianz V ar( X ) = V ar ( 1 n · S n ) = ( 1 n ) 2 · V ar( S n ) = 1 n 2 · n · 35 12 = 1 n · 35 12 Weil bei der Varianz n im Nenner steht, wird diese bei großen n sehr klein. Die Streuung des Mittelwerts (Zufallsvariable X ) um den Erwartungswert μ = 7 2 wird mit zunehmendem n immer geringer. Anstatt gleichzeitig mit n W¨ urfeln k¨onnte man auch n-mal nacheinander mit demselben W¨ urfel werfen. Die folgenden Diagramme 2 zeigen mit wachsendem n die Konzentration um den Erwartungswert. 12 0 . 1 n = 2 Bild 6.7 30 0 . 1 n = 5 Bild 6.8 2 Die zugeh¨origen Wahrscheinlichkeiten ergeben sich durch Faltung der Einzelwahrscheinlichkeiten. 60 6 Zufallsvariable (ZV) 60 35 0 . 05 n = 10 Bild 6.9 300 175 0 . 02 n = 50 Bild 6.10 6.3.3 Nichtlineare Transformationen Oft ist auch die Betrachtung nichtlinearer Transformationen von Zufallsvariablen sinnvoll. Wir machen dies an einem Beispiel mit stetiger Zufallsvariable klar. Bei einem Quadrat h¨angt die Zufallsvariable Seitenl¨ange X und die der Fl¨ache Y durch die Funktion y = h(x) = x 2 zusammen. Wir interessieren uns f¨ ur den Zusammenhang der Dichte- und Verteilungsfunktionen der beiden Zufallsvariablen. Es sei F (x) = x ∫ −∞ f(t)dt die Verteilungsfunktion und f(x) die Dichte der Zufallsvariablen X . Die Verteilungsfunktion G(y) der transformierten Zufallsvariablen errechnet sich wie folgt: P ( Y ≤ y) = G(y) = y ∫ −∞ g(t)dt = P ( X ≤ √ y) = √ y ∫ −∞ f(t)dt = F ( √ y) Die Dichtefunktion ergibt sich als Ableitung von G(y): G ′ (y) = f( √ y) · ( √ y ) ′ Wenn wir f¨ ur die Seitenl¨ange Gleichverteilung zwischen null und zwei annehmen, so ergibt sich der folgende Zusammenhang: f(x) = ⎧ ⎪ ⎨ ⎪ ⎩ 0 x < 0 1 2 0 ≤ x ≤ 2 0 x > 2 g(y) = f( √ y) · 1 2 √ y = ⎧ ⎪ ⎪ ⎨ ⎪ ⎪ ⎩ 0 y ≤ 0 1 4 √ y 0 < y ≤ 4 0 y > 4 F (x) = ⎧ ⎪ ⎨ ⎪ ⎩ 0 x < 0 1 2 x 0 ≤ x ≤ 2 1 x > 2 G(y) = F ( √ y) = ⎧ ⎪ ⎪ ⎨ ⎪ ⎪ ⎩ 0 y < 0 √ y 2 0 ≤ y ≤ 4 1 y > 4 6.3 Eigenschaften von Erwartungswert und Varianz 61 F (x) 2 1 1 0 . 5 x f(x) 2 1 0 . 5 1 x G(y) 4 1 0 . 5 1 y g(y) 4 4 3 1 0 . 5 y Bild 6.11 Wird eine Zufallsvariable X mit einer monoton steigenden 3 Funktion y = h(x) transformiert, so ergeben sich aus der Verteilungsfunktion F (x) und der Dichte f(x) die entsprechenden Funktionen f¨ ur die transformierte Zufallsvariable Y wie folgt: G(y) = F ( h − 1 (y) ) ; g(y) = f ( h − 1 (y) ) · ( h − 1 (y) ) ′ Median, Quantile gehen bei einer solchen Transformation ineinander ¨ uber; Erwartungswert und Varianz m¨ ussen neu berechnet werden. Es gibt keinen direkten Zusammenhang zwischen μ x , σ 2 x und μ y , σ 2 y . F¨ ur unser Beispiel erh¨alt man: E ( Y ) = μ y = ∫ ∞ −∞ y · g(y)dy = ∫ 4 0 y · 1 4 √ y dy = ∫ 4 0 √ y 4 dy = y 3 2 6 ∣ ∣ ∣ ∣ 4 0 = 4 3 E ( Y 2 ) = ∫ ∞ −∞ y 2 · g(y)dy = ∫ 4 0 y 2 · 1 4 √ y dy = ∫ 4 0 y 3 2 4 dy = y 5 2 10 ∣ ∣ ∣ ∣ 4 0 = 16 5 Damit erh¨alt man : σ 2 y = 16 5 − ( 4 3 ) 2 = 64 45 Zum Vergleich die entsprechenden Werte der Zufallsvariablen X : μ x = 1, σ 2 x = 1 3 . Eine grobe Absch¨atzung f¨ ur den Zusammenhang erh¨alt man durch Linearisierung der Transformation y = h(x) im Punkt μ x . μ y ≈ h(μ x ) ; σ 2 y ≈ (h ′ (μ x )) 2 · σ 2 x F¨ ur unser Zahlenbeispiel bedeutet dies: μ y = 4 3 ≈ h(μ x ) = 1 2 ; σ 2 y = 64 45 ≈ (h ′ (μ x )) 2 · σ 2 x = (2 · 1) 2 · 13 = 43 3 Funktionen, die diese Eigenschaft nicht haben, d. h. die die Reihenfolge der Daten nicht erhalten, ergeben in diesem Zusammenhang keinen Sinn. 62 6 Zufallsvariable (ZV) 6.3.4 Gaußsche Fehlerfortpflanzung Aus zwei oder mehr Messgr¨oßen wird h¨aufig ¨ uber einfache Formeln eine Gr¨oße abgeleitet, die eine weitere physikalische Bedeutung hat. Wir betrachten als einfaches Beispiel zwei parallel geschaltete Widerst¨ande R 1 , R 2 . Wie kann aus dem Streuverhalten der Einzelwiderst¨ande auf die Varianz des Gesamtwiderstands R = R 1 · R 2 R 1 + R 2 geschlossen werden? Wir identifizieren die beiden Widerst¨ande mit den Zufallsvariablen X 1 , X 2 . Deren Lage- und Streuparameter seien μ 1 , μ 2 und σ 1 , σ 2 . Wie erh¨alt man daraus eine Absch¨atzung f¨ ur das Streuverhalten der Zufallsvariablen Z = X 1 · X 2 X 1 + X 2 ? Wir unterstellen, dass die Funktion z = g(x 1 , x 2 ) = x 1 · x 2 x 1 + x 2 am Arbeitspunkt (μ 1 , μ 2 ) nicht allzu weit von ihrer Linearisierung abweicht. Wir betrachten also ersatzweise den linearen Zusammenhang: z = g(μ 1 , μ 2 ) + ∂g(μ 1 , μ 2 ) ∂x 1 · (x 1 − μ 1 ) + ∂g(μ 1 , μ 2 ) ∂x 2 · (x 2 − μ 2 ) Wenn die beiden Zufallsvariablen unabh¨angig voneinander sind, so addieren sich die Varianzen der beiden Summanden und wir erhalten f¨ ur die Varianz der Zufallsvariablen Z die Absch¨atzung: σ 2 z ≈ [ ∂g(μ 1 , μ 2 ) ∂x 1 ] 2 · σ 2 1 + [ ∂g(μ 1 , μ 2 ) ∂x 2 ] 2 · σ 2 2 Bei unserem Beispiel ist ∂g(x 1 , x 2 ) ∂x 1 = x 2 2 (x 1 + x 2 ) 2 , ∂g(x 1 , x 2 ) ∂x 2 = x 2 1 (x 1 + x 2 ) 2 . σ 2 z ≈ [ μ 2 2 (μ 1 + μ 2 ) 2 ] 2 · σ 2 1 + [ μ 2 1 (μ 1 + μ 2 ) 2 ] 2 · σ 2 2 Die wichtigsten Konstellationen f¨ ur unabh¨angige Zufallsvariable: Linear Y = a X + b μ y = aμ x + b σ 2 y = a 2 σ 2 x Summe Y = X 1 + X 2 μ y = μ 1 + μ 2 σ 2 y = σ 2 1 + σ 2 2 Produkt Y = X 1 · X 2 μ y = μ 1 · μ 2 σ 2 y ≈ μ 2 2 · σ 2 1 + μ 2 1 · σ 2 2 ( σ y μ y ) 2 ≈ ( σ 1 μ 1 ) 2 + ( σ 2 μ 2 ) 2 Quotient Y = X 1 X 2 μ y ≈ μ 1 μ 2 σ 2 y ≈ ( 1 μ 2 ) 2 · σ 2 1 + ( μ 1 μ 2 2 ) 2 · σ 2 2 ( σ y μ y ) 2 ≈ ( σ 1 μ 1 ) 2 + ( σ 2 μ 2 ) 2 63 7 Spezielle diskrete Verteilungen 7.1 Binomialverteilung Wir betrachten Zufallsexperimente mit zwei m¨oglichen Ausg¨angen (Erfolg - Misserfolg). Diese werden n-mal - unabh¨angig voneinander - durchgef¨ uhrt. Wir interessieren uns daf¨ ur, wie oft das Ergebnis ”Erfolg“ eingetreten ist. Das Ereignis ”Erfolg“ bezeichnen wir mit A, das Gegenereignis mit ¯ A. Die zugeh¨origen Einzelwahrscheinlichkeiten seien P (A) = p , P ( ¯ A) = 1 − p = q Bei dreimaliger Versuchsdurchf¨ uhrung erh¨alt man das folgende Baumdiagramm mit 2 · 2 · 2 = 8 Pfaden ( ¨ Asten). 1. Versuch 2. Versuch 3. Versuch p q p q p q p q p q p q p q AAA AA ¯ A A ¯ AA A ¯ A ¯ A ¯ AAA ¯ AA ¯ A ¯ A ¯ AA ¯ A ¯ A ¯ A Bild 7.1 Die acht Pfadwahrscheinlichkeiten ergeben sich zu: P (AAA) P (AA ¯ A) P (A ¯ AA) P (A ¯ A ¯ A) P ( ¯ AAA) P ( ¯ AA ¯ A) P ( ¯ A ¯ AA) P ( ¯ A ¯ A ¯ A) p · p · p p · p · q p · q · p p · q · q q · p · p q · p · q q · q · p q · q · q 64 7 Spezielle diskrete Verteilungen Nun interessiert nur die Anzahl der Erfolge; die Reihenfolge ist ohne Belang. Wir erhalten die Wahrscheinlichkeiten: 3 Erfolge bei 3 Versuchen: B(3, 3, p) = p 3 AAA 2 Erfolge bei 3 Versuchen: B(2, 3, p) = 3 · p 2 q ¯ AAA, A ¯ AA, AA ¯ A 1 Erfolg bei 3 Versuchen: B(1, 3, p) = 3 · pq 2 ¯ A ¯ AA, ¯ AA ¯ A, A ¯ A ¯ A 0 Erfolg bei 3 Versuchen: B(0, 3, p) = q 3 ¯ A ¯ A ¯ A Bei n-maliger Durchf¨ uhrung des gleichen Experiments gibt es 2 n verschiedene Pfade. Jeder Pfad des n-stufigen Baumdiagramms besteht aus n Zweigen. Jedem einzelnen Zweig wird dann das Ereignis A oder sein Komplement ¯ A mit den Wahrscheinlichkeiten p bzw. q zugeordnet. Die Wahrscheinlichkeit eines Pfades ist gleich dem Produkt der Zweigwahrscheinlichkeiten. Dabei tritt beim Ereignis A jeweils der Faktor p und bei Komplement ¯ A der Faktor q = 1 − p auf. Somit muss nur abgez¨ahlt werden, wie oft in einem Pfad das Ereignis A vorkommt. Auf den restlichen Stellen muss dann das Komplement ¯ A stehen. Jeder Pfad, der genau k-mal das Ereignis A enth¨alt, besitzt bei Ber¨ ucksichtigung der Reihenfolge die Wahrscheinlichkeit P (A ¯ AA . . . ¯ AAA) = p k · (1 − p) n − k Da die Reihenfolge f¨ ur das k-malige Auftreten des Ereignisses A unter den n Versuchen keine Rolle spielt, m¨ ussen wir noch die Anzahl der m¨oglichen Pfade bestimmen, bei denen genau k-mal das Ereignis A eingetreten ist. Dies geschieht mit folgender ¨ Uberlegung: k St¨ uck ︷ ︸︸ ︷ AAAAAAAA . . . AAAAAAA n − k St¨ uck ︷ ︸︸ ︷ ¯ A ¯ A ¯ A ¯ A ¯ A ¯ A ¯ A . . . ¯ A ¯ A ¯ A ¯ A ¯ A ¯ A ¯ A ¯ A ⇓ ⇓ ⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔ . . . . . . ⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔⊔ ︸ ︷︷ ︸ n Positionen Aus den n Pl¨atzen werden k Positionen mit dem Ereignis A belegt. Aus diesen n Pl¨atzen k¨onnen k St¨ uck ohne Ber¨ ucksichtigung der Reihenfolge auf ( n k ) verschiedene Arten ausgew¨ahlt werden. Damit gibt es ( n k ) verschiedene Reihenfolgen. Die restlichen n − k Pl¨atze werden dann mit ¯ A belegt (vgl. Anhang A). Die Wahrscheinlichkeit daf¨ ur, dass bei n unabh¨angigen Versuchen das Ereignis A genau k-mal eintritt (unabh¨angig von der Reihenfolge des Auftretens), lautet dann 1 B(k, n, p) = ( n k ) · p k · (1 − p) n − k 1 Diese Beziehung l¨asst sich auch induktiv begr¨ unden. 7.1 Binomialverteilung 65 Wir bestimmen zun¨achst Erwartungswert und Varianz des l-ten Einzelexperiments. Dabei habe die Zufallsvariable X l die Bedeutung 1 f¨ ur Erfolg, 0 f¨ ur Misserfolg. E( X l ) = 0 · q + 1 · p = p V ar( X l ) = (0 − p) 2 · q + (1 − p) 2 · p = p 2 q + p − 2p 2 + p 3 = p − p 2 = p · q Wenn wir die n-malige Durchf¨ uhrung des Experiments als Summe von n identisch verteilten Zufallsvariablen X l interpretieren, erhalten wir X = X 1 + X 2 + . . . + X n E( X ) = n · E( X i ) = n · p V ar( X ) = n · V ar( X i ) = n · pq Einige Diagramme zur Binomialverteilung: 0.5 0.03 0.16 0.31 0.31 0.16 0.03 1 2 3 4 5 p = 0.5; n = 5 0.5 0.33 0.41 0.20 0.05 0.006 1 2 3 4 5 p = 0.2; n = 5 0.5 0.008 0.07 0.33 0.59 1 2 3 4 5 p = 0.9; n = 5 0.2 0.2 25 p = 0.5; n = 25 0.1 p = 0.5; n = 50 50 p = 0.8; n = 500 0.05 400 500 Bild 7.2 F¨ ur große n konzentrieren sich die Wahrscheinlichkeiten um den Erwartungswert. Die Kurve wird der Gaußschen Glockenkurve immer ¨ahnlicher. Beispiel 7.1: Eine Pr¨ ufung bestehe aus zehn Fragen. Bei jeder dieser Fragen sind in zuf¨alliger Reihenfolge f¨ unf Alternativen zur Auswahl angegeben. Es soll die Erfolgswahrscheinlichkeit durch zuf¨alliges Ankreuzen untersucht werden. 66 7 Spezielle diskrete Verteilungen Alternative 1 Alternative 2 Alternative 3 Alternative 4 Alternative 5 Frage 1 × Frage 2 × Frage 3 × Frage 4 × Frage 5 × Frage 6 × Frage 7 × Frage 8 × Frage 9 × Frage 10 × Jedes Ankreuzen interpretieren wir als ein Zufallsexperiment mit der Erfolgswahrscheinlichkeit p = 0.2. Die Zufallsvariable X entspricht der Anzahl der zuf¨allig richtig angekreuzten Antworten. Es gilt: P ( X = k) = ( 10 k ) · 0.2 k · 0.8 10 − k Ist die Bestehensgrenze des Tests bei drei richtigen Antworten, so ergibt sich die Wahrscheinlichkeit f¨ ur das zuf¨allige Bestehen zu Binomialverteilung p = 0.2, n = 10 0.25 10 Bild 7.3 P ( X ≥ 3) = 10 ∑ k=3 ( 10 k ) · 0.2 k · 0.8 10 − k = 1 − 2 ∑ k=0 ( 10 k ) · 0.2 k · 0.8 10 − k = 0.322 7.2 Geometrische Verteilung Wir betrachten wieder ein Zufallsexperiment mit zwei m¨oglichen Ausg¨angen - Erfolg, Misserfolg. Wir interessieren uns nun f¨ ur die Zahl der unabh¨angig voneinander durchgef¨ uhrten Versuche, bis das Ereignis A eintritt. (Im Gegensatz dazu die Binomialverteilung, wo gefragt wird, wie oft bei einer festen Anzahl von Versuchen das Ereignis A eintritt.) Als Beispiel untersuchen wir die Anzahl der Versuche beim Mensch ¨argere dich nicht bis eine ”Sechs” gew¨ urfelt wird. Die Wahrscheinlichkeit, bei einem Wurf eine ”Sechs” zu erzielen, ist 1 6 . k Ereignis P (k) 1 S 16 2 ¯ SS 56 · 16 3 ¯ S ¯ SS ( 5 6 ) 2 · 16 ... ... ... k ¯ S ¯ S . . . ¯ S ¯ S ︸ ︷︷ ︸ (k − 1) mal S ( 5 6 ) k − 1 · 16 7.2 Geometrische Verteilung 67 Die Zufallsvariable X beschreibe die Anzahl der ben¨otigten Versuche, bis das gew¨ unschte Ereignis A eintritt. X ist eine Zufallsvariable mit abz¨ahlbar vielen Werten (IN). Ist die Einzelwahrscheinlichkeit f¨ ur das Ereignis A gleich p, so ergibt sich sinngem¨aß: P ( X = k) = p · (1 − p) k − 1 , k = 1, 2, 3, . . . Bemerkung: F¨ ur die Summe der Einzelwahrscheinlichkeiten gilt mit q = 1 − p : ∞ ∑ k=1 P ( X = k) = ∞ ∑ k=1 q k − 1 · p = p · ∞ ∑ l=0 q l mit l = k − 1 = p · 1 1 − q = 1 Durch analoge ¨ Uberlegungen mit der geometrischen Reihe lassen sich Erwartungswert und Varianz bestimmen. . E( X ) = ∞ ∑ k=1 k · q k − 1 · p = p · ∞ ∑ k=1 k · q k − 1 = p · d dq { ∞ ∑ k=0 q k } = p · d dq { 1 1 − q } = p · 1 (1 − q) 2 = 1 p E( X 2 ) = ∞ ∑ k=1 k 2 · q k − 1 · p = p · ∞ ∑ k=1 (k 2 + k) ︸ ︷︷ ︸ k(k+1) · q k − 1 − p · ∞ ∑ k=1 k · q k − 1 ︸ ︷︷ ︸ E( X )= 1 p = p · d 2 dq 2 { ∞ ∑ k=1 q k+1 } − 1 p = p · d 2 dq 2 { ∞ ∑ l=2 q l } − 1 p = p · d 2 dq 2 { ∞ ∑ l=0 q l } − 1 p = p · d 2 dq 2 { 1 1 − q } − 1 p = p · 2 (1 − q) 3 − 1p = 2 p 2 − 1p σ 2 = E( X 2 ) − (E( X )) 2 = 1 p 2 − 1p = q p 2 68 7 Spezielle diskrete Verteilungen Beispiel 7.2: Verdoppelungsstrategie beim Roulette Ein Spieler benutzt beim Roulette folgende Strategie: Er setzt eine Geldeinheit auf gerade Zahlen (einfache Chance). Falls er gewinnt, erh¨alt er zwei Geldeinheiten ausbezahlt. Abz¨ uglich seines Einsatzes verbleibt ihm ein Reingewinn von einer Einheit. In diesem Fall beendet er das Spiel. Falls er verliert, verdoppelt er den Einsatz f¨ ur das n¨achste Spiel. Dann hat er insgesamt 1+2=3 Einheiten eingesetzt. Im Falle eines Gewinns erh¨alt er vier Einheiten ausbezahlt, so dass er die Serie wiederum mit einem Reingewinn von einer Einheit beendet. Andernfalls verdoppelt er seinen Einsatz nochmals etc. Nach k Verdopplungen stellt sich die Bilanz folgendermaßen dar: Im Falle eines Gewinns erh¨alt er 2 · 2 k = 2 k+1 Einheiten ausbezahlt. Eingesetzt hat er insgesamt 1 + 2 + 4 + . . . + 2 k = 2 k+1 − 1 2 − 1 = 2 k+1 − 1 Einheiten. Damit verbleibt stets ein Gewinn von einer Einheit. Die Wahrscheinlichkeit f¨ ur Gewinn bei einfacher Chance 2 ist 18 37 . Beschreibt die Zufallsvariable X die Spieldauer bis zum Ereignis Gewinn, so ist diese geometrisch verteilt mit dem Parameter p = 18 37 . Die zugeh¨origen Wahrscheinlichkeiten sind in nebenstehendem Diagramm dargestellt. 0 . 5 1 10 Bild 7.4 Mittlere Spieldauer: E( X ) = 1 p = 37 18 Mittlerer Einsatz pro Serie: Besteht die Serie aus k Einzelspielen, so ist der Einsatz f¨ ur diese Serie 2 k − 1 Einheiten. Den mittleren Einsatz erhalten wir, indem wir diesen Einsatz mit der zugeh¨origen Wahrscheinlichkeit gewichten und ¨ uber alle k aufsummieren. Wir bestimmen damit den Erwartungswert f¨ ur die Zufallsvariable Y , die den Gesamteinsatz bis zum k-ten Spiel beschreibt. E( Y ) = ∞ ∑ k=1 ( 2 k − 1 ) · ( 19 37 ) k − 1 · 18 37 = 18 37 · 37 19 · { ∞ ∑ k=1 ( 2 · 19 37 ) k ︸ ︷︷ ︸ > 1 − ∞ ∑ k=1 ( 19 37 ) k ︸ ︷︷ ︸ = 19 18 } Dabei divergiert die erste Summe; der mittlere Einsatz strebt damit gegen ∞ . Der Grund f¨ ur dieses zun¨achst verbl¨ uffende Ergebnis liegt in der Tatsache, dass der Einsatz mit dem Faktor 2 anw¨achst, w¨ahrend die zugeh¨orige Wahrscheinlichkeit nur mit dem Faktor 19 37 > 1 2 abklingt. Vorgabe eines H¨ochsteinsatzes: Die Vorgabe eines H¨ochsteinsatzes f¨ uhrt dazu, dass h¨ochstens k 0 Spiele m¨oglich sind. Die Wahrscheinlichkeit, dass alle k 0 Spiele verloren gehen, ist 2 Beim Roulette kommen die Zahlen 0, 1, 2, ... , 36 vor. Bei 0 gewinnt stets die Bank. 7.3 Poissonverteilung 69 ( 19 37 ) k 0 . In diesem Fall betr¨agt der Verlust des Spielers 2 k 0 − 1 Einheiten. Im Gewinnfall betr¨agt der Gewinn 1 Einheit. Die Gewinnerwartung pro Serie ergibt sich damit zu: 1 · [ 1 − ( 19 37 ) k 0 ] − ( 2 k 0 − 1 ) · ( 19 37 ) k 0 = 1 − ( 2 · 19 37 ) k 0 −→ −∞ f¨ ur k 0 → ∞ Bei Vorgabe eines H¨ochsteinsatzes ist der Erwartungswert f¨ ur den Gewinn stets negativ. 7.3 Poissonverteilung F¨ ur große n ist Berechnung und Aufsummation der Wahrscheinlichkeiten bei der Binomialverteilung sehr aufw¨andig. F¨ ur kleine p ist die folgende N¨aherung hilfreich. ( n k ) · p k · (1 − p) n − k ≈ λ k k! · e − λ f¨ ur λ = np = μ Ausgehend vom Erwartungswert μ = 4.1 sind f¨ ur verschiedene n und damit p = μ n Binomialverteilung und Poissonverteilung (gestrichelt) gegen¨ uber gestellt: 0 . 25 10 n = 10 0 . 25 10 n = 20 0 . 25 10 n = 50 0 . 25 10 n = 200 Bild 7.5 Man sieht, dass der Unterschied zwischen Binomial- und Poisson-Verteilung f¨ ur große n immer geringer wird. 70 7 Spezielle diskrete Verteilungen Den ¨ Ubergang von Binomialverteilung zur Poissonverteilung wollen wir uns an folgendem Gedankenexperiment klarmachen. W¨ahrend einer Stunde treffen in einer Vermittlungsstelle im langj¨ahrigen Mittel durchschnittlich 4.1 Telefongespr¨ache ein. Wir unterteilen eine Stunde in zehn gleich lange Teile und lassen w¨ahrend dieses Zeitraums nur die Alternativen ”Anruf trifft ein“ oder ”kein Anruf trifft ein“ zu. (Die M¨oglichkeit, dass mehrere Anrufe w¨ahrend eine solchen Periode eintreffen, wird ausgeschlossen.) Damit der Erwartungswert des Modells mit dem langj¨ahrigen Durchschnitt ¨ ubereinstimmt, muss die Einzelwahrscheinlichkeit f¨ ur das Eintreffen eines Anrufs 4.1 10 sein. Allgemein gilt bei der Unterteilung in n Zeitperioden f¨ ur die zugeh¨orige Einzelwahrscheinlichkeit p = 4.1 n . Damit ergeben sich f¨ ur dieses Modell die Wahrscheinlichkeiten der Binomialverteilung: B(k, n, 4.1 n ) = ( n k ) · ( 4.1 n ) k · ( 1 − 4.1 n ) n − k ; k = 0, 1, 2, . . . , n wobei n > 4.1 Je gr¨oßer n wird, um so realistischer ist die Annahme, dass im Zeitraum 1 n nur ein einziger Anruf m¨oglich ist. Bezogen auf einen Beobachtungszeitraum sprechen wir von einem seltenen Ereignis. Die Zufallsvariable z¨ahlt die Gesamtzahl dieser seltenen Ereignisse. Der ¨ Ubergang der Binomialverteilung zur Poissonverteilung l¨asst sich auch rein mathematisch beweisen: B(k, n, μ n ) = ( n k ) · ( μ n ) k · ( 1 − μ n ) n − k = n! k! (n − k)! · μ k n k · ( 1 − μ n ) n − k = μ k k! · n! (n − k)! n k · ( 1 − μ n ) − k · ( 1 − μ n ) n = μ k k! · n(n − 1) . . . (n − k + 1) n k ︸ ︷︷ ︸ −→ 1 · ( 1 − μ n ) − k ︸ ︷︷ ︸ −→ 1 · ( 1 − μ n ) n ︸ ︷︷ ︸ −→ e −μ = μ k k! e − μ 3 Mittels der Potenzreihenentwicklung der e-Funktion lassen sich Erwartungswert und Varianz der Poissonverteilung bestimmen. e x = 1 + x + x 2 1 · 2 + . . . + x k k! + . . . = ∞ ∑ k=0 x k k! E( X ) = ∞ ∑ k=1 k · λ k k! · e − λ = λ · e − λ · ∞ ∑ k=1 λ k − 1 (k − 1)! ︸ ︷︷ ︸ =e λ = λ 3 Es gilt: ( 1 − μ n ) n = [ ( 1 − μ n ) n μ ︸ ︷︷ ︸ → e −1 ] μ → e −μ f¨ ur n → ∞ 7.3 Poissonverteilung 71 E( X 2 ) = ∞ ∑ k=1 k 2 · λ k k! · e − λ = e − λ · ∞ ∑ k=1 k · λ k (k − 1)! = e − λ · { ∞ ∑ k=1 (k − 1) · λ k (k − 1)! + ∞ ∑ k=1 λ k (k − 1)! } = e − λ · { λ 2 · ∞ ∑ k=2 λ k − 2 (k − 2)! ︸ ︷︷ ︸ = e λ + λ · ∞ ∑ k=1 λ k − 1 (k − 1)! ︸ ︷︷ ︸ = e λ } = λ 2 + λ V ar( X ) = σ 2 = E( X 2 ) − (E( X )) 2 = λ Eine mit dem Parameter λ Poisson-verteilten Zufallsvariable besitzt also die Kenngr¨oßen: Wahrscheinlichkeiten P ( X = k) = λ k k! · e − λ ; k = 0, 1, 2, . . . Erwartungswert E( X ) = λ Varianz V ar( X ) = λ Standardabweichung σ = √ λ Die Summe zweier unabh¨angiger Poisson-verteilter Zufallsvariabler mit den Parametern λ 1 , λ 2 ist wieder Poisson-verteilt mit dem Parameter λ = λ 1 + λ 2 . 4 Viele in der Praxis vorkommende Zufallsvariable sind Poisson-verteilt oder n¨aherungsweise Poisson-verteilt, so z. B.: • Anzahl der innerhalb einer bestimmten Zeit in einer Telefonzentrale ankommenden Gespr¨ache • Anzahl der bei einem Gewitter innerhalb einer Viertelstunde gez¨ahlten Blitze • Anzahl der zwischen 15 und 16 Uhr an einem Schalter ankommenden Kunden • Anzahl der w¨ahrend eines Bundesligaspiels geschossenen Tore • Anzahl der Druckfehler pro Seite eines Buches 4 Man nennt diese Eigenschaft auch Faltungsstabilit¨at. Es gilt: P ( X + Y = k ) = k ∑ i=0 P ( X = i ) · P ( Y = k − i ) = e −(λ 1 +λ 2 ) k ∑ i=0 λ i 1 λ k−i 2 i ! ( k − i )! = e −(λ 1 +λ 2 ) 1 k ! k ∑ i=0 ( k i ) λ i 1 λ k−i 2 = e −(λ 1 +λ 2 ) ( λ 1 + λ 2 ) k k ! 72 8 Lebensdauerverteilungen 8 Lebensdauerverteilungen Wir wollen versuchen, f¨ ur die Verteilung der Lebensdauer - z. B. von Gl¨ uhlampen, Motoren etc. - Modellvorstellungen zu entwickeln. Die zugeh¨origen Verteilungsfunktionen lassen sich als L¨osung einer Differentialgleichung darstellen. Mit p(t, Δt) bezeichnen wir die Wahrscheinlichkeit, dass das zum Zeitpunkt t noch intakte Werkst¨ uck im Zeitintervall [t, t + Δt] ausf¨allt. Daf¨ ur machen wir die Modellannahme p(t, Δt) = a(t) · Δt (Verh¨altnisse bleiben im kleinen Zeitbereich [t, t + Δt] konstant; die Wahrscheinlichkeit des Ausfalls ist proportional zur Zeitspanne Δt.) Es sei nun F (t) die gesuchte Verteilungsfunktion: F (t) : Wahrscheinlichkeit f¨ ur Lebensdauer T ≤ t Ein Werkst¨ uck ist damit zum Zeitpunkt t noch mit der Wahrscheinlichkeit [1 − F (t)] intakt. Die Wahrscheinlichkeit, dass es im Zeitraum [t, t + Δt] defekt wird, ist dann [1 − F (t)] · p(t, Δt) = [1 − F (t)] · a(t) · Δt Umgekehrt ergibt sich die Wahrscheinlichkeit, dass das Teil im Intervall [t, t + Δt] defekt wird, aus der Differenz der Verteilungsfunktion an den Intervallgrenzen F (t + Δt) − F (t) Damit erhalten wir die Beziehung F (t + Δt) − F (t) = [1 − F (t)] · a(t) · Δt F¨ ur Δt → 0 erhalten wir die Differentialgleichung F (t + Δt) − F (t) Δt = [1 − F (t)] · a(t) = ⇒ dF (t) dt = [1 − F (t)] · a(t) ; F (0) = 0 Die L¨osung dieses Anfangswertproblems beschreibt bei bekanntem a(t) die Verteilung der Lebensdauer. 73 L¨osung der Differentialgleichung: dF F − 1 = − a(t) ln | F − 1 | = − t ∫ t 0 a(u) du ln(1 − F ) = − t ∫ t 0 a(u) du Einsetzen von t = 0 ln(1 − F (0) ︸ ︷︷ ︸ =0 ) = − 0 ∫ t 0 a(u) du Anfangsbedingung ergibt t 0 = 0 1 − F (t) = e − t ∫ 0 a(u) du F (t) = 1 − e − t ∫ 0 a(u) du ; t ≥ 0 Folgende Modelle 1 f¨ ur den Faktor a(t) sind gebr¨auchlich: a) a(t) = α , d. h. die Ausfallwahrscheinlichkeit ist unabh¨angig von t Dies f¨ uhrt auf die sogenannte Exponentialverteilung F (t) = 1 − e − αt b) a(t) = α + βe γt mit α, β ≥ 0; γ > 0 Dieses exponentielle Anwachsen wird u. a. in der Lebensversicherung verwendet. F (t) = 1 − e − αt − β γ ( e γt − 1 ) c) a(t) = α + βt γ mit α, β > 0; γ > − 1 F (t) = 1 − e − αt − β 1+γ t γ+1 F¨ ur α = 0 ergibt sich die in der Theorie der Erm¨ udung von Werkstoffen h¨aufig verwendete Weibull-Verteilung. Bei der Weibull-Verteilung nimmt man h¨aufig eine Umparametrisierung vor und stellt die zugeh¨orige Verteilungsfunktion wie folgt dar: F (t) = 1 − e − ( t θ ) δ ; f(t) = e − ( t θ ) δ · ( t θ ) δ − 1 · δ θ ; mit δ = γ + 1; θ = ( 1 + γ β ) 1 δ Dabei bewirkt der Parameter θ nur eine Umskalierung der t-Achse. F¨ ur verschiedene δ-Werte sind unten einige Dichtefunktionen skizziert. (δ = 1 ergibt die Exponential- Verteilung.) 1 Diese Funktionstypen k¨onnen auch f¨ ur Trendmodelle (vgl. Abschnitt 4.2.1) benutzt werden. 74 8 Lebensdauerverteilungen 1 0 . 5 1 2 0 . 5 1 1 . 5 2 . 5 Dichte der Weibull-Verteilung f¨ ur θ = 0 t Beispiel 8.1: Gegeben seien die Lebenszeiten t i von zwanzig Werkst¨ ucken. Wir bestimmen daraus die kumulative Verteilungsfunktion der relativen H¨aufigkeiten mit den Eckpunkten (t i | r i ). Beispiel: Zum Zeitpunkt t 14 = 4.27 waren insgesamt 14 20 70 % der Werkst¨ ucke ausgefallen (r 14 = 0.7). Nach dem Prinzip der kleinsten Fehlerquadrate werden die Parameter der Weibull-Verteilung angepasst (θ 1 = 3.3493 ; δ 1 = 1.5808). Viele Statistik-Programme haben auch eigene Anpassungsroutinen (MATLAB: θ 2 = 3.3227 ; δ 2 = 1.8935). t i r i 0.47 0.05 0.70 0.10 0.80 0.15 0.90 0.20 1.33 0.25 1.63 0.30 2.09 0.35 2.12 0.40 2.67 0.45 2.97 0.50 3.04 0.55 3.40 0.60 4.08 0.65 4.27 0.70 4.30 0.75 4.40 0.80 4.40 0.85 4.75 0.90 4.75 0.95 6.02 1.00 75 9 Normalverteilung Die Normalverteilung oder Gaußsche Glockenkurve spielt eine zentrale Rolle in der Wahrscheinlichkeitsrechnung und Statistik. Einerseits gelten f¨ ur normalverteilte Zufallsvariable besonders einfache mathematische S¨atze. Andererseits ist nach dem zentralen Grenzwertsatz (vgl. Seite 59) die Summe von vielen unabh¨angigen Zufallsvariablen oft angen¨ahert normalverteilt. Wenn ein Messfehler sich aus vielen kleinen, von einander unabh¨angigen Elementarfehlern additiv zusammensetzt, so kann von einer Normalverteilung ausgegangen werden. Die Normalverteilung erweist sich f¨ ur viele Zufallsgr¨oßen in Natur und Technik als mehr oder weniger brauchbares Modell. Bei vielen stetigen Zufallsvariablen - z. B. Messwerten, deren Auspr¨agung von vielen Einzeleinfl¨ ussen beeinflusst wird - h¨aufen sich die Werte in der N¨ahe des Mittelwerts (Sollwert). Die Dichtekurven haben die Gestalt einer Glockenkurve. 9.1 Gaußsche Glockenkurven Eine Zufallsvariable heißt normalverteilt mit Erwartungswert μ und Varianz σ 2 , wenn f¨ ur ihre Dichtefunktion gilt: f(x) = 1 √ 2πσ · e − (x−μ) 2 2σ 2 Bezeichnung: N (μ, σ 2 )-Verteilung Der Verlauf der Glockenkurve wird durch Parameter μ und σ bestimmt. Die Gerade x = μ ist Symmetrie-Achse. Der zweite Parameter σ gibt an, wie stark die Glockenkurve abklingt. Bei kleinem σ verl¨auft die Kurve in der N¨ahe der Symmetrie- Achse, f¨ ur große σ ist sie weit auseinandergezogen. Alle Glockenkurven schließen mit der x-Achse eine Fl¨ache mit Inhalt 1 ein. Im nebenstehenden Bild ist die Normalverteilung f¨ ur verschiedene σ skizziert. Bei der gepunkteten Kurve ist σ am gr¨oßten, bei der durchgezogenen Linie am geringsten. μ x 0.5 Symmetrieachse Bild 9.1 Binomialverteilungen nehmen f¨ ur große n ebenfalls diese Gestalt an. Auch die Verteilung der Augensumme (vgl. Seite 59) bei n W¨ urfeln hat n¨aherungsweise die Form der Glockenkurve. In den folgenden Bildern sind Binomialverteilung und zugeh¨orige Normalverteilung skizziert: B(k, n, p) = ( n k ) · p k · q n − k ≈ 1 √ 2π · npq · e − (k − np) 2 2npq k Variable ; n, p fest 76 9 Normalverteilung 0 . 25 10 p = 0 . 5; n = 10 Bild 9.2 0 . 1 35 p = 0 . 7; n = 50 Bild 9.3 Viele aus Messungen herr¨ uhrende Zufallsvariablen, bei denen mehrere - im einzelnen oft schwer zu spezifizierende - Einfl¨ usse die Messwerte bestimmen, sind n¨aherungsweise normalverteilt. Die folgende Tabelle stelle ein Messprotokoll beim Nachwiegen von 200 Schokoladentafeln (100 g) dar. 99.31 96.54 95.91 98.74 101.90 101.02 98.39 99.00 99.29 101.40 99.51 103.08 102.67 98.28 96.89 100.87 97.07 102.68 95.74 102.27 104.48 96.99 95.09 101.82 97.61 101.30 99.21 99.98 95.58 100.82 99.54 99.66 95.91 100.98 100.71 95.22 100.24 99.72 99.43 95.55 97.78 98.25 98.46 88.78 99.60 93.47 103.91 102.82 104.68 101.26 93.10 98.04 103.06 104.63 102.96 102.32 96.46 99.86 94.64 101.58 103.07 99.57 100.20 99.79 104.05 108.16 103.46 101.50 99.91 98.22 100.37 94.67 104.83 100.01 98.00 98.42 103.89 99.15 104.95 95.65 94.68 101.29 102.22 102.11 101.47 98.48 97.30 100.40 101.83 92.72 97.78 98.53 98.04 99.04 99.92 106.80 98.27 98.84 106.29 100.41 97.57 95.61 98.84 97.07 102.88 99.15 96.87 103.40 97.57 105.79 99.81 105.06 101.60 99.26 96.47 97.13 98.74 97.20 96.97 98.89 94.44 99.21 93.09 100.19 101.37 99.16 98.24 100.76 105.40 102.05 96.33 101.69 99.40 100.18 104.87 100.29 107.20 101.21 100.34 101.25 104.43 95.25 96.33 95.70 99.59 100.59 99.02 97.21 106.54 103.41 101.48 97.24 104.01 101.84 96.14 100.67 105.35 100.52 100.00 100.00 97.28 99.66 97.14 102.52 100.24 97.11 99.34 98.15 102.25 97.98 106.84 102.36 102.64 101.48 96.79 101.27 100.89 103.94 99.35 101.73 96.68 102.33 99.87 101.68 102.56 98.12 95.54 97.91 99.84 103.93 101.81 97.74 98.69 99.64 102.41 103.93 102.09 102.13 100.99 103.78 Zur Aufbereitung der Datenmengen werden die Zahlen (Messwerte) in Klassen eingeteilt. Dabei hat k die Bedeutung der Klassennummer, N (k) die der absoluten H¨aufigkeit und h(k) die der relativen H¨aufigkeit. Bei der Klasseneinteilung werden Ausreißer (vgl. Abschnitt 19), d. h. Messwerte mit großer Abweichung vom Sollwert, nicht ber¨ ucksichtigt. 9.1 Gaußsche Glockenkurven 77 k Klassenbreite N (k) h(k) 1 90.5 < x ≤ 91.5 0 0.00 2 91.5 < x ≤ 92.5 0 0.00 3 92.5 < x ≤ 93.5 4 0.02 4 93.5 < x ≤ 94.5 1 0.01 5 94.5 < x ≤ 95.5 6 0.03 6 95.5 < x ≤ 96.5 14 0.07 7 96.5 < x ≤ 97.5 17 0.09 8 97.5 < x ≤ 98.5 21 0.11 9 98.5 < x ≤ 99.5 22 0.11 10 99.5 < x ≤ 100.5 30 0.15 11 100.5 < x ≤ 101.5 22 0.11 12 101.5 < x ≤ 102.5 22 0.11 13 102.5 < x ≤ 103.5 14 0.07 14 103.5 < x ≤ 104.5 9 0.05 15 104.5 < x ≤ 105.5 8 0.04 16 105.5 < x ≤ 106.5 2 0.01 17 106.5 < x ≤ 107.5 4 0.02 18 107.5 < x ≤ 108.5 0 0.00 19 108.5 < x ≤ 109.5 0 0.00 In der nachfolgende Skizze ist das zugeh¨orige Histogramm mit der passenden Glockenkurve eingezeichnet. H¨aufigkeiten 100 5 Bild 9.4 Dabei wurden die Parameter μ und σ mit Hilfe der Beziehung 1 μ ≈ ¯ x = 1 200 · 200 ∑ i=1 x i , x i : Messwerte σ 2 ≈ s 2 = 1 199 200 ∑ i=1 (x i − ¯ x) 2 gesch¨atzt. Die ¨ Ubereinstimmung des Histogramms mit der Glockenkurve h¨angt auch von der gew¨ahlten Klasseneinteilung ab. Die beiden folgenden Skizzen beziehen sich auf dieselbe Datenmenge, lediglich die Zahl der Klassen wurde ver¨andert. H¨aufigkeiten 100 10 Bild 9.5 H¨aufigkeiten 100 10 Bild 9.6 1 Auf die Sch¨atzung der Parameter μ und σ aus einer Stichprobe werden wir im Abschnitt 12 ausf¨ uhrlicher zur¨ uckkommen. 78 9 Normalverteilung 9.2 Standardnormalverteilung Falls der Umriss des Histogramms einer Stichprobe { x 1 , x 2 , . . . , x n } ¨ Ahnlichkeit mit einer Gaußschen Glockenkurve hat, ist es sinnvoll, die entsprechenden Messwerte durch eine lineare Transformation zu standardisieren. Auch nicht normalverteilte Stichproben werden h¨aufig standardisiert. Dazu berechnen wir zun¨achst das arithmetische Mittel ¯ x: ¯ x = 1 n n ∑ k=1 x k . Als Maß f¨ ur die Streuung der Stichprobe um den Mittelwert bestimmen wir s 2 = 1 n − 1 n ∑ k=1 (x k − ¯ x) 2 = 1 n − 1 [ n ∑ k=1 x 2 k − n¯ x 2 ] . Durch die lineare Transformation z i = x i − ¯ x s geht die Stichprobe { x 1 , x 2 , . . . , x n } ¨ uber in die Stichprobe { z 1 , z 2 , . . . , z n } mit den Kenngr¨oßen: Mittelwert ¯ z = 0 Varianz s 2 z = 1 Standardabweichung s z = 1 Das Histogramm einer so standardisierten Stichprobe wird durch die zu den Parameterwerten μ = 0 und σ = 1 geh¨orenden Glockenkurve approximiert. ϕ(x) = 1 √ 2π · e − x 2 2 Die in nebenstehender Abbildung skizzierte Kurve besitzt die y-Achse als Symmetrie- Achse. Die Funktion ϕ(x) heißt die Dichte der Standard-Normalverteilung. 0 . 5 − 3 − 2 − 1 1 2 3 x ϕ(x) Bild 9.7 Beispiel 9.1: F¨ ur die Messwerte auf Seite 76 erhalten wir als Mittelwert und Varianz: ¯ x = 99.94447326 s = 3.10685110 Mittels der Transformation z i = x i − ¯ x s erh¨alt man die standardisierten Daten: 9.2 Standardnormalverteilung 79 -0.205 -1.097 -1.300 -0.387 0.629 0.345 -0.501 -0.304 -0.209 0.469 -0.141 1.010 0.879 -0.535 -0.984 0.297 -0.924 0.879 -1.352 0.748 1.461 -0.952 -1.562 0.605 -0.751 0.437 -0.236 0.013 -1.405 0.280 -0.131 -0.092 -1.299 0.332 0.247 -1.522 0.094 -0.072 -0.166 -1.414 -0.696 -0.547 -0.477 -3.593 -0.110 -2.083 1.278 0.925 1.526 0.424 -2.202 -0.612 1.001 1.508 0.970 0.766 -1.121 -0.027 -1.708 0.527 1.007 -0.122 0.081 -0.051 1.321 2.644 1.132 0.502 -0.009 -0.554 0.137 -1.696 1.572 0.022 -0.625 -0.490 1.271 -0.256 1.613 -1.383 -1.694 0.433 0.732 0.698 0.493 -0.470 -0.851 0.145 0.607 -2.325 -0.697 -0.455 -0.612 -0.291 -0.007 2.205 -0.540 -0.356 2.043 0.149 -0.764 -1.397 -0.354 -0.925 0.944 -0.255 -0.989 1.111 -0.763 1.881 -0.044 1.646 0.533 -0.220 -1.118 -0.905 -0.386 -0.882 -0.958 - 0.341 -1.773 -0.237 -2.206 0.081 0.460 -0.252 -0.550 0.263 1.757 0.678 -1.165 0.562 -0.174 0.076 1.585 0.111 2.334 0.406 0.126 0.419 1.444 -1.511 -1.164 -1.368 -0.114 0.208 -0.298 -0.881 2.123 1.117 0.493 -0.870 1.309 0.611 -1.223 0.233 1.740 0.186 0.019 0.018 -0.858 -0.093 -0.902 0.828 0.095 -0.912 -0.195 -0.579 0.741 -0.633 2.220 0.777 0.869 0.494 -1.014 0.425 0.303 1.286 -0.193 0.574 -1.052 0.767 -0.024 0.559 0.841 -0.587 -1.417 -0.653 -0.033 1.284 0.601 -0.709 -0.402 -0.097 0.792 1.283 0.689 0.705 0.335 1.236 Zur Visualisierung muss f¨ ur die zweihundert Werte wieder eine Klasseneinteilung vorgenommen werden. Diesmal w¨ahlen wir eine gr¨obere Einteilung: k Klassenbreite N (k) h(k) 1 − 3.25 < x ≤ − 2.75 0 0.00 2 − 2.75 < x ≤ − 2.25 1 0.01 3 − 2.25 < x ≤ − 1.75 4 0.02 4 − 1.75 < x ≤ − 1.25 15 0.08 5 − 1.25 < x ≤ − 0.75 25 0.13 6 − 0.75 < x ≤ − 0.25 32 0.16 7 − 0.25 < x ≤ 0.25 43 0.22 8 0.25 < x ≤ 0.75 36 0.18 9 0.75 < x ≤ 1.25 19 0.10 10 1.25 < x ≤ 1.75 16 0.08 11 1.75 < x ≤ 2.25 6 0.03 12 2.25 < x ≤ 2.75 2 0.01 13 2.75 < x ≤ 3.25 0 0.00 Im nachfolgenden Bild ist das Histogramm dieser transformierten Stichprobe skizziert. 0.5 -3 -2 -1 1 2 3 Bild 9.8 Der Umriss des Histogramms dieser standardisierten Stichprobe ist der Glockenkurve der standardisierten Normalverteilung sehr ¨ahnlich. 80 9 Normalverteilung 9.3 Verteilungsfunktion der N (0 , 1) -Normalverteilung Die Variable der Gaußschen Glockenkurve zu den Parametern μ = 0 und σ = 1 bezeichnet man ¨ ublicherweise mit z. ϕ(z) = 1 √ 2π · e − z 2 2 Diese Kurve schließt mit der z-Achse eine Fl¨ache mit Inhalt 1 ein. Die Inhalte der Teilfl¨achen unter der Kurve ϕ(z) k¨onnen als Wahrscheinlichkeiten gedeutet werden. Das Integral Φ(z) = z ∫ −∞ ϕ(t) dt = 1 √ 2π · z ∫ −∞ e − t 2 2 dt gibt die Wahrscheinlichkeit daf¨ ur an, dass die Zufallsvariable Z bei einer Versuchsdurchf¨ uhrung Werte kleiner als z annimmt. 0 . 5 − 3 − 2 − 1 1 2 3 z ϕ(z) Φ(z) Bild 9.9 Diese Stammfunktion Φ(z) heißt Verteilungsfunktion. Φ(z) ist eine streng monoton wachsende Funktion. F¨ ur kleine Werte, z. B. z = − 5, ist die Verteilungsfunktion fast null, w¨ahrend sie f¨ ur große Werte z ungef¨ahr gleich eins ist. Das Integral ∫ ϕ(t)dt l¨asst sich nicht mittels elementarer Funktionen darstellen, sondern muss numerisch berechnet und dann tabelliert werden. Komfortable Taschenrechner und alle einschl¨agigen Software-Pakete stellen diese Zahlenwerte ebenfalls zur Verf¨ ugung. Wegen der Symmetrie der Dichtefunktion gen¨ ugt es, nur die H¨alfte der Werte von Φ(z) f¨ ur z ≥ 0 zu tabellieren (siehe Anhang D). F¨ ur z < 0 gilt: Φ(z) = 1 − Φ( − z) . 0 . 5 − z z Φ(z) 1 − Φ( − z) Die Wahrscheinlichkeit, dass die Zufallsvariable Z Werte zwischen a und b annimmt, ist gleich dem Inhalt der Fl¨ache unter ϕ(z) zwischen den Grenzen a und b. Mit Hilfe der Verteilungsfunktion Φ(z) erh¨alt man f¨ ur diese Wahrscheinlichkeit: a b Φ(b) − Φ(a) 0 . 5 Bild 9.10 P (a ≤ Z ≤ b) = b ∫ b ϕ(t) dt = 1 √ 2π · b ∫ a e − t 2 2 dt = Φ(b) − Φ(a) L¨asst man den Abstand zwischen a und b gegen null gehen, so strebt der zugeh¨orige 9.4 N (μ, σ 2 )-Verteilung 81 Fl¨acheninhalt gegen null. Dies bedeutet, dass die Wahrscheinlichkeit daf¨ ur, dass die Zufallsvariable Z einen Wert c annimmt, gleich null 2 ist: P ( Z = c) = 0 . Aus diesem Grund spielt es keine Rolle, ob bei den zu berechnenden Wahrscheinlichkeiten f¨ ur Intervalle die Grenzen mitgez¨ahlt oder weggelassen werden. Bei jeder einzelnen Versuchsdurchf¨ uhrung nimmt die Zufallsvariable Z irgend einen Wert an. Dieser Wert besitzt die Wahrscheinlichkeit null. Bei einem stetigen Merkmal kann ein vom unm¨oglichen Ereignis verschiedenes Ereignis die Wahrscheinlichkeit null besitzen. Dieser Sachverhalt gibt h¨aufig Anlass zu falschen Schlussfolgerungen: jeder Punkt der z- Achse besitzt die Wahrscheinlichkeit null, die Integration ¨ uber diese Wahrscheinlichkeiten ergibt aber den Wert eins. Die Werte der Dichtefunktion selbst stellen keine Wahrscheinlichkeiten dar. Die Wahrscheinlichkeiten ergeben sich als Fl¨ache zwischen Dichtefunktion ϕ(z) und z-Achse. Falls die zwei Werte a und b nahe beieinander liegen, gilt die N¨aherung P (a ≤ Z ≤ b) ≈ ϕ(a) · (b − a) 0 . 5 a b P (a ≤ Z ≤ b) ϕ(z) z Bild 9.11 9.4 N ( μ, σ 2 ) -Verteilung Die allgemeine Normalverteilung ist durch Erwartungswert μ und Varianz σ 2 bestimmt. Eine Zufallsvariable X , welche diesem Verteilungsgesetz gen¨ ugt, heißt N (μ, σ 2 )-verteilt. Werte der Zufallsvariablen X werden mit x bezeichnet. Mittels der linearen Transformation Z = X − μ σ erh¨alt man wieder eine Standard-Normalverteilung. Die Verteilungsfunktion von X lautet damit entsprechend: F (x) = P ( X ≤ x) = P ( X − μ σ ≤ x − μ σ ) = Φ ( x − μ σ ) . Dabei ist Φ die Verteilungsfunktion der Standard-Normalverteilung. Der Funktionswert darf also nicht an der Stelle x, sondern muss an der transformierten Stelle z = x − μ σ abgelesen werden. Entsprechend bestimmt sich die Wahrscheinlichkeit f¨ ur Intervalle: P (a ≤ X ≤ b) = P ( a − μ σ ≤ X − μ σ ≤ b − μ σ ) = Φ ( a − μ σ ) − Φ ( b − μ σ ) . 2 Vergleiche die ¨ Uberlegungen beim geometrischen Wahrscheinlichkeitsbegriff (siehe Seite 55). 82 9 Normalverteilung Beispiel 9.2: Der Intelligenzquotient einer bestimmten Bev¨olkerungsschicht sei n¨aherungsweise normalverteilt mit dem Erwartungswert μ = 100 und der Standardabweichung σ = 10. Eine zuf¨allig herausgegriffene Person werde getestet. Mit welcher Wahrscheinlichkeit liegt der gemessene Intelligenzquotient zwischen 96 und 115? P (96 ≤ X ≤ 115) = P ( 96 − 100 10 ≤ Z ≤ 115 − 100 10 ) = Φ(1.5) − Φ( − 0.4) = Φ(1.5) − [1 − Φ(0.4)] = 0.9332 + 0.6554 − 1 = 0.5886 Zwei-Sigma-Regel Wir bestimmen die Wahrscheinlichkeit f¨ ur die Abweichung einer normalverteilten Zufallsvariablen X vom Erwartungswert μ um h¨ochstens 2σ. P (μ − 2σ ≤ X ≤ μ + 2σ) = P ( μ − 2σ − μ σ ≤ Z ≤ μ + 2σ − μ σ ) = P ( − 2 ≤ Z ≤ 2) = Φ(2) − Φ( − 2) = Φ(2) − [1 − Φ(2)] = 2Φ(2) − 1 = 0.9544 Eine Abweichung um mehr als 2σ wird also bei einem großen Stichprobenumfang in etwa 4.56 % der F¨alle vorkommen. Drei-Sigma-Regel Analog bestimmen wir die Wahrscheinlichkeit f¨ ur die Abweichung einer normalverteilten Zufallsvariablen X vom Erwartungswert μ um h¨ochstens 3σ. P (μ − 3σ ≤ X ≤ μ + 3σ) = 2Φ(3) − 1 = 0.9974 Damit d¨ urfte eine Abweichung um mehr als 3σ bei einem großen Stichprobenumfang in etwa 0.26 % der F¨alle vorkommen. Sch¨atzwerte f¨ ur Erwartungswert und Varianz Man kann davon ausgehen, dass viele in der Praxis vorkommenden Zufallsvariablen n¨aherungsweise normalverteilt sind. Die exakte Form der Dichtefunktion wird aber erst durch Kenntnis des Erwartungswerts μ und der Varianz σ 2 eindeutig festgelegt. Diese Parameter sind jedoch h¨aufig unbekannt. In einem solchen Fall sch¨atzt man diese Parameter aus den Daten der Stichprobe nach der Regel: μ ≈ ¯ x = 1 n · n ∑ i=1 x i σ 2 ≈ s 2 = 1 n − 1 · n ∑ i=1 (x i − ¯ x) 2 9.4 N (μ, σ 2 )-Verteilung 83 Summen unabh¨angiger Normalverteilungen Summen unabh¨angiger normalverteilter Zufallsvariablen sind wieder normalverteilt. Der Erwartungswert der Summe ist gleich der Summe der Erwartungswerte, ihre Varianz ist gleich der Summe der Varianzen. Summen identisch verteilter unabh¨angiger Zufallsvariablen F¨ ur die Summe stochastisch unabh¨angiger - nicht notwendigerweise normalverteilter - Zufallsvariablen mit jeweils identischer Verteilungsfunktion kann auch n¨aherungsweise eine Normalverteilung angenommen werden. Die Zufallsvariablen X 1 , X 2 , . . . , X n seien stochastisch unabh¨angig und besitzen alle den gleichen Erwartungswert μ und die gleiche Varianz σ 2 . Dann ist f¨ ur große n (Faustregel: n > 30) die Summe S n = X 1 + X 2 + X 3 + . . . + X n n¨aherungsweise normalverteilt mit dem Erwartungswert n · μ und der Varianz n · σ 2 . Damit gilt f¨ ur die Verteilungsfunktion der Summenvariablen S n die N¨aherung F (x) = P ( S n ≤ x) ≈ Φ ( x − nμ √ nσ ) Beispiel 9.3: Augensumme von tausend idealen W¨ urfeln Mit einem W¨ urfel werde 1000-mal unabh¨angig geworfen. F¨ ur den Einzelwurf gilt: E( X ) = 1 6 · (1 + 2 + 3 + 4 + 5 + 6) = 3.5 V ar( X ) = 1 6 · (1 2 + 2 2 + 3 2 + 4 2 + 5 2 + 6 2 ) − 3.5 2 = 35 12 Die Zufallsvariable der Augensumme von 1000 W¨ urfeln ist ungef¨ahr normalverteilt mit dem Erwartungswert μ = 1000 · 3.5 = 3500 und der Varianz σ 2 = 1000 · 35 12 = 8750 3 (vgl. Skizzen Seite 59, 60). Die Augensumme schwankt also um den Erwartungswert 3500. Gesucht ist beispielsweise die Wahrscheinlichkeit daf¨ ur, dass die Zufallsvariable Augensumme einen Wert zwischen 3400 und 3600 (Grenzen eingeschlossen) annimmt. ¨ Uber die standardisierte Normalverteilung erh¨alt man: P (3400 ≤ X ≤ 3600) = P ( 3400 − 3500 √ 8750 3 ≤ Z ≤ 3600 − 3500 √ 8750 3 ) = Φ(1.85) − Φ( − 1.85) = 2 · Φ(1.85) − 1 = 0.9356 In ungef¨ahr 93.56 % der F¨alle wird die Augensumme zwischen diesen beiden Grenzen liegen. 84 9 Normalverteilung 9.5 Approximation der Binomialverteilung durch die Normalverteilung Die Zufallsvariable X n beschreibe die Anzahl der Erfolge bei n-maliger Durchf¨ uhrung eines Bernoulli-Versuchs, d. h. X n sei binomialverteilt. Die Bestimmung der Binomialkoeffizienten und Berechnung der zugeh¨origen Verteilungsfunktion ist recht m¨ uhsam. F¨ ur kleine Einzelwahrscheinlichkeiten und große n haben wir zur Approximation die Poisson-Verteilung nutzen k¨onnen. Im anderen Fall wird das Diagramm der Einzelwahrscheinlichkeiten einer Gaußschen Glockenkurve immer ¨ahnlicher (siehe Seite 65). Allgemein gilt: A sei ein beliebiges Ereignis mit der Einzelwahrscheinlichkeit p = p(A). Das Zufallsexperiment werde n-mal unabh¨angig voneinander durchgef¨ uhrt. Die Zufallvariable X n beschreibe die Anzahl derjenigen Versuche, bei denen A eintritt, d. h. X n ist binomialverteilt mit den Parametern n und p: P ( X n = k) = ( n k ) · p k · (1 − p) n − k F¨ ur große n (Faustregel: n · p · (1 − p) > 9) kann diese Binomialverteilung durch eine Normalverteilung mit dem Erwartungswert μ = n · p und der Varianz σ 2 = n · p · (1 − p) approximiert werden. Zusammen mit dem Korrekturterm ± 0.5 (vgl. Bild 9.12) gelten mit der Standardnormalverteilung Φ die N¨aherungen: Binomialverteilung n = 60; p = 0 . 2 15 16 17 Bild 9.12 P ( X n = k) ≈ Φ ( k − n · p + 0.5 √ n · p · (1 − p) ) − Φ ( k − n · p − 0.5 √ n · p · (1 − p) ) P (k 1 ≤ X n ≤ k 2 ) ≈ Φ ( k 2 − n · p + 0.5 √ n · p · (1 − p) ) − Φ ( k 1 − n · p − 0.5 √ n · p · (1 − p) ) Beispiel 9.4: Ein Medikament besitze bei allen an einer bestimmten Krankheit leidenden Personen unabh¨angig voneinander die konstante Heilungswahrscheinlichkeit p = 0.8. Das Medikament werde 100 zuf¨allig ausgew¨ahlten Personen verabreicht. Mit welcher Wahrscheinlichkeit werden mehr als 75 Personen geheilt? Die Zufallsvariable X 100 beschreibe die Anzahl derjenigen Patienten, welche durch dieses Medikament geheilt werden. Diese binomialverteilte Zufallsvariable kann angen¨ahert werden durch eine Normalverteilung mit dem Erwartungswert μ = 100 · 0.8 = 80 und der 9.6 Lognormalverteilung 85 Varianz σ 2 = 100 · 0.8 · 0.2 = 16. Damit ergibt sich f¨ ur die gesuchte Wahrscheinlichkeit: P ( X 100 > 75) = 1 − P ( X 100 ≤ 75) = 1 − Φ ( 75 − 80 + 0.5 4 ) = Φ(1.125) = 0.8698 9.6 Lognormalverteilung Wir sind zum Modell der Normalverteilung gekommen, wenn wir f¨ ur die Zufallsvariable viele voneinander unabh¨angige Elementarfehler unterstellen, die additiv wirken. Hat man statt dessen eine Situation vorliegen, in der sich zuf¨allige Einfl¨ usse multiplizieren, so erreicht man durch Logarithmieren wieder einen additiven Zusammenhang. Das Modell multiplikativer Einfl¨ usse ist h¨aufig bei biologischen und wirtschaftswissenschaftlichen Fragestellungen n¨aherungsweise erf¨ ullt. Die logarithmierten Werte passen dann wieder zu einer Normalverteilung N (μ, σ 2 ). Legt man die urspr¨ ungliche Daten 3 zugrunde, dann spricht man von einer Lognormalverteilung. F¨ ur deren Verteilungsfunktion erh¨alt man: P ( X ≤ x) = F (x) = 1 √ 2πσ ∫ ln x −∞ e − 12 ( t − μ σ ) 2 dt F¨ ur die Dichte ergibt sich durch Differenzieren: f(x) = 1 √ 2πσ e − 12 ( ln x − μ σ ) 2 · 1 x Die Verteilung ist schief und ist nur auf der positiven Achse ungleich null. Nebenstehend sind einige Dichtekurven der Lognormalverteilung f¨ ur μ = 0 und verschiedene Standardabweichungen skizziert. Das bedeutet, dass der Schwerpunkt der Datenmenge nach der Transformation y = ln x bei y = 0 liegt, im Originalbereich damit bei x ≈ 1. Je gr¨oßer die Standardabweichung wird, desto schiefer und langschw¨anziger wird die Verteilungsstruktur. σ = 0 . 5 σ = 0 . 75 σ = 1 . 5 1 0 . 5 Bild 9.13 Vorsicht: Der Erwartungswert μ x der urspr¨ unglichen Verteilung ist nicht der r¨ ucktransformierte Erwartungswert μ, sondern etwas gr¨oßer. Genaues Nachrechnen 4 ergibt: μ x = e μ · e σ 2 2 σ 2 x = e 2μ+σ 2 · ( e σ 2 − 1 ) 3 Nur Daten mit x i > 0 machen Sinn. Sonst muss mit y = ln( x + c ) transformiert werden. 4 z. B. μ x = 1 √ 2 πσ ∞ ∫ 0 x · e − 1 2 ( ln x−μ σ ) 2 · 1 x · dx mit u = ln x − μ σ x = e uσ+μ = 1 √ 2 πσ ∞ ∫ −∞ e − 1 2 u 2 · σ · e uσ+μ du = e μ · e σ 2 2 1 √ 2 π ∞ ∫ −∞ e − 1 2 (u−σ) 2 du ︸ ︷︷ ︸ =1 86 10 Wichtige Pr¨ ufverteilungen 10 Wichtige Pr¨ ufverteilungen Wir interessieren uns hier f¨ ur die Verteilungsstruktur von Pr¨ ufgr¨oßen. Dies sind Stichprobenfunktionen, aus denen die unbekannten Parameter der Verteilungsfunktion gesch¨atzt werden sollen. Ihre Wahrscheinlichkeitsverteilungen bilden die Grundlage f¨ ur die auf diesen Pr¨ ufgr¨oßen beruhenden Tests. Wir wollen stets davon ausgehen, dass die Ausgangsvariablen normalverteilt sind. Die einfachste Stichprobenfunktion ist der arithmetische Mittelwert. Ist die Zufallsvariable X (μ, σ 2 )-normalverteilt 1 , dann ist der Mittelwert einer Stichprobe vom Umfang n x = x 1 + x 2 + . . . + x n n N (μ, σ 2 n )-verteilt, oder die Pr¨ ufgr¨oße z = x − μ σ √ n ist N (0, 1)-verteilt. Bei komplizierteren, d. h. nichtlinearen Stichprobenfunktionen werden diese nicht mehr normalverteilt sein. F¨ ur einige wichtige Problemstellungen werden im Folgenden die zugeh¨origen Verteilungsfunktionen vorgestellt. Dabei verzichten wir auf die explizite Angabe der Verteilungsbzw. Dichtefunktionen, die in jedem Handbuch nachgeschlagen werden k¨onnen, und beschr¨anken uns auf deren graphische Darstellung. 10.1 χ 2 -Verteilung Soll aus einer Stichprobe, die aus einer normalverteilten Grundgesamtheit stammt, die Varianz gesch¨atzt werden, so ergibt sich die Frage nach der Verteilung der Summen von Quadraten normalverteilter Zufallsvariablen. Es gilt: Sind X 1 , X 2 , . . . , X n unabh¨angige N (0, 1)-verteilte Zufallsvariable, dann heißt die Verteilung der Quadratsummen χ 2 = X 2 1 + X 2 2 + . . . + X 2 n χ 2 -Verteilung mit dem Freiheitsgrad n (lies: Chi-Quadrat-Verteilung). F χ 2 n (x) = P ( X 2 1 + X 2 2 + . . . + X 2 n ≤ x ) Die χ 2 -Verteilung ist eine einseitige Verteilung und nur f¨ ur x ≥ 0 sinnvoll. 1 Auch wenn die urspr¨ ungliche Zufallsvariable nicht normalverteilt ist, so kann f¨ ur den arithmetische Mittelwert n¨aherungsweise Normalverteilung angenommen werden. 10.1 χ 2 -Verteilung 87 F¨ ur Erwartungswert und Varianz dieser Verteilung ergibt sich E(χ 2 ) = n V ar(χ 2 ) = 2n F¨ ur einige n und β sind im Anhang D die Quantile vertafelt: χ 2 n; β = F − 1 χ 2 n (β) n = 1 ) 2 0 . 5 0 . 1 10 20 n = 2 n = 3 n = 6 n = 10 n = 15 Dichte der χ 2 -Verteilung f¨ ur verschiedene Freiheitsgrade Bild 10.1 Die wichtigste Anwendung der χ 2 -Verteilung ist der folgende Sachverhalt: Es sei x 1 , x 2 , . . . , x n eine Stichprobe aus einer normalverteilten 3 Grundgesamtheit mit der unbekannten Varianz σ 2 , so ist s 2 = 1 n − 1 n ∑ i=1 (x i − x) 2 , mit x = 1 n n ∑ i=1 x i , eine Sch¨atzfunktion f¨ ur die Varianz σ 2 , und der Quotient (n − 1) · s 2 σ 2 ist χ 2 -verteilt mit n − 1 Freiheitsgraden. 2 Die Dichtefunktion ist bei x = 0 singul¨ar; das Integral existiert jedoch im uneigentlichen Sinne. 3 Ist der Erwartungswert μ bekannt, so ist ˆ s 2 = 1 n n ∑ i=1 ( x i − μ ) 2 eine Sch¨atzfunktion f¨ ur σ 2 und der Quotient n ˆ s 2 σ 2 ist χ 2 -verteilt mit n Freiheitsgraden. 88 10 Wichtige Pr¨ ufverteilungen 10.2 Student-Verteilung Es sei x = x 1 + x 2 + . . . + x n n die Sch¨atzfunktion f¨ ur den Erwartungswert einer normalverteilten Grundgesamtheit. Ist die Varianz der Grundgesamtheit σ 2 nicht bekannt, so l¨asst sich die N (0, 1)-verteilte Pr¨ ufgr¨oße z = x − μ σn nicht bilden. Die Varianz muss dann gesch¨atzt werden durch s 2 = 1 n − 1 n ∑ i=1 (x i − x) 2 , mit x = 1 n n ∑ i=1 x i . Damit stehen auch im Nenner der Pr¨ ufgr¨oße Zufallsvariablen, d. h., der Zusammenhang zwischen X und Z ist nicht mehr linear. Der Quotient x − μ s √ n gehorcht nun nicht mehr der Normalverteilung, sondern der Student-Verteilung mit n − 1 Freiheitsgraden. Sie hat eine ¨ahnliche Gestalt wie die N (0, 1)-Verteilung. Da auch der Nenner unscharf ist, f¨allt ihre Dichte etwas breiter aus; der Statistiker sagt dazu langschw¨anzig. Je kleiner n, desto langschw¨anziger ist die Verteilung. Diese Verteilung ist wie die N (0, 1)-Verteilung symmetrisch zum Nullpunkt und besitzt damit den Erwartungswert 0. F¨ ur die Varianz der Student-Verteilung 4 ergibt sich σ 2 = n n − 2 F¨ ur einige n und β sind im Anhang D die Quantile vertafelt: t n; β = F − 1 t n (β) Analog zur Normalverteilung gilt wegen der Symmetrie: t n; β = − t n; 1 − β Die Student-Verteilung, auch einfach t-Verteilung genannt, erm¨oglicht es nun, bei einer normalverteilten Grundgesamtheit aus einer Stichprobe auf den Erwartungswert zu schließen, auch wenn die Varianz nicht bekannt ist. F¨ ur große n strebt die Student-Verteilung gegen die Normalverteilung. F¨ ur n ≥ 100 kann bedenkenlos die Normalverteilung benutzt werden. 4 Im Vergleich zur Normalverteilung besitzt man weniger Information und dies f¨ uhrt zu einer gr¨oßeren Streuung. 10.3 F -Verteilung 89 0.1 0.5 1 x Dichten der Student-Verteilung n = 1 n = 2 n = 3 n = 4 n = 8 N (0 , 1) 10.3 F -Verteilung Um die Varianzen zweier voneinander unabh¨angiger Stichproben testen zu k¨onnen, ben¨otigen wir Aufschluss ¨ uber die Verteilungsfunktion des Quotienten zweier χ 2 -verteilter Zufallsvariablen. Die Grundlage dazu bildet die Fishersche F -Verteilung. X 2 sei eine χ 2 -verteilte Zufallsvariable vom Freiheitsgrad m; Y 2 eine davon unabh¨angige χ 2 -verteilte Zufallsvariable mit dem Freiheitsgrad n. Dann heißt die Verteilung des Quotienten X 2 m Y 2 n F -Verteilung mit den Freiheitsgraden (m; n), kurz F m,n . F¨ ur Erwartungswert und Varianz ergeben sich: μ = n n − 2 , n > 2 ; σ 2 = 2n 2 (n + m − 2) m(n − 2) 2 (n − 4) , n > 4 . Die F m,n -Verteilung ist wieder nur f¨ ur positive Argumente sinnvoll. F¨ ur große n wird der Nenner der Zufallsvariablen nahezu konstant. Die F m,n -Verteilung geht daher f¨ ur n → ∞ in die 1 m · χ 2 m -Verteilung ¨ uber. 90 10 Wichtige Pr¨ ufverteilungen (8, 10) (4, 10) (4, 2) (8, 30) 1 2 0 . 5 Dichten der F -Verteilung 1 (20, 15) Die Beziehungen der F m,n -Verteilung zu den anderen beiden Pr¨ ufverteilungen und zur Standardnormalverteilung sind einfach und ¨ ubersichtlich. Es sei z : standardnormalverteilt N (0, 1) t n : Student-verteilt mit Freiheitsgrad n χ 2 m : χ 2 -verteilt mit Freiheitsgrad m Dann erh¨alt man die folgende Zusammenh¨ange: F 1; ∞ : Verteilung von z 2 z = √ F 1; ∞ F 1; n : Verteilung von t 2 n bzw. t n = √ F 1; n F m; ∞ : Verteilung von χ 2 m / m χ 2 m = m · F m; ∞ F¨ ur einige (m, n) und β sind im Anhang D die Quantile vertafelt: F m,n; β = F − 1 m,n (β) Geht man zum Kehrwert der Pr¨ ufgr¨oße ¨ uber, so vertauschen sich n und m sowie β und 1 − β. Beim Nachschlagen macht man sich die folgende Beziehung zu Nutze: F m,n; β = 1 F n,m; 1 − β . 91 11 Stichprobentheorie Die beurteilende Statistik m¨ochte aus Teilerhebungen (Stichproben) weiterreichende Aussagen ¨ uber die gr¨oßeren Grundgesamtheiten machen. Damit eine solche Ausage ¨ uberhaupt m¨oglich wird, m¨ ussen bestimmte Bedingungen an die Stichprobenentnahme erf¨ ullt sein. Man sagt dann, es handle sich um eine repr¨asentative Stichprobe. Darunter versteht man die Hoffnung, dass in der repr¨asentativen Stichprobe ungef¨ahr dieselben Verh¨altnisse herrschen wie in der Grundgesamtheit. 11.1 Vorgehensweise bei statistischen Verfahren a) Formulierung des Ziels der statistischen Erhebung • Sch¨atzung einer Wahrscheinlichkeit • Sch¨atzung eines unbekannten Parameters wie Erwartungswert, Varianz • Signifikanztests - eine gewisse statistische Aussage soll best¨atigt oder widerlegt werden b) Stichprobenentnahme Korrekte Entnahme einer repr¨asentativen Stichprobe; Festlegung des minimalen Stichprobenumfangs c) Anwendung eines geeigneten statistischen Verfahrens Auswertung des Zahlenmaterials muss mit dem richtigen Verfahren durchgef¨ uhrt werden. Dazu sind Kenntnisse ¨ uber die Verteilungsstruktur der Zufallsvariablen notwendig. d) Interpretation der gewonnenen Ergebnisse Zur richtigen Interpretation sollte man die Grenzen des im dritten Schritt benutzten Verfahrens kennen. Oft werden falsche kausale Ursachen in die Ergebnisse hineininterpretiert. Wegen der vielen Fehlerquellen, die bei statistischen Auswertungen m¨oglich sind, muss leider davon ausgegangen werden, dass sehr viele statistische Aussagen falsch sind oder falsch interpretiert werden. Skeptische Fachleute sch¨atzen den Anteil auf ¨ uber 75 %. 92 11 Stichprobentheorie 11.2 Stichproben bei endlichen Grundgesamtheiten Eine absolut sichere statistische Aussage erh¨alt man nur durch eine Totalerhebung. Bei einer Teilerhebung ist der Stichprobenumfang von der gew¨ unschten G¨ ute der Aussage abh¨angig. Diese h¨angt im Allgemeinen von den Folgen einer Fehlentscheidung ab. Das Problem der Stichprobenentnahme ist bei konkreten Problemstellungen nicht zu untersch¨atzen. Bei der Auswahl darf kein Element bevorzugt werden. Eine praktische Verwirklichung dieses Auswahlprinzips ist manchmal gar nicht so einfach. Am besten geschieht dies dadurch, dass man alle Elemente durchnummeriert und dann die Auswahl mittels Zufallszahlen durchf¨ uhrt. Zufallszahlen sind als Tafeln oder heute bequemer mittels eines Zufallszahlengenerators auf dem Rechner erzeugbar (Pseudozufallszahlen). Die meisten Software-Pakete stellen heute Zufallszahlen f¨ ur alle ¨ ublichen Verteilungsstrukturen zur Verf¨ ugung. Ansonsten lassen sich aus Standard-Zufallszahlen (gleichverteilt zwischen 0 und 1) alle gew¨ unschten Verteilungen erzeugen. Manchmal benutzt man sogenannte geschichtete Stichproben. Dazu wird die Grundgesamtheit in verschiedene Schichten (Teilmengen) eingeteilt. Aus jeder dieser Schichten werden dann zuf¨allig gleich viele Elemente ausgew¨ahlt (z. B. f¨ ur Wahlprognosen). 11.3 Stichprobenwerte als Realisierung von Zufallsvariablen Die relative H¨aufigkeit als Realisierung einer Zufallsvariablen Zur Sch¨atzung der unbekannten Wahrscheinlichkeit P (A) eines Ereignisses A wird das entsprechende Zufallsexperiment n-mal unter den gleichen Bedingungen durchgef¨ uhrt. Die relative H¨aufigkeit wird als Sch¨atzwert f¨ ur die unbekannte Wahrscheinlichkeit benutzt. Bei jedem Versuchsschritt notiert man den Stichprobenwert 1 oder 0, je nachdem, ob A eingetreten ist oder nicht. Dies ergibt eine Stichprobe vom Umfang n mit lauter Nullen und Einsen. Jeder Stichprobenwert kann dabei als Realisierung einer Zufallsvariablen X aufgefasst werden. Die Summe der Stichprobenwerte ergibt die absolute H¨aufigkeit. Auch dieser Zahlenwert ist Realisierung einer Zufallsvariablen. Sie beschreibt die absolute H¨aufigkeit des Ereignisses A in einer unabh¨angigen Versuchsserie vom Umfang n und ist binomialverteilt. Der Stichprobenumfang n und die Wahrscheinlichkeit p = p(A) legen die Verteilung dieser Zufallsvariablen fest. Sie nimmt Werte zwischen 0 und n an. Stichprobenwerte als Realisierung einer Zufallsvariablen Oft ist man daran interessiert, unbekannte Gr¨oßen wie z. B. den Erwartungswert oder die Varianz einer Zufallsvariablen zu sch¨atzen. Aus gezogenen Stichproben x 1 , x 2 , . . . , x n sollen die Parameter der Verteilungsfunktionen bestimmt werden. Daf¨ ur werden in den folgenden Abschnitten Sch¨atzfunktionen und ihre zugeh¨origen Verteilungen angegeben. 93 12 Parametersch¨atzung In diesem Abschnitt sollen f¨ ur Zufallsvariable die unbekannten Parameter der zugeh¨origen Verteilungsfunktion bestimmt werden - so zum Beipiel die unbekannte Wahrscheinlichkeit einer Binomial-Verteilung. Das Problem der Sch¨atzung lautet so: Man hat Daten und ein Modell f¨ ur sie in Form einer parametrischen Verteilungsfamilie - man weiß z. B., dass die Daten normalverteilt sind. Um eine eindeutige Beschreibung der Daten durch ein Modell zu erhalten, m¨ ussen wir die Parameter der Verteilungsfunktion so festlegen, dass sie m¨oglichst gut zu den Daten passen. Aus den Stichprobenwerten wird mittels einer Sch¨atzfunktion der gesuchte Parameter bestimmt. W¨ unschenswerte Eigenschaften dieser Sch¨atzfunktionen a) Der Erwartungswert der Sch¨atzfunktion (Zufallsvariablen) stimmt mit dem zu sch¨atzenden Parameter ¨ uberein. Solche Sch¨atzfunktionen nennt man erwartungstreu. b) Die Varianz der Sch¨atzfunktion (Zufallsvariablen) wird beliebig klein, wenn nur der Stichprobenumfang n groß genug gew¨ahlt wird. Sch¨atzfunktionen mit dieser Eigenschaft nennt man konsistent. Bei großem Stichprobenumfang ist die Streuung der Werte der Zufallsvariablen um den zu sch¨atzenden Parameter meist sehr klein. Das bedeutet aber, dass die meisten der so gewonnenen Sch¨atzwerte gut sind. Selbstverst¨andlich kann und wird manchmal ein Sch¨atzwert auftreten, der schlecht ist, also vom zu sch¨atzenden Parameter stark abweicht. Je gr¨oßer der Stichprobenumfang n ist, umso seltener wird dies jedoch der Fall sein. Das Problematische daran ist jedoch, dass der Statistiker nicht weiß, welcher Sch¨atzwert vom zu sch¨atzenden Parameter sehr stark abweicht; er kennt ja den Parameter nicht. Er weiß nur, dass dies relativ selten auftritt. Im n¨achsten Abschnitt werden wir an Stelle eines Wertes ein ganzes Intervall f¨ ur den gesuchten Parameter bestimmen und die Wahrscheinlichkeit der Abweichung quantifizieren. Zun¨achst betrachten wir einige plausible Sch¨atzfunktionen, die unmittelbar aus den empirischen Begriffsbildungen folgen. Als naheliegendstes Prinzip f¨ ur die Sch¨atzung von Parametern einer Verteilungsfunktion wird man die Kennzahlen der Stichprobe mit den Kennzahlen der Verteilungsfunktion identifizieren (Kennzahlenmethode). Wenn man daf¨ ur den Mittelwert (Erwartungswert) und eventuell zus¨atzlich die Varianz der Stichprobe verwendet, ist diese Methode unter dem Namen Momenten-Methode bekannt. 94 12 Parametersch¨atzung 12.1 Sch¨atzwert f¨ ur eine unbekannte Wahrscheinlichkeit Zur Bestimmung eines Sch¨atzwertes wird das jeweilige Zufallsexperiment unter identischen Bedingungen n-mal durchgef¨ uhrt. Die relative H¨aufigkeit des Ereignisses A wird als Sch¨atzwert f¨ ur die unbekannte Wahrscheinlichkeit p = p(A) benutzt: p ≈ r n (A) Die relative H¨aufigkeit ist eine Realisierung der Zufallsvariablen X . Sie kann jeden der Werte 0; 1 n ; 2 n ; . . . n − 1 n ; 1 annehmen. Die Zufallsvariable der absoluten H¨aufigkeit Y ist binomialverteilt mit den Gr¨oßen Erwartungswert: E( Y ) = n · p Varianz: V ar( Y ) = n · p · (1 − p) Division der absoluten H¨aufigkeit durch den Stichprobenumfang ergibt die relative H¨aufigkeit. Damit gilt f¨ ur X = Y n : Bei jedem Einzelexperiment trete das Ereignis A mit der Wahrscheinlichkeit p ein. Die Zufallsvariable X , welche die relative H¨aufigkeit des Ereignisses A in einer Versuchsserie beschreibt, liefert den Sch¨atzwert f¨ ur Wahrscheinlichkeit: p ≈ r n (A) = relative H¨aufigkeit von A. F¨ ur die Zufallsvariable X gilt: Erwartungswert: E( X ) = p Varianz: V ar( X ) = p · (1 − p) n ≤ 1 4n 1 12.2 Sch¨atzwert f¨ ur den relativen Anteil in einer endlichen Grundgesamtheit Es passt hier das Urnenmodell, wobei eine Urne mit M schwarzen und N − M weißen Kugeln gef¨ ullt ist. Es werden n Kugeln ohne Zur¨ ucklegen gezogen. Die entsprechende Zufallsvariable Y f¨ ur die absolute H¨aufigkeit von schwarz ist dann hypergeometrisch verteilt. 2 1 Es gilt: p (1 − p ) ≤ 1 4 f¨ ur 0 ≤ p ≤ 1 2 Die hypergeometrische Verteilung besitzt ¨ uberraschenderweise denselben Erwartungswert wie die Binomialverteilung. Ihre Varianz ist naturgem¨aß etwas kleiner. Das Weglegen von gezogenen Elementen schr¨ankt die folgende Auswahl ein. 12.3 Sch¨atzwert f¨ ur einen unbekannten Erwartungswert 95 F¨ ur eine solche Zufallsvariable gilt: Erwartungswert: E( Y ) = n · MN ︸︷︷︸ =p Varianz: V ar( Y ) = n · p · (1 − p) · N − n N − 1 Division der absoluten H¨aufigkeit durch den Stichprobenumfang ergibt die relative H¨aufigkeit. Damit gilt f¨ ur X = Y n : Von einer Grundgesamtheit mit N Elementen sollen M St¨ uck die Eigenschaft A besitzen. Aus der Grundgesamtheit werden n St¨ uck ohne Zur¨ ucklegen ausgew¨ahlt. Die Zufallsvariable X beschreibe die relative H¨aufigkeit der Eigenschaft A. Dann besitzt die Zufallvariable X die Kenngr¨oßen: Erwartungswert: E( X ) = MN ︸︷︷︸ =p Varianz: V ar( X ) = p · (1 − p) n · N − n N − 1 Sch¨atzwert f¨ ur den Anteil: p = M N ≈ k n k = Anzahl der St¨ ucke mit der Eigenschaft A in einer Stichprobe vom Umfang n. F¨ ur N n ist der Unterschied zur Binomialverteilung minimal. Die Varianz ist im vorliegenden Fall etwas kleiner als in einer unendlich großen Grundgesamtheit. 12.3 Sch¨atzwert f¨ ur einen unbekannten Erwartungswert Der Erwartungswert einer Zufallsvariablen X sei unbekannt. Zur Bestimmung eines Sch¨atzwertes werde eine n-Stichprobe gezogen: x = (x 1 , x 2 , x 3 , . . . , x n ) . Das Stichprobenmittel 3 x = 1 n · (x 1 + x 2 + x 3 + . . . + x n ) ist die Realisierung einer Zufallsvariablen, die wir mit X bezeichnen. 3 Bei symmetrischen Verteilungen wie z. B. bei der Normalverteilung kann zur Bestimmung des Erwartungswerts μ auch der Median als Sch¨atzfunktion herangezogen werden. 96 12 Parametersch¨atzung Die Zufallsvariable X beschreibe den Mittelwert x = 1 n · (x 1 + x 2 + x 3 + . . . + x n ) einer n-Stichprobe. Diese Zufallsvariable X ist Sch¨atzfunktion f¨ ur den unbekannten Erwartungswert μ mit den Kenngr¨oßen Erwartungswert: E( X ) = μ Varianz: V ar( X ) = V ar( X ) n Dabei ist V ar( X ) die in der Regel unbekannte Varianz der Grundgesamtheit. Sch¨atzwert f¨ ur den Erwartungswert: μ ≈ x 12.4 Sch¨atzwert f¨ ur eine unbekannte Varianz Die unbekannte Varianz σ 2 = V ar( X ) soll gesch¨atzt werden. Dazu ziehen wir wieder eine Zufallsstichprobe x = (x 1 , x 2 , x 3 , . . . , x n ) Als Sch¨atzwert dient die empirische Varianz der Stichprobe 4 s 2 = 1 n − 1 · [ (x 1 − x) 2 + (x 2 − x) 2 + . . . + (x n − x) 2 ] 4 Der Erwartungswert von s 2 bestimmt sich wie folgt: ( n − 1) s 2 = n ∑ i=1 ( x i − x ) 2 = n ∑ i=1 x 2 i − 2 n ∑ i=1 x i x + n ∑ i=1 x 2 = n ∑ i=1 x 2 i − 2 nx · x + nx 2 = n ∑ i=1 x 2 i − nx · x = n ∑ i=1 x 2 i − n · 1 n n ∑ i=1 x i · 1 n n ∑ j=1 x j = n ∑ i=1 x 2 i − 1 n n ∑ i=1 x 2 i − 1 n n ∑ i =j x i x j = n − 1 n n ∑ i=1 x 2 i − 1 n n ∑ i =j x i x j n ∑ i =j besitzt n ( n − 1) Summanden! Betrachten wir die Erwartungswerte der letzten Gleichung, so erh¨alt man wegen der vorausgesetzten stochastischen Unabh¨angigkeit der Paare x i , x j die Beziehung E ( x i · x j ) = E ( x i ) · E ( x j ) = μ 2 ( n − 1) E ( s 2 ) = n − 1 n n ∑ i=1 E ( x 2 i ) − ( n − 1) μ 2 = ( n − 1)[ E ( x 2 i ) − μ 2 ︸ ︷︷ ︸ σ 2 ] E ( s 2 ) = σ 2 12.5 Maximum-Likelihood-Methode 97 Wie der Stichprobenmittelwert x h¨angt auch die Stichprobenvarianz s 2 vom Zufall ab. Sie ist Realisierung einer Zufallsvariablen S 2 . Die Zufallsvariable S 2 beschreibe die empirische Varianz einer Stichprobe. Es gilt: Erwartungswert: E( S 2 ) = σ 2 Die Varianz dieser Zufallsvariablen wird beliebig klein, wenn der Stichprobenumfang groß genug gew¨ahlt wird. Sch¨atzwert f¨ ur eine unbekannte Varianz: σ 2 ≈ s 2 12.5 Maximum-Likelihood-Methode Neben der Kennzahlen-Methode gibt es einen zweiten allgemeinen Grundsatz zur Gewinnung von Sch¨atz-Funktionen: die Maximierung der sogenannten Likelihood 5 . Als Beispiel betrachten wir die geometrische Verteilung. Wenn ein Versuch, der mit der Einzelwahrscheinlichkeit p gelingt, so oft wiederholt wird, bis er schließlich gelingt, so hat die Anzahl der notwendigen Versuche die Verteilung: P ( X = k) = (1 − p) k − 1 · p . Bei einer Stichprobe sei nun beim vierten Mal der Erfolg eingetreten. Welches ist der plausibelste Wert f¨ ur p ? F¨ ur alle m¨oglichen p k¨onnen die Wahrscheinlichkeiten P ( X = 4) berechnet werden: G(p, 4) = (1 − p) 3 · p . F¨ ur z. B. p = 1 2 ist die Wahrscheinlichkeit, genau vier Versuche bis zum Erfolg zu brauchen, G( 1 2 , 4) = 1 16 . F¨ ur p = 1 3 ist die entsprechende Wahrscheinlichkeit G( 1 3 , 4) = 8 81 , also gr¨oßer. Wir sehen daher p = 1 3 als plausibler an als p = 1 2 . Allgemein betrachten wir nun G(p, 4) als Funktion von p. Die Maximum-Likelihood-Methode besteht nun in der Idee, das Maximum von G(p, 4) als den plausibelsten Wert f¨ ur den Parameter p zu betrachten. ∂G(p, 4) ∂p = − 3(1 − p) 2 p + (1 − p) 3 = (1 − p) 2 [1 − 4p] ∂G(p, 4) ∂p = 0 p = 14 ) 6 Betrachten wir die Fragestellung f¨ ur beliebiges k, so ergibt sich als zu maximierende Funktion G(p, k) = (1 − p) k − 1 · p . 5 Dieser Abschnitt ist f¨ ur Leser gedacht, die die Grundbegriffe der Analysis mehrerer Variabler parat haben. 6 F¨ ur 0 ≤ p ≤ 1 besitzt G ( p, 4) bei p = 1 ein Randminimum. 98 12 Parametersch¨atzung Die Ableitung nach p ergibt: ∂G(p, k) ∂p = (1 − k)(1 − p) k − 2 · p + (1 − p) k − 1 = (1 − p) k − 2 · (1 − pk) Aus der Bedingung ∂G ∂p = 0 ergibt sich die Sch¨atzfunktion: p = 1 k . Dieselbe Idee ist auch bei mehreren Beobachtungen anwendbar. F¨ ur eine Stichprobe (k 1 , k 2 , . . . , k n ) einer geometrisch verteilten Zufallsvariablen ist die Wahrscheinlichkeit, dass beim ersten Mal k 1 , beim zweiten Mal k 2 usw. Versuche notwendig waren, als Produkt der Einzelwahrscheinlichkeiten darstellen (Versuchsserien seien voneinander unabh¨angig! ). P ( X = k 1 , X = k 2 , . . . , X = k n ) = G(p, k 1 , k 2 , . . . , k n ) = n ∏ i=1 [ (1 − p) k i − 1 · p ] mit ˜ k = n ∑ i=1 k i : = (1 − p) ˜ k − n · p n F¨ ur die partielle Ableitung nach der Wahrscheinlichkeit p erh¨alt man: ∂G(p, k 1 , . . . , k n ) ∂p = (n − ˜ k)(1 − p) ˜ k − n − 1 · p n +n(1 − p) ˜ k − n · p n − 1 = (1 − p) ˜ k − n − 1 · p n − 1 · [ n − ˜ kp ] Die Nullstelle der partiellen Ableitung ergibt die Sch¨atzfunktion: p = n ˜ k = 1 1 n n ∑ i=1 k i . Nach Abschnitt 7.2 besteht zwischen dem Erwartungswert und dem Parameter p bei der geometrischen Verteilung die Beziehung μ = 1 p . Zur Sch¨atzung des Erwartungswerts h¨atte man wohl auch intuitiv den Kehrwert des arithmetischen Mittelwerts der Beobachtungen benutzt. Analog erh¨alt man eine Sch¨atzfunktion f¨ ur den Parameter λ der Poisson-Verteilung. Ist (k 1 , k 2 , . . . , k n ) eine Stichprobe aus einer Poisson-Verteilung, so ergibt sich als Maximum- Likelihood-Funktion G(λ, k 1 , k 2 , . . . , k n ) = n ∏ i=1 [ λ k i k i ! e − λ ] Zur Rechnung ist h¨aufig die logarithmierte Funktion einfacher. (Die Logarithmus-Funktion ist streng monoton, deshalb bleiben die Extrema erhalten! ) L(λ, k 1 , k 2 , . . . , k n ) = ln [G(λ, k 1 , k 2 , . . . , k n )] = n ∑ i=1 [k i · ln(λ) − ln(k i ! ) − λ] F¨ ur die partielle Ableitung nach λ erh¨alt man: ∂L(λ, k 1 , k 2 , . . . , k n ) ∂λ = n ∑ i=1 ( k i λ − 1 ) = n ∑ i=1 k i λ − n 12.5 Maximum-Likelihood-Methode 99 Aus ∂L ∂λ = 0 erh¨alt man die Sch¨atzfunktion: λ = 1 n n ∑ i=1 k i . Dieses Resultat deckt sich wieder mit der Tatsache, dass nach Abschnitt 7.3 der Erwartungswert bei der Poisson-Verteilung mit dem Parameter λ identisch ist. Bei stetigen Verteilungen treten die Dichten an die Stelle der Einzelwahrscheinlichkeiten. Die zu maximierende Gr¨oße ist das Produkt der Dichtefunktionen f¨ ur die einzelnen Stichprobenwerte. Als Beispiel betrachten wir eine Stichprobe (x 1 , x 2 , . . . , x n ) einer normalverteilten Zufallsvariablen mit unbekannten Parametern μ und σ. Die Maximum-Likelihood- Funktion ergibt sich als Produkt der Dichten an den Stellen x i . G(μ, σ 2 , x 1 , x 2 , . . . , x n ) = n ∏ i=1 e − (x i −μ) 2 2σ 2 √ 2πσ = e − ∑ (x i −μ) 2 2σ 2 (2πσ 2 ) n/ 2 F¨ ur die partielle Ableitung nach dem Parameter μ ergibt sich: ∂G(μ, σ 2 , x 1 , x 2 , . . . , x n ) ∂μ = e − ∑ (x i −μ) 2 2σ 2 (2πσ 2 ) n/ 2 · n ∑ i=1 (x i − μ) σ 2 Als Sch¨atzfunktion erh¨alt man: 0 = n ∑ i=1 (x i − μ) = − nμ + n ∑ i=1 x i μ = 1 n n ∑ i=1 x i Zur Bestimmung einer Sch¨atzfunktion f¨ ur die Varianz setzen wir τ = σ 2 und betrachten die logarithmierte Maximum-Likelihood-Funktion. L(μ, τ, x 1 , x 2 , . . . , x n ) = ln [G(μ, τ, . . .)] = − n2 ln(2π) − n2 ln τ − 1 2τ n ∑ i=1 (x i − μ) 2 Die Nullstellen der beiden partiellen Ableitungen ergeben die Sch¨atzfunktionen: ∂L ∂μ = n ∑ i=1 1 τ (x i − μ) = 0 μ = 1 n n ∑ i=1 x i ∂L ∂τ = − n 2τ + 1 2τ 2 n ∑ i=1 (x i − μ) 2 = 0 τ = σ 2 = 1 n n ∑ i=1 (x i − μ) 2 Die Maximum-Likelihood-Sch¨atzung f¨ ur die Varianz von normalverteilten Zufallsvariablen ist also nicht genau gleich der empirischen Varianz, sondern entspricht ihr nur bis auf den Faktor n n − 1 . Viel wichtiger als die neue Herleitung von bekannten Sch¨atzfunktionen ist die Tatsache, dass das Maximum-Likelihood-Prinzip sehr allgemein anwendbar ist und auch dann zu einer Sch¨atzmethode f¨ uhrt, wenn kein ausgearbeitetes Modell vorliegt. 100 13 Signifikanztests 13 Signifikanztests Die Grundproblematik soll an einem Beispiel zur Produktions¨ uberwachung erkl¨art werden. Beispiel 13.1: Eine Fabrik produziere N¨agel der L¨ange 100 mm. Eine Stichprobe wird der laufenden Produktion entnommen. Mit ihr soll gekl¨art werden, ob sich die Einstellung des Sollwerts μ = 100 ver¨andert hat. Auch bei idealen Bedingungen wird der arithmetische Mittelwert der gemessenen Nagell¨angen nicht genau 100.000 . . . sein. Es ist mit einer nat¨ urlichen Streuung zu rechnen! Liegt der Mittelwert der Stichprobe nahe beim Sollwert, so wird man an der richtigen Einstellung nicht zweifeln. Liegt der Stichprobenwert weit vom Sollwert, so schließt man auf eine fehlerhafte Einstellung. Wie geht man aber mit mittleren Abweichungen um? Sie k¨onnen einmal einer ge¨anderten Sollwerteinstellung geschuldet oder aber auch durch eine nat¨ urliche Streuung begr¨ undet sein. Um diese Unsicherheiten zu quantifizieren m¨ ussen wir Annahmen ¨ uber den zu ¨ uberwachenden Zufallsprozess machen. In der Regel wird man Normalverteilung voraussetzen; zus¨atzlich wollen wir unterstellen, dass die Varianz durch viele gezogene Stichproben bekannt ist und sich diese auch nicht durch eine geringf¨ ugige ¨ Anderung der Sollwerteinstellung ver¨andert. Mit den Vorgaben σ 2 = 4 und Stichprobenzahl n = 10 wollen wir die Nullhypothese H 0 : μ = 100 testen. Dazu legen wir f¨ ur den arithmetischen Mittelwert der Stichprobe die Grenzen 100 ± 1 fest. Liegt der gemessene arithmetische Mittelwert der Stichprobe außerhalb dieses Intervalls, so nehmen wir eine Ver¨anderung der Sollwerteinstellung an. Wir fragen uns, wie groß die Wahrscheinlichkeit f¨ ur einen Fehlalarm ist. Dazu berechnen wir die Wahrscheinlichkeit, dass - verursacht durch nat¨ urliche Streuung - der gemessene Wert innerhalb dieses Intervalls liegt: P 0 (99 ≤ ¯ x 1 0 ≤ 101) = Φ ( 101 − 100 2 √ 10 ) − Φ ( 99 − 100 2 √ 10 ) = 2Φ ( √ 10 2 ) − 1 ≈ 0.8858 Im Umkehrschluss liegen bei unver¨anderter Sollwerteinstellung 11,42% der Stichproben außerhalb des Intervalls [99, 101]. Diese f¨ uhren zu einem ungerechtfertigten Alarm. Man nennt dies einen Fehler erster Art. Diesen Fehler haben wir genau quantifizieren k¨onnen. Das umgekehrte Szenario ist ebenso denkbar. Die Sollwerteinstellung habe sich zu μ = 101, 5 ver¨andert. Bei dem meisten Stichproben werden wir dadurch einen arithmetischen Mittelwert gr¨oßer 101 erhalten. Aber es werden auch Werte kleiner 101 vorkommen und uns zu der Annahme verf¨ uhren, dass alles in Ordnung ist. Dies geschieht mit der Wahr- 101 scheinlichkeit: P 1 (99 ≤ ¯ x 1 0 ≤ 101) = Φ ( 101 − 101.5 2 √ 10 ) − Φ ( 99 − 101.5 2 √ 10 ) = Φ ( − 0,5 √ 10 2 ) − Φ ( − 2,5 √ 10 2 ) = 1 − Φ ( √ 10 4 ) − [ 1 − Φ ( 5 √ 10 4 )] = Φ ( 5 √ 10 4 ) − Φ ( √ 10 4 ) ≈ 0.2148 Das heißt in 21,48% der F¨alle bemerken wir durch den Test eine ver¨anderte Sollwerteinstellung nicht. Man nennt dies Fehler zweiter Art. Dieser Fehler h¨angt von der tats¨achlichen Ver¨anderung der Sollwerteinstellung ab; geringf¨ ugige Ver¨anderung werden kaum bemerkt, w¨ahrend große Abweichungen nur selten zu einer Fehlentscheidung f¨ uhren. Verschiedene Entscheidungsrisiken Annahme von H 0 Ablehnung von H 0 H 0 ist richtig richtige Entscheidung Fehler erster Art α(μ 0 ) H 0 ist falsch Fehler zweiter Art β( | μ 0 − μ | ) richtige Entscheidung Die Risiken, bei diesem Test eine Fehlentscheidung zu treffen, sind v¨ollig verschieden. Die maximale Irrrtumswahrscheinlichkeit erster Art α kann klein gehalten werden; nicht aber die Irrtumswahrscheinlichkeit zweiter Art β (vgl. Abschnitt 13.6). In der folgenden Skizze wird versucht, diese Problematik graphisch deutlich zu machen. Beispielhaft sind unten f¨ ur das Annahmeintervall [99, 101] je eine Verteilung f¨ ur H 0 richtig (μ 0 = μ = 100) und H 0 falsch (μ 0 = μ = 101.5) in ein Diagramm eingezeichnet und die zu den beiden Fehlern geh¨orenden Fl¨achen schraffiert (hell : Fehler erster Art; dunkel : Fehler zweiter Art). α β 99 100 101 101.5 ¯ x Annahmeintervall Bild 13.1 102 13 Signifikanztests Allgemeine Parametertests Ein zu testender Parameter werde mit ϑ bezeichnet. Dieser Parameter ist h¨aufig eine unbekannte Wahrscheinlichkeit p, ein Erwartungswert μ oder eine Varianz σ 2 . In der Regel wird der Fehler erster Art α vorgegeben und man versucht dann geeignete Grenzen f¨ ur Annahme bzw. Ablehnung der Nullhypothese zu finden. ¨ Ublich sind die drei folgenden Hypothesentests. Hypothese (Nullhypothese) H 0 Alternative H 1 Bemerkung ϑ = ϑ 0 ϑ = ϑ 0 zweiseitig ϑ ≤ ϑ 0 ϑ > ϑ 0 einseitig ϑ ≥ ϑ 0 ϑ < ϑ 0 einseitig Das allgemeine Vorgehen bei Parametertests auf der Grundlage einer konkreten Stichprobe (x 1 , x 2 , x 3 , . . . , x n ) l¨asst sich in vier Schritten zusammenfassen. a) Aufstellen der Nullhypothese H 0 und der Alternativhypothese H 1 b) Wahl der Testfunktion (z. B. arithmetisches Mittel, relative H¨aufigkeit, numerische Varianz) c) Festlegung des Testniveaus α d) Berechnung des zugeh¨origen Streubereichs e) Entscheidung ¨ uber Ablehnung oder Annahme von H 0 13.1 Streubereiche Um Aussagen ¨ uber die Zuverl¨assigkeit von Tests sowie ¨ uber die Gr¨oße von Konfidenzintervallen machen zu k¨onnen, m¨ ussen wir das nat¨ urliche Streuverhalten einer gezogenen Stichprobe studieren. Wir nehmen dazu f¨ ur den Originalprozess ein konkretes Verteilungsmodell an; h¨aufig sind dies Normal- und χ 2 -Verteilung im stetigen Fall, sowie Binomial- und Poissonverteilung im diskreten Fall. Zu einer vorgegebenen Fehlerquote α bestimmen wir einen Streubereich, in dem mit der Wahrscheinlichkeit γ = 1 − α ein Stichprobenwert liegt. Oft sind dies symmetrisch zum Erwartungswert liegende Intervalle. Exemplarisch soll der Streubereich f¨ ur den arithmetischen Mittelwert einer Stichprobe bestimmt werden. ¯ X n = 1 n [ X 1 + X 2 + . . . + X n ] Wir nehmen an, dass der Originalprozess N (μ 0 , σ 2 )-verteilt ist; bei bekanntem μ 0 und σ. Durch eine lineare Transformation kann diese Fragestellung auf die Standardnormalverteilung zur¨ uckgespielt werden. 13.1 Streubereiche 103 μ 0 μ 0 + Δμ μ − Δμ ¯ x n Bild 13.2 Z = ¯ X n − μ 0 σ √ n graue Fl¨achenst¨ ucke besitzen gleichen Inhalt Δμ = σ · z 1 − α 2 √ n ⇐⇒ z z 1 − α 2 − z 1 − α 2 Bild 13.3 [ μ 0 − σ · z 1 − α 2 √ n , μ 0 + σ · z 1 − α 2 √ n ] symmetrischer Streubereich f¨ ur ¯ X n Manchmal spielen nur Abweichungen vom Erwartungswert in einer Richtung eine Rolle. Dann bestimmt man einen einseitigen Streubereich. μ 0 μ 0 − Δμ ¯ x n Bild 13.4 Z = ¯ X n − μ 0 σ √ n graue Fl¨achenst¨ ucke besitzen gleichen Inhalt Δμ = σ · z 1 − α √ n ⇐⇒ z − z 1 − α Bild 13.5 [ μ 0 − σ · z 1 − α √ n , ∞ ] bzw. [ − ∞ , μ 0 + σ · z 1 − α √ n ] einseitige Streubereiche f¨ ur ¯ X n In diesen Streubereichen liegt mit der Wahrscheinlichkeit γ = 1 − α der arithmetische Mittelwert einer Stichprobe. Dabei wird die dem Fehler α entsprechende Fl¨ache beim zweiseitigen Bereich auf zwei Zwickel verteilt. Ist die Varianz nicht bekannt, sondern muss diese aus der Stichprobe gesch¨atzt werden S 2 = 1 n − 1 n ∑ i=1 ( X i − X ) 2 , so f¨ uhrt die zum Ablesen der Quantilen (oben waren es Quantilen der Normalverteilung) notwendige Standardisierung T = X − μ 0 S · √ n zu keiner linearen Transformation. Im Nenner steht ja ebenfalls eine Zufallsvariable! Bei der Berechnung des Streubereichs muss dann das Quantil der N (0, 1)-Verteilung durch das 104 13 Signifikanztests entsprechende Quantil der t-Verteilung ersetzt werden. Mit s = √ √ √ √ 1 n − 1 n ∑ i=1 (x i − ¯ x n ) 2 erhalten wir die entprechenden Streubereiche (N (0, 1)-Verteilung = ⇒ t-Verteilung): [ μ 0 − s · t n − 1; 1 − α 2 √ n , μ 0 + s · t n − 1; 1 − α 2 √ n ] symmetrischer Streubereich f¨ ur ¯ X n [ μ 0 − s · t n − 1; 1 − α √ n , ∞ ] bzw. [ − ∞ , μ 0 + s · t n − 1; 1 − α √ n ] einseitiger Streubereich f¨ ur ¯ X n Neben Schwankungen des arithmetischen Mittelwerts einer Stichprobe ist auch das Streuverhalten der Varianz einer Stichprobe von Interesse. So gibt z. B. eine Ver¨anderung des Streuverhaltens bei einem Produktionsprozess einen Hinweis auf m¨ogliche Abnutzungserscheinungen. Zur Bestimmung des Streubereichs f¨ ur Schwankungen der Varianz ben¨otigen wir die Kenntnis ¨ uber die Verteilungsstruktur der Quadrate von normalverteilten Zufallsvariablen. S 2 = 1 n − 1 n ∑ i=1 ( X i − ¯ X ) 2 F¨ ur den Quotienten der gesch¨atzten Varianz durch die Varianz des Prozesses gilt eine χ 2 -Verteilung mit n − 1 Freiheitsgraden. χ 2 n − 1 = (n − 1) · S 2 σ 2 Da die χ 2 -Verteilung nicht symmetrisch ist, sind bei einer vorgegebenen Irrtumswahrscheinlichkeit α die beiden Quantile χ 2 α 2 und χ 2 1 − α 2 (zweiseitig) bzw. χ 2 α oder χ 2 1 − α (einseitig) zu bestimmen. 1 − α α 2 α 2 χ 2 n − 1; α 2 χ 2 n − 1; 1 − α 2 0 . 1 Bild 13.6 Daraus ergeben sich die Streubereiche f¨ ur S 2 : [ σ 2 · χ 2 n − 1; α 2 n − 1 , σ 2 · χ 2 n − 1; 1 − α 2 n − 1 ] zweiseitiger Streubereich f¨ ur S 2 13.2 Tests ¨ uber Parameter der Normalverteilung 105 [ 0, σ 2 · χ 2 n − 1; 1 − α n − 1 ] bzw. [ σ 2 · χ 2 n − 1; α n − 1 , ∞ ] einseitige Streubereiche f¨ ur S 2 13.2 Tests ¨ uber Parameter der Normalverteilung Die Zufallsgr¨oße X sei N (μ, σ 2 )-verteilt. Ferner sei {X 1 , X 2 , . . . , X n } eine Stichprobe und (x 1 , x 2 , x 3 , . . . , x n ) eine konkrete Realisierung. Stichprobenfunktionen sind in der Regel das arithmetische Mittel X und die empirische Varianz S 2 . 13.2.1 Test eines Erwartungswerts μ bei bekannter Varianz σ 2 Zu pr¨ ufen ist die Hypothese H 0 : μ = μ 0 gegen H 1 : μ = μ 0 mit einer Sicherheitswahrscheinlichkeit von γ = 1 − α. Bei einseitigen Tests ist bei μ = μ 0 das Gleichheitszeichen durch ≤ bzw. ≥ zu ersetzen. Als Testfunktion dient der arithmetische Mittelwert der Stichprobenwerte: ¯ x n = 1 n [x 1 + x 2 + . . . + x n ] transformiert: Z = ¯ X n − μ 0 σ √ n Es sei α die vorgegebene Irrtumswahrscheinlichkeit erster Art. Zur Bestimmung des Streubereichs ben¨otigen wir das zugeh¨orige Quantil der N (0, 1)-Verteilung. a) Bei zweiseitigen Tests wird das Quantil u 1 − α 2 bestimmt mit Φ ( u 1 − α 2 ) = 1 − α2 . b) Bei einseitigen Tests nimmt man das Quantil u 1 − α mit Φ (u 1 − α ) = 1 − α . Damit ergibt sich die Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen falls μ = μ 0 μ = μ 0 ¯ x n ∈ [ μ 0 − σ · z 1 − α 2 √ n , μ 0 + σ · z 1 − α 2 √ n ] ¯ x n / ∈ [ . . . ] μ ≥ μ 0 μ < μ 0 ¯ x n ∈ [ μ 0 − σ · z 1 − α √ n , ∞ ) ¯ x n / ∈ [ . . . ) μ ≤ μ 0 μ > μ 0 ¯ x n ∈ ( − ∞ , μ 0 + σ · z 1 − α √ n ] ¯ x n / ∈ ( . . . ] 106 13 Signifikanztests 13.2.2 Test eines Erwartungswerts μ bei unbekannter Varianz Falls die Varianz σ 2 der zu untersuchenden Zufallsvariablen X nicht bekannt ist, so wird sie durch die empirische Varianz der Stichprobe gesch¨atzt: S 2 = 1 n − 1 n ∑ i=1 ( X i − X ) 2 . Als Testfunktion dient der arithmetische Mittelwert der Stichprobenwerte: ¯ x n = 1 n [x 1 + x 2 + . . . + x n ] transformiert: T = ¯ X n − μ 0 S √ n nichtlinear! Es sei α die vorgegebene Irrtumswahrscheinlichkeit erster Art. Bei zweiseitigem Test m¨ ussen wir nun das Quantil t n − 1; 1 − α 2 , bei einseitigem Test t n − 1; 1 − α bestimmen. Damit ergibt sich die Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen falls μ = μ 0 μ = μ 0 ¯ x n ∈ [ μ 0 − s · t n − 1; 1 − α 2 √ n , μ 0 + s · t n − 1; 1 − α 2 √ n ] ¯ x n / ∈ [ . . . ] μ ≥ μ 0 μ < μ 0 ¯ x n ∈ [ μ 0 − s · t n − 1; 1 − α √ n , ∞ ) ¯ x n / ∈ [ . . . ) μ ≤ μ 0 μ > μ 0 ¯ x n ∈ ( − ∞ , μ 0 + s · t 1 − n; 1 − α √ n ] ¯ x n / ∈ ( . . . ] wobei s = √ 1 n − 1 n ∑ i=1 (x i − ¯ x n ) 2 Beispiel 13.2: Der Sollwert einer Abf¨ ullmaschine f¨ ur Zuckerpakete sei μ 0 = 1002. Aus der Produktion werden 10 Pakete ausgew¨ahlt. Die Auswertung ergab ¯ x = 1002.62 und s = 1.12. Zu testen ist die Nullhypothese H 0 : μ = 1002 f¨ ur α = 0.05 . Zur Berechnung des Streubereichs ben¨otigen wir noch das Quantil der t-Verteilung zum Freiheitsgrad n − 1 = 9 : t n − 1; 1 − α/ 2 = t 9; 0.975 = 2.2622. Daraus ergibt sich der Streubereich [ μ 0 − s · t n − 1; 1 − α 2 √ n , μ 0 + s · t n − 1; 1 − α 2 √ n ] = [ 1002 − 1.12 · 2.2622 √ 10 , 1002 + 1.12 · 2.2622 √ 10 ] ≈ [ 101.2 , 102.8 ] Da der Mittelwert der Stichprobe ¯ x = 1002.62 im Streubereich liegt, muss die Nullhypothese akzeptiert werden. 13.2.3 Test einer unbekannten Varianz σ 2 Die Annahme σ = σ 0 bzw. σ 2 = σ 2 0 einer normalverteilten Zufallsvariablen X soll getestet werden. Wir bestimmen den Streubereich der empirischen Varianz der Stichprobe S 2 = 1 n − 1 n ∑ i=1 ( X i − X ) 2 . 13.3 Test einer unbekannten Wahrscheinlichkeit 107 Die empirische Varianz ist χ 2 -verteilt mit n − 1 Freiheitsgraden. Da die χ 2 -Verteilung nicht symmetrisch ist, sind bei einer vorgegebenen Irrtumswahrscheinlichkeit 1. Art α die beiden Quantile χ 2 α 2 und χ 2 1 − α 2 bzw. χ 2 α oder χ 2 1 − α zu bestimmen. Wir erhalten damit folgendes Entscheidungsschema: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen falls σ 2 = σ 2 0 σ 2 = σ 2 0 s 2 n ∈ [ σ 2 · χ 2 n − 1; α 2 n − 1 , σ 2 · χ 2 n − 1; 1 − α 2 n − 1 ] ¯ x n / ∈ [ . . . ] σ 2 ≥ σ 2 0 σ 2 < σ 2 0 s 2 n ∈ [ σ 2 · χ 2 n − 1; α n − 1 , ∞ ) ¯ x n / ∈ [ . . . ) σ 2 ≤ σ 2 0 σ 2 > σ 2 0 s 2 n ∈ [ 0, σ 2 · χ 2 n − 1; 1 − α n − 1 ] ¯ x n / ∈ [ . . . ] wobei s 2 n = 1 n − 1 n ∑ i=1 (x i − ¯ x n ) 2 Beispiel 13.3: Zum Test von H 0 : σ 2 ≤ 10 gegen H 1 : σ 2 > 10 wird die Varianz einer Stichprobe vom Umfang 51 benutzt. Wie groß muss die empirische Varianz s 2 sein, damit die Nullhypothese zum Niveau α = 0.05 abgelehnt werden muss? Wir bestimmen das zugeh¨orige Quantil der χ 2 -Verteilung mit 50 Freiheitsgraden: χ 2 50; 0.95 = 67.5048. Daraus ergibt sich der Streubereich [ 0, σ 2 · χ 2 n − 1; 1 − α n − 1 ] = [ 0 , 10 · 67.5048 50 ] = [ 0 , 13.5 ] Wird bei einer Stichprobe vom Umfang 51 eine numerische Varianz gr¨oßer 13.5 festgestellt, dann ist die Hypothese H 0 : σ 2 ≤ 10 abzulehnen. 13.3 Test einer unbekannten Wahrscheinlichkeit Die Grundproblematik soll an einem Beispiel zur Qualit¨atskontrolle erkl¨art werden. Beispiel 13.4: Eine Fabrik verkauft Massenware und behauptet, dass die Ausschusswahrscheinlichkeit p nicht gr¨oßer als 0.04 (4 %) sei. Die aufgestellte Nullhypothese lautet also: H 0 : p ≤ 0.04 gegen H 1 : p > 0.04. Aus Kostengr¨ unden will der Kunde keine Totalkontrolle durchf¨ uhren. Er pr¨ uft aus einer Lieferung eine Stichprobe von 400 St¨ uck, wie viele St¨ ucke fehlerhaft sind. Der Erwartungswert f¨ ur die Anzahl der fehlerhaften St¨ ucke in der Stichprobe betr¨agt 400 · 0.04 = 16. Wenn sich in der Stichprobe h¨ochstens 16 fehlerhafte St¨ ucke befinden, kann der Kunde wohl die Sendung nicht ablehnen. Sind es nur unwesentlich mehr, so kann man die Abweichung eventuell auf den Zufall zur¨ uckf¨ uhren. Unsere Aufgabe besteht jetzt darin, Ablehnungsgrenzen f¨ ur die Anzahl k der defekten St¨ ucke festzulegen. ¨ Aquivalent dazu ist die Festlegung einer Grenze f¨ ur die relative H¨aufigkeit r n = k n . 108 13 Signifikanztests Wenn wir stochastische Unabh¨angigkeit der Einzelversuche annehmen, so ist die Anzahl k der Erfolge bei n Versuchen binomialverteilt. Bei vorgegebenem Signifikanzniveau α bestimmt man die Ablehnungsgrenzen c 1 bzw. c 2 beim zweiseitigen Test aus: P ( X ≤ c 1 ) = c 1 ∑ k=0 ( n k ) p k · (1 − p) n − k ≤ α2 P ( X ≥ c 2 ) = n ∑ k=c 2 ( n k ) p k · (1 − p) n − k ≤ α2 Daraus ergibt sich als zweiseitiger Streubereich f¨ ur die relative H¨aufigkeit r n = k n : [ c 1 + 1 n , c 2 − 1 n ] Bei einseitigen Tests ist zu bestimmen P ( X ≤ ˜ c 1 ) = ˜ c 1 ∑ k=0 ( n k ) p k · (1 − p) n − k ≤ α P ( X ≥ ˜ c 2 ) = n ∑ k=˜ c 2 ( n k ) p k · (1 − p) n − k ≤ α und man erh¨alt die Bereiche [ ˜ c 1 + 1 n , 1 ] bzw. [ 0 , ˜ c 2 − 1 n ] . Damit lautet die Entscheidungsstrategie f¨ ur r n = k n : H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen falls p = p 0 p = p 0 r n ∈ [ c 1 + 1 n , c 2 − 1 n ] r n / ∈ [ . . . ] p ≤ p 0 p > p 0 r n ∈ [ 0 , ˜ c 2 − 1 n ] r n / ∈ [ . . . ] p ≥ p 0 p < p 0 r n ∈ [ ˜ c 1 + 1 n , 1 ] r n / ∈ [ . . . ] Die Bestimmung der Grenzen kann nur numerisch erfolgen. F¨ ur einen großen Stichprobenumfang n k¨onnen wir die Binomialverteilung durch die Normalverteilung approximieren. Nach einer Faustregel ist dies dann der Fall, wenn f¨ ur die Testwahrscheinlichkeit p 0 und n gilt: n · p 0 · (1 − p 0 ) ≥ 9 Es sei r n (A) die relative H¨aufigkeit f¨ ur das Eintreten des Ereignisses A bei n-maliger Durchf¨ uhrung des Experiments (Stichprobe! ). Dann ist die Testfunktion r n (A) n¨aherungsweise normalverteilt mit dem Erwartungswert p 0 und der Varianz p 0 (1 − p 0 ) n . Damit ergibt sich die Entscheidungsstrategie: 13.3 Test einer unbekannten Wahrscheinlichkeit 109 H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen p = p 0 p = p 0 r n ∈ [ p 0 − z 1 − α 2 √ p 0 (1 − p 0 ) √ n , p 0 + z 1 − α 2 √ p 0 (1 − p 0 ) √ n ] r n / ∈ [ . . . ] p ≥ p 0 p < p 0 r n ∈ [ p 0 − z 1 − α · √ p 0 (1 − p 0 ) √ n , 1 ] r n / ∈ [ . . . ] p ≤ p 0 p > p 0 r n ∈ [ 0 , p 0 + z 1 − α · √ p 0 (1 − p 0 ) √ n ] r n / ∈ [ . . . ] Benutzen wir die sogenannte Stetigkeitskorrektur f¨ ur die Approximation der Binomialverteilung, ergeben sich kleine ¨ Anderungen f¨ ur den Streubereich. Wir lesen bei c 1 + 0.5 bzw. c 2 − 0.5 ab. F¨ ur p = 0.5 keine Symmetrie! c 1 c 2 k α2 α2 Bild 13.7 P ( X ≤ c 1 ) = c 1 ∑ k=0 ( n k ) p k 0 · (1 − p 0 ) n − k ≤ α2 ≈ Φ ( = − z 1− α 2 ︷ ︸︸ ︷ c 1 + 0.5 − n · p 0 √ n · p 0 · (1 − p 0 ) ) P ( X ≥ c 2 ) = n ∑ k=c 2 ( n k ) p k 0 · (1 − p 0 ) n − k ≤ α2 ≈ 1 − Φ ( c 1 + 0.5 − n · p 0 √ n · p 0 · (1 − p 0 ) ︸ ︷︷ ︸ =z 1− α 2 ) c 1 n = p 0 − 0.5 n − z 1 − α 2 · √ p 0 · (1 − p 0 ) √ n c 2 n = p 0 + 0.5 n + z 1 − α 2 · √ p 0 · (1 − p 0 ) √ n H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft (mit Stetigkeitskorrektur) p = p 0 p = p 0 r n ∈ [ p 0 − z 1 − α 2 · √ p 0 (1 − p 0 ) √ n − 0.5 n , p 0 + z 1 − α 2 · √ p 0 (1 − p 0 ) √ n + 0.5 n ] p ≥ p 0 p < p 0 r n ∈ [ p 0 − z 1 − α · √ p 0 (1 − p 0 ) √ n − 0.5 n , 1 ] p ≤ p 0 p > p 0 r n ∈ [ 0 , p 0 + z 1 − α · √ p 0 (1 − p 0 ) √ n + 0.5 n ] Falls r n / ∈ [ . . . ] gilt, dann ist die entssprechende Nullhypothese zu verwerfen. 110 13 Signifikanztests Die folgende Graphik soll f¨ ur den Fall n = 25 und α = 0.05 den Zusammenhang von Hypothesenwert p 0 und den Ablehnungsgrenzen c 1 , c 2 darstellen. Die Treppenkurve stellt die exakten Werte dar. Zus¨atzlich wurde die Approximation durch die Normalverteilung eingezeichnet. F¨ ur Werte von p 0 in der N¨ahe von 0.5 ist die Approximation recht gut; an den R¨andern treten gr¨oßere Abweichungen auf. So kann z. B. f¨ ur p 0 = 0.77 die Hypothese H 0 : p = p 0 laut Graphik nicht verworfen werden, wenn r n (A) zwischen 15 25 und 23 25 liegt. Bild 13.8 13.4 Vergleich der Parameter zweier Verteilungen Bisher wurden nur Hypothesen ¨ uber einen Parameter getestet. Manchmal m¨ochte man die Parameter (z. B. Erwartungswerte) zweier verschiedener Grundgesamtheiten miteinander vergleichen. H¨aufig interessiert dabei auch die Gr¨oße der Differenz der beiden Parameter (bei kleinen Unterschieden ist z. B. wegen der anfallenden Kosten eine Produktionsumstellung nicht vertretbar). Vor Aufstellung eines Entscheidungsschemas ist zu kl¨aren, ob es sich dabei um zwei voneinander unabh¨angige Stichproben handelt oder um sogenannte verbundene Stichproben. Diese entstehen z. B. dadurch, dass dieselben Objekte zweimal unter verschiedenen Bedingungen gemessen werden. Beispiel f¨ ur eine verbundene Stichprobe: Die Reaktionszeit auf ein Signal vor und nach Genuss einer bestimmten Menge von Alkohol wird bei einer Testgruppe gemessen. 13.4.1 Test der Erwartungswerte zweier unabh¨angiger Verteilungen Wir gehen davon aus, dass die beiden unabh¨angigen Zufallsvariablen X und Y N (μ x , σ 2 ) bzw. N (μ y , σ 2 )-normalverteilt sind; d. h. trotz unterschiedlicher Erwartungswerte soll das Steuverhalten gleich sein. Es liegen zwei voneinander unabh¨angige Stichproben aus den beiden Grundgesamtheiten vor. 13.4 Vergleich der Parameter zweier Verteilungen 111 a) Stichprobe {X 1 , X 2 , . . . , X n } mit X n = 1 n · n ∑ i=1 X i bzw. S 2 x = 1 n − 1 · n ∑ i=1 ( X i − X ) 2 . Dann ist X normalverteilt mit dem Erwartungswert μ x und der Varianz σ 2 n . b) Stichprobe {Y 1 , Y 2 , . . . , Y m } mit Y m = 1 m · m ∑ i=1 Y i bzw. S 2 y = 1 m − 1 · m ∑ i=1 ( Y i − Y ) 2 . Dann ist Y normalverteilt mit dem Erwartungswert μ y und der Varianz σ 2 m . Nach dem Additionstheorem der Normalverteilung ist die Differenz X n − Y m der Mittelwerte bei bekannter Varianz normalverteilt. Die Varianz der Differenz der Mittelwerte X n − Y m ist die Summe der Varianzen von X n und Y m . 1 V ar( X n − Y m ) = σ 2 n + σ 2 m = σ 2 · ( 1 n + 1 m ) Ist die Varianz bekannt, so errechnen wir die Streubereiche mittels Quantile der N (0, 1)- Verteilung. Soll die Differenz der Erwartungswerte d = μ x − μ y getestet werden, so erhalten wir die folgende Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen μ x − μ y = d μ x − μ y = d ¯ x n − ¯ y m ∈ [ d − σ · z 1 − α 2 √ n · m n + m , d + σ · z 1 − α 2 √ n · m n + m ] ¯ x n − ¯ y m / ∈ [ . . . ] μ x − μ y ≥ d μ x − μ y < d ¯ x n − ¯ y m ∈ [ d − σ · z 1 − α √ n · m n + m , ∞ ) ¯ x n − ¯ y m / ∈ [ . . . ) μ x − μ y ≤ d μ x − μ y > d ¯ x n − ¯ y m ∈ ( − ∞ , d + σ · z 1 − α √ n · m n + m ] ¯ x n − ¯ y m / ∈ ( . . . ] H¨aufig muss die gemeinsame Varianz der beiden Grundgesamtheiten aus den Stichproben gesch¨atzt werden. Als Sch¨atzer benutzen wir das gewichtete arithmetische Mittel der beiden empirischen Varianzen. S 2 = (n − 1) · S 2 x + (m − 1) · S 2 y n + m − 2 In der vorigen Entscheidungsstrategie spielte der Ausdruck σ · z ... √ n · m n + m 1 Das Streuverhalten von Differenz und Summe ist gleich! 112 13 Signifikanztests eine entscheidende Rolle. Ersetzen wir σ durch die gesch¨atzte Standardabweichung und die z-Quantile durch die Quantile der t-Verteilung, so erhalten wir: σ · z ... √ n · m n + m √ (n − 1) · S 2 x + (m − 1) · S 2 y n + m − 2 · t n+m − 2; ... √ n · m n + m umgestellt: √ [ (n − 1) · S 2 x + (m − 1) · S 2 y ] · (n + m) n · m · (n + m − 2) ︸ ︷︷ ︸ = s d · t n+m − 2; ... Daraus ergibt sich die folgende Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft μ x − μ y = d μ x − μ y = d ¯ x n − ¯ y m ∈ [ d − s d · t n+m − 2; 1 − α 2 , d + s d · t n+m − 2; 1 − α 2 ] μ x − μ y ≥ d μ x − μ y < d ¯ x n − ¯ y m ∈ [ d − s d · t n+m − 2; 1 − α , ∞ ) μ x − μ y ≤ d μ x − μ y > d ¯ x n − ¯ y m ∈ ( − ∞ , d + s d · t n+m − 2; 1 − α ] Falls ¯ x n − ¯ y m / ∈ [. . .] gilt, dann ist die entsprechende Nullhypothese zu verwerfen. Beispiel 13.5: Von zwei Betonsorten wurden jeweils zehn bzw. acht Probew¨ urfel auf Belastbarkeit untersucht. Es ergaben sich folgende Messwerte in kg/ cm 2 : 1. Sorte: x i 142 147 139 143 137 137 142 145 140 143 2. Sorte: y i 147 152 150 149 154 146 150 152 Es ist zu testen, ob beide Betonsorten gleich gut sind, d. h. gleiche Erwartungswerte (d 0 = 0) haben unter der vertretbaren Voraussetzung, dass die beiden Grundgesamtheiten normalverteilt mit gleicher Varianz σ 2 sind. Als Irrtumswahrscheinlichkeit erster Art sei α = 0.001 vorgegeben. F¨ ur Lage- und Streuparameter der beiden Stichproben errechnen wir: ¯ x 10 = 141.5 , s 2 x = 10.7222 , n = 10 ; ¯ y 8 = 150 , s 2 y = 7.1429 , m = 8; Die Quantile der t-Verteilung beim zweiseitigen Test lautet: t 16; 0.9995 = 4.0150 Daraus errechnen wir s d : s d = √ (9 · 10.7222 + 7 · 7.1429) · 18 10 · 8 · 16 = 1.4353 Wir erhalten als Streubereich: [ − s d · t 16; 0.9995 , s d · t 16; 0.9995 ] = [ − 1.4353 · 4.0150 , 1.4353 · 4.0150] = [ − 5.7627 , 5.7627] Die Differenz der Mittelwerte d = ¯ x 10 − ¯ y 8 = 141.5 − 150 = 8.5 liegt außerhalb des Streubereichs. Damit ist die Nullhypothese ”gleiche Erwartungswerte“ abzulehnen. Anmerkung: Falls die Varianzen σ 2 x und σ 2 y der beiden Zufallsvariablen X und Y nicht bekannt und auch nicht gleich sind, so ist auch bei normalverteilten Zufallsvariablen das Sch¨atz- und Testproblem f¨ ur die Differenz der beiden Erwartungswerte nur n¨aherungsweise l¨osbar. 13.4 Vergleich der Parameter zweier Verteilungen 113 13.4.2 Test der Erwartungswerte zweier verbundener Stichproben Soll die Ver¨anderung der Reaktionszeit nach Alkoholgenuss untersucht werden, so wird man bei einer Gruppe Probanten die Reaktionszeit vor und nach Alkoholgenuss messen. D. h. man misst beim gleichen Individuum zweimal. Man erh¨alt daher f¨ ur jeden Teilnehmer ein Stichprobenpaar x i , y i ), bei dem x i und y i voneinander abh¨angig sind. (Bei einer reaktionsschnellen Person wird man vor und nach Alkoholgenuss kurze Zeiten messen! ) Individuum Nr. 1 2 3 . . . n Werte von X x 1 x 2 x 3 . . . x n Werte von Y y 1 y 2 y 3 . . . y n Die Zufallsvariablen X und Y besitzen die unbekannten Erwartungswerte μ x bzw. μ y , die miteinander verglichen werden. Zum Test benutzt man die Differenzen der verbundenen Stichprobenwerte d 1 = x 1 − y 1 ; d 2 = x 2 − y 2 ; d 3 = x 3 − y 3 ; . . . ; d n = x n − y n . Die Stichprobe der verbundenen Differenzen D = (d 1 , d 2 , d 3 , . . . , d n ) besitzt den Mittelwert d = 1 n · n ∑ i=1 d i und die empirische Varianz s 2 d = 1 n − 1 · n ∑ i=1 (d i − d) 2 . Die Stichprobe der verbundenen Differenzen ist t-verteilt mit n − 1 Freiheitsgraden. Daraus ergibt sich die folgende Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft μ x − μ y = d μ x − μ y = d ¯ x n − ¯ y m ∈ [ d − s d · t n − 1; 1 − α 2 , d + s d · t n − 1; 1 − α 2 ] μ x − μ y ≥ d μ x − μ y < d ¯ x n − ¯ y m ∈ [ d − s d · t n − 1; 1 − α , ∞ ) μ x − μ y ≤ d μ x − μ y > d ¯ x n − ¯ y m ∈ ( − ∞ , d + s d · t n − 1; 1 − α ] Falls ¯ x n − ¯ y m / ∈ [. . .] gilt, dann ist die entsprechende Nullhypothese zu verwerfen. 114 13 Signifikanztests 13.5 Vergleich zweier Wahrscheinlichkeiten Es sollen die beiden Wahrscheinlichkeiten p 1 und p 2 eines Ereignisses A in zwei verschiedenen Grundgesamtheiten verglichen werden, z. B. die Heilungswahrscheinlichkeiten zweier verschiedener Medikamente. Zum Vergleich wird eine bestimmte Anzahl von Patienten zuf¨allig in zwei Gruppen eingeteilt. Jede der beiden Gruppen wird mit einem der beiden Medikamente behandelt. Die beiden Gruppen m¨ ussen nicht gleich groß sein. In der ersten Gruppe werden von n 1 Patienten h 1 Personen geheilt; in der zweiten Gruppe ist die Heilungsrate h 2 von n 2 . Daraus ergeben sich die relativen H¨aufigkeiten r 1 = h 1 n 1 r 2 = h 2 n 2 Die absoluten H¨aufigkeiten sind jeweils binomialverteilt. F¨ ur große n i k¨onnen dann die Binomialverteilungen durch die Normalverteilung approximiert werden. 2 Dies ist gem¨aß Faustregel erlaubt, wenn die beiden Relationen gelten: n 1 · r 1 · (1 − r 1 ) ≥ 9 und n 2 · r 2 · (1 − r 2 ) ≥ 9 . Getestet werden soll, ob die Differenz der Wahrscheinlichkeiten p 2 − p 1 gleich einer festen Gr¨oße d ist. Die Varianz sch¨atzen wir durch: s 2 d = r 1 · (1 − r 1 ) n 1 + r 2 · (1 − r 2 ) n 2 Daraus ergibt sich bei Approximation mittels Normalverteilung ohne Stetigkeitskorrektur und vorgegebener Irrtumswahrscheinlichkeit α die folgende Entscheidungsstrategie: H 0 H 1 Zufallsstreubereich, falls H 0 zutrifft H 0 verwerfen, falls p 1 − p 2 = d p 1 − p 2 = d r 1 − r 2 ∈ [ d − s d · z 1 − α 2 , d + s d · z 1 − α 2 ] r 1 − r 2 / ∈ [ . . . ] p 1 − p 2 ≥ d p 1 − p 2 < d r 1 − r 2 ∈ [ d − s d · z 1 − α , 1 ] r 1 − r 2 / ∈ [ . . . ] p 1 − p 2 ≤ d p 1 − p 2 > d r 1 − r 2 ∈ [ 0 , d + s d · z 1 − α ] r 1 − r 2 / ∈ [ . . . ] Beispiel 13.6: Eine Firma bezieht aus zwei Werken gleiche Bauteile. Zum Test auf Gleichheit der Ausschussquoten zum Niveau α = 0.05 wurden aus der ersten Sendung 400 Teile ausgew¨ahlt, aus der zweiten Sendung 500 Teile. Enthalten waren 31 bzw. 51 fehlerhafte St¨ ucke. Die Auswertung ergibt: r 1 = 31 400 = 0.0775 , r 2 = 51 500 = 0.102 s d = √ 0.0775 · 0.9225 400 + 0.102 · 0.898 500 = 0.01902 Mit z 1 − α/ 2 = u 0.975 = 1.96 erhalten wir den Streubereich [ − z 1 − α/ 2 · s d , z 1 − α/ 2 · s d ] = [ − 1.96 · 0.01902 , 1.96 · 0.01902 ] = [ − 0.03729 , 0.03729] Wegen r 1 − r 2 = − 0.0245 ∈ [. . .] muss die Nullhypothese akzeptiert werden. 2 Bei kleinen Stichproben ist zum Beispiel der Test von Fisher mit Vierfeldertafeln auf Unabh¨angigkeit sinnvoll (vgl. weiterf¨ uhrende Literatur). 13.6 G¨ utefunktion 115 13.6 G¨ utefunktion In den vorangegangenen Abschnitten wurde vor allem der Wahrscheinlichkeit Beachtung geschenkt, dass eine richtige Nullhypothese verworfen wird. Diesem Fehler erster Art steht der Fehler zweiter Art entgegen. Er besteht darin, dass die Alternative richtig ist - der Test sie aber nicht ablehnt (vgl. Seite 101). Wir bezeichnen mit β(ϑ) die Wahrscheinlichkeit, dass bei Vorliegen des Parameters ϑ die Nullhypothese nicht abgelehnt wird. Oder anders formuliert ist 1 − β(ϑ) die Wahrscheinlichkeit, dass die Alternative A vom Test erkannt wird. Die Gr¨oße g(ϑ) = 1 − β(ϑ) wird Macht (Power) oder G¨ ute eines Tests genannt. Wir machen uns dies am Beispiel des einseitigen Tests f¨ ur den Erwartungswert bei bekannter Varianz klar (vgl. Abschnitt 13.2.1). Das folgende Diagramm zeigt beispielhaft zwei Dichten f 0 und f 1 ; die der Nullhypothese H μ 0 und eine bei Zutreffen der Alternative H μ 1 mit μ 1 > μ 0 . Der Fehler zweiter Art zum Parameter μ 1 wird durch Karos markiert. μ 0 μ 1 q α = 1 − β(μ 0 ) 1 − β(μ 1 ) μ f 0 f 1 Bild 13.9 Die Grenze des Streubereichs ergibt sich zu q = μ 0 + u 1 − α · σ √ n . Damit erh¨alt man f¨ ur die G¨ utefunktion, d. h. f¨ ur die Wahrscheinlichkeit, dass die Alternative vom Test erkannt wird: g(μ) = 1 − Φ ( q − μ σ · √ n ) hell bzw. dunkel schraffiert in obiger Skizze! Das Argument l¨asst sich wie folgt umformen: q − μ σ · √ n = u 1 − α · σ √ n + μ 0 − μ σ · √ n = u 1 − α − μ − μ 0 σ · √ n , und man erh¨alt als G¨ utefunktion g(μ) = 1 − Φ ( u 1 − α − μ − μ 0 σ · √ n ) . 116 13 Signifikanztests F¨ ur μ = μ 0 ergibt sich der Fehler erster Art des Tests: g(μ 0 ) = 1 − Φ ( u 1 − α − μ 0 − μ 0 σ · √ n ) = α . Nebenstehend sind zwei G¨ utefunktionen mit verschiedenen n f¨ ur den eben beschriebenen Fall f¨ ur σ 2 = 1 und α = 0.05 ¨ uber der Differenz δ = μ − μ 0 abgetragen. Je gr¨oßer die Stichprobenzahl n wird, um so steiler f¨allt der Anstieg aus. Die Kurven schneiden die Achse bei α = 0.05. Der ideale Test h¨atte eine Treppenfunktion mit Sprung bei null als G¨ utefunktion. F¨ ur n → ∞ strebt die G¨ utefunktion gegen diese Treppenfunktion. 1 δ 0 . 5 1 n = 5 n = 50 Bild 13.10 Mit der G¨ utefunktion kann bei vorgegebenem Signifikanzniveau und Abweichung δ zu jeder gew¨ unschten G¨ ute der notwendige Mindeststichprobenumfang bestimmt werden. Die Funktion 1 − g(μ) bezeichnet man auch als Operationscharakteristik. Beispiel 13.7: Wir untersuchen den oben beschriebenen einseitigen Test zum Niveau 1 − α = 0.95. Bei vorgegebener Differenz δ = μ − μ 0 = 0.1 und bekannter Varianz σ 2 = 0.16 soll die G¨ ute des oben beschriebenen Tests g = 1 − β = 0.8 sein; d. h. der Test soll Abweichungen um 0.1 vom Sollwert mit der Wahrscheinlichkeit 0.8 erkennen. Wie groß muss der Stichprobenumfang gew¨ahlt werden? 1 − β = 1 − Φ ( u 1 − α − δ · √ n σ ) u 1 − α − δ · √ n σ = Φ − 1 (β) ︸ ︷︷ ︸ u β n = ( σ · (u 1 − α − u β ) δ ) 2 Mit den Zahlenwerten u 1 − α = u 0.95 = 1.645, u β = u 0.2 = − 0.842 erh¨alt man f¨ ur die Stichprobenanzahl: n ≥ ( 0.4 · (1.645 + 0.842) 0.1 ) 2 ≈ 98.96 . F¨ ur zweiseitige Tests wird die G¨ utefunktion analog erkl¨art. Dabei ist zus¨atzlich ein zweiter Fl¨achenanteil außerhalb des Annahmebereichs zu ber¨ ucksichtigen. In der nachfolgenden Skizze sind diese Bereiche grau unterlegt. 13.6 G¨ utefunktion 117 Fehler 2. Art G¨ ute Signifikanzniveau q 1 q 2 μ 0 μ 1 μ f 0 f 1 Bild 13.11 g(μ) = 1 − Φ ( q 1 − μ σ · √ n ) + Φ ( q 2 − μ σ · √ n ) mit q 1,2 = μ 0 ± u 1 − α 2 · σ √ n Dr¨ ucken wir q 1 , q 2 mittels μ 0 und α aus, ergibt sich die folgende Darstellung: g(μ) = 1 − Φ ( μ 0 − μ σ · √ n + u 1 − α 2 ) + Φ ( μ 0 − μ σ · √ n − u 1 − α 2 ) = Φ ( μ − μ 0 σ · √ n − u 1 − α 2 ) + Φ ( μ 0 − μ σ · √ n − u 1 − α 2 ) . Mit der standardisierten Differenz δ = μ − μ 0 σ erh¨alt man die G¨ utefunktion in der Form: g(δ) = Φ ( δ · √ n − u 1 − α 2 ) + Φ ( − δ · √ n − u 1 − α 2 ) Die nebenstehende Skizze stellt zum Signifikanzniveau α = 0.1 die G¨ utefunktion g(δ) f¨ ur verschiedene n dar. Alle G¨ utefunktionen schneiden die y-Achse bei α. F¨ ur n → ∞ strebt die G¨ utefunktion gegen ein δ- Funktional. 1 1 δ n = 90 n = 10 n = 3 Bild 13.12 Auch wenn die Voraussetzungen Normalverteilung und bekannte Varianz nicht streng erf¨ ullt sind, liefert diese ¨ Uberlegung wichtige Anhaltspunkte f¨ ur die Versuchsplanung. F¨ ur Testfunktionen, die keiner Normalverteilung folgen, lassen sich analog G¨ utefunktionen konstruieren. Gibt es f¨ ur einen Sachverhalt mehrere Testvarianten, so k¨onnen diese mit Hilfe ihrer G¨ utefunktionen verglichen werden. Man wird den Test bevorzugen, dessen G¨ utefunktion steiler verl¨auft. 118 14 Konfidenzintervalle 14 Konfidenzintervalle Im vorangegangenen Abschnitt gingen wir von einer Hypothese aus, z. B. Erwartungswert sei μ 0 , und haben einen zugeh¨origen Streubereich bestimmt. Lag der aus einer Stichprobe gewonnene Wert in diesem Bereich, so haben wir die Hypothese akzeptiert. Jetzt wollen wir umgekehrt von einer konkreten Stichprobe ausgehen und nach dem entsprechenden Parameter der Verteilung suchen. So gibt z. B. der arithmetische Mittelwert der Stichprobe einen Sch¨atzwert f¨ ur den Erwartungswert. Allerdings wird man daraus kaum den Erwartungswert exakt berechnen k¨onnen 1 . Wir bestimmen ein Intervall um diesen Sch¨atzwert und errechnen die Wahrscheinlichkeit mit der der gesuchte Parameter in diesem Intervall liegt. Ein solches Intervall nennt man Vertrauens- oder Konfidenzintervall. In der Regel gibt man sich eine sogenannte Vertrauenswahrscheinlichkeit γ vor und bestimmt dann ein Intervall f¨ ur den zu sch¨atzenden Parameter mit der Maßgabe, dass mit der Wahrscheinlichkeit γ der tats¨achliche Parameter in diesem Konfidenzintervall liegt. Oder anders ausgedr¨ uckt: Auf Dauer wird in 100 · γ % der Untersuchungen der gesuchte Parameter der Grundgesamtheit in diesem Intervall liegen. Die konkrete Wahl der Vertrauenswahrscheinlichkeit γ h¨angt letztendlich davon ab, welche Folgen eine falsche Aussage nach sich zieht. Mit α = 1 − γ bezeichnet man die sogenannte Irrtumswahrscheinlichkeit. Um pr¨azise Aussagen ¨ uber die Gr¨oße des Konfidenzintervalls machen zu k¨onnen, brauchen wir wieder Zusatzinformation ¨ uber die Verteilungsstruktur der Grundgesamtheit. θ Bild 14.1 Obige Skizze soll folgenden Sachverhalt verdeutlichen: Wird zur Irrtumswahrscheinlichkeit α = 0.1 zehnmal ein Konfidenzintervall f¨ ur den Parameter θ bestimmt, so liegt im Durchschnitt in neun F¨allen der tats¨achliche Wert des Parameters θ in diesem Intervall - in einem Fall liegt er außerhalb. 1 Außer bei Totalerhebungen gibt es daf¨ ur keine absolute Sicherheit! 14.1 Konfidenzintervalle f¨ ur Parameter der Normalverteilung 119 Bei der zugrundegelegten Verteilungsstruktur wird man sehr h¨aufig Normalverteilung annehmen. Dies ist auch dann n¨aherungsweise zul¨assig, wenn die vorgegebene Grundgesamtheit einem anderen Verteilungsgesetz gehorcht. Bei einer hinreichend großen Stichprobe 2 n¨ahert sich die Verteilung der Stichprobenfunktion immer mehr der Normalverteilung an. Diese Tatsache bezeichnet der Statistiker als den Zentralen Grenzwertsatz. 3 F¨ ur die Gr¨oßenbestimmung der Intervalle benutzen wir wir die Streubereiche von Abschnitt 13.1, wobei allerdings der gemessene Stichprobenwert zur Intervallmitte wird. 14.1 Konfidenzintervalle f¨ ur Parameter der Normalverteilung Die Zufallsgr¨oße X sei N (μ, σ 2 )-verteilt. {X 1 , X 2 , . . . , X n } sei eine Stichprobe aus X . Die X i sind demnach unabh¨angig und identisch verteilt wie X . Ausgangspunkt f¨ ur die Konstruktion von Konfidenzintervallen sind das arithmetische Mittel und die empirische Varianz der Stichprobe: X = 1 n n ∑ i=1 X i bzw. S 2 = 1 n − 1 n ∑ i=1 ( X i − X ) 2 . Konfidenzintervall f¨ ur μ bei bekanntem σ 2 Es sind also zur vorgegebenen Irrtumswahrscheinlichkeit α Quantile z 1 − α 2 zu bestimmen; daraus erhalten wir den zweiseitigen Streubereich - nun Konfidenzintervall genannt: [ ¯ x n − z 1 − α 2 · σ √ n , ¯ x n − z 1 − α 2 · σ √ n ] ¯ x n − z 1 − α 2 · σ √ n ¯ x n + z 1 − α 2 · σ √ n ¯ x n α2 α2 1 − α Bild 14.2 Die schraffierte Fl¨ache entspricht der Irrtumswahrscheinlichkeit α. 2 Als Faustregel: n > 30 3 Zentraler Grenzwertsatz: Wenn unabh¨angige Zufallsvariable X 1 , X 2 , . . . alle dieselbe Verteilung mit dem Erwartungswert μ und der Varianz σ 2 besitzen, so strebt die Verteilungsfunktion der normierten Summen n ∑ i=1 X i − nμ √ nσ gegen die N (0 , 1)-Verteilung. 120 14 Konfidenzintervalle Im Konfidenzintervall f¨ ur μ x − z 1 − α 2 · σ √ n < μ < x + z 1 − α 2 · σ √ n liegt mit der Wahrscheinlichkeit γ = 1 − ßalpha der gesuchte Erwartungswert. Seine L¨ange betr¨agt: L = 2u 1 − α 2 · σ √ n Aus diesem Zusammenhang l¨asst sich bei vorgegebenen α und L auch der notwendige Stichprobenumfang n bestimmen. Einseitige Konfidenzintervalle Bei vielen praktischen Anwendungen sind nur Abweichungen des Parameters vom Sch¨atzwert nach unten bzw. oben von Bedeutung. Zur Konstruktion von einseitigen Konfidenzintervallen ben¨otigen wir das Quantil z 1 − α der N (0, 1)-Verteilung. F¨ ur den Erwartungswert μ ergeben sich damit die einseitigen Konfidenzintervalle: [ x n − z 1 − α · σ √ n , ∞ ) ( − ∞ , x n + z 1 − α · σ √ n ] α 1 − α ¯ x n ¯ x n − z 1 − α · σ √ n Bild 14.3 ¯ x n ¯ x n + z 1 − α · σ √ n α 1 − α Bild 14.4 Konfidenzintervall f¨ ur μ bei unbekanntem σ 2 H¨aufig wird bei einer Verteilung mit unbekanntem Erwartungswert μ auch die Varianz σ 2 nicht bekannt sein. Man muss daher die Varianz mittels der empirischen Varianz der Stichprobe sch¨atzen. Die standardisierte Zufallsvariable T = X − μ S · √ n mit X = 1 n n ∑ i=1 X i bzw. S 2 = 1 n − 1 n ∑ i=1 ( X i − X ) 2 ist nun nicht mehr normalverteilt, sondern gehorcht einer t-Verteilung mit n − 1 Freiheitsgraden. Wir m¨ ussen daher die Quantile der Normalverteilung durch die entsprechenden Quantile der t-Verteilung ersetzen. [ x n − t n − 1; 1 − α 2 · σ √ n , x n + t n − 1; 1 − α 2 · σ √ n ] zweiseitiges Konfidenzintervall f¨ ur μ [ x n − u 1 − α · σ √ n , ∞ ) ; ( − ∞ , x n + u 1 − α · σ √ n ] einseitige Konfidenzintervalle f¨ ur μ 14.1 Konfidenzintervalle f¨ ur Parameter der Normalverteilung 121 Analog gilt ein Zusammenhang zwischen der L¨ange des Konfidenzintervalls und den ¨ ubrigen Gr¨oßen: L = 2 · s √ n · t n − 1; 1 − α 2 . Bei großen Stichproben strebt die t-Verteilung gegen die Normalverteilung: lim n →∞ t n; β = z β . F¨ ur praktische Zwecke ist die Differenz zwischen t n; β und z β zumindest im Fall n ≥ 100 vernachl¨assigbar klein. Konfidenzintervall f¨ ur die Varianz σ 2 Ist X N (μ, σ 2 )-normalverteilt, dann gen¨ ugt die Zufallsvariable χ 2 n − 1 = (n − 1) S 2 σ 2 einer χ 2 -Verteilung mit (n − 1) Freiheitsgraden. Da die χ 2 -Verteilung nicht symmetrisch ist, m¨ ussen wir zwei Quantile bestimmen. 1 − α α 2 α 2 χ 2 n − 1; α 2 χ 2 n − 1; 1 − α 2 0 . 1 Bild 14.5 Mit den Quantilen der χ 2 -Verteilung ergibt sich unmittelbar: P (χ 2 n − 1; α 2 ≤ (n − 1) S 2 σ 2 ≤ χ 2 n − 1; 1 − α 2 ) = 1 − α bzw. umgestellt P ( (n − 1) S 2 χ 2 n − 1; 1 − α 2 ≤ σ 2 ≤ (n − 1) S 2 χ 2 n − 1; α 2 ) . Damit ist [ (n − 1) S 2 χ 2 n − 1; 1 − α 2 , (n − 1) S 2 χ 2 n − 1; α 2 ] 122 14 Konfidenzintervalle ein Konfidenzintervall f¨ ur die Varianz σ 2 zur Vertrauenswahrscheinlichkeit γ = 1 − α. Werden aus den Konfidenzgrenzen die Quadratwurzeln gezogen, so erh¨alt man das entsprechende Konfidenzintervall f¨ ur die Standardabweichung σ. Bei einseitigen Konfidenzintervallen verf¨ahrt man analog und erh¨alt [ (n − 1) S 2 χ 2 n − 1; 1 − α , ∞ ) bzw. [ 0, (n − 1) S 2 χ 2 n − 1; α ] . Beispiel 14.1: x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x 10 40.11 41.03 39.71 42.48 40.16 40.41 41.37 40.36 40.20 39.47 sei eine Stichprobe einer normalverteilten Zufallsvariable. Gerundet ergeben sich die folgenden Lageparameter: ¯ x = 40.53, s 2 = 0.78, s = 0.88 . Zum Konfidenzniveau γ = 0.95 (also α = 0.05) sollen die zugeh¨origen zweiseitigen Vertrauensintervalle bestimmt werden. Die zugeh¨origen Quantile sind: t 9,0.975 = 2.26, χ 2 9,0.975 = 19.02, χ 2 9,0.025 = 2.70 . Damit erhalten wir f¨ ur μ das Konfidenzintervall: [ ¯ x − s · t 9,0.975 √ 10 , ¯ x+ s · t 9,0.975 √ 10 ] = [ 40.53 − 0.88 · 2.26 √ 10 , 40.53+ 0.88 · 2.26 √ 10 ] = [ 39.90 , 41.16 ] F¨ ur die Varianz σ 2 ergibt sich das Intervall: [ (n − 1) S 2 χ 2 n − 1; 1 − α 2 , (n − 1) S 2 χ 2 n − 1; α 2 ] = [ 9 · 0.78 19.02 ; 9 · 0.78 2.70 ] = [ 0.37, 2.60 ] 14.2 Konfidenzintervall f¨ ur eine Wahrscheinlichkeit p F¨ ur die unbekannte Wahrscheinlichkeit p = P (A) eines Ereignisses A ist ein Konfidenzintervall zu bestimmen. Die Zufallsvariable X sei die Indikatorvariable f¨ ur das Eintreten des Ereignisses A : X = ⎧ ⎨ ⎩ 1 , wenn A eintritt ; 0 , wenn A nicht eintritt . Wird der Versuch n-mal durchgef¨ uhrt, so ist die Zufallsvariable Y = n ∑ i=1 X i binomialverteilt mit E( Y ) = np bzw. V ar( Y ) = np(1 − p) Der Mittelwert X beschreibt dann die relative H¨aufigkeit f¨ ur das Eintreten von A. ˆ p = X = 1 n n ∑ i=1 X i mit E( X ) = p bzw. V ar( X ) = p(1 − p) n 14.2 Konfidenzintervall f¨ ur eine Wahrscheinlichkeit p 123 Die Sch¨atzfunktion ˆ p f¨ ur den Parameter p ist f¨ ur hinreichend große n gem¨aß dem zentralen Grenzwertsatz n¨aherungsweise normalverteilt 4 . Die standardisierte Zufallsvariable ˆ p − p √ p(1 − p) n ist damit n¨aherungsweise N (0, 1)-verteilt. Bestimmt man die Quantile u 1 − α 2 , so gilt: P ( − z 1 − α 2 < ˆ p − p √ p(1 − p) n < z 1 − α 2 ) ≈ 1 − α Die Ungleichungskette − z 1 − α 2 < ˆ p − p √ p(1 − p) n < z 1 − α 2 l¨asst sich aus Symmetriegr¨ unden auf die folgende Form bringen: n(ˆ p − p) 2 < z 2 1 − α 2 · p · (1 − p) bzw. ( n + z 2 1 − α 2 ) · p 2 − ( 2nˆ p + z 2 1 − α 2 ) · p + nˆ p 2 < 0 . Die beiden L¨osungen der zugeh¨origen quadratischen Gleichung ( n + z 2 1 − α 2 ) · p 2 − ( 2nˆ p + z 2 1 − α 2 ) · p + nˆ p 2 = 0 liefern die Grenzen des Konfidenzintervalls f¨ ur p: p 1,2 = 1 1 + 1 n z 2 1 − α 2 [ ˆ p + 1 2n z 2 1 − α 2 ± 1 √ n z 1 − α 2 √ ˆ p(1 − ˆ p) + 1 4n z 2 1 − α 2 ] Zu beachten ist, dass das Intervall nicht genau symmetrisch zum Sch¨atzwert ˆ p liegt. 4 Exakt gilt: In der Versuchsserie vom Umfang n sei das Ereignis A genau m mal eingetreten. Die Grenzen des Vertrauensintervalls zum Niveau 1 − α erh¨alt man dann als L¨osungen der Gleichungen m ∑ k=0 ( n k ) p k o (1 − p o ) n−k = α 2 p o : obere Intervallgrenze n ∑ k=m ( n k ) p k u (1 − p u ) n−k = α 2 p u : untere Intervallgrenze Dann ist [ p u , p o ] ein Konfidenzintervall f¨ ur die Wahrscheinlichkeit p . Die beiden Bestimmungsgleichungen f¨ ur p o , p u lassen sich nicht explizit l¨osen, sondern m¨ ussen numerisch n¨aherungsweise berechnet werden. Besser eignet sich daf¨ ur ein in der weiterf¨ uhrenden Literatur beschriebener Zusammenhang mit der F -Verteilung. 124 14 Konfidenzintervalle Bei hinreichend großem Stichprobenumfang ist der Ausdruck z 1−α/ 2 n sehr klein und die folgende Vereinfachung f¨ ur das Konfidenzintervall [p 1 , p 2 ] f¨ ur den Parameter p zul¨assig: [ ˆ p − 1 √ n z 1 − α 2 √ ˆ p(1 − ˆ p), ˆ p + 1 √ n z 1 − α 2 √ ˆ p(1 − ˆ p) ] Mit dem Quantil z 1 − α ergeben sich einseitige Konfidenzintervalle [ 1 1 + 1 n z 2 1 − α { ˆ p + 1 2n z 2 1 − α − 1 √ n z 1 − α √ ˆ p(1 − ˆ p) + 1 4n z 2 1 − α } , 1 ] bzw. [ 0, 1 1 + 1 n z 2 1 − α { ˆ p + 1 2n z 2 1 − α + 1 √ n z 1 − α √ ˆ p(1 − ˆ p) + 1 4n z 2 1 − α } ] F¨ ur große n erh¨alt man daraus analoge N¨aherungsformeln: [ ˆ p − 1 √ n z 1 − α √ ˆ p(1 − ˆ p), 1 ] bzw. [ 0 , ˆ p + 1 √ n z 1 − α √ ˆ p(1 − ˆ p) ] Beispiel 14.2: Eine Wahlumfrage bei 200 Personen ergab f¨ ur die Partei A einen Anteil von 13.3 % (ˆ p = 0.133). Um das Konfidenzintervall zum Niveau 1 − α = 0.95 zu bestimmen, ben¨otigt man das (1 − α 2 )-Quantil der Normalverteilung, also z 0.975 = 1.96. Man erh¨alt: ˆ p ± z 0.975 √ ˆ p(1 − ˆ p) √ n = 0.133 ± 1.96 · √ 0.133 · 0.867 √ 200 = 0.133 ± 0.047 , der Vertrauensbereich f¨ ur den prozentualen Anteil 13.3 % ± 4.7 %. 14.3 Konfidenzintervall f¨ ur den Erwartungswert λ einer Poissionverteilung Die Zufallsvariable X sei Poisson-verteilt mit dem Erwartungswert E( X ) = λ und der Varianz V ar( X ) = λ. Wird nun eine Stichprobe X 1 , X 2 , . . . , X n erhoben, so ist das arithmetische Mittel X = 1 n n ∑ i=1 X i n¨aherungsweise normalverteilt. Die standardisierte Zufallsvariable X − λ √ λ n ist damit n¨aherungsweise N (0, 1)-verteilt. Mit dem Quantil der Normalverteilung z 1 − α 2 erhalten wir die Ungleichung: P ( − z 1 − α 2 < X − λ √ λ n < z 1 − α 2 ) ≈ 1 − α . 14.3 Konfidenzintervall f¨ ur den Erwartungswert λ einer Poissionverteilung 125 Wegen der Symmetrie der Ungleichungen erh¨alt man daraus ( X − λ ) 2 < u 2 1 − α 2 · λ n Die Grenzen des Konfidenzintervalls ergeben sich wieder als L¨osung der quadratischen Gleichung λ 2 − ( 2 X + 1 n u 2 1 − α 2 ) λ + X 2 = 0 . Somit bildet das Intervall [ X + 1 2n u 2 1 − α 2 − 1 √ n u 1 − α 2 √ X + 1 4n u 2 1 − α 2 , X + 1 2n u 2 1 − α 2 + 1 √ n u 1 − α 2 √ X + 1 4n u 2 1 − α 2 ] ein Konfidenzintervall f¨ ur λ mit der Vertrauenswahrscheinlichkeit γ = 1 − α. F¨ ur einseitige Konfidenzintervalle erh¨alt man entsprechend [ X + 1 2n u 2 1 − α − 1 √ n u 1 − α √ X + 1 4n u 2 1 − α , ∞ ] , [ 0, X + 1 2n u 2 1 − α + 1 √ n u 1 − α √ X + 1 4n u 2 1 − α ] Konfidenzintervall f¨ ur λ aus einer einzigen Realisierung Bei sehr seltenen Ereignissen ist oft nur eine Realisierung (Stichprobe) m¨oglich. Es sei m die Realisierung dieser Zufallsvariablen und γ = 1 − α das Vertrauensniveau. Die Verteilungsfunktion f¨ ur die die obere Grenze λ o des Konfidenzintervalls wird ihren Schwerpunkt oberhalb des Stichprobenwerts m haben. Dieser Parameter λ o wird nun so bestimmt, dass die Verteilungsfunktion (entspricht der empirischen Summenh¨aufigkeit) an der Stelle m h¨ochstens α 2 ist (vgl. Bild 14.7). Entsprechend bestimmen wir die untere Grenze λ u so, dass die Summe der Wahrscheinlichkeiten f¨ ur k ≥ m ebenfalls h¨ochstens α 2 ist (vgl. Bild 14.6). Insgesamt ergeben sich die Bestimmungsgleichungen: m ∑ k=0 λ k o k! e − λ o = α2 λ o : obere Intervallgrenze ∞ ∑ k=m λ k u k! e − λ u = α2 λ u : untere Intervallgrenze Diese Gleichungen m¨ ussen numerisch gel¨ost werden und ergeben ein Konfidenzintervall [λ u , λ o ] f¨ ur den Parameter λ zum Niveau γ = 1 − α. Zur Berechnung der Grenzen l¨asst sich auch der folgende Zusammenhang zur χ 2 -Verteilung nutzen: P ( X ≤ m) = F P (m, λ) = m ∑ k=0 λ k k! e − λ = 1 − P (χ 2 2m+2 ≤ 2λ) = 1 − F χ 2 2m+2 (2λ) Mit den Quantilen der χ 2 -Verteilung stellt sich dann das Konfidenzintervall f¨ ur λ wie folgt dar: [ 12 χ 2 2m; α 2 , 12 χ 2 2m+2; 1 − α 2 ] . 126 14 Konfidenzintervalle Obige ¨ Uberlegungen zur Konstruktion des Konfidenzintervalls lassen sich auch nutzen, um die Punktsch¨atzung f¨ ur den Parameter λ zu verbessern. Die Methode Maximum-Likelihood f¨ uhrt zun¨achst zu ˆ λ = m (vgl. Bild 14.9). Bei ganzzahligen λ besitzt stets die n¨achstkleinere ganze Zahl dieselbe Wahrscheinlichkeit. Wir fordern nun von unserer Sch¨atzfunktion f¨ ur λ, dass die Wahrscheinlichkeit f¨ ur k < m und k > m gleich groß sein soll. F P (m − 1, λ) = m − 1 ∑ k=0 λ k k! e − λ = ∞ ∑ k=m+1 λ k k! e − λ = 1 − F P (m, λ) An Stelle der numerischen L¨osung ˆ λ dieser Gleichung kann auch das Quantil der χ 2 - Verteilung f¨ ur n = 2m + 1 und Wahrscheinlichkeit 0.5 (vgl. Bild 14.8) benutzt werden: ˆ λ = 12 χ 2 2m+1; 0.5 . Naturgem¨aß ergeben sich bei einer Stichprobe große Vertrauensintervalle. Dies sei an folgendem Zahlenbeispiel demonstriert. Beispiel 14.3: Es sei m = 3, α = 0.1; Wir bestimmen die Quantile χ 2 8; 0.95 = 15.5073 und χ 2 6; 0.05 = 1.6354 sowie χ 2 7; 0.5 = 6.3458 nach Tafeln. Damit ergibt sich (gerundet) f¨ ur λ ein Konfidenzintervall: [ 1 2 χ 2 6; 0.05 , 1 2 χ 2 8; 0.95 ] = [0.82 , 7.8] sowie ein Sch¨atzwert: ˆ λ = 1 2 χ 2 7; 0.5 = 3.17. Bild 14.6 Bild 14.7 Bild 14.8 Bild 14.9 127 15 Vertrauensintervall f¨ ur Regressionsgeraden In Kapitel 3.2 der beschreibenden Statistik wurde erl¨autert, wie zu einer zweidimensionalen Stichprobe (x i | y i ) eine Ausgleichsgerade, Regressionsgerade nach dem Prinzip der kleinsten Fehlerquadrate bestimmt wird. Die Zielgr¨oße Y wird als ungenaue Funktion einer Ausgangsvariablen X betrachtet. y i ≈ h(x i ) = α + βx i Ein einfaches Wahrscheinlichkeitsmodell daf¨ ur ist Y i = h(x i ) + E i . Der erste Term dr¨ uckt die deterministische Abh¨angigkeit der beiden Variablen aus und E i ist ein Term f¨ ur die als zuf¨allig aufgefasste Abweichung zwischen y i und dem Punkt auf der Regressionsgeraden f¨ ur x = x i . Wir wollen hier voraussetzen, dass wir f¨ ur h(x) eine Formel (z. B. Geradengleichung) kennen, in der die Parameter (Steigung, Achsenabschnitt) aus den Daten bestimmt werden. Die Fehler sollen alle der gleichen Normalverteilung folgen E i ≈ N (0, σ 2 ) und voneinander unabh¨angig sein. F¨ ur Y i gilt deshalb mit der Regressionsfunktion h(x) = α + βx: Y i ≈ N (α + βx i , σ 2 ) . Das Modell der linearen Regression wird damit von einer parametrischen Verteilung mit den Parametern α, β, σ 2 bestimmt. Wenn diese drei Gr¨oßen gegeben sind, so ist auch die Verteilung der Zufallsgr¨oßen Y i festgelegt. Sie haben - im Unterschied zur Zufallsstichprobe - nicht die gleiche Verteilung; man kann von einer strukturierten Stichprobe sprechen. Die Werte x i der Ausgangsgr¨oße werden als fest vorgegeben angenommen. Diese Voraussetzung ist h¨aufig bei naturwissenschaftlichen Fragestellungen plausibel. In vielen sozialwissenschaftlichen Fragestellungen und auch bei manchen technischen Problemen ist es dagegen nicht m¨oglich, die erkl¨arende Variable X gen¨ ugend genau zu kontrollieren. Es macht jedoch auch in diesem Fall Sinn, die statistischen Methoden zu ben¨ utzen, die f¨ ur fest vorgegebene, nicht zuf¨allige x i hergeleitet werden. 128 15 Vertrauensintervall f¨ ur Regressionsgeraden 15.1 Sch¨atzung der Parameter Die beiden Parameter α, β werden analog zu Kapitel 3.2 nach der Methode der kleinsten Fehlerquadrate bestimmt ˆ β = n ∑ i=1 ( Y i − ¯ Y ) · (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ˆ α = ¯ Y − ˆ β ¯ x mit Y i : i-ter Messwert (ZV) ¯ Y : arith. Mittel der Messwerte (ZV) ¯ x : arith. Mittel der Messwerte (fest) Damit erhalten wir das Modell Y i = ˆ α + ˆ βx i + E i Einen Zusammenhang zwischen den Sch¨atzfunktionen ergibt sich aus der Mittelbildung: ¯ Y = ˆ α + ˆ β ¯ x Damit l¨asst sich der obige Zusammenhang auch schreiben als: Y i = ¯ Y + ˆ β(x i − ¯ x) + E i Zun¨achst muss die Varianz des Fehlers E i gesch¨atzt werden. Wir benutzen dazu die sogenannten Residuen, d. h. die Abweichungen der gemessenen Werte y i von den Werten auf der Regressionsgeraden R i = y i − ( ˆ α + ˆ βx i ) . Die gebr¨auchlichste Sch¨atzfunktion 1 f¨ ur die Varianz von E i ist ˆ σ 2 = 1 n − 2 n ∑ i=1 R 2 i . Um Aussagen ¨ uber die Vertrauensbereiche machen zu k¨onnen, m¨ ussen wir das Streuverhalten dieser Sch¨atzfunktionen ˆ α, ˆ β bestimmen. 1 Der Ausdruck hat nur n − 2 Freiheitsgrade. Durch zwei Punkte wird eine Gerade festgelegt. Erst der dritte Punkt kann davon abweichen! 15.1 Sch¨atzung der Parameter 129 V ar( ˆ β) = V ar ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ n ∑ i=1 ( Y i − ¯ Y ) · (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ = V ar ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ n ∑ i=1 Y i · (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 − ¯ Y · n ∑ i=1 (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ︸ ︷︷ ︸ = 0 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ = n ∑ i=1 V ar ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ Y i · (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ = n ∑ i=1 V ar ( Y i ) · ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ 2 = σ 2 · n ∑ i=1 ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ (x i − ¯ x) n ∑ i=1 (x i − ¯ x) 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ 2 = σ 2 · 1 n ∑ i=1 (x i − ¯ x) 2 F¨ ur ˆ α = ¯ Y − ˆ β · ¯ x erh¨alt man: V ar( ˆ α) = V ar ( ¯ Y − ˆ β · ¯ x ) = V ar ( ¯ Y ) + V ar( ˆ β · ¯ x) ) 2 = σ 2 n + (¯ x) 2 · V ar( ˆ β) = σ 2 · ⎛ ⎜ ⎜ ⎜ ⎜ ⎝ 1 n + (¯ x) 2 n ∑ i=1 (x i − ¯ x) 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ Mit der Abk¨ urzung s xx = n ∑ i=1 (x i − ¯ x) 2 ergibt sich das Streuverhalten der Sch¨atzfunktionen in Abh¨angigkeit von σ 2 zu: V ar( ˆ β) = σ 2 s xx V ar( ˆ α) = σ 2 · ( 1 n + (¯ x) 2 s xx ) 2 Man kann zeigen, dass die Kovarianz von ¯ Y und ˆ β Null ergibt. 130 15 Vertrauensintervall f¨ ur Regressionsgeraden 15.2 Vertrauens- und Prognose-Intervall Die Gr¨oße T = ˆ β − β σ β mit σ 2 β = ˆ σ 2 S xx ist t-verteilt mit (n − 2) Freiheitsgraden 3 . Zu vorgegebenem γ (z. B. γ = 0.95) bestimmen wir das t-Quantil f¨ ur p = (1 + γ)/ 2. Dann ist [ β − t 1+γ 2 · σ β , β + t 1+γ 2 · σ β ] ein Vertrauensintervall f¨ ur die Steigung β zum Niveau γ. Analog ist T = ˆ α − α σ α mit σ 2 α = ˆ σ 2 · ( 1 n + (¯ x) 2 S xx ) t-verteilt mit (n − 2) Freiheitsgraden. Dann ist [ α − t n − 2; 1+γ 2 · σ α , α + t n − 2; 1+γ 2 · σ α ] ein Vertrauensintervall f¨ ur den Achsenabschnitt α zum Niveau γ. Man kann nun fragen, wie groß der Funktionswert der Regressionsgeraden an der Stelle x 0 mit der Wahrscheinlichkeit γ sein wird. Wir bestimmen daf¨ ur ein Vertrauensintervall. Laut Modell ist h(x 0 ) = α + β · x 0 . Wir bestimmen die Varianz von ˆ α + ˆ β · x 0 . V ar( ˆ α + ˆ β · x 0 ) = V ar ( ˆ α + ˆ β · ¯ x + ˆ β · (x 0 − ¯ x) ) = V ar ( ¯ Y + ˆ β · (x 0 − ¯ x) ) = σ 2 n + σ 2 S xx · (x 0 − ¯ x) 2 = σ 2 · ( 1 n + (x 0 − ¯ x) 2 S xx ) Die Gr¨oße σ 2 muss wieder gesch¨atzt werden, so dass die Testgr¨oße T = y − h(x 0 ) σ v mit σ 2 v = ˆ σ 2 · ( 1 n + (x 0 − ¯ x) 2 S xx ) wieder t-verteilt ist mit (n − 2) Freiheitsgraden. Mit dem oben erw¨ahnten t-Quantil ergibt sich damit f¨ ur den Funktionswert der Vertrauensbereich [ ( ˆ α + ˆ β · x 0 ) − t n − 2; 1+γ 2 · σ v , ( ˆ α + ˆ β · x 0 ) + t n − 2; 1+γ 2 · σ v ] . Dieses Vertrauensband gibt an, wo der ideale Funktionswert h(x 0 ) mit der Wahrscheinlichkeit γ liegt. Die Frage, in welchem Bereich eine k¨ unftige Beobachtung liegen wird, ist damit noch nicht beantwortet. Es ist klar, dass dieses Intervall breiter ist als das Vertrauensintervall f¨ ur den Erwartungswert der Regressionsfunktion (vgl. Bild 15.1 und 15.2). 3 Die Varianz σ 2 muss mittels der Residuenquadrate gesch¨atzt werden. 15.3 Regressionsanalyse 131 Es muss ja noch die Zufallsabweichung der Beobachtung ber¨ ucksichtigt werden. Genaue Rechnung ergibt das plausible Ergebnis f¨ ur die dann zu ber¨ ucksichtigende Varianz σ 2 P = ˆ σ 2 · ( 1 + 1 n + (x 0 − ¯ x) 2 S xx ) . Daraus errechnet sich das Prognose-Intervall f¨ ur eine k¨ unftige Beobachtung zu [ ( ˆ α + ˆ β · x 0 ) − t 1+γ 2 · σ P , ( ˆ α + ˆ β · x 0 ) + t 1+γ 2 · σ P ] . 15.3 Regressionsanalyse Zun¨achst ist zu kl¨aren, ob ¨ uberhaupt zwischen den beobachteten Werten x i und y i ein linearer Zusammenhang besteht. Dies kann durch einen Test f¨ ur die Regressionskoeffizienten auf Null erfolgen. Dazu ¨aquivalent ist die Konstruktion entsprechender Konfidenzintervalle f¨ ur die Regressionskoeffizienten. Die zuvor besprochenen Sch¨atz- und Testmethoden setzen voraus, dass die Modellannahmen gelten. So wurde stets angenommen, dass die Fehler E i einer N (0, σ 2 )-Verteilung gen¨ ugen. Dies zu ¨ uberpr¨ ufen ist wesentlich. Oft werden dabei auff¨allige Abweichungen entdeckt. Wir sind dann aufgefordert, ein anderes Modell zu entwickeln, das besser zu den Daten passt. Die Annahme E i ≈ N (0, σ 2 ) kann aufgespalten werden in: (a) Die E i sind unabh¨angig. (b) Der Erwartungswert von E i ist Null. (c) Alle Fehler E i haben dieselbe Varianz. (d) Die E i sind normalverteilt. Allerdings kennen wir die Fehler E i nicht. Es bleibt uns nichts anderes ¨ ubrig, als sie durch die sogenannten Residuen zu sch¨atzen, d. h. durch die Differenz zwischen Messwert y i und dem zugeh¨origen Wert der Regressionsfunktion f¨ ur x = x i . Ein Diagramm f¨ ur die y i ist sinnlos, da deren Erwartungswerte verschieden sind! Form der Residuen-Verteilung Die Annahme (d) kann man mit einem Normalverteilungsdiagramm (normal plot) ¨ uberpr¨ ufen. Zeigen sich Abweichungen, so sind zum Beipiel Ausreißer auf Richtigkeit zu ¨ uberpr¨ ufen. Bei einer schiefen Verteilung sollte man eine Transformation der Daten (z. B. Logarithmieren, Quadrieren, etc.) versuchen. Dabei ist zu beachten, dass sich bei einer Transformation der Daten nicht nur die Zielgr¨oße ver¨andert wird, sondern auch die Regressionsfunktion. Gleichheit der Varianzen Um diese Gleichheit zu ¨ uberpr¨ ufen, m¨ ussen wir uns ¨ uberlegen, mit welcher Gr¨oße die Varianzen zusammenh¨angen k¨onnen. Die h¨aufigste Abweichung von dieser Annahme besteht 132 15 Vertrauensintervall f¨ ur Regressionsgeraden darin, dass mit zunehmendem Wert der Zielgr¨oße auch deren Streuung zunimmt. Zur Kontrolle tr¨agt man deshalb die Residuen gegen die Werte auf der Regressionsgerade (fitted values) auf. Manchmal stellt sich auch eine Abh¨angigkeit der Residuen von der erkl¨arenden Variablen X ein. Durch eine Gewichtung kann unter Umst¨anden Abhilfe geschaffen werden. Passende Regressionsfunktion Um beim oben erw¨ahnten Diagramm (Residuen gegen fitted values) eine Tendenz zu entdecken, macht es Sinn, eine gl¨attende Funktion und/ oder eine Ausgleichsgerade einzuzeichnen. Ist ein Trend erkennbar, so ist die Regressionsfunktion nicht geeeignet. Dies kann gegebenenfalls wieder durch eine geeignete Datentransformation beseitigt werden. Als n¨ utzlich erweisen sich oft Logarithmus-Transformationen f¨ ur Konzentrationen, Wurzeltransformationen f¨ ur Z¨ahldaten und die sogenannte Arcus-Sinus-Transformation ˜ y = arcsin √ y f¨ ur Anteile (Prozentzahlen/ 100). Die moderne Datenverarbeitung erm¨oglicht auch nichtlineare Regressionsmodelle f¨ ur die Originaldaten. So bieten fast alle Statistik-Pakete diese M¨oglichkeit, wobei die genaue Funktionsweise des benutzten Algorithmus oft schwer zu ¨ uberblicken ist. Auf eine exakte Regressionsanalyse sollte deshalb nicht verzichtet werden. Beispiel 15.1: Die Vorgehensweise wird an folgender Stichprobe erl¨autert. x i 49 46 44 74 36 39 40 47 117 110 106 54 66 y i 5.99 5.39 4.88 3.14 9.83 8.03 4.79 4.55 0.77 0.92 0.77 3.29 2.99 Das Datenmaterial l¨asst grob auf einen Zusammenhang y i ≈ A · x b i mit b ≈ − 2 schließen. Wir unterwerfen deshalb die Daten einer logarithmischen Transformation (Zehnerlogarithmen). lg y i ≈ lg A ︸︷︷︸ = a + b · lg x i und erhalten so ein lineares Regressionsmodell. lg x i 1.6902 1.6628 1.6435 1.8692 1.5563 1.5911 1.6021 1.6721 2.0682 2.0414 2.0253 1.7324 1.8195 lg y i 0.7774 0.7316 0.6884 0.4969 0.9926 0.9047 0.6803 0.6580 -0.1135 -0.0362 -0.1135 0.5172 0.4757 F¨ ur das Vertrauensniveau γ = 0.95 ergeben sich f¨ ur die gesuchten Parameter folgende Werte und Vertrauensintervalle: Parameter Sch¨atzung Standard-Abweichung Intervall T-Werte a 4.0450 0.2813 ± 0.6192 14.378 b -1.9990 0.1584 ± 0.3487 -12.617 Die angegebenen T-Werte sind die Testgr¨oßen f¨ ur den Hypothesentest f¨ ur a = 0 bzw. b = 0 und sind gegebenenfalls mit den Grenzen der t-Verteilung f¨ ur (n − 2) Freiheitsgrade zu vergleichen. Bei unserem Beispiel liegen diese Werte weit ¨ uber allen sinnvollen Vertrauensgrenzen, d. h., die Werte f¨ ur a und b sind signifikant von null verschieden. 15.3 Regressionsanalyse 133 F¨ ur die Regressionsfunktion im Originaldatenbereich erh¨alt man die Beziehung: y i ≈ A · x b i mit A = 10 a . Die beiden folgenden Bilder zeigen diesen Sachverhalt im Original und im transformierten Bereich. Der Konfidenzbereich gibt an, in welchem Gebiet die Regressionsfunktion liegen kann. Im Vorhersagebereich liegt mit der Wahrscheinlichkeit 0.95 ein k¨ unftiger Messwert. γ Bild 15.1 γ Bild 15.2 Die beiden normal plots lassen erkennen, dass im transformierten Bereich die Residuen besser zur Normalverteilung passen (vgl. Abschnitt 16.1). Bild 15.3 Bild 15.4 134 15 Vertrauensintervall f¨ ur Regressionsgeraden Tr¨agt man die Residuen gegen die fitted values auf, so ist bei den Originaldaten ein Trend erkennbar. Bild 15.5 Bild 15.6 Software-Pakete erm¨oglichen auch die Bestimmung einer nichtlinearen Regressionsfunktion im Originalbereich (MATLAB: A = 12500 bzw. a = 4.0969 und b = − 2.0296). Eine kleine Verbesserung ergibt sich, wenn man einen weiteren Parameter einf¨ uhrt: y i ≈ A · x b + c . Man erh¨alt die Sch¨atzwerte A = 12500; b = − 2.0385; c = 0.1830. Die beiden Graphiken zeigen ein leichte Verbesserung bei der Modellwahl. Bild 15.7 γ Bild 15.8 135 16 ¨ Uberpr¨ ufung von Voraussetzungen In den vorangegangenen Kapiteln wurden Hypothesen ¨ uber Parameter von Wahrscheinlichkeitsverteilungen getestet. Dabei geschah im Grunde der zweite Schritt vor dem ersten; denn zun¨achst muss man ja ¨ uberhaupt wissen, welcher Typ von Wahrscheinlichkeitsverteilung vorliegt. 16.1 Quantil-Quantil-Diagramm Wie gut eine Stichprobe von Beobachtungen mit einem Modell ¨ ubereinstimmt, l¨asst sich zun¨achst graphisch veranschaulichen. Eine naheliegende, einfache Art ist der Vergleich des Histogramms mit einer den Daten angepassten Verteilung, wie dies im Bild 9.1 f¨ ur die Gewichtsverteilung einer Schokoladentafel gemacht wurde. Eine raffiniertere, wichtige Darstellung dieses Sachverhalts beruht auf dem Begriffder Quantile: Wenn eine Verteilung durch ihre kumulative Verteilungsfunktion F gegeben ist, so geh¨ort zu jeder Wahrscheinlichkeit p mit 0 < p < 1 ein Quantil q p , das durch die Beziehung F (q p ) = p bestimmt wird (vgl. Abschnitt 2.4). F¨ ur diskrete Verteilungen hat F die Gestalt einer Treppenfunktion. Hier wird an einer Sprungstelle (Treppenstufe) der arithmetische Mittelwert des oberen und unteren Werts benutzt. Analog definiert man die empirischen Quantile f¨ ur die empirische Verteilungsfunktion. Dazu ordnet man die Stichprobenwerte der Gr¨oße nach x (1) , x (2) , . . . , x (n) . Die empirischen Quantile zu den Werten p k = k − 1/ 2 n ; k = 1, 2, . . . , n sind dann gerade die beobachteten Werte (geordnet! ) x (1) , x (2) , . . . , x (n) . Vermuten wir, dass F eine passende kumulative Verteilungsfunktion f¨ ur die vorgelegte Stichprobe ist, so m¨ ussen theoretische und numerische Quantilen einigermaßen ¨ ubereinstimmen. Tr¨agt man nun (x (k) , q p k ) in ein Streudiagramm ein, so m¨ ussten die Punkte ungef¨ahr auf der ersten Winkelhalbierenden liegen. Ein solches Streudiagramm heißt Quantil-Quantil-Diagramm oder kurz Q-Q-Plot. Wenn F die Normalverteilung darstellt, so sagt man dazu auch Normalverteilungsdiagramm oder Normal-Plot. Die folgenden Diagramme zeigen jeweils Histogramm und Q-Q-Plot f¨ ur Normalverteilungen 1 . F¨ ur die Lageparamamer und die zugeh¨origen Konfidenzintervalle zum Niveau γ = 0.95 ergaben sich: Datenmenge Bild 16.1, 16.2 Bild 16.3, 16.4 Bild 16.5, 16.6 ¯ x [¯ x − c, ¯ x + c] 1.231 [1.091, 1.372] 2.454 [2.389, 2.520] 0.797 [0.637, 0.956] s [s − k, s + k] 0.495 [0.414, 0.617] 0.242 [0.204, 0.298] 0.573 [0.480, 0.711] 1 Statt q p k ist dort p k auf der Ordinate aufgetragen! 136 16 ¨ Uberpr¨ ufung von Voraussetzungen Bild 16.1 Bild 16.2 Bild 16.3 Bild 16.4 Bild 16.5 Bild 16.6 Folgerung: Nur die zweite Verteilung k¨onnte eine Normalverteilung sein. 16.2 χ 2 -Anpassungstest 137 Bei der letzten Datenmenge taucht der Verdacht auf, dass eine Lebensdauerverteilung vorliegen k¨onnte. Der Q-Q-Plot mit der Weibull-Verteilung als Abszisse ergibt die Best¨atigung. Entsprechende Software-Pakete stellen solche Quantile-Plots f¨ ur alle gebr¨auchliche Verteilungen bereit. Im n¨achsten Abschnitt werden wir Hilfsmittel kennenlernen, um die Glaubw¨ urdigkeit solcher Graphiken zu quantifizieren. Bild 16.7 16.2 χ 2 -Anpassungstest Wir wollen uns jetzt mit einer analytischen Methode zur Nachpr¨ ufung von Hypothesen ¨ uber einen bestimmten Verteilungstyp besch¨aftigen. Man nennt diese Methoden Anpassungstests. Es wird getestet, ob sich das Verhalten einer konkreten Stichprobe hinreichend gut an die theoretische Verteilung anpasst. Der wichtigste diesbez¨ ugliche Test ist der χ 2 -Anpassungstest. Ist X eine Zufallsvariable mit der unbekannten Verteilungsfunktion F (x) = P ( X ≤ x), dann pr¨ uft er f¨ ur eine bekannte Verteilungsfunktion F 0 die Nullhypothese H 0 : F = F 0 gegen die Alternativhypothese H 1 : F = F 0 mit einer vorgegebenen Irrtumswahrscheinlichkeit α. Beispiel 16.1: Es soll getestet werden, ob ein W¨ urfel ideal ist. Es ist also die Hypothese zu pr¨ ufen, dass jede Augenzahl die Wahrscheinlichkeit 1 6 besitzt. Zur Testdurchf¨ uhrung wird der W¨ urfel 500-mal geworfen, und die eingetretenen H¨aufigkeiten werden mit den theoretischen verglichen. Augenzahl 1 2 3 4 5 6 eingetretene H¨aufigkeit 73 86 79 83 81 98 erwartete H¨aufigkeit 500 6 500 6 500 6 500 6 500 6 500 6 Auch wenn die Hypothese der gleichm¨aßigen Verteilung richtig ist, so werden die eingetretenen H¨aufigkeiten doch etwas von den theoretischen Wahrscheinlichkeiten abweichen. Wie in den vorangegangenen Kapiteln m¨ ussen wir wieder eine Entscheidungsgrenze angeben, ab der eine Abweichung als signifikant gilt. 138 16 ¨ Uberpr¨ ufung von Voraussetzungen Als Testgr¨oße benutzen wir wie in fast allen ¨ahnlichen F¨allen die gewichteten Abstandsquadrate der Differenz zwischen theoretischer und tats¨achlicher H¨aufigkeit. 16.2.1 Test von vorgebenen Wahrscheinlichkeiten Wir betrachten eine diskrete Zufallsvariable X und wollen testen, ob die angenommenen Wahrscheinlichkeiten p i f¨ ur das Eintreten des Ereignisse A i : X = x i ; i = 1, 2, . . . , m mit einer Stichprobe vereinbar ist. Nullhypothese: H 0 : Die m Ereignisse besitzen die Wahrscheinlichkeiten p 1 , p 2 , . . . , p m . Da die Summe aller p i stets 1 ergeben muss, liegen nur m − 1 unabh¨angige Parameter vor. Das entsprechende Zufallsexperiment wird n mal unabh¨angig voneinander durchgef¨ uhrt. Die beobachteten absoluten H¨aufigkeiten h i werden mit den theoretischen Werten verglichen. Ereignis A 1 A 2 A 3 . . . A m Summe eingetretene H¨aufigkeit h 1 h 2 h 3 . . . h m n erwartete H¨aufigkeit n · p 1 n · p 2 n · p 3 . . . n · p m n Die Differenzen der eingetretenen und der erwarteten H¨aufigkeiten werden quadriert und anschließend aufsummiert. Wir gewichten mit dem Kehrwert der theoretischen Wahrscheinlichkeiten, d. h. bei kleinen Wahrscheinlichkeiten werden die absoluten Abweichungen st¨arker ber¨ ucksichtigt. Die so gewonnene Summe nennt man χ 2 ber . Diese Testgr¨oße χ 2 ber = (h 1 − n · p 1 ) 2 n · p 1 + (h 2 − n · p 2 ) 2 n · p 2 + . . . + (h m − n · p m ) 2 n · p m ist n¨aherungsweise χ 2 -verteilt mit m − 1 Freiheitsgraden. Testentscheidung: Zu vorgegebener Irrtumswahrscheinlichkeit α bestimmen wir das (1 − α)- Quantil χ 2 1 − α der χ 2 -Verteilung mit m − 1 Freiheitsgraden. χ 2 ber > χ 2 m − 1; 1 − α ⇒ H 0 wird abgelehnt Beispiel 16.2: Die G¨ ultigkeit der Mendelschen Gesetze soll mittels einer Beobachtungsreihe am Beispiel Erbsen best¨atigt werden. Die Form der Erbsen kann rund (A : dominant) oder kantig (a : rezessiv) sein, die Farbe gelb (B : dominant) oder gr¨ un (b : rezessiv) sein. Eine Pflanze mit den ¨außeren Merkmalen rund und gelb wird mit den Pollen einer zweiten Pflanze, von der kein Merkmalswert bekannt ist, best¨aubt. Es entstehen Samen s¨amtlicher vier Ph¨anotypen mit den H¨aufigkeiten: rund und gelb 30 rund und gr¨ un 9 kantig und gelb 6 kantig und gr¨ un 5 16.2 χ 2 -Anpassungstest 139 Da s¨amtliche vier Ph¨anotypen vorkommen, muss die erste Pflanze vom Genotyp (Aa,Bb) sein. F¨ ur die zweite Pflanze kommt der Genotyp (Aa,bb), (aa,Bb), (aa,bb) oder wieder (Aa,Bb) in Frage. Welcher Fall ist mit dem Zahlenmaterial am besten vertr¨aglich? Die theoretischen Wahrscheinlichkeiten f¨ ur den Fall (Aa,Bb) entnehmen wir der folgenden Tabelle. Horizontal und vertikal sind jeweils die vier M¨oglichkeiten f¨ ur die geteilten Zellen angegeben. (A,B) (A,b) (a,B) (a,b) (A,B) (AA,BB) (AA,Bb) (Aa,BB) (Aa,Bb) (A,b) (AA,bB) (AA,bb) (Aa,bB) (Aa,bb) (a,B) (aA,BB) (aA,Bb) (aa,BB) (aa,Bb) (a,b) (aA,bB) (aA,bb) (aa,bB) (aa,bb) Die theoretischen Wahrscheinlichkeiten ergeben sich daraus zu 9 16 : 3 16 : 3 16 : 1 16 . Die ¨ ubrigen F¨alle lassen sich auch aus der Tabelle ablesen. So ergeben sich f¨ ur den Fall (Aa,bb) nur die Spalten zwei und vier; f¨ ur (aa,Bb) sind nur die Spalten drei und vier relevant, w¨ahrend bei (aa,bb) nur die 4. Spalte auftritt. Insgesamt erhalten wir f¨ ur die theoretischen Wahrscheinlichkeiten: (Aa,Bb) (Aa,bb) (aa,Bb) (aa,bb) rund und gelb 9 16 38 38 14 rund und gr¨ un 3 16 38 18 14 kantig und gelb 3 16 18 38 14 kantig und gr¨ un 1 16 18 18 14 Wir bestimmen f¨ ur die vier M¨oglichkeiten die zugeh¨origen Testgr¨oßen: t 1 = ( 30 − 50 · 9 16 ) 2 50 · 9 16 + ( 9 − 50 · 3 16 ) 2 50 · 3 16 + ( 6 − 50 · 3 16 ) 2 50 · 3 16 + ( 5 − 50 · 1 16 ) 2 50 · 1 16 = 2.48 t 2 = ( 30 − 50 · 38 ) 2 50 · 3 8 + ( 9 − 50 · 38 ) 2 50 · 3 8 + ( 6 − 50 · 18 ) 2 50 · 1 8 + ( 5 − 50 · 18 ) 2 50 · 1 8 = 12.08 t 3 = ( 30 − 50 · 38 ) 2 50 · 3 8 + ( 9 − 50 · 18 ) 2 50 · 1 8 + ( 6 − 50 · 38 ) 2 50 · 3 8 + ( 5 − 50 · 18 ) 2 50 · 1 8 = 16.88 t 4 = ( 30 − 50 · 14 ) 2 50 · 1 4 + ( 9 − 50 · 14 ) 2 50 · 1 4 + ( 6 − 50 · 14 ) 2 50 · 1 4 + ( 5 − 50 · 14 ) 2 50 · 1 4 = 33.36 Zum Niveau γ = 0.95 ergibt sich die kritische Grenze f¨ ur die Testentscheidung aus der Umkehrung der χ 2 -Verteilungsfunktion mit m = 3 Freiheitsgraden zu c = 7.81. Die Testgr¨oße f¨ ur den Genotyp (Aa,Bb) liegt deutlich unterhalb dieser Grenze und ist deshalb die 140 16 ¨ Uberpr¨ ufung von Voraussetzungen wahrscheinlichste, w¨ahrend bei den anderen F¨allen die Testgr¨oße deutlich gr¨oßer ist. Die Werte der χ 2 -Verteilungsfunktion an diesen Stellen ergeben sich zu: χ 2 (t 2 , 3) = 0.9929; χ 2 (t 3 , 3) = 0.9993; χ 2 (t 4 , 3) = 0.9999997 . D. h., falls der Fall (Aa,bb) vorliegt, tritt eine so große Testgr¨oße nur mit der Wahrscheinlichkeit 1 − χ 2 (t 2 , 3) = 0.0071 auf. Es bleibt noch die Frage nach der G¨ ultigkeit der χ 2 -N¨aherung. In manchen Lehrb¨ uchern wird die strenge Regel alle n · p i ≥ 5 gefordert. Die meisten Autoren vertreten die Auffassung, dass auch weniger strenge Regeln eine gute Approximation im interessanten Bereich γ ≈ 0.95 erm¨oglichen. So stellt H. Stahel die folgende Regel auf: 80 % der Faktoren n · p i sollten gr¨oßer als 4 sein, die ¨ ubrigen gr¨oßer als 1 (wie beim Mendel-Beispiel). Andernfalls muss man Klassen zusammenfassen. Dadurch verliert der Test etwas an Aussagekraft. 16.2.2 Test einer Verteilungsfunktion Mittels des χ 2 -Tests kann auch gepr¨ uft werden, ob eine Zufallsvariable X einer bestimmten Verteilungsfunktion folgt. Dabei sind folgende F¨alle denkbar: a) Bei der zu testenden Verteilungsfunktion sind s¨amtliche Parameter bekannt, z. B. beim Test auf Gleichverteilung. Es ist also zu kl¨aren, ob eine Stichprobe aus einer genau bekannten Verteilung kommen kann. b) Es ist zu testen, ob die Verteilungsfunktion einer bestimmten Klasse - z. B. Normalverteilung - angeh¨ort. In diesem Falle h¨angt die Verteilungsfunktion noch von bestimmten Parametern - bei der Normalverteilung μ und σ 2 - ab. Diese Parameter m¨ ussen dann aus der Stichprobe gesch¨atzt und in die Verteilungsfunktion eingesetzt werden. Testdurchf¨ uhrung 1. Schritt: Die in der Verteilungsfunktion vorkommenden Parameter werden gegebenenfalls mit Hilfe der benutzten Stichprobe gesch¨atzt, so dass diese vollst¨andig bestimmt ist. 2. Schritt: Der Wertebereich der Zufallsvariablen X wird in m Klassen eingeteilt. Mit Hilfe der hypothetischen Verteilung werden die einzelnen theoretischen Klassenwahrscheinlichkeiten berechnet. Bei vorgegebenem Stichprobenumfang n soll die Klasseneinteilung so vorgenommen werden, dass die theoretischen Klassenh¨aufigkeiten n · p i > 5 sind (vgl. Abschnitt 16.2.1). Mit h 1 , h 2 , . . . , h m bezeichnen wir die tats¨achlichen absoluten Klassenh¨aufigkeiten der Stichprobe. Die Testgr¨oße χ 2 ber = (h 1 − n · p 1 ) 2 n · p 1 + (h 2 − n · p 2 ) 2 n · p 2 + . . . + (h m − n · p m ) 2 n · p m ist wieder χ 2 -verteilt. Jedoch muss beim Festlegen der Anzahl der Freiheitsgrade von m − 1 noch die Anzahl der gesch¨atzten Parameter abgezogen werden. Falls beim Test auf Normalverteilung zwei Parameter gesch¨atzt wurden, ergeben sich m − 3 Freiheitsgrade. 16.2 χ 2 -Anpassungstest 141 Test auf Poissonverteilung Beispiel 16.3: Untersucht wird Anzahl der von beiden Mannschaften geschossenen Tore pro Bundesligaspiel. In der nachfolgenden Tabelle ist die Gesamtzahl der Tore pro Spiel der Fußballbundesliga in der Spielzeit 2011/ 12 zusammengestellt. Beim Test fassen wir die Klassen 7 und 8 zusammen. Als zugeh¨orige theoretische Wahrscheinlichkeit benutzen wir die Summe der Wahrscheinlichkeiten f¨ ur k = 7, 8, 9, . . .. In Spalte n · p i tragen wir die fehlende Erg¨anzung zu n = 306 ein. (In Tabelle 2 grau unterlegt.) Den Sch¨atzwert f¨ ur den Erwartungswert λ errechnen wir aus den Daten der Tabelle 1: λ = 865 306 = 2.8268 Tabelle 1 Tore H¨aufigkeit Produkt 0 24 0 1 45 45 2 68 136 3 66 198 4 54 216 5 34 170 6 8 48 7 4 28 8 3 24 ∑ 306 865 Tabelle 2 Tore p i n · p i h i h i − n · p i (h i − n · p i ) 2 n · p i 0 0.0592 18.1159 24 5.8841 1.9112 1 0.1674 51.2099 45 -6.2099 0.7530 2 0.2365 72.3800 68 -4.3800 0.2650 3 0.2229 68.2012 66 -2.2012 0.0710 4 0.1575 48.1977 54 5.8023 0.6985 5 0.0890 27.2490 34 6.7510 1.6726 6 0.0420 12.8379 8 -4.8379 1.8231 7, 8,. . . 0.0255 7.8085 7 -0.8085 0.0837 ∑ 1.0000 306 306 0.0000 7.2783 beobachtet Poisson-Verteilung H¨aufigkeit 60 40 20 0 5 1 2 3 4 6 7 8 Bild 16.8 142 16 ¨ Uberpr¨ ufung von Voraussetzungen Es soll nun die Hypothese getestet werden, dass eine Poissonverteilung mit diesem Parameter λ vorliegt. Die Rechenschritte sind in Tabelle 2 festgehalten. Dabei ist p i = P ( X = i) die (theoretische) Wahrscheinlichkeit f¨ ur genau i Tore, falls eine Poisson-Verteilung mit dem eben berechneten Parameter λ vorliegt. Im Bild 16.8 wird die Vorgehensweise graphisch dargestellt. F¨ ur die Testgr¨oße erh¨alt man den Wert χ 2 ≈ 7.3. Insgesamt wurden acht Klassen benutzt. Da ein Parameter gesch¨atzt wurde, ist die Zufallsvariable χ 2 -verteilt mit 8 - 2 = 6 Freiheitsgraden. Zur Irrtumswahrscheinlichkeit α = 0.05 erh¨alt man das zugeh¨orige Quantil χ 2 6; 0.95 = 12.54. (F¨ ur α = 0.1 erh¨alt man das zugeh¨orige Quantil χ 2 6; 0.9 = 10.64.) Da die Testgr¨oße deutlich kleiner als diese kritische Grenze ist, kann die Hypothese, dass die Anzahl der Tore pro Spiel Poisson-verteilt ist, nicht abgelehnt werden. Die Abweichungen zwischen den tats¨achlichen und den theoretischen H¨aufigkeiten k¨onnen somit auf den Zufall zur¨ uckgef¨ uhrt werden. Test auf Normalverteilung Der χ 2 -Test ist auch auf stetige Verteilungen anwendbar. Dazu muss man - wie bei der graphischen Datenaufbereitung zum Histogramm - eine Klasseneinteilung der Daten durchf¨ uhren. M¨ ussen die Parameter der Verteilung aus den Daten gesch¨atzt werden, so verringt sich entsprechend die Zahl der Freiheitsgrade um 2. Beispiel 16.4: Am Beispiel der Wiegedaten einer Schokoladentafel (vgl. Seite 76) soll auf Normalverteilung getestet werden. Zun¨achst werden Erwartungswert und Varianz aus den Daten gesch¨atzt: 2 ¯ x = 1 n n ∑ i=1 x i = 99.944; ˆ σ 2 = 1 n − 1 n ∑ i=1 (x i − ¯ x) 2 = 9.6552 oder ` σ 2 = 1 n n ∑ i=1 (x i − ¯ x) 2 = 9.6070 Bei der Festlegung der Klassengrenzen hat es sich als brauchbar erwiesen, die Anzahl der Klassen ≈ √ n zu w¨ahlen. Die zur Testdurchf¨ uhrung notwendigen Daten sind in der folgenden Tabelle zusammengestellt. Dabei haben die Spalten die folgende Bedeutung: z i : rechte Klassengrenze h i : absolute H¨aufigkeit der Klasse i F (z i ) : Wert der Normalverteilung N (¯ x, ` σ 2 ) am rechten Rand F (z i ) − F (z i − 1 ) : theoretische Wahrscheinlichkeit f¨ ur Klasse i r i : theoretische H¨aufigkeit f¨ ur Klasse i, also r i = n · (F (z i ) − F (z i − 1 )) d i : Differenz zwischen theoretischer und tats¨achlicher H¨aufigkeit D i : gewichtetes Abstandsquadrat D i = d 2 i r i 2 Manche Autoren empfehlen an dieser Stelle die Maximum-Likelihood-Sch¨atzung f¨ ur die Varianz mit dem Faktor 1 n ; sie wurde beim folgenden Zahlenbeispiel benutzt. 16.2 χ 2 -Anpassungstest 143 Klassengrenzen z i h i F (z i ) F (z i ) − F (z i − 1 ) r i d i D i −∞ < x ≤ 93.0 93.0 2 0.01253 0.01253 2.506 0.506 0.1023 93.0 < x ≤ 95.0 95.0 7 0.05534 0.04281 8.561 1.561 0.2847 95.0 < x ≤ 96.0 96.0 12 0.10159 0.04625 9.251 − 2.749 0.8171 96.0 < x ≤ 97.0 97.0 12 0.17108 0.06949 13.898 1.898 0.2591 97.0 < x ≤ 98.0 98.0 18 0.26524 0.09416 18.832 0.832 0.0367 98.0 < x ≤ 99.0 99.0 21 0.38032 0.11508 23.016 2.016 0.1766 99.0 < x ≤ 100.0 100.0 32 0.50718 0.12686 25.371 − 6.629 1.7318 100.0 < x ≤ 101.0 101.0 23 0.63330 0.12613 25.226 2.226 0.1964 101.0 < x ≤ 102.0 102.0 23 0.74641 0.11311 22.622 − 0.378 0.0063 102.0 < x ≤ 103.0 103.0 19 0.83790 0.09149 18.298 − 0.702 0.0269 103.0 < x ≤ 104.0 104.0 12 0.90465 0.06675 13.349 1.349 0.1364 104.0 < x ≤ 105.0 105.0 9 0.94857 0.04392 8.784 − 0.216 0.0053 105.0 < x ≤ 107.0 107.0 8 0.98859 0.04002 8.004 0.004 0.0000 107.0 < x < ∞ ∞ 2 1.00000 0.01141 2.282 0.282 0.0349 Summe 200 1.00000 200 3.8145 Zum Niveau γ = 0.95 ergibt sich bei n = 14 − 3 Freiheitsgraden die kritische Grenze zu c = 19.6751. Sie liegt deutlich h¨oher als die Testgr¨oße t = 3.8145, also wird die Hypothese einer Normalverteilung nicht verworfen. Die r i sind bis auf zwei Ausnahmen gr¨oßer als 4 und damit ist die N¨aherung mit der χ 2 -Verteilung vertretbar. Der Ausreißer (Datensatz Nr. 44) bleibt in nachfolgender Graphik unber¨ ucksichtigt. Bild 16.9 144 17 χ 2 -Unabh¨angigkeitstests 17 χ 2 -Unabh¨angigkeitstests Die Unabh¨angigkeit von Zufallsvariablen wurde bisher h¨aufig auf Grund des sachlichen Zusammenhangs vorausgesetzt, aber ein Verfahren zur Nachpr¨ ufung steht noch aus. Es soll nun gepr¨ uft werden, ob zwei Ereignisse voneinander stochastisch unabh¨angig sind. Dies wird an folgendem Beispiel demonstriert: Beispiel 17.1: Zur Untersuchung, ob eine Grippeimpfung die Wahrscheinlichkeit an Grippe zu erkranken beeinflusst, wurden insgesamt 500 Personen zuf¨allig ausgesucht. Davon waren 120 geimpft, die ¨ ubrigen 380 Personen verzichteten auf diese Vorsichtsmaßnahme. Von den 120 geimpften Personen erkrankten 24, w¨ahrend von den 380 ungeimpften 97 krank wurden. Diesen Sachverhalt k¨onnen wir in der sogenannten Vierfeldertafel ¨ ubersichtlich darstellen: erkrankt nicht erkrankt Summe geimpft 24 96 120 nicht geimpft 97 283 380 Summe 121 379 500 Der Anteil der Grippekranken war bei den geimpften Personen 24 120 = 0.2, bei den ungeimpften 97 380 = 0.255. Der Anteil der Grippekranken bei allen 500 Testpersonen war 121 500 = 0.242. Von den geimpften Personen erkrankten also prozentual weniger. Das Problem besteht in der Entscheidung, ob diese Differenz signifikant ist oder auf den Zufall zur¨ uckgef¨ uhrt werden kann. Die beiden Ereignisse A (geimpft) und B (erkrankt) sollen auf stochastische Unabh¨angigkeit ¨ uberpr¨ uft werden (vgl. Anhang B). Es sei p 1 . = P (A); p 2 . = P ( ¯ A); p . 1 = P (B); p . 2 = P ( ¯ B) . Bei Unabh¨angigkeit gilt die Produktregel mit den Erwartungswerten: p 11 = P (A ∩ B) = p 1 . · p . 1 p 12 = P (A ∩ ¯ B) = p 1 . · p . 2 p 21 = P ( ¯ A ∩ B) = p 2 . · p . 1 p 22 = P ( ¯ A ∩ ¯ B) = p 2 . · p . 2 E(A ∩ B) = n · p 1 . · p . 1 E(A ∩ ¯ B) = n · p 1 . · p . 2 E( ¯ A ∩ B) = n · p 2 . · p . 1 E( ¯ A ∩ ¯ B) = n · p 2 . · p . 2 Mit h ik bezeichnen wir entsprechend p ik die gemessenen absoluten H¨aufigkeiten der Stichprobe. Analog seien h i . bzw. h . k die entsprechenden Randh¨aufigkeiten der Stichprobe. Es ergibt sich folgendes Schema: 145 B ¯ B Summe A h 11 = h(A ∩ B) h 12 = h(A ∩ ¯ B) h 1 . = h(A) ¯ A h 21 = h( ¯ A ∩ B) h 22 = h( ¯ A ∩ ¯ B) h 2 . = h( ¯ A) Summe h . 1 = h(B) h . 2 = h( ¯ B) n Wir sch¨atzen nun aus der Stichprobe p i . = h i . n ; p . k = h . k n ; Als Testgr¨oße benutzen wir die Differenz zwischen den gemessenen H¨aufigkeiten und den unter der Voraussetzung der Unabh¨angigkeit gewonnenen Erwartungswerten: χ 2 r = n · 2 ∑ i=1 2 ∑ k=1 ( h ik − h i . h . k n ) 2 h i . · h . k Da bei vorgegebener Randverteilung nur eine Gr¨oße in der Vierfeldertafel frei gew¨ahlt werden kann, besitzt das Problem nur einen Freiheitsgrad. Die Pr¨ ufgr¨oße χ 2 r ist χ 2 -verteilt mit einem Freiheitsgrad. Durch eine zwar umfangreiche aber elementare Umformung ergibt sich als Testgr¨oße: χ 2 r = n · (h 11 · h 22 − h 12 · h 21 ) 2 h 1 . · h 2 . · h . 1 · h . 2 F¨ ur obiges Zahlenbeispiel erhalten wir konkret: χ 2 r = 500 · (24 · 283 − 96 · 97) 2 120 · 380 · 121 · 379 = 1.52 Das Quantil der χ 2 -Verteilung zum Niveau 0.95 mit einem Freiheitsgrad betr¨agt 3.84 . Daher kann die Hypothese der Unabh¨angigkeit mit der Irrtumswahrscheinlichkeit α = 0.05 nicht abgelehnt werden. Die festgestellten Abweichungen sind zu klein, um einen signifikanten Einfluss festzustellen. Verallgemeinerung: Haben die beiden Zufallsvariablen X und Y mehr als zwei Auspr¨agungen, so erstreckt sich die Summation ¨ uber die entsprechende Anzahl. χ 2 r = n · r ∑ i=1 s ∑ k=1 ( h ik − h i . h . k n ) 2 h i . · h . k Diese Testgr¨oße ist ebenfalls χ 2 -verteilt mit (r − 1) · (s − 1) Freiheitsgraden. Folgendes Beispiel soll dies deutlich machen: Beispiel 17.2: In einer Textilfabrik verarbeiten vier Strickmaschinen in etwa gleichen Zeitanteilen Baumwolle, Schafwolle und synthetische Fasern zu Endprodukten. Es besteht der Verdacht, dass zwischen der Anzahl der Maschinenausf¨alle und dem zu verarbeitenden Material ein Zusammenhang besteht. Um einen solchen nachzuweisen, werden w¨ahrend 146 17 χ 2 -Unabh¨angigkeitstests eines Monats die Ausf¨alle nach der jeweils ausgefallenen Maschine und dem gerade verarbeiteten Material klassifiziert. Wie sich diese Ausf¨alle auf die einzelnen Maschinen und dem verarbeiteten Material aufteilen, zeigt die folgende Kontingenztafel. Maschine 1 Maschine 2 Maschine 3 Maschine 4 Summe Baumwolle 5 6 18 10 39 Schafwolle 16 17 19 21 73 Synth. Faser 15 5 13 19 52 Summe 36 28 50 50 ∑ 164 Es ist zu pr¨ ufen: H 0 : { Es gibt keine Abh¨angigkeit zwischen dem zu verarbeitenden Material X und der Ausfallh¨aufigkeit der Maschine Y . } Mit diesen Zahlenwerten errechnet sich die Testgr¨oße zu χ 2 r = 164 · [ ( 5 − 36 · 39 164 ) 2 36 · 39 + ( 6 − 28 · 39 164 ) 2 39 · 28 + . . . + ( 19 − 50 · 52 164 ) 2 50 · 52 ] = 11.14 Das Problem besitzt (r − 1) · (s − 1) = 2 · 3 = 6 Freiheitsgrade. Bestimmen wir das zur Irrtumswahrscheinlichkeit von 0.1 geh¨orende χ 2 -Quantil zu χ 2 6; 0.9 = 10.64 , so muss die Nullhypothese abgelehnt werden; d. h., der Verdacht, dass die Art des zu verarbeitenden Materials Einfluss auf das Ausfallverhalten der Maschine hat, wird durch das vorliegende Zahlenmaterial erh¨artet. Bei kleinen Stichprobenumf¨angen muss bei der Vierfeldertafel ein Korrektur-Term benutzt werden. Nach Yates ist folgendermaßen zu verfahren: n < 20 : χ 2 -Test sollte nicht benutzt werden 1 . 20 ≤ n ≤ 200 : korrigierte Testgr¨oße 2 : T = n ( | h 11 h 22 − h 12 h 21 | − n2 ) 2 h 1 . h 2 . h . 1 h . 2 n > 200 : urspr¨ unglicher χ 2 -Test F¨ ur das eingangs erw¨ahnte Beispiel der Grippe-Impfung ergibt sich mit der Yates-Korrektur der Zahlenwert: T Y = 500 ( | 24 · 283 − 97 · 96 | − 250) 2 120 · 380 · 121 · 379 = 1.232 . 1 Bei kleinen Stichprobenumf¨angen kann der exakte Test von Fisher benutzt werden. 2 Diese Testgr¨oße ist stets etwas kleiner als der urspr¨ unglich f¨ ur den χ 2 -Test benutzte Ausdruck. 147 Die oben besprochenen Methoden setzen unabh¨angige Stichproben voraus. So werden aus der Gruppe der Geimpften bzw. Nicht-Geimpften Personen ausgew¨ahlt und auf das zweite Merkmal - erkrankt oder nicht erkrankt - untersucht. Gibt es nun auch einen Test bei verbundenen Stichproben? Wenn beispielsweise ein nominales Merkmal vor und nach einer Behandlung am gleichen Personenkreis bestimmt wird. Es ist dann naheliegend, dass die beiden Beobachtungen nicht unabh¨angig voneinander sind. Die zweite Stichprobe umfasst ja dieselben Individuen mit ihren gesundheitlichen Besonderheiten. Zun¨achst muss die Kontingenztafel quadratisch sein, da ja das uns interessierende Merkmal vorher und nachher dieselben Auspr¨agungen aufweist. In der Diagonalen stehen die Personen, die vorher und nachher dieselben Merkmalswerte aufweisen. Die interessante Frage ist dann, ob sich die Verteilung des Merkmals durch die Behandlung ver¨andert hat. Keine Beeinflussung liegt vor, wenn sich im Wesentlichen gleich viele vom Zustand k in den Zustand j ver¨andert haben wie umgekehrt; wenn also die ¨ Ubergangswahrscheinlichkeiten von k nach j und umgekehrt gleich sind. Man kann die Abweichungen h kj − h jk aller m¨oglichen Paare wieder zu einer Testgr¨oße zusammenfassen: T = ∑ j<k (h jk − h kj ) 2 h jk + h kj Bei m Auspr¨agungen des Merkmalwertes ist diese Testgr¨oße wieder n¨aherungsweise χ 2 verteilt mit m · (m − 1)/ 2 Freiheitsgraden. Beispiel 17.3: Die Wirkung eines Medikaments auf den menschlichen Blutdruck soll getestet werden. Hundert Personen werden vor und nach der Behandlung auf die Merkmalswerte zu hoch (h), normal (n) oder zu niedrig (l) untersucht. Es ergab sich die folgende Kontingenztabelle: vor nach (l) (n) (h) ∑ (l) 12 5 3 20 (n) 2 40 8 50 (h) 2 14 14 30 ∑ 16 59 25 100 Die Testgr¨oße T = (5 − 2) 2 5 + 2 + (3 − 2) 2 3 + 2 + (14 − 8) 2 14 + 8 = 3.1221 muss mit dem kritischen Wert der χ 2 -Verteilung bei drei Freiheitsgraden zum Niveau γ = 0.95 verglichen werden. Die Testgr¨oße liegt unterhalb der Grenze c = 7.8147. Ein Einfluss ist damit nicht nachgewiesen. Ein etwas allgemeinerer Zugang zu diesem Fragenkreis wird im n¨achsten Kapitel mit der Varianzanalyse dargestellt. 148 18 Varianzanalyse 18 Varianzanalyse In der Varianzanalyse soll untersucht werden, ob ein Faktor oder mehrere Faktoren Einfluss auf ein bestimmtes Merkmal haben. Als Beispiele seien erw¨ahnt: die Wirkung verschiedener Futtermittel auf die Gewichtszunahme bei Tieren, die Reparaturanf¨alligkeit von Autos in Abh¨angigkeit vom Produktionstag, die Wirkung verschiedener Unterrichtsmethoden auf die Leistung der Sch¨ uler. Dabei wollen wir voraussetzen, dass es sich stets um voneinander unabh¨angige Stichproben handelt. Wegen des zentralen Grenzwertsatzes kann bei vielen Zufallsvariablen davon ausgegangen werden, dass sie (wenigstens n¨aherungsweise) normalverteilt sind. 18.1 Einfache Varianzanalyse Hier soll die Wirkung eines Faktors auf ein bestimmtes Merkmal untersucht werden. 1 Dazu wollen wir das folgende Beispiel betrachten: Beispiel 18.1: Ein Arzt einer Klinik meint bez¨ uglich einer bestimmten Art von Schmerzen Folgendes herausgefunden zu haben: Die mittlere Zeitdauer, die sich ein Patient nach Einnahme einer Tablette schmerzfrei f¨ uhlt, h¨angt nicht vom Wirkstoffab, den die Tablette enth¨alt, sondern nur von der Tatsache, dass dem Patienten eine Tablette verabreicht wurde. Um diese Behauptung zu pr¨ ufen, gibt er einer Anzahl von Patienten entweder ein Placebo (Tablette ohne Wirkstoff) oder eines von drei schmerzstillenden Mitteln. Die Auswahl erfolgte zuf¨allig aus einer Patientengruppe mit denselben Schmerzsymptomen. Er notiert dann, f¨ ur wieviele Stunden sich der Patient schmerzfrei f¨ uhlt. 1 Placebo 2.2 0.3 1.1 2.0 3.4 N (μ 1 , σ 2 )-Verteilung 2 Mittel A 2.8 1.4 1.7 4.3 N (μ 2 , σ 2 )-Verteilung 3 Mittel B 1.1 4.2 3.8 2.6 0.5 4.3 N (μ 3 , σ 2 )-Verteilung 4 Mittel C 3.2 4.5 2.2 5.1 3.7 N (μ 4 , σ 2 )-Verteilung Die zugrunde liegenden Zufallsvariablen seien normalverteilt, wobei die Varianz f¨ ur alle drei Zufallsvariablen gleich sei. Der Arzt behauptet, dass die Abweichungen rein zuf¨alliger Natur seien. Danach m¨ usste also die Hypothese gelten: Nullhypothese H 0 : μ 1 = μ 2 = μ 3 = μ 4 . Im Abschnitt 13.4.1 wurde der Test zweier Stichproben bei Normalverteilung und gleicher Varianz auf Gleichheit der Erwartungswerte dargestellt. 1 F¨ ur zwei Gruppen wurde die Problemstellung in Abschnitt 13.4.1 behandelt 18.1 Einfache Varianzanalyse 149 Wir k¨onnen nun diese vier Stichproben paarweise miteinander vergleichen und die Resultate der Untersuchung dann in einer symmetrischen Matrix darstellen. Die folgende Tabelle enth¨alt die Wahrscheinlichkeiten daf¨ ur, dass die Stichprobe i und k aus derselben Grund- Nr. 1 2 3 2 0.3953 - - 3 0.3073 0.8440 - 4 0.0285 0.1863 0.2837 gesamtheit stammen. F¨ unf Testergebnisse best¨atigen die Hypothese, w¨ahrend bei der Probe Nr. 1 und Nr. 4 die Wahrscheinlichkeit daf¨ ur, dass die beiden aus derselben Grundgesamtheit stammen nur ca. 3% betr¨agt. Kann aber daraus allgemein eine Medikamentenwirkung begr¨ undet werden? Sogenannte Box-Plots erlauben es auch graphisch festzuhalten, welche Gruppen sich signifikant unterscheiden. Dabei werden Median und Quartile als H¨ohenlinien von Rechtecken benutzt. Die nebenstehende Graphik zeigt deutlich, dass nur zwischen Probe 1 und Probe 4 keine ¨ Uberlappung vorliegt. Bei den anderen Proben ist eine deutliche ¨ Uberlappung der Rechtecke erkennbar. Bild 18.1 Gegen eine Vielzahl von Paarvergleichen m¨ ussen allerdings von der Grundidee des Signifikanztests her schwerwiegende Bedenken angemeldet werden. Wenn man beispielsweise sechs Gruppen miteinander vergleicht, so ergeben sich 5 · 6/ 2 = 15 Tests. Wenn wir unter der Irrtums-Wahrscheinlichkeit von 0.05 testen, ist es anschaulich klar, dass unter f¨ unfzehn Tests ab und zu ein Fehlschluss erster Art auftritt. K¨onnte man die Unabh¨angigkeit der Ereignisse voraussetzen, so w¨are die Anzahl der statistisch relevanten Testergebnisse binomial-verteilt. Eine konsequente Antwort auf diese Probematik lautet: Wir d¨ urfen nur eine Frage stellen, die wir mit einem Test beantworten k¨onnen: ”Gibt es ¨ uberhaupt statistisch relevante Unterschiede zwischen den Gruppen? “ Allgemeine Formulierung der Problemstellung Von m unabh¨angigen Zufallsvariablen X 1 , X 2 , . . . , X m sei bekannt, dass sie N (μ i , σ 2 )-verteilt sind. (Alle Zufallsvariablen besitzen dieselbe Varianz, w¨ahrend die Erwartungswerte verschieden sein k¨onnen.) Es soll die Nullhypothese H 0 : μ 1 = μ 2 = . . . = μ m getestet werden. 150 18 Varianzanalyse Wir ziehen jeweils eine Stichprobe vom Umfang n i . Es ergibt sich folgendes Schema: Gruppe i Stichprobenwerte Summen 1. Gruppe x 11 x 12 . . . x 1n 1 x 1 . 2. Gruppe x 21 x 22 . . . x 2n 2 x 2 . ... ... ... ... ... ... i. Gruppe x i1 x i2 . . . x in i x i . ... ... ... ... ... ... m. Gruppe x m1 x m2 . . . x mn m x m . Ist die Hypothese H 0 richtig, so k¨onnen wir die m verschiedenen Gruppen zu einer einzigen Stichprobe zusammenfassen. Diese ist dann normalverteilt. x = (x 1 , x 2 , . . . , x m ) = (x 11 , x 12 , . . . , x 1n 1 , x 21 , . . . , x m1 , x m2 , . . . , x mn m ) Die Summen der einzelnen Gruppenwerte bezeichnen wir mit x 1 . = n 1 ∑ k=1 x 1k ; x 2 . = n 2 ∑ k=1 x 2k ; . . . ; x m . = n m ∑ k=1 x mk . Die Gruppenmittelwerte ergeben sich dann zu x 1 = x 1 . n 1 ; x 2 = x 2 . n 2 ; . . . ; x m = x m . n m . Der Mittelwert der gesamten Stichprobe ergibt sich daraus zu: x = 1 n · m ∑ i=1 n i x i mit n = n 1 + n 2 + . . . + n m . Als Entscheidungskriterium zum Hypothesentest benutzen wir im Wesentlichen das Verh¨altnis der quadratischen Abweichungen der Stichprobenwerte der einzelnen Gruppen von ihrem Mittelwert und die quadratische Abweichung der Gruppenmittelwerte vom Gesamtmittelwert. Wir zerlegen nun die quadratische Abweichung q = (n − 1) S 2 s¨amtlicher Stichprobenwerte vom Gesamtmittelwert in diese beiden Bestandteile. q = m ∑ i=1 n i ∑ k=1 (x ik − x) 2 = m ∑ i=1 n i ∑ k=1 [(x ik − x i ) + (x i − x)] 2 = m ∑ i=1 n i ∑ k=1 (x ik − x i ) 2 + m ∑ i=1 n i ∑ k=1 (x i − x) 2 + 2 m ∑ i=1 n i ∑ k=1 (x ik − x i )(x i − x) Der letzte Summand verschwindet wegen m ∑ i=1 n i ∑ k=1 (x ik − x i )(x i − x) = m ∑ i=1 (x i − x) n i ∑ k=1 (x ik − x i ) ︸ ︷︷ ︸ =0 Abweichung vom Mittelwert! 18.1 Einfache Varianzanalyse 151 Zusammen mit n i ∑ k=1 (x i − x) 2 = n i · (x i − x) 2 erh¨alt man dann die gew¨ unschte Zerlegung: q = m ∑ i=1 n i ∑ k=1 (x ik − x) 2 = m ∑ i=1 n i (x i − x) 2 ︸ ︷︷ ︸ q zw + m ∑ i=1 n i ∑ k=1 (x ik − x i ) 2 ︸ ︷︷ ︸ q in In dieser Zerlegung ist q zw die Summe der quadratischen Abweichungen der Gruppenmitten vom Gesamtmittel, w¨ahrend q in die Summe der quadratischen Abweichungen der Stichprobenwerte von ihren Gruppenmittelwerten ist. q zw : Abweichungsquadrate zwischen den Gruppen q in : Abweichungsquadrate innerhalb der Gruppen Gilt die Nullhypothese, so ist der Quotient V = Q zw m − 1 Q in n − m Fisher-verteilt ist mit den Freiheitsgraden (m − 1; n − m); (vgl. Abschnitt 10.3). Die Irrtumswahrscheinlichkeit 1. Art sei mit α vorgegeben. Ist f 1 − α das Quantil der F (m − 1,n − m) -Verteilung, so kommen wir zu folgender Testentscheidung: Testentscheidung: v = q zw (n − m) q in (m − 1) > f 1 − α ⇒ { H 0 : μ 1 = μ 2 = . . . = μ m } ablehnen! Umformungen analog zur Varianzberechnung ergeben: q ges = m ∑ i=1 n i ∑ k=1 x 2 ik − nx 2 q zw = m ∑ i=1 x 2 i − nx 2 q in = q ges − q zw oder mit den Bezeichnungen: Gruppensumme : x i . = n i ∑ k=1 x ik Gesamtsumme : x . . = m ∑ i=1 n i ∑ k=1 x ik 152 18 Varianzanalyse ergibt sich die f¨ urs praktische Rechnen g¨ unstige Darstellung der Abstandsquadrate: q ges = n ∑ i=1 n i ∑ k=1 x 2 ik − x 2 .. n ; q zw = m ∑ i=1 x 2 i . n i − x 2 .. n ; q in = q ges − q zw . Mit diesen Bezeichnungen soll das eingangs beleuchtete Problem durchgerechnet werden: i n i Messwerte n i ∑ k=1 x 2 ik x i . x 2 i . x 2 i . n i 1 Placebo 5 2.2 0.3 1.1 2.0 3.4 21.7 9 81 16.2 2 Mittel A 4 2.8 1.4 1.7 4.3 31.18 10.2 104.04 26.01 3 Mittel B 6 1.1 4.2 3.8 2.6 0.5 4.3 58.79 16.5 272.25 45.375 4 Mittel C 5 3.2 4.5 2.2 5.1 3.7 75.03 18.7 349.69 69.938 Summen 20 186.70 54.4 157.523 Damit ergibt sich f¨ ur die Abstandsquadrate: q ges = 186.70 − 54.4 2 20 = 38.732; q zw = 157.523 − 54.4 2 20 = 9.555; q in = 38.732 − 9.555 = 29.177 . Als Testgr¨oße errechnen wir: v ber. = 9.555 · (20 − 4) 29.177 · (4 − 1) = 1.7466 Das 0.95-Quantil der F (3,16) -Verteilung ist 3.239. Wegen v ber. < 3.239 kann die Nullhypothese mit einer Irrtumswahrscheinlichkeit von 0.05 nicht abgelehnt werden. Modellbetrachtung Wir gingen bei unserer Betrachtung davon aus, dass sich der Beobachtungswert x ij aus dem Gruppenmittelwert μ i und einem zuf¨alligen Versuchsfehler ε ij in der Form x ij = μ i + ε ij i = 1 , 2 , . . . , m ; j = 1, 2, . . . , n zusammensetzt 2 . Es ist ¨ ublich, den Messreiheneffekt aufzuspalten in ein Gesamtmittel μ und einen differenziellen Effekt α i der i-ten Messreihe: x ij = μ + α i + ε ij mit m ∑ i=1 α i = 0 . Die Hypothese ”gleiche Erwartungswerte“ H 0 : μ 1 = μ 2 = . . . = μ m ist dann identisch mit der Hypothese H 0 : α 1 = α 2 = . . . = α m = 0. Wir sch¨atzen nun diese neu eingef¨ uhrten Parameter aus den Daten und untersuchen sie dann auf Signifikanz: ¯ x = 1 n · m m ∑ i=1 n ∑ j=1 x ij Sch¨atzwert f¨ ur μ . 2 Der Einfachheit halber nehmen wir an, dass alle Messreihen gleich viele Messwerte umfassen. 18.2 Doppelte Varianzanalyse 153 Die differenziellen Effekte α i lassen sich aus den Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert sch¨atzen: a i = 1 n n ∑ j=1 x ij − ¯ x Sch¨atzwert f¨ ur α i . Wir betrachten nun die Summe der Quadrate aller a i : m ∑ i=1 [ 1 n n ∑ j=1 x ij − ¯ x ] 2 . Diese Summe ist jedoch bis auf den Faktor n (Anzahl der Gruppenmitglieder) mit der Gr¨oße q zw identisch. Die oben beschriebene Varianzanalyse l¨asst sich also auch als Test des Modells auf das Vorhandensein dieser differenziellen Effekte α i deuten. 18.2 Doppelte Varianzanalyse In der doppelten Varianzanalyse soll gleichzeitig der Einfluss zweier Faktoren auf ein betrachtetes Merkmal untersucht werden. Dazu m¨ ussen die Stichprobenwerte bez¨ uglich des Faktors A und bez¨ uglich eines zweiten Faktors B in Gruppen eingeteilt werden. Wenn wir der Einfachheit halber annehmen, dass aus jeder Teilgruppe gleich viele Stichprobenwerte entnommen wurden, so erhalten wir ein ¨ ubersichtliches Matrixschema. Beispiel 18.2: Es wird gepr¨ uft, ob der Wochentag oder die Arbeitsschicht einen signifikanten Einfluss auf die Produktionsmenge einer Fabrik haben. Da freitags nur halb so lange gearbeitet wird und auch alle f¨alligen ¨ Uberholungen erledigt werden, betrachten wir nur vier Tage. Die Produktionsmengen teilen wir nach den beiden Faktoren Wochentag und Arbeitsschicht in das folgende Schema auf: Fr¨ uhschicht Tagesschicht Sp¨atschicht Montag 38, 35 40, 42 38, 38 Dienstag 42, 45 39, 33 36, 34 Mittwoch 38, 41 38, 38 33, 36 Donnerstag 33, 32 35, 30 38, 36 Die Stichprobe ist nach zwei Faktoren unterteilt, deshalb stehen jetzt zwei Hypothesen zur Diskussion: H 0 : Arbeitsschicht hat keinen Einfluss ; H ∗ 0 : Wochentag hat keinen Einfluss . Jede dieser Hypothesen k¨onnte nun mittels der einfachen Varianzanalyse getrennt untersucht werden. Die doppelte Varianzanalyse bietet die M¨oglichkeit, beide Hypothesen in 154 18 Varianzanalyse einem einzigen Verfahren zu ¨ uberpr¨ ufen. Dar¨ uber hinaus kann man die Datenmenge noch auf gegenseitige Wechselwirkung zwischen den beiden Merkmalswerten ¨ uberpr¨ ufen. Als Weiterentwicklung des Modells der einfachen Varianzanalyse testen wir jetzt, ob die Datenmenge mit einer gewissen Wahrscheinlichkeit das Modell: x ij k = μ + α i + β j + γ ij + ε ij k i = 1, . . . , r ; j = 1, . . . , p ; k = 1, . . . , n erf¨ ullt. Merkmal A hat r Auspr¨agungen, Merkmal B besitzt p Auspr¨agungen; f¨ ur jede Merkmalskombination werden n Stichprobenwerte erhoben. Die Gr¨oße α i beschreibt den Einfluss des Merkmals A, β j den Einfluss von B. Die Wechselwirkung zwischen den beiden Merkmalsauspr¨agungen werden durch den Parameter γ ij beschrieben. Analog zur einfachen Varianzanalyse sch¨atzen wir wieder die Modellparameter aus der Datenmenge. ¯ x = 1 r · p · n n ∑ k=1 p ∑ j=1 r ∑ i=1 x ij k Sch¨atzwert f¨ ur μ a i = 1 p · n n ∑ k=1 p ∑ j=1 x ij k − ¯ x ; i = 1, . . . , r ; Sch¨atzwert f¨ ur α i b j = 1 r · n n ∑ k=1 r ∑ i=1 x ij k − ¯ x ; j = 1, . . . , p ; Sch¨atzwert f¨ ur β j d ij = 1 n n ∑ k=1 x ij k − a i − b j − ¯ x ; i = 1, . . . , r ; j = 1, . . . , p ; Sch¨atzwert f¨ ur γ ji Bei der doppelten Varianzanalyse testet man die Hypothesen: H A : α i = 0 ; H B : β j = 0 ; H AB : γ ij = 0 ; i = 1, . . . , r ; j = 1, . . . p . Dazu bilden wir die Pr¨ ufsummen SSA = p · n · r ∑ i=1 a 2 i SSB = r · n · p ∑ j=1 b 2 j SSAB = n · r ∑ i=1 p ∑ j=1 d 2 ij Die Testgr¨oße ist dann wieder der Quotient der Pr¨ ufsumme und der Quadratsumme des inneren Fehlers SSE (gewichtet mit den jeweiligen Freiheitsgraden). SSG = n ∑ k=1 p ∑ j=1 r ∑ i=1 (x ij k − ¯ x) 2 SSE = SSG − SSA − SSB − SSAB F A = SSA r − 1 SSE pr(n − 1) ; F B = SSB p − 1 SSE pr(n − 1) ; F AB = SSAB (r − 1)(p − 1) SSE pr(n − 1) . 18.2 Doppelte Varianzanalyse 155 Die Testentscheidung erfolgt nach Vergleich mit den kritischen Werten der F -Verteilung mit den entsprechenden Freiheitsgraden: F r − 1,pr(n − 1); 1 − γ ; F p − 1,pr(n − 1); 1 − γ ; F (r − 1)(p − 1),pr(n − 1); 1 − γ . Beispiel 18.3: Das Eingangsbeispiel soll jetzt mit den neuen Methoden durchgerechnet werden. Dazu schreiben wir in der Matrix die beiden zu denselben Merkmalsauspr¨agungen geh¨orenden Daten untereinander. Arbeitsschicht Tage Fr¨ uh Tag Sp¨at 38 40 38 Mo 35 42 38 42 39 36 Di 45 33 34 38 38 33 Mi 41 38 36 33 35 38 Do 32 30 36 Wenn wir aus den beiden zu einer Merkmalsauspr¨agung geh¨orenden Daten den arithmetischen Mittelwert bilden, ergibt sich das nebenstehende verk¨ urzte Tableau: Arbeitsschicht Tage Fr¨ uh Tag Sp¨at Mo 36.5 41 38 Di 43.5 36 35 Mi 39.5 38 34.5 Do 32.5 32.5 37 F¨ ur den arithmetischen Mittelwert erh¨alt man: ¯ x = 37 . Bereinigung des Tableaus um den arithmetischen Mittelwert ¯ x. Die Sch¨atzwerte a i und b j f¨ ur die Koeffizienten α i bzw. β j ergeben sich als arithmetische Mittelwerte der Zeilen bzw. Spalten. Fr¨ uh Tag Sp¨at 1 3 1 Mo -2 5 1 5 2 -1 Di 8 -4 -3 1 1 -4 Mi 4 1 -1 -4 -2 1 Do -5 -7 -1 − ¯ x Fr¨ uh Tag Sp¨at a i Mo -0.5 4 1 1.5 Di 6.5 -1 -2 1.167 Mi 2.5 1 -2.5 0.333 Do -4.5 -4.5 0 -3 b j 1 -0.125 -0.875 SSA = 2 · 3 · (1.5 2 + . . . + ( − 3) 2 ) = 76.33 SSB = 2 · 4 · (1 2 + ( − 0.125) 2 +( − 0.875) 2 ) = 14.25 Bereinigung des verk¨ urzten Tableaus um die Sch¨atzwerte f¨ ur die Koeffizienten α i und β j . (getrennt) − a i Fr¨ uh Tag Sp¨at Mo -2 2.5 -0.5 Di 5.3333 -2.1667 -3.1667 Mi 2.1667 0.6667 -2.8333 Do -1.5 -1.5 3 − b j Fr¨ uh Tag Sp¨at Mo -1.5 4.125 1.875 Di 5.5 -0.875 -1.125 Mi 1.5 1.125 -1.625 Do -5.5 -4.375 0.875 156 18 Varianzanalyse Bereinigung des Tableaus um ¯ x und die Sch¨atzwerte f¨ ur die Koeffizienten α i und β j . Die Pr¨ ufsumme f¨ ur die Wechselwirkung ergibt sich als Quadratsumme der letzen Matrix. Fr¨ uh Tag Sp¨at -1.5 1.625 0.375 Mo -4.5 3.625 0.375 2.83 0.9583 -1.2917 Di 5.83 -5.0417 -3.2917 -0.33 0.7917 -3.4583 Mi 2.67 0.7917 -0.4583 -2 1.125 4.875 Do -3 -3.875 2.875 Fr¨ uh Tag Sp¨at Mo -3 2.625 0.375 Di 4.333 -2.0417 -2.2917 Mi 1.167 0.7917 -1.9583 Do -2.5 -1.375 3.875 SSAB = 2 · (( − 3) 2 + . . . . . . + 3.875 2 ) = 146.4167 Dabei berechnet sich im obigen Tableau beispielhaft die Zahl 0.9583 (Dienstag/ Tag/ 1. Wert) wie folgt: x 221 − ¯ x − a 2 − b 2 = 39 − 37 − 1.1667 − ( − 0.125) = 0.9583 Die Summe der gesamten quadratischen Abweichungen SSG ergibt sich als Quadratsumme der um den Mittelwert ¯ x bereinigten Matrix: SSG = ( 1 2 + 3 2 + 1 2 + ( − 2) 2 + 5 2 + . . . + ( − 7) 2 + ( − 1) 2 ) = 292 Die Quadratsumme des Restfehlers ergibt sich als Differenz von SSG und den oben bestimmten Pr¨ ufsummen f¨ ur die einzelnen Effekte: SSE = SSG − SSA − SSB − SSAB = 292 − 76.333 − 14.25 − 146.417 = 55 Die f¨ ur die doppelte Varianzanalyse notwendigen Testgr¨oßen und kritischen Werte sind in der nachfolgenden Tabelle (r = 4; p = 3; n = 2) zusammengestellt (F : Freiheitsgrade): Effekt F Testgr¨oße F-Quantile f¨ ur γ = 0.95 Zeilen Wochentage 3 SSA r − 1 SSE pr(n − 1) 76.33 3 55 3 · 4 · 1 = 5.55 F r − 1,pr(n − 1); γ 3.490 Spalten Schichten 2 SSB p − 1 SSE pr(n − 1) 14.25 2 55 3 · 4 · 1 = 1.55 F p − 1,pr(n − 1); γ 3.885 Wechselw. 6 SSAB (r − 1)(p − 1) SSE pr(n − 1) 146.417 3 · 2 55 3 · 4 · 1 = 5.32 F (r − 1)(p − 1),pr(n − 1); γ 2.996 Zwischen den Arbeitsschichten bestehen keine signifikanten Unterschiede, wohl aber zwischen den Arbeitstagen. Auch die Wechselwirkung zwischen den beiden Effekten ist signifikant, was nat¨ urlich impliziert, dass auch der Faktor ”Schicht“ eine Wirkung hat. 18.3 Problematik einfacher Varianztests 157 W¨ urde man nur eine einfache Varianzanalyse f¨ ur die Spalten der Ausgangsmatrix durchf¨ uhren, so erhielte man folgendes Schema. SSE = SSG − SSB = 292 − 14.25 = 277.75 Effekt F Testgr¨oße F-Quantil f¨ ur γ = 0.95 Spalten 2 SSB p − 1 SSE prn − p 14.25 2 277.75 3 · 4 · 2 − 3 = 0.539 F p − 1,prn − 1; γ 3.467 Daraus ergibt sich keinerlei Einfluss der Arbeitsschicht auf die Produktionsmenge. 18.3 Problematik einfacher Varianztests Ausgangspunkt bei der Herleitung des Verfahrens war die G¨ ultigkeit der Normalverteilung und die Gleichheit der Varianzen der verschiedenen Stichproben. Bestehen Zweifel ¨ uber die Gleichheit, so ist zun¨achst ein Test auf Gleichheit der Varianzen durchzuf¨ uhren. F¨ ur Details sei auf Statistik-Handb¨ ucher (z. B. L. Sachs: Angewandte Statistik) hingewiesen. Im obigen Testschema wird nur der Fehler erster Art ber¨ ucksichtigt, d. h. eine unberechtigte Ablehnung der Nullhypothese. Um auch den Fehler zweiter Art (unberechtigte Akzeptanz der Alternativhypothese) zu erfassen, muss die Anzahl der Stichprobenwerte kontrolliert werden. Die Anzahl h¨angt von der standardisierten Differenz von gr¨oßtem und kleinstem Gruppenmittelwert ((¯ x max − ¯ x min )/ σ ab. Eine diesbez¨ ugliche Tabelle ist in dem oben erw¨ahnten Handbuch von L. Sachs enthalten. Schiefe Verteilungen oder Stichproben mit heterogenen Varianzen m¨ ussen vor Duchf¨ uhrung einer Varianzanalyse transformiert werden. Damit soll erreicht werden, dass die Stichprobenwerte n¨aherungsweise normalverteilt mit homogenen Varianzen erscheinen. Folgende Transformationen sind gebr¨auchlich (vgl. Abschnitt 2.6): Transformation Daten Reziproken-Trafo ˜ x = 1 x + c σ = kμ 2 Zeiten, Lebensdauer, Verweildauer etc. Wurzel-Trafo ˜ x = √ x + 3 8 σ 2 = kμ H¨aufigkeiten, etc. (Poisson-Verteilung) Logarithmus-Trafo ˜ x = log (x + c) σ = kμ 2 Messwerte, insbesondere biologische Werte Winkel-Trafo ˜ x = arcsin √ x + 0.375 n + 0.75 σ 2 = kμ(1 − μ) Prozentwerte, Wahrscheinlichkeiten, etc. (Binomialverteilung) 158 18 Varianzanalyse Als Entscheidungshilfe f¨ ur die Auswahl der Transformation wird die numerische Standardabweichung gegen den Gruppenmittelwert aufgetragen und dann mit Hilfe der in der dritten Spalte angegebenen Zusammenh¨ange ausgew¨ahlt. Auf die transformierten Stichprobenwerte werden dann die Testverfahren angewandt. Die Signifikanz-Aussagen gelten dann auch f¨ ur die urspr¨ unglichen Daten. Die durch R¨ ucktransformation erhaltenen Mittelwerte und Varianzen sind im Allgemeinen verf¨alscht. In der folgenden Tabelle sind die Pr¨ ufgr¨oßen f¨ ur obiges Beispiel unter den verschiedenen Transformationen zusammengestellt. Man sieht deutlich, dass in allen F¨allen dieselben Signifikanz-Aussagen richtig sind. SSA SSB SSAB F A F B F AB Originaldaten 76.33 14.25 146.4167 5.5515 1.5545 5.3242 Logarithmus-Trafo 0.05829 0.00851 0.10442 5.4186 1.1869 4.8535 Wurzel-Trafo 0.5261 0.0871 0.9753 5.4919 1.3632 5.0907 Reziproken-Trafo 4.532 · 10 − 5 5.101 · 10 − 6 7.582 · 10 − 5 5.2380 0.8843 4.3810 Winkel-Trafo 0.07018 0.02274 0.15741 5.0730 2.4656 5.6889 Betrachtet wurden bis jetzt nur unverbundene Stichproben, d. h., es war keinerlei innerer Zusammenhang bei der Stichprobenentnahme f¨ ur die verschiedenen Zellen vorhanden. H¨aufig m¨ ussen jedoch auch verbundene Stichproben beurteilt werden. Drei Schokoladesorten werden von f¨ unf Personen auf Qualit¨at getestet. Die Testpersonen verteilen Noten von 1 bis 5 f¨ ur die verschiedenen Sorten. Ein m¨ogliches Testergebnis ist in der nebenstehenden Tabelle festgehalten. Es ist offensichtlich, dass jeder Tester ein eigenes Notensystem besitzt, also die Notenwerte nicht unbedingt miteinander vergleichbar sind. Wir f¨ uhren deshalb eine Rangtransformation durch und unterwerfen dieses Tableau einer Analyse. Als Testgr¨oße betrachten wir die Rangsummen der drei Spalten bzw. deren Quadrate. Unter Annahme der Nullhypothese werden diese Rangsummen nur zuf¨allig voneinander abweichen. ¨ Uben einzelne Bedingungen aber einen systematischen Einfluss aus, so werden die Spaltensummen ”¨ uberzuf¨allig“ voneinander verschieden sein. Bei k Spalten und n Zeilen errechnen wir die bereinigte Quadratsumme: ∑ R 2 i n − n · k · ( k + 1 2 ) 2 = 314 5 − 5 · 3 · 2 2 = 2.8 . Schokolade Testperson A B C 1 1.5 3 4 2 2 2.5 3 3 3 4 2.5 4 2.5 4 3 5 3 2 5 Schokolade Testperson A B C 1 1 2 3 2 1 2 3 3 2 3 1 4 1 3 2 5 2 1 3 ∑ 7 11 12 Details und Tabellen f¨ ur die zugeh¨origen kritischen Werte entnehme man ausf¨ uhrlichen Handb¨ uchern unter dem Stichwort Friedmann-Test f¨ ur Rang-Varianzanalyse. 159 19 Ausreißer und Toleranzintervalle Thema dieses Abschnitts ist der Umgang mit starken Abweichungen einzelner Beobachtungen von den restlichen Daten. Es ist zu entscheiden, ob einzelne Werte wegen mutmaßlicher Fehler bei der Datenerfassung f¨ ur die Auswertung weggelassen werden d¨ urfen. 19.1 Ausreißer-Tests Extrem hohe oder niedrige Werte innerhalb einer Stichprobe mit ¨ ublicherweise m¨aßig unterschiedlichen Messwerten d¨ urfen unter bestimmten Umst¨anden vernachl¨assigt werden. Grobe Messfehler, Beurteilungsfehler oder Rechenfehler k¨onnen zu solchen Extremwerten f¨ uhren. Eine allgemeine Regel besagt, dass bei mindestens zehn Messwerten dann ein Messwert als Ausreißer verworfen werden darf, wenn er außerhalb des Bereichs x ± 4s liegt. Mittelwert x und Standardabweichung s werden dabei ohne den ausreißerverd¨achtigen Wert berechnet. Der 4-σ-Bereich umfasst bei Normalverteilungen 99,99 % der Werte, bei symmetrischeingipfligen Verteilungen 97 % und bei beliebigen Verteilungen noch 94 % der Werte. Mit Hilfe graphischer Methoden (Boxplot bei univariaten Daten, Streudiagramm bei bivariaten Daten) kann man Ausreißer erkennen. Ausreißer-Tests werden benutzt, um • routinem¨aßig die Zuverl¨assigkeit von Daten zu kontrollieren, • rechtzeitig gewarnt zu werden, die Datengewinnung besser zu kontrollieren, • Beobachtungen, die extrem liegen und bedeutungsvoll sein k¨onnen, zu erfassen. Ausreißer sind um so unwahrscheinlicher, je kleiner der Stichprobenumfang ist. Zum Test werden die Stichprobenwerte { x 1 , x 2 , . . . , x n } der Gr¨oße nach geordnet: x (1) ≤ x (2) ≤ . . . ≤ x (n) Ist etwa der Maximalwert x (n) auff¨allig gr¨oßer als die ¨ ubrigen Werte, so soll der Ausreißertest dar¨ uber entscheiden, ob bei einer vorgegebenen Irrtumswahrscheinlichkeit α der Wert entfernt werden darf. Pr¨azise Aussagen ¨ uber potentielle Ausreißer k¨onnen gemacht werden, wenn die Grundgesamtheit wenigstens n¨aherungsweise normalverteilt ist. Davon wollen wir im Folgenden ausgehen. Zun¨achst sind wieder Erwartungswert μ und die Varianz σ 2 aus der Stichprobe zu sch¨atzen: μ ≈ x = 1 n n ∑ i=1 x i ; σ 2 ≈ s 2 = 1 n − 1 n ∑ i=1 (x i − x) 2 160 19 Ausreißer und Toleranzintervalle Die Irrtumswahrscheinlichkeit sei α. a) Test auf x (n) Pr¨ ufgr¨oße: v = x (n) − x s Entscheidung: x (n) ist Ausreißer, falls v > w(α, n) b) Test auf x (1) und x (n) Pr¨ ufgr¨oße: v = x (n) − x (1) s Entscheidung: x (n) oder x (1) ist Ausreißer, falls v > l(α, n) w(α, n) l(α, n) n α = 0.05 α = 0.01 α = 0.05 α = 0.01 3 1.15 1.16 2.00 2.00 5 1.67 1.75 2.75 2.80 10 2.18 2.41 3.69 3.88 20 2.56 2.88 4.49 4.79 50 2.96 3.34 5.35 5.77 100 3.21 3.60 5.90 6.36 Einige der erw¨ahnten Quantile k¨onnen der nebenstehenden Tabelle entnommen werden. Sie h¨angen mit den zugeh¨origen Quantilen der t-Verteilung zusammen. F¨ ur nicht aufgef¨ uhrte n ist eine Interpolation mit kubischen Splines ausreichend genau. Jedes Statistik- Handbuch enth¨alt weitere Quantile. Sind auf diese Art Ausreißer identifiziert und von der Stichprobe ausgeschlossen worden, dann muss dies bei der Analyse der Daten vermerkt werden. Es ist am zweckm¨aßigsten, die statistische Analyse einmal mit und einmal ohne Ausreißer vorzunehmen. Unterscheiden sich die Schlussfolgerungen aus beiden Analysen, dann ist eine ¨außerst vorsichtige Interpretation der Daten zu empfehlen. So kann der Ausreißer auch einmal Ausdruck der f¨ ur die Grundgesamtheit typischen Variabilit¨at und damit der aufschlussreichste Wert einer Stichprobe sein und Ausgangspunkt einer neuen Messreihe werden. Denkbar ist auch ein Verfahren, bei dem der Ausreißer durch den benachbarten Wert ersetzt wird. Hierbei wird der Extremwert als unzuverl¨assig betrachtet, der Richtung der Abweichung jedoch eine gewisse Bedeutung zuerkannt. 19.2 Toleranzgrenzen Mit der Ausreißerproblematik eng verwandt sind die sogenannten Toleranzgrenzen. Hier soll auf Grund einer gezogenen Stichprobe { x 1 , x 2 , . . . , x n } bestimmt werden, mit welcher Wahrscheinlichkeit wie viele Elemente einer k¨ unftigen Stichprobe innerhalb des Toleranzintervalls liegen. Genauer: Zu vorgegebenem Vertrauensniveau γ = 1 − α und Wahrscheinlichkeit p bestimmen wir um den Mittelwert ¯ x der gezogenen Stichprobe ein Intervall [¯ x − c(α, p, n), ¯ x + c(α, p, n)], abh¨angig von α, p und der Stichprobe, so dass bei einer 19.2 Toleranzgrenzen 161 zuk¨ unftigen Stichprobe { ˜ x 1 , ˜ x 2 , . . . , ˜ x m } mit der Wahrscheinlichkeit γ der Anteil p der neuen Stichprobe im Intervall liegt. Wenn wir von einer Normalverteilung mit bekannter Varianz σ 2 ausgehen, so erhalten wir das gesuchte Toleranzintervall in der Form [¯ x − l · σ, ¯ x + l · σ]. Dabei ist l die L¨osung der Gleichung Φ ( u 1 − α/ 2 √ n + l ) − Φ ( u 1 − α/ 2 √ n − l ) = p u 1 − α/ 2 √ n l l p 0 . 5 1 Bild 19.1 Die Gr¨oße u 1 − α/ 2 √ n hat hier die Bedeutung der Unsicherheit f¨ ur den unbekannten Parameter μ. Symmetrisch dazu m¨ ussen die Grenzen f¨ ur die Wahrscheinlichkeit p bestimmt werden. Das markierte Gebiet unterhalb der Dichtekurve hat den Fl¨acheninhalt p. Der folgenden Tabelle kann f¨ ur einige charakteristische Werte von α, p, n der Zahlenwert f¨ ur l entnommen werden. 1 α = 0.1 α = 0.05 α = 0.01 n p = 0.9 p = 0.95 p = 0.99 p = 0.9 p = 0.95 p = 0.99 p = 0.9 p = 0.95 p = 0.99 3 2.24 2.60 3.28 2.41 2.78 3.46 2.77 3.13 3.81 4 2.11 2.47 3.15 2.26 2.63 3.31 2.57 2.93 3.61 5 2.03 2.39 3.06 2.16 2.52 3.20 2.43 2.80 3.48 10 1.85 2.20 2.86 1.93 2.28 2.95 2.11 2.46 3.14 16 1.78 2.11 2.77 1.83 2.17 2.83 1.95 2.30 2.98 25 1.73 2.06 2.70 1.77 2.10 2.75 1.85 2.19 2.86 50 1.69 2.01 2.64 1.71 2.03 2.67 1.75 2.08 2.73 100 1.67 1.99 2.61 1.68 2.00 2.62 1.70 2.02 2.66 ∞ 1.64 1.96 2.58 1.64 1.96 2.58 1.64 1.96 2.58 Muss die Varianz aus der Stichprobe gesch¨atzt werden, so ist der Quotient s 2 (n − 1) σ 2 χ 2 verteilt mit dem Parameter (n − 1). Wir suchen wieder ein Toleranzintervall der Form [¯ x − k · s, ¯ x + k · s], wobei s die aus der Stichprobe gesch¨atzte Standardabweichung ist. Der Faktor k l¨asst sich n¨aherungsweise als L¨osung der Beziehung Φ ( 1 √ n + r ) − Φ ( 1 √ n − r ) = p ; k = r · √ (n − 1) χ 2 n − 1; α 1 Weitere Werte k¨onnen problemlos aus obiger Gleichung numerisch berechnet werden. 162 19 Ausreißer und Toleranzintervalle bestimmen. Die folgende Tabelle enth¨alt wieder einige Werte f¨ ur k. α = 0.1 α = 0.05 α = 0.01 n p = 0.9 p = 0.95 p = 0.99 p = 0.9 p = 0.95 p = 0.99 p = 0.9 p = 0.95 p = 0.99 3 5.85 6.92 8.97 8.38 9.92 12.86 18.93 22.40 29.06 4 4.17 4.94 6.44 5.37 6.37 8.30 9.40 11.15 14.53 5 3.49 4.15 5.42 4.27 5.08 6.63 6.61 7.85 10.26 10 2.54 3.02 3.96 2.84 3.38 4.43 3.58 4.26 5.59 16 2.25 2.68 3.51 2.44 2.90 3.81 2.87 3.42 4.49 25 2.08 2.47 3.25 2.21 2.63 3.46 2.49 2.97 3.90 50 1.92 2.28 3.00 2.00 2.38 3.13 2.16 2.58 3.38 100 1.82 2.17 2.85 1.87 2.23 2.93 1.98 2.36 3.10 ∞ 1.64 1.96 2.58 1.64 1.96 2.58 1.64 1.96 2.58 Beispiel 19.1: Bei einem Laufwettbewerb wurde die Zeit bei sechzehn L¨aufern gestoppt. Es ergaben sich die Werte ¯ x = 12.63 , s 2 = 0.81. Unter der Annahme einer normalverteilten Grundgesamtheit soll • ein Konfidenzintervall f¨ ur μ zum Niveau γ = 0.95 bestimmt werden. • ein Toleranzintervall zum Niveau 0.95 derart bestimmt werden, dass bei einer zuk¨ unftigen Stichprobe im Mittel nur 10 % der Messwerte außerhalb liegen. Konfidenzintervall t 15; 0.975 = 2.131 Quantil der t-Verteilung f¨ ur 15 Freiheitsgrade ¯ x − t 15; 0.975 · s √ n = 12.63 − 2.131 · 0.9 4 = 12.15 linke Grenze ¯ x + t 15; 0.975 · s √ n = 12.63 + 2.131 · 0.9 4 = 13.11 rechte Grenze Die Aussage ” μ ∈ [12.15, 13.11] ” wurde mit einem Verfahren gewonnen, das mit 95-prozentiger Wahrscheinlichkeit das richtige Intervall liefert. Toleranzintervall k-Wert f¨ ur n = 16, α = 0.05 und p = 0.9 (1 von 10 darf außerhalb liegen p = 0.9). k(0.05, 0.9, 16) = 2.44 ¯ x − k · s = 12.63 − 2.44 · 0.9 = 10.43 linke Grenze ¯ x + k · s = 12.63 + 2.44 · 0.9 = 14.83 rechte Grenze Mit 95-prozentiger Wahrscheinlichkeit liegen von einer k¨ unftigen Stichprobe neun von zehn Werte innerhalb des Intervalls [10.43, 14.83]. Konfidenz-Intervall f¨ ur μ Toleranz-Intervall f¨ ur { y 1 , . . . , y m } α = 0.05 α = 0.05 σ 2 unbekannt p = 0.9 [12.15, 13.11] [10.43, 14.83] 163 20 Verteilungsfreie Verfahren Fast alle bisher betrachteten statistischen Tests besch¨aftigen sich mit der Pr¨ ufung von Parameterhypothesen, wobei die Gestalt der Verteilungsfunktion (bis auf einzelne Parameter) als bekannt vorausgesetzt wurde. Oder es war der Stichprobenumfang n hinreichend groß, so dass h¨aufig die Annahme einer Normalverteilung zul¨assig war. Große Stichprobenerhebungen sind im Allgemeinen sehr zeit- und kostenaufw¨andig. Daher ist es naheliegend, nach Verfahren zu suchen, bei denen weder die Verteilungsfunktion bekannt noch der Stichprobenumfang groß sein muss. Ein Vorteil dieser verteilungsfreien Verfahren liegt vor allem darin, dass keine oder nur geringe Voraussetzungen ¨ uber den Typ der Grundgesamtheit erf¨ ullt sein m¨ ussen. Allerdings wird dieser Vorteil h¨aufig durch eine geringere G¨ ute (vgl. Abschnitt 13.6) erkauft. Das hat zur Folge, dass der Unterschied der Testgr¨oße zum Quantil bei Verwendung eines nichtparametrischen Tests in der Regel etwas weniger signifikant ausf¨allt. Die Vorgehensweise bei dieser Art von Tests sei in den folgenden beiden Abschnitten exemplarisch erl¨autert. 20.1 Vorzeichentest Die Problemstellung soll an folgendem Beispiel erl¨autert werden: Beispiel 20.1: Wir wollen untersuchen, ob sich die Reaktionszeiten auf ein bestimmtes Signal nach dem Konsum einer gewissen Menge Alkohol vergr¨oßert. Dazu werden bei 50 Personen die Reaktionszeiten jeweils vor und nach dem Alkoholkonsum gemessen. Bei 40 Personen waren die Reaktionszeiten nach dem Alkoholgenuss gr¨oßer, bei 4 Personen gleich und bei 6 Personen kleiner geworden. Kann aufgrund dieses Resultats gesagt werden, dass die Reaktionszeit allgemein durch Alkoholgenuss vergr¨oßert wird? Zur Beantwortung dieser Frage muss zun¨achst eine geeignete Testgr¨oße gefunden werden. Dabei machen wir keinerlei Annahmen ¨ uber die Verteilungsfunktion der Messwerte. Wir fassen jeweils die beiden bei derselben Person gemessenen Reaktionszeiten zu einer verbundenen Stichprobe ( X , Y ) = { (x 1 , y 1 ), (x 2 , y 2 ), . . . , (x n , y n ) } zusammen. Besitzt der Alkoholkonsum keinen Einfluss auf die Reaktionszeit, so sind die beiden Ereignisse ( X − Y < 0) und ( X − Y > 0) 164 20 Verteilungsfreie Verfahren gleich wahrscheinlich. 1 Allgemein stellen wir nun folgende Hypothese auf: H 0 : P ( X − Y < 0) = P ( X − Y > 0) = 1 2 . Zum Nachpr¨ ufen der Hypothese ist es naheliegend, die Differenzen der Reaktionszeiten zu betrachten, d. h., d = (d 1 , d 2 , . . . , d n ) = (x 1 − y 1 , x 2 − y 2 , . . . , x n − y n ) ist eine Realisierung der Zufallsvariablen D = X − Y . Die Zufallsvariable Z beschreibe die Anzahl der positiven Differenzen in der Stichprobe d. Ist die Hypothese richtig, so ist Z binomialverteilt mit den Parametern n und p = 1 2 und es gilt: 2 P ( Z = k) = ( n k ) · ( 1 2 ) n f¨ ur k = 0, 1, 2, . . . , n . In der Beziehung P ( Z ≤ k α ) = ( 1 2 ) n · [ 1 + ( n 1 ) + . . . + ( n k α )] ≤ α sei die nat¨ urliche Zahl k α maximal gew¨ahlt. Wegen der Symmetrie (p = 1 2 ) gilt auch P ( Z ≥ n − k α ) = P ( Z ≤ k α ) ≤ α . Diese Schwellenwerte k α liegen als Tabellen vor oder k¨onnen mit dem Rechner bestimmt werden. F¨ ur n > 30 l¨asst sich die Binomialverteilung auch durch die Normalverteilung approximieren. Man erh¨alt mit P ( Z ≤ k α ) ≈ Φ ( k α − n − 1 2 √ n 4 ) eine brauchbare N¨aherung. Mit dem Quantil u 1 − α der N (0, 1)-Verteilung ergibt sich daraus direkt 3 k α ≈ n − 1 2 − √ n 2 · u 1 − α f¨ ur n > 30 . 1 Bei einer stetigen Zufallsvariablen Z ist die Wahrscheinlichkeit P ( Z = c ) = 0 . 2 Bei einer stetigen Zufallsvariablen ist die Wahrscheinlichkeit, dass die Differenz exakt null ist, gleich null: P ( X − Y = 0) = 0 Sollte in der Messreihe durch Rundung ein Stichprobenpaar mit identischen Werten auftreten, so lassen wir dieses Paar weg. 3 Es gilt z α = − z 1−α 20.2 Test und Konfidenzintervall f¨ ur den Median 165 Es sei z die Anzahl aller positiven Differenzen der n Stichprobenpaare. Bei vorgegebener Irrtumswahrscheinlichkeit α ergibt sich folgendes Entscheidungsschema 4 : a) H 0 : P ( X − Y > 0) = P ( X − Y < 0) z ≤ k α 2 oder z ≥ n − k α 2 ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : P ( X − Y > 0) = P ( X − Y < 0) b) H 0 : P ( X − Y > 0) ≤ P ( X − Y < 0) z ≥ n − k α ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : P ( X − Y > 0) > P ( X − Y < 0) c) H 0 : P ( X − Y > 0) ≥ P ( X − Y < 0) z ≤ k α ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : P ( X − Y > 0) < P ( X − Y < 0) Auswertung des Eingangsbeispiels: Lassen wir die vier identischen Messpaare weg, so ist jetzt n = 46 (Anzahl der nicht verschwindenden Differenzen) und z = 6. F¨ ur die Irrtumswahrscheinlichkeit α = 0.005 ergibt sich der Schwellenwert k 0.005 = 14. Der Wert f¨ ur z liegt deutlich darunter. Damit kann mit einer Irrtumswahrscheinlichkeit von α = 0.005 gesagt werden, dass sich die Reaktionszeit infolge des Alkoholkonsums vergr¨oßert. 20.2 Test und Konfidenzintervall f¨ ur den Median Es sei X eine stetige Zufallsvariable. Dann gilt f¨ ur den Median ˜ μ P ( X < ˜ μ) = P ( X > ˜ μ) = 1 2 Mit einer Stichprobe x = (x 1 , x 2 , . . . , x n ) soll nun getestet werden, ob ˜ μ 0 Median der Grundgesamtheit ist. Wir verschieben die Stichprobe um ˜ μ 0 und wenden darauf den Vorzeichentest des vorangegangenen Abschnitts an. x − ˜ μ 0 = (x 1 − ˜ μ 0 , x 2 − ˜ μ 0 , . . . , x n − ˜ μ 0 ) Als Testgr¨oße eignet sich wieder die Zufallsvariable Z , welche die Anzahl der positiven Stichprobenelemente beschreibt. Diese Zahl ist identisch mit der Zahl derjenigen Werte 4 Getestet wird nur die Tatsache gr¨oßer oder kleiner, nicht das Ausmaß der Abweichung. Im sogenannten Vorzeichen-Rang-Test wird dies ber¨ ucksichtigt. F¨ ur Details verweisen wir auf weiterf¨ uhrende Literatur. 166 20 Verteilungsfreie Verfahren der Stichprobe x, die gr¨oßer als der vermutete Median ˜ μ 0 sind. Es sei wieder k α der im vorangegangenen Abschnitt besprochene Schwellenwert zur Irrtumswahrscheinlichkeit α. Damit ergibt sich das folgende Entscheidungsschema: a) H 0 : ˜ μ = ˜ μ 0 ; z ≤ k α 2 oder z ≥ n − k α 2 ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : ˜ μ = ˜ μ 0 b) H 0 : ˜ μ ≤ ˜ μ 0 ; z ≥ n − k α ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : ˜ μ > ˜ μ 0 c) H 0 : ˜ μ ≥ ˜ μ 0 ; z ≤ k α ⇒ H 0 ablehnen , Entscheidung f¨ ur H 1 : ˜ μ < ˜ μ 0 Beispiel 20.2: Ein Fabrikant behauptet, der Median der Zufallsvariablen X , die die Gewichte der abgepackten Gew¨ urze beschreibt, sei gr¨oßer als 10 g. Mit der Irrtumswahrscheinlichkeit α = 0.05 soll diese Behauptung getestet werden. Dazu werden 400 T¨ uten zuf¨allig ausgew¨ahlt und gewogen. Wie viele dieser T¨ uten m¨ ussen mindestens 10 g schwer sein, damit die Behauptung des Herstellers als statistisch gesichert angesehen werden kann? Wir benutzen den einseitigen Test aus der Sicht des Abnehmers. H 0 : ˜ μ ≤ ˜ μ 0 sei Nullhypothese aus der Sicht des Abnehmers. Die Behauptung des Fabrikanten ist dann die Alternative ˜ μ > ˜ μ 0 . Da der Stichprobenumfang groß genug ist, kann der Schwellenwert der Binomialverteilung durch die Normalverteilung ermittelt werden. P ( Z ≤ k α ) ≈ Φ ( k α − n − 1 2 0.5 · √ n ) Aus k α − n − 1 2 0.5 · √ n ≈ u α = − u 1 − α erhalten wir k α ≈ n − 1 2 − 0.5 · √ n · u 1 − α = 400 − 1 2 − 0.5 · √ 400 · 1.645 ≈ 183 . Es m¨ ussen also mindestens 400 − 183 = 217 T¨ uten ein Mindestgewicht von 10 g haben, damit man sich f¨ ur die Alternative (Behauptung des Herstellers) entscheiden muss. 20.2 Test und Konfidenzintervall f¨ ur den Median 167 Mit denselben ¨ Uberlegungen l¨asst sich aus einer vorgegebenen Stichprobe ein Konfidenzintervall f¨ ur den Median bestimmen. Dazu m¨ ussen wir zun¨achst die Stichprobe aufsteigend anordnen. Diese geordnete Stichprobe bezeichnen wir mit (x (1) , x (2) , . . . , x (n) ) wobei - wegen Stetigkeit der Zufallsvariablen - praktisch alle x i verschieden sind. ︷ ︸︸ ︷ m Stichprobenwerte ˜ μ x (1) x (2) . . . x (m) x (m+1) x (m+2) . . . x (n) Bild 20.1 Wir wollen nun die Wahrscheinlichkeit daf¨ ur bestimmen, dass der Median ˜ μ zwischen x (a) und x (b) liegt. Das Ereignis x (m) ≤ ˜ μ tritt dann ein, wenn mindestens m Stichprobenwerte kleiner als ˜ μ sind. Wenn wir unterstellen, dass die Chance, einen Stichprobenwert gr¨oßer oder kleiner als ˜ μ zu erhalten, gleich groß ist, so ist diese Gr¨oße binomialverteilt mit den Parametern n und p = 0.5. P ( X (m) ≤ ˜ μ) = 1 2 n n ∑ k=m ( n k ) . Daraus ergibt sich: P ( X (a) ≤ ˜ μ ≤ X (b) ) = P ( X (a) ≤ ˜ μ) − P ( X (b) ≤ ˜ μ) = 1 2 n n ∑ k=a ( n k ) − 1 2 n n ∑ k=b ( n k ) = 1 2 n b − 1 ∑ k=a ( n k ) = 1 − 1 2 n a − 1 ∑ k=0 ( n k ) − 1 2 n n ∑ k=b ( n k ) Das zentrale Konfidenzintervall f¨ ur ˜ μ erh¨alt man, indem man beide Summen der letzten Gleichung kleiner als α 2 macht. k α 2 sei wieder der Schwellenwert 5 der Binomialverteilung: 1 2 n k α 2 ∑ k=0 ( n k ) ≤ α 2 Setzt man a = 1 + k α 2 und b = n − k α 2 , so ergibt sich das Konfidenzintervall f¨ ur den Median ˜ μ zum Niveau 1 − α: [ x (1+k α 2 ) ≤ ˜ μ ≤ x (n − k α 2 ) ] . Beispiel 20.3: Aus zehn Stichprobenwerten ist zum Niveau γ = 0.9 ein Konfidenzintervall f¨ ur den Median zu bestimmen. F¨ ur n = 10 und α = 0.1 ergibt sich laut Anhang D: k α 2 = 2. Damit liegt mit der Wahrscheinlichkeit 0.9 der Median ˜ μ zwischen x (3) und x (8) . 5 Da sich f¨ ur p = 0 . 5 die Binomialverteilung schnell der Normalverteilung ann¨ahert, kann man bereits ab n > 10 von der folgenden N¨aherung Gebrauch machen: k α 2 ≈ n − 1 2 − √ n 2 · u 1− α 2 u 1− α 2 ist das (1 − α 2 )-Quantil der N (0 , 1)-Verteilung 168 20 Verteilungsfreie Verfahren 20.3 Bootstrapping Signifikanztests und die diversen Verfahren zur Bestimmung von Konfidenzintervallen gehen von normalverteilten Grundgesamtheiten aus. Oft sind diese Voraussetzungen nicht oder nur sehr grob erf¨ ullt. In diesem Abschnitt wird ein Verfahren vorgestellt, das zu einer empirischen Verteilungsfunktion f¨ uhrt. Bootstrapping setzt nur unabh¨angige Beobachtungen voraus! Allerdings muss die Stichprobe die Grundgesamtheit gut abbilden, denn die Stichprobe wird selbst als Verteilungsmodell benutzt. Bootstrapping: sich an den eigenen Stiefelschlaufen aus dem Sumpf ziehen (M¨ unchhausenprinzip). Aus der Grundgesamtheit wird eine n 0 Stichprobe x = { x 1 , x 2 , . . . , x n 0 } gezogen. Wir interessieren uns f¨ ur ein statitisches Verfahren T ( x ) , z. B. Mittelwert, Median, etc. Aus der gezogenen Stichprobe x werden n-mal jeweils n 0 Werte - mit Wiederholung - ausgew¨ahlt. In der Regel ist n n 0 . Es ergeben sich n sogenannte Bootstrap-Stichproben x ∗ ,k = { x ∗ ,k 1 , x ∗ ,k 2 , . . . , x ∗ ,k n 0 } vom Umfang n 0 (k = 1, 2, . . . , n). Dies bedeutet im Klartext ein zuf¨alliges Weglassen bzw. Wiederholen von Stichprobenwerten. Man berechnet f¨ ur alle n Bootstrap-Stichproben den zugeh¨origen gesuchten Parameter - z. B. Mittelwert - und bestimmt dann daraus den gesuchten Sch¨atzwert und das zugeh¨orige Konfidenzintervall. Das folgende Schema soll dies deutlich machen. Auswahl Grundgesamtheit n 0 Stichprobe n Bootstrap-Stichproben Anwendung des statistischen Verfahrens Resampling Bild 20.2 Aus den berechneten { T (( x ∗ ,1 ) , T (( x ∗ ,2 ) , . . . , T (( x ∗ ,n ) } lassen sich Aussagen ¨ uber die unbekannte Verteilung F von T gewinnen, zum Beispiel gilt: Var F (T ) ≈ Var Boot (T ) = 1 n − 1 n ∑ k=1 [ T ( x ∗ ,k ) − ̂ T Boot ] 2 mit ̂ T Boot = 1 n n ∑ k=1 T ( x ∗ ,k ) Wenn wir die { T (( x ∗ ,1 ) , T (( x ∗ ,2 ) , . . . , T (( x ∗ ,n ) } nach der Gr¨oße sortieren, l¨asst sich sofort eine empirische Verteilungsfunktion ̂ F n gewinnen. Reale Welt F −→ x = { x 1 , x 2 , . . . , x n 0 } ̂ Θ = T ( x ) Bootstrap Welt ̂ F n −→ x ∗ = { x ∗ 1 , x ∗ 2 , . . . , x ∗ n 0 } ̂ Θ ∗ = T ( x ∗ ) Bild 20.3 20.3 Bootstrapping 169 • Die unbekannte Verteilung F liefert x als Stichprobe. • Die unbekannte Verteilung ̂ F n liefert x ∗ als Stichprobe. • Die interessierende Statistik ̂ Θ = T ( x ) ist Funktion der Zufallsstichprobe. • Die Bootstrap-Replikation ̂ Θ ∗ = T ( x ∗ ) ist Funktion der Bootstrap-Stichprobe. Im Allgemeinen kann F bzw. ̂ F n durch eine gesch¨atztes Wahrscheinlichkeitsmodell ersetzt werden. Beispiel 20.4: Gemessen wurden bei 14 Personen der systolische Blutdruck vor und nach einer bestimmten Yoga- ¨ Ubung. Wir wollen der Fragestellung nachgehen: Hat die Yoga- ¨ Ubung einen Einfluss auf den systolischen Blutdruck? Die durchschnittliche Differenz von ¯ D = − 3.5 n¨ahrt diese Vermutung. Aber ist diese Gr¨oße signifikant oder durch den Zufall bedingt? Antwort der klassischen Statistik: Hypothesentest oder die Bestimmung eines geeigneten Konfidenzintervalls. Wenn wir unterstellen, dass die Grundgesamtheit normalverteilt ist k¨onnen wir den Streubereich bestimmen. Mit der Quantile der t-Verteilung t 13; 0.975 = 2.1604 und der empirischen Standardabweichung s = 16.9830 erhalten wir das zweiseitige Konfidenzintervall zum Niveau γ = 0.95 f¨ ur den Erwartungswert: [ ¯ D − t 13; 0.975 · s √ 14 ; ¯ D + t 13; 0.975 · s √ 14 ] = [ − 13 . 3057; 6 . 3057] Nr. vorher nachher Differenz 1 110 110 0 2 100 120 -20 3 120 130 -10 4 145 175 -30 5 150 130 20 6 115 120 -5 7 100 131 -31 8 140 120 20 9 105 120 -15 10 105 110 - 5 11 130 121 9 12 121 109 12 13 145 131 14 14 115 123 -8 ∅ 121.5 125.0 -3.5 Aber ist die Normalverteilungsannahme f¨ ur unsere Daten gerechtfertigt? Als Alternative bietet sich Bootstrapping an. Zun¨achst gehen wir naiv vor. Wir legen die wahren Daten D 1 , D 2 , . . . , D 14 gedanklich in eine Urne, ziehen daraus mit Zur¨ ucklegen 10000 virtuellen Stichproben x ∗ = { D ∗ ,k 1 , D ∗ ,k 2 , . . . , D ∗ ,k 14 } und bestimmen den zugeh¨origen Mittelwert ¯ D ∗ ,k . Wir ordnen diese Werte der Gr¨oße nach. Die untere Intervallgrenze ergibt sich dann zu ¯ D ∗ ,250 , die obere zu ¯ D ∗ ,9750 . In unserem Fall ergibt sich damit das Intervall [ − 12.1429 ; 4.7857]. Bild 20.4 170 20 Verteilungsfreie Verfahren Wir wollen nun das t-Quantil der klassischen Theorie durch eine mit Bootstrapping gewonnene Gr¨oße ersetzen. Dazu betrachten wir die standardisierte Bootstrap- Zufallsvariable u k = ¯ D ∗ ,k − ¯ D ∗ s ∗ ,k mit ¯ D ∗ ,k = 1 14 i=14 ∑ i=1 D ∗ ,k i s ∗ ,k = 1 13 i=14 ∑ i=1 [D ∗ ,k i − ¯ D ∗ ,k ] 2 ¯ D ∗ = 1 10000 i=10000 ∑ k=1 ¯ D ∗ ,k Bild 20.5 zeigt das Histogramm der u-Werte. Durch Normierung und Gl¨attung erh¨alt man eine empirische Dichtefunktion. Im Bild 20.6 sind links und rechts die zur den Wahrscheinlichkeiten 0.025 geh¨orenden Fl¨achen markiert. Durch Interpolation k¨onnen wir damit zu jeder Wahrscheinlichkeit α das zugeh¨orige Quantil u α bestimmen. Bei unserem Beispiel ergibt sich f¨ ur u 0.025 = − 2.1307 bzw. u 0.975 = 2.2577. Zusammen mit ¯ D ∗ = − 3.4354 ergibt sich daraus das Konfidenzintervall: Bild 20.5 Bild 20.6 [ ¯ D ∗ + u 0.025 · s √ 14 ; ¯ D ∗ + u 0.975 · s √ 14 ] = [ − 13.0617 ; 6.6366] - analog zur klassischen Formel - Nun soll die Abweichung einer bivariaten Stichprobe { (x i | y i ) } , i = 1, 2, 3, . . . , n 0 von der Linearit¨at untersucht werden (vgl. Abschnitt 3.1 und 3.2.3). Dazu bestimmen wir den Korrelationskoeffizienten und die Ausgleichsgerade: r(x, y) = S xy √ S xx · S yy y − ¯ y = S xy S xx (x − ¯ x) y = S xy S xx x + ¯ y − S xy S xx ¯ x = a + b · x ¯ x = 1 n 0 n 0 ∑ i=1 x i ¯ y = 1 n 0 n 0 ∑ i=1 y i S xy = 1 n 0 − 1 n 0 ∑ i=1 ( x i − ¯ x )( y i − ¯ y ) S xx = 1 n 0 − 1 n 0 ∑ i=1 ( x i − ¯ x ) 2 S yy = 1 n 0 − 1 n 0 ∑ i=1 ( y i − ¯ y ) 2 20.3 Bootstrapping 171 Unter der Annahme einer Normalverteilung ergeben sich daraus Konfidenzintervalle f¨ ur a und b (Vgl. Abschnitt 15.2). Mit σ 2 b = ˆ σ 2 S xx · (n 0 − 1) , σ 2 a = ˆ σ 2 ( 1 n 0 + (¯ x) 2 S xx · (n 0 − 1) ) erh¨alt man: [a − t n 0 − 2; 1+γ 2 · σ a , a + t n 0 − 2; 1+γ 2 · σ a ] bzw. [b − t n 0 − 2; 1+γ 2 · σ b , b + t n 0 − 2; 1+γ 2 · σ b ] Die Residuen sind die Abweichungen von der Geraden: R i = y i − (a + b · x i ) Als Maß f¨ ur die Abweichung definiern wir: ˆ σ 2 = 1 n 0 − 2 n 0 ∑ i=1 R 2 i ; R i = y i − (a + b · x i ) Wir interpretieren die Residuen als Ergebnisse einer Stichprobe. Die Bootstrap-Stichproben werden nun nicht aus den beobachteten x- und y-Werten gebildet, sondern der Fehlerterm R i wird mit Wiederholung zuf¨allig ausgew¨ahlt. F¨ ur jede Auswahl wird dann der sich aus dem Residuum ergebende y-Wert errechnet. R ∗ i , i = 1, 2, 3, . . . , n 0 ausgew¨ahlt y ∗ i = a + b · x i + R ∗ i Anschließend wird f¨ ur (x i | y ∗ i ), i = 1, 2, 3, . . . , n 0 eine Regressionsanlyse durchgef¨ uhrt. Dieser Auswahlprozess wird n mal wiederholt. Aus diesen n Werten f¨ ur den betreffenden Parameter wird eine numerische Verteilungsfunktion bestimmt und dann damit ein Konfidenzintervall errechnet. Bei nichtlinearen Regressionsmodellen m¨ ussen die statistischen Eigenschaften der Sch¨atzfunktionen f¨ ur die Parameter m¨ uhsam aus dem Streuverhalten der Residuen mittels Kovarianzmatrix bestimmt werden. Zus¨atzlich muss noch n¨aherungsweise die Normalverteilung vorausgesetzt werden. Mit Bootstrap-Stichproben k¨onnen wir den Vertrauensbereich ohne Verteilungsvorgaben und ohne Inversion der parameterabh¨angigen Funktionalmatrix bestimmen. Als Beispiel betrachten wir die Regressionsfunktion y = f a,b,c (x) = a · x b · e − c · x im Bereich 0 ≤ x ≤ 5 . mit dem Datensatz x i 0.574 1.425 2.279 2.326 2.444 2.927 3.548 3.786 4.065 4.301 y i 0.235 0.587 0.639 0.644 0.378 0.538 0.363 0.134 0.148 0.099 Durch Minimierung von D(a, b, c) = 10 ∑ i=1 ( a · x b i · e − c · x i − y i ) 2 erhalten wir die Parameter der Regressionsfunktion a = 2.1205; b = 2.6400; c = 1.5182. Die Residuen R i = f a,b,c (x i ) − y i sind dem n¨achsten Tableau zu entnehmen: Bild 20.7 172 20 Verteilungsfreie Verfahren Bootstrap-Stichproben entstehen dadurch, dass wir die Zuordnung der Residuen vertauschen. Beispielhaft sei eine zyklische Vertauschung der R i notiert: R ∗ i = R i − 1 ; i = 2, 3, . . . , 10; R ∗ 1 = R 10 x i 0.574 1.425 2.279 2.326 2.444 2.927 3.548 3.786 4.065 4.301 y i 0.235 0.587 0.639 0.644 0.378 0.538 0.363 0.134 0.148 0.099 f a,b,c (x i ) 0.205 0.621 0.586 0.576 0.549 0.424 0.275 0.227 0.180 0.146 R i − 0.030 0.034 − 0.053 − 0.068 0.171 − 0.114 − 0.088 0.093 0.032 0.047 R ∗ i 0.047 − 0.030 0.034 − 0.053 − 0.068 0.171 − 0.114 − 0.088 0.093 0.032 y ∗ i 0.158 0.651 0.552 0.629 0.617 0.253 0.389 0.315 0.087 0.114 F¨ ur die Bootstrap-Stichprobe (x i | y ∗ i ) bestimmen wir die zugeh¨origen Regressionsparameter a ∗ , b ∗ , c ∗ . An den Kontrollpunkten t k = k · 0.1 , k = 0, 1, 2, . . . , 50 berechnen wir die Funktionswerte f a ∗ ,b ∗ ,c ∗ (t k ). Dieser Auswahlprozess wird n mal wiederholt. Anschließend bestimmen wir f¨ ur jeden Kontrollpunkt t k das zu α 2 bzw. 1 − α 2 geh¨orende Quantil q k α 2 bzw. q k 1 − α 2 . Durch Interpolation der Punkte (t k | q k α 2 ) bzw. (t k | q k 1 − α 2 ) ergeben sich dann die Grenzen des gesuchten Vertrauensbereichs. Bild 20.8 Bild 20.9 173 21 Statistische Qualit¨atskontrolle Bei Massenprodukten kann und will man nicht bei allen Fertigungsstufen jedes Einzelteil individuell pr¨ ufen. Die Hilfsmittel der schließenden Statistik erm¨oglichen mittels Stichproben eine effiziente ¨ Uberwachung der Fertigung. Testverfahren werden zur Qualit¨atskontrolle im Fertigungsprozess, bei Annahmekontrollen usw. benutzt. Wir unterscheiden dabei zwei Problemkreise. • Statistische Prozesskontrolle (auch mit SPC=Statistical Process Control bezeichnet): Laufende ¨ Uberwachung eines Fertigungsprozesses; sofortiges Eingreifen m¨oglich; Zeitpunkt des notwendigen Eingriffs soll bestimmt werden. = ⇒ Kontrollkarten (Abschnitte 21.1 bis 21.5 ) • Annahmekontrolle: Eingangs- und Endkontrolle zur Feststellung der Qualit¨at der Erzeugnisse. Art und Umfang der Stichprobenkontrolle ist im Allgemeinen Bestandteil der Liefervereinbarung. = ⇒ Stichprobenpl¨ane (Abschnitte 21.6 und 21.7) 21.1 Kontrollkarten Kontrollkarten ¨ uberwachen einen laufenden Produktionsprozess und regeln den Eingriffin die Produktion. Dabei wird ein bestimmtes Merkmal an Hand von regelm¨aßig zu entnehmenden Stichproben ¨ uberwacht. Aufgabe der Statistik ist es nun, Grenzen festzugelegen, ab denen in den Produktionsprozess eingegriffen wird. Beim Entwurf solcher Karten wird zwischen stetigen und diskreten Merkmalswerten unterschieden. • Messende Pr¨ ufung (f¨ ur ein stetiges Merkmal) a) Mittelwert ¯ x = ⇒ ¯ x-Karte b) Median ˜ x = ⇒ Median-Karte (˜ x-Karte) c) Empirische Standardabweichung s = ⇒ s-Karte d) Spannweite R = ⇒ R-Karte • Z¨ahlende Pr¨ ufung (f¨ ur ein diskretes Merkmal) a) Ausschussquote p = ⇒ p-Karte b) Absolute H¨aufigkeit x = ⇒ x-Karte 174 21 Statistische Qualit¨atskontrolle Kontrollkarten bestehen im Prinzip aus einer zeitlichen Aneinanderreihung von Tests aus Kapitel 13. 21.1.1 ¯ x-Karte Mit dieser Kontrollkarte sollen Ver¨anderungen beim Sollwert fr¨ uhzeitig erkannt werden. Aus der laufenden Produktion werden zu festgelegten Zeitpunkten t 1 , t 2 , . . . jeweils n Teile zuf¨allig entnommen, gemessen und daraus jeweils das arithmetische Mittel berechnet. Der Mittelwert der i-ten Stichprobe ist: ¯ x i = 1 n n ∑ j=1 x i,j Dabei bezeichnet x i,j den j-ten Messwert der (zum Zeitpunkt t i erhobenen) i-ten Stichprobe. In einem Diagramm werden nun diese Werte ¨ uber der Zeitachse aufgetragen. In der Regel werden die Stichproben nach festen Zeitabst¨anden entnommen. Bild 21.1 In obigem Diagramm sind die Eingriffsgrenzen UCL bzw. LCL eingezeichnet und die Punkte entsprechend markiert. Daneben gibt es noch die Warngrenzen UWL und LWL. Die Marken USL bzw. LSL stellen die technischen Toleranzen dar. UCL : Upper Control Limit LCL : Lower Control Limit UWL : Upper Warning Limit LWL : Lower Warning Limit USL : Upper Specification Limit LSL : Lower Specification Limit CL : Central Line 21.1 Kontrollkarten 175 Es stellt sich nun die Frage, wie diese Eingriffsgrenzen bestimmt werden. Zun¨achst der einfachste Fall: wir setzen voraus, dass Erwartungswert und Varianz des Prozesses bekannt sind, d. h., wir gehen von einer N (μ, σ 2 )-Verteilung aus. Wir bestimmen nun die Testgr¨oßen f¨ ur einen zweiseitigen Test zum Signifikanzniveau α C (z. B. α C = 0, 01). Im Folgenden geben wir an Stelle der Irrtumswahrscheinlichkeit α C stets die Gegenwahrscheinlichkeit γ C = 1 − α C (z. B. γ C = 0, 99) an. Die Grenzen f¨ ur die standardisierte Zufallsvariable Z ergeben sich dann zu ± u α mit α = 1+γ C 2 . Die Nullhypothese kann nicht zur¨ uckgewiesen werden, wenn μ − u α · σ √ n < ¯ x i < μ + u α · σ √ n gilt. Die so bestimmten Grenzen heißen Eingriffsgrenzen des Prozesses. F¨ uhrt der Test zur Ablehnung der Nullhypothese, so wird in den Produktionsprozess eingegriffen. Analog werden (f¨ ur ein kleineres Niveau γ W ) die Warngrenzen ermittelt. F¨ ur das zugrunde gelegte Vertrauensniveau gibt es zwei Standards. Standard USA Standard Europa Niveau Eingriffsgrenze γ C 0.9973 0.99 Niveau Warngrenze γ W 0.9544 0.95 standardisierte Eingriffsgrenze u 1+γ C 2 3 2.58 standardisierte Warngrenze u 1+γ W 2 2 1.96 Eingriffsgrenze UCL bzw. LCL μ ± 3 · σ √ n μ ± 2.58 · σ √ n Warngrenze UWL bzw. LWL μ ± 2 · σ √ n μ ± 1.96 · σ √ n Mittellinie CL μ μ In der Regel kennt man jedoch die Parameter der N (μ, σ 2 )-Verteilung nicht. Sie m¨ ussen aus bereits entnommenen Proben, dem sogenannten Vorlauf, gesch¨atzt werden. Dazu entnimmt man k Stichproben (30 ≤ k ≤ 40) vom Umfang n. F¨ ur die Sch¨atzung des Erwartungswerts benutzen wir das arithmetische Mittel der k Vorlaufproben: μ ≈ ¯¯ x = 1 k [ k ∑ i=1 ¯ x i ] = 1 k [ k ∑ i=1 ( 1 n n ∑ j=1 x i,j )] . F¨ ur die Sch¨atzung der Standardabweichung σ sind traditionell drei Vorgehensweisen im Gebrauch. • Ausgangspunkt: Varianzen der einzelnen Stichproben s 2 i = 1 n − 1 n ∑ j=1 (x i,j − ¯ x i ) 2 . 176 21 Statistische Qualit¨atskontrolle Man bestimmt die mittlere Varianz und sch¨atzt dann die Standardabweichung σ durch die Quadratwurzel dieses Mittelwerts. σ ≈ ˆ s var = √ √ √ √ 1 k k ∑ i=1 s 2 i = √ √ √ √ 1 k k ∑ i=1 [ 1 n − 1 n ∑ j=1 (x i,j − ¯ x i ) 2 ] • Ausgangspunkt: Standardabweichungen der einzelnen Stichproben s i = √ √ √ √ 1 n − 1 n ∑ j=1 (x i,j − ¯ x i ) 2 Der arithmetische Mittelwert der Standardabweichungen ist keine erwartungstreue Sch¨atzung f¨ ur die Standardabweichung σ. Es muss noch ein von n abh¨angiger Korrekturfaktor ber¨ ucksichtigt werden. σ ≈ ˆ s std = 1 c n · 1 k k ∑ i=1 s i = 1 c n · 1 k k ∑ i=1 √ √ √ √ 1 n − 1 n ∑ j=1 (x i,j − ¯ x i ) 2 mit c n = √ 2 n − 1 Γ ( n 2 ) Γ ( n − 1 2 ) , wobei lim n →∞ c n = 1 . n 2 3 4 5 6 7 8 9 10 11 12 c n 0.798 0.886 0.921 0.940 0.952 0.959 0.965 0.969 0.973 0.975 0.978 • Ausgangspunkt: Spannweiten der einzelnen Stichproben R i = max j=1,...,n (x i,j ) − min j=1,...,n (x i,j ) Der arithmetische Mittelwert der Spannweiten multipliziert mit einem von n abh¨angigen Korrekturfaktor ergibt ebenso einen Sch¨atzwert f¨ ur die Standardabweichung σ. σ ≈ ˆ s range = 1 d n · 1 k k ∑ i=1 R i = 1 d n · 1 k k ∑ i=1 ( max j=1,...,n (x i,j ) − min j=1,...,n (x i,j ) ) mit n 2 3 4 5 6 7 8 9 10 11 12 d n 1.128 1.693 2.059 2.326 2.534 2.704 2.847 2.970 3.078 3.173 3.258 In der nachfolgenden Tabelle ist ein solcher Vorlauf (k = 36 Stichproben mit je n = 5 Werten) dokumentiert. Neben dem arithmetischen Mittelwert der Stichprobe sind auch Median, Varianz, Standardabweichung und Spannweite dokumentiert. 21.1 Kontrollkarten 177 i x i,1 x i,2 x i,3 x i,4 x i,5 ¯ x i ˜ x i s i R i s 2 i 1 − 0.410 − 0.220 − 0.040 − 0.280 − 0.280 − 0.2460 − 0.2800 0.1345 0.3700 0.01808 2 − 0.410 − 0.280 − 0.230 − 0.140 − 0.220 − 0.2560 − 0.2300 0.0996 0.2700 0.00993 3 − 0.130 − 0.310 − 0.010 − 0.070 − 0.080 − 0.1200 − 0.0800 0.1145 0.3000 0.01310 4 − 0.130 − 0.150 − 0.110 +0.070 − 0.020 − 0.0680 − 0.1100 0.0918 0.2200 0.00842 5 +0.080 − 0.120 +0.050 − 0.050 +0.010 − 0.0060 +0.0100 0.0802 0.2000 0.00643 6 − 0.200 − 0.030 +0.020 +0.050 − 0.060 − 0.0440 − 0.0300 0.0971 0.2500 0.00943 7 − 0.130 − 0.170 +0.020 +0.140 +0.000 − 0.0280 +0.0000 0.1244 0.3100 0.01547 8 − 0.130 − 0.030 − 0.030 +0.150 +0.010 − 0.0060 − 0.0300 0.1014 0.2800 0.01028 9 − 0.050 − 0.060 − 0.100 +0.210 +0.060 +0.0120 − 0.0500 0.1256 0.3100 0.01577 10 − 0.160 − 0.210 − 0.100 − 0.210 − 0.150 − 0.1660 − 0.1600 0.0462 0.1100 0.00213 11 − 0.310 − 0.240 − 0.230 +0.020 − 0.120 − 0.1760 − 0.2300 0.1290 0.3300 0.01663 12 − 0.160 − 0.230 − 0.300 +0.060 − 0.040 − 0.1340 − 0.1600 0.1448 0.3600 0.02098 13 − 0.310 − 0.110 − 0.210 − 0.110 − 0.170 − 0.1820 − 0.1700 0.0832 0.2000 0.00692 14 − 0.090 − 0.080 − 0.110 − 0.170 − 0.100 − 0.1100 − 0.1000 0.0354 0.0900 0.00125 15 − 0.090 − 0.180 − 0.150 − 0.080 − 0.070 − 0.1140 − 0.0900 0.0483 0.1100 0.00233 16 − 0.030 − 0.090 − 0.150 +0.040 +0.000 − 0.0460 − 0.0300 0.0750 0.1900 0.00563 17 − 0.030 +0.050 − 0.020 +0.110 +0.030 +0.0280 +0.0300 0.0567 0.1400 0.00322 18 − 0.090 − 0.330 − 0.050 +0.000 − 0.040 − 0.1020 − 0.0500 0.1314 0.3300 0.01727 19 − 0.030 − 0.140 − 0.090 − 0.070 − 0.040 − 0.0740 − 0.0700 0.0439 0.1100 0.00193 20 − 0.030 +0.080 +0.090 +0.150 +0.050 +0.0680 +0.0800 0.0657 0.1800 0.00432 21 +0.120 +0.360 +0.100 +0.270 +0.150 +0.2000 +0.1500 0.1111 0.2600 0.01235 22 − 0.160 − 0.010 − 0.010 +0.140 − 0.010 − 0.0100 − 0.0100 0.1061 0.3000 0.01125 23 − 0.030 +0.030 +0.030 +0.210 +0.070 +0.0620 +0.0300 0.0901 0.2400 0.00812 24 +0.030 − 0.010 +0.040 +0.080 +0.040 +0.0360 +0.0400 0.0321 0.0900 0.00103 25 +0.050 +0.260 +0.210 +0.260 +0.120 +0.1800 +0.2100 0.0925 0.2100 0.00855 26 − 0.090 +0.020 +0.290 +0.140 +0.020 +0.0760 +0.0200 0.1447 0.3800 0.02093 27 − 0.040 +0.050 +0.020 +0.110 +0.030 +0.0340 +0.0300 0.0541 0.1500 0.00293 28 − 0.050 − 0.410 − 0.230 − 0.140 − 0.080 − 0.1820 − 0.1400 0.1448 0.3600 0.02097 29 − 0.270 − 0.050 − 0.250 − 0.170 − 0.180 − 0.1840 − 0.1800 0.0865 0.2200 0.00748 30 − 0.340 − 0.170 − 0.300 − 0.160 − 0.200 − 0.2340 − 0.2000 0.0811 0.1800 0.00658 31 − 0.130 − 0.120 − 0.340 − 0.150 − 0.110 − 0.1700 − 0.1300 0.0962 0.2300 0.00925 32 − 0.410 − 0.190 − 0.220 +0.140 − 0.110 − 0.1580 − 0.1900 0.1997 0.5500 0.03987 33 − 0.200 − 0.150 − 0.190 − 0.080 − 0.110 − 0.1460 − 0.1500 0.0513 0.1200 0.00263 34 − 0.130 − 0.140 − 0.200 − 0.210 − 0.130 − 0.1620 − 0.1400 0.0396 0.0800 0.00157 35 − 0.340 − 0.040 − 0.190 − 0.140 − 0.190 − 0.1800 − 0.1900 0.1084 0.3000 0.01175 36 − 0.200 − 0.200 − 0.010 +0.030 − 0.070 − 0.0900 − 0.0700 0.1065 0.2300 0.01135 ∅ − 0.140 − 0.101 − 0.083 +0.004 − 0.055 − 0.0749 − 0.0742 0.0937 0.2378 0.01017 Die zur Sch¨atzung der Standardabweichung notwendigen Werte k¨onnen als Durchschnittswerte der letzten Zeile entnommen werden. F¨ ur unser oben dokumentiertes Zahlenbeispiel ergeben sich mit diesen verschiedenen Vorgehensweisen die nebenstehenden Zahlenwerte. Interpretierten wir die 36 · 5 Werte als eine einzige Stichprobe, so erg¨abe sich die empirische Standardabweichung zu s = 0.1443 . Verfahren Rechenvorschrift Zahlenwert ˆ s var √ 0.01017 0.1008 ˆ s std 0.0937 0.940 0.0997 ˆ s range 0.2378 2.326 0.1022 Wir erkennen, dass alle Sch¨atzverfahren fast dieselben Resultate erbringen. Die Standardabweichung der Gesamtdatenmenge f¨ uhrt dagegen zu einem deutlich h¨oheren Wert. 178 21 Statistische Qualit¨atskontrolle Verlangt man, dass nicht nur der Mittelwert, sondern alle Werte der einzelnen Stichproben zwischen den Eingriffgrenzen liegen, so spricht man von einer Urwertkarte. Ob eine Maßnahme ausgel¨ost wird, h¨angt dann von den Extremwerten (Maximum und Minimum) der Stichproben ab. Man nennt deshalb solche Kontrollkarten auch Extremwertkarten. Eine solche Urwertkarte stellt sich als Sonderfall der zuvor behandelten Karten dar, wenn man den Stichprobenumfang auf n = 1 setzt. 21.1.2 ˜ x-Karte Analog zur ¯ x-Karte l¨asst sich eine Kontrollkarte f¨ ur den Median konstruieren. Bei einer N (μ, σ 2 )-verteilten Grundgesamtheit ist der Median ˜ x als Stichprobenfunktion von n Messungen asymptotisch normalverteilt mit demselben Erwartungswert μ. Die Varianz des Medians wird ebenfalls proportional zu 1 n kleiner. Allerdings ist noch ein Korrekturfaktor K 2 n zu ber¨ ucksichtigen. F¨ ur große n gilt K 2 n ≈ π 2 , d. h. der Median streut etwas st¨arker als das arithmetische Mittel. Var(˜ x) = K 2 n · σ 2 2n . n 2 3 4 5 6 7 8 9 10 11 12 K n 1.000 1.160 1.092 1.198 1.136 1.214 1.159 1.223 1.175 1.229 1.190 Bei der Berechnung der Eingriffsgrenzen sind die aus der ¯ x-Karte bekannten Grenzen noch mit dem Faktor K n zu multiplizieren. Eingriffsgrenzen UCL bzw. LCL = μ ± u 1+γ C 2 · K n · σ √ n Warngrenzen UWL bzw. LWL = μ ± u 1+γ W 2 · K n · σ √ n Mittellinie CL = μ Sind die Parameter μ und σ nicht bekannt, so m¨ ussen diese analog zum vorangegangenen Abschnitt gesch¨atzt werden. Dabei bestimmt sich μ als Mittelwert der Einzelmediane des Vorlaufs. Da die Koeffizienten K n f¨ ur n > 2 die Eigenschaft K n > 1 haben, liegen die Grenzen einer Mediankarte in diesen F¨allen weiter auseinander als bei der entsprechenden Mittelwertkarte. Die zugeh¨orige G¨ utefunktion hat einen flacheren Verlauf (vgl. Abschnitt 13.6). Somit besitzt die Mediankarte bei einer Niveauverschiebung eine geringere Eingriffswahrscheinlichkeit. Die nachfolgende Graphik wurde wieder mit dem Datensatz auf Seite 177 erzeugt. 21.1 Kontrollkarten 179 Bild 21.2 21.1.3 s-Karte Neben der direkten ¨ Uberwachung des Merkmalwertes mittels ¯ x-Karte und/ oder ˜ x-Karte ist die Kenntnis der Streuung der Einzelwerte und ihre zeitliche Ver¨anderung im Verlaufe des Fertigungsprozesses wichtig. So wird sich bei Abn¨ utzung eines Werkzeugs unter Umst¨anden der arithmetische Mittelwert der Stichprobe kaum ver¨andern, nur die Streuung d¨ urfte gr¨oßer werden. Zum Aufsp¨ uren solcher Sachverhalte benutzt man eine sogenannte s-Karte, bei der die Standardabweichungen der Stichproben aufgezeichnet werden. s i = √ √ √ √ 1 n − 1 n ∑ j=1 (x i,j − ¯ x i ) 2 Dabei folgt die Gr¨oße (n − 1) · s 2 i σ 2 einer χ 2 -Verteilung mit (n − 1) Freiheitsgraden. Man erh¨alt f¨ ur die Grenzlinien einer zweiseitigen s-Karte bei vorgegebem Niveau σ : Eingriffsgrenze UCL = √ χ 2 n − 1; 1+γ C 2 n − 1 · σ LCL = √ χ 2 n − 1; 1−γ C 2 n − 1 · σ Warngrenze UWL = √ χ 2 n − 1; 1+γ W 2 n − 1 · σ LWL = √ χ 2 n − 1; 1−γ W 2 n − 1 · σ Mittellinie CL = c n · σ 180 21 Statistische Qualit¨atskontrolle Mit dem Datensatz auf Seite 177 ergibt sich dann das folgende Diagramm: Bild 21.3 Die aus n Einzelwerten berechnete Standardabweichung ist asymptotisch normalverteilt mit dem Erwartungswert c n · σ und der Varianz (1 − c 2 n ) · σ 2 (vgl. Seite 176). Dabei wurde wieder eine N (μ, σ 2 )-verteilten Grundgesamtheit vorausgesetzt. Man kann deshalb f¨ ur gr¨oßere n die Eingriffsgrenzen wie folgt bestimmen: Eingriffsgrenzen UCL bzw. LCL = c n · σ ± u 1+γ C 2 · √ 1 − c 2n · σ Warngrenzen UWL bzw. LWL = c n · σ ± u 1+γ W 2 · √ 1 − c 2n · σ Mittellinie CL = c n · σ In der Regel findet die untere Eingriffsbzw. Warngrenze keine Beachtung. F¨ ur gr¨oßere n liefern die beiden Konzepte der s-Karten nur minimale Unterschiede. Die nachfolgende Graphik wurde wieder mit dem Datensatz auf Seite 177 erzeugt. 21.2 Prozessf¨ahigkeit 181 Bild 21.4 Zur ¨ Uberwachung des Streuverhaltens kann auch die Spannweite R i einer Stichprobe herangezogen werden. Man erh¨alt dann eine sogenannte R-Karte. 21.2 Prozessf¨ahigkeit Bei der Herleitung der Grenzen f¨ ur Kontrollkarten setzten wir voraus, dass die Merkmalwerte normalverteilt sind mit dem Erwartungswert μ und der Varianz σ 2 . Damit liegen 99,73 % aller Werte, also fast alle, innerhalb der Drei-Sigma-Grenzen [μ − 3σ, μ + 3σ]. Man nennt dieses Intervall den nat¨ urlichen Toleranzbereich (oder Prozessbereich). Diese Drei-Sigma-Grenzen stimmen f¨ ur den ungest¨orten Prozess (μ = a, wobei a den bei der Fertigung angestrebten Sollwert bezeichne) bei einer Irrtumswahrscheinlichkeit von 0.0027 mit den nach dem US-Standard ermittelten Kontrollgrenzen der Einzelwertkarte (n = 1) ¨ uberein: LCL = a − 3σ , UCL = a + 3σ . Solange der Messwert x innerhalb dieser Grenzen liegt, ist der Prozess stabil. Andererseits werden bei der Fertigung technische Toleranzen festgelegt, die bei der Produktion einzuhalten sind. Liegt der Messwert x außerhalb dieser Toleranzgrenzen, so ist das Teil Ausschuss. Eine Qualit¨atsregelkarte ist nur dann zur ¨ Uberwachung des Produktionsprozesses geeignet, wenn die Ausschussquote Q f¨ ur einen stabilen Prozess m¨oglichst klein ist. Wir wollen nun f¨ ur den ungest¨orten Fertigungsprozess einer N (μ, σ 2 )-verteilten 182 21 Statistische Qualit¨atskontrolle Merkmalsgr¨oße die Ausschussquote bestimmen. Dabei gehen wir von einem zu μ symmetrischen Toleranzbereich aus: T U = a − d = untere Toleranzgrenze (LSL) , T O = a + d = obere Toleranzgrenze (USL) , Δ = 2d = Breite des Toleranzbereichs . F¨ ur die Ausschussquote ergibt sich daraus: Q = P ( X < T U ) + P ( X > T O ) = 1 − P (a − d ≤ X ≤ a + d) = 1 − [ Φ ( d σ ) − Φ ( − d σ )] = 2 · [ 1 − Φ ( d σ )] . d. h. Q h¨angt nur vom Verh¨altnis d σ ab; und da d durch die technischen Forderungen vorgeschrieben ist, beeinflusst lediglich σ die Ausschussquote Q, wenn (wie hier vorausgesetzt) die Prozessmitte μ mit dem Sollwert a ¨ ubereinstimmt. F¨ ur d σ = 3 fallen die Toleranzgrenzen mit den Kontrollgrenzen (Standard USA) zusammen und wir erhalten: Q = 2 · [1 − Φ(3)] = 0.0027 ; (entspricht 0.27 % ) F¨ ur d σ = 2 erh¨alt man entsprechend: Q = 2 · [1 − Φ(2)] = 0.0455 ; (entspricht 4.55 % ) Hier ist der technische Toleranzbereich enger als die nat¨ urlichen Kontrollgrenzen vorgegeben (Δ = 4σ < 6σ). Die Ausschussquote betr¨agt bereits 4,55 %. In diesem Fall kann der Prozess nicht mit Kontrollkarten ¨ uberwacht werden; man sagt, die Fertigung ist nicht prozessf¨ahig. Zur Beurteilung f¨ uhrt man Prozessf¨ahigkeitsindizes ein. Der einfachste Index ist der sogenannte C p -Index f¨ ur symmetrische Grenzen. C p = Δ 6σ C p dr¨ uckt das Verh¨altnis zwischen der Breite des technischen Toleranzbereichs zur Breite des nat¨ urlichen Kontrollbereichs aus. Man legt fest: C p < 1 Prozessf¨ahigkeit ist nicht vorhanden, 1 ≤ C p ≤ 1, 33 bedingte oder eingeschr¨ankte Prozessf¨ahigkeit, C p > 1, 33 Prozessf¨ahigkeit ist vorhanden. Bei neu eingef¨ uhrten Prozessen wird h¨aufig C p > 1, 5 gefordert. Dabei gehen wir von Idealverh¨altnissen - μ, σ bekannt - aus. Die oben eingef¨ uhrten Prozessf¨ahigkeitsindices sind modellm¨aßige theoretische Konstrukte, die durch Stichproben 21.2 Prozessf¨ahigkeit 183 gesch¨atzt werden m¨ ussen. Die naheliegende Vorgehensweise zur Sch¨atzung eines C p -Wertes besteht darin, σ 2 zu sch¨atzen. Die daraus abgeleitete Sch¨atzfunktion ˆ C p gen¨ ugt dann einer χ 2 -Verteilung. (n − 1) · [ C p ˆ C p ] 2 ∼ χ 2 n − 1 Diese Sch¨atzfunktion ˆ C p ist nicht erwartungstreu; es gilt E( ˆ C p ) = a n · C p mit a n ≈ n − 1 n − 1, 75 d. h. der Sch¨atzwert ˆ C p ist noch mit dem Faktor 1 a n zu korrigieren. Der Index C p gibt nur Auskunft ¨ uber die Variabilit¨at des Prozesses. Die tats¨achliche Ausschussquote h¨angt noch vom Prozessniveau, d. h. von der Position des Erwartungswerts μ ab. Liegt dieser in der Mitte der oberen und unteren Toleranzgrenzen, so bestimmt der Index C p den Ausschussanteil. Bei unsymmetrischer Lage des Erwartungswerts betrachten wir den Index C pk = min(T O − μ, μ − T U ) 3σ σ μ f(x) x T O T U μ − T U T O − μ Dichte Bild 21.5 Der grau unterlegte Fl¨achenteil veranschaulicht den bei obiger Konstellation zu erwartenden Ausschussanteil. In der Praxis ist der Index C pk wieder zu sch¨atzen, indem man μ und σ aus einer Stichprobe sch¨atzt. Dabei sind wieder die auf Seite 183 erw¨ahnten Korrekturfaktoren a n zu ber¨ ucksichtigen. 184 21 Statistische Qualit¨atskontrolle Die folgende Graphik zeigt bei den Toleranzgrenzen T U = 6.2 , T O = 7.8 die Abh¨angigkeit des Index C pk von den Gr¨oßen μ und σ. Bild 21.6 S¨amtliche Verteilungen des nachfolgenen Schaubilds f¨ uhren zum C pk -Wert 1. μ 1 μ 2 μ 3 μ 4 μ 5 μ 6 μ 7 T O T U T O − T U Dichte x Bild 21.7 21.3 p-Karte 185 Beim Entwurf von Kontrollkarten f¨ ur die messende Pr¨ ufung kann man auch von den technischen Toleranzgrenzen [T U , T O ] ausgehen. Eine solche Karte soll sicherstellen, dass das Prozessniveau gen¨ ugend Abstand zu den Grenzen T U , T O hat. Man l¨asst dem Prozessniveau μ t innerhalb von [T U , T O ] soviel Spielraum, bis der zugeh¨orige Ausschussanteil P (μ t ) eine Schmerzgrenze P + erreicht. Beim Erreichen dieses kritischen Ausschussanteils wird dann mit der (hohen) Wahrscheinlichkeit G + in den Prozess eingegriffen. Die mit diesem Prinzip festgelegten Eingriffsgrenzen haben die Form: Eingriffsgrenzen LCL = T U + k E · σ ; U CL = T O − k E · σ Warngrenzen LW L = T U + k W · σ ; U W L = T O − k W · σ Eine gebr¨auchliche Festlegung der Faktoren hat die Gestalt: c = Φ − 1 ( 1 − P + ) + Φ − 1 ( G + ) √ n , wobei c f¨ ur k E bzw. k W steht und f¨ ur Eingriffs- und Warngrenzen unterschiedliche Werte f¨ ur P + und G + eingesetzt werden. 21.3 p-Karte Werden die Erzeugnisse eines Fertigungsprozesses nur qualitativ beurteilt (d. h. wird nur entschieden, ob das Teil fehlerfrei ist), so muss die Fertigung mit einer Kontrollkarte f¨ ur die z¨ahlende Pr¨ ufung, einer sogenannten p-Karte, ¨ uberwacht werden. Das Kriterium zur Beurteilung der Qualit¨at ist die Anzahl der fehlerhaften Teile in der Stichprobe. Dabei k¨onnen mehrere Merkmale gleichzeitig ¨ uberwacht werden. Beispiel: Ein Drehautomat stellt Bolzen her. L¨ange und Durchmesser m¨ ussen innerhalb vorgegebener Grenzen liegen. Ein Kontrollmechanismus pr¨ uft die Teile auf Verwendbarkeit. Die p-Karte kontrolliert beide Merkmalswerte. Jedoch ist die Aussagekraft einer solchen attributiven Kontrollkarte geringer als Kontrollkarten f¨ ur eine messende Pr¨ ufung. Zur Herleitung der Kontrollgrenzen f¨ ur eine p-Karte geht man wieder von dem Hypothesentest H 0 : p = p 0 zur Pr¨ ufung einer Wahrscheinlichkeit aus. F¨ ur eine gen¨ ugend große Stichprobenzahl kann die Binomialverteilung durch die Normalverteilung approximiert werden. Eingriffsgrenzen UCL bzw. LCL = p 0 ± u 1+γ C 2 · √ p 0 (1 − p 0 ) n Warngrenzen UWL bzw. LWL = p 0 ± u 1+γ W 2 · √ p 0 (1 − p 0 ) n Sind die unteren Grenzen negativ, so werden sie zu Null gesetzt. Obige Formeln enthalten außer n den Ausschussanteil p 0 des ungest¨orten Prozesses, der in vielen praktischen F¨allen nicht bekannt ist. p 0 muss dann ¨ uber einen Vorlauf gesch¨atzt 186 21 Statistische Qualit¨atskontrolle werden. Dieser sollte k = 20 bis 30 Proben umfassen. Als Sch¨atzwert f¨ ur p 0 benutzen wir die arithmetischen Mittelwerte der Ausschussquoten der Stichproben des Vorlaufs: p 0 ≈ ¯ p = 1 k · k ∑ i=1 x i n i = 1 k · k ∑ i=1 ˆ p i . (Bei der Stichprobe i wurden n i Teile kontrolliert und dabei x i fehlerhafte Teile entdeckt.) Bei unterschiedlichem Stichprobenumfang f¨ uhrt diese Methode nicht exakt zum globalen Ausschussanteil aller k Stichproben. Setzt man nun ¯ p anstelle p 0 in obige Beziehungen ein, so ergeben sich die in der Praxis verwendeten Kontrollgrenzen. Das nachfolgende Schaubild stellt einen solchen Kartenverlauf dar. Bei unterschiedlichem Stichprobenumfang sind die Eingriffsgrenzen keine Parallelen zur Zeitachse, sondern vom Stichprobenumfang n i abh¨angig. Bild 21.8 21.4 Kontrollkarten mit Ged¨achtnis Bei den bisher betrachteten Kontrollkarten erfolgt die Entscheidung ¨ uber den Eingriffin den Fertigungsprozess ausschließlich aufgrund der aktuellen Stichprobe. Wir wollen nun versuchen, auch die Tendenz der Stichprobenwerte zu ber¨ ucksichtigen. Man spricht dann von Kontrollkarten mit Ged¨achtnis. Am Beispiel einer Mittelwertkarte soll dieses 21.4 Kontrollkarten mit Ged¨achtnis 187 Konzept kurz dargestellt werden. An Stelle des aktuellen Mittelwerts ¯ x k werden auch vorangegangene Stichprobenwerte ber¨ ucksichtigt. Man zeichnet deshalb die Gr¨oße y k = α k + k ∑ i=1 β i · ¯ x i mit ¯ x i = 1 n n ∑ j=1 x i,j auf. Die Koeffizienten α k bzw. Gewichte β j k¨onnen nach verschiedenen Gl¨attungsschemata gew¨ahlt werden. Sehr gebr¨auchlich ist die sogenannte EWMA-¯ x-Karte (exponentially weighted moving average): y k = a · (1 − λ) k + λ · k ∑ i=1 (1 − λ) k − i · ¯ x i mit ¯ x i = 1 n n ∑ j=1 x i,j wie oben. Dabei ist a ein Soll- oder Zielwert f¨ ur die Fertigung und 0 < λ ≤ 1 der Gl¨attungsparameter. Dieses Verfahren entspricht dem exponentiellen Gl¨atten in der Zeitreihenanalyse. Die EWMA-¯ x-Karte besitzt ein ungleichm¨aßiges, unendliches Ged¨achtnis. Die Bestimmung der y k kann auch als L¨osung der nachfolgenden Differenzengleichung interpretiert werden. y k = (1 − λ) · y k − 1 + λ · ¯ x k , k = 1, 2, 3, . . . , mit y 0 = a . Zur Berechnung der Kontrollgrenzen geht man wieder davon aus, dass im ungest¨orten Fall (μ = a) der Merkmalswert N (μ, σ 2 )-verteilt ist. F¨ ur die in die Karte einzutragende Pr¨ ufgr¨oße Y k liegt dann auch eine Normalverteilung mit vor, allerdings mit einer kleineren, von k abh¨angigen Varianz: E( Y k ) = a, V ar( Y k ) = λ 2 − λ · [ 1 − (1 − λ) 2k ] · σ 2 n . F¨ ur die konkrete Bestimmung der Kontrollgrenzen benutzt man h¨aufig den asymptotischen Wert: V ar( Y ∞ ) = lim k →∞ λ 2 − λ · [ 1 − (1 − λ) 2k ] · σ 2 n = λ 2 − λ · σ 2 n . Damit ergeben sich die Kontrollgrenzen aus der Tabelle auf Seite 175 durch Multiplikation 1 der Intervallbreiten mit dem Faktor √ λ 2 − λ . Die nachfolgenden Skizzen sind aus dem Datensatz auf Seite 177 entstanden. 1 Richtig w¨are die Multiplikation mit dem zeitabh¨angigen Faktor √ λ 2 − λ · [1 − (1 − λ ) 2k ] . 188 21 Statistische Qualit¨atskontrolle Bild 21.9 Die Darstellung f¨ ur λ = 0.8 ist bereits sehr ¨ahnlich zur Skizze auf Seite 174. Standardm¨aßig wird λ = 0.4 benutzt. Trends sind bei dieser Darstellung fr¨ uher zu erkennen. 21.5 Ungew¨ohnliche Messwertfolgen 189 Eine Alternative w¨are die sogenannte CUSUM-Karte. Hier wird die kumulierte Summe der Abweichungen vom Sollwert als Pr¨ ufgr¨oße benutzt. 21.5 Ungew¨ohnliche Messwertfolgen In den Fertigungsprozess wird eingegriffen, wenn ein Messpunkt außerhalb der Eingriffsgrenzen liegt. Daneben gibt es noch weitere Eingriffsregeln bei ungew¨ohnlichen Messwertfolgen. • ”Trend“: mehr als sieben aufeinander folgende Werte liegen kontinuierlich ansteigend oder abfallend innerhalb der Eingriffsgrenzen. • ”Run“: mehr als sieben aufeinander folgende Werte liegen auf derselben Seite der Mittellinie. • ”Muster“: es treten regelm¨aßige Muster innerhalb der Eingriffsgrenzen auf; hier kommen Methoden der Zeitreihenanalyse zum Einsatz. Dieses Verhalten weist gegebenenfalls auf einen Zusammenhang mit ¨außeren Einfl¨ ussen (z. B. Schichtwechsel, Temperatur, ...) hin. Dar¨ uber hinaus kommen noch produktspezifische Eingriffsregeln zum Einsatz. 21.6 Pr¨ ufpl¨ane f¨ ur die Attributpr¨ ufung Die Annahmestichprobenpr¨ ufung dient zur ¨ Uberpr¨ ufung der Qualit¨at von Losen in der Eingangs-, Zwischen- oder Endkontrolle. Wir wollen dabei nur ein Attribut mit den beiden Auspr¨agungen brauchbar oder unbrauchbar betrachten. Ziel ist die Einhaltung von Qualit¨atsstandards mittels sogenannter Stichprobenpr¨ ufpl¨ane. Sie enthalten Anweisungen, mit denen ¨ uber Annahme oder R¨ uckweisung von Losen entschieden wird. Je nachdem, ob einem Los zur Beurteilung eine, zwei oder mehrere Stichproben entnommen werden, spricht man von einfacher, doppelter oder mehrfacher Stichprobenpr¨ ufung. 21.6.1 Aufbau eines einfachen Pr¨ ufplans Ein einfacher Stichprobenplan besteht in der Vorgabe des Stichprobenumfangs n sowie der Annahmezahl c (mit 0 ≤ c < n). Ein Los wird angenommen, wenn die Anzahl x der bei der Pr¨ ufung entdeckten fehlerhaften Teile kleiner oder gleich c ist. Diesem Vorgehen entspricht in der Testtheorie ein einfacher Alternativtest zur Pr¨ ufung der Wahrscheinlichkeit p = P (A) mit der Nullhypothese H 0 : p ≤ p 0 . Die Entscheidung ¨ uber Annahme oder Ablehnung von H 0 erfolgt anhand der Stichprobe vom Umfang n mit der Testgr¨oße x, die z¨ahlt, wie oft ein fehlerhaftes Teil entdeckt wurde. Wie beim Hypothesentest entstehen dabei zwei m¨ogliche Fehlentscheidungen. 190 21 Statistische Qualit¨atskontrolle • Fehler erster Art: Ein Los mit geringem Ausschussanteil p α wird wird zur¨ uckgewiesen, da in der entnommenen Stichprobe mehr defekte St¨ ucke gefunden wurden als die Annahmezahl c zul¨asst. Die Wahrscheinlichkeit einer solchen Fehlentscheidung - Ablehnung eines Loses der Qualit¨at p α - heißt Produzentenrisiko und wird mit α bezeichnet. • Fehler zweiter Art: Ein Los mit hohem Ausschussanteil p β wird angenommen, da in der entnommenen Stichprobe nur wenige fehlerhafte St¨ ucke erkannt wurden. Die Wahrscheinlichkeit einer solchen Fehlentscheidung - Annahme eines Loses der Qualit¨at p β - heißt Konsumentenrisiko und wird mit β bezeichnet. Ist z. B. bei einem Los Schrauben ein Ausschussanteil von p ∗ = 0.05 gerade noch zul¨assig, so wird der Konsument p β ≤ 0.05 vorgeben. Der Produzent muss dann die Fertigung so einrichten, dass bedeutend weniger Ausschuss anf¨allt. Er w¨ahlt z. B. p α = 0.01. Bei einer solchen Vereinbarung werden Lieferungen mit einem Ausschussanteil von 0.01 mit der Wahrscheinlichkeit 1 − α angenommen. Bei einem Ausschussanteil von 0.05 erfolgt die Zur¨ uckweisung mit der Wahrscheinlichkeit 1 − β. Ein Pr¨ ufplan muss so beschaffen sein, dass die Wahrscheinlichkeiten α und β m¨oglichst klein sind. Eine graphische Veranschaulichung dieser Sachverhalte erfolgt auf Seite 192. 21.6.2 Operationscharakteristik f¨ ur einen einfachen Pr¨ ufplan Ein Los wird angenommen, wenn die Anzahl der fehlerhaften St¨ ucke in der Stichprobe h¨ochstens gleich der Annahmezahl c ist. Die Annahmewahrscheinlichkeit L(p) f¨ ur ein Los in Abh¨angigkeit der realen Ausschussquote p bestimmt sich zu: L(p) = P ( X ≤ c) = c ∑ k=0 P ( X = k) . Dabei bezeichnet die diskrete Zufallsvariable X die Anzahl der defekten Exemplare in der Stichprobe. Die Zufallsvariable X ist hypergeometrisch verteilt. Sind in einem Los vom Umfang N insgesamt M Teile defekt, so ergibt sich bei einem Stichprobenumfang von n die Darstellung: L N,M n,c (p) = c ∑ k=0 ( M k ) · ( N − M n − k ) ( N n ) mit p = M N . F¨ ur große Losumf¨ange N k¨onnen wir mit der Binomialverteilung rechnen: L n,c (p) = c ∑ k=0 ( n k ) p k (1 − p) n − k . F¨ ur kleines p und großes n kann die Binomialverteilung durch die Poissonverteilung mit dem Parameter λ = n · p approximiert werden: L ∗ n,c (p) = c ∑ k=0 (n · p) k · e − n · p k! . 21.6 Pr¨ ufpl¨ane f¨ ur die Attributpr¨ ufung 191 Eine solche Funktion nennt man Pr¨ ufkennlinie oder Operationscharakteristik (OC-Funktion). Sie stellt die Wahrscheinlichkeit f¨ ur die Annahme eines Loses mit der realen Ausschussquote p bei vorgegebenen Parametern n und c dar. In der nachfolgenden Darstellung rechnen wir ausschließlich mit Binomial- und Poisson-Verteilung. Die nachfolgenden Skizzen zeigen Kennlinien f¨ ur diverse Konstellationen von n und c. Bild 21.10 Bei vorgegebenem n f¨ uhrt die Erh¨ohung von c zu einer Verschiebung der Kurve nach rechts. Erh¨oht man den Stichprobenumfang n, so verl¨auft die Kurve steiler. Bild 21.11 192 21 Statistische Qualit¨atskontrolle Ideal w¨are eine Kennlinie mit L(p) = { 1 f¨ ur p ≤ p ∗ , 0 f¨ ur p > p ∗ . Dies ist jedoch nur durch Untersuchung des gesamten Loses erreichbar. Aus der Definition der Fehler erster und zweiter Art ergibt sich unter Benutzung der Poisson-N¨aherung der Zusammenhang: L ∗ n,c (p α ) = c ∑ k=0 (n · p α ) k · e − n · p α k! = 1 − α , L ∗ n,c (p β ) = c ∑ k=0 (n · p β ) k · e − n · p β k! = β . Die nachfolgende Skizze soll diese Zusammenh¨ange veranschaulichen. Hierbei ist p der Ausschussanteil des Loses und L(p) die zugeh¨orige Annahmewahrscheinlichkeit. α β p α p β p 1 OC-Funktion L(p) Bild 21.12 21.6.3 Kenngr¨oßen eines Pr¨ ufplans Bei vorgegebenen Werten f¨ ur p α , p β , α, β m¨ ussen passende Werte n und c bestimmt werden. Da aber n und c nat¨ urliche Zahlen mit 0 ≤ c < n ≤ N (N : Losgr¨oße) sind, k¨onnen obige Gleichungen nur n¨aherungsweise erf¨ ullt werden. Die numerische Berechnung von n und c ist etwas aufw¨andig und soll am nachfolgendem Beispiel erl¨autert werden. Produzentenrisiko α = 0.05 5% f¨ ur Ausschussquote p α = 0.01 1% Konsumentenrisiko β = 0.025 2.5% f¨ ur Ausschussquote p β = 0.05 5% Wir versuchen nun die Parameter n und c so zu bestimmen, dass der Ausdruck D(n, c) = ∣ ∣ L ∗ n,c (p α ) − 1 + α ∣ ∣ + ∣ ∣ L ∗ n,c (p β ) − β ∣ ∣ minimal wird. Alternativ kann man auch D ∗ (n, c) = ( L ∗ n,c (p α ) − 1 + α ) 2 + ( L ∗ n,c (p β ) − β ) 2 minimieren. Die nachfolgende Skizze zeigt die Fehlerfunktion D ∗ (n, c). 21.6 Pr¨ ufpl¨ane f¨ ur die Attributpr¨ ufung 193 Bild 21.13 Die nachfolgenden Tabellen zeigen m¨ogliche Pr¨ ufpl¨ane. Bei der ersten Tabelle wurde der Fehler D(n, c) minimiert und dabei die Poisson-N¨aherung benutzt. Die zweite Tabelle minimiert D ∗ (n, c) unter Benutzung der Binomialverteilung. n c D(n, c) L ∗ n,c (p α ) L ∗ n,c (p β ) 201 4 0.00688 0.94644 0.02832 261 5 0.01483 0.95022 0.01039 161 3 0.04617 0.91980 0.04097 121 2 0.10746 0.87731 0.05977 80 1 0.20779 0.80879 0.09158 n c D ∗ (n, c) L n,c (p α ) L n,c (p β ) 200 4 0.00001 0.94825 0.02645 252 5 0.00022 0.95748 0.01225 156 3 0.00089 0.92757 0.04460 114 2 0.00542 0.89313 0.07173 73 1 0.02143 0.83419 0.11451 Im vorliegenden Fall erh¨alt man einen optimalen Pr¨ ufplan mit den Parametern n = 200 bzw. n = 201 und c = 4 . Zur Anwendung von Pr¨ ufpl¨anen in der Praxis stehen standardisierte Pr¨ ufplansammlungen zur Verf¨ ugung, aus denen man f¨ ur gegebenen Losumfang N und ausgew¨ahlte Wertekombinationen p α , p β , α, β die Kenngr¨oßen n und c des Plans unmittelbar ablesen kann. Die nachfolgenden Skizzen zeigen den Verlauf der Fehlerfunktion D(n, c) bei festgehaltenem Parameter c. 194 21 Statistische Qualit¨atskontrolle Bild 21.14 21.6 Pr¨ ufpl¨ane f¨ ur die Attributpr¨ ufung 195 In der Regel werden die ausgew¨ahlten Stichproben nacheinander gepr¨ uft. Man kann dann die Pr¨ ufung abbrechen, wenn das Ergebnis der Pr¨ ufung feststeht. Sind in einer Stichprobe bereits c + 1 fehlerhafte St¨ ucke gefunden worden, so f¨ uhrt die Stichprobe zu einer Ablehnung des Loses. Genauso wird ein Los angenommen, wenn bereits n − c intakte Elemente gefunden wurden. Man spricht dann von einer abgebrochenen Pr¨ ufung. Auf diese Art l¨asst sich der Pr¨ ufaufwand verkleinern. Eine Reduktion des Pr¨ ufaufwands l¨asst sich auch durch einen zweistufigen Pr¨ ufplan erreichen. Bei besonders guten oder besonders schlechten Qualit¨atslagen entscheidet eine erste Stichprobe im Umfang n 1 < n ¨ uber Annahme bzw. Ablehnung des Loses. In zweifelhaften F¨allen wird eine zweite Stichprobe vom Umfang n 2 zur Absicherung der Entscheidung herangezogen. Entscheidungsvariable bei der zweiten Pr¨ ufung ist die Summe der fehlerhaften St¨ ucke bei beiden Pr¨ ufungen. Deshalb muss f¨ ur die zweite Grenze gelten: c 2 ≥ d 1 − 1 . x x = x 1 = Anzahl der Defektst¨ ucke in Stichprobe 1 ︸ ︷︷ ︸ Annahme ︸ ︷︷ ︸ zweite Stichprobe ︸ ︷︷ ︸ Ablehnung c 1 d 1 1. Stichprobe vom Umfang n 1 x x = x 1 + x 2 = Anzahl der Defektst¨ ucke in beiden Stichproben zusammen ︸ ︷︷ ︸ Annahme ︸ ︷︷ ︸ Ablehnung c 2 d 2 2. Stichprobe vom Umfang n 2 Da bei besonders guten und schlechten Losen mit der ersten Stichprobe eine Entscheidung getroffen wird, sollte der f¨ ur die Annahme mittels erster Stichprobe gerade noch zugelassene Ausschussanteil kleiner sein als die Annahmequote aus beiden Stichproben: c 1 n 1 < c 2 n 1 + n 2 . Ebenso sollte der zur Ablehnung f¨ uhrende Ausschussanteil der ersten Stichprobe gr¨oßer sein als der aufsummierte Anteil beider Stichproben, der zur Ablehnung f¨ uhrt: d 1 n 1 > c 2 + 1 n 1 + n 2 . 196 21 Statistische Qualit¨atskontrolle Beim Erstellen von Pr¨ ufpl¨anen geht man von festen Zusammenh¨angen zwischen den Parametern n 1 , n 2 , c 1 , c 2 , d 1 aus. 2 Solche doppelten Pr¨ ufpl¨ane ergeben einen geringeren mittleren Stichprobenumfang. Ebenso lassen sich auch weitere Stufungen bei Pr¨ ufpl¨anen erstellen. Eine logische Fortsetzung dieses Gedankens f¨ uhrt zur sogenannten sequentiellen Pr¨ ufung, bei der der Stichprobenumfang in jeder Stufe um 1 erh¨oht wird. F¨ ur den Anwender werden diese ¨ Uberlegungen in sogenannten Pr¨ ufplansammlungen festgehalten, die genaue Arbeits- und Entscheidungsanweisungen enthalten. Die beiden wichtigsten Parameter f¨ ur die Festlegung ist die Losgr¨oße und der sogenannte AQL-Wert (Acceptable Quality Level). Damit bezeichnet man den Ausschussanteil p α des Loses, bei dem das Produzentenrisiko einen festen kleinen Wert annimmt (oft wird α = 0.1 gew¨ahlt). Diese Gr¨oße wird h¨aufig als gr¨oßter - vom Abnehmer noch aktzeptabler - Anteil unbrauchbarer St¨ ucke im Los interpretiert. Ebenso lassen sich Kombinationen von normalen, reduzierten und versch¨arften Pr¨ ufpl¨anen bstimmen. Dazu geh¨oren dann Regeln f¨ ur den ¨ Ubergang zwischen normalen/ versch¨arften bzw. normalen/ reduzierten Pr¨ ufpl¨anen. 21.7 Messende Abnahmepr¨ ufung Bei der messenden Abnahmepr¨ ufung folgt das interessierende Merkmal, z. B. der Durchmesser eines Bolzens, grunds¨atzlich einer stetigen Verteilung. Weiter setzen wir voraus, dass das zu messende Merkmal des Pr¨ ufloses exakt oder zumindest in guter N¨aherung normalverteilt ist. Diese Voraussetzung kann mit einem χ 2 -Anpassungstest ¨ uberpr¨ uft oder graphisch mit einem Wahrscheinlichkeitsnetz verifiziert werden. Eine produzierte Einheit wird als defekt angesehen, wenn die gemessene Gr¨oße jenseits eines vorgegebenen Grenzwerts (Mindestwert T U oder H¨ochstwert T O ) oder außerhalb eines vorgegebenen Intervalls [T U , T O ] liegt. Die Ausschusswahrscheinlichkeit P h¨angt vom Prozessniveau (Erwartungswert) μ ab und l¨asst sich bei bekannter Standardabweichung sofort angeben: P U = P ( X < T U ∣ ∣ μ; σ) = Φ ( T U − μ σ ) = 1 − Φ ( μ − T U σ ) , P O = P ( X > T O ∣ ∣ μ; σ) = 1 − Φ ( T O − μ σ ) = Φ ( μ − T O σ ) , P U,O = P ( X ∈ [T U , T O ] ∣ ∣ μ; σ) = Φ ( T U − μ σ ) + Φ ( μ − T O σ ) . Die folgenden Schaubilder sollen diese Zusammenh¨ange deutlich machen. 2 Eine gebr¨auchliche Festlegung ist: n 2 = n 1 ; d 1 = 3 c 1 + 1; c 2 = d 1 − 1 . 21.7 Messende Abnahmepr¨ ufung 197 Bild 21.15 Bild 21.16 198 21 Statistische Qualit¨atskontrolle Im Folgenden setzen wir voraus, dass die Prozessvarianz σ 2 bekannt ist. Nur das Prozessniveau μ wird als variabel angenommen. Zun¨achst wollen wir den einfachsten Fall, die Vorgabe eines Mindestwertes T U , untersuchen. Dabei besteht ein umkehrbar eindeutiger Zusammenhang zwischen der Ablehnungswahrscheinlichkeit und dem Prozessniveau: P (μ) = Φ ( T U − μ σ ) μ = T U − Φ − 1 (P ) · σ . 1 μ 0 μ 0 + σ μ T U T U + σ 0.5 P (μ) P (μ 0 ) N (μ 0 , σ) P (μ 0 ) Bild 21.17 Geben wir statt eines Mindestwerts ein Intervall [T U , T O ] vor, so erhalten wir analog P (μ) = Φ ( T U − μ σ ) + Φ ( μ − T O σ ) . Allerdings l¨asst sich diese Beziehung nicht eindeutig nach μ aufl¨osen. 21.7 Messende Abnahmepr¨ ufung 199 1 μ 0 μ 0 + σ μ T O T U T U + σ P ( μ 0 ) P ( μ 0 ) P ( μ ) N ( μ 0 , σ ) 1 Bild 21.18 Es soll nun durch eine Stichprobe vom Umfang n ¨ uber die Annahme des Loses entschieden werden. Bei der zuvor behandelten Attributpr¨ ufung wurde festgelegt, wie viele fehlerhafte Teile (d. h. bei Vorgabe eines Mindestwerts sind dies Teile mit x i < T U ) zur Ablehnung des Loses f¨ uhren. Jetzt muss eine Grenze f¨ ur einen aus der Stichprobe abgeleiteten Parameter festgelegt werden, die ¨ uber Annahme bzw. Ablehnung des Loses entscheidet. Wir wollen diese ¨ Uberlegungen f¨ ur den arithmetischen Mittelwert einer Stichprobe machen. W¨ahrend bei Vorgabe eines Mindestwertes T U die Ausschussquote prinzipiell beliebig klein gemacht werden kann (μ → −∞ ), unterschreitet bei Vorgabe eines Intervalls [T U , T O ] die Ausschussquote nicht einen Mindestwert. Dieser Wert wird erreicht, wenn μ in der Mitte des Intervalls [T U , T O ] liegt. P (μ) = Φ ( T U − μ σ ) + Φ ( μ − T O σ ) ∣ ∣ ∣ ∣ ∣ μ ∗ = T O − T U 2 = Φ ( T U − T O 2σ ) . Bei fester Varianz σ 2 streut der arithmetische Mittelwert mit der Standardabweichung σ √ n um das Prozessniveau μ. 200 21 Statistische Qualit¨atskontrolle 1 μ 0 μ 0 + σ x α P α T U ¯ x U f 1 (x) = 1 √ 2πσ e − (x − μ 0 ) 2 2σ 2 f 2 ( x ) = √ n √ 2 πσ e − n ( x − μ 0 ) 2 2 σ 2 Bild 21.19 Sei nun ¯ x U die Grenze f¨ ur die Annahme des Loses. Dann wird mit einer Wahrscheinlichkeit α = Φ ( ¯ x U − μ 0 σ √ n ) das Los beim Prozessniveau μ 0 abgelehnt; d. h., der Fehler erster Art betr¨agt bei dieser Konstellation α. Da das Prozessniveau μ auch durch den Ausschussanteil P α beschrieben werden kann, erhalten wir insgesamt f¨ ur das Produzentenrisiko: α = Φ ( ¯ x U − T U + Φ − 1 (P α ) · σ σ √ n ) = Φ ( ¯ x U − T U σ · √ n + Φ − 1 (P α ) · √ n ) . Wir wollen nun f¨ ur das Konsumentenrisiko eine ¨ahnliche ¨ Uberlegung anstellen. 1 μ 1 μ 1 − σ T U ¯ x U x β f 1 (x) = 1 √ 2πσ e − (x − μ 1 ) 2 2σ 2 f 2 (x) = √ n √ 2πσ e − n(x − μ 1 ) 2 2σ 2 P β Bild 21.20 21.7 Messende Abnahmepr¨ ufung 201 Die Wahrscheinlichkeit, dass ein Los mit dem Prozessniveau μ 1 akzeptiert wird, ergibt sich zu: β = 1 − Φ ( ¯ x U − μ 1 σ √ n ) = Φ ( μ 1 − ¯ x U σ √ n ) . Dies ist das Konsumentenrisiko beim Prozessniveau μ 1 . Dr¨ ucken wir das Prozessniveau μ 1 mit Hilfe der Ausschussquote P β aus, so erhalten wir die Beziehung β = Φ ( T U − ¯ x U − Φ − 1 (P β ) · σ σ √ n ) = Φ ( T U − ¯ x U σ · √ n − Φ − 1 (P β ) · √ n ) . Wir wollen nun Stichprobenumfang n und Ablehnungsgrenze ¯ x U festgelegen. Bei einem Prozessniveau μ 0 mit der Ausschussquote P α soll die Ablehnungswahrscheinlichkeit α sein (Produzentenrisiko). Umgekehrt soll bei einem Prozessniveau μ 1 mit der Ausschussquote P β die Annahmewahrscheinlichkeit β betragen (Konsumentenrisiko). Zur Bestimmung der Stichprobenparameter m¨ ussen wir die beiden Gleichungen α = Φ ( ¯ x U − T U σ · √ n + Φ − 1 (P α ) · √ n ) β = Φ ( T U − ¯ x U σ · √ n − Φ − 1 (P β ) · √ n ) nach n und ¯ x U umstellen. Mit der Abk¨ urzung k = ¯ x U − T U σ ergibt sich: k · √ n + Φ − 1 (P α ) · √ n = Φ − 1 (α) , k · √ n + Φ − 1 (P β ) · √ n = − Φ − 1 (β) . Subtrahieren wir die beiden Gleichungen, so ergibt sich: n = [ Φ − 1 (α) + Φ − 1 (β) Φ − 1 (P α ) − Φ − 1 (P β ) ] 2 . Setzt man dieses Ergebnis in die erste Gleichung ein, so erhalten wir nach einigen Umformungen: k = − Φ − 1 (α) · Φ − 1 (P β ) + Φ − 1 (β) · Φ − 1 (P α ) Φ − 1 (α) + Φ − 1 (β) . Daraus ergibt sich die Ablehnungsgrenze ¯ x U = T U + σ · k . H¨aufig sind die Quantile der Standard-Normalverteilung nur f¨ ur Werte gr¨oßer 0.5 tabelliert. Benutzen wir Φ − 1 (z) = − Φ − 1 (1 − z), so erhalten wir: n = [ Φ − 1 (1 − α) + Φ − 1 (1 − β) Φ − 1 (1 − P α ) − Φ − 1 (1 − P β ) ] 2 , k = Φ − 1 (1 − α) · Φ − 1 (1 − P β ) + Φ − 1 (1 − β) · Φ − 1 (1 − P α ) Φ − 1 (1 − α) + Φ − 1 (1 − β) . 202 21 Statistische Qualit¨atskontrolle Beispiel 21.1: Wir berechnen nun beispielhaft die Pr¨ ufplangr¨oßen f¨ ur die Vorgaben: Produzentenrisiko α = 0.05 5% f¨ ur Ausschussquote p α = 0.01 1% Konsumentenrisiko β = 0.025 2.5% f¨ ur Ausschussquote p β = 0.05 5% Zun¨achst bestimmen wir die zugeh¨origen Quantile z 1 − p : Daraus ergibt sich: p 0.01 0.025 0.05 1 − p 0.99 0.975 0.95 z 1 − p 2.3263 1.9600 1.6449 n = [ z 0.95 + z 0.975 z 0.99 − z 0.95 ] 2 = [ 1.6449 + 1.9600 2.3263 − 1.6449 ] 2 = 27.988 . . . ≈ 28 k = z 0.95 · z 0.95 + z 0.975 · z 0.99 z 0.95 + z 0.975 = 1.6449 · 1.6449 + 1.9600 · 2.3263 1.6449 + 1.9600 = 2.015 . . . Bei einem entsprechenden Pr¨ ufplan mit Attributpr¨ ufung ergab sich der Stichprobenumfang zu n = 200 und die Annahmegrenze k = 4 (vgl. Seite 192). Bei Angabe einer oberen Toleranz T O bestimmt man analog eine R¨ uckweisegrenze mit ¯ x O = T O − σ · k Sind Pr¨ ufpl¨ane f¨ ur beidseitige Toleranzen T U , T O zu konstruieren, so l¨asst sich der Fall T O − T U > 6σ mit den oben beschriebenen Methoden erledigen, da keine gegenseitige Beeinflussung der beiden Annahmewahrscheinlichkeiten auftritt. Im allgemeinen Fall k¨onnen wir bei bekanntem σ aus dem Prozessniveau μ die Ausschussquote und die Annahmewahrscheinlichkeit f¨ ur eine n-Stichprobe berechnen. 1 α P α T U ¯ x U ¯ x O T O μ 0 x f 1 (x) = 1 √ 2πσ e − (x − μ 0 ) 2 2σ 2 f 2 (x) = √ n √ 2πσ e − n(x − μ 0 ) 2 2σ 2 Bild 21.21 P α = Φ ( T U − μ 0 σ ) + 1 − Φ ( T O − μ 0 σ ) α = Φ ( ¯ x U − μ 0 σ √ n ) + 1 − Φ ( ¯ x O − μ 0 σ √ n ) 21.7 Messende Abnahmepr¨ ufung 203 F¨ ur das Konsumentenrisiko erh¨alt man entsprechend: P β = Φ ( T U − μ 1 σ ) + 1 − Φ ( T O − μ 1 σ ) β = Φ ( ¯ x O − μ 1 σ √ n ) − Φ ( ¯ x U − μ 1 σ √ n ) In diesen vier Gleichungen sind μ 0 , μ 1 , n, ¯ x U , ¯ x O unbekannt, d. h., wir besitzen noch einen Freiheitsgrad. Diese M¨oglichkeit schließen wir durch die naheliegende Vorgabe, dass die Eingriffsgrenzen symmetrisch zu den Toleranzgrenzen gew¨ahlt werden: ¯ x U = T U + k · σ , ¯ x O = T O − k · σ . Zusammen mit den Substitutionen t u = T U σ , t o = T U σ (bekannt) m 1 = μ 0 σ , m 2 = μ 1 σ , l = √ n (unbekannt) ergibt sich dann das folgende nichtlineare Gleichungssystem: P α = Φ(t u − m 1 ) + 1 − Φ(t o − m 1 ) α = Φ ( [t u + k − m 1 ] · l ) + 1 − Φ ( [t o − k − m 1 ] · l ) P β = Φ(t u − m 2 ) + 1 − Φ(t o − m 2 ) β = Φ ( [t o − k − m 2 ] · l ) − Φ ( [t u + k − m 2 ] · l ) Dieses System kann man numerisch ohne gr¨oßere Probleme l¨osen. Da n = l 2 ganz sein muss, lassen sich die Vorgaben bzgl. Produzenten- und Konsumentenrisiko nur n¨aherungsweise einhalten. Die f¨ ur das Erstellen von Pr¨ ufpl¨anen wichtigen Gr¨oßen sind der Faktor k und der Stichprobenumfang n. Die nachfolgende Tabelle macht deutlich, dass eine messende Abnahmepr¨ ufung im Allgemeinen mit einem geringeren Stichprobenumfang auskommt. Die Zahlenwerte der Attributpr¨ ufung wurden unter Annahme einer Binomialverteilung gerechnet. Produzenten-, Konsumentenrisiko messende Abnahmepr¨ ufung Attributpr¨ ufung α P α β P β n k n k 0.05 0.05 0.10 0.15 16 1.3723 59 5 0.10 0.05 0.05 0.10 36 1.5796 82 5 0.10 0.10 0.15 0.20 26 1.0489 40 5 0.10 0.05 0.10 0.15 12 1.4167 51 4 0.20 0.05 0.10 0.20 6 1.3915 17 1 0.15 0.05 0.10 0.15 10 1.4523 42 3 204 A Kombinatorik A Kombinatorik Die Berechnung der klassischen Wahrscheinlichkeiten reduziert sich nach der Modellbildung im Wesentlichen auf das Abz¨ahlen von F¨allen. Wir wollen hier einige dieser Z¨ahlregeln untersuchen. Kombinatorisches Denken ist auch in vielen anderen Bereichen der Ingenieurwissenschaften von Bedeutung. Kombinatorik spielt auch bei Komplexit¨atsuntersuchungen in der Informatik eine wichtige Rolle. A.1 Fundamentales Z¨ahlprinzip Zun¨achst besprechen wir das Grundprinzip der Kombinatorik. Hat man eine Folge von Entscheidungen zu treffen, bei denen es f¨ ur die 1. Entscheidung n 1 M¨oglichkeiten 2. Entscheidung n 2 M¨oglichkeiten 3. Entscheidung n 3 M¨oglichkeiten ... ... ... ... k. Entscheidung n k M¨oglichkeiten gibt, dann ist die Gesamtzahl aller m¨oglichen Entscheidungsfolgen gegeben durch das Produkt aller m¨oglichen Einzelentscheidungen: N = n 1 · n 2 · n 3 · . . . · n k . Andere Interpretation: Wir ordnen den Entscheidungen Elemente einer Menge zu. So entspreche der j-ten Entscheidung mit ihren n j M¨oglichkeiten einer Menge M j mit n j Elementen. Die gesamte Entscheidungsfolge entspricht dann einem geordneten k-Tupel aus Elementen der Mengen M j . Obiger Sachverhalt l¨asst sich damit wie folgt formulieren: Aus k Mengen M 1 , M 2 , M 3 , . . . , M k mit n 1 , n 2 , n 3 , . . . , n k Elementen lassen sich N = n 1 · n 2 · n 3 · . . . · n k verschiedene geordnete k-Tupel (x 1 , x 2 , x 3 , . . . , x k ) bilden mit x i ∈ M i . Beispiel A.1: Ein bestimmter Autotyp werde in zwei verschiedenen Motorst¨arken, vier Farben und drei verschiedenen Innenausstattungen angeboten. Wie viele Wahlm¨oglichkeiten hat der K¨aufer? Nach dem fundamentalen Z¨ahlprinzip gibt es N = 2 · 4 · 3 = 24 M¨oglichkeiten. Diesen Sachverhalt kann man sich an einem Baumdiagramm veranschaulichen. A.2 Stichproben 205 Motor Farbe Innenausstattung Bild A.1 A.2 Stichproben Beim Modellieren und Abz¨ahlen von M¨oglichkeiten unterscheiden wir zwei Grundoperationen: a) Ausw¨ahlen einer Teilmenge aus einer Grundmenge b) Anordnen der Elemente einer Menge Bei diesen Untersuchungen benutzen wir folgende Bezeichnungen: n-Menge Menge von n Elementen k-Stichprobe Teilmenge von k Elementen einer Grundmenge geordnet Reihenfolge ist wichtig ungeordnet Reihenfolge ist nicht relevant mit Zur¨ ucklegen gezogenes Element wird vor der n¨achsten Ziehung zur¨ uckgelegt 1 ohne Zur¨ ucklegen gezogenes Element wird nicht zur¨ uckgelegt 2 In den folgenden Abschnitten sollen beim Abz¨ahlen die Kombinationen geordnet / ungeordnet und mit Zur¨ ucklegen / ohne Zur¨ ucklegen untersucht werden. 1 Der alten Zustand wird wieder hergestellt. Es bestehen keine Auswirkung auf das nachfolgende Zufallsexperiment. 2 Der Ausgangszustand wird nicht wieder hergestellt. Es bestehen Auswirkung auf das nachfolgende Zufallsexperiment. 206 A Kombinatorik A.2.1 Geordnete Stichprobe ohne Zur¨ ucklegen Man w¨ahlt nacheinander k Elemente aus einer n-Menge aus unter Ber¨ ucksichtigung der Reihenfolge. Damit hat man f¨ ur das 1. Element n Wahlm¨oglichkeiten 2. Element (n − 1) Wahlm¨oglichkeiten 3. Element (n − 2) Wahlm¨oglichkeiten ... ... ... k. Element (n − k + 1) Wahlm¨oglichkeiten Nach der Produktregel ist die Anzahl aller Auswahlm¨oglichkeiten: N A = n · (n − 1) · (n − 2) · . . . · (n − k + 1) = n! (n − k)! Wichtig ist der Spezialfall n = k. In diesem Fall werden alle Elemente ausgew¨ahlt. Diesen Vorgang k¨onnen wir als Anordnen einer Menge von n Elementen interpretieren. Satz: Eine Menge von n Elementen kann man auf n! verschiedene Arten anordnen. Beispiel A.2: An einem Pferderennen nehmen zehn Pferde teil. F¨ ur eine Wette m¨ ussen die ersten drei Pl¨atze in der richtigen Reihenfolge vorausgesagt werden. Wie viele M¨oglichkeiten gibt es? Zur Bestimmung aller Tippm¨oglichkeiten werden aus n = 10 Pferden k = 3 Platzierungen unter Ber¨ ucksichtigung der Reihenfolge ausgew¨ahlt. Daf¨ ur gibt es N = 10 · 9 · 8 = 720 M¨oglichkeiten. A.2.2 Ungeordnete Stichproben ohne Zur¨ ucklegen Man w¨ahlt nacheinander oder gleichzeitig k verschiedene Elemente aus einer n-Menge aus. Dabei spiele die Reihenfolge - Anordnung - keine Rolle. Diese Problemstellung kann auf das bereits gel¨oste Problem - Reihenfolge ist wichtig - zur¨ uckgef¨ uhrt werden. Unter Ber¨ ucksichtigung der Reihenfolge gibt es N A = n! (n − k)! M¨oglichkeiten. Die ausgew¨ahlten k Elemente lassen sich auf k! verschiedene Arten anordnen. Ohne Ber¨ ucksichtigung der Reihenfolge erh¨alt man als Anzahl der M¨oglichkeiten: 3 N B = N A k! = n! (n − k)! · k! = n · (n − 1) · (n − 2) · . . . · (n − k + 1) 1 · 2 · 3 · . . . · k = ( n k ) Beispiel A.3: In einem Verein, der aus zehn Mitgliedern besteht, soll ein Ausschuss mit drei Personen gebildet werden. Wie viele M¨oglichkeiten gibt es? N B = ( 10 3 ) = 10 · 9 · 8 1 · 2 · 3 = 120 M¨oglichkeiten . 3 Der Ausdruck ( n k ) , gesprochen ” n ¨ uber k ” heißt Binomialkoeffizient. A.2 Stichproben 207 Beispiel A.4: Binomischer Lehrsatz (a + b) n = ? Gesucht ist eine Verallgemeinerung der binomischen Formel (a + b) 2 = (a + b) · (a + b) = a 2 + 2ab + b 2 (a + b) 3 = (a + b) · (a + b) · (a + b) = a 3 + 3a 2 b + 3ab 2 + b 3 (a + b) n = (a + b) · (a + b) · (a + b) · . . . · (a + b) ︸ ︷︷ ︸ n Klammern = ? Beim Ausmultiplizieren entstehen Summanden der Bauart l · a k · b n − k l ∈ IN. Der Zahlenkoeffizient l ist identisch mit der Anzahl der M¨oglichkeiten, aus n m¨oglichen Klammern k Klammern mit dem Faktor a auszuw¨ahlen. Dabei spielt die Reihenfolge der Auswahl keine Rolle! (a + b) n = n ∑ k=0 ( n k ) a k b n − k Bemerkung: Die Binomialkoeffizienten ( n k ) lassen sich auch zum so genannten Pascalschen Dreieck anordnen. Beispiel A.5: Die Gewinnwahrscheinlichkeiten im Lotto (6 aus 49, Zusatzzahl nicht ber¨ ucksichtigt) sollen bestimmt werden. Zun¨achst wird die Gesamtzahl der m¨oglichen Lottoscheine (verschieden ausgef¨ ullt) bestimmt: ”6 aus 49“ ohne Zur¨ ucklegen, ungeordnet | Ω | = ( 49 6 ) = 13 983 816 Wir teilen die 49 Zahlen in 6 Gewinnzahlen und 43 Nichtgewinnzahlen ein. Rang 6: ”6 aus 6“ · ”0 aus 43“ : ( 6 6 ) · ( 43 0 ) p(6) = ( 6 6 ) · ( 43 0 ) ( 49 6 ) ≈ 7.2 · 10 − 8 Rang 5: ”5 aus 6“ · ”1 aus 43“ : ( 6 5 ) · ( 43 1 ) p(5) = ( 6 5 ) · ( 43 1 ) ( 49 6 ) ≈ 1.8 · 10 − 5 Rang 4: ”4 aus 6“ · ”2 aus 43“ : ( 6 4 ) · ( 43 2 ) p(4) = ( 6 4 ) · ( 43 2 ) ( 49 6 ) ≈ 0.00097 208 A Kombinatorik Rang 3: ”3 aus 6“ · ”3 aus 43“ : ( 6 3 ) · ( 43 3 ) p(3) = ( 6 3 ) · ( 43 3 ) ( 49 6 ) ≈ 0.0177 Rang 2: ”2 aus 6“ · ”4 aus 43“ : ( 6 2 ) · ( 43 4 ) p(2) = ( 6 2 ) · ( 43 4 ) ( 49 6 ) ≈ 0.132 Rang 1: ”1 aus 6“ · ”5 aus 43“ : ( 6 1 ) · ( 43 5 ) p(1) = ( 6 1 ) · ( 43 5 ) ( 49 6 ) ≈ 0.413 Rang 0: ”0 aus 6“ · ”6 aus 43“ : ( 6 0 ) · ( 43 6 ) p(0) = ( 6 0 ) · ( 43 6 ) ( 49 6 ) ≈ 0.436 Was ¨andert sich f¨ ur den Rang 5, wenn das Unterscheidungskriterium mit oder ohne Zusatzzahl ber¨ ucksichtigt wird? Wir unterteilen die 49 Zahlen in 6 Gewinnzahlen, eine Zusatzzahl und 42 Weder-Noch : Rang 5 mit Zusatzzahl bedeutet: ”5 aus 6“ · ”1 aus 1“ · ”0 aus 42“ | E + | = ( 6 5 ) · ( 1 1 ) · ( 42 0 ) p(E + ) = ( 6 5 ) ( 49 6 ) ≈ 4.29 · 10 − 7 Rang 5 ohne Zusatzzahl bedeutet: ”5 aus 6“ · ”0 aus 1“ · ”1 aus 42“ | E + | = ( 6 5 ) · ( 1 0 ) · ( 42 1 ) p(E − ) = ( 6 5 )( 42 1 ) ( 49 6 ) ≈ 1.80 · 10 − 5 A.2.3 Geordnete Stichproben mit Zur¨ ucklegen Man w¨ahlt ein Element aus einer n-Menge, notiert seine Nummer und legt es zur¨ uck. Dies wird k-mal wiederholt. Bei jeder dieser k Entscheidungen hat man n M¨oglichkeiten. Mit dem fundamentalen Z¨ahlprinzip erh¨alt man: Aus einer n-Menge kann man N C = n · n · n · . . . · n = n k geordnete Stichproben mit Zur¨ ucklegen entnehmen. A.2 Stichproben 209 Beispiel A.6: Auf wieviele verschiedene Arten kann man einen Tippzettel beim Totto- Spiel ausf¨ ullen? Jedes der elf Spiele kann auf drei verschiedene Arten enden (0, 1, 2). Der Spielausgang soll durch Eintragen einer Null, Eins oder Zwei vorhergesagt werden. Damit gibt es N C = 3 11 M¨oglichkeiten. A.2.4 Ungeordnete Stichproben mit Zur¨ ucklegen Die Abz¨ahlformel soll an Hand eines Beispiels plausibel gemacht werden: Beispiel A.7: Aus einem Weinvorrat mit drei Sorten (R=Rotwein, W=Weißwein, H=Weißherbst) sollen f¨ unf Flaschen ausgesucht werden. Die Auswahl der ersten Flasche schr¨anke nicht die zweite Auswahl ein etc. Wie viele Auswahlm¨oglichkeiten gibt es? Wir notieren die ersten Auswahlm¨oglichkeiten mit der folgenden nebenstehenden Kurzschreibweise: R R R R R R R R R W R R R R H R R R W W R R R W H R R R H H R R W W W R R W W H ... ... ... ... ... H H H H H Eine andere Methode der Codierung: Zeichenbl¨ocke der L¨ange 5 + 3 - 1 bestehend aus Einsen und Nullen mit der Bedeutung Einsen : Flaschen Nullen : Trennzeichen erste Einsengruppe : Rotwein zweite Einsengruppe : Weißwein dritte Einsengruppe : Weißherbst R R R R R 0 0 R R R R 0 W 0 R R R R 0 0 H R R R 0 W W 0 R R R 0 W 0 H R R R 0 0 H H R R 0 W W W 0 R R 0 W W 0 H ... ... ... ... ... ... ... 0 0 H H H H H 1 1 1 1 1 0 0 1 1 1 1 0 1 0 1 1 1 1 0 0 1 1 1 1 0 1 1 0 1 1 1 0 1 0 1 1 1 1 0 0 1 1 1 1 0 1 1 1 0 1 1 0 1 1 0 1 ... ... ... ... ... ... ... 0 0 1 1 1 1 1 210 A Kombinatorik Restproblem: Auf wie viele Arten kann man f¨ unf Einsen auf sieben Pl¨atze verteilen - oder zwei Nullen auf sieben Pl¨atze? Es gibt ( 7 5 ) = ( 7 2 ) = 7 · 6 1 · 2 = 21 M¨oglichkeiten. Allgemeine Formulierung: Aus einer n-Menge kann man N D = ( n + k − 1 k ) = (n + k − 1)! k! · (n − 1)! = ( n + k − 1 n − 1 ) ungeordnete k-Stichproben mit Zur¨ ucklegen entnehmen. Beispiel A.8: Anzahl der verschiedenen T¨afelchen beim Dominospiel. Bild A.2 Anzahl der Zeichen: { 0, 1, 2, . . . , 6 } verteilt auf zwei H¨alften ergibt ( 7 + 2 − 1 2 ) = ( 8 2 ) = ( 8 6 ) = 8 · 7 1 · 2 = 28 M¨oglichkeiten. Formelzusammenstellung Aus n verschiedenen Elementen sollen k St¨ uck ausgew¨ahlt werden. Dann erh¨alt man f¨ ur die Anzahl der verschiedenen Auswahlm¨oglichkeiten in Abh¨angigkeit vom Auswahlverfahren die vier in nachfolgender Tabelle zusammengestellten Werte: mit Ber¨ ucksichtigung der Reihenfolge (geordnet) ohne Ber¨ ucksichtigung der Reihenfolge (ungeordnet) mit Wiederholung (mit Zur¨ ucklegen) k = 1, 2, 3, . . . n k ( n + k − 1 k ) ohne Wiederholung (ohne Zur¨ ucklegen) k = 1, 2, 3, . . . , n n · (n − 1) · . . . · (n − k + 1) ( n k ) N¨ utzlich sind noch die folgenden Beziehungen zwischen Binomialkoeffizienten 4 : ( n k ) = ( n n − k ) , ( n k ) + ( n k + 1 ) = ( n + 1 k + 1 ) . 4 Die zweite Beziehung entspricht dem Pascalschen Dreieck. 211 B Wahrscheinlichkeitsrechnung In diesem Abschnitt bessern wir einige der theoretischen Schwachstellen dieses Buches aus. Die zuvor intuitiv benutzten Begriffe wie z. B. stochastische Unabh¨angigkeit werden sauber definiert. B.1 Zufallsexperimente, Ereignisse Die Wahrscheinlichkeitsrechnung besch¨aftigt sich mit zuf¨alligen Ereignissen und Erscheinungen. Die zugrundeliegenden Vorg¨ange sind dabei selbst von zuf¨alliger Natur oder aber so komplex, dass wir nicht willens oder in der Lage sind, sie quantitativ zu erfassen. So l¨auft ein M¨ unzwurf zwar nach wohlbekannten physikalischen Gesetzm¨aßigkeiten 1 ab, doch sehen wir uns außerstande, das Ergebnis vorherzusagen. Ziel der Wahrscheinlichkeitsrechnung ist es, Prognosen ¨ uber den Ausgang bevorstehender Zufallsexperimente zu machen. Ein Zufallsexperiment ist ein Experiment, bei dem vor keiner Versuchsdurchf¨ uhrung mit absoluter Sicherheit vorausgesagt werden kann, welches der m¨oglichen Ergebnisse tats¨achlich eintreten wird. Bei den hier betrachteten Vorg¨angen gehen wir davon aus, dass - zumindest im Prinzip - diese beliebig oft wiederholt werden k¨onnen. Wir fassen alle m¨oglichen Ausg¨ange eines Zufallsexperiments zu einer Menge Ω zusammen. Diese Menge Ω heißt Ergebnismenge (Ausgangsmenge, Stichprobenraum). Bei einer Versuchsdurchf¨ uhrung wird im Allgemeinen ein bestimmtes Merkmal beobachtet. Meistens sind die Merkmalswerte Zahlen oder es werden den Versuchsausg¨angen Zahlen zugeordnet. 2 Ein Merkmal heißt diskret, wenn es nur endlich viele oder h¨ochstens abz¨ahlbar unendlich viele verschiedene Auspr¨agungen 3 besitzt. Diskrete Merkmale treten z. B. beim Z¨ahlen auf. Beim Messen oder Wiegen k¨onnen alle Werte eines bestimmten Zahlbereichs (Intervalls) der Zahlengeraden vorkommen. Die hier vorkommenden Merkmalsauspr¨agungen heißen stetig. Bei einem stetigen Merkmal gehen die Auspr¨agungen kontinuierlich ineinander ¨ uber, w¨ahrend sie bei diskreten Merkmalen voneinander getrennt liegen. Auf reale Beobachtungen bezogen ist diese Unterscheidung etwas theoretisch. Auch die Ergebnisse einer noch so feinen Messapparatur werden irgendwann diskret (Aufl¨osungsverm¨ogen beim Messen! ). Die Unterscheidung zwischen stetigem und diskretem Modell hat sich aber auch in der Praxis bew¨ahrt. Manche Autoren versuchen durch eine begriffliche Verallgemeinerung beide F¨alle zusammenzufassen. 1 Die zu solchen Ph¨anomenen geh¨orenden Differentialgleichungen zeigen h¨aufig chaotisches Verhalten. 2 Bei einer Qualit¨atspr¨ ufung wird z. B. dem Merkmal ”ohne Beanstandung“ die Zahl 0, dem Merkmal ”beanstandet“ die Zahl 1 zugeordnet. 3 Man nennt eine Menge abz¨ahlbar, wenn jedes Element eineindeutig einer nat¨ urlichen Zahl zugeordnet werden kann. 212 B Wahrscheinlichkeitsrechnung Beispiel B.1: a) W¨ urfeln: Beim Werfen eines W¨ urfels wird als Versuchsergebnis diejenige Zahl gewertet, die nach dem Wurf oben steht (Augenzahl). Damit lautet die Ergebnismenge Ω = { 1, 2, 3, 4, 5, 6 } . b) Wiegen: Ein Zuckerpaket mit der Aufschrift ”Inhalt 1000 Gramm“ werde zuf¨allig ausgew¨ahlt und gewogen. Als Versuchsergebnis wird das Gewicht in Gramm registriert. Das tats¨achliche Gewicht wird im Allgemeinen von dem F¨ ullgewicht etwas abweichen. L¨asst die Abf¨ ullmaschine Toleranzen von ± 20 Gramm zu, so sind alle Zahlen zwischen 980 und 1020 als Ergebnis m¨oglich. Die Ergebnismenge ist also ein ganzes Intervall. Ω = { x ∈ IR | 980 ≤ x ≤ 1020 } . c) Ballwurf: Ein Ball werde zuf¨allig auf eine rechteckige Wand geworfen. Als Versuchsergebnis wird der Ber¨ uhrpunkt des Balles mit der Wand festgehalten. Dann besteht die Ergebnismenge aus s¨amtlichen Punkten eines Rechtecks R. F¨ uhren wir ein kartesisches Koordinatensystem ein, so l¨asst sich die Ergebnismenge mittels Zahlenpaaren beschreiben: Ω = { (x, y) | x, y ∈ IR mit 0 ≤ x ≤ a; 0 ≤ y ≤ b } . Oft interessiert man sich nicht f¨ ur ein einzelnes Versuchsergebnis, sondern nur daf¨ ur, ob eines von mehreren Ergebnissen bei der Durchf¨ uhrung eintritt. Bei einem W¨ urfelspiel h¨ange bei einer bestimmten Spielsituation eine Gewinnchance nur davon ab, ob eine gerade oder ungerade Augenzahl gew¨ urfelt wird. Dann interessiert man sich nur f¨ ur das Ereignis ”gerade Augenzahl“ A = { 2, 4, 6 } . Dieses besteht aus den Elementarereignissen ”Augenzahl 2“, ”Augenzahl 4“ und ”Augenzahl 6“. Definition: Ein Ereignis, das nur aus einem einzigen Versuchsergebnis besteht, nennt man Elementarereignis. Ein Ereignis ist eine Zusammenfassung von bestimmten Versuchsergebnissen, also eine Teilmenge der Ergebnismenge. Man sagt: Ein Ereignis A tritt genau dann ein, wenn das Ergebnis ω des Zufallsexperiments ein Element von A ist. ω ∈ A ⇐⇒ A ist eingetreten ω ∈ A ⇐⇒ A ist nicht eingetreten B.1 Zufallsexperimente, Ereignisse 213 Beispiel B.2: a) W¨ urfel: Augenzahl gr¨oßer 3 ⇐⇒ A = { 4, 5, 6 } b) Zuckerpaket: ¨ Ubergewicht ⇐⇒ A = { x ∈ IR | x > 1000 } Komplement¨arereignis A sein ein beliebiges Ereignis. Dann tritt bei einer speziellen Versuchsdurchf¨ uhrung entweder das Ereignis A ein oder es tritt nicht ein. Wenn A nicht eintritt, dann tritt das Ereignis ein, welches aus allen Versuchsergebnissen besteht, die nicht zum Ereignis A geh¨oren. Dieses Ereignis heißt Komplement¨arereignis (Komplement) von A oder das zu A entgegengesetzte Ereignis. Man bezeichnet es mit ¯ A. Spezielle Ereignisse Das sichere Ereignis ist dasjenige Ereignis, das immer, also bei jeder Versuchsdurchf¨ uhrung eintritt. Es muss also s¨amtliche Versuchsergebnisse enthalten. Damit ist das sichere Ereignis gleich der gesamten Ergebnismenge Ω. Das unm¨ogliche Ereignis ist dasjenige Ereignis, welches nie, also bei keiner einzigen Versuchsdurchf¨ uhrung eintreten kann. Es enth¨alt ¨ uberhaupt kein Versuchsergebnis und wird mit ∅ bezeichnet. Mit Hilfe dieses unm¨oglichen Ereignisses ∅ k¨onnen manche Sachverhalte ¨ ubersichtlicher und systematischer dargestellt werden. Hat ein Zufallsexperiment nur endlich viele Ausg¨ange, so l¨asst sich die Ergebnismenge Ω durch Aufz¨ahlen beschreiben Ω = { ω 1 , ω 2 , . . . , ω k } . Man kann nun fragen, wie viele verschiedene Ereignisse sich daraus darstellen lassen, d. h., wie viele Teilmengen lassen sich aus einer Menge mit k Elementen bilden? F¨ ur k = 1, 2, 3 erhalten wir durch Ausprobieren: k Ω Ereignisse N E 1 { a } ∅ , { a } 2 2 { a, b } ∅ , { a } , { b } , { a, b } 4 3 { a, b, c } ∅ , { a } , { b } , { a, b } , { c } , { a, c } , { b, c } , { a, b, c } 8 Durch vollst¨andige Induktion kann man zeigen: Satz: Besteht die Ergebnismenge Ω aus k Elementen, so gibt es N E = 2 k verschiedene Ereignisse. 214 B Wahrscheinlichkeitsrechnung B.2 Ereignisalgebra Das Ereignis A und B tritt genau dann ein, wenn sowohl A als auch B, also beide Ereignisse gleichzeitig eintreten. Dieses zusammengesetzte Ereignis heißt auch Durchschnitt von A und B. Es wird mit A ∩ B oder AB bezeichnet. Der Durchschnitt besteht aus denjenigen Versuchsergebnissen, die sowohl in A als auch in B liegen. Das Ereignis A oder B tritt genau dann ein, wenn A oder B oder beide eintreten, wenn also von den beiden Ereignissen A und B mindestens eines eintritt. Es heißt auch die Vereinigung von A und B und wird mit A ∪ B bezeichnet. Das Ereignis A ∪ B besteht aus denjenigen Versuchsergebnissen, die in mindestens einem der beiden Ereignisse A oder B enthalten sind. 4 Das Ereignis A aber nicht B tritt genau dann ein, wenn das Ereignis A eingetreten ist, aber nicht das Ereignis B. Es heißt auch Differenz von A und B und wird mit A \ B bezeichnet. Das Ereignis A \ B besteht aus allen Versuchsergebnissen, die in A, aber nicht in B enthalten sind. Wenn wir die Verkn¨ upfung der Ereignisse A, B mit den entsprechenden Mengenoperationen identifizieren, erhalten wir die graphische Deutung auf der n¨achsten Seite. S¨amtliche Gesetze der Mengenalgebra gelten auch f¨ ur das Rechnen mit Ereignissen; viele sind in der Sprache der Ereignisse unmittelbar einleuchtend. Mit den Ereignisoperationen lassen sich die De Morgansche Regel der Mengenlehre sehr anschaulich erl¨autern. Das Komplement¨arereignis A ∪ B tritt genau dann ein, wenn die Vereinigung A ∪ B nicht eintritt. Dann darf weder A noch B eintreten, d. h., sowohl ¯ A als auch ¯ B m¨ ussen gleichzeitig eintreten. Es muss der Durchschnitt der beiden Komplement¨arereignisse, also ¯ A ∩ ¯ B eintreten. Somit gilt: A ∪ B = ¯ A ∩ ¯ B . Das Ereignis A ∩ B tritt nur dann ein, wenn der Durchschnitt A ∩ B nicht eintritt. Beide Ereignisse d¨ urfen also nicht gleichzeitig eintreten. Das bedeutet aber, dass von den beiden Ereignissen A und B mindestens eines nicht eintreten darf, also entweder A nicht oder B nicht oder beide nicht. Folglich muss ¯ A ∪ ¯ B eintreten. Damit gilt: A ∩ B = ¯ A ∪ ¯ B . 4 Bei dem hier benutzten Begriff ”oder“ handelt es sich nicht um ein ausschließendes ”oder”. Die Vereinigung ” A oder B “ tritt auch dann ein, wenn beide Ereignisse gleichzeitig eintreten. Diese ”oder “-Beziehung ist also nicht im Sinne von ”entweder - oder” zu verstehen. B.2 Ereignisalgebra 215 Ereignis Menge graph. Deutung A oder B A ∪ B (Vereinigung) A B Ω A und B A ∩ B (Durchschnitt) A B Ω A aber nicht B A \ B (Differenz) A B Ω A nicht ¯ A = Ω \ A (Komplement¨armenge) A Ω aus A folgt B A ⊂ B (Teilmenge) A B Ω A und B unvereinbar A ∩ B = ∅ (disjunkt) A B Ω 216 B Wahrscheinlichkeitsrechnung B.3 Axiomatische Definition der Wahrscheinlichkeit Der klassische und geometrische Wahrscheinlichkeitsbegriffhat sich bei vielen Anwendungen bew¨ahrt, doch ist es unbefriedigend, dass die Wahrscheinlichkeit ¨ uber den Begriffder gleichwahrscheinlichen Elementarereignisse definiert ist. (Dies ist z. B. bei Knaben- und M¨adchengeburten nicht der Fall. Hier ist das Verh¨altnis ungef¨ahr 22 : 21). Die Beobachtung, dass relative H¨aufigkeiten bei sehr vielen Durchf¨ uhrungen eines Experiments ziemlich stabil sind, benutzen wir zur pr¨azisen axiomatischen Formulierung des Wahrscheinlichkeitsbegriffs. Dabei wird man fordern, dass Wahrscheinlichkeiten denselben Gesetzm¨aßigkeiten gen¨ ugen wie relative H¨aufgkeiten. Wir begn¨ ugen uns zun¨achst damit anzugeben, welche Eigenschaften die Zuordnung Ereignis −→ Wahrscheinlichkeit haben muss, damit sich keine inneren Widerspr¨ uche einstellen. Wir besch¨aftigen uns zun¨achst nicht mit der Frage, wie die Zahlenwerte der den Ereignissen zugeordneten Wahrscheinlichkeiten bestimmt werden. Definition: Gegeben sei die Ergebnismenge eines Zufallsexperiments Ω. A 1 , A 2 , . . . seien Ereignisse. Jedem Ereignis A i ⊂ Ω wird eine Zahl p(A i ) zugeordnet. p(A i ) heißt Wahrscheinlichkeit des Ereignisses A i , wenn folgende Bedingungen 5 erf¨ ullt sind: a) p(Ω) = 1 , b) p(A i ) ≥ 0 f¨ ur alle Ereignisse A i ⊂ Ω , c) p(A 1 ∪ A 2 ) = p(A 1 ) + p(A 2 ) f¨ ur A 1 ∩ A 2 = ∅ . Folgerungen f¨ ur endliche Ergebnismengen Ist Ω = { ω 1 , ω 2 , , ω 3 , . . . , ω k } endlich, so besitzen die Wahrscheinlichkeiten p i = p(ω i ) der Elementarereignisse folgende Eigenschaften: a) 0 ≤ p i ≤ 1 , b) p 1 + p 2 + p 3 + . . . + p k = 1 . Jedes Ereignis A ⊂ Ω kann als Vereinigung endlich vieler Elementarereignisse dargestellt werden. Die Wahrscheinlichkeit p(A) errechnet sich als Summe der Einzelwahrscheinlichkeiten der Elementarereignisse. Ein Zufallsexperiment ist damit durch die Angabe der Einzelwahrscheinlichkeiten f¨ ur die Elementarereignisse eindeutig bestimmt. ω 1 ω 2 · · · ω k p 1 p 2 · · · p k 5 Diese Axiome gehen auf Kolmogorow zur¨ uck. Sie stellen ein Minimalsystem dar, aus denen die ¨ ubrigen Eigenschaften gefolgert werden. B.4 Rechnen mit Wahrscheinlichkeiten 217 Bemerkung: Welche Wahrscheinlichkeiten man den einzelnen Ereignissen zuordnet, ist keine Frage der Wahrscheinlichkeitsrechnung, sondern h¨angt von der Wirklichkeit ab, die beschrieben werden soll. Wahrscheinlichkeitsrechnung ist das Schließen von gegebenen Wahrscheinlichkeiten auf die Wahrscheinlichkeit der davon abgeleiteten Zufallsprozesse. Nun k¨onnen wir auch unser altes Beispiel ”Werfen zweier idealer W¨ urfel“ umformulieren. Interessant sei nur die Augensumme. Da wir nicht mehr an die Gleichwahrscheinlichkeit gebunden sind, k¨onnen wir als Ergebnismenge die Menge Ω = { 2, 3, 4, . . . , 12 } benutzen. Den Augensummen (vgl. Seite 45) ordnen wir die errechneten Wahrscheinlichkeiten zu: 2 3 4 5 6 7 8 9 10 11 12 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 B.4 Rechnen mit Wahrscheinlichkeiten Aus dem Axiomensystem des vorangegangenen Abschnitts sollen nun einige Rechenregeln hergeleitet werden. Satz: Ist ¯ A das Gegenereignis zu A, so gilt: p(A) + p( ¯ A) = 1 . Beim Umgang mit relativen H¨aufigkeiten erkannten wir den Zusammenhang r n (A ∪ B) = r n (A) + r n (B) − r n (A ∩ B) f¨ ur A ∩ B = ∅ . F¨ ur Ereignisse l¨asst sich die entsprechende Eigenschaft aus dem Axiomensystem ableiten: Satz: F¨ ur beliebige Ereignisse A, B gilt der Zusammenhang: p(A ∪ B) = p(A) + p(B) − p(A ∩ B) (Additionsatz) A B Ω Bild B.1 Der Additionssatz l¨asst sich auf n Ereignisse ¨ ubertragen. So gilt z. B. f¨ ur n = 3 p(A ∪ B ∪ C) = p(A) + p(B) + p(C) − p(A ∩ B) − p(A ∩ C) − p(B ∩ C) + p(A ∩ B ∩ C) Hilfreich ist bei diesen Fragestellungen auch die Formel von De Morgan f¨ ur drei Mengen: A ∪ B ∪ C = ¯ A ∩ ¯ B ∩ ¯ C p(A ∪ B ∪ C) = 1 − p(A ∪ B ∪ C) = 1 − p( ¯ A ∩ ¯ B ∩ ¯ C) 218 B Wahrscheinlichkeitsrechnung Beispiel B.3: Wie groß ist die Wahrscheinlichkeit, bei zweimaligem W¨ urfeln mit einem idealen W¨ urfel mindestens eine Sechs zu w¨ urfeln? L¨osung mit Additionssatz A : erster Wurf 6 p(A) = 1 6 B : zweiter Wurf 6 p(B) = 1 6 A ∩ B : beide W¨ urfe 6 p(A ∩ B) = 1 6 · 1 6 Damit erhalten wir f¨ ur das Ereignis A ∪ B : ”mindestens eine 6“ die Wahrscheinlichkeit: p(A ∪ B) = p(A) + p(B) − p(A ∩ B) = 1 6 + 1 6 − 1 36 = 11 36 . L¨osung mit Gegenereignis ¯ A : erster Wurf keine 6 p( ¯ A) = 5 6 ¯ B : zweiter Wurf keine 6 p( ¯ B) = 5 6 ¯ A ∩ ¯ B : beide W¨ urfe keine 6 p( ¯ A ∩ ¯ B) = 5 6 · 5 6 F¨ ur das Ereignis A ∪ B : ”mindestens eine 6“ erhalten wir die Wahrscheinlichkeit: p(A ∪ B) = 1 − p( ¯ A ∩ ¯ B) = 1 − 25 36 = 11 36 . Pfadregel Wir betrachten mehrstufige Zufallsversuche. Dabei kann der Ausgang eines Zufallsversuchs vom Ausgang der vorangegangenen Versuche abh¨angen. Diesen Vorgang machen wir durch ein Baumdiagramm deutlich. Beispiel B.4: In einer Urne liegen die Buchstaben [a, a, b, b, b]. Es werden zwei Buchstaben gezogen. Die Einzelwahrscheinlichkeiten h¨angen davon ab, ob der nach dem ersten Zug gezogenen Buchstabe wieder zur¨ uckgelegt wird oder nicht. mit Zur¨ ucklegen b b a b a a 3 5 2 5 3 5 2 5 3 5 2 5 1. Zug 2. Zug Bild B.2 Intuitiv: Die Wahrscheinlichkeit eines Pfades ist gleich dem Produkt der Wahrscheinlichkeiten l¨angs des Pfades (Produktregel). Die Wahrscheinlichkeit f¨ ur ein Ereignis ergibt sich durch Addition der Wahrscheinlichkeiten aller zu diesem Ereignis f¨ uhrenden Pfade (Summenregel). ω (a, a) (a, b) (b, a) (b, b) p(ω) 4 25 6 25 6 25 9 25 B.5 Bedingte Wahrscheinlichkeiten und unabh¨angige Ereignisse 219 ohne Zur¨ ucklegen b b a b a a 3 5 2 5 1 2 1 2 3 4 1 4 1. Zug 2. Zug Bild B.3 Nun h¨angen beim zweiten Zug die Wahrscheinlichkeiten vom Ausgang des ersten Zugs ab. Auffallend ist, dass die Reihenfolge des Ziehens der Buchstaben keinen Einfluss auf die Produktwahrscheinlichkeit hat. ω (a, a) (a, b) (b, a) (b, b) p(ω) 1 10 3 10 3 10 3 10 B.5 Bedingte Wahrscheinlichkeiten und unabh¨angige Ereignisse H¨aufig interessiert die Wahrscheinlichkeit f¨ ur ein Ereignis A, wenn bekannt ist, dass ein Ereignis B eingetreten ist. F¨ ur dieses bedingte Ereignis spielt B die Rolle des sicheren Ereignisses. F¨ ur die klassische Wahrscheinlichkeit ist dies der Quotient p = | A ∩ B | | B | A B Ω Bild B.4 Definition: Seien A, B zwei Ereignisse mit P (A) > 0, p(B) > 0 . Dann heißt p(AB ) = p(A ∩ B) p(B) bedingte Wahrscheinlichkeit von A unter der Voraussetzung B. Andere Formulierung: p(A ∩ B) = p(B) · p(AB) p(A ∩ B) = p(A) · p(BA) ⎫ ⎬ ⎭ ⇒ p(A) · p(BA) = p(B) · p(AB) Beispiel B.5: Wahrscheinlichkeit f¨ ur Herz- und Kreislauferkrankungen (HK) bei den Mitarbeitern eines Unternehmens. Dieses besch¨aftigt 60 % Frauen (p(F ) = 0.6) und 40 % M¨anner (p(M ) = 0.4). Die Wahrscheinlichkeit einer Erkrankung ist bei M¨annern und Frauen verschieden - bei M¨annern ist die Wahrscheinlichkeit einer solchen Erkrankung 30 %, bei Frauen 10 % (p(HK F ) = 0.1; p(HK M ) = 0.3) . Das Wissen - ob Mann oder Frau - beeinflusst die Wahrscheinlichkeit f¨ ur das Auftreten einer Herz- und Kreislauferkrankung. Man sagt dann, dass die beiden Ereignisse M und HK stochastisch abh¨angig sind - Gegensatz: stochastisch unabh¨angig. Wir definieren die stochastische Unabh¨angigkeit wie folgt: 220 B Wahrscheinlichkeitsrechnung Definition: Zwei Ereignisse A und B mit p(A) = 0, p(B) = 0 heißen stochastisch unabh¨angig, falls p(A ∩ B) = p(A) · p(B) . Diese Bedingung ist ¨aquivalent zu p(A) = p(AB ) und p(B) = p(BA) . Totale Wahrscheinlichkeit Wenn wir in obigem Beispiel insgesamt die Wahrscheinlichkeit f¨ ur das Eintreten einer Herz- und Kreislauferkrankung bei einem Mitarbeiter bestimmen wollen, so m¨ ussen wir die beiden bedingten Wahrscheinlichkeiten gewichtet mitteln: p(HK) = p(F ) · p(HK F ) + p(M ) · p(HK M ) = 0.6 · 0.1 + 0.4 · 0.3 = 0.18 . Dieses Vorgehen l¨asst sich auf jede disjunkte Zerlegung der Ergebnismenge Ω ¨ ubertragen. Satz: Gegeben seien die Ereignisse A 1 , A 2 , . . . , A n mit A 1 ∪ A 2 ∪ . . . ∪ A n = Ω, A i ∩ A j = ∅ f¨ ur i = j , P (A i ) > 0 . Dann gilt f¨ ur ein beliebiges Ereignis B ⊂ Ω p(B) = p(A 1 ) · p(BA 1 )+p(A 2 ) · p(BA 2 )+. . .+p(A n ) · p(BA n ) = n ∑ k=1 p(A k ) · p(BA k ) . A 1 A 2 A 3 A 4 B Ω Bild B.5 Damit l¨asst sich bei unserem Eingangsbeispiel auch die Frage kl¨aren, mit welcher Wahrscheinlichkeit eine erkrankte Person weiblich ist. p(F ) · p(HK F ) = p(HK) · p(F HK ) p(F HK ) = p(F ) · p(HK F ) p(HK) = 0.6 · 0.1 0.18 = 1 3 . 221 C Markow-Ketten Wir betonen in diesem Abschnitt nicht mehr einzelne Zufallsversuche und ihre Entscheidungsb¨aume, sondern Folgen von Zufallsversuchen. Die statische Denkweise wird aufgegeben - wir richten unser Augenmerk auf den zeitlichen Ablauf eines Zufallsprozesses. Wichtig werden die Begriffe Zustand und ¨ Ubergang. Dies soll an einem einfachen Beispiel demonstriert werden. Beispiel C.1: Ich besitze 1 e und will 5 e durch ein faires Gl¨ ucksspiel erreichen, d. h. die Gewinnwahrscheinlichkeit sei in jeder Phase des Spiels 1 2 und f¨ uhre zu einer Verdopplung des Einsatzes. Gespielt wird nach der folgenden Strategie: in jeder Spielrunde setze ich soviel Geld, dass ich dem Ziel - 5 e - im Falle des Gewinns m¨oglichst nahe komme. Das Spiel wird dadurch beendet, dass ich entweder das Ziel 5 e erreiche oder Pleite gehe, d. h. alles Geld verliere. Das Spielgeschehen wird mittels eines Graphen dargestellt: 0 0.5 0.5 0.5 2 1 0.5 0.5 0.5 4 3 5 0.5 0.5 Bild C.1 Der Ablauf von Zufallsprozessen wird durch gerichtete Graphen dargestellt. Die m¨oglichen Zust¨ande werden durch kleine Kreise angedeutet. Ist ein ¨ Ubergang i −→ k m¨oglich, dann ziehen wir einen Pfeil von i nach k und belegen ihn mit der ¨ Ubergangswahrscheinlichkeit p ik . F¨ ur jeden Zustand i gilt offensichtlich. 0 ≤ p ik ≤ 1 ∑ k p ik = 1 Die Summe der Wahrscheinscheinlichkeiten aller von einem Zustand ausgehenden Pfeile ergibt eins. Der Zufallsprozess ist vollst¨andig bestimmt, wenn man noch angibt, wo die ”Irrfahrt” beginnt - oder allgemeiner einen Anfangszustand −→ a vorgibt. Der Start im Zustand i wird durch einen Vektor beschrieben, dessen i-te Komponente 1 ist, w¨ahrend die ¨ ubrigen Positionen mit null belegt sind. Verallgemeinernd kann man auch Wahrscheinlichkeiten a i 222 C Markow-Ketten f¨ ur den Aufenthalt im Zustand i vorgeben. −→ a = (a 1 , a 2 , . . . , a n ) T n ∑ i=1 a i = 1 Die so beschriebenen Zufallsprozesse heißen Markow-Ketten. Zur Darstellung eignet sich ebenfalls die Matrizenschreibweise. Sei −→ p (0) = ⎛ ⎜ ⎜ ⎜ ⎝ p 1 (0) p 2 (0) ... p n (0) ⎞ ⎟ ⎟ ⎟ ⎠ der Vektor der Wahrscheinlichkeiten der Zust¨ande i = 1, 2, . . . , n zum Zeitpunkt 0, so l¨asst sich −→ p (1) durch Anwendung einer ¨ Ubergangsmatrix 1 auf den Vektor −→ p (0) angeben. Wir bestimmen die einzelnen Beziehungen an obigem Beispiel, wobei p i (k) die Wahrscheinlichkeit des Zustands i zum Zeitpunkt k sei: p 0 (k + 1) = 1 2 p 1 (k) + 1 2 p 2 (k) p 1 (k + 1) = 1 2 p 3 (k) p 2 (k + 1) = 1 2 p 1 (k) p 3 (k + 1) = 1 2 p 4 (k) p 4 (k + 1) = 1 2 p 2 (k) p 5 (k + 1) = 1 2 p 3 (k) + 1 2 p 4 (k) Mit Matrix und Vektoren geschrieben erhalten wir: −→ p (k + 1) = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 0 1 1 2 1 2 0 0 0 0 0 0 1 2 0 0 0 1 2 0 0 0 0 0 0 0 0 1 2 0 0 0 1 2 0 0 0 0 0 0 1 2 1 2 0 1 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ · −→ p (k) Beim obigen Beispiel ist das Spiel zu Ende, wenn die Werte 0 oder 5 erreicht werden. Lassen wir die Zeit fortschreiten, dann m¨ ussen wir dort noch je eine Schleife (gestrichelt) einzeichnen und in der Matrix an der entsprechenden Stelle 0 durch 1 ersetzen. 1 Eine quadratische Matrix mit Spaltensumme 1 nennt man ¨ Ubergangsmatrix. 223 Eine solche ausweglose Situation nennen wir absorbierend. Die Menge der absorbierenden Zust¨ande nennen wir Rand R, die ¨ ubrigen Zust¨ande heißen innere Zust¨ande. Definition: Eine Markow-Kette heißt absorbierend, wenn der Rand R nicht leer ist und wenn man von jedem inneren Zustand R erreichen kann. Wir untersuchen nun die verschiedenen m¨oglichen Wege zum Rand einer solchen Markow- Kette. Daf¨ ur sind folgende Pfadregeln n¨ utzlich: a) Die Wahrscheinlichkeit eines Pfades ist gleich dem Produkt aller Wahrscheinlichkeiten l¨angs des Pfades. b) Die Wahrscheinlichkeit p i , vom Punkt i einen Punkt des Randes zu erreichen, ist gleich der Summe der Wahrscheinlichkeiten aller m¨oglichen Pfade, die von i zu diesem Randpunkt f¨ uhren. c) Die mittlere Dauer m i der Irrfahrt von i zum Rand R ist das gewichtete Mittel der L¨angen aller Pfade von i zum Rand R. Jede Pfadl¨ange x k wird mit ihrer Wahrscheinlichkeit q k gewichtet. m i = ∑ x k · q k Mit diesen Regeln wollen wir an obigem Beispiel die a) Gewinnwahrscheinlichkeit b) Verteilungsfunktion der Spieldauer X c) Parameter μ = E( X ) und σ 2 = V ar( X ) bestimmen. a) Um vom Startpunkt 1 zum Ziel 5 zu kommen, muss zun¨achst der Punkt 4 erreicht werden. Die Wahrscheinlichkeit, dahin zu gelangen, ist 1 2 · 1 2 . Nun gibt es zwei Alternativen. Wir erl¨autern dies an dem folgenden Entscheidungsbaum: 1. Entscheidung 2. Entscheidung 4 5 3 5 1 Bild C.2 (a) Wir erreichen sofort das Ziel 5 mit der Wahrscheinlichkeit 12 bzw. vom Startpunkt 1 aus gerechnet 12 · ( 1 2 ) 2 . 224 C Markow-Ketten (b) Wir erreichen die Station 5 ¨ uber den Umweg 3 mit der Wahrscheinlichkeit 1 2 · 12 bzw. vom Startpunkt 1 aus gerechnet ( 1 2 ) 2 · ( 1 2 ) 2 . (c) Die verbleibende M¨oglichkeit mit der Wahrscheinlichkeit 1 4 f¨ uhrt zum Ausgangspunkt 1 zur¨ uck. F¨ ur diesen ersten Zyklus ergibt sich aus (a) und (b) als Wahrscheinlichkeit, das Ziel 5 zu erreichen, zu [ ( 1 2 ) 3 + ( 12 ) 4 ] . Zu einem zweiten Zyklus kommt es nach (c) mit der Wahrscheinlichkeit ( 1 2 ) 4 . Die Wahrscheinlichkeit, beim zweiten Zyklus das Ziel 5 zu erreichen, ist damit: ( 1 2 ) 4 · [ ( 1 2 ) 3 + ( 12 ) 4 ] . Entsprechend ist die Wahrscheinlichkeit, beim k-ten Zyklus 5 zu erreichen: ( 1 2 ) 4(k − 1) · [ ( 1 2 ) 3 + ( 12 ) 4 ] . Wenn wir ¨ uber alle Zyklen summieren, ergibt sich als Gewinnwahrscheinlichkeit: p = ∞ ∑ k=0 ( 1 2 ) 4k · [ ( 1 2 ) 3 + ( 12 ) 4 ︸ ︷︷ ︸ = 3 16 ] = 3 16 ∞ ∑ k=0 ( 1 16 ) k = 3 16 1 1 − 1 16 = 1 5 . b) F¨ ur jedes n ∈ IN gibt es genau einen Pfad der L¨ange n, um von 1 einen Randpunkt zu erreichen. Dies sei f¨ ur die ersten n in nebenstehender Tabelle explizit erl¨autert: Hat die Zufallsvariable X die Bedeutung der Spieldauer, so erhalten wir die folgenden Wahrscheinlichkeiten: P ( X = n) = ( 1 2 ) n n Pfad 1 1 - 0 2 1 - 2 - 0 3 1 - 2 - 4 - 5 4 1 - 2 - 4 - 3 - 5 5 1 - 2 - 4 - 3 - 1 - 0 ... ... 225 c) Erwartungswert von X E( X ) = ∞ ∑ n=1 n · ( 1 2 ) n = 1 2 · ∞ ∑ n=1 n · ( 1 2 ) ︸ ︷︷︸ =q n − 1 = 12 · d dq ∞ ∑ n=1 q n = 12 · d dq 1 1 − q = 1 2 1 (1 − q) 2 = 2 Varianz von X E( X 2 ) = ∞ ∑ n=1 n 2 · q n = ∞ ∑ n=1 (n 2 + n) · q n − ∞ ∑ n=1 n · q n = q · d 2 dq 2 ∞ ∑ n=1 q n+1 − ∞ ∑ n=1 n · q n = q · d 2 dq 2 1 1 − q − ∞ ∑ n=1 n · q n = q · 2 (1 − q) 3 − ∞ ∑ n=1 n · q n = 12 · 2 · 2 3 − 2 = 6 Damit erhalten wir f¨ ur die Varianz: σ 2 = E( X 2 ) − E( X ) 2 = 6 − 4 = 2 . Geschickter in der Handhabung sind die Mittelwertsregeln. Eine absorbierende Markow- Kette soll untersucht werden. Wir interessieren uns f¨ ur die Wahrscheinlichkeit, ausgehend von einem Startzustand in bestimmten Randpunkten absorbiert zu werden, und f¨ ur die mittlere Dauer der Irrfahrt. Erste Mittelwertsregel Die Wahrscheinlichkeit p i , vom inneren Zustands i aus einen bestimmten Randpunkt zu erreichen, ist gleich dem gewichteten Mittel der Wahrscheinlichkeiten seiner Nachbarzust¨ande. Nachbarzust¨ande sind diejenigen Zust¨ande, die vom Zustand i aus mit einem Pfeil erreicht werden k¨onnen. p i = ∑ k p ik · p k i ∈ S \ R Die Wahrscheinlichkeiten des Randes sind vorzugeben. 226 C Markow-Ketten Zweite Mittelwertsregel Der Erwartungswert m i f¨ ur die restliche Dauer einer Irrfahrt, ausgehend von einem inneren Zustand i , ist eins zuz¨ uglich des gewichteten Mittels der Erwartungswerte seiner Nachbarzust¨ande. m i = 1 + ∑ k p ik · m k i ∈ S \ R m i = 0 i ∈ R Mit diesem neuen Konzept wollen wir unser Eingangsbeispiel nochmals untersuchen: Berechnung der Wahrscheinlichkeit, das Spiel zu gewinnen: p i : Wahrscheinlichkeit, vom Zustand i das Spiel zu gewinnen. 2 Die Randvorgabe ergibt sich aus der Zielstellung (Was will ich erreichen? ) 3 p 5 = 1; p 0 = 0. F¨ ur die Wahrscheinlichkeiten der inneren Punkte erhalten wir das Gleichungssystem: p 1 = 1 2 (p 0 + p 2 ) = 1 2 p 2 p 2 = 1 2 (p 0 + p 4 ) = 1 2 p 4 p 3 = 1 2 (p 1 + p 5 ) = 1 2 (p 1 + 1) p 4 = 1 2 (p 3 + p 5 ) = 1 2 (p 3 + 1) ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ p 1 = 1 5 p 2 = 2 5 p 3 = 3 5 p 4 = 4 5 Berechnung der Dauer des Spiels (Irrfahrt): m i : Dauer der Irrfahrt, um vom Zustand i einen Punkt des Randes zu erreichen (Zustand 0 oder 5 ). F¨ ur die Zust¨ande 0 und 5 ist die Spieldauer m 5 = 0; m 0 = 0. F¨ ur die Spieldauer in den inneren Punkten erhalten wir das lineare Gleichungssystem: m 1 = 1 + 1 2 (m 0 + m 2 ) = 1 + 1 2 m 2 m 2 = 1 + 1 2 (m 0 + m 4 ) = 1 + 1 2 m 4 m 3 = 1 + 1 2 (m 1 + m 5 ) = 1 + 1 2 m 1 m 4 = 1 + 1 2 (m 3 + m 5 ) = 1 + 1 2 m 3 ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ m 1 = 2 m 2 = 2 m 3 = 2 m 4 = 2 Zun¨achst ¨ uberraschend ist das Ergebnis, dass unser Spiel von jeder inneren Ausgangssituation im Durchschnitt genau zwei Spiele lang ist. 2 Die Summe der Wahrscheinlichkeiten ∑ p i ergibt nicht 1; p i gibt die Wahrscheinlichkeit an, einen bestimmten Randpunkt (in diesem Fall Zustand 5 ) zu erreichen. 3 Die Wahrscheinlichkeit f¨ ur Verlust ergibt sich aus der Randvorgabe p 5 = 0; p 0 = 1. 227 Beispiel C.2: Ein Job kann sich in einer Rechenanlage in einem der folgenden Zust¨ande befinden: (1) Startzustand (2) aktiv (3) blockiert - auf den Eintritt einer Bedingung (z. B. Ein-/ Ausgabe) wartend (4) bereit - auf Prozessorzuteilung wartend (5) aus.blockiert - in den Hintergrundspeicher ausgelagert und auf Bedingungen wartend (6) aus.bereit - ausgelagert, auf Wiedereinlagerung wartend (7) fertig initial(1) block(3) aus.block(5) aktiv(2) bereit(4) aus.bereit(6) fertig(7) 0.1 1.0 1.0 0.6 0.3 0.8 0.7 1.0 0.2 1.0 0.3 Bild C.3 Wir nehmen an, dass die Zustands¨ uberg¨ange eine Markow-Kette bilden. Die ¨ Ubergangswahrscheinlichkeiten entnehmen wir dem Diagramm: 228 C Markow-Ketten Bestimmung der ¨ Ubergangsmatrix f¨ ur die Aufenthaltswahrscheinlichkeiten p 1 (k + 1) = 0 · p 1 (k) + . . . + 0 · p 7 (k) p 2 (k + 1) = p 1 (k) + 0.8 · p 4 (k) p 3 (k + 1) = 0.6 · p 2 (k) p 4 (k + 1) = 0.3 · p 2 (k) + 0.7 · p 3 (k) + p 6 (k) p 5 (k + 1) = 0.3 · p 3 (k) p 6 (k + 1) = 0.2 · p 4 (k) + p 5 (k) p 7 (k + 1) = 0.1 · p 2 (k) In Matrizenschreibweise geschrieben: M = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 0 0 0 0 0 0 0 1 0 0 0.8 0 0 0 0 0.6 0 0 0 0 0 0 0.3 0.7 0 0 1 0 0 0 0.3 0 0 0 0 0 0 0 0.2 1 0 0 0 0.1 0 0 0 0 0 1 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ Der absorbierende Zustand 7 ist von jeder Position erreichbar und es ist offensichtlich, dass jeder Job (Irrfahrt) irgendwann bei 7 ankommt. (Es ist keine Alternative wie im vorangegangenen Beispiel denkbar.) Wir interessieren uns f¨ ur die mittlere Dauer der restlichen Irrfahrt und benutzen dazu die zweite Mittelwertsregel: m 1 = 1 + m 2 m 2 = 1 + 0.6 · m 3 + 0.3 · m 4 + 0.1 · m 7 m 3 = 1 + 0.7 · m 4 + 0.3 · m 5 m 4 = 1 + 0.8 · m 2 + 0.2 · m 6 m 5 = 1 + m 6 m 6 = 1 + m 4 m 7 = 0 ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ m 1 = 34.1 m 2 = 33.1 m 3 = 36.2 m 4 = 34.6 m 5 = 36.6 m 6 = 35.6 m 7 = 0 229 Im Mittel ben¨otigt also ein Job 34.1 Schritte, bis er abgearbeitet ist. Wir wollen noch bestimmen, wie oft ein Job, der bei initial 1 beginnt, bei den einzelnen Zust¨anden verweilt, bevor er bei fertig 7 landet. Der Erwartungswert s i f¨ ur die Anzahl der Besuche des Zustands i w¨ahrend einer Irrfahrt ist gleich dem gewichteten Mittel der Erwartungswerte derjenigen Zust¨ande, von denen ein Pfeil zu Zustand i weist. Wir erhalten mit diesem Prinzip das folgende lineare Gleichungssystem. s 1 = 1 s 2 = s 1 + 0.8 · s 4 s 3 = 0.6 · s 2 s 4 = 0.3 · s 2 + 0.7 · s 3 + s 6 s 5 = 0.3 · s 3 s 6 = 0.2 · s 4 + s 5 ⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ s 1 = 1 s 2 = 10 s 3 = 6 s 4 = 11.25 s 5 = 1.8 s 6 = 4.05 Die Anzahl der Besuche im Zustand j , falls in i gestartet wird, l¨asst sich auch mittels der ¨ Ubergangsmatrix M bestimmen. Starten wir bei 1 , so wird dies durch den Besuchsvektor −→ s (1) = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 1 0 0 0 0 0 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ dargestellt. 4 Jeder ¨ Ubergang in einen anderen Zustand wird durch Multiplikation mit der Matrix M beschrieben. −→ s (k + 1) = M · −→ s (k) Die Gesamtzahl der Besuche der verschiedenen Zust¨ande erh¨alt man durch Summation: ∞ ∑ k=1 −→ s (k) = [ E + M + M 2 + . . . + M k + . . . ] · −→ s (1) 4 Die Besuchszahl im absorbierenden Zustand 7 interessiert hier nicht. 230 C Markow-Ketten Beim Start im Zustand i gehen wir vom Besuchsvektor −→ ˜ s (1) = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 0 ... 0 1 0 ... ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ ← i-te Position aus. Fassen wir s¨amtliche Startvektoren 5 zur Einheitsmatrix zusammen, so erhalten wir: S = [ E + M + M 2 + . . . + M k + . . . ] · E = ∞ ∑ k=0 M k = (E − M ) − 1 6 In unserem Beispiel erhalten wir f¨ ur die Matrix S: E − M = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 1 0 0 0 0 0 − 1 1 0 − 0.8 0 0 0 − 0.6 1 0 0 0 0 − 0.3 − 0.7 1 0 − 1 0 0 − 0.3 0 1 0 0 0 0 − 0.2 − 1 1 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ S = (E − M ) − 1 = ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝ 1 0 0 0 0 0 10 10 10 10 10 10 6 6 7 6 6 6 11.25 11.25 12.5 12.5 12.5 12.5 1.8 1.8 2.1 1.8 2.8 1.8 4.05 4.05 4.6 4.3 5.3 5.3 ⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠ Dabei bedeutet der erste Spaltenvektor die mittlere Anzahl der Besuche bei den verschieden Stationen bei Start im Zustand 1 . Der k-te Spaltenvektor bestimmt die Besuchszahl bei Start im Zustand k . 5 Dabei m¨ ussen wir den Zustand 7 - alle absorbierende Zust¨ande - weglassen, denn daf¨ ur ergeben sich nat¨ urlich unendlich viele Besuche. 6 ¨ Uber die Bedingungen f¨ ur die G¨ ultigkeit der letzten Beziehung wollen wir uns hier keine Gedanken machen. F¨ ur einen Skalar mit | q | < 1 entspricht diese Beziehung der Summenformel f¨ ur die geometrische Reihe 1 + q + q 2 + q 3 + . . . = 1 1 − q . D Tafeln 231 Verteilungsfunktion der Standard-Normalverteilung Φ(z) z Φ(z) z Φ(z) z Φ(z) z Φ(z) z Φ(z) 0.00 0.5000 0.35 0.6368 0.70 0.7580 1.05 0.8531 1.40 0.9192 0.01 0.5040 0.36 0.6406 0.71 0.7611 1.06 0.8554 1.41 0.9207 0.02 0.5080 0.37 0.6443 0.72 0.7642 1.07 0.8577 1.42 0.9222 0.03 0.5120 0.38 0.6480 0.73 0.7673 1.08 0.8599 1.43 0.9236 0.04 0.5160 0.39 0.6517 0.74 0.7703 1.09 0.8621 1.44 0.9251 0.05 0.5199 0.40 0.6554 0.75 0.7734 1.10 0.8643 1.45 0.9265 0.06 0.5239 0.41 0.6591 0.76 0.7764 1.11 0.8665 1.46 0.9279 0.07 0.5279 0.42 0.6628 0.77 0.7794 1.12 0.8686 1.47 0.9292 0.08 0.5319 0.43 0.6664 0.78 0.7823 1.13 0.8708 1.48 0.9306 0.09 0.5359 0.44 0.6700 0.79 0.7852 1.14 0.8729 1.49 0.9319 0.10 0.5398 0.45 0.6736 0.80 0.7881 1.15 0.8749 1.50 0.9332 0.11 0.5438 0.46 0.6772 0.81 0.7910 1.16 0.8770 1.51 0.9345 0.12 0.5478 0.47 0.6808 0.82 0.7939 1.17 0.8790 1.52 0.9357 0.13 0.5517 0.48 0.6844 0.83 0.7967 1.18 0.8810 1.53 0.9370 0.14 0.5557 0.49 0.6879 0.84 0.7995 1.19 0.8830 1.54 0.9382 0.15 0.5596 0.50 0.6915 0.85 0.8023 1.20 0.8849 1.55 0.9394 0.16 0.5636 0.51 0.6950 0.86 0.8051 1.21 0.8869 1.56 0.9406 0.17 0.5675 0.52 0.6985 0.87 0.8078 1.22 0.8888 1.57 0.9418 0.18 0.5714 0.53 0.7019 0.88 0.8106 1.23 0.8907 1.58 0.9429 0.19 0.5753 0.54 0.7054 0.89 0.8133 1.24 0.8925 1.59 0.9441 0.20 0.5793 0.55 0.7088 0.90 0.8159 1.25 0.8944 1.60 0.9452 0.21 0.5832 0.56 0.7123 0.91 0.8186 1.26 0.8962 1.61 0.9463 0.22 0.5871 0.57 0.7157 0.92 0.8212 1.27 0.8980 1.62 0.9474 0.23 0.5910 0.58 0.7190 0.93 0.8238 1.28 0.8997 1.63 0.9484 0.24 0.5948 0.59 0.7224 0.94 0.8264 1.29 0.9015 1.64 0.9495 0.25 0.5987 0.60 0.7257 0.95 0.8289 1.30 0.9032 1.65 0.9505 0.26 0.6026 0.61 0.7291 0.96 0.8315 1.31 0.9049 1.66 0.9515 0.27 0.6064 0.62 0.7324 0.97 0.8340 1.32 0.9066 1.67 0.9525 0.28 0.6103 0.63 0.7357 0.98 0.8365 1.33 0.9082 1.68 0.9535 0.29 0.6141 0.64 0.7389 0.99 0.8389 1.34 0.9099 1.69 0.9545 0.30 0.6179 0.65 0.7422 1.00 0.8413 1.35 0.9115 1.70 0.9554 0.31 0.6217 0.66 0.7454 1.01 0.8438 1.36 0.9131 1.71 0.9564 0.32 0.6255 0.67 0.7486 1.02 0.8461 1.37 0.9147 1.72 0.9573 0.33 0.6293 0.68 0.7517 1.03 0.8485 1.38 0.9162 1.73 0.9582 0.34 0.6331 0.69 0.7549 1.04 0.8508 1.39 0.9177 1.74 0.9591 D Tafeln 232 D Tafeln Verteilungsfunktion der Standard-Normalverteilung Φ(z) z Φ(z) z Φ(z) z Φ(z) z Φ(z) z Φ(z) 1.75 0.9599 2.10 0.9821 2.45 0.9929 2.80 0.9974 3.15 0.9992 1.76 0.9608 2.11 0.9826 2.46 0.9931 2.81 0.9975 3.17 0.9992 1.77 0.9616 2.12 0.9830 2.47 0.9932 2.82 0.9976 3.19 0.9993 1.78 0.9625 2.13 0.9834 2.48 0.9934 2.83 0.9977 3.21 0.9993 1.79 0.9633 2.14 0.9838 2.49 0.9936 2.84 0.9977 3.23 0.9994 1.80 0.9641 2.15 0.9842 2.50 0.9938 2.85 0.9978 3.25 0.9994 1.81 0.9649 2.16 0.9846 2.51 0.9940 2.86 0.9979 3.27 0.9995 1.82 0.9656 2.17 0.9850 2.52 0.9941 2.87 0.9979 3.29 0.9995 1.83 0.9664 2.18 0.9854 2.53 0.9943 2.88 0.9980 3.31 0.9995 1.84 0.9671 2.19 0.9857 2.54 0.9945 2.89 0.9981 3.33 0.9996 1.85 0.9678 2.20 0.9861 2.55 0.9946 2.90 0.9981 3.35 0.9996 1.86 0.9686 2.21 0.9864 2.56 0.9948 2.91 0.9982 3.37 0.9996 1.87 0.9693 2.22 0.9868 2.57 0.9949 2.92 0.9982 3.39 0.9997 1.88 0.9699 2.23 0.9871 2.58 0.9951 2.93 0.9983 3.41 0.9997 1.89 0.9706 2.24 0.9875 2.59 0.9952 2.94 0.9984 3.43 0.9997 1.90 0.9713 2.25 0.9878 2.60 0.9953 2.95 0.9984 3.45 0.9997 1.91 0.9719 2.26 0.9881 2.61 0.9955 2.96 0.9985 3.47 0.9997 1.92 0.9726 2.27 0.9884 2.62 0.9956 2.97 0.9985 3.49 0.9998 1.93 0.9732 2.28 0.9887 2.63 0.9957 2.98 0.9986 3.51 0.9998 1.94 0.9738 2.29 0.9890 2.64 0.9959 2.99 0.9986 3.53 0.9998 1.95 0.9744 2.30 0.9893 2.65 0.9960 3.00 0.9987 3.55 0.9998 1.96 0.9750 2.31 0.9896 2.66 0.9961 3.01 0.9987 3.57 0.9998 1.97 0.9756 2.32 0.9898 2.67 0.9962 3.02 0.9987 3.59 0.9998 1.98 0.9761 2.33 0.9901 2.68 0.9963 3.03 0.9988 3.61 0.9998 1.99 0.9767 2.34 0.9904 2.69 0.9964 3.04 0.9988 3.63 0.9999 2.00 0.9772 2.35 0.9906 2.70 0.9965 3.05 0.9989 3.65 0.9999 2.01 0.9778 2.36 0.9909 2.71 0.9966 3.06 0.9989 3.67 0.9999 2.02 0.9783 2.37 0.9911 2.72 0.9967 3.07 0.9989 3.69 0.9999 2.03 0.9788 2.38 0.9913 2.73 0.9968 3.08 0.9990 3.71 0.9999 2.04 0.9793 2.39 0.9916 2.74 0.9969 3.09 0.9990 3.73 0.9999 2.05 0.9798 2.40 0.9918 2.75 0.9970 3.10 0.9990 3.75 0.9999 2.06 0.9803 2.41 0.9920 2.76 0.9971 3.11 0.9991 3.77 0.9999 2.07 0.9808 2.42 0.9922 2.77 0.9972 3.12 0.9991 3.79 0.9999 2.08 0.9812 2.43 0.9925 2.78 0.9973 3.13 0.9991 3.81 0.9999 2.09 0.9817 2.44 0.9927 2.79 0.9974 3.14 0.9992 3.83 0.9999 D Tafeln 233 Quantile der Standard-Normalverteilung Φ − 1 : Φ(u γ ) = γ γ u γ γ u γ γ u γ γ u γ 0.500 0.0000 0.905 1.3106 0.9905 2.3455 0.99905 3.1054 0.525 0.0627 0.910 1.3408 0.9910 2.3656 0.99910 3.1214 0.550 0.1257 0.915 1.3722 0.9915 2.3867 0.99915 3.1382 0.575 0.1891 0.920 1.4051 0.9920 2.4089 0.99920 3.1559 0.600 0.2533 0.925 1.4395 0.9925 2.4324 0.99925 3.1747 0.625 0.3186 0.930 1.4758 0.9930 2.4573 0.99930 3.1947 0.650 0.3853 0.935 1.5141 0.9935 2.4838 0.99935 3.2160 0.675 0.4538 0.940 1.5548 0.9940 2.5122 0.99940 3.2389 0.700 0.5244 0.945 1.5982 0.9945 2.5427 0.99945 3.2637 0.725 0.5978 0.950 1.6449 0.9950 2.5758 0.99950 3.2906 0.750 0.6745 0.955 1.6954 0.9955 2.6121 0.99955 3.3201 0.775 0.7554 0.960 1.7507 0.9960 2.6521 0.99960 3.3529 0.800 0.8416 0.965 1.8119 0.9965 2.6969 0.99965 3.3897 0.820 0.9154 0.970 1.8808 0.9970 2.7478 0.99970 3.4317 0.840 0.9945 0.975 1.9600 0.9975 2.8071 0.99975 3.4809 0.860 1.0803 0.980 2.0537 0.9980 2.8782 0.99980 3.5403 0.880 1.1750 0.985 2.1701 0.9985 2.9678 0.99985 3.6156 0.900 1.2815 0.990 2.3263 0.9990 3.0903 0.99990 3.7194 Beispiel D.1: Vorgelegt ist eine Stichprobe { x 1 , x 2 , . . . , x 10 } mit ¯ x = 1 10 10 ∑ i=1 x i = 5.393 arithmetischer Mittelwert. Zweiseitiges Konfidenzintervall f¨ ur den Erwartungswert μ zum Niveau γ = 0.9 : (1) Bei bekannter Varianz σ 2 = 0.2 ben¨otigt man das Quantil der Normalverteilung f¨ ur 1+γ 2 = 0.95 : u 0.95 = 1.6449 . Wir erhalten als Intervallgrenzen : x a,b = 5.393 ± 1.6449 · √ 0.2 √ 10 ≈ 5.393 ± 0.233 . (2) Bei zu sch¨atzender Varianz ben¨otigt man das Quantil der t-Verteilung f¨ ur 1+γ 2 = 0.95 und n = 9 : t 9; 0.95 = 1.8331 . Daraus errechnen wir die Intervallgrenzen : s 2 = 1 9 10 ∑ i=1 (x i − ¯ x) 2 = 0.21 empirische Varianz . x a,b = 5.393 ± 1.8331 · √ 0.21 √ 10 ≈ 5.393 ± 0.266 . 234 D Tafeln Quantile der t-Verteilung mit n Freiheitsgraden zum Niveau β n β 0.750 0.900 0.950 0.975 0.990 0.995 0.999 1 1.0000 3.0777 6.3138 12.7062 31.8205 63.6567 318.3088 2 0.8165 1.8856 2.9200 4.3027 6.9646 9.9248 22.3271 3 0.7649 1.6377 2.3534 3.1824 4.5407 5.8409 10.2145 4 0.7407 1.5332 2.1318 2.7764 3.7469 4.6041 7.1732 5 0.7267 1.4759 2.0150 2.5706 3.3649 4.0321 5.8934 6 0.7176 1.4398 1.9432 2.4469 3.1427 3.7074 5.2076 7 0.7111 1.4149 1.8946 2.3646 2.9980 3.4995 4.7853 8 0.7064 1.3968 1.8595 2.3060 2.8965 3.3554 4.5008 9 0.7027 1.3830 1.8331 2.2622 2.8214 3.2498 4.2968 10 0.6998 1.3722 1.8125 2.2281 2.7638 3.1693 4.1437 11 0.6974 1.3634 1.7959 2.2010 2.7181 3.1058 4.0247 12 0.6955 1.3562 1.7823 2.1788 2.6810 3.0545 3.9296 13 0.6938 1.3502 1.7709 2.1604 2.6503 3.0123 3.8520 14 0.6924 1.3450 1.7613 2.1448 2.6245 2.9768 3.7874 15 0.6912 1.3406 1.7531 2.1314 2.6025 2.9467 3.7328 20 0.6870 1.3253 1.7247 2.0860 2.5280 2.8453 3.5518 30 0.6828 1.3104 1.6973 2.0423 2.4573 2.7500 3.3852 40 0.6807 1.3031 1.6839 2.0211 2.4233 2.7045 3.3069 50 0.6794 1.2987 1.6759 2.0086 2.4033 2.6778 3.2614 100 0.6770 1.2901 1.6602 1.9840 2.3642 2.6259 3.1737 200 0.6757 1.2858 1.6525 1.9719 2.3451 2.6006 3.1315 300 0.6753 1.2844 1.6499 1.9679 2.3388 2.5923 3.1176 400 0.6751 1.2837 1.6487 1.9659 2.3357 2.5882 3.1107 500 0.6750 1.2832 1.6479 1.9647 2.3338 2.5857 3.1066 700 0.6748 1.2828 1.6470 1.9634 2.3317 2.5829 3.1019 1000 0.6747 1.2824 1.6464 1.9623 2.3301 2.5808 3.0984 ∞ 0.6747 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902 Handhabung der t-Quantile wie bei der Normalverteilung. Die t-Verteilung kommt zur Anwendung, wenn auch die Varianz aus der Stichprobe gesch¨atzt wurde. D Tafeln 235 Quantile der χ 2 -Verteilung mit n Freiheitsgraden zum Niveau β n β 0.750 0.900 0.950 0.975 0.990 0.995 0.999 1 1.3233 2.7055 3.8415 5.0239 6.6349 7.8794 10.8276 2 2.7726 4.6052 5.9915 7.3778 9.2103 10.5966 13.8155 3 4.1083 6.2514 7.8147 9.3484 11.3449 12.8382 16.2662 4 5.3853 7.7794 9.4877 11.1433 13.2767 14.8603 18.4668 5 6.6257 9.2364 11.0705 12.8325 15.0863 16.7496 20.5150 6 7.8408 10.6446 12.5916 14.4494 16.8119 18.5476 22.4577 7 9.0371 12.0170 14.0671 16.0128 18.4753 20.2777 24.3219 8 10.2189 13.3616 15.5073 17.5345 20.0902 21.9550 26.1245 9 11.3888 14.6837 16.9190 19.0228 21.6660 23.5894 27.8772 10 12.5489 15.9872 18.3070 20.4832 23.2093 25.1882 29.5883 11 13.7007 17.2750 19.6751 21.9200 24.7250 26.7568 31.2641 12 14.8454 18.5493 21.0261 23.3367 26.2170 28.2995 32.9095 13 15.9839 19.8119 22.3620 24.7356 27.6882 29.8195 34.5282 14 17.1169 21.0641 23.6848 26.1189 29.1412 31.3193 36.1233 15 18.2451 22.3071 24.9958 27.4884 30.5779 32.8013 37.6973 16 19.3689 23.5418 26.2962 28.8454 31.9999 34.2672 39.2524 17 20.4887 24.7690 27.5871 30.1910 33.4087 35.7185 40.7902 18 21.6049 25.9894 28.8693 31.5264 34.8053 37.1565 42.3124 19 22.7178 27.2036 30.1435 32.8523 36.1909 38.5823 43.8202 20 23.8277 28.4120 31.4104 34.1696 37.5662 39.9968 45.3147 22 26.0393 30.8133 33.9244 36.7807 40.2894 42.7957 48.2679 25 29.3389 34.3816 37.6525 40.6465 44.3141 46.9279 52.6197 30 34.7997 40.2560 43.7730 46.9792 50.8922 53.6720 59.7031 35 40.2228 46.0588 49.8018 53.2033 57.3421 60.2748 66.6188 40 45.6160 51.8051 55.7585 59.3417 63.6907 66.7660 73.4020 50 56.3336 63.1671 67.5048 71.4202 76.1539 79.4900 86.6608 60 66.9815 74.3970 79.0819 83.2977 88.3794 91.9517 99.6072 70 77.5767 85.5270 90.5312 95.0232 100.4252 104.2149 112.3169 80 88.1303 96.5782 101.8795 106.6286 112.3288 116.3211 124.8392 100 109.1412 118.4980 124.3421 129.5612 135.8067 140.1695 149.4493 236 D Tafeln Quantile der χ 2 -Verteilung mit n Freiheitsgraden zum Niveau β n β 0.500 0.250 0.100 0.050 0.025 0.010 0.005 0.001 1 0.4549 0.1015 1.579 · 10 −2 3.932 · 10 −3 9.821 · 10 −4 1.571 · 10 −4 3.927 · 10 −5 1.571 · 10 −6 2 1.3863 0.5754 0.2107 0.1026 5.064 · 10 −2 2.010 · 10 −2 1.003 · 10 −2 2.001 · 10 −3 3 2.3660 1.2125 0.5844 0.3518 0.2158 0.1148 7.172 · 10 −2 2.430 · 10 −2 4 3.3567 1.9226 1.0636 0.7107 0.4844 0.2971 0.2070 0.0908 5 4.3515 2.6746 1.6103 1.1455 0.8312 0.5543 0.4117 0.2102 6 5.3481 3.4546 2.2041 1.6354 1.2373 0.8721 0.6757 0.3811 7 6.3458 4.2549 2.8331 2.1673 1.6899 1.2390 0.9893 0.5985 8 7.3441 5.0706 3.4895 2.7326 2.1797 1.6465 1.3444 0.8571 9 8.3428 5.8988 4.1682 3.3251 2.7004 2.0879 1.7349 1.1519 10 9.3418 6.7372 4.8652 3.9403 3.2470 2.5582 2.1559 1.4787 11 10.3410 7.5841 5.5778 4.5748 3.8157 3.0535 2.6032 1.8339 12 11.3403 8.4384 6.3038 5.2260 4.4038 3.5706 3.0738 2.2142 13 12.3398 9.2991 7.0415 5.8919 5.0088 4.1069 3.5650 2.6172 14 13.3393 10.1653 7.7895 6.5706 5.6287 4.6604 4.0747 3.0407 15 14.3389 11.0365 8.5468 7.2609 6.2621 5.2293 4.6009 3.4827 16 15.3385 11.9122 9.3122 7.9616 6.9077 5.8122 5.1422 3.9416 17 16.3382 12.7919 10.0852 8.6718 7.5642 6.4078 5.6972 4.4161 18 17.3379 13.6753 10.8649 9.3905 8.2307 7.0149 6.2648 4.9048 19 18.3377 14.5620 11.6509 10.1170 8.9065 7.6327 6.8440 5.4068 20 19.3374 15.4518 12.4426 10.8508 9.5908 8.2604 7.4338 5.9210 22 21.3370 17.2396 14.0415 12.3380 10.9823 9.5425 8.6427 6.9830 25 24.3366 19.9393 16.4734 14.6114 13.1197 11.5240 10.5197 8.6493 30 29.3360 24.4776 20.5992 18.4927 16.7908 14.9535 13.7867 11.5880 35 34.3356 29.0540 24.7967 22.4650 20.5694 18.5089 17.1918 14.6878 40 39.3353 33.6603 29.0505 26.5093 24.4330 22.1643 20.7065 17.9164 50 49.3349 42.9421 37.6886 34.7643 32.3574 29.7067 27.9907 24.6739 60 59.3347 52.2938 46.4589 43.1880 40.4817 37.4849 35.5345 31.7383 70 69.3345 61.6983 55.3289 51.7393 48.7576 45.4417 43.2752 39.0364 80 79.3343 71.1445 64.2778 60.3915 57.1532 53.5401 51.1719 46.5199 100 99.3341 90.1332 82.3581 77.9295 74.2219 70.0649 67.3276 61.9179 D Tafeln 237 Beispiel D.2: Ablesebeispiel f¨ ur die χ 2 -Verteilung: Beidseitige Entscheidungsgrenzen zum Niveau γ = 0.95 und Freiheitsgrad n = 6 sind zu bestimmen. Mit χ 2 6,0.025 = 1.2373 (n = 6; p = 0.025) χ 2 6,0.975 = 14.4494 (n = 6; 1 − p = 0.975) erh¨alt man die gesuchten Grenzen. 0 . 1 γ = 1 − 2 p χ 2n,p χ 2 n,1 − p 10 Bild D.1 Ablehnungsgrenzen k α f¨ ur Vorzeichentest (Binomialverteilung) n α 0.250 0.100 0.050 0.025 0.010 0.005 0.001 4 1 1 0 0 0 0 0 5 2 1 1 0 0 0 0 6 2 1 1 1 0 0 0 7 3 2 1 1 1 0 0 8 3 2 2 1 1 1 0 9 3 3 2 2 1 1 0 10 4 3 2 2 1 1 1 11 4 3 3 2 2 1 1 12 5 4 3 3 2 2 1 13 5 4 4 3 2 2 1 14 6 5 4 3 3 2 2 15 6 5 4 4 3 3 2 16 7 5 5 4 3 3 2 17 7 6 5 5 4 3 2 18 8 6 6 5 4 4 3 19 8 7 6 5 5 4 3 20 8 7 6 6 5 4 3 25 11 9 8 8 7 6 5 30 13 11 11 10 9 8 7 Beispiel D.3: Beidseitige Grenzen f¨ ur n = 15 und Niveau γ = 0.9 sind zu bestimmen. Ablesen bei n = 15 und α = 1 − γ 2 = 0.05 ergibt k α = 4. Bereich: [k α , n − k α ] = [4, 11] 238 D Tafeln Quantile der F m,n -Verteilung zum Niveau β = 0.95, 0.975 m n 1 2 3 4 5 6 7 8 20 50 β 1 161.4 18.51 10.13 7.71 6.61 5.99 5.59 5.32 4.35 4.03 0.950 1 647.8 38.51 17.44 12.22 10.01 8.81 8.07 7.57 5.87 5.34 0.975 2 199.5 19.00 9.55 6.94 5.79 5.14 4.74 4.46 3.49 3.18 0.950 2 799.5 39.00 16.04 10.65 8.43 7.26 6.54 6.06 4.46 3.97 0.975 3 215.7 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.10 2.79 0.950 3 864.2 39.17 15.44 9.98 7.76 6.60 5.89 5.42 3.86 3.39 0.975 4 224.6 19.25 9.12 6.39 5.19 4.53 4.12 3.84 2.87 2.56 0.950 4 899.6 39.25 15.10 9.60 7.39 6.23 5.52 5.05 3.51 3.05 0.975 5 230.2 19.30 9.01 6.26 5.05 4.39 3.97 3.69 2.71 2.40 0.950 5 921.8 39.30 14.88 9.36 7.15 5.99 5.29 4.82 3.29 2.83 0.975 6 234.0 19.33 8.94 6.16 4.95 4.28 3.87 3.58 2.60 2.29 0.950 6 937.1 39.33 14.73 9.20 6.98 5.82 5.12 4.65 3.13 2.67 0.975 7 236.8 19.35 8.89 6.09 4.88 4.21 3.79 3.50 2.51 2.20 0.950 7 948.2 39.36 14.62 9.07 6.85 5.70 4.99 4.53 3.01 2.55 0.975 8 238.9 19.37 8.85 6.04 4.82 4.15 3.73 3.44 2.45 2.13 0.950 8 956.7 39.37 14.54 8.98 6.76 5.60 4.90 4.43 2.91 2.46 0.975 20 248.0 19.45 8.66 5.80 4.56 3.87 3.44 3.15 2.12 1.78 0.950 20 993.1 39.45 14.17 8.56 6.33 5.17 4.47 4.00 2.46 1.99 0.975 50 251.8 19.48 8.58 5.70 4.44 3.75 3.32 3.02 1.97 1.60 0.950 50 1008.1 39.48 14.01 8.38 6.14 4.98 4.28 3.81 2.25 1.75 0.975 Weitere Quantile ergeben sich mittels F n,m,p = 1 F m,n,1 − p Beispiel D.4: Ablesebeispiel f¨ ur die F -Verteilung: Beidseitige Entscheidungsgrenzen zum Niveau γ = 0.9 und Freiheitsgraden m = 2; n = 6 sind zu bestimmen. Mit F 2,6,0.95 = 5.14 F 2,6,0.05 = 1 F 6,2,0.95 = 1 19.33 = 0.05173 erh¨alt man die gesuchten Grenzen. 0 . 5 γ = 1 − 2p F m,n; p F m,n; 1 − p Bild D.2 Literaturverzeichnis 239 Literaturverzeichnis [1] Beichelt, F.: Stochastik f¨ ur Ingenieure. Teubner, Stuttgart 1995 [2] Beucher, O.: Wahrscheinlichkeitsrechnung und Statistik mit MATLAB. Springer- Verlag, Berlin/ Heidelberg/ New York 2004 [3] Bosch, K.: Elementare Einf¨ uhrung in die angewandte Statistik. 4. Aufl., Vieweg- Verlag, Braunschweig 1987 [4] Bosch, K.: Statistik-Taschenbuch. Oldenbourg Verlag, M¨ unchen 1992 [5] Hartung, J.: Statistik. Oldenbourg Verlag, M¨ unchen/ Wien 1999 [6] Heinhold, J.; Gaede, K-W.: Ingenieur-Statistik. 4. Aufl., Oldenbourg Verlag, M¨ unchen 1979 [7] Henze, N.: Stochastik f¨ ur Einsteiger. Vieweg-Verlag, Braunschweig/ Wiesbaden 1997 [8] Kreyszig, E.: Statistische Methoden und ihre Anwendungen. 7. Aufl., Vandenhoeck & Ruprecht, G¨ottingen 1979 [9] Pfanzagl, J.: Allgemeine Methodenlehre der Statistik, Teil II. 5. Aufl., Walter de Gruyter, Berlin 1978 (Sammlung G¨oschen) [10] Rinne, H.; Mittag, H.: Statistische Methoden der Qualit¨atssicherung. 3. Aufl., Carl Hanser Verlag, M¨ unchen/ Wien, 1995 [11] Rinne, H.; Mittag, H.: Prozeßf¨ahigkeitsmessung. Carl Hanser Verlag, M¨ unchen/ Wien 1999 [12] Sachs, L.: Angewandte Statistik. 8. Aufl., Springer-Verlag, Berlin/ Heidelberg/ New York 1997 [13] Schlittgen, R. und Streitberg, B.: Zeitreihenanalyse. Oldenbourg Verlag, M¨ unchen/ Wien 2001 [14] Stahel, W.: Statistische Datenanalyse. 3. Aufl., Vieweg-Verlag, Braunschweig/ Wiesbaden 2000 [15] Storm, R.: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische Qualit¨atskontrolle. 10. Aufl., Fachbuchverlag Leipzig, Leipzig/ K¨oln 1995 240 INDEX absorbierend, 223 Abstand, mittlerer, 11 Abstandsquadrate, 12 Abweichungsquadrate, 151 Additionssatz, 217 Alternativhypothese, 102 Annahmekontrolle, 173 anordnen, 205 Anpassungstest, 137 Test auf Normalverteilung, 142 Test auf Poisson-Verteilung, 141 Test einer Verteilungsfunktion, 140 Test von Wahrscheinlichkeiten, 138 arithmetisches Mittel, 5, 8 Augensumme, 46 Ausgangsmenge, 211 Ausgleichsgerade, 17, 25 Ausgleichsparabel, 28 Ausreißer, 6, 15, 159 ausw¨ahlen, 205 Autokorrelation, 31 Autokorrelationskoeffizient, 32 Baumdiagramm, 63, 205 Bestimmtheitsmaß, 19, 30 Binomialkoeffizient, 64, 206 Binomialverteilung, 63, 69, 70, 75, 108, 157 Approximation durch N (μ, σ 2 )- Verteilung, 84 Erwartungswert, 65 kritische Werte, 237 Varianz, 65 Binomischer Lehrsatz, 207 Bootstrapping, 168 Konfidenzintervall, 169 Regression, 170-172 Box-Plot, 10, 149 Buffonsches Nadelproblem, 48 χ 2 -Anpassungstest, siehe Anpassungstest χ 2 -Unabh¨angigkeitstest, 144 χ 2 -Verteilung, 86, 107, 111, 121, 144, 145 Erwartungswert der, 87 Quantile der, 235, 237 Varianz der, 87 CL, 174, 175, 178-180 C p -Wert, 182, 184 C pk -Wert, 183 CUSUM-Karte, 189 Datentransformation, 13 De Morgansche Regel, 214 Dichtefunktion, 56, 61, 81 Differenz, 214, 215 disjunkt, 52, 215 disjunkte Zerlegung, 220 Dominospiel, 210 Drei-Sigma-Regel, 82 Durchschnitt, 215 Eingriffsgrenze, 174, 175 Elementarereignis, 51, 212 Ereignis, 212, 216 sichere, 213 unabh¨angige, 219 unm¨ogliche, 81, 213 Ereignisalgebra, 214 Ereignismenge, 51 Ergebnismenge, 211 erwartungstreu, 93 Erwartungswert, 56, 58 einer diskreten ZV, 53, 54, 56 einer stetigen ZV, 56 EWMA-Karte, 187 Exponentialverteilung, 73 Extrapolation, 8, 38, 40 Extremwertkarte, 178 F -Verteilung, 89, 151, 155, 156 Index INDEX 241 Erwartungswert der, 89 Quantile der, 238 Varianz der, 89 Fehler erster Art, 101, 190 zweiter Art, 101, 190 Fehlerfortpflanzung, 62 Gaußsche Fehlerfortpflanzung, siehe Fehlerfortpflanzung Gaußsche Glockenkurve, 49, 65, 75, 77 Gegenereignis, 217 geometrische Verteilung, 66 Erwartungswert, 67 Varianz, 67, 68 geometrische Wahrscheinlichkeiten, 47 geometrisches Mittel, 7, 8 Gesetz der großen Zahlen, 43 gewichtete Mittel, 8 Gl¨attungsparameter, 187 gleitende Durchschnitte, 37, 40 Glockenkurve, siehe Gaußsche Glockenkurve Graph, 221 Grundgesamtheit, 1 G¨ utefunktion, 115 H¨aufigkeit, 42, 49 absolute, 42 relative, 42, 43 H¨aufigkeitstabelle, 21 harmonisches Mittel, 7, 8 Histogramm, 3, 4, 49, 77, 79 Hypothese, 101 Hypothesentest, 189 Irrfahrt, 222, 225 mittlere Dauer, 223, 225 Irrtumswahrscheinlichkeit, 175 k-Stichprobe, 205 Klassenbreite, 4 Klasseneinteilung, 4, 49, 77 Klassenh¨aufigkeit, 4 Kombinatorik, 204 Komplement¨arereignis, 213 Komplement¨armenge, 215 Komponente glatte, 34, 37, 40 zyklische, 34 Komponentenmodell, 33 Konfidenzintervall, 118 Bootstrapping, 169 einseitiges, 120 f¨ ur λ, 124 f¨ ur λ (ein Wert), 125 f¨ ur μ, 119, 120 f¨ ur σ 2 , 121 f¨ ur p, 122, 123 f¨ ur Median, 167 f¨ ur Regressionsgerade, 127 Konjunkturkomponente, 33 konsistent, 93 Konsumentenrisiko, 190, 192, 200-203 Kontingenztafel, 146, 147 Kontrollgrenze, 182 Kontrollkarte, 173 mit Ged¨achtnis, 186 Koordinatentransformation, 29 Korrelation, 16 lineare, 17 Korrelationskoeffizient, 18-20, 22, 27 Rang-, 20 Korrelogramm, 32, 33 Kovarianz, 26 empirische, 18 LCL, 174, 175, 178, 180, 181, 185 Lebensdauerverteilungen, 72 242 INDEX lineare Abh¨angigkeit, 18 lineare Transformation, 14, 57, 78 logistische Funktion, 35, 36 Lognormalverteilung, 85 Lotto, 207, 208 LSL, 174, 182 LWL, 174, 175, 178, 180, 185 Maß, 48 Macht, 115 Markow-Ketten, 221 Maximum-Liklihood-Methode, 97 geometrische Verteilung, 97 Normalverteilung, 99 Poisson-Verteilung, 98 Median, 6, 13, 165 Median-Karte, 173, 178 Merkmale diskrete, 211 klassifikatorische, 2 qualitative, 3 quantitative, 3 Rang-, 2 stetige, 211 Merkmaltypen, 2 Mittel arithmetisches, 5, 8 geometrisches, 7, 8 gewichtete, 8 harmonisches, 7, 8 winsorisierte, 9 Mittelwert, 5, 13 bei Klasseneinteilung, 5 Mittelwertkarte, 173, 174 Mittelwertsregel, 225 mittlerer Abstand, 11-13 Muster, 189 Normal-Plot, 133, 135 Normalverteilung, 81 Dichtefunktion, 81 Erwartungswert, 75 Varianz, 75 Verteilungsfunktion, 81 Nullhypothese, 102, 175 OC-Funktion, 191 Operationscharakteristik, 116, 190, 191 p-Karte, 173, 185 Parametersch¨atzung, 93 Pfadregel, 218, 223 Poisson-Verteilung, 69, 70, 157 Erwartungswert, 71 Varianz, 71 Power, 115 Pr¨ ufkennlinie, 191 Pr¨ ufplan, 193 Attributpr¨ ufung, 189, 203 messende Abnahmepr¨ ufung, 196, 203 zweistufiger, 195 Pr¨ ufung abgebrochene, 195 sequentielle, 196 Preissteigerungsrate, 8 Produktregel, 218 Produzentenrisiko, 190, 192, 200-203 Prognose, 23 Prognose-Intervall, 130, 162 Prozessf¨ahigkeit, 181, 182 Prozesskontrolle, 173 Prozessniveau, 183, 185, 198, 199 Qualit¨atskontrolle, 173 Quantil-Quantil-Diagramm, 135 Quantile, 9 Quartil, 11 R-Karte, 173, 181 INDEX 243 Rang, 20 Rang-Korrelation, siehe Spearmansche Rang-Korrelation Rang-Transformation, siehe Transformation Rangmerkmale, 2 Regression, 16, 23 Bootstrapping, 170-172 empirische, 23, 24 lineare, 127 zweiter Art, 24 Regressionsanalyse, 131 Regressionsgerade, 25-27, 39, 127 Vertrauensintervall f¨ ur die, 127 Regressionskoeffizient, 26 Regressionskurve, 29 Regressionspolynom, 28 Reihenh¨alftung, 35, 39 Residuen, 28, 128, 131 Restfehler, 156 Restkomponente, 33 Roulette, 68 mittlere Spieldauer, 68 mittlerer Einsatz, 68 Verdoppelungsstrategie, 68 Run, 189 s-Karte, 173, 179 Saisonbereinigung, 38 Saisonkomponente, 33, 37 Saisonl¨ange, 37 Saisonnormale, 39, 41 Sch¨atzwerte f¨ ur Anteil, 95 f¨ ur Erwartungswert, 82, 95 f¨ ur Parameter der Regression, 128 f¨ ur Varianz, 82, 96 f¨ ur Wahrscheinlichkeit, 94 Schwarzsche Ungleichung, 19 Signifikanzniveau, 175 Signifikanztest, 100, 107 Skalarprodukt, 18 Spannweite, 176 SPC, 173 Spermannsche Rang-Korrelation, 20 Stabdiagramm, 3, 53 Standardabweichung, 11, 13 einer diskreten ZV, 54, 56 einer stetigen ZV, 56 Standardisierung, 78 Standardnormalverteilung, 78, 231 Dichte, 78, 80 Quantile, 233 Verteilungsfunktion, 80, 81 stetige Zufallsgr¨oßen, 49 Stichprobe, 1, 2, 91 bivariat, 16 geordnet, 205, 206, 208 mit Zur¨ ucklegen, 205 ohne Zur¨ ucklegen, 205 ungeordnet, 205, 206, 209 verbundene, 147, 158 Stichprobenanzahl, 116 Stichprobenplan, 173 Stichprobenraum, 211 Streubereich, 102 Streudiagramm, 16, 19, 21 Streuungsmaße, 10 Streuungsparameter, 54 Student-Verteilung, 88, 106, 120 Quantile der, 234 Varianz der, 88 Summenh¨aufigkeit, 53 Summenregel, 218, 223 t-Verteilung, siehe Student-Verteilung Teilmenge, 215 Test der Differenz zweier μ, 110, 113 244 INDEX der Differenz zweier p, 114 der Varianz, 107 der Wahrscheinlichkeit, 108 des Erwartungswertes, 105, 106 des Medians, 165 verteilungsfreier, 163 Toleranzbereich, 182 Toleranzgrenze, 160, 182 Toleranzintervall, 160, 162 totale Wahrscheinlichkeit, 220 Transformation, 157 Arcus-Sinus-, 132, 157 lineare, 13, 57 logarithmische, 14, 132, 157 nichtlineare, 60 Rang-, 15, 20 Wurzel-, 14, 132, 157 Trend, 189 Trendgerade, 34, 37, 39 Trendkomponente, 33 Treppenfunktion, 53 UCL, 174, 175, 178-181, 185 ¨ Ubergangsmatrix, 222, 228, 229 ungew¨ohnliche Messwertfolgen, 189 Urwertkarte, 178 USL, 174, 182 UWL, 174, 175, 178-180, 185 Varianz, 11, 13, 56, 58 einer diskreten ZV, 54, 56 einer stetigen ZV, 56 Varianzanalyse doppelte, 153, 155 einfache, 148 Rang-, 158 Vereinigung, 215 Verteilungsfunktion, 53, 55, 60 Vertrauensintervall, siehe Konfidenzintervall Vierfeldertafel, 144, 145 Vorlauf, 175 Vorzeichentest, 163 Wachstumsvorg¨ange, 35 Wahrscheinlichkeit, 42, 43 axiomatische, 216 bedingte, 219 geometrische, 47 klassische, 44, 45 totale, 220 Wahrscheinlichkeitsdichte, 56 Weibull-Verteilung, 73, 74 winsorisierte Mittel, 9 x-Karte, 173 ˜ x-Karte, 173, 178 ¯ x-Karte, 173, 174 Z¨ahlprinzip fundamentales, 204 Zeitreihe, 31 saisonbereinigte, 39 Zeitreihenanalyse, 31, 41 Zufallsexperimant, 211 Zufallsprozess, 221 Zufallsvariable, 51 diskrete, 52 normierte, 57 stetige, 55 Summe von ZV, 57, 83 Zufallszahlen, 92 Zustand absorbierend, 223 innerer, 223 Zwei-Sigma-Regel, 82 Zyklen, 33
