Durchschnitt, Varianz und Verzerrung
Jede Messung x_i einer wahren Größe μ kann als x_i = μ + β + ε_i geschrieben werden, wobei β der systematische Fehler (Verzerrung, konstant über Messungen) und ε_i der zufällige Fehler (verschieden für jede Messung, aus einer Verteilung mit Mittelwert 0 gezogen) ist.
Zufälliger Fehler: E[ε_i] = 0, Var[ε_i] = σ². Das Probenmittel x̄ = (1/n) Σ x_i hat den erwarteten Wert μ + β und eine Varianz von σ²/n. Wenn n → ∞, x̄ → μ + β (nicht μ). Der zufällige Fehler geht zur Null; die Verzerrung bleibt bestehen.
Systematischer Fehler: β ≠ 0, konstant. Das Mittelwert jeder Anzahl von Messungen ist μ + β. Um Verzerrung zu entfernen, brauchen Sie Kalibrierung (eine unabhängige Messung von β), nicht mehr Wiederholungen.
Geometrisch: Stellen Sie sich die Verteilung der Messungen als Glockenkurve vor. Der zufällige Fehler bestimmt die Breite (Varianz). Der systematische Fehler bestimmt die Position des Zentrums (der Mittelwert ist um β von der wahren Größe verschoben).
Die angegebene Unsicherheit in einer Messung ist normalerweise eine Schätzung von σ (nur zufälliger Fehler). Wenn β groß und nicht erkannt, ist die angegebene Unsicherheit sinnlos - es quantifiziert den Lärm in einer verzerrten Vorrichtung.
Berechnung von Bias gegen Varianz
Ein Labor misst die Gravitationskonstante g. Seine Vorrichtung hat einen systematischen Kalibrierfehler von β = +0,05 m/s². Ihre zufällige Messunsicherheit beträgt σ = 0,02 m/s². Sie nehmen n = 100 Messungen vor.
Wahre Größe: g = 9,80 m/s².
Wie Fehler durch Rechnungen gehen
Wenn Sie eine Größe z = f(x, y) aus gemessenen Größen x und y berechnen, gehen deren Messfehler in z über.
Ausbreitungsfunktion (erste Taylor-Expansion):
σ²_z ≈ (∂f/∂x)² σ²_x + (∂f/∂y)² σ²_y
(Dies unterstellt, dass x und y unabhängig voneinander gemessen wurden. Wenn sie korreliert sind, addieren Sie 2 · (∂f/∂x)(∂f/∂y) · Cov(x,y).)
Schlüsselerkenntnis: Die partiellen Ableiten wirken als Verstärker. Wenn ∂f/∂x groß ist, führen kleine Fehler in x zu großen Fehlern in z.
Das bedeutet, dass das Wahl eines Rechenverfahrens, das die partiellen Ableiten minimiert, ein echtes ingenieurliches Ziel ist - nicht nur eine algorithmische Bequemlichkeit. Hamming war sich dieser Tatsache in seiner numerischen Analyse bewusst.
Ausbreitung durch ein Produkt
Sie messen zwei Längen: L₁ = 10,0 m ± 0,1 m (σ₁ = 0,1) und L₂ = 5,0 m ± 0,2 m (σ₂ = 0,2). Sie berechnen die Fläche A = L₁ × L₂.
Wenn Daten zu gut passen
Chi-squared-Güte-Test: Gegeben n Beobachtungen O_i und Modellvorhersagen E_i, berechne:
χ² = Σ (O_i − E_i)² / E_i
Wenn das Modell korrekt ist und die Messungen eine Varianz E_i haben, beträgt der erwartete Wert von χ² ungefähr ν = (Anzahl der Datapunkte) − (Anzahl der angepassten Parameter), genannt Freiheitsgrade.
Das reduzierte Chi-Quadrat χ²/ν sollte ungefähr 1,0 betragen, wenn die Daten zum Modell mit der erwarteten Menge an Streu passen.
- χ²/ν >> 1: Daten variieren mehr als erwartet - Modell ist falsch, oder Unsicherheiten werden unterschätzt.
- χ²/ν << 1: Daten variieren weniger als erwartet - arglistig saubene.
Das verdächtige Fall: Wenn deine Messungen eine σ = 0,1 haben, aber die Daten alle innerhalb ±0,01 der Modellkurve liegen, hat jemand selektiv die 'guten' Messungen beibehalten. Dies ist Bestätigungsvorurteil: Daten, die nicht übereinstimmen, aussortieren und Daten, die übereinstimmen, aufbewahren.
Hamming zitiert Millikans Öltropfen-Experiment: Die Nobelpreis-verliehene Messung der Elektronenladung. Spätere Analyse der Laborbücher von Millikan zeigte, dass er unbekannt gebliebene Urteile angewendet hat, um 'Ausreißer'-Messungen zu verwerfen - und die beibehaltenen Messungen passten arglistig gut.
Berechne und deute reduziertes Chi-Quadrat
Ein Student passt ein lineares Modell y = ax + b an 10 Datapunkte an, schätzt dabei 2 Parameter (a und b). Die angegebene Messunsicherheit für jeden Punkt beträgt σ = 0,5. Die Residuen (O_i − E_i) von der Passung sind: 0,08, −0,12, 0,05, −0,09, 0,11, −0,07, 0,04, −0,03, 0,10, −0,06.