un

guest
1 / ?
back to lessons

Die zentrale Frage

Hamming eröffnete im Kapitel 19 mit einer direkten Zitat aus der 1975 Summer Computer Simulation Conference:

> Da Entscheidungen von Bedeutung auf Simulationen angewiesen sein müssen, ist es unerlässlich, ihre Gültigkeit zu prüfen und ihre Befürworter aufzufordern, den Grad der authentischen Darstellung zu beschreiben, den sie erreicht haben.

Seine Formulierung der gleichen Frage, scharfer:

> Warum sollte jemand die Simulation relevant finden?

Stellen Sie diese Frage nicht vor dem Beginn einer Simulation zur Seite. Oft gibt es praktische Druckmittel, sofort zu berechnen - Zeit, Geld, organisatorische Dynamik. Diese Druckmittel ändern die Frage nicht.

Hamming's Erfahrung: Wenn er Gültigkeitsfragen an Simulationsmodelle stellte, wurden die Antworten immer auf:

- Die eingesetzte Arbeitskraft

- Die Größe und Geschwindigkeit des Computers

- Die Bedeutung des Problems

Keine dieser Antworten betrifft die Gültigkeit. Es handelt sich um soziale Argumente, nicht um technische.

Die Raumfahrt-Geschichte: Ein Simulationsleiter behauptete eine 99,44%-ige Zuverlässigkeit für Starts. Hamming stellte die Frage: Zuverlässigkeit von was? Nachdem er in die Ecke getrieben wurde, gab der Leiter zu, dass seine Zahl die Zuverlässigkeit der Simulation, nicht den tatsächlichen Flug betreffe. Er räumte auch ein, dass der NASA-Direktor, der die Starts genehmigte, diesen Unterschied nicht verstand - und er hatte das Missverständnis nicht korrigiert.

Die Verwechslung von Simulationszuverlässigkeit mit Systemzuverlässigkeit gehört zu den gefährlichsten Fehlern im Ingenieurstudium.

Was tatsächlich eine Validierung erfordert

Hamming hat eine Checkliste für die Bewertung der Simulationszuverlässigkeit zusammengestellt. Jede Frage muss beantwortet werden, bevor die Simulationsergebnisse Entscheidungsverantwortung tragen:

1. Stützt die zugrundeliegende Theorie die angenommenen Gesetze? Physikalische Simulationen basieren auf verifizierten Gleichungen; ökonomische Simulationen tun das oft nicht.

2. Könnte ein kleiner, aber entscheidender Effekt fehlen? Das Beispiel des Pilotentrainings: ausgezeichnet für bekannte Physik; gefährlich, wenn ein neuer Flugzeugtyp Wechselwirkungen hat, die noch nicht eingebunden wurden.

3. Ist die Eingabedaten verlässlich? Unsicherheiten in den Eingaben werden durch Berechnungen vererbt. Weiß man, woher die Daten kommen.

4. Ist die Simulation stabil oder instabil? Unstabile Richtungsfelder verstärken Eingabefehler; stabile dämpfen sie.

5. Welche Kreuzkontrollen zu bekannten Erfahrungen stehen zur Verfügung?

6. Können interne Kontrollen erzeugt werden? Erhaltungssätze für Masse, Energie, Drehimpuls oder andere Invarianten. Ohne Redundanz ist keine Fehlererkennung möglich.

7. Werden die Zeichen auf dem Papier genau in die Maschine eingegeben? Programmfehler bestehen Jahre lang in Produktionscode. Eine automatisierte Kartenleser, die Reaktionsbeschreibungen in Differenzialgleichungen übersetzte - Hamming's Lösung für die Atmosphärenchemie-Simulation - reduziert Transkriptionsfehler ohne auf menschliche Wachsamkeit angewiesen zu sein.

Sie werden gebeten, eine Simulation vor ihrer Verwendung zur Entscheidungsfindung in einer bedeutenden ingenieurtechnischen oder politischen Frage zu überprüfen. Verwenden Sie Hamming's Checkliste, um die beiden Validierungsfragen zu identifizieren, die Sie als Erste priorisieren würden, und erklären Sie, warum diese beiden am wichtigsten sind, um die gefährlichsten Fehlerklassen zu erfassen.

Hamming's Gesetz der Ökonomik

Physiksimulationen basieren auf verifizierten, mathematisch ausgedrückten Gesetzen. Chemie-Simulationen benötigen verifizierte Reaktionskonstanten. Biologie-Simulationen benötigen bekannte Populationsdynamiken.

Ökonomie hat nach Hamming's Ansicht nur ein zuverlässiges Gesetz: man kann nicht mehr verbrauchen, als produziert wird. Jedes andere behauptete ökonomisches Gesetz ist entweder eine mathematische Tautologie oder manchmal falsch.

Die Implikation für Simulationen: wenn die zugrunde liegenden Gesetze nicht zuverlässig gelten, ist die gesamte Grundlage der Simulation verdächtig. Hohe Genauigkeit in der Berechnung kompensiert nicht für unzuverlässige Gesetze im Modell.

Hamming's Antwort, als man ihn fragte, um ökologische Simulationen durchzuführen: Er bat um mathematisch ausgedrückte Regeln für jeden Interaktionstyp, mit numerischen Konstanten, und um reale Daten, um Testläufe gegenüberzustellen. Die Anfragenden fanden bald jemanden, der bereit war, 'sehr fragwürdige Simulationen durchzuführen, die die gewünschten Ergebnisse liefern würden.'

Hamming's Regel: Halten Sie Ihre Integrität. Erlauben Sie sich nicht, für andere Leute Propaganda zu sein. Weigern Sie sich, Simulationen durchzuführen, die strukturiert darauf ausgerichtet sind, eine Schlussfolgerung zu bestätigen.

Simpson-Paradox in Simulationen

Hamming's Berkeley-Geschichte: Mehr Männer als Frauen wurden fürs Studium aufgenommen, was Diskriminierung nahelegte. In keinem einzelnen Departement zeigte sich Diskriminierung. Die Erklärung: Frauen bewarben sich überwiegend in Departementen mit niedrigen Aufnahmewerken; Männer bewarben sich überwiegend in Departementen mit hohen Aufnahmewerken. Die aggregierte Statistik war real und irreführend.

Dies ist der Simpson-Paradox: Die Kombination von Daten kann Wirkungen erzeugen, die in keiner Untergruppe vorhanden sind. Simulationen, die Daten über Gruppen, Regionen oder Zeiträume aggregieren, können denselben pathologischen Zustand zeigen.

Simulationen, die das Modellieren ändern, was sie modellieren

Eine besondere Klasse von Simulationsschäden: das Subjekt ändert sein Verhalten in Reaktion auf das Modell.

Börsenmarkt-Beispiel: Wenn ein weit verbreitetes Handelsstrategie zuverlässig Renditen über dem Markt erzeugt, werden die Teilnehmer sie anwenden und die Konkurrenz wird den Überschuss an Rendite eliminieren. Der Erfolg des Modells zerstört die Gültigkeit des Modells.

Medizinisches Beispiel: Doppelverblindete Experimente existieren, weil Ärzte, die wussten, welche Patienten behandelt wurden und welche Placebo erhielten, eine Verbesserung dort fanden, wo sie sie erwartet hatten. Die Kenntnis der Ärzte verunreinigte die Beobachtung.

Simulationen für Entscheidungen von hoher Bedeutung - Wirtschaftspolitik, militärische Planung, öffentliche Gesundheit - haben dieses Problem, wenn die Simulationsergebnisse öffentlich bekannt gemacht werden oder das Verhalten beeinflussen.

Hamming schrieb: 'Sehr ernsthaft sind viele Simulationen nichts anderes als Rorschach-Tests.' Er bezog sich auf Jay Forrester's Zugeben, dass er zwischen Annahmen und Systemverhalten hin- und herzyklierte, bis das Modell die gewünschten Ergebnisse lieferte. Welche spezielle Sicherung in der wissenschaftlichen Praxis ist dazu da, um diesen Klass von selbstbestätigenden Simulationen zu verhindern, und warum ist diese Sicherung schwer anzuwenden in der Simulationarbeit?

Probenahme & Genauigkeit

Die Nyquist-Satz legt eine grundlegende Einschränkung für die digitale Simulation kontinuierlicher Systeme fest: man benötigt mindestens zwei Proben pro Periode der höchsten Frequenz im Signal.

In der Praxis stellte Hamming fest, dass einseitige Probennahme und Aliasung die Anforderung auf sieben bis zehn Proben pro Periode der höchsten Frequenz erhöht, die von Interesse ist.

Genauigkeitskompromiss: Analogrechner (in Hamming's Zeit) erreichten eine Genauigkeit von höchstens einem Teil von 10.000 pro Komponente. Digitale Computer können beliebige Genauigkeit wiedergeben. Aber digitale Genauigkeit erfordert ausreichende Probennahme - und für Signale mit scharfen Hochfrequenzinhalten treibt diese Probennahme die Rechenaufwände.

Analogvorteil: Geschwindigkeit und physische Integration. Man kann ein physisches Bauteil direkt in den Analogschaltkreis einbinden und dessen Verhalten messen, ohne eine mathematische Beschreibung dafür zu finden. Bei den frühen Entwürfen für Lenkflugkörper ermöglichte dies einen schnellen Eindruck vom System, bevor ein vollständiges mathematisches Modell existierte.

Die Analogmaschinen, die für den frühen Flugkörperbau verwendet wurden, stammten von Teilen des M9-Geräteregisters. Hamming baute einen Differenzialanalyser aus solchem Material. Lösungszeit: etwa 30 Minuten pro Trajektorie. Dieser Tempo zwang tiefgründiges Denken zwischen den Laufzügen - eine Einschränkung, die Hamming als strukturelles Vorteil betrachtete.

Gefühl vs Genauigkeit: Das Mars-Lander-Problem

Hamming stellte eine scharfe Entwurfsfrage: Für einen Mars-Lander-Flugsimulator sollte der Simulator für Positionsgenauigkeit oder für das Gefühl des Fahrzeugs optimiert werden?

Klassische numerische Analysis optimiert die Positionstrajektorie mit lokalen polynomischen Näherungen. Der Weg ist genau, aber die Beschleunigung ändert unvermittelt an jedem polynomischen Intervall - ein unnatürliches Gefühl.

Frequenzbereichsmethoden optimieren die Frequenzantwort des Simulators. Die Position mag weniger genau sein, aber der Pilot wahrnimmt die dynamische Reaktion des Fahrzeugs korrekt. Die Muskelmemory des Piloten bildet sich an der richtigen Übertragungsfunktion.

Hamming's Urteil: Ein Pilotentrainer sollte sich für das Gefühl optimieren. Während des tatsächlichen Fluges kann der Pilot Positionsfehler über Rückkopplungskontrolle ausgleichen. Wenn das Gefühl falsch ist, wurde der Pilot für ein Fahrzeug geschult, der nicht existiert.

Das tiefer liegende Prinzip: Die Wahl der numerischen Methode kodiert eine Behauptung darüber, was in der Simulation wichtig ist. Diese Behauptung ist eine urteilsabhängige Entscheidung und nicht eine mathematische.

Die klassische Diskussion zwischen numerischer Analysis und Frequenzbereich bei dem Mars-Lander-Simulator zeigt Hamming's breiteres Argument: Die Wahl der Simulationsmethode kodiert eine implizite Behauptung darüber, wofür die Simulation verwendet wird. Wählen Sie eine Simulation aus Ihrem Bereich. Was behauptet die standardmäßige numerische Methode am wichtigsten? Ist diese Behauptung für die Entscheidungen richtig, die die Simulation unterstützen wird?