Die Messung des Unmessbaren. Vertrauen, Validierung und die soziale Organisation der Simulationsmodellierung
Zusammenfassung der Projektergebnisse
Computersimulation ist zu einem Standardinstrument der Natur- und Ingenieurwissenschaften geworden. Simulationsmodelle helfen dabei, Theorien in konkrete Anwendungskontexte einzupassen. Sie sind enorm anpassungsfähig und sie können mit sehr großen Datenmengen umgehen. Die interessantesten Fälle sind diejenigen, in denen Simulationen nicht lediglich bekannte Daten oder Phänomene reproduzieren, sondern in empirisches Neuland vorstoßen, wo Vergleichsdaten gerade nicht verfügbar sind. In vielen Fällen können Modelle auch dann Vorhersagen machen, wenn empirische Evidenz gar nicht erreichbar ist. In solchen Fällen wird per Simulation das Nichtmessbare gemessen. Ausgehend von dieser Beobachtung fragt das Projekt danach, wie in solchen Fällen Simulationsmodelle validiert werden und wie die Forscher Vertrauen in sie aufbauen, erhalten und rechtfertigen. Es hat sich herausgestellt, dass selbst dann, wenn Forscher Größen simulieren wollen, die sie nicht messen können, die Übereinstimmung mit gemessenen Daten das wichtigste Kriterium für die Validierung ist. Obwohl in solchen Fällen zum Zeitpunkt der Simulation die Daten bereits vorliegen, gilt der Abgleich dieser Daten als Proxy für den Vorhersageerfolg. Auf dieser Grundlage neigen die Forscher dazu, darauf zu vertrauen, dass ihre Modelle auch Fälle simulieren (extrapolieren) können, die nicht messbar sind. Dieses Vertrauen beruht jedoch nicht nur auf dem Vorhersageerfolg, d. h. der Übereinstimmung mit vorhandenen Daten, sondern zusätzlich auch auf theoretischen Überlegungen, die eine Extrapolation plausibel machen. Ein dritter Faktor erwies sich ebenfalls als wesentlich, nämlich die Software. Da viele relevante Anwendungen umfangreichen Code erfordern, ist die Qualität des Codes ein wichtiger Faktor. Die Forscher vertrauen auf lang etablierte Softwarepakete. Natürlich müssen sie bestehenden Code ändern und ergänzen. In der Regel gilt: Je weniger Änderungen, desto mehr Vertrauen. Dies ist ein wichtiger Unterschied zu Konzepten der Validierung, die vorschreiben, wie man gültigen Code erstellen sollte. Heute verlassen sich Simulationswissenschaftler eher auf etablierten Code, als dass sie solchen Code erstellen - ein Effekt der Arbeitsteilung. Das Bild wird jedoch durch die einstellbaren Parameter eines Modells kompliziert. Die wichtigste Erkenntnis aus dem Projekt betrifft diesen Punkt: anpassbare Parameter haben sowohl positive als auch negative Auswirkungen auf Validierung und Vertrauen. Die Forscher müssen also ein prekäres Gleichgewicht finden. Sofern sie eine Übereinstimmung mit den Daten erreichen, schaffen Parameter Plastizität, was ein Vorteil ist. Aber es gibt auch eine Kehrseite, denn der Anpassungsprozess schafft Abhängigkeiten zwischen den verschiedenen Komponenten des Modells. Dies hat zur Folge, dass theoretische Überlegungen über das Modellverhalten und die Analyse der funktionalen Rolle von Teilmodulen schwierig oder gar unmöglich werden. Kurz, praktische Verwendbarkeit und Validierung laufen einander entgegen. Das Projekt hat neue Wege beschritten, weil es Fälle aus den Ingenieurwissenschaften untersucht hat, in denen die Modelle in gegebenen Kontexten funktionieren müssen, und weil es die philosophische Forschung in die wissenschaftliche Forschung eingebunden hat.
Projektbezogene Publikationen (Auswahl)
-
Reproducibility of atomistic friction computer experiments: a molecular dynamics simulation study. Molecular Simulation, 47(18), 1509-1521.
Stephan, Simon; Dyga, Maximilian; Alabd, Alhafez Iyad; Lenhard, Johannes; Urbassek, Herbert M. & Hasse, Hans
-
A transformation of Bayesian statistics:Computation, prediction, and rationality. Studies in History and Philosophy of Science, 92, 144-151.
Lenhard, Johannes
-
Proof, Semiotics, and the Computer: On the Relevance and Limitation of Thought Experiment in Mathematics. Axiomathes, 32(S1), 29-42.
Lenhard, Johannes
-
The Law of Large Numbers. Edgar Zilsel’s Attempt at the Foundation of Physical and Socio-Historical Laws. Vienna Circle Institute Yearbook, 121-142. Springer International Publishing.
Lenhard, Johannes & Krohn, Wolfgang
-
Traveling with TARDIS. Parameterization and transferability in molecular modeling and simulation. Synthese, 201(4).
Lenhard, Johannes & Hasse, Hans
-
A child of prediction. On the History, Ontology, and Computation of the Lennard-Jonesium. Studies in History and Philosophy of Science, 103, 105-113.
Lenhard, Johannes; Stephan, Simon & Hasse, Hans
-
Die Dominanz der Vorhersage. Der Computer und die Organisationsform der Wissenschaften. In: Hashagen, U., Seising, R. (eds.) Algorithmische Wissenskulturen: Der Einfluss des Computers auf die Wissenschaftsentwicklung. Springer Vieweg. To appear in 8/2024
Lenhard, J.
-
Kultur oder Regime? Der Computer und die Organisationsform der Wissenschaften. In: Hashagen, U., Seising, R. (eds.) Algorithmische Wissenskulturen: Der Einfluss des Computers auf die Wissenschaftsentwicklung. Springer Vieweg. To appear in 8/2024
Lenhard, J.
