Nutzerkonto

Claus Pias: Zur Epistemologie der Computersimulation
Zur Epistemologie der Computersimulation
(S. 41 – 60)

Zur Horizonterweiterung behandelbarer Probleme

Claus Pias

Zur Epistemologie der Computersimulation

PDF, 20 Seiten

Sehr geehrte Damen und Herren!

Gestatten Sie mir eine kurze Vorbemerkung, um Ihnen1 zu erklären, was ich eigentlich mache. Ich bin Medienwissenschaftler. Aber es ist nicht sehr klar, was eigentlich Medienwissenschaft ist. Tatsächlich handelt es sich wohl weniger um ein Fach als um eine Art Bewegung oder ein vielleicht ein Paradigma. Gesprächsweise versucht man als Medienwissenschaftler darum oft disziplinäre Anhaltspunkte zu geben, etwa: »Ja, es ist so etwas wie Philosophie, aber…«, »ja, es ist so etwas wie Wissenschaftsgeschichte, aber…«, »ja, es hat auch was mit Film oder Literatur, mit Bildern oder dem Internet zu tun, aber…«, ganz nach der akademischen Herkunft des Gesprächspartners. Sie mögen jetzt denken, dass sich das nach einer Wissenschaft für »Alle und Keinen« (Nietzsche) anhört und haben damit wahrscheinlich sogar recht. Ich möchte aber zwei gängige Vorurteile ausräumen. Das erste, dass es sich bei Medienwissenschaft um Publizistik bzw. empirische Sozialforschung handelt; das zweite, dass es um Film- und Fernsehwissenschaft geht. Beides sind wohl Erscheinungsformen von Medienwissenschaft. Die Publizistik entstand Anfang des 20. Jahrhunderts aus der Wirtschaftswissenschaft heraus und feierte große Erfolge während des Nationalsozialismus und in den Jahrzehnten danach. (Über die Gründe dafür möchte ich hier nicht sprechen.) Die Methoden dieser Wissenschaft sind quantitativ, mit einer Orientierung in Richtung Soziologie und Politikwissenschaften. Sie sind eher gegenwartsbezogen. Ihr Verständnis von Theorie ist, grob gesagt: Theorie ist Systematisierung von Forschungsabläufen. Die Film- und Fernsehwissenschaft entstand nach 1968 aus einer Krise des Wissenschaftsverständnisses heraus. Durch die Kopplung von Ästhetik, Technik und Ideologiekritik, aber auch im Hinblick auf medienpraktische und medienaktivistische Arbeit, entdeckte sie das Politische des Alltags und der Popkultur und erhob bislang nicht-reputierte Phänomene in den Rang ernst zu nehmender wissenschaftlicher Gegenstände. Ihre Methoden sind hermeneutisch-werkorientiert bzw. philologisch, psychoanalytisch, feministisch oder sozialgeschichtlich inspiriert.

Mit beiden Wissenschaften habe ich nichts zu tun. Was ich mache, ist eine Form von Medienwissenschaft, die in den 1980er Jahren entstanden ist und sich als historische Epistemologie versteht. Einfach gesagt, geht es um den Zusammenhang von Medien und Wissen. Etwas ausführlicher formuliert, um die Frage, wie Symboliken, Apparate, Institutionen und Praktiken an der Konstitution, Zirkulation, Verarbeitung und Speicherung von Wissen beteiligt sind. Die Sache wird dadurch freilich einigermaßen problematisch: denn einerseits kann der Gegenstandsbereich kaum eingeschränkt werden, weil ja jedes Wissen vermittelt ist und es wahrscheinlich nichts gibt, was nicht auch als Medium untersucht werden könnte. Andererseits ist doch sehr unklar, wie das methodisch zu bewerkstelligen sein soll. Wenn man nun davon ausgeht, dass jede akademische Disziplin darauf gründet, entweder ihre Gegenstände oder ihre Methoden einzuschränken, dann ist Medienwissenschaft keine Disziplin.2 Sie ist eher so etwas wie eine Diskursstrategie. Sie rückt damit in die Nähe von Dekonstruktion und feministischer Theorie, weil auch diese einen bereits laufenden wissenschaftlichen Diskurs voraussetzen und nicht als autonome Disziplinen funktionieren. Sie sind Parasiten und nur als solche produktiv.

Positiv lässt sich das so wenden: Medienwissenschaft ist keine Disziplin, sondern eine Fragestellung. Sie fragt nach den medienhistorischen Bedingungen von Wissen und Erkennen. Diese Frage kann nicht nur in verschiedenen Wissensgebieten auftauchen, sondern sie muss es, weil sie ja ein gewisses Maß an disziplinärem Wissen voraussetzt, um überhaupt gestellt werden zu können. Mehr noch: Medientheorie findet bereits in allen möglichen Disziplinen und Wissensgebieten statt – und zwar ohne, vor und neben akademischer Medienwissenschaft. Es gäbe demnach z.B. eine literaturwissenschaftliche Frage nach Medien, aber auch eine kunstgeschichtliche, eine medizinische, eine informatische usw., die zunächst nur aus der Literaturwissenschaft, aus der Kunstgeschichte, aus der Medizin oder aus der Informatik heraus gestellt werden kann. Insofern ist Medienwissenschaft ein Unternehmen zur Infektion oder Anstiftung, die Dinge aus einem bestimmten, anderen Winkel zu betrachten. Damit ist sie nicht nur eine Chance, die Betriebsblindheiten von Wissenschaften in den Blick zu bekommen. Sie ist auch eine Option, miteinander reden zu können, weil man über die Disziplinen hinweg durch die gleiche Frage miteinander verbunden ist.

Ich will nicht verschweigen, dass dieser freischwebende Status zwischen den Stühlen oder im Orbit der klassischen Disziplinen problematisch ist. Mindestens so problematisch wie der umgekehrte Status von Medienwissenschaft als Disziplin, als die sie sich inzwischen etabliert hat und zu den begehrtesten Studienfächern an deutschsprachigen Universitäten gehört. Oder mit Helmut Schelsky gefragt: »Ist Dauerreflexion institutionalisierbar?« Das sind Überlegungen, mit denen ich mich gerade viel beschäftige, die aber hier nicht hergehören. Halten wir also einfach nur fest: Mein Interesse ist eine Mediengeschichte der Wissenschaften, die Veränderungen des Wissens durch wechselnde mediale Techniken und Technologien registriert.

Leider bin ich nicht so wohlsortiert wie meine Vorredner, sondern gebe heute nur den Blick auf einen unaufgeräumten Schreibtisch frei. Fühlen Sie sich daher bitte nicht mit Gewissheiten konfrontiert, sondern in Überlegungen einbezogen.

Das Terrain, das ich seit einiger Zeit umkreise und in das ich an verschiedenen Stellen eingebrochen bin, um einige Beutestücke zu ergattern, heißt Simulation. Von den jungen Geisteswissenschaftlern erwarte ich nun ein stirnrunzelndes: »O je – das ist ja ein Rückfall in die späten 80er oder frühen 90er und mindestens so out wie Baudrillard oder Medienkunst mit Datenhandschuhen!« Ja, das stimmt, aber genau deshalb müssen wir neu darüber sprechen lernen. Denn das Thema Computersimulation (und ich meine hier ausschließlich wissenschaftliche Simulationen) scheint schon angesichts von mehreren Tausenden lieferbarer Bücher zu diesem Thema von kaum zu unterschätzender wissenschaftlicher und praktischer Bedeutung. Trotzdem ist es wissenschafts- und medienhistorisch nicht aufgearbeitet. Es gibt nicht mehr als ein gutes Dutzend Aufsätze über den epistemischen Status von Computersimulationen und es reicht eine einzelne Hand, um die medien- oder wissenschaftshistorischen Studien abzuzählen, die einmal exemplarisch aufgearbeitet haben, wie sich eine einzelne Wissenschaft durch Computersimulation im Lauf der letzten 50 Jahre verändert hat.

Um es kurz zu machen: Ich glaube, dass man in Computersimulationen eine epistemische Erschütterung von erheblichem Ausmaß beobachten kann – eine Erschütterung, angesichts derer Joseph Licklider sich in den 1960ern nicht scheute, sie mit der Bedeutung des Buchdrucks für die Wissenschaften zu vergleichen. Was ich heute mache, ist – wie gesagt – eher eine Zettelwirtschaft, in der drei Dinge zur Sprache kommen sollen: erstens ein Vorschlag, was an Computersimulationen interessant sein könnte; zweitens ein Beispiel, wie sich Simulationsansätze verändern und wie sie in den Wissenshaushalt einer Disziplin eingreifen, und drittens ein Kommentar zu bestimmten theoretischen und konzeptuellen Konjunkturen innerhalb der Science Studies – oder, präziser gesagt, dazu, warum bestimmte geisteswissenschaftliche Theorien wohl nur unter bestimmten technologischen Bedingungen entstehen.

Ende der 40er Jahre erklärte der Mathematiker und Computerkonstrukteur John von Neumann in kleinem Kreise die Epochen der »Ähnlichkeit« und der »Repräsentation« für beendet und diejenige der »Simulation« für angebrochen. Kaum ein Jahrzehnt später eröffnete der Ingenieur und Psychologe Abraham Moles eine zehnbändige Technik-Enzyklopädie mit der Feststellung, dass die Wissenschaft des 20. Jahrhunderts zu einer Wissenschaft der Modelle geworden sei.3 Damit wäre der historische Horizont einer Archäologie unserer Gegenwart abgesteckt, in der sich zahlreiche Wissenschaften – implizit oder explizit – in Computerwissenschaften verwandelt haben. Ob in Physik, Chemie oder Biologie, ob in Elektrotechnik, Maschinenbau oder Raumfahrt, ob in Rüstungs-, Populations- oder Klimaforschung, ob in Politik, Ökonomie oder Soziologie: Man vermag kaum mehr einen Forschungsbereich zu nennen, der nicht essentiell von Verfahren der Simulation abhängig wäre.

Worum geht es? Ich gebe die hier die VDI-3633 Definition, die genauso gut ist wie die meisten geisteswissenschaftlichen Definitionen: »Nachbilden eines Systems mit seinen dynamischen Prozessen in einem experimentierfähigen Modell, um zu Erkenntnissen zu gelangen […]. Insbesondere werden die Prozesse über die Zeit entwickelt.« Für meinen Zweck bezeichnet Simulation eine Summe von Praktiken und Wissensformen, die sich durch den Computer als Medium seit 1945 in verschiedenen Wissenschaften herausgebildet haben.

Zugestanden: am Rechner simulierte Crashtests sind etwas anderes als agentenbasierte Simulationen in der Epidemiologie, die etwas anderes sind als numerische Experimente in der Turbulenzforschung oder Teilchenphysik. Aber mein Interesse gilt generell – also vor der dringend notwendigen Hinwendung zu einzelnen Disziplinen und Anwendungsbereichen – erst einmal einem epistemologischen Umbruch, der weder von der Wissenschaftsgeschichte noch von der philosophischen Wissenschaftstheorie angemessen gewürdigt wird. Das Bewusstsein für die Veränderungen durch Simulation ist tatsächlich in den betroffenen Einzelwissenschaften deutlich höher entwickelt, was ganz gut zu meiner These passt, dass interessante Medientheorie jenseits der akademischen Medienwissenschaft stattfindet.

Ein paar Dinge möchte ich zunächst zur existierenden Forschung über den Gegenstand sagen, um daran meine eigenen Hypothesen anzuschließen.

Peter Galison hat angesichts der Entwicklung von Monte Carlo-Methoden eine Veränderung vom »computer-as-tool« zum »computer-as-nature« ausgemacht.4 Seine These, die auch in meine Richtung führt, ist, dass nicht bloß virtuelle Umgebungen für Computer-Experimente entstanden sind, sondern zugleich so etwas wie eine gemeinsame medientechnische Infrastruktur verschiedenster Wissenschaften, die er »trading zone« nennt. Disziplinen sind, so Galison, weniger durch verschiedene »objects of inquiry« getrennt als durch gemeinsame »strategies of practice« verbunden. Ein dritter Punkt, der mich an Galisons Ansatz ebenfalls interessiert, ist, dass mit Computersimulationen eine neue Klasse von analytisch oder experimentell schwer (oder gar nicht) zugänglichen Problemen behandelbar wird, die ohne entsprechende Rechenleistung nicht behandelbar gewesen wären. Verschiedentlich ist daher von einer dritten Kategorie zwischen oder neben Theorie und Experiment die Rede, von »digital laboratory« (Martina Merz),5 »simulability« (Thomas Lippert)6 oder »Möbiusband« (Gabriele Gramelsberger).7

Michael Gibbons hat in seinem Buch The New Production of Knowledge den Unterschied zwischen »mode 1«- und »mode 2«-Wissenschaften gemacht.8 Der für »mode 1« prototypische Begriff des Wissenschaftlichen als Abgrenzung zum Nicht-Wissenschaftlichen ist, so das Argument, einer spezifischen Form der Wissensproduktion vorbehalten, die sich an der experimentellen und mathematischen Mechanik Newtons orientiert und dann im weiteren an Physik und physikalischer Chemie. Newtons Mechanik schafft dabei nicht nur die Ablösung von der Substanzmetaphysik (d.h. die Abtrennung von Naturlehre und Philosophie), sondern führt die Identifikation der mathematischen mit der wahren Theorie ein. Kategorien wie Exaktheit und Beweisbarkeit lassen sich damit aus der Mathematik in die Wissenschaften übertragen und lenken die Aufmerksamkeit auf die objektiv-logischen Zusammenhänge des wissenschaftlichen Satzsystems und ihrer Nachprüfbarkeit, wie sie dann später von Popper rekonstruiert werden. Das Bild von der exakten Wissenschaft liegt mithin in der Mathematisierung von Wissenschaft begründet.

Diese Rede von der exakten Wissenschaft wurde nun in zweierlei Hinsicht problematisch. Zum einen, da die exakten, im Sinne von formalen, Beschreibungen an ihre Grenzen stoßen, zum anderen, weil mathematische Exaktheit nur einem Teil von formalisierten Modellen vorbehalten bleibt, nämlich denjenigen, die über eine analytische Lösung verfügen. Die numerischen Lösungsverfahren sind jedoch Approximationen an die exakten Lösungen und von daher ist die Methode der Simulation nicht nur durch hypothetische und heuristische Aspekte gekennzeichnet, sondern auch durch eine prinzipielle Nicht-Exaktheit, mit der sie zugleich den Horizont der behandelbaren Probleme erweitern.9 Morgan und Morrison haben Simulationen daher als »mediating instruments between theory and experiment« bezeichnet, die einen teilweise autonomen Raum eröffnen mit »elements of theories and empirical evidence, as well as stories and objects which could form the basis for modelling decisions«.10

Aber ich will hier keinen Literaturbericht machen, sondern nur andeuten, dass Computersimulationen vielleicht so etwas wie das Attribut einer »postmodernen« Wissenschaft rechtfertigen.11 Damit ist hier nur gesagt, dass ihre Wissensproduktion nicht von ihren medientechnischen Bedingungen zu lösen ist.12 Oder noch einfacher ausgedrückt: es geht um die historische Entwicklung und systematische Bedeutung von Umständen, also von Rechnerarchitekturen, Rechenleistung, Algorithmen, Programmierumgebungen, Image Processing, Interaktivität usw. für die Genese und Geltung wissenschaftlichen Wissens. Ich glaube, dass man die Sache praktisch nur durch gezielte historische Studien zu einzelnen Wissenschaften in den Griff bekommt. Solche Studien brauchen wir!

Das schließt aber nicht aus, sondern ein, dass man zumindest einige Arbeitshypothesen aufstellen kann, mit denen man sich der Sache nähert – Hypothesen, die man ja auch revidieren oder wieder verwerfen kann. Ich möchte vier nennen, die vielleicht überspitzt sein mögen, aber den Blick auf interessante Regionen lenken.

Erstens trennt sich in Computersimulationen die Performanz des Modells von der Genauigkeit der Berechnung. Provokativ formuliert könnte man sagen, dass Computersimulationen durch die Einbringung unrealistischer Elemente realistischer werden können, d.h. ein Systemverhalten richtig vorhersagen, obwohl gegen gewisse theoretisch abgesicherte Annahmen verstoßen wird. Küppers und Lenhard haben dies an »Arakawa’s computational trick«, einem Beispiel aus der Klimaforschung, verdeutlicht. Der Hintergrund: Norman Philips war es 1955 gelungen, ein umfassendes Modell der Atmosphärendynamik (General Circulation Model oder GCM) auf einem Rechner zu implementieren. Dabei zeigte sich, dass diese Dynamik nur wenige Wochen simulierter Zeit stabil blieb, bis sich die Strömungsmuster in Chaos auflösten. Da man gegen kein Naturgesetz verstoßen hatte, machte man Rundungsfehler verantwortlich. Anders Arakawa: »er [ging] von der Erhaltung der kinetischen Energie in der Atmosphäre aus, obwohl klar war, dass diese Energie durch Reibung in Wärme umgesetzt wird, also definitiv nicht erhalten wird. Mehr noch, die Dissipation war vermutlich gerade von Bedeutung dafür, dass die wirkliche Atmosphäre eine so stabile Dynamik aufweisen konnte. Physikalisch argumentiert kann man sagen, dass Arakawa mit der Erhaltung der kinetischen Energie künstlich das Anwachsen der Instabilitäten begrenzt hat. […] Während die meisten [Forscher] glaubten, eine möglichst genaue Lösung der Grundgleichungen finden zu müssen, unternahm Arakawa einen zusätzlichen Modellierungsschritt, der sich nicht aus der physikalischen Basis ableitete, sondern nur im Nachhinein, durch die Ergebnisse der Simulationsläufe, als gelungene Imitation gerechtfertigt werden konnte.«13 In diesem Sinne kann man vielleicht sagen, dass es eine Art partieller Autonomie der Simulation gibt, in der die Verbindung zwischen der gelingenden Imitation von Systemverhalten und dem physikalischen Wissen über dieses System brüchig wird.14

Zweitens kann man vielleicht sagen, dass es in Computersimulationen weniger um Gesetze als um Regeln geht. Darin drückt sich die Nähe der Simulation zum Spiel aus. Angesichts der Probleme komplexer nichtlinearer Phänomene erlauben Computersimulationen so etwas wie provisorische Erkenntnisstrategien. Um einen Eindruck vom Verhalten eines komplexen Systems zu bekommen, arbeitet man mit den Parametern der Simulation und lässt die Sache wie ein Computerspiel – denn davon reden wir hier: von Computerspielen – mehrfach durchlaufen, oft erheblich mehr auf der Basis von trial and error als auf der von first principles. »A successful parameterization requires understanding of the phenomena being parameterized, but such understanding is often lacking. […] How best to parameterize various processes is a contentious subject among modelers and model analysts.«15 Darüber hinaus kann man bemerken, dass viele Simulationen stark in einen Anwendungskontext eingebunden sind, d.h. von einer Art Balance leben: Gegenüber dem System, dessen Verhalten sie imitieren, müssen sie reduzieren und abstrahieren, gegenüber Gesetzen und erhofften »first principles« jedoch müssen sie anreichern und konkretisieren, um operational zu bleiben. Simulationen operieren mit Regeln im Horizont konkreter Aufgaben und das heißt nicht nur bezüglich wechselnder historischer Anforderungen, sondern auch hinsichtlich eines operationalen Umgangs mit Nichtwissen. Die Regel erweist sich also als Form, in der etwas streng genommen Nichtverstandenes trotzdem behandelbar ist. Eine Vielfalt von Regeln ersetzt – oder übersteigt – dabei eine kleine Zahl von reduktionistischen Gesetzen und verwandelt Computersimulationen in Fallstudien. Man könnte auch mit Bernd Mahr sagen, dass sich zahlreiche Wissenschaften in (System-)Verhaltenswissenschaften transformiert haben.16

Drittens scheint mir, dass es in Simulationen nicht um Beweise, sondern um die Demonstration von Adäquatheit geht. Das betrifft zunächst die grundsätzliche Frage, was Simulationen eigentlich beweisen. Selbst wenn etwa die physikalischen Gesetze bekannt sind, sind ihre Implikationen in komplexen Systemen nicht vorhersagbar, und auch ein deterministisches Modell kann auf kleinste Störungen und winzige Veränderungen chaotisch und nichtlinear reagieren. Die Entfaltung in der Laufzeit ist daher für Simulationen essentiell. Lässt sich anhand von Durchläufen einer ausreichend validierten Simulation demonstrieren, dass sie das Verhalten eines Systems hinsichtlich bestimmter Aspekte adäquat imitiert, ist damit jedoch im klassischen Sinne noch nichts bewiesen. Konkurrierende Simulationsmodelle können, womöglich unter Zuhilfenahme ganz anderer Regeln, das Gleiche auf verschiedenen Wegen leisten. Dies hängt, beispielsweise in der Klimaforschung, damit zusammen, dass Phänomene simuliert werden, die sowohl analytisch wie experimentell nur schwer oder gar nicht zugänglich sind. Genauer und mehr noch: Simulationen eröffnen erst genau diese Problemklasse. Die Adäquatheit eines einzelnen Modells wiederum kann nicht bewiesen, sondern nur demonstriert werden. Darüber hinaus wiederholt sich die Frage nach Adäquatheit oder Beweisbarkeit auch innerhalb der Simulation: dass sich etwa eine approximierte Lösung, speziell durch die Verfeinerung der Auflösung, an die »Wirklichkeit« annähert, ist nicht beweisbar. Der Diskretisierungstest (also die probeweise Verdopplung der Auflösung) ist, wie der Name sagt, kein Beweis, sondern nur ein praktischer Test auf Stetigkeit und Konvergenz. Und schlimmer noch: Immer wieder treten bei der Erhöhung der Auflösung Phänomene auf, die nicht dagewesen wären, hätte man die Auflösung nicht erhöht, und die ziemlich lästige Fragen nach Skalierungsproblemen aufwerfen.17

Viertens ist die Erfolgsgeschichte der Computersimulation nicht vorstellbar ohne die Entwicklungen der Computergrafik (Computer Generated Imagery oder CGI). Deren Erforschung – zumindest in der frühen Phase in den 1960er Jahren – fand in einem Zwischenreich zwischen Kunst und Wissenschaft statt. Die Komplexität und Datenmengen, die durch Computersimulationen verwaltet werden, übersteigen die Fähigkeiten menschlicher Betrachter und sind durch die Medien Schrift und Zahl nicht mehr zu bändigen. So schrieb der bereits zitierte Joseph Licklider: »Patchcords in the one hand and potentiometer knob in the other, the modeler observes through the screen of an oscilloscope selected aspects of the model’s behaviour and adjusts the model’s parameters (or even varies the structure) until its behaviour satisfies his criteria. To anyone who has had the pleasure of close interaction with a good, fast, responsive analog simulation, a mathematical model consisting of mere pencil marks on paper is likely to seem a static, lifeless thing.«18 Ausgehend von dieser leidenschaftlichen Schilderung kann man vielleicht sagen, dass die Wissenskultur der Simulation sich der Hegemonie des dynamischen Bildes unterstellt hat.

Dabei lassen sich drei Dinge auseinanderhalten: (a) Computer Generated Imagery im Rahmen wissenschaftlicher Forschung, das ist: Reduktion von Komplexität durch bestimmte Darstellungsmodi für kundige Forscheraugen, die sich aus pragmatischen, interessegeleiteten Gründen ergeben; (b) so etwas wie die effektivere Steuerung oder ein intuitives Feintuning von Parametern bei run-time-Szenarien durch Visualisierung, das ist: graphische Benutzerschnittstellen, interaktive Parametrisierung, graphic programming usw.; (c) die Vermittlung oder »politische Ikonograhie« von Computersimulationen, das ist: veröffentlichte Bilder, die sich erheblich von Bildern in forschungsinternen Kontexten unterscheiden können.

Das wären also die vier für mich interessanten Punkte. Hinsichtlich des Materials, zu dem wir jetzt kommen, muss ich eine Sache vorausschicken. Obwohl eine große Menge, wahrscheinlich die meisten, Simulationen so genannte Discrete Event Simulations, ereignisorientierte Computersimulationen sind,19 scheint es mir im Hinblick auf meine vier Hypothesen sinnvoller, heute auf Agent Based Computer Simulations (ABCS) zu schauen. Jedenfalls habe ich meine Beispiele aus diesem Bereich gewählt, weil der mediale Eigensinn hier sehr viel deutlicher hervortritt und mein Versuch einer »Epistemologie der Computersimulation« anschaulicher wird.

Nach diesem anstrengenden Teil wechseln wir nun in den chill out-Modus und ich zeige Ihnen ein Beispiel. Ein Beispiel ist, wie ich gesagt habe, aus systematischen Gründen nötig. Denn man kann, glaube ich, nicht über »die« Simulation sprechen, sondern nur über bestimmte Arten von Simulationen. Viele Verwirrungen scheinen mir daher zu rühren, dass »Simulation« ein Sammelbegriff für sehr verschiedene Dinge ist, deren Familienähnlichkeit sich erst noch herausstellen müsste.

Lassen Sie mich dazu bei einem Thema anfangen, das historisch kaum erforscht ist, nämlich bei jenen Management-Simulationen und Business-Games, deren jüngste Filiationen überall in heutigen Unternehmen und in Wirtschafts-Studiengängen eingesetzt werden. Ich möchte dabei auf ein ganz bestimmtes Paradigma des Programmierens von Simulationen hinweisen, nämlich die sogenannte Objektorientierung als Ausgangspunkt für agentenbasierte Simulationen. Was mich interessiert, sind also weniger die inhaltlichen Probleme, als vielmehr die Weisen, Probleme informatisch und das heißt: medientechnisch zu konzeptualisieren und zu implementieren.

Entstanden sind die Management-Simulationen in den späten 1950er Jahren als Derivate militärischer Kriegsspiele. Genauer gesagt: sie entstanden, als die American Management Association (AMA) das Naval War College besichtigte und sich zum Aufbau eines eigenen »war college for business executives« entschloss.20 Diesem Anfang werde ich hier ebenso wenig nachgehen wie der raschen Entwicklung und Verbreitung solcher Simulationen an den großen Wirtschaftsuniversitäten und Konzernen. Der entscheidende Punkt für mich sind die mittleren 60er Jahre, in denen der Computer begann, eine zentrale Stelle einzunehmen – die Jahre in denen theoretische Konzepte aus Soziologie, Psychologie oder Kulturanthropologie importiert wurden und in denen jene informatischen Denkweisen und Tools neu entwickelt wurden, die die Forschung bis heute bestimmen. Den Gegenstand solcher Simulationen bilden unscharfe Problemlagen wie Werbe-Budgets, Verkaufsstrategien oder Produkteinführungen. Studium dynamischen Systemverhaltens, Behandlung von Ungewissheit, Erforschung systemischer Sensitivitäten und heuristische Verfahren zur Findung annähernd optimaler Strategien – dies etwa kennzeichnet das damalige Verständnis und das Versprechen von Computersimulationen.

Mein Beispiel dafür, wie dies konkret gemacht wurde, welche Konzepte und welches Wissen diese Simulationen kennzeichnen, stammt von Arnold E. Amstutz, der seit den späten 50ern an mikroanalytischen Verhaltenssimulationen arbeitete. Deren Ziel war es, zu erforschen, wie man die »attitudes and beliefs« von Kunden für bestimmte Produkte und Firmen beeinflussen kann. Die grundlegende Annahme war, dass Verhaltenssteuerung nur durch Überredung oder Verführung, durch eine Art »indirekten Regierens«, beispielsweise der Wahlkampf- und Werbeindustrie, möglich sei. Am Anfang steht die Modellentwicklung. Ein erster Schritt setzt die Makro-Spezifikationen: einen einfachen, linearen Zusammenhang etwa von Hersteller, Vertrieb, Verkäufer und Kunde. Mehrere weitere Schritte machen die Sache dann komplexer. Hier werden Behörden und Mitbewerber eingeführt; dort Waren- und Informationsflüsse getrennt; an einer anderen Stelle ein Feedback installiert; kurzum: die Grundlagen für nichtlineares Systemverhalten werden gelegt. Und zuletzt, nach mehreren Schritten dieser Art, kommt ein Flussdiagramm heraus, das das Netzwerk der Dependenzen verzeichnet, die es nun in Programmcode zu übersetzen gilt.

Jede der Boxen des Flussdiagramms implementiert und codiert bestimmte theoretische Annahmen, beinhaltet also nicht nur eine Entscheidung darüber, was man zu wissen glaubt, sondern vor allem darüber, was man nicht wissen muss. Simulationen sind dadurch gekennzeichnet, dass sie operational mit Nichtwissen umgehen können und dessen reflektierte Abschätzung einfordern. Ich meine damit insbesondere, dass alles, was zum simulierten System gehört, irgendwie parametrisiert werden muss, eine erfolgreiche Parametrisierung aber wiederum ein Verständnis der Phänomene erfordern würde, das meist nicht gegeben ist. (Hier nicht, und erst recht nicht in den »härteren« numerischen Simulationen etwa der Klimaforschung.) Die Simulationspraxis arbeitet daher unendlich viel mehr mit trial and error als mit first principles – so groß die Hoffnung auf Letztere auch sein mag. Mit implementierten Annahmen meine ich dabei solche Konzepte wie das von Paul Lazarsfeld stammende »like-dislike«-Schema, oder auch heuristische Kurven zur »attitude«, also zur Produkteinstellung. Solche Kurven gehen beispielsweise von der Annahme aus, dass ab einer bestimmten positiven Stimmung der Kaufreiz exponentiell zu steigen beginnt. Liebhaber von Apple-Produkten oder italienischem Schuhwerk kennen das sicherlich.

Steht das Programm erst einmal, werden mehrere Simulationsdurchläufe gestartet, die Ergebnisse ausgedruckt und analysiert. Ein Protokollausdruck verzeichnet dann etwa einen Durchlauf der Version 3 vom 4. April 1965 über 1400 Stunden. Die Simulation ist (das ist der entscheidende Punkt, auf den ich noch zurückkomme) proto-objektorientiert oder auch proto-agentenbasiert.21 Der Ausdruck beschreibt die Woche 117 im Leben des virtuellen Konsumenten Nr. 109. Er stammt aus New England, lebt in einem Vorort, ist 25–35 Jahre, hat ein Einkommen von 8–10.000 $ und eine College-Ausbildung. Er besitzt seit 6 Jahren ein Gerät der Marke 3 und kauft gerne bei Händler 5, 11 und 3. Er konsumiert die Massenmedien 1, 4, und 9, 10, 11, 12 und hat bestimmte Konsumpräferenzen. Weil es eben eine Simulation ist, erlaubt sie, seinen vollständigen Bewusstseinsinhalt auszulesen, wie ein Windows-System nach dem Absturz: »memory dump«. Er ist Werbung ausgesetzt, die unterschiedlichen Eindruck auf ihn macht, und er redet mit Freunden und Nachbarn (Agenten 93, 104 und 117). Irgendwann ist er zum Kauf entschlossen, hat ein virtuelles shopping-Erlebnis und wird $ 38,50 los, obwohl der Verkäufer sich kaum um ihn bemüht! Er erzählt es seinen Freunden – und muss es bald wieder vergessen lernen, damit er erneut zum Käufer werden kann.

Was fängt man nun mit so etwas an? Was macht man mit solchen Clustern künstlicher Narrative, mit diesem wuchernden Datenmaterial eines synthetisch oder generativ gewordenen Strukturalismus? Natürlich zunächst nichts anderes als Statistiken. Sie sehen so aus, als handelten sie vom Verhalten realer Kundschaften, und sollen dieses seltsame, prekäre Wissens validieren, das Simulationsdurchläufe produzieren. Verhält sich das simulierte System so ähnlich wie ein vergleichbares realweltliches, für das belastbare Daten vorliegen? So wie beispielsweise im militärischen Bereich simuliertes Maschinengewehrfeuer die gleiche Verteilung aufweisen muss wie die Zielscheiben auf realen Schießständen? Oder so wie in der Teilchenphysik simulierte Detektoren die gleichen Teilchenspuren aufweisen müssen wie reale Detektoren in Beschleunigern? Oder wie simulierte Rote Riesen (red giants) so aussehen müssen wie die teleskopischen Bilder von Roten Riesen, die selbst schon aus theoretisch hoch aufgeladenen Daten simuliert werden?

Dieser Validierungsprozess jedenfalls besteht aus einem Wechselspiel von Sensitivitätsanalysen und Modellrevisionen. Das geht z.B. ganz einfach über »curve fitting«, d.h. man legt ein aus Simulationsdurchläufen gewonnenes und graphisch dargestelltes Systemverhalten über die Darstellung eines empirisch gewonnenen und dargestellten Systemverhaltens. Wenn sich die Kurven gleichen, gilt die Simulation als »richtig«, aber deswegen eben noch lange nicht im emphatischen Sinne als »wahr«. (Zumal ja auch schon die Vergleichskurve nur für erzogene Augen evident aussieht, aber selbstredend ein mathematisch aufgeladenes und graphisch hergerichtetes Konstrukt ist, eine historische Erfindung.) Sprich: wir haben es nicht mit einer dualistischen Erkenntnisweise zu tun, sondern mit einer differentiellen. Es geht nicht darum, zu einem »Grund« der Dinge vorzudringen, an dem vielleicht Gesetze warten, sondern es reicht im Rahmen einer erkenntnistheoretischen Entlastung schon, dass sich zwei systemische Zusammenhänge gleich verhalten – aus welchem Grund auch immer.

Das alles sieht für unsere heutigen, von Second Life gelangweilte Augen belanglos aus, war es 1965 aber keineswegs. Denn die wissenschaftlichen und informatischen Beschreibungssprachen für Systeme dieser Art wurden zu jener Zeit erst geprägt. Sie arbeiten seitdem, wie alle Sprachen und Aufschreibesysteme, am Denken mit.22 Ich zitiere hier nur Dahl und Nygard, deren Programmiersprache »Simula« die vielleicht berühmteste ist:

»Bei vielen […] Aufgaben stellte sich heraus, dass es um die gleichen methodologischen Probleme geht: die Notwendigkeit, Simulationen zu benutzen, das Bedürfnis nach Konzepten und einer Sprache zur Systembeschreibung, das Fehlen von Werkzeugen zur Herstellung von Simulationsprogrammen. ›SIMUlation LAnguage‹ stellt einen Versuch dar, dieser Herausforderung im Hinblick auf Netzwerke von diskreten Ereignissen zu begegnen«.23

Interessanterweise durchzieht die Metaphorik von »Kunden« und »Stationen« die Konzepte von Dahl und Nygaard, die fernab des Managements in ganz anderen Kontexten entstanden. Man ist fast verleitet zu sagen, dass im Inneren von Simula selbst eben ein »business« herrscht, das strukturell auf alle möglichen anderen Bereiche des Verkehrs verschiedener Agenten übertragbar ist.24 Die Autoren nennen als Anwendungsbeispiele von Systembeschreibungssprachen etwa Produktionsabläufe, administrative Verfahren, Lagerhaltung, Transportwesen, Reaktorsteuerung, aber auch soziale Systeme, Epidemien oder Krisenmanagement. Und ihr Konzept, das auf diese Forderung rekursiver Datentypen und Wiederverwendbarkeit antwortete, war das der Klassen und Methoden, sprich: die Objektorientierung.

Klassen dienen der Verwaltung gleichartiger Objekte. Denken Sie an die vielen Kunden, die zwar unterschiedlich in Einkommen, Alter und Medienkonsum sind, aber irgendwo auch alle Kunden mit Shoppingbedürfnissen. Klassen sind einfach Vorlagen, aus denen in Laufzeit Objekte erzeugt werden können (sogenannte Instanzen), und es wird festgelegt, wie einzelne Objekte miteinander agieren können. Methoden sind dann einfach die Algorithmen, die Objekten zugeordnet werden und mit Hilfe derer man bestimmt, was die Objekte gegenseitig miteinander anstellen können (Objekt Kunde_1 ruft Methode m von Objekt Kunde_2 auf), und die man kapseln kann, so dass nicht alle alles zu allen Zeiten können.

Gewiss kann man diesem Programmieransatz einen unzeitgemäßen Platonismus vorhalten, da er mithilfe eines überzeitlichen Ensembles von »Ideen« alias Klassen eine Plausibilität des Erkenntnisvorgangs suggeriert, die in der Philosophie längst schon fundamental angezweifelt wurde. Ich bin mir hingegen nicht so sicher, ob nicht gerade die Informatik, die ja die Ontologie aus dem philosophischen Monopol entführt hat und seitdem aktives »ontology design« oder »ontological engineering« betreibt, ob diese nicht gerade den Blick auf eine praxisgeleitete, sprachliche Kategorisierung von Lebens- und Wissensbereichen gelenkt hat. Mir ist hier eher die medienhistorische Produktivität wichtig, mit der gleichzeitig zu wissenschaftssprachlichen Möglichkeiten der Systembeschreibung informatische und operationale Sprachmöglichkeiten der Systembeschreibung erprobt werden.25 Und diese sind seit den 60er Jahren objektorientiert gedacht. Sie bereiten das vor, was heute eben als »agent based«-Simulation verbreitet ist.

Um Ihnen zu zeigen, wie prägend dieses Konzept für die Gegenwart geworden ist und was es epistemologisch bedeutet, komme ich, über einen historischen Zeitraffer, zu meinem zweiten, 40 Jahre jüngeren Beispiel, das aus dem Bereich der Epidemiologie stammt, das ist wörtlich: der Lehre dessen, was auf oder über dem Volk liegt. Modern gesprochen ist Epidemiologie eine Wissenschaft, die sich mit der Distribution von Zuständen und Ereignissen in Populationen beschäftigt, die auch (aber nicht ausschließlich) gesundheitsbezogen sind. Als allgemeine soziale Medizin ist sie keine Wissenschaft des Einzelfalls, sondern widmet sich dem Zusammenhang von Bevölkerung und Gesundheit. Weil die Epidemiologie die Existenzweise des Menschen in einer multifaktoriellen Umwelt voller Einflüsse betrachtet, war ihr Wissen immer schon ein disparates und heterogenes und waren die Zusammenhänge von Korrelation und Kausalität stets problematisch. Bereits in den epidemischen Schriften des Corpus Hippocraticum spielen die Lüfte, Gewässer und Örtlichkeiten, die Lebens- und Arbeitsrhythmen, Ernährung und Ethos eine entscheidende Rolle und lokalisieren die Fragen von Gesundheit und Krankheit in einem räumlichen (endemischen) und zeitlichen (epidemischen) Netz von Umweltbezügen.26 Und zugleich war sie aufs engste mit politischen Fragen verknüpft, weil Epidemien zu Ausnahmezuständen führen, während derer soziale Normen und Zeithorizonte aufgelöst sind, die für sinnvolles Handeln und Erwarten notwendig sind.

Noch das 19. Jahrhundert hatte für diese umweltlichen Zusammenhänge den aufklärerischen Begriff der »Communication« benutzt, der eben nicht nur die Weitergabe von Krankheiten meint, sondern die gesamte Infrastruktur des Verkehrs und Austauschs von Leuten und Dingen beinhaltet. (Eine Bedeutung, die für die Medienwissenschaft viel spannender ist, als etwa der Kommunikationsbegriff der Publizistik.) In diesem Rahmen wurde auch das Bündnis zwischen Epidemiologie und Statistik geschlossen. So hatte bereits William Farr (1801/1838) das von ihm geführte nationale System zur Verzeichnung von Todesursachen statistisch ausgewertet, was nicht zuletzt Marx und Engels zu seinen aufmerksamen Lesern machte, weil seine Studien nicht medizinische Befunde, sondern soziale Zustände entziffern ließen. Farrs Zeitgenosse John Snow sollte dann in seiner Schrift On the Mode of Communication of Cholera (1849 als Aufsatz, dann 1855 als eigene Schrift) jene berühmte Inkunabel der Epidemiologie veröffentlichen: Während der Londoner Cholera-Epidemie der frühen 1850er Jahre hatte Snow die Wohnorte von 500 Todesopfern in Soho auf eine Karte eingetragen und so eine Häufung in der Umgebung bestimmter Brunnen ablesen können. Jeder, der etwa vom Brunnen in der Broad Street getrunken hatte, war infiziert worden. Aufgrund der statistischen Visualisierung war es also möglich geworden, von Korrelation auf Kausalität, sprich: Übertragung durch Trinkwasser, zu schließen und die endgültige Todesziffer auf 616 zu begrenzen.

Die Entdeckung der endogenen Agenten von Infektionen wie Tuberkulose, Cholera, Diphterie oder Typhus durch Pasteur oder Koch in Verbindung mit dem Entstehen einer sozialen Medizin (Virchow hatte natürlich Farr gelesen und selbst auf dem Statistikerkongress von 1855 in St. Petersburg vorgetragen) bedeutete daher einen tiefen Einschnitt in die lange Geschichte der Epidemiologie. Denn die Immunologie versprach gewissermaßen, die Probleme erfolgreicher auf anderem Terrain zu lösen, das heißt: nicht-sozial. Sie schickte sich an, das Problem der Seuche als bakteriologisches im Kontext des Labors behandeln zu können und damit nicht nur einen Ort außerhalb der Problemebene gefunden zu haben, sondern auch eine Möglichkeit der Immunisierung, die keine territoriale Kontrolle mehr nötig macht, sondern freien Raum für Zirkulation und Kommunikation lässt. Dass die Immunologie damit zur politischen Leittechnologie der Gegenwart geworden ist, haben Autoren wie Giorgio Agamben und Roberto Esposito, Jacques Derrida und Philipp Sarasin ausführlich diagnostiziert.

Eine Frage, die jedoch selten, genauer: gar nicht, gestellt wurde, ist, auf welche Weise eigentlich Wissen über die Verteilung und Kalkulation von Risiko produziert und verwaltet wird, welchen epistemologischen Status es besitzt, welche medientechnischen Grundlagen es hat und wie es operationalisiert wird? Was man in verschiedenen Kontexten als Aufkommen eines diffusen Operationsfeldes politischer Macht, als eine Zurückstellung klassischer Politik und »Herrschaft des Occasionellen« (Carl Schmitt), als »Mikrophysik der Macht« (Michel Foucault) oder als ein Regieren in »Milieus« und »Kräftefeldern« (Gilles Deleuze) diagnostiziert hat, basiert nicht zuletzt auf einer medientechnischen Infrastruktur des Wissens.

Für die Epidemiologie jedenfalls blieb – auch angesichts der Herausforderung zwischen einem individuell-klinischen Experimentieren und einer »ganzheitlichen« Beobachtung gesellschaftlicher Kommunikation – der medientechnische Königsweg vorerst noch die Statistik. Der Clou (und dorthin sollte diese historische Miniatur auch nur leiten) scheint mir, dass hinsichtlich der Komplexität von Umweltzusammenhängen, hinsichtlich der Modellierung von Populationen und hinsichtlich der Möglichkeit des Experimentierens mit der Computersimulation eine neue epistemische Qualität entstanden ist. Nicht umsonst hatte ich mein erstes Beispiel aus der Frühzeit agentenbasierter Simulationen gewählt, denn schon dort wurde deutlich, dass hier nicht mehr mit den aggregierten Daten der Statistik gearbeitet wird, sondern mit künstlichen Populationen individuierter Agenten, deren zeitlich entfaltetes Zusammenspiel anschließend künstliche Statistiken, Statistiken zweiter Ordnung gewissermaßen, erlaubt. Und angesichts der Epidemiologie wird vielleicht noch deutlicher, dass es bei der Simulation um ein Wissen geht, das weder experimentell auf dem Labortisch noch analytisch auf Papier gewonnen werden kann. Weder lassen sich nämlich die Kenntnisse um die Ansteckung von Versuchstieren einfach hochskalieren, um Wissen über die Kommunikation der Gesellschaft zu gewinnen, noch lässt sich ein Set allgemeiner Gesetze oder Formeln finden, aus denen dieses Wissen numerisch zu errechnen wäre. Es ist vielmehr eine »anekdotische Komplikation«,27 die die spezifische Erkenntnisleistung der Simulation ausmacht – die Anreicherung einer künstlichen Welt mit Phänomenen, Begegnungen und Umständen, ihrer Bevölkerung mit verschiedensten Agenten und die Entfaltung dieser Komplikation in der Laufzeit des Programms. Das Ausmaß von »Welthaltigkeit« bemisst sich dabei schlichtweg an der Rechenleistung der Systeme, weshalb auch Epidemiologen immer schnellere Rechner fordern. Die agentenbasierte Simulation hebt damit gewissermaßen das Skalierungsproblem zwischen der experimentell-immunologischen Beobachtung im Kleinen und der statistisch-epidemiologischen Beobachtung im Großen auf, das sich im 19. Jahrhundert aufgetan hatte.

1995, also vor fünfzehn Jahren (was für Informatiker eine halbe Ewigkeit ist), entstand am NISAC, einer Kooperation zwischen Los Alamos und den Sandia National Laboratories, eine Simulation namens TranSims, Transportation Analysis and Simulation System, deren Verfasser stolz bekennen: »details matter«. Ziel war es, das Verkehrssystem von Portland, Oregon zu simulieren, und die Methode war natürlich agentenbasiert. Modelliert wurde – ausgehend von Volkszählungsdaten, Straßenkarten und Nahverkehrs-Fahrplänen – nicht nur das gesamte Verkehrsnetz von Portland mit allen Straßen, Bussen, Autos, U-Bahnen, Strom- und Wasserversorgung und insgesamt 180.000 Orten (Schulen, Büros, Kinos, Wohngebäuden etc.), sondern auch eine virtuelle Population von 1,6 Millionen Einwohnern. Alle virtuellen Einwohner gehen dort ihren individuellen täglichen Aktivitäten und Routinen nach, d.h. sie fahren morgens mit dem Auto ins Büro oder abends mit dem Bus zur Nachtschicht, holen mittags ihre Kinder von der Schule ab, verlassen nachmittags die Universität oder gehen abends ins Kino. Dies alles in der prozentualen Verteilung aufgrund statistischen Datenmaterials, im einzelnen Tagwerk jedoch individuell von Agent zu Agent, mit zufälligen und im Einzelfall nicht vorhersagbaren Verspätungen, Ausfällen oder Spontanentscheidungen.

In dieses unsichtbare und kaum überschaubare Gewimmel des Alltags lässt sich nun hineinzoomen. Etwa auf einen Straßenzug, auf eine Autobahnauffahrt oder auf eine einzelne Verkehrsampel, an der sich beobachten lässt, wie die Agenten z.B. versuchen, einen Stau zu umfahren (und dabei vielleicht einen neuen Stau produzieren). Etwa darauf, was die Errichtung einer Baustelle anrichten kann oder wie viele Unfälle ein Stromausfall produziert. Etwa darauf, was die Zusammenlegung zweier Schulen bedeutet oder ob eine geänderte Ampelschaltung den Kohlenmonoxyd-Ausstoß senkt. Und dies funktioniert bis hinab zu jedem einzelnen Agenten und seinem Mobilitätsprofil, dessen Daten im Sekundentakt disaggregiert sind. Von vitalem Interesse ist dabei nicht zuletzt die Sensitivität des Systems, d.h. die Frage, welche Intensität und Reichweite gewisse Ereignisse haben und wie die einzelnen Bestandteile des Systems miteinander agieren.

Es lag nahe, diese Simulation, in der es ja um die Effektivität und Verlässlichkeit eines infrastrukturellen Netzwerks geht, nach 9/11 und im Zuge der Anthrax-Drohungen um Routinen für epidemiologische Krisenszenarien zu erweitern. Diese Simulation heißt nun EpiSims (Epidemiological Simulation System) und koppelt schlichtweg die Übertragung von Personen mit der Übertragung von Krankheiten. Und nun initiiert man eben einen bioterroristischen Anschlag auf die Universität und schaut, wie er sich – im Sinne eines John Snow und nicht im Sinne von massenmedialer Darstellung – »kommuniziert«.

Das gewählte Pockenvirus hat eine Inkubationszeit von 10 Tagen, während derer die Leute erst einmal unschuldig ihren Alltagsgeschäften nachgehen, die zu modellieren ja eben die Stärke dieser Simulation ist. Auch hier geht man von statistischen Daten aus, etwa davon, dass Teenager gerne unter sich sind; oder davon, wie viele Leute tags oder nachts arbeiten und an welchen Orten. Aber man individualisiert alle Wege wieder (wie in TranSims) durch das Agentensystem. Dabei entstehen in Wohnungen oder Kinos, Straßenbahnen oder Restaurants wunderschöne, individuelle Kontaktgraphen für alle 1,6 Millionen Agenten und gewähren »intriguing insights into human social networks«. Die Fragen, die an solche sogenannt »skalenfreien Netze«28 gestellt werden, sind natürlich: Wo sind die Knotenpunkte (oder Hub’s), die man lahmlegen muss, wenn die Sache sich nicht weiter verbreiten soll? Wo könnten »short paths« liegen, die die großen Knotenpunkte umgehen? Wie kritisch ist die Zeit, und ab wann ist die Sache nicht mehr einzudämmen? Und angesichts welcher ökonomischer Kollateralschäden lohnt es sich, schneller reagieren zu können? Setzt man auf Massenimpfungen oder Quarantäne oder gemischte Strategien? Und wo fängt man am besten damit an? Sie sehen an diesem Beispiel, über das man noch manches sagen könnte, wie die Frage der Epidemie und ihrer Simulation unvermeidlich in Fragen des Wissens und der Beschreibung von Gesellschaft und in Fragen von Regierung, Kontrolle und Macht einmündet.

Michel Foucault hat den unterschiedlichen Umgang mit infizierenden Krankheiten als eine Epochenbeschreibung von Gesellschaften entziffert und dabei drei klassische Infektionskrankheiten – Lepra, Pest und Pocken – als Modelle benutzt, um das Funktionieren von Macht zu beschreiben.29 In diesem Sinne ist es wohl mehr als ein schöner Zufall, wenn die gerade gezeigten EpiSims ausgerechnet die Ausbreitung von Pockenviren simulieren. Charakterisierte nämlich nach Foucault das Lepra-Modell die Epoche der »großen Einsperrung« der Devianten und Wahnsinnigen in Asylen, die nach dem Vorbild der Leprosorien geformt waren; und charakterisierte das Pest-Modell den »politischen Traum« der Disziplin und eines überwachten Raums nach dem Vorbild der Pestreglements; so ist es zuletzt das Pocken-Modell, das die Problemlage charakterisiert, moderne Gesellschaften nicht mehr als vollständig überwachte und kontrollierte Pest-Städte beschreiben zu können.

»Das Problem stellt sich [hier] ganz anders, nicht so sehr dahingehend, eine Disziplin durchzusetzen, obgleich die Disziplin zu Hilfe gerufen wird; das grundlegende Problem ist vielmehr zu wissen, wie viele Leute von Pocken befallen sind, in welchem Alter, mit welchen Folgen, welcher Sterblichkeit, welchen Schädigungen und Nachwirkungen, welches Risiko man eingeht, wenn man sich impfen lässt, [und] wie hoch für ein Individuum die Wahrscheinlichkeit ist, zu sterben oder trotz Impfung an Pocken zu erkranken«.30

Die Reaktion der Behörden auf die Pocken ist, wie Foucault ausführt (und wir erinnern uns an Farr und Snow), statistisch beobachtend, indem man das Vorkommen von Fällen misst und kartographiert, und später auch empirisch, indem man die Bevölkerung durch Impfung vor Ansteckung schützt. Kurzum: Es geht um ein auf »Problemwahrnehmungen basierendes Risikomanagement« (Sarasin), das nicht in Disziplinierung umkippt, sondern um den Preis eines gewissen Infektionsrisikos die relative »Undurchdringlichkeit« der Gesellschaft respektiert. Noch einmal Foucault:

»[…] wir [haben] in diesem Horizont das Bild, die Idee oder das politische Thema einer Gesellschaft, in der es eine Optimierung der Systeme der Unterschiede gäbe, in der man Schwankungsprozessen freien Raum zugestehen würde, in der es eine Toleranz gäbe, die man den Individuen und den Praktiken von Minderheiten zugesteht, in der es keine Einflussnahme auf die Spieler des Spiels, sondern auf die Spielregeln geben würde und in der es schließlich eine Intervention gäbe, die die Individuen nicht innerlich unterwerfen würde, sondern sich auf die Umwelt bezöge.«31

Diese »Intervention auf die Umwelt«, dieses »Spiel mit Spielregeln«, diese »Optimierung der Systeme« und dieser »freie Raum« für Individuen und Praktiken sind es, mit denen nun in Simulationen wie EpiSims experimentiert wird, und zwar medientechnisch implementiert. Agentenbasierte Computersimulationen, die, wie angedeutet, eben nicht nur eine konkrete Infektionskrankheit zu studieren erlauben, sondern vielmehr Verkehr, Wirtschaft, Soziales und Gesundheit als einen einzigen komplexen, kommunikativen Zusammenhang verwalten, der alle möglichen Anfragen zu Lage und Austausch von Menschen und Dingen erlaubt, sind nicht nur eine Art Epochensignatur des Liberalismus, sondern auch mediales Erkenntnisinstrument von Gesellschaft und zuletzt ein wissenschaftliches Experimentierfeld dieser neuen Art des Regierens. Und wie ich versucht habe zu zeigen, gehen sie ganz anders vor als die Statistik, denn sie glätten und aggregieren die Details nicht, sondern disaggregieren und entfalten sie als »anekdotische Komplikation« erst im Hinblick darauf, ob und wie Details zählen.

Ausblick

Damit komme ich zum Schluss. Lassen Sie mich nicht die Ausgangsthesen wiederholen, sondern sie forschungspraktisch problematisieren.

Erstens: Simulationen haben eine besondere epistemische Qualität, sie bringen ein ganz eigentümliches Wissen in die Welt. Nicht umsonst interessieren sich professionelle Epidemiologen inzwischen für virtuelle Spielgemeinschaften, etwa jene der weltweit 10 Millionen Teilnehmer von World of Warcraft. Denn die Epidemiologie selbst hat einen spielerischen Hintergrund.32 Das Wissen der Simulation ist immer mit einem hypothetischen Index versehen und, indem etwa verschiedene Leute das gleiche Problem verschieden modellieren und simulieren, entsteht eher ein unhintergehbares Spektrum an Meinungen und Auffassungen als eine Gewissheit. Insofern haben Simulationen ein sophistisches Element und ergreifen Partei. Beschreibung, Erklärung und Fiktion gehen in ihnen eine experimentelle Verbindung ein.

Zweitens: Die Tradition der philosophischen Wissenschaftstheorie mit ihrer Orientierung an Physik und Mathematik, an Aussageansprüchen und Falsifizierbarkeit gestattet es ihr kaum, Simulationen ernst zu nehmen. Aber auch die jüngere Wissenschaftsgeschichte müsste, so glaube ich, angesichts der Computersimulation die Anwendbarkeit von Konzepten wie »Experimentalsystem« und »epistemisches Ding« überdenken. Zwar haben die Laboratory Studies ihren Blick auf jene historisch wechselnden Praktiken, Apparate und Symboliken gerichtet, die konstitutiv für wissenschaftliches Wissen sind, ohne dass dieses aus den jeweiligen Praktiken, Apparaten und Symboliken präjudizierbar wäre. Der interessante Punkt scheint mir aber, dass die »immaterial culture« der Simulations-Labors (wenn man sie so nennen will) unendlich viel schneller, anpassungsfähiger und gefügiger ist als die materielle und dass sich daraus auch eine neue Qualität ergibt. Oder mit den Worten des Physikers Herman Kahn aus den 50ern: »Wenn er [der Simulator, CP] zum Beispiel ein grünäugiges Schwein mit lockigem Haar und sechs Zehen benötigt […], dann kann er – anders als der Landwirt – dieses Tier sofort herstellen.«33 Man mag dies vielleicht eine Inflation epistemischer Dinge nennen. Die während der letzten Jahrzehnte entwickelte Sensibilität für die materielle Kultur der Wissenschaften bedarf jedenfalls einer entsprechenden und an historischen Beispielen auszuarbeitenden methodischen Aufmerksamkeit für die immaterielle Kultur der Computersimulation.

Dies gilt nicht zuletzt für die Ebene des Codes, in den wissenschaftliches Wissen so übersetzt wird wie die längste Zeit in Mathematik (auch wenn er sich von ihr schon wegen seiner Zeitlichkeit grundlegend unterscheidet). In der in meist unzureichend dokumentierten, schnell aussterbenden Sprachen geschriebenen Software haben sich archäologische Schichten wissenschaftlicher Wirklichkeitserzeugung abgelagert und die Methoden der Laboratory Studies werden für ihre Ausgrabung nicht einfach übertragbar sein.

Drittens wird man sich fragen müssen, wie eine aktuelle Wissenschaftskritik aussehen müsste, sobald und insofern wir es mit Wissenschaften zu tun haben, die nicht mehr im Namen der Wahrheit, sondern der Möglichkeit auftreten. Bruno Latour hat dieser aporetischen Situation gegenwärtiger Wissenschaftskritik einen leidenschaftlichen Essay mit dem Titel »Elend der Kritik« gewidmet, der nicht ohne Grund mit den Ergebnissen der Klimasimulation anhebt. Er benennt die sich aufdrängenden Fragen: »Warum fällt es mir so schwer auszusprechen, dass die globale Erwärmung ein Faktum ist, ob man will oder nicht? Warum kann ich nicht einfach sagen, dass die Debatte abgeschlossen ist? Oder mich damit beruhigen, dass bad guys nun einmal jede Waffe benutzen, deren sie habhaft werden können – ob nun die altbekannte Tatsache, wenn es ihnen so passt, oder die soziale Konstruktion?«34 Wenn man sich mit der Geschichte der Computersimulation beschäftigt, gibt es darauf, so will mir scheinen, eine einfache Antwort. Sie könnte lauten, dass der aktuelle methodische Königsweg der Wissenschaftsforschung, also die Actor-Network-Theory, die Theorie menschlicher und nicht-menschlicher Agenten also, selbst einer Epoche der Simulation geschuldet ist. Oder anders gesagt: Es handelt sich um ein Theoriedesign, das selbst nur entstehen konnte, weil Simulationen seit den 60er Jahren schon genau auf diese Weise arbeiten. Gleiches gilt für den »radikalen Konstruktivismus«, der die Epistemologie der Simulation in die Philosophie transplantiert hat. Deswegen bieten Actor-Network-Theory und Konstruktivismus womöglich gar kein Erklärungs- oder Beschreibungsmodell der Simulation an, sondern sind selbst nur ein Symptom ihrer Hegemonie. Es ist daher vielleicht kein Zufall, dass sich ihr kritisches Potential so glänzend an der gerade vorübergegangenen Episteme des Labors und der »mode-1«-Wissenschaften bewährt hat. »Mode-1«-Wissenschaften eignen sich hervorragend für den Versuch, Wahrheitsansprüche radikal zu historisieren, Evidenzen zu dekonstruieren und die Fiktionalität des Faktischen aufzuweisen. Computersimulationen sind jedoch, um den Ausdruck noch einmal zu benutzen, postmoderne Wissenschaften und gehören einer anderen Episteme an, nämlich derjenigen von Konstruktivismus und Actor-Network-Theory selbst. Sie operieren selbstbewusst und selbstverständlich damit, dass ihr Wissen immer schon mit einem hypothetischen Index versehen ist, sie bekennen sich zu ihren fiktionalen Anteilen, sie positionieren sich in einem Bezugsrahmen, sie thematisieren ihre Performanz, sie wissen um ihre problematische Genese und sie spezifizieren ihre limitierte Geltung. Vielleicht rührt also das von Latour bemerkte Elend der Kritik weniger aus einer Enteignung kritischer Begriffe als vielmehr aus einem medienhistorischen und damit epistemischen Umbruch der Wissenschaften selbst. Oder, anders gesagt: Was heißt es, dass die Wissenschafts-

forschung ihre Begriffe und Konzepte aus den Wissenschaften entnimmt, die sie beschreiben will? Insofern sind die kritischen Optionen von gestern zu den Betriebsbedingungen von heute geworden.

* Vortrag auf dem Kolloquium des Wissenschaftskollegs in Berlin am 13. April 2010. Gewidmet meinem Wiener Kollegen Wolfgang Pircher.

1. Unter den Fellows des Wissenschaftskollegs Berlin im Jahr 2009/2010 befanden sich Politikwissenschaftler, Altertumswissenschaftler, Mathematiker, Physiker, Quanteninformationstheoretiker, Musikwissenschaftler, Philosophen, Juristen, allgemeine Biologen, Neurobiologen, Evolutionsbiologen, Soziologen, Sprachwissenschaftler, Literaturwissenschaftler, Psychologen und Sanskritforscher.

2. Eine Wissenschaft ist sie trotzdem, aber, mit Kant zu sprechen, eher eine »rhapsodische« als eine »systematische«.

3. Abraham A. Moles: »Die Kybernetik, eine Revolution in der Stille«, in: Epoche Atom und Automation. Enzyklopädie des technischen Zeitalters, Genf 1959, Vol. VII, S. 7.

4. Peter Galison: »Computer simulations and the trading zone«, in: The Disunity of Science. Boundaries, Contexts, and Power, ed. P. Galison, D.J. Stump, Stanford 1996, S. 118–157; und Ders.: Image and Logic: A Material Culture of Microphysics, Chicago 1997, S. 689–780, Chapter 8.

5. Martina Merz: »Multiplex and unfolding: computer simulations in particle physics«, in: Science in Context, 12/2(1999), S. 293–316.

6. Thomas Lippert: »The Impact of Petacomputing on Theories and Models«, in: The Societal and Cultural Influence of Computer Based Simulation, Blankensee-Colloquium 20.–22.09.2007, Berlin 2007.

7. Gabriele Gramelsberger (Hg.): From Science to Computational Sciences. Studies in the History of Com- puting and its Influence of Todays Sciences, Zürich/Berlin, 2010.

8. Michael Gibbons: The New Production of Knowledge: The Dynamics of Science and Research in Contemporary Societies, London 1994.

9. Vgl. Fritz Rohrlich: »Computer simulations in the physical sciences«, in: Proceedings of the Biennial Meeting of the Philosophy of Science Association, vol. 2, 1990, S. 507–518; Paul W. Humphreys: »Computer Simulations«, in: Proceedings of the Biennial Meeting of the Philosophy of Science Association, vol. 2, 1990, S. 497–506; Ders.: Extending Ourselves: Computational Science, Empiricism, and Scientific Method, Oxford 2004; Eric Winsberg: »Sanctioning models: the epistemology of simulation«, in: Science in Context, 12/2(1999), S. 275–292; Ders.: »Simulated experiments: methodology for a virtual world«, in: Philosophy of Science, 70(2003), S. 105–125.

10. Mary S. Morgan and Margaret Morrison: »Models as Mediating Instruments«, in: M. S. Morgan and M. Morrison (Hg.): Models as Mediators: Perspectives on Natural and Social Science, Cambridge 1999, S. 10–38.

11. Jean François Lyotard: La condition postmoderne, Paris 1979.

12. Man könnte sich statt der postmodernen Bedingung auch dem Epochenbegriff der »Technoscience« anschließen, also: Fusionierung von Wissenschaft und Technik als Technisierung der Wissenschaft; und performativer Charakter der Wissenschaft gegenüber ihrer vermeintlichen Objektivität.

13. Günter Küppers, Johannes Lenhard: »Computersimulationen: Modellierungen 2. Ordnung«, in: Journal for General Philosophy of Science, 36 (2005), S. 305–329 (Hervorhebungen C.P.).

14. Für Geisteswissenschaftler gesprochen: »unsinnliche Ähnlichkeit« (Benjamin) oder »Vorahmung« (Blumenberg).

15. Myanna Lahsen: »Seductive Simulations? Uncertainty Distribution Around Climate Models«, in: Social Studies of Science, 35/6(2005), S. 895–922.

16. Bernd Mahr: »Das Mögliche im Modell und die Vermeidung der Fiktion«, in: Thomas Macho and Annette Wunschel (Hg.): Science & Fiction, Frankfurt a.M. 2004, S. 161–182.

17. Paul N. Edwards: A Vast Machine. Computer Models, Climate Data, and the Politics of Global Warming, Cambridge, Mass. 2010.

18. J.C.R. Licklider: »Interactive Dynamic Modelling«, in: G. Shapiro, M. Rogers (Hg.): Prospects for Simulation and Simulators of Dynamic Modelling, New York 1967, S. 281–289.

19. B. W. Hollocks: »40 years of discrete-event simulation«, in: Journal of the Operational Research Society, 57 (2006), S. 1383–1399; Richard E. Nance: A History of Discrete Event Simulation Languages, Systems Research Center report SRC 93–003, June 11, 1993.

20. Wieder einmal gilt der Satz: »War is a terrible thing, but so is peace«.

21. Ich sage das so vorsichtig, weil Objektorientierung und Agentenbasierung in der Frühzeit schwer zu trennen sind und die Sache überhaupt noch in der Schwebe ist, d.h. es gibt eigentlich noch keine programmiersprachliche Objektorientierung, aber den Versuch, so etwas Ähnliches in prozeduralen Sprachen zu implementieren. Und das heißt auch: es gibt noch keine Agenten mit autonomem eigenem Speicherplatz, aber eine Tendenz, das über Tabellen zu implementieren.

22. Benjamin Lee Whorf: Sprache, Denken, Wirklichkeit. Beiträge zur Metalinguistik und Sprachphilosophie, Reinbek 1963; Friedrich A. Kittler: Aufschreibesysteme 1800–1900, 1. Aufl., München 1985.

23. Kristen Nygaard/Ole-Johan Dahl, »The Development of the Simula Languages«, in: History of Programming Languages, hg. R.L.Wexelblat, New York 1981, S. 440 (Übersetzung C.P.).

24. Bekanntlich wird jedes Problem zum Nagel, wenn man einen Hammer in der Hand hat. Dasselbe gilt für Warteschlangen (queues).

25. Die soziologische Systemtheorie wäre gewissermaßen das normalsprachliche Gegenstück zu formalsprachlichen, sozialwissenschaftlichen Simulationsmodellen, die zur gleichen Zeit entstehen. Ich möchte keine Kausalität behaupten (Wer war zuerst?), aber die Koinzidenz ist interessant und leitet sich wohl aus der Kybernetik her. Jedenfalls lehrt die Erfahrung, dass Informatikstudenten sehr gut mit Niklas Luhmanns Texten klarkommen.

26. Gernot Böhme, Hartmut Böhme: Feuer, Wasser, Erde, Luft. Eine Kulturgeschichte der Elemente, München 1996.

27. Isabelle Stengers: Die Erfindung der modernen Wissenschaften, Frankfurt a.M. 1997.

28. Albert-László Barabási, Réka Albert: »Emergence of scaling in random networks«, in: Science, 286 (1999), S. 509–512.

29. Ich folge hier Philipp Sarasin: »Smallpox Liberalism. Michel Foucault und die Infektion«, in: Claus Pias (Hg.): Abwehr. Modelle – Strategien – Medien, Bielefeld 2008, S. 27–38.

30. Michel Foucault: Geschichte der Gouvernementalität I: Sicherheit, Territorium, Bevölkerung, Vorlesung am Collège de France 1977/78, Frankfurt a.M. 2004, Band I, S. 25f.

31. Michel Foucault: Geschichte der Gouvernementalität II: Die Geburt der Biopolitik, Vorlesung am Collège de France 1978/79, Frankfurt a.M. 2004, Band II, S. 359.

32. Eric T. Lofgren, Nina H. Fefferman: »The untapped potential of virtual game worlds to shed light on real world epidemics«, in: Lancet Infect Dis, 7 (2007), S. 625–29.

33. Herman Kahn: Szenarien für den Kalten Krieg, hg. von Claus Pias, Zürich, in Vorbereitung.

34. Bruno Latour: Elend der Kritik. Vom Krieg um Fakten zu Dingen von Belang, Zürich 2007, S. 11.

  • Modell
  • Epistemologie
  • Simulation
  • Computerspiele
  • Nicht-Wissen
  • Modellbildung
  • Computersimulation
  • Wissen

Meine Sprache
Deutsch

Aktuell ausgewählte Inhalte
Deutsch, Englisch, Französisch

Claus Pias

ist Professor für Mediengeschichte und Medientheorie an der Leuphana Universität Lüneburg. Zuvor lehrte er in Weimar, Bochum, Essen und Wien. Seine Forschungsschwerpunkte sind Technikgeschichte und Medientheorie.

Weitere Texte von Claus Pias bei DIAPHANES
Peter Berz (Hg.), Marianne Kubaczek (Hg.), ...: Spielregeln. 25 Aufstellungen

Spielregeln eröffnen ein Feld, in dem das Denken des Konkreten mit dem des Abstrakten immer schon konvergiert. Sie geben Urszenen einer kultur- und medienwissenschaftlich erweiterten Philosophie zu denken. Das hier vorliegende Buch versammelt fünfundzwanzig Spielregeln um das Werk eines Wissenschaftlers, der wie kaum ein anderer dem Denken des Konkreten als Allgemeines verpflichtet ist.

Inhalt