Forschung & Entwicklung

Umgang mit komplexen Systemen

Fehler werden immer grösser, wenn wir nicht aus ihnen lernen

Es gibt bestimmte Fehler, die uns Menschen im Umgang mit komplexen Systemen immer wieder fast zwangsläufig unterlaufen. Im Folgenden wird in Anlehnung an Frey und Frey sowie Dietrich Dörner versucht, einige dieser Fehler in ihrem Zusammenhang darzustellen.
PDF Kaufen

Als im Jahr 1905 eine Anzahl ausgewiesener Fachleute beschloss, die Blue-Mountains-Wälder im Nordosten der USA mit wissenschaftlichen Methoden nachhaltig zu bewirtschaften, geschah das unter den besten Voraussetzungen, die man sich vorstellen konnte. Die Experten hätten sich allerdings niemals träumen lassen, dass man nach hundert Jahren bestwilliger Eingriffe in dieses Ökosystem beinahe immer das Gegenteil von dem erreichen würde, was man beabsichtigt hatte: Die erwünschten Kiefern wurden nahezu überall von den nicht gewollten Tannen verdrängt; statt der im Naturkreislauf sinnvollen Kleinbrände gab es aufgrund der menschlichen Eingriffe unbeherrschbare Grossfeuer; der Schädlingsbefall potenzierte sich – und das alles bei einem stattlichen Budget von zwei Milliarden Dollar allein im Jahr 2000.

System zu komplex

«Jeder, der versucht hat, die Wälder zu reparieren, hat alles nur schlimmer gemacht», lautete das Resümee einer Untersuchung, nachzulesen im Buch «Fallstricke» von Ulrich und Johannes Frey, aus welchem dieses Beispiel entnommen ist. Wohlgemerkt, hier waren nicht zufällige Helfer oder einfach gestrickte Menschen am Werk, sondern zum Teil Ökosystemtheoretiker. Wie kann das sein, wenn doch die besten Fachleute mit ausreichenden Mitteln sorgfältig überlegte Entscheidungen getroffen haben? Die Gebrüder Frey sehen da eine Summe von Fehlern, die alle auf einen Grund zurückzuführen sind, nämlich auf die Komplexität des Ökosystems Wald. Es war den Experten nicht gelungen, so in das lebendige und hochgradig vernetzte System einzugreifen, dass es sich verbesserte. Sie haben in der Tat alles schlimmer gemacht und hätten besser die Finger davon gelassen.

Es gibt bestimmte Fehler, die uns Menschen im Umgang mit komplexen Systemen immer wieder fast zwangsläufig unterlaufen. Im Folgenden wird versucht, einige dieser Fehler in ihrem Zusammenhang darzustellen; den Ausführungen liegen das bereits erwähnte Werk von Frey und Frey zugrunde, daneben auch das sehr lesenswerte Buch «Die Logik des Misslingens» von Dietrich Dörner, einem deutschen Professor Emeritus für theoretische Psychologie.

Eigenschaften der Komplexität

Damit wir nicht aneinander vorbeireden, ist es wichtig zu klären, was unter einem «komplexen System» verstanden werden soll. Die folgenden neun Aspekte tauchen in der Literatur immer wieder auf und sind für die Beschreibung wichtig.

1. Elemente: Im Ökosystem Wald sind das also die einzelnen Baumarten, Sträucher, Untergehölze, Pilze, Farne, Moose, Insekten, Kleintiere, Grosstiere, Wettererscheinungen und noch einiges mehr. Man erkennt bereits an dieser Aufzählung, dass schon allein die Vielzahl und die Verschiedenheit der Elemente dafür sorgen, dass man als eingreifender Mensch etwas aus dem Blick verlieren kann. Nun ist das lebendige Ökosystem Wald ein sehr komplexes Miteinander. Es gibt daneben auch einfachere Systeme, zum Beispiel in der Technik: Eine Radarfalle besteht aus einem bewegten Fahrzeug, einem Radarmessapparat und einer Kamera.

2. Vernetzungsgrad: Die Elemente können eher linear vernetzt sein, so wie die Waggons an einem Zug oder auch quer vernetzt wie die Spieler in einem Fussballmatch. Der Vernetzungsgrad bestimmt über die Anzahl und Richtung der Wirkungen, die ein Ereignis in diesem Netzwerk haben kann. Wenn die Spieler immer nur einen Anspielpartner bevorzugen und sich wenig bewegen, ist die Mannschaft geringer vernetzt, als wenn sie ständig mehrere Optionen nutzen können.

3. Verbindungsqualität: Verbindungen zwischen Elementen können fest und locker sein, also haltbar oder weniger haltbar. So sind die Verbindungen zwischen einem Schwamm und einem Baum manchmal symbiotisch und damit sehr haltbar, jene zwischen einem Specht und einem Baum oft nur temporär, nämlich zur kurzfristigen Suche nach Insekten, oder auch dauerhafter beim Bau einer Nisthöhle. Mit Qualität ist aber auch die Weitergabe von Signalen gemeint. Diese Weiterleitung kann logisch starr erfolgen, nach dem Wenn-Dann-Prinzip: Wenn irgendwo im Spinnennetz eine Fliege zappelt, dann wird das Signal in analoger Stärke weitergeleitet. Die Übermittlung kann aber auch dämpfend geschehen, wie zum Beispiel im menschlichen Gehirn: Wenn ein Signal am synaptischen Spalt ankommt, muss es einen gewissen Schwellenwert erreichen, um die Nervenzelle zu erregen. Ansonsten findet das Signal hier ein Ende. Das ist sehr sinnvoll, denn wenn das nicht geschähe, wären unsere Neuronen in einem ständigen Zustand der chaotischen Hyper-Erregung, ähnlich wie bei einem epileptischen Anfall.

4. Intransparenz: Hoch vernetzte Systeme mit zahlreichen Elementen und vielen Querverbindungen sind äusserst undurchschaubar. Wenn die Lokführer streiken, kann das auf ganz entfernte Gebiete Auswirkungen haben, beispielsweise auf den Stundenplan von Schulen mit Kindern, die den öffentlichen Nahverkehr nutzen, oder auf das Klima von Arbeitsplätzen, weil manche KollegInnen lange aufgehalten wurden und gereizt den Arbeitstag beginnen. Wenn bei lebendigen Ökosystemen wie den Wäldern der Blue Mountains an irgend einer Stelle Eingriffe vorgenommen werden, zum Beispiel bei der Auslichtung des Unterholzes, weil Kiefern mehr Licht brauchen, dann kann das überraschende Folgen haben: Entgegen der Absicht haben sich nämlich in diese Lichtungen hinein die schnellwüchsigen Tannen viel rascher verbreitet als die Kiefern.

5. Dynamik: Viele komplexe Systeme sind nicht statisch, sondern haben eine ihnen eigene Dynamik, das heisst eine Geschwindigkeit und Stärke der Weitergabe von Bewegungen oder Informationen. Ausserdem kann es nicht nur innerhalb der Struktur eine Dynamik geben, sondern die Struktur an sich kann beweglich sein. Der Ökokomplex Wald ist in einem steten Wandel von Werden und Vergehen, Fressen und Gefressenwerden begriffen. Das komplexe System Autobahnverkehr unterliegt einer Vielzahl von Einflussgrössen, die es andauernd in Bewegung halten: Vorhaben und Launen einzelner Autofahrer, wirtschaftliches Denken von Speditionen, Ferien- und Urlaubszeiten, Wettererscheinungen usw. Solch eine grundlegende Dynamik bewirkt, dass die an diesen Systemen handelnden Menschen nicht ewig nachdenken können, sondern oft zu schnellen Entscheidungen gezwungen sind. Wir kommen darauf noch zu sprechen.

6. Öffnungsgrad: Systeme können gegenüber ihrer Umwelt oder ihrem Kontext offen oder geschlossen sein. Geschlossene Systeme sind insgesamt natürlich leichter zu verstehen als offene, die durch nicht immer vorhersehbare äussere Einflüsse einer zusätzlichen Dynamik unterliegen. So kann unter Umständen ein Sonnen- und Planetensystem durch einen Kometen erheblich aus dem feinjustierten Gleichgewicht gebracht werden.

9. Wachstum: Das Wachstum des menschlichen Gehirns mit seinen 15 Milliarden Zellen und Verbindungsfasern mit einer Gesamtlänge von etwa 500 000 Kilometern ist nach der Säuglingszeit praktisch abgeschlossen. Was dann auf der biologischen Ebene noch folgt, sind Organisation und Differenzierung. Diese Art von Wachstum ist offensichtlich gesund. Was ist dann von der undifferenzierten Erwartung fortwährenden Wirtschaftswachstums zu halten? Doch wohl dies: Dass es gefährlich werden kann. Es gibt allerorten Symptome von positiven Rückkopplungsschleifen – ungebremster Verbrauch von natürlichen Ressourcen, zunehmende Vermüllung der Natur und die Beeinträchtigung der Lebensgrundlagen Luft und Wasser. Frederik Vester spricht sich für «qualitatives Wachstum» von Systemen aus: «Kleinräumigkeit statt Gigantomanie, eine Vielfalt von Untersystemen statt Monotonie und die Schaffung von Teilsystemen, die ihre Probleme durch Selbststeuerung meistern können.»

Häufig gemachte Fehler

Nachdem wir jetzt die einzelnen System­elemente und -eigenschaften kennengelernt haben, können wir auf dieser Grundlage die Fehler ins Auge fassen, die uns Menschen im Umgang mit komplexen dynamischen Systemen besonders häufig unterlaufen, weil wir die Reaktion des Systems nicht richtig einschätzen. Wir legen dafür das Modell einer vollständigen Handlung zugrunde, das so aussieht (siehe Grafik 3): Ausgehend von einer Annahme über die Folgen unseres Handelns an dem System planen wir unsere Eingriffe. Das komplexe System reagiert aufgrund seiner ihm innewohnenden Gesetzmäs­sigkeit. Diese Reaktion (Ist) vergleichen wir mit unserer Hypothese (Soll), bewerten das Ergebnis und korrigieren schliesslich unsere Hypothese entsprechend, ehe wir weitere Handlungen planen. Fehler können sich nun auf jeder Stufe dieser Abfolge einschleichen; einen Überblick dazu gibt Grafik 4.

1. Hypothesenfehler

Lineares Denken: Der erste Fehler ist schon gleich der am leichtesten nachvollziehbare: Weil komplexe Systeme aufgrund der Menge und Vernetzung ihrer Elemente oft so intransparent sind, versuchen wir dadurch eine sichere Grundlage für unser Handeln zu finden, dass wir die Komplexität reduzieren. Wir entwickeln also eine unvollständige und mangelhafte Vorstellung von dem System, indem wir beispielsweise nur lineare Zusammenhänge bedenken anstatt quer vernetzte. Dies kommt unserem mehr oder weniger angeborenen Ursache-Wirkungs-Denken entgegen.

Fallbeispiel: Ein eindrucksvolles Beispiel für lineares Denken wird von Frey und Frey präsentiert: Ab 1954 wurde begonnen, einzelne Exemplare des Nilbarsches – eines fleischreichen Raubfisches von etwa zwei Metern Länge und bis zu 200 Kilo Gewicht – in den Viktoriasee einzuführen. Man versprach sich davon (= Hypothese: Ursache – Wirkung) eine Steigerung der Fischernte. Ab etwa 1977 explodierte die Population (= positive Rückkopplung) und machte bald 90 Prozent der gefangenen Biomasse aus. Der zunächst erwünschte Effekt trat tatsächlich ein, und die Fischer konnten ihren Fang tonnenweise nach Europa und Amerika absetzen. Als erste Nebenwirkung war es nötig, die traditionelle Sonnentrocknung der Fische durch Holzräucherung zu ersetzen. Dies hatte nun eindeutig negative Effekte, nämlich Abholzung von Wäldern und als Folge davon wiederum Bodenerosion. Dies hätte man nur schwer voraussehen können, andere Konsequenzen aber schon: Die Nilbarsche rotteten alle ihre Beutefische fast oder ganz aus, darunter auch Arten, die ausschliesslich im Viktoriasee vorkamen. Die Population des Nilbarsches brach dann aber entgegen der Erwartungen nicht ein, weil er auf seine eigene Jungen und auf Garnelen auswich. Inzwischen scheint sich die Situation auf einem ökologisch niedrigen Niveau – nach dem endgültigen Verlust von etwa 200 Buntbarscharten – eingependelt zu haben.

Fixierung auf die Gegenwart: In die Kategorie der Hypothesenfehler gehört auch die menschliche Neigung, nur die Gegenwart zu beachten und mögliche zukünftige Entwicklungen aus den Augen zu verlieren. So reagieren wir Mitteleuropäer auf unseren gegenwärtigen Energiebedarf dadurch, dass wir endliche Ressourcen aufbrauchen (Öl und Gas) und Atomenergie ausbauen. Zukünftige Generationen werden in vielleicht schon 50, vielleicht «erst» in 200 Jahren konsequenterweise ohne fossile Energieträger auskommen müssen und haben die nächsten 50 000 Jahre oder länger mit unserem radioaktiven Nachlass zu leben, den manche unserer gegenwärtigen Experten für handhabbar halten. Möglicherweise ist hier insgesamt doch allzu menschliches Wunschdenken am Werk; die Studien des Club of Rome («Die Grenzen des Wachstums») haben uns 1972 vielleicht nicht nachhaltig genug wachgerüttelt.

Komplexitätsreduktion und Beharren auf Überzeugungen: Dietrich Dörner gibt noch einen Hinweis darauf, warum vereinfachte Hypothesen so standfest und zuweilen faszinierend sein können: «Die Tatsache, dass solche reduktiven Hypothesen Welterklärungen aus einem Guss bieten, erklärt vielleicht nicht nur ihre Beliebtheit, sondern auch ihre Stabilität. Wenn man einmal weiss, was die Welt im Innersten zusammenhält, so gibt man ein solches Wissen ungern auf, um wieder in die unübersichtlichen Gefilde eines nichthierarchisch gegliederten Netzes wechselweiser Abhängigkeiten zu geraten.»

2. Planungsfehler

Augenfälligkeit: Wenn wir nicht in der Lage sind, ein komplexes dynamisches System zu «dekomponieren» (so Dörner), dann entwickeln wir auf der Planungsebene bestimmte Ausweichstrategien. Wir orientieren uns dann nicht an dem, was für einen kompetenten Eingriff in das System notwendig wäre, sondern zunächst einmal an dem, was uns gerade ins Auge fällt. Dörners Versuchspersonen in der Simulation «Lohhausen» reagierten als Bürgermeister dann auf zufällige Begegnungen und Beschwerden und dokterten im Grunde nichtwissend am System herum, sie verfielen dem «Aktionismus».

Methodenfixierung: Zum andern greifen wir im Falle des mangelnden Durchblicks gern auf das uns bekannte Methodenrepertoire zurück. Eine Versuchsperson beispielsweise stiess bei der Sichtung der Probleme in Lohhausen darauf, dass viele Schüler in der Schule Schwierigkeiten hatten. Da er selbst über Erfahrungen auf diesem Gebiet verfügte, konzentrierte – eigentlich müsste man sagen: kaprizierte – sich dieser Proband auf Schulschwierigkeiten, dann auf eine bestimmte Schulklasse und schliesslich sogar auf einen bestimmten Schüler. Alle anderen Probleme der Kommune verlor er aus dem Blickfeld.

Man mag vielleicht sagen, das seien eben die Probleme, wenn Laien mit komplexen Systemen umgehen. Aber weit gefehlt. Auch die Experten, welche die Blue-Mountains-Wälder nachhaltig bewirtschaften wollten, zeigten dieses Verhalten, nämlich Rückzug in bekannte, beherrschbare Teilgebiete. So kam es zu dem allseits bekannten «Mehr desselben!» unter Umständen auch dann, wenn sich die Wirkungslosigkeit oder die negativen Folgen der Massnahme bereits gezeigt hatten.

3. Fehldosierung

Wer kleine Kinder hat, kennt das Badewannen-Problem: Als Mutter oder Vater überlegt man sich vorher, wie weit man die Badewanne für das Kind etwa füllen möchte. Und man will eine Temperatur von möglichst genau 37 Grad erreichen. Wenn man das Badewasser laufend auf seine Temperatur kontrolliert, kann es passieren, dass man ständig am Wasserhahn dreht, mal heisser, mal kälter, um möglichst am Ideal zu bleiben. Wer dies schon getan hat, hat es sicher auch schon geschafft, zu weit in die eine oder andere Richtung zu drehen, so dass dann heftig ausgeglichen werden musste und am Ende viel mehr Wasser in der Wanne war als beabsichtigt.

Man mag sich nun vielleicht fragen: Seit wann ist das Füllen von Badewannen ein komplexes System? Aber bitte: Es verändert sich erst mal die Temperatur des Wassers auch bei gleich bleibender Stellung des Wasserhahns, weil sich noch abgekühltes Wasser in der Leitung befindet, ehe die Pumpe im Keller heisses nachgepumpt hat. Dann kühlt die Wannenwand das Wasser wieder ab, und zwar abhängig von Material, Grösse und Isolierung. Schliesslich spielen natürlich die Temperatur der Raumluft und die Durchlüftung des Badezimmers ebenso eine Rolle wie die absolute Menge des Wassers, das bereits in der Wanne ist. All diese Elemente, und vermutlich noch mehr, wechselwirken miteinander.

4. Zielfehler

Einfache Ziele: Die Fehler bei der Zielfindung korrespondieren häufig mit den Hypothesenfehlern: Mangelnde Aufschlüsselung des komplexen Systems führt zunächst zu linearem Ursache-Wirkungs-Denken und dann dazu, dass man sich zu einfache Ziele setzt.

Dazu sagt Dörner: «Man kann in komplexen Realitäten nicht nur eine Sache machen. Man kann daher auch nicht nur ein Ziel anstreben. Strebt man nur ein Ziel an, so kann es sein, dass man dadurch unversehens andere Missstände erzeugt, also neue Probleme schafft.»

Globale Ziele: Es gibt viele sehr allgemein formulierte Zielsetzungen, die in spezifische Schwierigkeiten hineinführen. «Der Stadtteil soll attraktiver werden.» «Unsere Schule muss besser werden.» «Wir müssen kundenfreundlicher agieren.» Wenn es nicht gelingt, diese Globalziele auf spezifische Teilziele herunterzubrechen, kann es leicht sein, dass man ins Blaue hinein agiert.

Was aber macht denn einen Stadtteil attraktiv? Die Beschäftigungsmöglichkeiten oder die Verkehrssituation, die Infrastruktur oder die Bevölkerungszusammensetzung, die Architektur oder die ansässigen Vereine? Es gibt hier viele Möglichkeiten anzusetzen, und jeder Ansatzpunkt wird andere Folgen für das Gesamtsystem haben.

Unklare Ziele: Wenn einem die Globalität seiner Zielsetzung nicht bewusst ist, hat man keinen Anlass, spezifische Ziele herauszudestillieren. Dann kann es sein, dass man das Handeln beginnt, ohne auf klare Ziele zuzusteuern, deren Erreichung oder Verfehlung anhand eindeutiger Kriterien erkannt werden könnte. Wer «irgendwie» kundenfreundlicher agieren will und dies nicht in genauen Teilzielen ausformuliert, wird recht zufällig das tun, was ihm spontan in den Sinn kommt oder was die Situation gerade hergibt.

Vermeidungsziele: Während auch Anstrebungsziele recht global formuliert sein können, ist dies bei Vermeidungszielen logischerweise noch viel mehr der Fall. Man will dann nicht mehr so viele Kunden verlieren oder nicht mehr so viel Lagerfläche brauchen. Das sind allerdings noch keine konkreten Handlungsziele, denn an dieser Stelle fängt die Denkarbeit erst an.

Ein Beispiel: Wenn man nicht mehr so viele Unfälle auf einem bestimmten Autobahnteilstück haben möchte, muss man erst noch sehr genau hinsehen, wo denn die Unfallursachen liegen. Erst dann kann man spezifische Anstrebungsziele daraus machen: Wir müssen die Geschwindigkeit beschränken und häufiger kontrollieren oder Warnschilder (Nässe, Nebel usw.) aufstellen oder die Sichtlinien von Bewuchs befreien oder die parallele Bahnlinie stärker bewerben und so weiter und so weiter.

Implizite Ziele: Wir übersehen gern implizite Ziele; das sind solche, die wir zwar nicht direkt anstreben und die uns gar nicht bewusst sind, die sich aber aus den Zusammenhängen des komplexen Systems zwangsläufig ergeben. Aus dem Bereich der Pädagogik wissen wir, dass Eltern, die ihren Kindern einen Nachhilfelehrer organisieren, um schulische Mängel auszugleichen, ihrem Nachwuchs signalisieren: «Wir kümmern uns!» Dieses Signal kann dazu führen, dass der Jugendliche sich zu sehr auf die elterliche Fürsorge verlässt und es verpasst, rechtzeitig seine Selbstständigkeit und Unabhängigkeit vom Elternhaus zu entwickeln – etwas, das Eltern aber jederzeit als Ziel angeben würden, wenn man sie danach fragte.

5. Bewertungsfehler

Schönrechnen: Dass zu Beginn eines Projekts häufig von sehr optimistischen Bedingungen ausgegangen wird, daran haben wir uns gewöhnt. In Deutschland wurde bei den Versuchen, der Bevölkerung den Transrapid schmackhaft zu machen, der Nutzen in rosigen Farben beschrieben und die Kosten ursprünglich viel zu niedrig angesetzt; sie mussten nachträglich und Schritt für Schritt höher angesetzt werden, was letztlich das Aus für dieses Projekt bedeutete. Auch die mit der Nutzung der Blue-Mountains-Wälder befassten Experten gingen erst mal von bis dato nie erreichten Wachstumsraten aus. Als diese nicht eingehalten werden konnten, rechneten die Fachleute später sogar mit potenziellem, nicht mehr mit realem Wachstum. Die Begründung dafür war, dass man ja die bekannten früheren Fehler nicht wiederholen müsste. Erstaunlicherweise passierten dann aber doch immer und immer wieder dieselben Fehler.

Fehlendes Bemühen um Falsifikation: Wenn Menschen ihr Weltbild gefährdet sehen, reagieren sie in der Regel nicht freudig und offen für neue Erkenntnisse, sondern mit Abwehr. Dann werden widersprechende Befunde zunächst einmal ignoriert. Wenn sich dieses Vorgehen nicht durchhalten lässt, dann werden die Ergebnisse so lange hin- und her- oder weginterpretiert, bis sie wieder in das eigene – in der Regel lineare und monokausale – Weltbild hineinpassen. Dietrich Dörner beschreibt dieses Phänomen folgendermassen: «Ein hervorragendes Mittel, Hypothesen ad infinitum aufrechtzuerhalten, ist die‚ ‹hypothesengerechte Informationsauswahl›. Informationen, die nicht der jeweiligen Hypothese entsprechen, werden einfach nicht zur Kenntnis genommen.»

Man stelle sich folgende Situation vor: Als das System bereits auf die Katastrophe zusteuerte, stauchte der verantwortliche Schichtleiter von Tschernobyl, Aleksandr Akimow, Mitarbeiter zusammen, weil sie warnend ihre Stimmen erhoben, und liess dann auch noch das Warnsystem abschalten mit der Begründung: «Bei dem Lärm und dem Geblinke kann ja kein Mensch arbeiten!» Noch als tödlich verstrahlte Mitarbeiter in den Kontrollraum kamen und berichteten, dass der Reaktor explodiert sei, geriet Aleksandr Akimow «gänzlich ausser sich, brüllte und tobte und tat schliesslich alles als Unsinn ab» (zitiert nach einem Augenzeugenbericht in Frey und Frey). Die überall vorhandenen Messgeräte zeigten Werte über das Maximum der Skala hinaus an, weshalb man meinte, sie wären kaputt gegangen. Die tatsächliche Strahlendosis war aber 5000-mal so hoch wie das – bereits tödliche – Maximum der Skala. Es kann eben nicht sein, was nicht sein darf.

6. Korrekturfehler:

Mangelnde Selbstkritik: Dieses Problem zeigte sich ebenfalls der Steuerzentrale des Reaktors von Tschernobyl. Als die Ereignisse nach und nach ausser Kontrolle gerieten, schalteten die Techniker ein Sicherheitssystem nach dem anderen ab – es störte ja bloss die geplanten Abläufe. Die entscheidenden Personen brachten eben das Selbstbewusstsein mit, sie verstünden die Abläufe und könnten den Reaktor beherrschen. So waren sie blind gegenüber den Warnzeichen und bestätigten sich gegenseitig in ihrer Selbstüberschätzung. Die Übermittler der schlechten Nachricht wurden selbst dann noch niedergeschrien, als sie verstrahlt und dem Tode geweiht berichteten, was sie mit eigenen Augen gesehen hatten.

Die normative Kraft des Faktischen: Ein fehlerhaftes Handeln wird häufig auch deswegen nicht zugegeben, weil damit das Eingeständnis verbunden wäre, dass man sehr viel Geld, Energie oder Zeit in einen falschen Plan investiert hätte. «Jetzt haben wir seit Jahren schon viele Millionen in die Planungskosten investiert; drum muss das Autobahnteilstück (die Startbahn, der Bahnhof) jetzt auch gebaut werden!» Aber diese Fehlhaltung gibt es nicht nur bei grossen politischen Projekten, sondern auch im privaten Haushalt: Wer schon seit Jahren ohne grössere Gewinne Lotto spielt, wird sich schwertun, damit aufzuhören, weil das Geld sonst als völlige Fehlinvestition erscheinen würde.

7. Zeitdruck

Wer einen Blick auf die Grafik 4 wirft, dem fällt möglicherweise auf, dass das Element «Zeitdruck» auf alle Phasen der vollständigen Handlung wirken kann und auch oft wirkt. Dabei kann man zwei Fälle unterscheiden:

A. Durch den Kontext induzierter Zeitdruck: Man möge einmal selbst überlegen, wie oft es vorkommt, dass man seine Handlungen planen muss, ohne das System vollständig zu durchblicken, auf das man einwirken will. Wer setzt uns in diesen Fällen unter Zeitdruck? Häufig wohl die Konkurrenz, die Kunden, Lieferfristen, Zahlungsziele usw. Aber manches mag auch an uns selbst liegen – wenn man zu den Menschen gehört, denen es nicht schnell genug gehen kann, die noch schnell dieses oder jenes mitnehmen wollen, die sich selbst und andere ständig unter Druck setzen.

B. Zeitdruck durch das System: Dynamische Systeme sind, wie der Name schon sagt, in Bewegung. Das heisst, sie verändern sich auch ohne unser Zutun. Eine Klasse von Schülern oder ein Saal voller Zuhörer kann sehr dynamisch werden, wenn unser Handeln zu lange auf sich warten lässt. Eine Kommune ist selten im Gleichgewicht: Entweder die Bevölkerung wächst oder sie nimmt ab, sie ist zufrieden oder unzufrieden, sie arbeitet am Ort oder pendelt aus; oder genauer: Dies alles geschieht gleichzeitig an verschiedenen Stellen. Ein Rathaus, das dabei nur zusieht, wird im Nichtstun und Warten vieles falsch machen. (Auch Ihr eigenes geschäftliches System reagiert auf zahlreiche äussere Einflüsse – hoffentlich haben Sie es flexibel aufgestellt und hoffentlich haben Sie seine Komplexität durchdrungen und können bewusst oder intuitiv richtige Handlungen planen, und zwar rasch.)

Umgang mit Zeitdruck: Wenn wir Dörners Simulationen nachvollziehen, dann erweisen sich erfolgreiche Versuchspersonen dadurch, dass sie auch unter Zeitdruck noch genügend Fragen stellen. Die anderen Personen reagierten auf Zeitdruck mit Informationsverweigerung und Aktionismus. Diese waren aber auch dann nicht erfolgreicher, wenn sie genügend Zeit zur Verfügung hatten. Dann zeigten sie nämlich eine Tendenz zu exzessiver Informationssammlung mit einer daraus resultierenden verstärkten Unsicherheit, die weitere Informationssammlung und schliesslich Entscheidungsunvermögen zur Folge hatte.

Der Kreis schliesst sich

Die Qualität der eigenen Bewertung und der Selbstkorrektur bestimmt die Qualität der neuen Handlungshypothese, und damit beginnt der Kreis von vorne mit den entsprechenden Planungen, Handlungen und Reaktionen des Systems. Wenn es uns nicht gelingt, selbstkritisch auf die Folgen unseres Handelns zu sehen und uns durch die Reaktionen des Systems gewissermassen einen Spiegel vor Augen halten zu lassen, wird sich uns die Wahrheit des Ausspruches offenbaren: «Wer nicht aus der Geschichte lernt, ist gezwungen, sie zu wiederholen.» Das trifft nicht nur auf grosse politische Entscheidungen zu, sondern ebenso auf unser alltägliches Handeln.

Fazit

Komplexe dynamische Systeme sind von uns Menschen nur schwer zu beherrschen, und wir werden Fehler wohl nie gänzlich vermeiden können. Die Fehler werden allerdings immer grösser, wenn wir nicht aus ihnen lernen. Und die Hände in den Schoss zu legen, wäre der allergrösste Fehler.

Deshalb soll der griechische Philosoph Demokrit das Schlusswort haben: «Mut steht am Anfang des Handelns, Glück am Ende.»