How we get it wrong (German Language only)

Kognitive Verzerrungen, also Biases und Heuristiken, sind verkürzt gesagt mentale Abkürzungen, die aus den begrenzten Kapazitäten von System 1 entspringen und uns in die Lage versetzen, trotz unvollständiger oder widersprüchlicher Informationen Urteile zu fällen und Schlüsse zu ziehen.  Strukturierte-Analyse.de nutzt die folgenden Definitionen beider Begrifflichkeiten:

Wird von Bias oder Biases gesprochen, ist damit vor allem der Kognitive Bias gemeint:

Kognitive Biases sind unbewusste Fehler des Denkens, die durch unsere vereinfachenden Informationsverarbeitungsstrategien verursacht werden. Sie hindern den Analysten an einem zutreffenden Verstehen der Realität; und das selbst dann, wenn alle notwendigen Informationen vorhanden sind, die für ein zutreffendes Verständnis nötig wären.[1]

Biases verzerren also grundsätzlich die Wahrnehmung, sodass ein zutreffendes Verstehen der Realität erschwert wird.

Demgegenüber ist eine Heuristik, und hier ist vor allem die Urteilsheuristik gemeint, technisch definiert, ein einfaches Verfahren, das uns hilft, adäquate, wenn auch oftmals unvollkommene Antworten auf schwierige Fragen zu finden.[2]

Urteils-Heuristiken stellen eine Form von System-1-Denken dar und werden folglich unbewusst genutzt. Sie können uns dabei helfen, zu näherungsweise guten Schlüssen zu gelangen, in Situationen, in denen wir:

  • zu wenig Informationen für ein rational ausgewogenes Urteil zur Verfügung haben.
  • aus Motivationsgründen nicht willens sind zu einem rational ausgewogenen Urteil zu gelangen.
  • aus Schlafmangel oder wegen Konzentrations- und Ressourcenproblemen nicht in der Lage sind, zu einem ausgewogenen Urteil zu gelangen.

Heuristiken sind in ihrem Ursprung daher durchaus sinnvoll, da sie uns ermöglichen, in Situationen in denen ein rational-ausgewogenes Urteil nicht möglich ist, trotzdem urteilsfähig zu bleiben.

Für Heuristiken im Speziellen gilt aus meiner Sicht das gleiche, wie für voreilige Schlussfolgerungen[3] grundsätzlich. Wenn auf Heuristiken basierende Urteile, Schlüsse und Entscheidungen mit hoher Wahrscheinlichkeit zutreffen und sporadische Irrtümer verkraftbar sind, ist der (unbewusste) Rückgriff auf Heuristiken effizient. Wenn Fehler jedoch zu hohen Kosten führen würden, dann ist der Rückgriff auf Heuristiken riskant und sollte vermieden werden. In entsprechenden Situationen sollte also wann immer möglich versucht werden, mit System 2 zu arbeiten, um den (unbewussten) Rückgriff auf Heuristiken (als System-1-Funktionen) zu vermeiden.

Ein weiterer potentieller Nachteil von Heuristiken ist ihr konservativer Charakter. Robert S. Sinclair[4] beschreibt diesen folgendermaßen:

"Heuristics are inherently conservative; they follow the tried-and-true method of building on what has already happened. When the approach is confronted with the oddball situation or when someone asks what is out there in the rest of the problemspace, heuristics begin to flounder. Yet we resist using other approaches, partly because we simply find them much less congenial, partly because the record allows plausible argument about their effectiveness when dealing with an indefinitely large set of possibilities."*

Sinclair, Robert S.:
Thinking and Writing: Cognitive Science and Intelligence Analysis, Center for the Study of Intelligence, Washington, DC: February 2010 (Originally publishhed in January 1984)., S.9

Insgesamt kann also festgehalten werden, dass Biases grundsätzlich zu Wahrnehmungsfehlern führen und damit eine zutreffende Wahrnehmung der Realität erschweren. Demgegenüber können Heuristiken durchaus hilfreich und gewinnbringend sein. Aber auch Heuristiken können zu Fehlwahrnehmungen und falschen Urteilen und Schlüssen führen.

Im Folgenden möchte ich auf einige Biases und Heuristiken eingehen, die sich aus meiner Sicht auf die Tätigkeit des Analysten am stärksten auswirken. Es gibt noch zahlreiche weitere kognitive Verzerrungen und eine weitergehende Recherche in Fachliteratur und Internet kann daher durchaus empfohlen werden.

Die wichtigsten Biases auf einen Blick.
Der Bestätigungsfehler / Confirmation Bias

Definition Bestätigungsfehler:

Der Bestätigungsfehler beschreibt das Phänomen, dass ausschließlich Informationen verarbeitet werden, die konsistent mit der präferierten Hypothese bzw. dem präferierten Urteil oder Schluss sind.[5]

Erklärung Bestätigungsfehler:

Je mehr wir über einen bestimmten Gegenstand bzw. ein bestimmtes Thema wissen, desto schneller können wir auf die über dieses Thema in unserem Gedächtnis abgelegten Inhalte zugreifen. Allerdings wird es auch zunehmend schwerer, aus den so etablierten Denkmustern auszubrechen. Dieser Befund gilt sowohl im sprichwörtlichen als auch im konkret physischen Sinne. Und damit wird es auch schwerer, einen bekannten Sachverhalt aus einer anderen Perspektive zu beleuchten. Beispielsweise, wenn mit der Zeit neue und vielleicht sogar konträre Informationen auftauchen.[6] Hierzu merkt Heuer an: „Wenn Informationen nicht zu dem passen, was Menschen wissen oder glauben zu wissen, dann haben sie große Schwierigkeiten damit, diese Informationen zu verarbeiten.“[7] Das Verarbeiten bezieht sich in diesem Kontext sowohl auf die Wahrnehmung der Information durch das sensorische Gedächtnis, die korrekte Kontextualisierung im Kurzzeitgedächtnis und das Transformieren der Information in das Langzeitgedächtnis. Dieses findet entweder gar nicht, erschwert oder falsch statt.[8] Als Folge werden Informationen bevorzugt verarbeitet, die das eigene Weltbild bestätigen. Hierdurch kommt es zur Tendenz, präferierte Hypothesen, Urteile oder Schlüsse zu verifizieren, statt diese zu falsifizieren. Allerdings weist Heuer darauf hin, dass verifizierende Evidence, und zwar egal in welchem Umfang, eine Hypothese niemals vollkommen beweisen können. Der Grund hierfür liegt darin, dass auch ein umfangreicher Korpus an Evidence mit einer ganzen Reihe anderer Hypothesen konsistent sein könnten.[9]

Beispiel Bestätigungsfehler:

Ein fast alltägliches Beispiel in dem wir einen vorweggenommenen Bestätigungsfehler beobachten können, ist das Phänomen von Filterblasen in Sozialen Netzwerken:

„Die Filterblase […] oder Informationsblase ist ein Begriff der Medienwissenschaft […]. [Diese entstehen], weil Webseiten versuchen, algorithmisch vorauszusagen, welche Informationen der Benutzer auffinden möchte – dies basierend auf den verfügbaren Informationen über den Benutzer (beispielsweise Standort des Benutzers, Suchhistorie und Klickverhalten). Daraus resultiere eine Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen.“[10]

Die Filterblase ist eine technisch programmierte Reaktion darauf, dass Nutzer von Sozialen Netzwerken präferiert Meinungen lesen oder Menschen und Beiträgen folgen, diese anklicken oder „Liken“, die ihrem eigenen Weltbild entsprechen. Der Algorithmus konfrontiert uns also vor allem mit dem, was unserem eigenen Mind-Set entspricht und blendet widersprüchliche Meldungen aus.

Aber auch ohne die Unterstützung eines Algorithmus suchen wir nach dem, was unser Weltbild bestätigt. Damit läuft auch der Analyst Gefahr, Quellen zu nutzen und Informationen zu suchen, die seinem eigenen Weltbild bzw. seiner aktuellen Arbeitshypothese entsprechen und andere, vielleicht bessere, Quellen und Informationen zu ignorieren.

Vividness-Effekt / Vividness Bias

Definition Vividness-Effekt:

Der Vividness-Effekt beschreibt das Phänomen, dass Informationen, die lebendig, konkret und bildhaft sind, deutlich besser aufgenommen, verarbeitet, abgespeichert und erinnert werden, als abstrakte Informationen.

Erklärung Vividness-Effekt:

Der Vividness Bias bedingt, dass Informationen, die wir selbst mit unseren eigenen Augen und Ohren aufgenommen haben, oder die wir von Freunden oder Informanten direkt mitgeteilt bekommen haben, einen größeren Einfluss auf unsere Urteilsbildung ausüben, als abstrakte oder statistische Informationen. Und das obwohl zweitgenannte wahrscheinlich eine größere Aussagekraft – also einen höheren Wert – besitzen. Stehen sich zwei Informationen gegenüber, dann bedeutet das, dass die bildhafteren und lebendigen Informationen wahrscheinlicher als Urteilsgrundlage herangezogen werden, als statistische Informationen, die diese lebendigen Informationen widerlegen.[11]

Beispiel Vividness-Effekt:

Soll ein Analyst in einem Krisenland die Anschlagswahrscheinlichkeit für ein ihm zugeteiltes Gebiet bewerten, dann wird es sich sehr wahrscheinlich auswirken, sollte er in der Vergangenheit selbst einen Anschlag miterlebt haben. Die Ursache hierfür liegt an der hohen Abrufgeschwindigkeit, mit der der Analyst lebhafte, klare und anschauliche Bilder eines Anschlages in seinem assoziativen Gedächtnis abrufen kann. Dieser Effekt entzieht sich der bewussten Steuerung. Er entspringt dem Unbewussten. 

Rückschaufehler / Hindsight Bias

Definition Rückschaufehler:

Claiming the key items of information, events, drivers, forces, or factors that actually shaped a future outcome could have been easily identified.[12]

Erklärung Rückschaufehler:

Personen, die Intelligence-Failures[13] untersuchen, oder Personen, die den Nutzen von Intelligence-Reports rückblickend bewertet, überschätzen in der Regel den Grad an Vorhersehbarkeit für die untersuchten Ereignisse beziehungsweise wie viel sie von der Lektüre der gelesenen Intelligence-Reports gelernt haben.[14] Hierbei ist besonders bemerkenswert, dass der Rückschaufehler selbst dann seine Wirkmächtigkeit behält, wenn man um seine Existenz weiß. Heuer merkt hierzu an:

"Like optical illusions, cognitive biases remain compelling even after we become aware of them."*

Heuer Jr., Richards (J).:
Psychology of Intelligence Analysis, Center for the Study of Intelligence, 1999, S. 162

Der Grund für den Rückschaufehler sieht Heuer bei dem Unterschied zwischen den zwei Modi Vorausschau und Rückschau. Beide Modi laufen unter vollkommen unterschiedlichen Voraussetzungen.

Bei der Vorausschau, also einem Standardaufgabenbereich des Intelligence-Analysten, versucht dieser auf Grundlage unvollständiger und widersprüchlicher Informationen eine Aussage über mögliche künftige Entwicklungen zu formulieren (Intelligence Estimates). Hierbei wählt er unterschiedliche Informationen aus einem in der Regel deutlich umfassenderen Korpus an Informationen aus und nutzt diese, um entsprechende Aussagen zu formulieren.

Im Bereich der Rückschau, also nachdem ein bestimmtes Ereignis eingetreten ist, kommt es zu einer abstrakten und auch konkret physischen Veränderung des persönlichen Wissens. Wie ist das zu verstehen? Das Gehirn besteht aus Millionen Neuronen und Verbindungen zwischen ihnen. Lernen wir etwas, verändert das welche Neuronen wie miteinander verbunden sind. Nehmen wir also neues Wissen auf, verändert dieses Wissen das mentale Abbild des Gegenstandes, über das wir etwas gelernt haben: in diesem Fall über das inzwischen eingetretene Ereignis.

Dieser Vorgang trägt sich unbewusst zu und verändert damit auch die Art und Weise, wie wir insgesamt über diesen Gegenstand nachdenken. Informationen, die mit diesem Gegenstand zu tun haben und die vorher vielleicht genauso wichtig oder unwichtiger erschienen, als andere, erhalten plötzlich eine enorm große Bedeutung, weil sie – in der Rückschau – deutlich auf das inzwischen eingetretene Ereignis hingewiesen haben. Aber zuvor waren diese Informationen nur Teil des Grundrauschens im Informationsraum.

Das ist ein wesentlicher Unterschied zwischen Vorausschau und Rückschau. Relevant ist nun, dass es uns nicht möglich ist, uns nachdem wir um ein eingetretenes Ereignis wissen, in denselben kognitiven Zustand zu versetzen, wie zuvor. Die physische Struktur unseres Gehirns hat sich bereits verändert und diese Veränderung lässt sich nicht zurückstellen. Deshalb erscheinen beispielsweise Intelligence-Failures in der Rückschau für den Untersuchenden regelmäßig so aus, als wären sie leichter vorhersagbar gewesen, als in der Vorausschau.[15] Und Konsumenten von Intelligence-Produkten glauben, sie hätten weniger durch das Lesen der entsprechenden Produkte gelernt, als es tatsächlich der Fall gewesen ist.[16]

Mirror Imaging

Definition Mirror-Imaging:

Die Annahme, Andere würden unter den gleichen Umständen genauso handeln wie wir selbst.[17]

Erklärung Mirror-Imaging:

Zunächst muss konstatiert werden, dass es ohnehin sehr schwierig ist, einen anderen Akteur in seiner Ratio zu durchdringen, sodass sein Handeln korrekt eingeordnet werden kann. Denn das setzt voraus, dass dieser Akteur mit all seinen Werten, Annahmen und auch mit seinen Fehlperzeptionen verstanden werden muss.[18]

Aus Mangel an ausreichend Informationen kann es daher verständlicherweise dazu kommen, dass die Leerstellen im eigenen Wissen – bewusst oder unbewusst – mit dem geschlossen werden, was bekannt ist. Sprich: Wissen wir über einen Akteur nicht, wie er beispielsweise ein jüngst eingetretenes Ereignis bewertet, nehmen wir (unbewusst) an, er würde es so bewerten, wie wir es in derselben Situation auch bewerten würden.

Ein aus meiner Sicht guter Indikator für fehlgeschlagenes Mirror-Imaging ist der Befund, ein anderer Akteur würde „irrational“ handeln. Denn dieser Befund zeigt in der Regel an, dass die Ratio des anderen Akteurs nicht verstanden wurde.

Heuristiken, die man kennen sollte

Affektheuristik

Definition Affektheuristik:

Die Affektheuristik beschreibt das Phänomen, dass Urteile und Entscheidungen auf Grundlage von Emotionen zum jeweiligen Gegenstand getroffen werden.

Erklärung Affektheuristik:

„Die Affektheuristik ist ein Fall von Ersetzung, bei dem die Antwort auf eine leichte Frage (Welche Gefühle weckt das in mir?) als Antwort auf eine viel schwierigere Frage dient (Was denke ich darüber?).“[19]

Vorlieben und Abneigungen bestimmen also die Weltanschauung. Im Kontext von System 1 und System 2 verhält es sich so, dass System 1 Eindrücke, Gefühle und Neigungen erzeugt. Übernimmt System 2 diese, werden sie zu Überzeugungen und Einstellungen. Diese Übernahme durch System 2 stell den Regelfall dar. Nur selten werden die Eindrücke, Gefühle und Neigungen von System 1 kritisiert oder eine Neubewertung gefordert. Eine Überprüfung findet also nur selten statt.[20]

„Ein aktives, nach Kohärenz strebendes System 1 schlägt einem anspruchslosen System 2 Lösungen vor.“[21]

Beispiel Affektheuristik:

Wenn ein Analyst die Bedrohung durch russische Streitkräfte im Oblast Kaliningrad beurteilen soll, dann kann diese Beurteilung davon abhängen, ob der Analyst Russland gegenüber emotional positiv oder negativ eingestellt ist. Diese Beeinflussung geschieht nicht notwendigerweise bewusst und absichtlich und kann dennoch dazu führen, dass der Analyseprozess in unzulässiger Weise beeinflusst wird. Beispielweise weil der Analyst unbewusst dazu tendiert, russlandkritische oder pro-russische Informationen bevorzugt zu verarbeiten; abhängig von seiner Einstellung.

Verfügbarkeitsheuristik / Availability Heuristic

Definition Verfügbarkeitsheuristik:

Bei der Verfügbarkeitsheuristik wird die Einschätzung der Häufigkeit oder Wahrscheinlichkeit eines Ereignisses oder einer Kategorie unbewusst davon abhängig gemacht, wie leicht es fällt, entsprechende Ergebnisse oder Kategorien aus dem Gedächtnis abzurufen.[22]

Erklärung Verfügbarkeitsheuristik:

Die Verfügbarkeitsheuristik kommt zum Tragen, wenn Personen die Wahrscheinlichkeit oder die Häufigkeit von Geschehnissen bewerten sollen. Bei der Bewertung greift der Mensch unbewusst auf zwei Strategien zurück. Er prüft, wie leicht es ihm fällt, ähnliche Geschehnisse zu erinnern und wie viele ähnliche Geschehnisse ihm einfallen; also Abrufgeschwindigkeit und Fallzahl. Ist es also möglich mit kognitiver Leichtigkeit viele ähnliche Geschehnisse zu erinnern, wird die Wahrscheinlichkeit oder die Häufigkeit entsprechender Geschehnisse hoch eingeschätzt. Allerdings trifft diese mentale Faustregel nicht immer zu. Die Abrufgeschwindigkeit und die Anzahl an abzurufenden vergleichbaren Vorfällen können von unterschiedlichen Faktoren beeinflusst werden, die selbst nichts mit der korrekten Wahrscheinlichkeit oder Häufigkeit zu tun haben. Beispielsweise, wenn entsprechende Vorfälle in jüngerer Vergangenheit stattfanden, wenn der Analyst vielleicht selbst involviert war und wenn dem Analysten lebhafte Eindrücke verfügbar sind.  Da Analysten häufig mit der Einschätzung von Wahrscheinlichkeiten befasst sind, sollten Sie sich mit dieser Heuristik auseinandersetzen und erkennen, wenn sie Gefahr laufen, Wahrscheinlichkeiten auf dessen Grundlage zu bewerten.[23]

Beispiel Verfügbarkeitsheuristik:

„In einer berühmten Studie wurden Eheleute gefragt: ‚Wie groß war Ihr persönlicher Beitrag beim Aufräumen Ihrer gemeinsamen Wohnung in Prozent?‘ […] Wie erwartet, addierten sich die Beiträge auf über 100%. Die Erklärung ist ein einfacher Verfügbarkeitsfehler: Beide Eheleute erinnern sich an ihre eigenen Bemühungen und Beiträge sehr viel deutlicher als an die ihres jeweiligen Partners, und dieser Verfügbarkeitsunterschied führt zu einem Unterschied in der beurteilten Häufigkeit.“[24]

Anker-Effekt / Anchoring Effect

Definition Anker-Effekt:

Der Anker-Effekt beschreibt die Tendenz, seine Analyse an der ersten oder frühesten Information zu verankern, die bewusst oder unbewusst als wichtig empfunden wurde. In der Folge werden spätere Anpassungen des initial vollzogenen Schlusses unzureichend angepasst und bleiben daher zu nah am ursprünglichen Anker. [25]

Erklärung Anker-Effekt:

Der Ankereffekt tritt auf, wenn Menschen auf Grundlage unvollständiger quantitativer Informationen Zahlenwerte schätzen sollen. Solche Zahlenwerte können Wahrscheinlichkeiten sein, Häufigkeiten, der vorliegende Grad an Unsicherheit und so weiter. Liegen bereits Zahlenwerte vor, beispielsweise aus einer älteren Analyse oder gibt der Analyst, vielleicht auch unbewusst, nach der Lektüre einiger weniger Informationen eine Initialschätzung ab, dann dient dieser Zahlenwert als kognitiver Anker. Der dann auf Grundlage dieses Ankers geschätzte Zahlenwert ist eine Anpassung desselben auf Grundlage verfügbarer Informationen. Allerdings wird diese Anpassung zu stark vom Anker beeinflusst, sodass in der Regel nicht ausreichend angepasst wird und es zu einer falschen Einschätzung kommt.[26]

Eine differenziertere Erläuterung des Themas, sowie die Zuordnung zu den zwei Systemen (System 1 / System 2) findet sich im entsprechenden Kapitel bei Daniel Kahneman: Schnelles Denken, Langsames Denken, ab Seite 152.[27]

Beispiel Anker-Effekt:

Jeder Zahlenwert kann, unbewusst, zu einem Anker werden. Wenn ich als Analyst also jüngst mit Zahlenwerten konfrontiert wurde, und diese können alles Mögliche sein, von 90% fettfreiem Käse, über 50% Arabica-Bohnen in meinem Kaffee bis hin zu Wettquoten bei der Fußballbundesliga, dann können auch diese sachfremden Werte Anker werden. Wenn ich nun von einem entsprechenden Anker beeinflusst bin und die Aufgabe habe zu bewerten, wie wahrscheinlich es ist, dass in einem aktuellen Analysefall von einem beteiligten Akteur bewusst getäuscht wird (Deception), kann der Anker meine Wahrscheinlichkeitsbewertung beeinflussen. Dies geschieht unbewusst und entzieht sich damit letztlich der eigenen Wahrnehmung und damit der eigenen Steuerung.

Groupthink

Definition Groupthink:

 „A usually subconscious preference for group consensus favoring agreement among group members and subtly discouraging alternative views and interpretations, which are often seen as efforts to disrupt the consensus the other members desire.“[28]

Erklärung Groupthink:

Bei eingespielten Gruppen, teilweise aber auch bei neuen Gruppen und bei Gruppen mit einem Hierarchiegefälle tendiert der jeder einzelne Gruppenteilnehmer dazu, einen gruppenübergreifenden Konsens zu finden. Diese Tendenz ist vor dem Hintergrund verständlich, dass keine Einzelperson der „Buh-Mann“ oder Spielverderber sein möchte, der die Gruppe „daran hindert“ zu einem Ergebnis zu gelangen.

Wenn in der Gruppe also ein Ergebnis gefunden wurde, das für jeden Beteiligten einigermaßen zufriedenstellend ist, wird dieses Ergebnis wahrscheinlich zum offiziellen Gruppenergebnis. Allerdings kann dieses Ergebnis deutlich schlechter ausfallen, als potentiell möglich gewesen wäre. Beispielsweise weil ein Beteiligter sich nicht getraut hat, seinen Vorschlag mit einzubringen und dieser Vorschlag zu einem deutlich besseren Ergebnis geführt hätte.

Beispiel Groupthink:

Die generelle Haltung der US-Intelligence Community im Vorfeld des US-Einmarschs in den Irak 2003 kann als Fall von Groupthink bewertet werden. Nachfolgend beispielhaft ein Auszug des entsprechenden Untersuchungsberichts des US-Kongresses vom 07 Juli 2004.:

„The Committee does not regard the analysis on Iraq’s aluminium tubes performed  by CIA contractors as an attempt to challenge assumptions, but rather as an example of the collective rationalization that is indicative  of ‘groupthink.’”[29]

Iraq
Link zum Committee-Report

Satisficing

Definition Satisficing:

„Selecting the first answer that appears ‚good enough.‘” [30]

Erklärung Satisficing:

Beim sogenannten „Satisficing“ [eine Kombination aus satisfy (dt: Zufriedenstellen) und suffice (dt: genügen, ausreichen)] wird die erstbeste, kohärent und plausibel erscheinende Hypothese ausgewählt, die identifiziert werden kann. Im Anschluss werden vorhandene Daten so gesammelt und aufbereitet, dass sie diese Hypothese stützen.[31] Es existiert eine große Schnittmenge zu Premature Closure. Allerdings stoppt die Analyse beim Satisficing gegebenenfalls noch früher, als bei Premature Closure.

Premature Closure

Definition Premature Closure:

„Stopping the search for a cause when a seemingly satisfactory answer is found before sufficient information can be collected and proper analysis can be performed.“[32]

Erklärung Premature Closure:

Als Phänomene ähneln sich Satisficing und Premature Closure sehr stark. Allerdings stoppt die Analyse beim Premature Closure gegebenenfalls später – jedoch immer noch verfrüht – als beim Satisficing.

Wie kann man es besser machen?

Wie wir in diesem Teilabschnitt über Biases und Heuristiken gesehen haben, existieren eine ganze Reihe unterschiedlicher kognitiver Fallstricke die den Prozess und das Ergebnis von Analysen negativ beeinflussen können. Es ist deutlich geworden, dass diese Fallstricke Ausflüsse von System 1 sind. Die Frage ist nun, wie der Einzelne und wie Organisationen diesen kognitiven Herausforderungen am besten begegnen können. Für Organisationen merkt Kahneman folgendes an:

"Organisationen können Fehler besser vermeiden als Individuen, weil sie naturgemäß langsamer denken und die Macht haben, geordnete Abläufe durchzusetzen. Organisationen können nützliche Prüflisten erstellen und ihre Einhaltung vorschreiben, und sie können auch ausgeklügelter Methoden wie Referenzklassen-Vorhersagen und Prä-mortem-Analysen einführen. Organisationen können zumindest teilweise auch dadurch, dass sie ein ganz bestimmtes Vokabular verwenden, eine Kultur fördern, in der Menschen aufeinander aufpassen, wenn sie sich [kognitiven] Minenfeldern nähern"*

Kahnemann, Daniel:
Schnelles Denken, Langsames Denken, Penguin Verlag, 12. Auflage, München 2012, S. 517.

Was Kahneman Organisationen empfiehlt, kann auch von einzelnen Analysten umgesetzt werden. Schlussendlich ist der Einzelne darauf angewiesen, stärker sein System 2 mit einzubeziehen. Also das langsame, analytische Denken.

Im nächsten Teilabschnitt möchte ich erläutern, wie genau das gelingen kann.

[1] Diese Definition ist eine Mischform der Definitionen und Ausführungen von Richards Heuer und Randolph Pherson. Vgl.  Heuer, a.a.O., S. 111: „Cognitive biases are mental errors, caused by our simplified information processing strategies.“. und Globalytica: Glossary of Cognitive Biases and Inappropriately-Used Heuristics, © 2017 Globalytica, LLC: „They prevent an analyst from accurately understanding reality even when all the needed data and evidence that would form an accurate view is in hand.!“

[2] Kahneman, a.a.O., S. 127.

[3] Siehe die entsprechenden Ausführungen im Abschnitt: HOW HUMANS THINK: System 1 and System 2 (German Language only)

[4] Sinclair arbeitete 37 Jahre bei der Central Intelligence Agency und betätigte sich anschließend als Berater im Feld der Analyse. Vgl. Sinclair, Robert S.: Thinking and Writing: Cognitive Science and Intelligence Analysis, Center for the Study of Intelligence, Washington, DC: February 2010 (Originally published in January 1984).

[5] Definition in Anlehnung an: Pherson, Randolph H.: Handbook of Analytic Tools & Techniques, 5th ed., Pherson Associates, LLC, 2018. Original: „Seeking only the information that is consistent with the lead hypothesis, judgement, or conclusion.“

[6] Vgl. Heuer, a.a.O., S. 20 f.

[7] Heuer, ebd., S. 23, eigene Übersetzung.

[8] Vgl. Heuer, ebd., S. 22 ff.

[9] Vgl. Heuer, ebd., S. 46 ff.

[10] Wikipedia: Filterblasen, Online: https://de.wikipedia.org/wiki/Filterblase, [Zugriff: 22.08.2019].

[11] Vgl. Heuer, a.a.O., S. 118 f.

[12] Globalytica, a.a.O.

[13] Unter Intelligence Failure kann im Wesentlichen verstanden werden, dass ein bestimmtes Ereignis großer Tragweite nicht vorhergesehen werden konnte. Als klassische Intelligence-Failures werden in der US-amerikanischen Intelligence Community beispielsweise 9/11 oder die Analysen im Vorfeld der US-Invasion im Irak 2003 (Stichwort vermeintliche Massenvernichtungswaffen Saddam Husseins) verstanden. Zu Intelligence-Failures in der US-amerkanischen Intelligence Community siehe beispielhaft: Hedley, John Hollister, Learning from Intelligence Failures, International Journal of Intelligence and CounterIntelligence, 18: 3, 2005, S. 435-450. Für einen anderen Ansatz und Umgang mit Intelligence-Failure (den Critical Thinking Ansatz) siehe beispielhaft: Moore, David T.: Critical Thinking and Intelligence Analysis, National Defence Intelligence College, Occasional Paper Number 14, Washington DC: 2007, S. 20 ff.

[14] Vgl. Heuer, a.a.O., S. 161.

[15] Vgl. Heuer, a.a.O., S. 161 ff.

[16] Vgl. Heuer, ebd., S. 165 ff.

[17] Übersetzung basierend auf: Globalytica, a.a.O.

[18] Vgl. Heuer, a.a.O., S. 33.

[19] Kahneman, a.a.O., S. 175.

[20] Vgl. Kahneman, ebd., S. 133 ff.

[21] Kahneman, ebd., S. 134.

[22] Definition in Anlehnung an: Globalytica, a.a.O.

[23] Vgl. Heuer, a.a.O., S. 147 ff.

[24] Kahneman, a.a.O., S. 166.

[25] Definition in Anlehnung an: Artner, Stephan et al.: Assessing the Value of Structured Analytic Techniques in the U.S. Intelligence Community, RAND Corporation, Research Report, 2016, S. 2.

[26] Vgl. Heuer, a.a.O., S. 150 ff.

[27] Vgl. Kahneman, a.a.O., S. 152 ff.

[28] Artner, a.a.O., S. 2.

[29] Senate Select Committee On Intelligence, Report on the U.S. Intelligence Community’s Prewar Intelligence Assessments on Iraq, United States Senate, 108th Congress, 7 July 2004, S. 21, Online: https://web.mit.edu/simsong/www/iraqreport2-textunder.pdf [Zugriff: 02.09.2019].

[30] Vgl. Heuer, a.a.O., S. 43.

[31] Vgl. Heuer, ebd., S. 44.

[32] Globalytica, a.a.O.

Share on facebook
Facebook
Share on xing
XING
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Share on telegram
Telegram