Denken für Fortgeschrittene

Menschen sagen gern, sie würden über Hausverstand verfügen, der ihnen x oder y doch ganz klar sagt.
Sie halten das irrtümlich für logisch – und übersehen dabei, dass unser menschliches Denken voller Fallen und Missdeutungen ist.
Ein Nachtrag zu meinem Artikel über Kritisches Denken im Zuge der VeMy-Serie.

Unser Hirn ist daran gewöhnt, von jeweils einem Einzelereignis auf das große Ganze zu schließen, um zu lernen. Das ist nicht per se schlecht, riecht aber auch nach Verallgemeinerung und Vorurteil. Es hindert uns im weiteren Geschehen oft am genaueren Hinsehen, Bedenken und Differenzieren.
Und darauf basiert dann der “Hausverstand” und mitunter ein ganzes Weltbild, das nichtmal einen Tellerrand als Horizont hat.

Insbesondere unser “schnelles” Denken – also die erste Schätzung und Ansage, die unser Hirn zu einem Thema abgibt – ist derart fehleranfällig, dass man das von Rechts wegen eigentlich gar nicht als Denken bezeichnen dürfte. Und es findet unbewusst statt, es präsentiert nur die Ergebnisse.
(Es gibt für ganz besonders vertrottelte Fehlschüsse des Hirns, ganz abseits der Forschung, auch den wunderbaren Begriff “Sekundenschaf” :)

Selbst die Menschen, die sehr wohl um Denkfallen, um kognitive Verzerrungen wissen, müssen schwer trainieren, um sie auch tatsächlich zu reduzieren. Für die völlige Vermeidung von Denkfallen reicht das aber nicht, manchmal werden sie dadurch sogar noch verstärkt.

In der Wissenschaft gibt es nicht umsonst eine ganze Reihe standardmäßiger Maßnahmen, um Verzerrungseffekte auszuschließen:
Verum- und Placebo-Gruppe, Randomisierung, Doppelblindverfahren, Nichtdeterministische Experimente, Anonymisierung, Peer Review, Auswertung durch Unabhängige, etc.

Könnte man als Mensch tatsächlich lernen, davon völlig, dauerhaft und zuverlässig frei zu sein, dann würde es all diese Maßnahmen als dauerhafte Krücke gar nicht brauchen. Damit ist auch klar: Jemand, der von diesen Denkfallen nicht einmal etwas weiß, kann auch nicht ermessen, wie weit sein Hausverstand danebenliegen könnte.

Exponentielles Wachstum etwa kommt in unserem alltäglichen Geschehen eher selten vor im Vergleich zu linearen Vorgängen, und wird somit vom superduper Hausverstand massiv unterschätzt. Selbst bei längeren Überlegungen kommen Ungeübte mit Schätzungen nicht nahe an die Wirklichkeit, geschweige denn mit einem geistigen Schnellschuss. Ein nettes Video dazu). Vergleichsweise bekannt ist die uralte Geschichte mit den Reiskörnern auf dem Schachbrett (Für Ungeduldige: ab Minute 2:50).

Einige der beliebtesten Denkfallen
Wir halten am liebsten das für wahr, was unsere bisherige Anschauung bestätigt. Wenn wir recherchieren, dann geben wir jenen Inhalten den Vorzug, die uns genehm sind. Uneindeutige Information interpretieren wir als Bestätigung unserer Anschauung.
(Bestätigungsfehler, confirmation bias / myside bias; belief perseverence / Hartnäckige erste Hypothese)

Wir glauben zu diesem Zwecke praktischerweise auch gleich, dass Fakten, die unserer Überzeugung widersprechen, diese Überzeugung erst recht bestätigen würden.
(Backfire-Effekt)

Wir glauben auch so gut wie unbesehen das, was wir zu einem Thema als erstes gehört haben. Weil es zu diesem Zeitpunkt ja auch noch gar nichts zu besehen gibt (glauben wir). In weiterer Folge messen wir dieser ersten Information aber völlig willkürlich einen Wahrheitsgehalt zu, der weit höher liegt als der von nachfolgend erhaltener Information – wohl, damit es auch weiterhin nichts zu besehen gibt.
(Wahrheitseffekt – illusory truth effect)

In meiner Erfahrung ist das eine sehr starke Denkfalle – oder vielleicht auch nur die mir am stärksten bewusste: Ich spüre geradezu, wie trotzig sich mein Geist einer neuen Information widersetzt, die nicht zur ersten erhaltenen passt. Ich muss mich dann sehr streng daran erinnern, dass mein Hirn einfach nur grade quietscht: “Aber, aber… Die erste Information war anders!”
Manchmal mag es ja reiner Zufall sein, welche Information wir als erstes hören. Viel mehr noch dürfte es aber darauf beruhen, welche exklusive Quelle der Erstinformation wir vorab nach der “confirmation bias” für unser tägliches Update auserkoren haben. In Zeiten von Social Media ist der Effekt vielleicht durch die Zufälligkeit etwas abgeschwächt; andererseits ist innerhalb von “Bubbles” die Wahrscheinlichkeit für vorgefärbte Erstinformation immer noch hoch – oder sogar noch höher, für noch tendenziösere Anschauungen, die uns zumeist als Fakten präsentiert werden.

Damit nah verwandt: Wir finden, eine Zahl wäre “eh recht niedrig”, wenn uns zuerst eine höhere Zahl präsentiert wurde. Bei allen nachfolgenden Verhandlungen beziehen wir uns auf das Verhältnis zu diesem ersten Ankerpunkt.
(Ankerheuristik, anchoring bias)
Das tun wir hartnäckig, selbst dann, wenn die erste Zahl in einem völlig anderen Zusammenhang genannt wurde.
(Bahnung, Priming)

Wir neigen dazu, von unserer verfügbaren Erinnerung an einzelne Beobachtungen oder Zeitungsartikel pauschal auf die große Masse zu schließen.
(Verfügbarkeitsheuristik)
Unsere Erwartungen beeinflussen unsere Wahrnehmung und damit auch unsere Urteilskraft.
(Selektive Wahrnehmung; selective perception)

Wir glauben, wir wären besser dran, wenn wir nur ja nix verändern.
(Status-quo-Verzerrung)
Wir meinen, es wäre viel riskanter, etwas zu tun, als nichts zu tun.
(Unterlassungseffekt)
Und hinterher glauben wir, unsere Vorhersagen waren viel akurrater gewesen, als sie es tatsächlich waren.
(“nachha is ma immer gscheiter”, hindsight bias)

Wir sind extrem anfällig dafür, ein- und dieselbe Information komplett gegensätzlich zu interpretieren, je nachdem, in welcher Form sie uns präsentiert wird.
(Deutungsrahmen, Framing-Effekt)
Wir sind dabei sehr beeinflussbar über die Art und Weise der Argumentation, selbst wenn sie überdeutlich hinkt.

Wir bringen mehr Mitgefühl mit einer kleinen Gruppe von Individuen auf als mit einer großen Menge Leidender, die aber anonym bleiben.
(compassion fade)
Wir finden, andere müssten doch viel besser unsere inneren Vorgänge checken, als sie es tatsächlich können; und wir selbst würden umgekehrt wahnsinnig viel davon verstehen, was in anderen vorgeht.
(illusion of transparency (egocentric bias))

Wir glauben, bei anderen wäre ihr Verhalten in erster Linie eine Charakterfrage, während wir für unser eigenes Verhalten die äußeren Umstände als Erklärung bevorzugen.
(Attributionsfehler; fundamental attribution error, actor-observer bias)

“Das reimt sich sogar, und was sich reimt, ist wahr!”
(rhyme as reason effect)
Für wie beweiskräftig wir das halten, was unsere eigenen Emotionen uns einflüstern, muss ich hier vielleicht gar nicht mehr besonders betonen.

Dafür, dass wir Laien sind, halten wir uns für eh total gscheit; fatalerweise glauben Laien das, während Experten dazu neigen, ihr Wissen zu unterschätzen, weil sie um die wahre Komplexität des Themas wissen.
(Dunning-Kruger-Effekt)
Wir glauben, andere würden stärkere egozentrische kognitive Verzerrungen erleben als wir selbst.
(Naïve cynicism)
Und wir selbst wären von alledem unbeeinflusst.
(Verzerrungsblindheit, bias blindspot)

Dann glauben wir, wir hätten uns “umfassend informiert”, weil wir cirka zwei Kanälen folgen, die wir selbst nach allen obigen “Kriterien” ausgewählt haben.
(Vermessenheitsverzerrung)

Was wir wissen
All das ist nicht nur gleichzeitig vorhanden, sondern baut auch noch aufeinander auf. Das ist es, was sich hinter “Hausverstand” oft tatsächlich verbirgt.
Und wir glauben das alles auch noch “intuitiv” in seinem schlimmsten Sinn: ohne Rücksicht auf Evidenz und Logik, und ohne eingehendere intellektuelle Untersuchung. Halten uns dabei aber gern für ungemein objektiv.

Dass unsereins überhaupt einen sinnvollen Gedanken zuwege bringt, ist ein Wunder für sich.

Man darf dankbar sein, dass die Wissenschaft erkannt hat, wie sehr man vor diesen Biases / kognitiven Verzerrungen im Denkvermögen ständig auf der Hut sein muss. Sie hätte ja auch völlig verzerrt nur meinen können: “Wir wissen das jetzt eh, und damit is gut”. Dann wäre die Denkblase, innerhalb derer sich jede wissenschaftliche Fragestellung bildet und bewegt, noch weit anfälliger für ein Hinneigen zu vordefinierten Anschauungen und für falsche Bestätigung.

Wir Menschen haben keine Ahnung, was die Vögel einander erzählen. Wir kennen ca. 5% der Tiefseebewohner. Wir haben gecheckt, dass Pheromone eine Rolle spielen dürften, wenn staatenbildende Insekten miteinander kommunizieren – aber was die einander erzählen, um als winzigste Wesen riesige Aufgaben gemeinsam zu bewältigen – davon haben wir keinen Schimmer. Nein, wir dichten ihnen im Rahmen anthropozentrischer Denkfehler oftmals noch menschliche Eigenschaften an.

Dennoch nehmen wir oft den kurzen Weg des Denkens, finden uns eh ziemlich super dabei und halten uns unverdrossen für die “Krone der Schöpfung”.
Setzt man das in Beziehung zu unserem insgesamt oft vertrottelt wirkenden Herdenverhalten und zu unserer unausrottbaren Angewohnheit, unsere eigenen Lebensräume zu zerstören und die der anderen Lebewesen gleich mit – dann ist diese Vermessenheit geradezu lachhaft.

Ein wenig mehr Demut wäre wirklich angebracht. Man könnte beim eigenen Denkvermögen anfangen. Ganz unvoreingenommen :)

ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø

Als Lektüre dazu empfehle ich:
“Schnelles Denken, langsames Denken” (“Thinking, fast and slow”) von Daniel Kahnemann, mit jeder Menge Erklärungen, Beispielen und teils sehr kreativen Studien zum Thema.
ஐ Eine kürzere Form hat Rafael Bucheggers “Irren mit Hausverstand”.

Man kann aber auch erstmal diverse Listen in der Wikipedia studieren:
Kognitive Verzerrung – Begriff
Liste kognitiver Verzerrungen
English: List of cognitive biases (Die englische Liste ist umfangreicher)
English: List of psychological effects (In der deutschen Wikipedia gibts nur einzelne Artikel zu einigen der Effekte)

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


* Die DSGVO-Checkbox ist ein Pflichtfeld.

*

Ja, ich bin damit einverstanden, dass meine Daten gespeichert und mein Kommentar mit Name veröffentlicht wird. Die Datenschutzerklärung nehme ich zur Kenntnis.