Heuristic (psychology)
Heuristik (von altgriechisch εὑρίσκω, heurískō, "ich finde, entdecke") ist der Prozess, bei dem Menschen mentale Abkürzungen verwenden, um zu Entscheidungen zu gelangen. Heuristiken sind einfache Strategien, die Menschen, Tiere, Organisationen und sogar Maschinen verwenden, um schnell Urteile zu bilden, Entscheidungen zu treffen und Lösungen für komplexe Probleme zu finden. Oft geht es dabei darum, sich auf die wichtigsten Aspekte eines Problems oder einer Situation zu konzentrieren, um eine Lösung zu finden. Heuristische Verfahren werden zwar eingesetzt, um die Antworten und Lösungen zu finden, die "am ehesten" funktionieren oder richtig sind, aber sie sind nicht immer richtig oder am genauesten. Auf Heuristiken basierende Urteile und Entscheidungen sind einfach gut genug, um ein dringendes Bedürfnis in Situationen der Unsicherheit zu befriedigen, in denen die Informationen unvollständig sind. In diesem Sinne können sie sich von Antworten unterscheiden, die durch Logik und Wahrscheinlichkeit gegeben werden.
Der Wirtschaftswissenschaftler und Kognitionspsychologe Herbert A. Simon führte das Konzept der Heuristik in den 1950er Jahren ein und wies darauf hin, dass die rationale Entscheidungsfindung ihre Grenzen hat. In den 1970er Jahren trugen die Psychologen Amos Tversky und Daniel Kahneman mit ihren Forschungen über kognitive Verzerrungen zu diesem Bereich bei. Durch ihre Arbeit wurden spezifische heuristische Modelle eingeführt, ein Gebiet, das sich seither nur noch vergrößert hat. Während einige argumentieren, dass reine Faulheit hinter dem heuristischen Prozess steckt, könnte dies nur eine vereinfachte Erklärung dafür sein, warum Menschen sich nicht so verhalten, wie wir es von ihnen erwarten. Andere Theorien besagen, dass die Heuristik genauer sein kann als Entscheidungen, die auf allen bekannten Faktoren und Konsequenzen beruhen, wie etwa der Weniger-ist-mehr-Effekt.
Geschichte
Herbert A. Simon formulierte eines der ersten Modelle der Heuristik, das so genannte Satisficing. Sein allgemeineres Forschungsprogramm befasste sich mit der Frage, wie Menschen Entscheidungen treffen, wenn die Bedingungen der Rational-Choice-Theorie nicht erfüllt sind, d. h. wie Menschen unter Unsicherheit entscheiden. Simon ist auch als Vater der begrenzten Rationalität bekannt, die er als die Untersuchung der Übereinstimmung (oder Nichtübereinstimmung) zwischen Heuristiken und Entscheidungsumgebungen verstand. Dieses Programm wurde später auf die Untersuchung der ökologischen Rationalität ausgeweitet.
In den frühen 1970er Jahren verfolgten die Psychologen Amos Tversky und Daniel Kahneman einen anderen Ansatz und brachten Heuristiken mit kognitiven Verzerrungen in Verbindung. Ihr typischer Versuchsaufbau bestand aus einer Logik- oder Wahrscheinlichkeitsregel, die in eine verbale Beschreibung eines Beurteilungsproblems eingebettet war, und zeigte, dass die intuitive Beurteilung der Menschen von der Regel abwich. Das nachstehende "Linda-Problem" ist ein Beispiel dafür. Die Abweichung wird dann durch eine Heuristik erklärt. Diese Forschung, das so genannte Heuristik- und Bias-Programm, stellte die Vorstellung in Frage, dass Menschen rationale Akteure sind, und erlangte erstmals 1974 mit der Science-Veröffentlichung "Judgment Under Uncertainty: Heuristics and Biases" weltweite Aufmerksamkeit. Obwohl die ursprünglich vorgeschlagenen Heuristiken im Laufe der Zeit verfeinert wurden, hat dieses Forschungsprogramm das Feld verändert, indem es die Forschungsfragen dauerhaft festlegte.
Die ursprünglichen Ideen von Herbert Simon wurden in den 1990er Jahren von Gerd Gigerenzer und anderen aufgegriffen. Ihrer Ansicht nach erfordert die Untersuchung von Heuristiken formale Modelle, die Vorhersagen über das Verhalten "ex ante" ermöglichen. Ihr Programm hat drei Aspekte:
- Was sind die Heuristiken, die Menschen verwenden? (die deskriptive Untersuchung des "adaptiven Werkzeugkastens")
- Unter welchen Bedingungen sollten sich Menschen auf eine bestimmte Heuristik verlassen? (die präskriptive Studie der ökologischen Rationalität)
- Wie kann man heuristische Entscheidungshilfen entwerfen, die leicht zu verstehen und auszuführen sind? (die ingenieurwissenschaftliche Untersuchung des intuitiven Designs, z. B. mit human-centered design oder user-centered design-Ansätzen).
Dieses Programm hat unter anderem gezeigt, dass Heuristiken in vielen realen Situationen, die durch Unsicherheit gekennzeichnet sind, zu schnellen, sparsamen und genauen Entscheidungen führen können.
Diese beiden unterschiedlichen Forschungsprogramme haben zu zwei Arten von Heuristikmodellen geführt: formale und informelle Modelle. Formale Modelle beschreiben den Entscheidungsprozess in Form eines Algorithmus, der mathematische Beweise und Computersimulationen ermöglicht. Im Gegensatz dazu sind informelle Modelle verbale Beschreibungen.
Formale Modelle von Heuristiken
Liste der formalen Modelle von Heuristiken:
- Heuristik der Eliminierung nach Aspekten
- Fast-and-frugal trees
- Geläufigkeitsheuristik
- Blickheuristik
- Erkennungsheuristik
- Satisficing
- Ähnlichkeitsheuristik
- Take-the-best-Heuristik
- Tallying
Simons Satisficing-Strategie
Die Satisficing-Heuristik von Herbert Simon kann verwendet werden, um in Situationen der Unsicherheit eine Alternative aus einer Menge von Alternativen auszuwählen. Ungewissheit bedeutet in diesem Fall, dass die Gesamtheit der Alternativen und ihre Folgen nicht bekannt oder bekannt sein können. Professionelle Immobilienunternehmer verlassen sich beispielsweise auf Satisficing, um zu entscheiden, in welchen Standort sie investieren, um neue Gewerbegebiete zu erschließen: "Wenn ich glaube, dass ich innerhalb von y Jahren mindestens x Renditen erzielen kann, dann nehme ich die Option. Im Allgemeinen wird Satisficing wie folgt definiert:
- Schritt 1: Festlegen eines Anspruchsniveaus α
- Schritt 2: Wählen Sie die erste Alternative, die α erfüllt.
Wenn keine Alternative gefunden wird, kann das Anspruchsniveau angepasst werden.
- Schritt 3: Wenn nach einer Zeit β keine Alternative α erfüllt hat, wird α um einen Betrag δ verringert und zu Schritt 1 zurückgekehrt.
Satisficing ist in vielen Bereichen bekannt, z. B. als Heuristik, die Autohändler verwenden, um die Preise für gebrauchte BMWs zu ermitteln.
Eliminierung nach Aspekten
Im Gegensatz zum Satisficing kann die Heuristik der Eliminierung nach Aspekten von Amos Tversky verwendet werden, wenn alle Alternativen gleichzeitig verfügbar sind. Der Entscheidungsträger reduziert schrittweise die Anzahl der Alternativen, indem er die Alternativen ausschließt, die das Anspruchsniveau eines bestimmten Attributs (oder Aspekts) nicht erfüllen. Während einer Reihe von Auswahlen neigen Menschen dazu, Unsicherheit zu erleben und Inkonsistenz zu zeigen. Die Eliminierung nach Aspekten kann bei der Auswahl von Alternativen eingesetzt werden. Der Prozess der Eliminierung nach Aspekten läuft im Allgemeinen wie folgt ab
- Schritt 1: Wählen Sie ein Attribut aus, das für die Entscheidungsfindung relevant ist.
- Schritt 2: Eliminierung aller Alternativen, die dieses spezifische Attribut ausschließen
- Schritt 3: Verwenden Sie ein anderes Attribut, um weitere Alternativen auszuschließen.
- Schritt 4: Wiederholen Sie Schritt 3, bis nur noch eine Option übrig ist, dann ist eine Entscheidung getroffen.
Die Eliminierung nach Aspekten geht nicht davon aus, dass die Auswahl von Alternativen den Verbrauchern helfen könnte, ihren Nutzen zu maximieren, sondern geht im Gegenteil davon aus, dass die Auswahl das Ergebnis eines probabilistischen Prozesses ist, der nach und nach Alternativen eliminiert. Ein einfaches Beispiel stammt von Amos Tversky: Wenn jemand ein neues Auto kaufen möchte, wird er als erstes das Automatikgetriebe in Betracht ziehen und alle Alternativen ausschließen, die kein Automatikgetriebe haben. Dann, wenn alle Alternativen, die dieses Merkmal nicht haben, eliminiert sind, wird ein anderer Aspekt, wie z. B. ein Preislimit von 3000 Dollar, angegeben. Der Eliminierungsprozess wird fortgesetzt, bis alle Alternativen ausgeschieden sind.
Die Eliminierung nach Aspekten eignet sich gut für die frühe Phase des Entscheidungsprozesses von Business Angels, da sie eine schnelle Entscheidungsfindung ermöglicht - Alternativen werden eliminiert, wenn die Investoren einen kritischen Mangel bei den potenziellen Möglichkeiten feststellen. Eine weitere Untersuchung hat gezeigt, dass die Eliminierung nach Aspekten bei der Auswahl von Stromverträgen weit verbreitet ist. Die Logik hinter diesen beiden Beispielen ist, dass die Eliminierung nach Aspekten bei der Entscheidungsfindung hilft, wenn man vor einer Reihe komplizierter Wahlmöglichkeiten steht. Es kann sein, dass jemand eine Entscheidung unter allen Alternativen treffen muss, obwohl er oder sie nur begrenzte intuitive Berechnungsmöglichkeiten und Zeit hat. Die Eliminierung nach Aspekten als kompensatorisches Modell könnte jedoch dabei helfen, solche komplexen Entscheidungen zu treffen, da sie einfacher anzuwenden ist und keine numerischen Berechnungen erfordert.
Erkennungsheuristik
Die Wiedererkennungsheuristik nutzt die grundlegende psychologische Fähigkeit der Wiedererkennung, um Rückschlüsse auf unbekannte Größen in der Welt zu ziehen. Bei zwei Alternativen lautet die Heuristik:
Wenn eine von zwei Alternativen erkannt wird und die andere nicht, dann folgert man, dass die erkannte Alternative den höheren Wert in Bezug auf das Kriterium hat.
Beim Tennisturnier in Wimbledon 2003 zum Beispiel spielte Andy Roddick gegen Tommy Robredo. Wenn man von Roddick, aber nicht von Robredo gehört hat, führt die Erkennungsheuristik zu der Vorhersage, dass Roddick gewinnen wird. Die Wiedererkennungsheuristik nutzt partielle Unkenntnis aus; wenn man von beiden oder keinem Spieler gehört hat, ist eine andere Strategie erforderlich. Studien zu Wimbledon 2003 und 2005 haben gezeigt, dass die von halb unwissenden Amateurspielern angewandte Wiedererkennungsheuristik die Ergebnisse aller Einzelspiele der Herren ebenso gut und besser vorhersagte als die Setzungen der Wimbledon-Experten (die alle Spieler kannten) sowie die ATP-Ranglisten. Die Erkennungsheuristik ist ökologisch rational (d.h. sie sagt gut voraus), wenn die Erkennungsvalidität deutlich über dem Zufall liegt. Im vorliegenden Fall korreliert die Wiedererkennung der Spielernamen in hohem Maße mit den Gewinnchancen der Spieler.
Take-the-best
Die "Take-the-best"-Heuristik nutzt die grundlegende psychologische Fähigkeit, Hinweise in der Reihenfolge ihrer Gültigkeit aus dem Gedächtnis abzurufen. Ausgehend von den Werten der Hinweise wird geschlossen, welche von zwei Alternativen einen höheren Wert für ein Kriterium hat. Im Gegensatz zur Erkennungsheuristik setzt sie voraus, dass alle Alternativen erkannt werden, und kann daher auch dann angewandt werden, wenn die Erkennungsheuristik dies nicht kann. Für binäre Cues (wobei 1 den höheren Wert des Kriteriums angibt) ist die Heuristik wie folgt definiert:
- Search rule: Search cues in the order of their validity
- versus
- Stopping rule: Stop search on finding the first cue that discriminates between the two alternatives (i.e., one cue values are 0 and 1).
- Decision rule: Infer that the alternative with the positive cue value (1) has the higher criterion value.
Die Gültigkeit vi eines Hinweises i ist definiert als der Anteil der richtigen Entscheidungen ci:
vi = ci / ti
wobei ti die Anzahl der Fälle ist, in denen sich die Werte der beiden Alternativen bei Cue i unterscheiden. Die Validität jedes Cues kann anhand von Beobachtungsstichproben geschätzt werden.
Take-the-best hat bemerkenswerte Eigenschaften. Im Vergleich zu komplexen maschinellen Lernmodellen hat sich gezeigt, dass es oft bessere Vorhersagen als Regressionsmodelle, Klassifizierungs- und Regressionsbäume, neuronale Netze und Support-Vector-Maschinen machen kann. (Brighton & Gigerenzer, 2015)
In ähnlicher Weise haben psychologische Studien gezeigt, dass in Situationen, in denen Take-the-Best ökologisch rational ist, ein großer Teil der Menschen dazu neigt, sich darauf zu verlassen. Dies gilt beispielsweise für die Entscheidungsfindung von Zollbeamten an Flughäfen, professionellen Einbrechern, Polizisten und Studenten. Die Bedingungen, unter denen Take-the-Best ökologisch rational ist, sind weitgehend bekannt. Take-the-best zeigt, dass die frühere Ansicht, dass das Ignorieren eines Teils der Informationen generell irrational wäre, falsch ist. Weniger kann mehr sein.
Schnelle und genügsame Bäume
Ein Fast-and-Frugal-Tree ist eine Heuristik, die es ermöglicht, Klassifizierungen vorzunehmen, z. B. ob ein Patient mit starken Brustschmerzen wahrscheinlich einen Herzinfarkt hat oder nicht, oder ob ein Auto, das sich einem Kontrollpunkt nähert, wahrscheinlich ein Terrorist oder eine Zivilperson ist. Es wird "schnell und sparsam" genannt, weil es, genau wie das Take-the-Best-Verfahren, schnelle Entscheidungen mit nur wenigen Hinweisen oder Attributen ermöglicht. Es wird "Baum" genannt, weil es wie ein Entscheidungsbaum dargestellt werden kann, bei dem man eine Reihe von Fragen stellt. Im Gegensatz zu einem vollständigen Entscheidungsbaum handelt es sich jedoch um einen unvollständigen Baum, um Zeit zu sparen und die Gefahr der Überanpassung zu verringern.

Abbildung 1 zeigt einen Fast-and-frugal-Baum, der für das Screening auf HIV (Humanes Immundefizienz-Virus) verwendet wird. Genau wie beim Take-the-Best-Verfahren verfügt der Baum über eine Suchregel, eine Stoppregel und eine Entscheidungsregel:
- Search rule: Search through cues in a specified order.
- Stopping rule: Stop search if an exit is reached.
- Decision rule: Classify the person according to the exit (here: No HIV or HIV).
Im HIV-Baum wird zunächst ein ELISA-Test (enzyme-linked immunosorbent assay) durchgeführt. Ist das Ergebnis negativ, wird das Testverfahren abgebrochen und dem Kunden die gute Nachricht mitgeteilt, dass er nicht HIV-positiv ist. Wenn das Ergebnis jedoch positiv ist, wird ein zweiter ELISA-Test durchgeführt, vorzugsweise von einem anderen Hersteller. Ist der zweite ELISA-Test negativ, wird das Verfahren eingestellt und der Kunde darüber informiert, dass er "kein HIV" hat. Ist das Ergebnis jedoch positiv, wird ein letzter Test, der Western Blot, durchgeführt.
Im Allgemeinen hat ein Fast-and-Frugal-Baum für n binäre Stichwörter genau n + 1 Ausgänge - einen für jedes Stichwort und zwei für das letzte Stichwort. Ein vollständiger Entscheidungsbaum erfordert dagegen 2n Ausgänge. Die Reihenfolge der Cues (Tests) in einem Fast-and-Frugal-Tree wird durch die Empfindlichkeit und Spezifität der Cues oder durch andere Überlegungen wie die Kosten der Tests bestimmt. Im Falle des HIV-Baums steht der ELISA an erster Stelle, weil er weniger Fehltreffer produziert als der Western-Blot-Test und außerdem weniger teuer ist. Der Western-Blot-Test hingegen produziert weniger Fehlalarme. In einem vollständigen Baum hingegen spielt die Reihenfolge für die Genauigkeit der Klassifizierungen keine Rolle.
Fast-and-frugal-Trees sind deskriptive oder präskriptive Modelle der Entscheidungsfindung unter Unsicherheit. So ergab eine Analyse von Gerichtsentscheidungen, dass ein Fast-and-Frugal-Tree das beste Modell dafür ist, wie Londoner Richter Kautionsentscheidungen treffen. Der HIV-Baum ist sowohl ein präskriptives - Ärzten wird das Verfahren beigebracht - als auch ein deskriptives Modell, d. h. die meisten Ärzte befolgen das Verfahren tatsächlich.
Tallying
Tallying ist eine Heuristik, die in einem Entscheidungsproblem diejenige Wahl als am sinnvollsten erachtet, die in den meisten identifizierbaren Maßstäben und Kriterien besser abschneidet als die Alternativen.
Im Gegensatz zur "Take-the-best"-Heuristik, bei der die Wichtigkeit eines bestimmten Aspekts (Cues) bei einer Entscheidung mit einem gewichteten Wert bewertet wird, berücksichtigt eine Person, die nach dem "Tallying"-Prinzip vorgeht, lediglich alle verfügbaren Aspekte einer alternativen Wahl mit gleichem Gewicht und wählt die Option mit den meisten positiven Aspekten.
In diesem Sinne unterscheidet sich das Abwägen von der "Take-the-best"-Heuristik, denn letztere unterscheidet natürlich nach dem Wert, der den einzelnen Aspekten beigemessen wird, und kann daher zu entgegengesetzten Ergebnissen führen.
Um dies zu veranschaulichen, betrachten wir ein Szenario, in dem vorhergesagt wird, ob Team A oder Team B in der kommenden Basketballsaison erfolgreicher sein wird. Mannschaft A ist in 3/4 der Aspekte, die zum Teamerfolg beitragen, überlegen, aber der Aspekt, in dem Mannschaft B stärker ist als Mannschaft A, wird als objektiv wichtiger für den Teamerfolg gewichtet als die anderen. Die Tallying-Heuristik würde Team A aufgrund seiner Überlegenheit in den meisten Aspekten als erfolgreicher einstufen, die Take-the-Best-Heuristik würde jedoch den gewichteten Wert des einzelnen Aspekts, in dem Team B überlegen ist, berücksichtigen, um zu bestimmen, dass Team B am erfolgreichsten ist.
Informelle Modelle der Heuristik
In ihrer ersten Untersuchung schlugen Tversky und Kahneman drei Heuristiken vor: Verfügbarkeit, Repräsentativität sowie Verankerung und Anpassung. Spätere Arbeiten haben viele weitere Heuristiken identifiziert. Heuristiken, die dem Urteilsvermögen zugrunde liegen, werden als "Urteilsheuristiken" bezeichnet. Eine andere Art von Heuristiken, die so genannten "Bewertungsheuristiken", werden verwendet, um die Erwünschtheit möglicher Entscheidungen zu beurteilen.
Liste der informellen Modelle von Heuristiken:
- Affektheuristik: Eine mentale Abkürzung, die Emotionen nutzt, um die Entscheidung zu beeinflussen. Emotionen spielen die Hauptrolle bei der Entscheidungsfindung oder der schnellen oder effizienten Lösung eines Problems. Sie wird bei der Beurteilung der Risiken und Vorteile von etwas eingesetzt, je nach den positiven oder negativen Gefühlen, die Menschen mit einem Stimulus verbinden. Man kann es auch als Bauchentscheidung bezeichnen, denn wenn das Bauchgefühl stimmt, ist der Nutzen hoch und die Risiken sind gering.
- Verankerung und Anpassung: Beschreibt die allgemeine menschliche Tendenz, sich bei der Entscheidungsfindung stärker auf die erste angebotene Information (den "Anker") zu verlassen. In einer Studie, die mit Kindern durchgeführt wurde, sollten die Kinder beispielsweise die Anzahl der Gummibärchen in einem Glas schätzen. Einer Gruppe von Kindern wurde entweder eine hohe oder eine niedrige "Basiszahl" (Anker) vorgegeben. Die Kinder schätzten die Anzahl der Gummibärchen so, dass sie näher an der ihnen gegebenen Ankerzahl lag.
- Verfügbarkeitsheuristik: Eine mentale Abkürzung, die auftritt, wenn Menschen Urteile über die Wahrscheinlichkeit von Ereignissen aufgrund der Leichtigkeit, mit der ihnen Beispiele in den Sinn kommen, fällen. In einem Experiment von Tversky und Kahneman aus dem Jahr 1973 gab beispielsweise die Mehrheit der Teilnehmer an, dass es in der englischen Sprache mehr Wörter gibt, die mit dem Buchstaben K beginnen, als Wörter, bei denen K der dritte Buchstabe ist. Tatsächlich gibt es in der englischen Sprache doppelt so viele Wörter mit K als drittem Buchstaben wie solche, die mit K beginnen, aber Wörter, die mit K beginnen, sind viel leichter abzurufen und ins Gedächtnis zu rufen.
- Gleichgewichtsheuristik: Bezieht sich darauf, dass eine Person die negativen und positiven Auswirkungen einer Entscheidung gegeneinander abwägt, wodurch die Wahl offensichtlich wird. Es ist eine mentale Abkürzung, die dem Einzelnen hilft, Frieden und Harmonie in seinem Leben zu erreichen, während er gleichzeitig versucht, die potenziellen Risiken oder Folgen einer Entscheidung zu vermeiden.
- Basisratenheuristik: Wenn eine Entscheidung die Wahrscheinlichkeit betrifft, ist dies eine mentale Abkürzung, die relevante Daten verwendet, um die Wahrscheinlichkeit des Eintretens eines Ergebnisses zu bestimmen. Bei der Anwendung dieser Heuristik kommt es häufig vor, dass Personen die Wahrscheinlichkeit einer Situation falsch einschätzen. Wenn es zum Beispiel einen Test für eine Krankheit gibt, der eine Genauigkeit von 90 % hat, denken die Leute vielleicht, dass sie zu 90 % erkrankt sind, obwohl die Krankheit nur 1 von 500 Menschen betrifft.
- Heuristik des gesunden Menschenverstandes: Wird häufig von Personen verwendet, wenn die möglichen Ergebnisse einer Entscheidung offensichtlich sind. Wenn zum Beispiel die Fernbedienung Ihres Fernsehers nicht mehr funktioniert, würden Sie wahrscheinlich die Batterien wechseln.
- Ansteckungsheuristik: Folgt dem Gesetz der Ansteckung oder Ähnlichkeit. Dies führt dazu, dass Menschen andere meiden, die für den Beobachter als "kontaminiert" gelten. Dies geschieht dadurch, dass der Beobachter etwas sieht, das als schlecht angesehen wird, oder dass er Objekte sucht, die mit etwas assoziiert werden, das ihm gut erscheint. Manche Dinge, die man als schädlich ansieht, sind es in Wirklichkeit nicht. Dies führt manchmal zu irrationalem Denken des Beobachters.
- Standardheuristik: In der realen Welt ist es üblich, dass Verbraucher diese Heuristik anwenden, wenn sie die Standardoption wählen, unabhängig davon, ob diese Option ihre Präferenz war.
- Educated guess heuristic: Wenn eine Person auf eine Entscheidung mit relevanten Informationen reagiert, die sie in Bezug auf das Problem gespeichert hat.
- Aufwandsheuristik: Der Wert eines Objekts wird durch den Aufwand bestimmt, der für die Herstellung des Objekts betrieben wurde. Objekte, deren Herstellung mehr Zeit in Anspruch nimmt, sind wertvoller, während Objekte, die weniger Zeit benötigen, als weniger wertvoll angesehen werden. Dies gilt auch für den Aufwand, der für die Herstellung des Produkts betrieben wird. Dies kann als Unterschied zwischen der Arbeit und dem Erwerb des Objekts und dem Auffinden des Objekts am Straßenrand gesehen werden. Es kann derselbe Gegenstand sein, aber der gefundene wird nicht als so wertvoll erachtet wie der, den wir uns verdient haben.
- Eskalation des Engagements: Beschreibt das Phänomen, dass Menschen eine höhere Investition in eine Entscheidung auf der Grundlage der kumulativen vorherigen Investition rechtfertigen, obwohl neue Beweise darauf hindeuten, dass die Kosten der Fortsetzung der Entscheidung ab heute den erwarteten Nutzen übersteigen. Dies ist verwandt mit dem Irrtum der versunkenen Kosten.
- Fairness-Heuristik: Bezieht sich auf die Reaktion eines Individuums auf eine Entscheidung einer Autoritätsperson. Wenn die Entscheidung auf faire Weise getroffen wird, ist die Wahrscheinlichkeit höher, dass der Einzelne sie freiwillig befolgt, als wenn sie ungerecht ist.
- Vertrautheitsheuristik: Eine mentale Abkürzung, die auf verschiedene Situationen angewandt wird und bei der der Einzelne davon ausgeht, dass die Umstände, die dem früheren Verhalten zugrunde lagen, auch für die gegenwärtige Situation gelten und dass das frühere Verhalten daher korrekt auf die neue Situation übertragen werden kann. Besonders häufig, wenn die Person eine hohe kognitive Belastung erfährt.
- Naive Diversifikation: Wenn Menschen aufgefordert werden, mehrere Entscheidungen auf einmal zu treffen, neigen sie dazu, stärker zu diversifizieren, als wenn sie dieselbe Art von Entscheidung nacheinander treffen.
- Peak-End-Regel: Die subjektiven Wahrnehmungen einer Person während der intensivsten und letzten Momente eines Ereignisses werden zu einem einzigen Urteil gemittelt. So könnte eine Person beispielsweise die Schwierigkeit eines Trainings beurteilen, indem sie nur den anspruchsvollsten Teil des Trainings (z. B. Tabata-Sprints) und das, was ganz am Ende passiert (z. B. ein Cool-down), berücksichtigt. Auf diese Weise könnte ein schwieriges Training wie das hier beschriebene als "leichter" empfunden werden als ein entspannteres Training, bei dem die Intensität nicht variiert (z. B. 45 Minuten Radfahren im aeroben Bereich 3, ohne Cool-down).
- Repräsentativitätsheuristik: Eine mentale Abkürzung, die bei der Beurteilung der Wahrscheinlichkeit eines Ereignisses oder der Merkmale einer Person unter Unsicherheit auf der Grundlage einer wahrgenommenen Ähnlichkeit zwischen den Aussichten des Objekts und einem typischen Fall oder einer Kategorie verwendet wird. Mit anderen Worten, diese Heuristik bezieht sich auf die Tendenz, etwas danach zu bewerten, wie ähnlich es einem Prototyp oder Stereotyp ist, der bereits im Kopf des Wahrnehmenden existiert. Dabei werden oft statistische Wahrscheinlichkeiten oder andere relevante Informationen außer Acht gelassen und stattdessen Annahmen getroffen, die auf der Übereinstimmung von Eigenschaften zwischen dem spezifischen Objekt und einer allgemeinen Kategorie beruhen. In einem Experiment von Tversky und Kahneman aus dem Jahr 1982 wurde den Teilnehmern zum Beispiel eine Beschreibung einer Frau namens Linda gegeben. Aufgrund der Beschreibung war es wahrscheinlich, dass Linda eine Feministin war. Achtzig bis neunzig Prozent der Teilnehmer, die zwischen zwei Optionen wählen konnten, entschieden sich dafür, dass es wahrscheinlicher sei, dass Linda Feministin "und" Bankangestellte sei als nur Bankangestellte. Die Wahrscheinlichkeit von zwei Ereignissen kann nicht größer sein als die von einem der beiden Ereignisse allein. Aus diesem Grund ist die Repräsentativitätsheuristik ein Beispiel für den Konjunktionstrugschluss.
- Knappheitsheuristik: Eine kognitive Voreingenommenheit, bei der Menschen Gegenständen oder Ereignissen einen höheren Wert beimessen, von denen man annimmt, dass sie nur in begrenztem Umfang vorhanden sind. Diese mentale Abkürzung geht davon aus, dass eine begrenzte Verfügbarkeit einen höheren Wert signalisiert, was dazu führt, dass Menschen Dinge, die schwerer zu bekommen sind, überbewerten, wie es in der Verhaltensökonomie der Fall ist. Die Wahrnehmung von Knappheit beeinflusst die Beurteilung von Qualität, Nutzen und Erwünschtheit, wobei die Gleichsetzung von Seltenheit und Wert zu systematischen Fehlern oder kognitiven Verzerrungen bei der Beurteilung von Objekten, Ereignissen oder Gelegenheiten führen kann.
- Simulationsheuristik: Eine vereinfachte mentale Strategie, bei der Menschen die Wahrscheinlichkeit des Eintretens eines Ereignisses danach bestimmen, wie einfach es ist, sich das Ereignis mental vorzustellen. Menschen bedauern Ereignisse, die leichter vorstellbar sind, mehr als solche, bei denen dies schwieriger ist. Es wird auch angenommen, dass Menschen diese Heuristik nutzen, um die Wahrscheinlichkeit des Verhaltens eines anderen vorherzusagen. Dies zeigt, dass Menschen ständig alles um sich herum simulieren, um die Wahrscheinlichkeit von Ereignissen um sie herum vorhersagen zu können. Es wird angenommen, dass Menschen dies tun, indem sie Ereignisse, die sie erlebt haben, mental rückgängig machen und dann mentale Simulationen der Ereignisse mit den entsprechenden Eingangswerten des geänderten Modells durchführen.
- Sozialer Beweis: Auch bekannt als informationeller sozialer Einfluss, der von Robert Cialdini in seinem 1984 erschienenen Buch Influence genannt wurde. Er besteht darin, dass Menschen die Handlungen anderer nachahmen. Er tritt verstärkt auf, wenn Menschen unsicher sind, wie sie sich verhalten sollen, insbesondere in unklaren sozialen Situationen.
- Working backward heuristic: When an individual assumes they have already solved a problem they work backwards in order to find how to achieve the solution they originally figured out.
Verfügbarkeit
In der Psychologie bezeichnet der Begriff "Verfügbarkeit" die Leichtigkeit, mit der eine bestimmte Idee in den Sinn kommt. Wenn Menschen die Wahrscheinlichkeit oder Häufigkeit eines Ereignisses auf der Grundlage seiner Verfügbarkeit einschätzen, verwenden sie die Verfügbarkeitsheuristik. Wenn man sich ein seltenes Ereignis leicht und anschaulich ins Gedächtnis rufen kann, überschätzt diese Heuristik die Wahrscheinlichkeit des Ereignisses. So überschätzen Menschen beispielsweise die Wahrscheinlichkeit, bei einem dramatischen Ereignis wie einem Tornado oder Terrorismus zu sterben. Dramatische, gewaltsame Todesfälle werden in der Regel in der Öffentlichkeit stärker wahrgenommen und haben daher eine höhere Verfügbarkeit. Andererseits sind gewöhnliche, aber alltägliche Ereignisse schwer in Erinnerung zu bringen, so dass ihre Wahrscheinlichkeit eher unterschätzt wird. Dazu gehören Todesfälle durch Selbstmord, Schlaganfälle und Diabetes. Diese Heuristik ist einer der Gründe, warum sich Menschen leichter von einer einzelnen, anschaulichen Geschichte beeinflussen lassen als von einer großen Menge statistischer Daten. Sie kann auch eine Rolle bei der Attraktivität von Lotterien spielen: Für jemanden, der ein Los kauft, sind die gut publizierten, jubelnden Gewinner leichter zugänglich als die Millionen von Menschen, die nichts gewonnen haben.
Wenn Menschen beurteilen, ob mehr englische Wörter mit T oder mit K beginnen beginnen, gibt die Verfügbarkeitsheuristik eine schnelle Antwort auf diese Frage. Wörter, die mit T beginnen, fallen einem leichter ein, und so geben die Versuchspersonen eine korrekte Antwort, ohne eine große Anzahl von Wörtern auszuzählen. Diese Heuristik kann jedoch auch zu Fehlern führen. Wenn Personen gefragt werden, ob es mehr englische Wörter mit K an der ersten oder mit K an der dritten Stelle gibt, wenden sie denselben Prozess an. Es ist leicht, an Wörter zu denken, die mit K beginnen, wie Känguru, Küche, oder gehalten. Schwieriger ist es, an Wörter mit "K" als drittem Buchstaben zu denken, wie "See" oder "anerkennen", obwohl diese objektiv dreimal häufiger vorkommen. Dies führt zu der falschen Schlussfolgerung, dass das "K" häufiger am Anfang von Wörtern vorkommt. In einem anderen Experiment hörten die Versuchspersonen die Namen zahlreicher berühmter Persönlichkeiten, von denen etwa gleich viele männlich und weiblich waren. Die Versuchspersonen wurden dann gefragt, ob die Liste der Namen mehr Männer oder mehr Frauen enthielt. Wenn die Männer in der Liste berühmter waren, glaubte die große Mehrheit der Versuchspersonen fälschlicherweise, dass es mehr von ihnen gab, und umgekehrt bei den Frauen. Tversky und Kahneman interpretieren diese Ergebnisse dahingehend, dass die Beurteilung des Verhältnisses auf der Verfügbarkeit beruht, die bei den Namen bekannterer Personen höher ist.
In einem Experiment, das vor den Präsidentschaftswahlen 1976 in den USA stattfand, wurden einige Teilnehmer gebeten, sich einen Sieg von Gerald Ford vorzustellen, während andere dasselbe für einen Sieg von Jimmy Carter taten. Jede Gruppe schätzte daraufhin die Wahrscheinlichkeit, dass der ihr zugewiesene Kandidat gewinnen würde, deutlich höher ein. Einen ähnlichen Effekt stellten die Forscher fest, als sich die Studenten eine gute oder schlechte Saison für ein College-Football-Team vorstellten. Die Wirkung der Vorstellungskraft auf die subjektive Wahrscheinlichkeit wurde von mehreren anderen Forschern wiederholt.
Die Verfügbarkeit eines Konzepts kann davon abhängen, wie lange und wie häufig es in Erinnerung geblieben ist. In einer Studie wurden den Versuchspersonen Teilsätze vorgelegt, die sie vervollständigen sollten. Die Wörter wurden so ausgewählt, dass sie entweder das Konzept der Feindseligkeit oder das der Freundlichkeit aktivierten: ein Prozess, der als "Priming" bekannt ist. Anschließend sollten sie das Verhalten eines Mannes interpretieren, das in einer kurzen, zweideutigen Geschichte beschrieben wurde. Sie interpretierten das Verhalten eines Mannes, der in einer kurzen zweideutigen Geschichte beschrieben wurde, in Richtung der Emotion, mit der sie geprimt worden waren: je mehr Priming, desto größer der Effekt. Ein größerer Abstand zwischen der ursprünglichen Aufgabe und der Beurteilung verringerte den Effekt.
Tversky und Kahneman boten die Verfügbarkeitsheuristik als Erklärung für illusorische Korrelationen an, bei denen Menschen zwei Ereignisse fälschlicherweise als miteinander verbunden ansehen. Sie erklärten, dass Menschen die Korrelation auf der Grundlage der Leichtigkeit beurteilen, mit der sie sich die beiden Ereignisse zusammen vorstellen oder in Erinnerung rufen können.
Repräsentativität

Die Repräsentativitätsheuristik kommt zum Tragen, wenn Menschen Kategorien verwenden, z. B. bei der Entscheidung, ob eine Person ein Krimineller ist oder nicht. Ein einzelnes Ding hat eine hohe Repräsentativität für eine Kategorie, wenn es einem Prototyp dieser Kategorie sehr ähnlich ist. Wenn Menschen Dinge auf der Grundlage ihrer Repräsentativität kategorisieren, verwenden sie die Repräsentativitätsheuristik. "Repräsentativ" ist hier in zwei verschiedenen Bedeutungen gemeint: Der zum Vergleich herangezogene Prototyp ist repräsentativ für seine Kategorie, und Repräsentativität ist auch eine Beziehung zwischen diesem Prototyp und dem zu kategorisierenden Ding. Diese Heuristik ist zwar für einige Probleme geeignet, doch werden dabei die besonderen Merkmale des Individuums berücksichtigt und die Häufigkeit dieser Kategorien in der Bevölkerung (die so genannten "Basisraten") außer Acht gelassen. So können Menschen die Wahrscheinlichkeit überschätzen, dass etwas eine sehr seltene Eigenschaft hat, oder die Wahrscheinlichkeit einer sehr häufigen Eigenschaft unterschätzen. Dies wird als Basisraten-Täuschung bezeichnet. Die Repräsentativität erklärt diese und mehrere andere Arten, in denen menschliche Urteile die Gesetze der Wahrscheinlichkeit verletzen.
Die Repräsentativitätsheuristik ist auch eine Erklärung dafür, wie Menschen Ursache und Wirkung beurteilen: Wenn sie diese Urteile auf der Grundlage von Ähnlichkeit fällen, spricht man auch von der Repräsentativitätsheuristik. Dies kann zu einer Voreingenommenheit führen, die dazu führt, dass kausale Beziehungen zwischen Dingen, die sich ähneln, fälschlicherweise erkannt und übersehen werden, wenn Ursache und Wirkung sehr unterschiedlich sind. Beispiele hierfür sind sowohl die Überzeugung, dass "emotional relevante Ereignisse emotional relevante Ursachen haben sollten", als auch magisches assoziatives Denken.
Repräsentativität von Basissätzen
In einem Experiment von 1973 wurde ein psychologisches Profil von Tom W., einem fiktiven Doktoranden, erstellt. Eine Gruppe von Probanden musste die Ähnlichkeit von Tom W. mit einem typischen Studenten in jedem von neun akademischen Bereichen (einschließlich Jura, Ingenieurwesen und Bibliothekswissenschaft) bewerten. Eine andere Gruppe sollte einschätzen, wie wahrscheinlich es ist, dass Tom sich in jedem Bereich spezialisiert. Wenn diese Einschätzungen der Wahrscheinlichkeit von der Wahrscheinlichkeit bestimmt werden, dann sollten sie den Basisraten ähneln, d. h. dem Anteil der Studenten in jedem der neun Bereiche (die von einer dritten Gruppe separat geschätzt wurden). Würde man sich auf die Wahrscheinlichkeit stützen, würde man sagen, dass Tom mit größerer Wahrscheinlichkeit Geisteswissenschaften als Bibliothekswissenschaften studiert, weil es viel mehr Studenten der Geisteswissenschaften gibt und die zusätzlichen Informationen im Profil vage und unzuverlässig sind. Stattdessen stimmten die Einschätzungen der Wahrscheinlichkeit fast perfekt mit den Einschätzungen der Ähnlichkeit überein, sowohl in dieser Studie als auch in einer ähnlichen Studie, in der die Probanden die Wahrscheinlichkeit beurteilten, dass eine fiktive Frau verschiedene Berufe ergreift. Dies deutet darauf hin, dass die Versuchspersonen die Wahrscheinlichkeit nicht anhand von Basissätzen schätzten, sondern das leichter zugängliche Attribut der Ähnlichkeit verwendeten.
Konjunktionstrugschluss
Wenn Menschen sich auf die Repräsentativität verlassen, können sie einem Irrtum unterliegen, der ein grundlegendes Gesetz der Wahrscheinlichkeit verletzt. Tversky und Kahneman gaben den Versuchspersonen eine kurze Charakterbeschreibung einer Frau namens Linda, die sie wie folgt beschrieb: "31 Jahre alt, ledig, offen und sehr intelligent. Ihr Hauptfach war Philosophie. Als Studentin beschäftigte sie sich intensiv mit Fragen der Diskriminierung und der sozialen Gerechtigkeit und nahm auch an Anti-Atomkraft-Demonstrationen teil". Die Personen, die diese Beschreibung lasen, bewerteten anschließend die Wahrscheinlichkeit der verschiedenen Aussagen über Linda. Dazu gehörten u. a. "Linda ist Bankangestellte" und "Linda ist Bankangestellte und engagiert sich in der feministischen Bewegung". Die Befragten neigten stark dazu, die letztere, spezifischere Aussage als wahrscheinlicher einzustufen, obwohl eine Verbindung der Form "Linda ist sowohl ‚‘X‚‘ als auch ‚‘Y‚‘" niemals wahrscheinlicher sein kann als die allgemeinere Aussage "Linda ist ‚‘X‚‘". Die heuristische Erklärung dafür ist, dass das Urteil verzerrt wurde, weil die Leserinnen und Leser die Charakterzeichnung als repräsentativ für eine Person ansahen, die eine aktive Feministin sein könnte, aber nicht für jemanden, der in einer Bank arbeitet. Eine ähnliche Übung betraf Bill, der als "intelligent, aber phantasielos" beschrieben wurde. Eine große Mehrheit der Befragten, die diese Zeichnung lasen, stufte "Bill ist ein Buchhalter, der als Hobby Jazz spielt" als wahrscheinlicher ein als "Bill spielt als Hobby Jazz".
Ohne Erfolg wandten Tversky und Kahneman eine Reihe von zunehmend verzweifelten Manipulationen" an, um ihre Probanden dazu zu bringen, den logischen Fehler zu erkennen. In einer Variante mussten die Versuchspersonen zwischen einer logischen Erklärung, warum "Linda ist eine Bankangestellte" wahrscheinlicher ist, und einem absichtlich unlogischen Argument wählen, das besagte, dass "Linda ist eine feministische Bankangestellte" wahrscheinlicher ist, "weil sie einer aktiven Feministin ähnlicher ist als einer Bankangestellten". Fünfundsechzig Prozent der Probanden fanden das unlogische Argument überzeugender. Auch andere Forscher führten Variationen dieser Studie durch und untersuchten die Möglichkeit, dass die Befragten die Frage missverstanden hatten. Sie konnten den Fehler nicht ausschließen. Es hat sich gezeigt, dass Personen mit hohen CRT-Werten deutlich seltener dem Konjunktionstrugschluss unterliegen. Der Fehler verschwindet, wenn die Frage in Form von Häufigkeiten gestellt wird. Jeder in diesen Versionen der Studie hat erkannt, dass von 100 Personen, die auf eine Rahmenbeschreibung passen, die Konjunktionsaussage ("Sie ist ‚‘X‚‘ und ‚‘Y‚‘") nicht auf mehr Personen zutreffen kann als die allgemeine Aussage ("Sie ist ‚‘X‚‘").
Ungenauigkeit der Stichprobengröße
Tversky und Kahneman baten die Probanden, ein Problem der zufälligen Variation zu betrachten. Wenn man der Einfachheit halber annimmt, dass genau die Hälfte der in einem Krankenhaus geborenen Babys männlich ist, wird das Verhältnis nicht in jedem Zeitraum genau die Hälfte betragen. An manchen Tagen werden mehr Mädchen geboren und an anderen mehr Jungen. Die Frage war, ob die Wahrscheinlichkeit einer Abweichung von genau der Hälfte davon abhängt, ob es viele oder wenige Geburten pro Tag gibt. Aus der Stichprobentheorie ist bekannt, dass die Proportionen von Tag zu Tag viel stärker schwanken, wenn die typische Anzahl der Geburten pro Tag gering ist. Die Antworten der Menschen auf dieses Problem spiegeln diese Tatsache jedoch nicht wider. Sie antworten in der Regel, dass die Anzahl der Geburten im Krankenhaus keinen Einfluss auf die Wahrscheinlichkeit hat, dass an einem Tag mehr als 60 % männliche Babys geboren werden. Die Erklärung für diese Heuristik ist, dass die Befragten nur berücksichtigen, wie repräsentativ die Zahl von 60 % für den zuvor angegebenen Durchschnitt von 50 % ist.
Verwässerungseffekt
Richard E. Nisbett und Kollegen vermuten, dass die Repräsentativität den "Verwässerungseffekt" erklärt, bei dem irrelevante Informationen die Wirkung eines Stereotyps abschwächen. In einer Studie wurden die Probanden gefragt, ob "Paul" oder "Susan" eher durchsetzungsfähig sei, wobei sie keine anderen Informationen als ihre Vornamen erhielten. Sie stuften Paul als durchsetzungsfähiger ein, wobei sie sich offenbar auf ein Geschlechtsstereotyp stützten. Eine andere Gruppe, die erfuhr, dass die Mütter von Paul und Susan beide in einer Bank arbeiten, zeigte diesen Stereotypeffekt nicht; sie stuften Paul und Susan als gleich durchsetzungsfähig ein. Die Erklärung dafür ist, dass die zusätzlichen Informationen über Paul und Susan sie weniger repräsentativ für Männer oder Frauen im Allgemeinen machten, so dass die Erwartungen der Probanden an Männer und Frauen einen schwächeren Effekt hatten. Das bedeutet, dass unabhängige und nicht-diagnostische Informationen über ein bestimmtes Thema dazu führen können, dass relative Informationen zu diesem Thema weniger stark wirken, wenn die Menschen das Phänomen verstehen.
Fehlwahrnehmung von Zufälligkeit
Die Repräsentativität erklärt systematische Fehler, die Menschen bei der Beurteilung der Wahrscheinlichkeit von Zufallsereignissen machen. Bei einer Folge von Münzwürfen, die jeweils Kopf (H) oder Zahl (T) ergeben, neigen Menschen beispielsweise zuverlässig dazu, eine eindeutig gemusterte Folge wie HHHTTT als weniger wahrscheinlich zu bewerten als eine weniger gemusterte Folge wie HTHTTH. Diese Sequenzen haben genau die gleiche Wahrscheinlichkeit, aber die Menschen neigen dazu, die klarer gemusterten Sequenzen als weniger repräsentativ für den Zufall zu betrachten, und damit als weniger wahrscheinlich, dass sie aus einem Zufallsprozess resultieren. Tversky und Kahneman argumentierten, dass dieser Effekt dem Spielertrug zugrunde liegt, d. h. der Tendenz, zu erwarten, dass sich die Ergebnisse auf kurze Sicht ausgleichen, so als würde man erwarten, dass ein Rouletterad schwarz wird, weil die letzten Würfe rot waren. Sie betonten, dass selbst Statistikexperten für diese Illusion anfällig sind: In einer 1971 durchgeführten Umfrage unter Berufspsychologen stellten sie fest, dass die Befragten davon ausgingen, dass Stichproben übermäßig repräsentativ für die Population seien, aus der sie gezogen wurden. Infolgedessen überschätzten die Psychologen systematisch die statistische Aussagekraft ihrer Tests und unterschätzten den für einen aussagekräftigen Test ihrer Hypothesen erforderlichen Stichprobenumfang.
Verankerung und Anpassung
Die Verankerung und Anpassung ist eine Heuristik, die in vielen Situationen verwendet wird, in denen Menschen eine Zahl schätzen. Nach der ursprünglichen Beschreibung von Tversky und Kahneman geht man dabei von einer leicht verfügbaren Zahl - dem "Anker" - aus und verschiebt sie entweder nach oben oder nach unten, um eine Antwort zu erhalten, die plausibel erscheint. In den Experimenten von Tversky und Kahneman entfernten sich die Menschen nicht weit genug vom Anker. Daher verunreinigt der Anker die Schätzung, auch wenn er eindeutig irrelevant ist. In einem Experiment sahen die Versuchspersonen zu, wie eine Zahl aus einem sich drehenden "Glücksrad" ausgewählt wurde. Sie mussten sagen, ob eine bestimmte Menge größer oder kleiner als diese Zahl war. Sie wurden zum Beispiel gefragt: "Ist der Prozentsatz der afrikanischen Länder, die Mitglieder der Vereinte Nationen sind, größer oder kleiner als 65 %?" Sie versuchten dann, den wahren Prozentsatz zu erraten. Ihre Antworten stimmten gut mit der willkürlichen Zahl überein, die sie erhalten hatten. Eine unzureichende Anpassung durch einen Anker ist nicht die einzige Erklärung für diesen Effekt. Eine alternative Theorie besagt, dass die Menschen ihre Schätzungen auf der Grundlage von Fakten vornehmen, die ihnen durch den Anker selektiv ins Gedächtnis gerufen werden.

Der Ankereffekt wurde in einer Vielzahl von Experimenten sowohl in Labors als auch in der realen Welt nachgewiesen. Er bleibt bestehen, wenn den Versuchspersonen Geld als Anreiz für ihre Genauigkeit angeboten wird oder wenn sie ausdrücklich aufgefordert werden, ihr Urteil nicht auf den Anker zu stützen. Der Effekt ist stärker, wenn die Personen ihre Urteile schnell fällen müssen. Die Versuchspersonen in diesen Experimenten sind sich der Heuristik nicht bewusst und leugnen, dass der Anker ihre Schätzungen beeinflusst hat.
Selbst wenn der Ankerwert offensichtlich zufällig oder extrem ist, kann er die Schätzungen verunreinigen. In einem Experiment sollten die Versuchspersonen das Jahr des ersten Besuchs von Albert Einstein in den Vereinigten Staaten schätzen. Die Ankerwerte 1215 und 1992 verfälschten die Antworten ebenso stark wie vernünftigere Ankerjahre. In anderen Experimenten wurden die Versuchspersonen gefragt, ob die Durchschnittstemperatur in San Francisco mehr oder weniger als 558 Grad beträgt oder ob es mehr oder weniger als 100.025 Top-Ten-Alben der Beatles gegeben hat. Diese absichtlich absurden Anker beeinflussten dennoch die Schätzungen der wahren Zahlen.
Die Verankerung führt zu einer besonders starken Verzerrung, wenn die Schätzungen in Form eines Konfidenzintervalls angegeben werden. Ein Beispiel ist die Vorhersage des Wertes eines Börsenindexes an einem bestimmten Tag, indem man eine obere und untere Grenze festlegt, so dass man zu 98 % sicher ist, dass der wahre Wert in diesen Bereich fällt. Ein zuverlässiges Ergebnis ist, dass die Personen ihre Ober- und Untergrenzen zu nahe an ihrer besten Schätzung verankern. Dies führt zu einem Overconfidence-Effekt. Ein häufig wiederholtes Ergebnis ist, dass Menschen, die zu 98 % sicher sind, dass eine Zahl in einem bestimmten Bereich liegt, in dreißig bis vierzig Prozent der Fälle falsch liegen.
Die Verankerung verursacht auch besondere Schwierigkeiten, wenn viele Zahlen zu einem zusammengesetzten Urteil kombiniert werden. Tversky und Kahneman demonstrierten dies, indem sie eine Gruppe von Personen baten, das Produkt 8 x 7 x 6 x 5 x 4 x 3 x 2 x 1 schnell zu schätzen. Eine andere Gruppe musste das gleiche Produkt in umgekehrter Reihenfolge schätzen: 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8. Beide Gruppen unterschätzten die Antwort bei weitem, aber die durchschnittliche Schätzung der letzteren Gruppe war deutlich geringer. Die Erklärung für die Verankerung ist, dass die Menschen die ersten paar Terme jedes Produkts multiplizieren und sich auf diese Zahl fixieren. Eine weniger abstrakte Aufgabe besteht darin, die Wahrscheinlichkeit zu schätzen, mit der ein Flugzeug abstürzt, da es zahlreiche mögliche Fehler gibt, die jeweils eine Wahrscheinlichkeit von eins zu einer Million haben. Bei Studien zu diesen Aufgaben wurde häufig festgestellt, dass sich die Menschen auf die kleinen Teilwahrscheinlichkeiten konzentrieren und so die Gesamtwahrscheinlichkeit unterschätzen. Ein ähnlicher Effekt tritt auf, wenn Menschen die Wahrscheinlichkeit des Eintretens mehrerer Ereignisse in Folge einschätzen, z. B. bei einer Akkumulatorenwette bei Pferderennen. Bei dieser Art von Beurteilung führt die Verankerung in den einzelnen Wahrscheinlichkeiten zu einer Überschätzung der Gesamtwahrscheinlichkeit.
Beispiele
Die Bewertung von Gütern und die Mengen, die sie kaufen, reagieren auf Verankerungseffekte. In einem Experiment schrieben die Teilnehmer die letzten beiden Ziffern ihrer Sozialversicherungsnummer auf. Dann wurden sie gebeten, sich zu überlegen, ob sie diese Anzahl von Dollars für Gegenstände zahlen würden, deren Wert sie nicht kannten, wie z. B. Wein, Schokolade und Computerausrüstung. Anschließend nahmen sie an einer Auktion teil, um für diese Gegenstände zu bieten. Diejenigen mit den höchsten zweistelligen Zahlen gaben Gebote ab, die um ein Vielfaches höher waren als die mit den niedrigsten Zahlen. Wurde ein Stapel Suppendosen in einem Supermarkt mit der Aufschrift "Limit 12 pro Kunde" versehen, veranlasste das Etikett die Kunden, mehr Dosen zu kaufen. In einem anderen Experiment schätzten Immobilienmakler den Wert von Häusern auf der Grundlage einer Besichtigung und umfangreicher Unterlagen ein. Den verschiedenen Maklern wurden unterschiedliche Angebotspreise vorgelegt, die sich auf ihre Schätzungen auswirkten. Bei einem Haus schwankte der geschätzte Wert zwischen 114.204 und 128.754 US-Dollar.
Es hat sich auch gezeigt, dass Verankerung und Anpassung die Noten von Schülern beeinflussen. In einem Experiment wurden 48 Lehrern Bündel von Schüleraufsätzen vorgelegt, die alle benotet und zurückgeschickt werden mussten. Außerdem erhielten sie eine fiktive Liste mit den bisherigen Noten der Schüler. Der Mittelwert dieser Noten beeinflusste die Noten, die die Lehrer für den Aufsatz vergaben.
Eine Studie zeigte, dass die Verankerung die Urteile in einem fiktiven Vergewaltigungsprozess beeinflusste. Die Probanden waren Richter mit durchschnittlich mehr als fünfzehn Jahren Erfahrung. Sie lasen Dokumente wie Zeugenaussagen, Sachverständigengutachten, das einschlägige Strafgesetzbuch und die Schlussplädoyers von Staatsanwaltschaft und Verteidigung. Die beiden Bedingungen dieses Experiments unterschieden sich nur in einem Punkt: In der einen Bedingung forderte der Staatsanwalt eine Strafe von 34 Monaten, in der anderen von 12 Monaten; zwischen den in diesen beiden Bedingungen verhängten durchschnittlichen Strafen bestand ein Unterschied von acht Monaten. In einem ähnlichen Scheinprozess übernahmen die Probanden die Rolle von Geschworenen in einem Zivilprozess. Sie wurden gebeten, entweder einen Schadenersatz "im Bereich von 15 bis 50 Millionen Dollar" oder "im Bereich von 50 bis 150 Millionen Dollar" zuzusprechen. Obwohl der Sachverhalt jedes Mal derselbe war, entschieden sich die Geschworenen, denen die höhere Spanne vorgegeben wurde, für eine etwa dreimal so hohe Entschädigung. Dies geschah, obwohl die Probanden ausdrücklich gewarnt wurden, die Anträge nicht als Beweismittel zu betrachten.
Bewertungen können auch durch die angebotenen Reize beeinflusst werden. In einer Untersuchung fanden Forscher heraus, dass Menschen, die einen Reiz als wichtig oder "gewichtig" für eine Situation empfinden, diesen Reiz eher als physisch schwerer einstufen.
Affekt-Heuristik
Ein "Affekt" ist in diesem Zusammenhang ein Gefühl wie Angst, Freude oder Überraschung. Es ist von kürzerer Dauer als eine Stimmung und tritt schnell und unwillkürlich als Reaktion auf einen Reiz auf. Während das Lesen des Wortes "Lungenkrebs" einen Affekt des Grauens auslösen kann, können die Worte "Mutterliebe" einen Affekt der Zuneigung und des Trostes hervorrufen. Wenn Menschen den Affekt ("Bauchgefühl") nutzen, um Vorteile oder Risiken zu beurteilen, verwenden sie die Affektheuristik. Die Affektheuristik wurde verwendet, um zu erklären, warum Botschaften, die so formuliert sind, dass sie Emotionen auslösen, überzeugender sind als solche, die rein sachlich formuliert sind.
Eskalationsheuristik des Engagements
Entscheidungsträger, ob auf organisatorischer oder nationaler Ebene, können vor dem Dilemma stehen, ob sie eine Operation fortsetzen oder sich aus ihr zurückziehen sollen. Die Heuristik der Eskalation des Engagements zeigt, dass Menschen oft dazu neigen, sich auf eine verlustreiche Vorgehensweise festzulegen, in der Hoffnung, dass die Investition von mehr Ressourcen in eine Maßnahme die Verluste umkehren wird. Darüber hinaus ist zu erwarten, dass eine Eskalation des Engagements in Situationen auftritt, in denen der Entscheidungsträger den operativen Erfolg für sich beanspruchen kann, Verluste und operatives Versagen jedoch von anderen, z. B. einer größeren Einheit, gesteuert und aufgefangen werden. Zu den kognitiven Determinanten, die die Eskalation des Engagements beeinflussen können, gehören Selbstrechtfertigung, Problemgestaltung, versunkene Kosten, Zielsubstitution, Selbstwirksamkeit, Verantwortlichkeit und Kontrollillusion. Der allgemeine Ablauf der Ereignisse, die zur Umsetzung der Heuristik der Eskalation des Engagements führen, ist wie folgt:
- Eine große Menge an Ressourcen wird in eine Operation investiert und kann nicht zurückgewonnen werden (versunkene Kosten).
- Das Vorhaben schneidet schlecht ab und gibt dem Entscheidungsträger ein negatives Feedback.
- Der Entscheidungsträger investiert weiter in das Vorhaben, in der Hoffnung, es zu retten, was die Heuristik der Eskalation des Engagements widerspiegelt.
Die Heuristik der Eskalation des Engagements ist nicht nur für Entscheidungsträger in Unternehmen und Organisationen von Bedeutung, sondern auch für Entscheidungen, die von nationalen Entscheidungsträgern getroffen werden. Ein Beispiel hierfür sind Entscheidungen in Bezug auf weitere Investitionen in Kriege. In einem Kriegsszenario werden die Kosten überwiegend von den Soldaten und Steuerzahlern getragen. Hinzu kommt, dass die Entscheidungsträger in Kriegsszenarien die Kosten ihrer Entscheidungen oft nicht direkt oder unmittelbar in gleichem Maße tragen müssen wie Soldaten und Steuerzahler, was ihnen die Entscheidung für weitere Investitionen erleichtert. Dies spiegelt die Heuristik der Eskalation des Engagements wider und führt unweigerlich zu einem zyklischen Prozess der Reinvestition, der sowohl auf lokaler als auch auf globaler Ebene zu langfristigen wirtschaftlichen, sozialen und politischen Problemen führen kann.
Andere
- Kontrollheuristik
- Ansteckungsheuristik
- Aufwandsheuristik
- Vertrautheitsheuristik
- Fluency-Heuristik
- Blick-Heuristik
- Hot-Hand-Täuschung
- Naive Diversifikation
- Peak-End-Regel
- Wiedererkennungsheuristik
- Knappheitsheuristik
- Ähnlichkeitsheuristik
- Simulationsheuristik
- Sozialer Beweis
Theorien
Es gibt konkurrierende Theorien über das menschliche Urteilsvermögen, die sich darin unterscheiden, ob die Verwendung von Heuristiken irrational ist. Der Ansatz der kognitiven Faulheit besagt, dass Heuristiken angesichts der Beschränkungen des menschlichen Gehirns unvermeidliche Abkürzungen sind. Der Ansatz der "natürlichen Bewertung" besagt, dass einige komplexe Berechnungen bereits schnell und automatisch vom Gehirn durchgeführt werden und dass andere Urteile auf diese Prozesse zurückgreifen, anstatt von Grund auf neu zu rechnen. Dies hat zu einer Theorie namens "Attributssubstitution" geführt, die besagt, dass Menschen eine komplizierte Frage oft durch die Beantwortung einer anderen, verwandten Frage lösen, ohne sich dessen bewusst zu sein. Ein dritter Ansatz besagt, dass Heuristiken genauso gut funktionieren wie kompliziertere Entscheidungsverfahren, aber schneller und mit weniger Informationen. Diese Sichtweise unterstreicht die "schnelle und sparsame" Natur der Heuristiken.
Kognitive Faulheit
Das von Anuj K. Shah und Daniel M. Oppenheimer vorgeschlagene Konzept der Aufwandsreduzierung besagt, dass Menschen eine Vielzahl von Techniken anwenden, um den Aufwand für Entscheidungen zu verringern.
Attribut-Substitution

Im Jahr 2002 schlugen Daniel Kahneman und Shane Frederick einen Prozess vor, der als Attributsubstitution bezeichnet wird und ohne bewusstes Erkennen abläuft. Nach dieser Theorie wird, wenn jemand ein Urteil (über ein Zielattribut) fällt, das rechnerisch komplex ist, ein leichter zu berechnendes heuristisches Attribut ersetzt. In der Tat wird ein schwieriges Problem durch die Beantwortung eines einfacheren Problems gelöst, ohne dass sich die Person dessen bewusst ist. Dies erklärt, warum sich Menschen ihrer eigenen Voreingenommenheit nicht bewusst sein können und warum Voreingenommenheit auch dann bestehen bleibt, wenn die Person darauf aufmerksam gemacht wird. Es erklärt auch, warum menschliche Urteile oft keine Regression zum Mittelwert zeigen.
Man geht davon aus, dass diese Substitution im automatischen, "intuitiven" Beurteilungssystem stattfindet und nicht im "reflektiven" System, das sich seiner selbst bewusst ist. Wenn also jemand versucht, eine schwierige Frage zu beantworten, kann es sein, dass er eine verwandte, aber andere Frage beantwortet, ohne zu merken, dass eine Substitution stattgefunden hat.
1975 schlug der Psychologe Stanley Smith Stevens vor, dass die Stärke eines Reizes (z. B. die Helligkeit eines Lichts, die Schwere eines Verbrechens) von den Gehirnzellen auf eine Weise kodiert wird, die von der Modalität unabhängig ist. Kahneman und Frederick bauten auf dieser Idee auf und argumentierten, dass das Zielattribut und das heuristische Attribut von sehr unterschiedlicher Natur sein könnten.
[P]eople are not accustomed to thinking hard, and are often content to trust a plausible judgment that comes to mind.
Daniel Kahneman, American Economic Review 93 (5) December 2003, p. 1450
Kahneman und Frederick schlagen drei Bedingungen für die Substitution von Attributen vor:
- Das Zielattribut ist relativ unzugänglich.
Bei der Beantwortung von Sachfragen, die direkt aus dem Gedächtnis abgerufen werden können ("Wann haben Sie Geburtstag?") oder die sich auf aktuelle Erfahrungen beziehen ("Haben Sie jetzt Durst?"), ist eine Substitution nicht zu erwarten.
Ein assoziiertes Attribut ist leicht zugänglich, sei es, weil es in der normalen Wahrnehmung automatisch bewertet wird oder weil es geprimt wurde. Jemand, der zum Beispiel über sein Liebesleben nachgedacht hat und dann gefragt wird, wie glücklich er ist, könnte die Zufriedenheit mit seinem Liebesleben anstelle anderer Bereiche angeben.
- Die Substitution wird vom reflektierenden System nicht erkannt und korrigiert.
Wenn man beispielsweise fragt: "Ein Schläger und ein Ball kosten zusammen 1,10 Dollar. Der Schläger kostet 1 $ mehr als der Ball. Wie viel kostet der Ball?", antworten viele Probanden fälschlicherweise mit $0,10. Eine Erklärung für die Substitution von Attributen ist, dass die Versuchspersonen, anstatt die Summe zu berechnen, die Summe von 1,10 $ in einen großen und einen kleinen Betrag aufteilen, was einfach zu machen ist. Ob sie das für die richtige Antwort halten, hängt davon ab, ob sie die Berechnung mit ihrem Reflexionssystem überprüfen.
Kahneman führt ein Beispiel an, bei dem einigen Amerikanern eine Versicherung gegen ihren eigenen Tod bei einem Terroranschlag während einer Europareise angeboten wurde, während einer anderen Gruppe eine Versicherung angeboten wurde, die den Tod jeglicher Art auf der Reise abdecken würde. Obwohl "Tod jeglicher Art" den "Tod bei einem Terroranschlag" einschließt, war die erste Gruppe bereit, mehr zu zahlen als die zweite. Kahneman vermutet, dass das Attribut Angst an die Stelle einer Berechnung des Gesamtrisikos der Reise tritt. Die Angst vor Terrorismus war bei diesen Probanden stärker als die allgemeine Angst, auf einer Auslandsreise zu sterben.
Schnell und genügsam
Gerd Gigerenzer und Kollegen haben argumentiert, dass Heuristiken verwendet werden können, um Urteile zu fällen, die genau und nicht voreingenommen sind. Ihnen zufolge sind Heuristiken "schnelle und sparsame" Alternativen zu komplizierteren Verfahren, die ebenso gute Antworten liefern.
Folgen
Effiziente Entscheidungsheuristiken
Warren Thorngate, ein Sozialpsychologe, implementierte zehn einfache Entscheidungsregeln oder Heuristiken in ein Computerprogramm. Er ermittelte, wie oft jede Heuristik in einer Reihe von zufällig generierten Entscheidungssituationen die Alternativen mit dem höchsten bis zum niedrigsten Erwartungswert auswählte. Er fand heraus, dass die meisten der simulierten Heuristiken die Alternativen mit dem höchsten Erwartungswert und fast nie die Alternativen mit dem niedrigsten Erwartungswert auswählten.
"Schön-ist-vertraut"-Effekt
Der Psychologe Benoît Monin berichtet über eine Reihe von Experimenten, in denen Versuchspersonen beim Betrachten von Fotos von Gesichtern beurteilen müssen, ob sie diese Gesichter schon einmal gesehen haben. Dabei zeigt sich immer wieder, dass attraktive Gesichter mit größerer Wahrscheinlichkeit fälschlicherweise als bekannt eingestuft werden. Monin interpretiert dieses Ergebnis im Sinne einer Substitution von Attributen. Das heuristische Attribut ist in diesem Fall ein "warmes Glühen", ein positives Gefühl gegenüber jemandem, das entweder auf Vertrautheit oder auf Attraktivität zurückzuführen sein könnte. Diese Interpretation ist kritisiert worden, da nicht die gesamte Varianz der Vertrautheit durch die Attraktivität des Fotos erklärt wird.
Urteile über Moral und Fairness
Der Rechtswissenschaftler Cass Sunstein hat argumentiert, dass die Substitution von Attributen weit verbreitet ist, wenn Menschen über moralische, politische oder rechtliche Fragen nachdenken. Bei einem schwierigen, neuartigen Problem in diesen Bereichen suchen die Menschen nach einem vertrauteren, verwandten Problem (einem "prototypischen Fall") und wenden dessen Lösung als Lösung für das schwierigere Problem an. Nach Sunstein können die Meinungen vertrauenswürdiger politischer oder religiöser Autoritäten als heuristische Attribute dienen, wenn Menschen nach ihrer eigenen Meinung zu einem Thema gefragt werden. Eine weitere Quelle für heuristische Attribute sind Emotionen: Die moralischen Meinungen der Menschen zu sensiblen Themen wie Sexualität und Klonen von Menschen können eher von Reaktionen wie Ekel als von durchdachten Prinzipien bestimmt sein. Sunstein wurde vorgeworfen, nicht genügend Beweise dafür zu liefern, dass in diesen Fällen die Substitution von Attributen und nicht andere Prozesse am Werk sind.
Überredung
Ein Beispiel dafür, wie Überredung bei der heuristischen Verarbeitung eine Rolle spielt, lässt sich durch das heuristisch-systematische Modell erklären. Darin wird erklärt, dass wir Informationen aus persuasiven Botschaften oft auf zwei Arten verarbeiten können, nämlich heuristisch und systematisch. Eine Heuristik liegt vor, wenn wir bei unserer Entscheidungsfindung ein schnelles Kurzurteil fällen. Die systematische Verarbeitung hingegen beinhaltet ein eher analytisches und neugieriges kognitives Denken. Der Einzelne sucht über sein eigenes Vorwissen hinaus nach Antworten. Ein Beispiel für dieses Modell könnte sein, wenn man eine Werbung für ein bestimmtes Medikament sieht. Jemand, der keine Vorkenntnisse hat, würde die Person in der richtigen pharmazeutischen Kleidung sehen und annehmen, dass sie weiß, wovon sie spricht. Daher hat diese Person automatisch mehr Glaubwürdigkeit und wird dem Inhalt der Botschaften eher vertrauen als der Person selbst. Eine andere Person, die ebenfalls in diesem Bereich tätig ist oder das Medikament bereits kennt, wird sich aufgrund ihrer systematischen Denkweise nicht von der Werbung überzeugen lassen. Dies wurde auch in einem von Chaiken und Maheswaran (1994) durchgeführten Experiment formal nachgewiesen. Zusätzlich zu diesen Beispielen passt die Fluency-Heuristik perfekt zum Thema Persuasion. Es wird beschrieben, wie wir alle leicht "das Beste aus einem automatischen Nebenprodukt des Abrufs aus dem Gedächtnis" machen. Ein Beispiel wäre, dass ein Freund Sie nach guten Büchern fragt, die Sie lesen sollten. Es könnten viele in Frage kommen, aber Sie nennen das erste Buch, das Ihnen in den Sinn kommt. Da es der erste Gedanke war, bewerten Sie es als besser als jedes andere Buch, das man vorschlagen könnte. Die Anstrengungsheuristik ist fast identisch mit der Geläufigkeit. Der einzige Unterschied besteht darin, dass Objekte, deren Herstellung mehr Zeit in Anspruch nimmt, einen höheren Wert haben. Man könnte zu dem Schluss kommen, dass eine Glasvase wertvoller ist als eine Zeichnung, nur weil es länger dauert, die Vase herzustellen. Diese beiden Arten von Heuristiken bestätigen, dass wir uns leicht von unseren geistigen Abkürzungen beeinflussen lassen, oder von dem, was uns am schnellsten in den Sinn kommt.
Referenzen
- Baron, Jonathan (2000), Thinking and deciding (3rd ed.), New York: Cambridge University Press, ISBN 978-0521650304, OCLC 316403966
- Gilovich, Thomas; Griffin, Dale W.; Kahneman, Daniel, eds. (2002), Heuristics and Biases: The Psychology of Intuitive Judgment, Cambridge University Press, ISBN 9780521796798, OCLC 47364085
- Hardman, David (2009), Judgment and decision making: psychological perspectives, Wiley-Blackwell, ISBN 9781405123983
- Hastie, Reid; Dawes, Robyn M. (29 September 2009), Rational Choice in an Uncertain World: The Psychology of Judgment and Decision Making, SAGE, ISBN 9781412959032
- Koehler, Derek J.; Harvey, Nigel (2004), Blackwell handbook of judgment and decision making, Wiley-Blackwell, ISBN 9781405107464
- Kahneman, Daniel; Slovic, Paul; Tversky, Amos, eds. (1982). Judgment Under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press. ISBN 9780521284141.
- Kunda, Ziva (1999), Social Cognition: Making Sense of People, MIT Press, ISBN 978-0-262-61143-5, OCLC 40618974
- Mussweiler, Thomas; Englich, Birte; Strack, Fritz (2004), "Anchoring effect", in Pohl, Rüdiger F. (ed.), Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, pp. 183–200, ISBN 9781841693514, OCLC 55124398
- Plous, Scott (1993), The Psychology of Judgment and Decision Making, McGraw-Hill, ISBN 9780070504776, OCLC 26931106
- Poundstone, William (2010), Priceless: the myth of fair value (and how to take advantage of it), Hill and Wang, ISBN 9780809094691
- Sutherland, Stuart (2007), Irrationality (2nd ed.), London: Pinter and Martin, ISBN 9781905177073, OCLC 72151566
- Tversky, Amos; Kahneman, Daniel (1974), "Judgments Under Uncertainty: Heuristics and Biases" (PDF), Science, 185 (4157): 1124–1131, Bibcode:1974Sci...185.1124T, doi:10.1126/science.185.4157.1124, PMID 17835457, S2CID 143452957, archived from the original (PDF) on 28 Mai 2019, retrieved 13 November 2014, nachgedruckt in Kahneman, Slovic & Tversky (1982), pp. 3–20.
- Yudkowsky, Eliezer (2011). "Cognitive biases potentially affecting judgment of global risks". In Bostrom, Nick; Cirkovic, Milan M. (eds.). Global Catastrophic Risks. OUP Oxford. pp. 91–119. ISBN 978-0-19-960650-4.
Weitere Lektüre
- Gilovich, Thomas; Griffin, Dale W. "Introduction – Heuristics and Biases: Then and Now". In Gilovich, Griffin & Kahneman (2002), pp. 1–18.
- Slovic, Paul; Melissa Finucane; Ellen Peters; Donald G. MacGregor. "The Affect Heuristic". In Gilovich, Griffin & Kahneman (2002), pp. 397–420.
- Reber, Rolf (2004), "Availability", in Pohl, Rüdiger F. (ed.), Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, pp. 147–163, ISBN 9781841693514, OCLC 55124398
- Teigen, Karl Halvor (2004), "Judgements by representativeness", in Pohl, Rüdiger F. (ed.), Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, pp. 165–182, ISBN 9781841693514, OCLC 55124398
- Gigerenzer, Gerd; Selten, Reinhard (2001). Bounded rationality: The adaptive toolbox. Cambridge, MA: MIT Press. ISBN 0585388288. OCLC 49569412.
- Korteling, Johan E.; Brouwer, Anne-Marie; Toet, Alexander (3 September 2018). "A Neural Network Framework for Cognitive Bias". Frontiers in Psychology. 9: 1561. doi:10.3389/fpsyg.2018.01561. PMC 6129743. PMID 30233451.
- Chow, Sheldon (20 April 2011). "Heuristics, Concepts, and Cognitive Architecture: Toward Understanding How The Mind Works". Electronic Thesis and Dissertation Repository.
- Todd, P. M. (2001). "Heuristics for Decision and Choice". International Encyclopedia of the Social & Behavioral Sciences. pp. 6676–6679. doi:10.1016/B0-08-043076-7/00629-X. ISBN 978-0-08-043076-8.
Externe Links
- "Testen Sie sich selbst: Entscheidungsfindung und die Verfügbarkeitsheuristik". Annenberg Learner. Annenberg Stiftung