Alcuni bias cognitivi che possono condizionare la valutazione dei rischi globali
Yudkowsky, Eliezer. 2008. “Cognitive Biases Potentially Affecting Judgment of Global Risks.” In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Cirkovic, 91–119. New York: Oxford University Press.
Se trovate un qualsiasi errore di traduzione in questo documento e volete correggerlo, oppure collaborare al Machine Intelligence Research Institute traducendo un altro nostro documento, scrivete a : jake@intelligence.org.
The original English text of this document can be found at:
intelligence.org/files/CognitiveBiases.pdf
Autore: Eliezer Yudkovsky
Traduttore: Michele Gianella
5. La fallacia della congiunzione
7. Ancoraggio, Accomodamento e Contaminazione
10. Calibrazione ed Iperconfidenza
A parità di tutto il resto, non sarebbero in molti a voler distruggere il mondo. Anche le multinazionali più spudorate, i governi più invadenti, gli scienziati più spietati ed altri agenti di sventura richiedono pur sempre un mondo nel quale ottenere i propri obiettivi di profitto, ordine, possesso, o altre bassezze. Se la nostra estinzione procederà abbastanza lentamente da permettere una terrorizzata presa di coscienza, questi agenti di sventura sarebbero probabilmente sorpresi dall'aver distrutto il mondo. Suggerisco quindi che se mai distruggeremo la Terra, questo avverrà probabilmente per errore.
Lo studio sistematico, sperimentale, degli errori riproducibili del ragionamento umano, e di quello che tali errori rivelano sui processi mentali sottostanti, è noto in psicologia cognitiva come programma di euristica ed errori sistematici. Questo settore di ricerca ha fatto scoperte molto rilevanti per chi deve valutare i rischi catastrofici globali. Supponiamo che siate preoccupati del rischio della sostanza P, un esplosivo capace di distruggere il mondo che detona se sottoposto ad un forte segnale radio. Per fortuna c'è un famoso esperto che ha scoperto la sostanza P, ha speso gli ultimi trent'anni a lavorarci, e la conosce meglio di chiunque altro al mondo. Chiami l'esperto e gli chiedi quanto deve essere forte il segnale radio. L'esperto risponde che la soglia critica è probabilmente attorno ai 4000 Terawatt. "Probabilmente?", chiedi. "Puoi darmi un intervallo di confidenza del 98%?" Certo, risponde l'esperto. "Confido al 99% che la soglia critica sia sotto gli 80.000 Terawatts. "E 10 Terawatt?", chiedi tu. "Impossibile", risponde l'esperto.
La metodologia sopra esposta per l'valutazione esperta sembra perfettamente ragionevole, il genere di cosa che ogni addetto ai lavori competente potrebbe fare se dovesse confrontarsi con un problema simile. In realtà, questa metodologia è stata usata nel Reactor Safety Study (Rasmussen 1975), ora ampiamente riconosciuto come il primo tentativo importante di quantificazione probabilistica del rischio. Ma gli studenti di euristica ed errori sistematici potranno individuare almeno due grandi falle nel metodo- non errori logici, ma condizioni estremamente suscettibili di errore umano.
Il programma di euristica ed errori sistematici ha scoperto risultati che potrebbero sorprendere, e sconfortare, un ricercatore non preparato. Alcuni lettori, che incontrassero per la prima volta i risultati citati qui, potrebbero alzarsi e dire: "Ma è un risultato sperimentale, questo? Siamo così scarsi a fare valutazioni? Forse è l'esperimento che è stato costruito male, e il risultato è sparito a forza di manipolazioni". Poiché manca lo spazio per rispondere in modo esaustivo, posso solo chiedere al lettore di consultare la letteratura sul tema. Le manipolazioni più ovvie sono già state testate, e i risultati scoperti hanno resistito a tali test.
Supponiamo che scegliate a caso una parola di tre lettere da un testo in inglese. È più probabile che la parola inizi con una R (come in "rullo") o che la R sia la terza lettera (come in "parco")?
Un principio generale sottostante il programma di euristica ed errori sistematici è che gli esseri umani usano metodi di pensiero - euristiche - che in molti casi restituiscano rapidamente delle buone risposte approssimative; ma questi metodi soffrono anche di errori sistematici, chiamati bias (distorsioni). Un esempio di euristica è giudicare la frequenza e la probabilità di un evento dalla sua disponibilità, la facilità con cui esempi dell'evento si presentano alla mente. La R appare in terza posizione, nelle parole inglesi, in più casi che nella prima, tuttavia è molto più semplice ricordare casi di parole in cui R sia la prima lettera che casi in cui R è la terza. Perciò la maggioranza dei sottoposti al test ritiene che R si trovi più spesso in prima posizione, quando in realtà è vero il contrario (Tversky e Kahneman 1973.)
Le distorsioni implicite nell'euristica della disponibilità condizionano le stime del rischio. Uno studio pioneristico di Lichtenstein e altri (1978) ha esaminato i giudizi sulla probabilità assoluta e relativa del rischio.
In linea generale, le persone sanno quali rischi causano molte morti e quali ne causano poche. Tuttavia, se si chiede loro di quantificare tali rischi con più precisione, le persone sovrastimano grandemente la frequenza delle rare cause di morte, e sottostimano grandemente la frequenza delle cause comuni. Ed erano evidenti anche altri errori ripetuti: gli incidenti erano ritenuti letali quanto le malattie (quando, in realtà, le malattie causano 16 volte più morti degli incidenti).
L'omicidio è stato erroneamente ritenuto una causa di morte più frequente del diabete, o del cancro allo stomaco. Uno studio di richiamo di Combs e Slovic (1979) ha comparato la copertura delle morti in due giornali, e ha scoperto che gli errori nella valutazione della probabilità erano fortemente correlati (.85 e .89) con la copertura delle notizie nei giornali.
Le persone si rifiutano di acquistare polizze anti-allagamento anche quando sono fortemente sussidiate e prezzate molto al di sotto del livello attuarialmente equo. Kates (1962) suggerisce che la scarsa sensibilità alla minaccia di allagamento possa essere dovuta all'incapacità degli individui di concettualizzare inondazioni che non sono mai avvenute... Le persone che si assicurano sembrano essere come prigioniere della loro esperienza... Le inondazioni sperimentate di recente sembrano stabilire un limite superiore al livello di perdite al quale i manager credono di doversi cominciare a preoccupare." Burton, Kates e White (1978) riferiscono che quando si costruiscono argini e dighe, queste riducono la frequenza delle inondazioni, e così creano un fittizio senso di sicurezza, che porta ad assumere minori precauzioni. Ma anche se costruire dighe diminuisce la frequenza delle inondazioni, il danno per singola inondazione è così maggiore, dopo, che a conti fatti il danno medio annuale aumenta.
Sembra che le persone non estrapolino la possibilità di grandi rischi dai piccoli pericoli effettivamente corsi; semmai, l'esperienza passata di piccoli rischi stabilisce un "limite superiore percepito” ai rischi. Una società ben protetta dai minori rischi non prenderà provvedimenti contro i rischi maggiori (come costruire sul letto di un fiume dopo aver provveduto ad eliminare le minori inondazioni). Una società soggetta a minori rischi regolari tratterà questi rischi minori come un limite superiore alle dimensioni dei rischi (proteggendosi dalle minori inondazioni regolari, ma non dalle grosse inondazioni occasionali).
I rischi di estinzione umana potrebbero essere sottostimati poiché, ovviamente, l'umanità non è ancora incorsa in una estinzione[1].
Si ha un hindsight bias (bias del senno di poi) quando i soggetti, dopo essere venuti a conoscenza di un determinato risultato, assegnano una stima alla prevedibilità di quel risultato molto più alta che se non avessero ricevuto alcuna informazione. A volte è chiamato l'effetto l'”ho-sempre-saputo”.
Fischhoff e Beyth (1975) hanno mostrato ad alcuni studenti racconti di scontri poco noti come quello tra i Gurkhas e gli Inglesi del 1814. A tutti fu raccontato dello scontro, ma a cinque gruppi diversi di studenti fu chiesto che probabilità avrebbero assegnato a quattro risultati: vittoria degli Inglesi, vittoria dei Gurkha, stallo con accordo di pace, stallo senza accordo di pace. Ai quattro gruppi sperimentali fu fatto credere che il "loro" risultato fosse l'effettivo risultato storico. Al quinto gruppo, di controllo, non fu suggerito alcun risultato storico. In ciascun caso, i gruppi a cui fu suggerito un dato risultato assegnarono a quel risultato una probabilità molto più ampia di quanto fecero gli altri gruppi, o il gruppo di controllo.
Il bias del senno di poi è importante nei casi legali, nei quali un giudice o una giuria devono determinare se la negligenza di un imputato nel non aver previsto correttamente un pericolo sia da considerarsi penalmente rilevante (Sanchiro 2003). In un esperimento basato su un vero caso legale, Kamin e Rachlinski (1995) chiesero a due gruppi di stimare la probabilità di danno da allagamento causato dal blocco di un ponte sollevabile pubblico.
Al gruppo di controllo furono date solo le informazioni disponibili all'amministrazione quando decisero di non assumere un guardiano. Al gruppo sperimentale fu data la stessa informazione, più il fatto che l'inondazione si era effettivamente verificata. Le istruzioni affermavano che l'amministrazione era responsabile se la probabilità prevedibile di allagamento superava il 10%. Il 76% del gruppo di controllo concluse che l'allagamento era così improbabile che nessuna precauzione era necessaria; il 57% del gruppo sperimentale, invece, concluse che l'allagamento era così probabile che il rifiutarsi di prendere precauzioni rendeva la negligenza penalmente rilevante. A un terzo gruppo sperimentale fu detto il risultato e inoltre fu esplicitamente chiesto di non farsene condizionare, ma questo non fece alcuna differenza: il 56% concluse che l'amministrazione era penalmente negligente. I giudici non possono semplicemente istruire le giurie a evitare il giudizio a posteriori: questa manipolazione de-distorcente non ha effetti significativi.
Quando guardiamo la storia sotto la lente del giudizio a posteriori, sottostimiamo grandemente i costi di prevenzione della catastrofe. Nel 1986, lo shuttle Challenger esplose per ragioni che alla fine furono fatte risalire ad una guarnizione O-ring, che perdeva flessibilità alle basse temperature (Rogers e al. 1986) Certo, erano state fatte segnalazioni di un problema con le guarnizioni. Ma impedire il disastro del Challenger avrebbe richiesto di fare attenzione non solo ai problemi con le guarnizioni, ma a tutti i segnali di ugualmente bassa gravità, e questo senza il beneficio del senno di poi.
Taleb (2004) ritiene che i bias del senno di poi e della disponibilità abbiano un ruolo primario nella nostra incapacità a proteggerci da quelli che Taleb chiama “cigni neri”. I cigni neri sono una versione particolarmente difficile del problema delle code spesse: a volte la maggior parte della varianza in un processo viene da eventi eccezionalmente rari ed eccezionalmente significativi. Consideriamo uno strumento finanziario che guadagna 10$ al 98% di probabilità, ma perde 1000$ col 2% di probabilità; il rischio netto è sconveniente, ma in apparenza sembra una vincita costante. Taleb (2001) fa l'esempio di un trader la cui strategia funziona per sei anni senza un singolo trimestre di vacche magre, guadagnando quasi 80 milioni di dollari- e poi perde 300 milioni di dollari in una singola catastrofe.
Un altro esempio è quello del Long Term Capital Management, un hedge fund che annoverava tra i fondatori due Premi Nobel in Economia. Durante la crisi valutaria in Asia e il default delle obbligazioni russe del 1998, i mercati si comportarono in modo assolutamente inedito, assegnando agli scenari previsti dal modello storico del LTCM una probabilità irrisoria. Di conseguenza, il fondo LTCM cominciò a perdere 100 milioni al giorno, ogni giorno. In un solo giorno del 1998, il fondo LTCM perse più di 500 milioni (Taleb 2004.)
In seguito, i fondatori del LTCM chiamarono le condizioni di mercato del 1998 un "evento 10-sigma". Ma ovviamente non era così improbabile. Ritenendo erroneamente che il passato fosse prevedibile, le persone concludono che lo sia anche il futuro. Nelle parole di Fischhoff (1982):
Quando tentiamo di comprendere gli eventi passati, implicitamente testiamo le ipotesi o le regole che usiamo sia per interpretare che per anticipare il mondo intorno a noi. Se, in retrospettiva, sottostimiamo sistematicamente le sorprese che il passato ci ha riservato e continua a riservarci, stiamo sottoponendo queste ipotesi a test troppo deboli e, di conseguenza, troviamo poche ragioni per cambiarli.
La lezione della storia è che i cigni neri capitano. Le persone sono sorprese dalle catastrofi che capitano al di là della loro previsione, della loro distribuzione storica di probabilità. Ma allora perché siamo così sconcertati quando i cigni neri avvengono? Perché il fondo LTCM ha sfruttato una leva finanziaria di 125 miliardi di dollari contro solo 4,72 miliardi di capitale, così quasi assicurandosi che qualunque cigno nero l'avrebbe spazzato via?
A causa del bias del senno di poi, le lezioni che impariamo sono troppo specifiche. Dopo l'11 Settembre, la U.S. Federal Aviation Administration ha proibito l'uso di taglierini a bordo degli aeroplani. In retrospettiva, l'evento sembrava troppo prevedibile, permettendo alle vittime arrabbiate di considerarlo il risultato della "negligenza" - un po' come il fallimento delle agenzie di intelligence di distinguere i segnali di pericolo provenienti da Al Quaeda tra migliaia di altri segnali di pericolo. Non abbiamo invece imparato ad impedire che gli aerei dirottati passino sopra le nostre città. Non abbiamo imparato la lezione:"I cigni neri avvengono; fate il possibile per prepararvi all'inatteso."
Taleb (2004, 7-8) scrive:
È difficile motivare la gente a proteggersi dai cigni neri... La prevenzione non è facilmente percepita, misurata o premiata; di norma, è un'attività impercettibile ed ingrata. Supponiamo che una misura costosa venga presa per scongiurare un simile evento. A quel punto i costi sarebbero facili da calcolare, ma l'impatto no. Come si può valutare l'efficacia, stabilire se la misura ha fatto il suo dovere oppure l'evento non si è verificato? Le valutazioni sulla performance di tali misure potrebbero essere non solo intricate, ma anche distorte a favore degli "atti di eroismo" osservati. I libri di storia non tengono conto delle misure preventive eroiche.
Linda ha 31 anni, è single, è un tipo schietto e brillante. Si è specializzata in filosofia. Da studente, era molto impegnata con le questioni della discriminazione e della giustizia sociale, ed ha anche partecipato a delle manifestazioni antinucleari.
Sapendo questo, classifica le seguenti affermazioni dalla più probabile alla meno probabile:
1) Linda è un'insegnante delle elementari;
2) Linda lavora in una libreria e va a lezione di Yoga;
3) Linda è attiva nel movimento femminista;
4) Linda è un assistente sociale psichiatrica;
5) Linda è un membro della Lega delle donne votanti;
6) Linda è una sportellista di banca;
7) Linda vende polizze assicurative;
8) Linda è una sportellista di banca ed è un'attiva femminista.
L'89% degli 88 studenti universitari ha valutato la frase (8) come più probabile della (6) (Tversky e Kahneman, 1982) E siccome fu scelta una descrizione di Linda più simile ad una femminista che ad una sportellista, la frase (8) è in effetti più rappresentativa della descrizione di Linda. Tuttavia, valutare (8) come più probabile di (6) viola la regola di congiunzione della teoria della probabilità che afferma come p(A&B) <= p(A). Immaginiamo un campione di 100 donne; certamente ci saranno più sportelliste di banca che sportelliste di banca femministe.
È possibile che la fallacia della congiunzione derivi dal fatto che i soggetti interpretino le istruzioni sperimentali in modo imprevisto? Forse i soggetti pensano che per "probabile" si intenda la probabilità della descrizione di Linda date le affermazioni (6) e (8). O forse i soggetti interpretano (6) per dire "Linda è una sportellista di banca e non è attiva nel movimento femminista". Sebbene molte ipotesi creative alternative siano state inventate per venire a capo della fallacia della congiunzione, essa ha resistito a tutti i test sperimentali che miravano a smentirla; vedi per esempio Sides e al. (2002). Per esempio, l'esperimento seguente esclude entrambe le alternative sopra proposte:
Considerate un dado regolare a sei facce con quattro facce verdi e due facce rosse. Il dado viene lanciato 20 volte e si registra la sequenza di rossi e verdi. Ti si chiede di scegliere una sequenza, da un set di tre, e vincerai 25 dollari se la sequenza che scegli appare nel tiro successivo. Scegli la sequenza di verdi e rossi su cui preferisci scommettere.
1) RGRRR
2) GRGRRR
3) GRRRRR
125 studenti della UBC e della Università di Stanford hanno giocato davvero questo gioco, con vincite reali. Il 65% dei soggetti ha scelto la sequenza (2) (Tversky e Kahneman 1983) La sequenza (2) è la più rappresentativa del dado, visto che il dado è per lo più verde e la sequenza (2) contiene la maggiore proporzione di facce verdi. Tuttavia, la sequenza (1) domina la sequenza (2) perché la (1) è strettamente inclusa nella (2) - per avere la (2) devi lanciare la (1) preceduta da una faccia verde.
Nel compito di cui sopra, gli studenti avrebbero potuto, in linea di principio, calcolare le esatte probabilità per ciascun evento. Tuttavia, piuttosto che sottoporsi agli sforzi di un calcolo numerico, sembrerebbe che (almeno il 65% de)gli studenti abbiano fatto una stima "ad occhio", basandosi su quale sequenza sembrasse più rappresentativa del dado. Chiamarla "euristica della rappresentatività" non implica che gli studenti abbiano deliberatamente deciso che avrebbero inferito la probabilità dalla rappresentatività. Piuttosto, l'euristica della rappresentatività è ciò che produce la percezione istintiva che la sequenza 2 "sembri più probabile" della sequenza 1. In altre parole, la "euristica della rappresentatività" è una caratteristica cablata del cervello per produrre rapidi giudizi sulla probabilità, più che una procedura coscientemente adottata. Non siamo consapevoli del nostro sostituire i giudizi sulla rappresentatività coi giudizi sulla probabilità.
La fallacia della congiunzione si applica anche alle previsioni futurologiche. A due gruppi indipendenti di analisti professionisti al Secondo Congresso Internazionale sul Forecasting fu chiesto di valutare, rispettivamente, la probabilità di "Una completa sospensione delle relazioni diplomatiche tra la Russia e gli Stati Uniti, ad un certo punto del 1983" oppure "Un'invasione russa della Polonia, seguita da una completa sospensione delle relazioni diplomatiche tra la Russia e gli Stati Uniti, ad un certo punto del 1983". Il secondo gruppo di analisti rispose assegnando probabilità significativamente più alte. (Tversky e Kahneman, 1983.)
In Johnson e al. (1993), studenti a Wharton del MBA dovevano fare un viaggio a Bangkok come parte del loro programma di corso. A diversi gruppi di studenti fu chiesto quanto fossero disposti a pagare per un assicurazione anti-terrorismo. Ad un gruppo di studenti fu chiesto quanto fossero disposti a pagare per una polizza anti-terrorismo che coprisse il volo dalla Thailandia agli Stati Uniti. Ad un secondo gruppo di studenti fu chiesto quanto fossero disposti a pagare per una polizza anti-terrorismo che coprisse l'andata e il ritorno. E a un terzo fu chiesto quanto fossero disposti a pagare per una polizza anti-terrorismo che coprisse l'intero viaggio in Thailandia. Questi tre gruppi risposero con una propensione media al pagamento, rispettivamente, di 17,19$, 13,90$, e 7,44$.
Stando alla teoria della probabilità, inserire dettagli aggiuntivi in una storia deve renderla meno probabile. È meno probabile che Linda sia una sportellista femminista che una sportellista tout court, poiché tutte le sportelliste femministe sono necessariamente sportelliste. Tuttavia, la psicologia umana sembra seguire la regola che inserire un dettaglio aggiuntivo possa rendere la storia più plausibile.
Le persone potrebbero pagare di più per un'operazione di diplomazia internazionale tesa a prevenire un attacco nanotecnologico dalla Cina, che per un progetto ingegneristico che difenda da un attacco tecnologico proveniente da ogni dove. Il secondo scenario è meno vivido e meno allarmante, ma offrirebbe una sicurezza maggiore proprio per il suo spettro più ampio. Ancora più valore avrebbero quelle strategie che renderebbero più difficile l'estinzione dell'umanità senza che la loro azione sia specifica per le minacce nanotecnologiche - come la colonizzazione dello spazio, oppure vedi Yudkowsky (2008) sull'AI. L'esperto di sicurezza Bruce Schneier ha osservato (sia prima che dopo l'uragano del 2005 a New Orleans) che il governo U.S. stava controllando obiettivi nazionali specifici contro "scenari complottistici" del terrorismo, a costo di sottrarre risorse a presidi di soccorso che avrebbero potuto rispondere a qualunque disastro (Schneier 2005)
Rassicurazioni super-dettagliate possono, inoltre, creare delle percezioni di sicurezza fasulle: "X NON è un rischio esistenziale e non c'è necessità che te ne preoccupi, a causa di A, B, C, D e E"; quando una qualsiasi delle singole proposizioni A, B, C, D ed E, se smentita, potrebbe potenzialmente estinguere la specie umana. "Non c'è bisogno di preoccuparsi della guerra nanotecnologica, perché una commissione ONU svilupperà inizialmente la tecnologia ed eviterà la sua proliferazione finché non arriverà uno scudo attivo, in grado di difenderci contro tutte le manifestazioni involontarie o ostili che la nanotecnologia attuale è in grado di produrre, e questa condizione permarrà indefinitamente." Scenari vividi e specifici possono "inflazionare" le nostre stime sulla sicurezza, oltre a fuorviare i nostri investimenti in difesa verso scenari di rischio inutilmente specifici, o improbabilmente dettagliati.
Più in generale, le persone tendono a sovrastimare le probabilità congiunte e a sottostimare le probabilità disgiunte (Tversky e Kahneman 1974.) In altre parole, le persone tendono a sovrastimare la probabilità che, per esempio, sette eventi probabili al 90% avvengano tutti. Invece, le persone tendono a sottostimare la probabilità che almeno uno di sette eventi probabili al 10% avvenga. Qualcuno che debba giudicare se, ad esempio, incorporare una nuova startup, deve valutare sia la probabilità che molti singoli eventi vadano tutti bene (che i fondi non manchino, gli impiegati siano competenti, i clienti vogliano il prodotto) sia considerare la probabilità di almeno un fallimento critico (la banca rifiuti un prestito, il maggior progetto fallisca, il principale scienziato muoia). Questo potrebbe aiutare a spiegare perché solo il 44% delle aziende sopravviva dopo 4 anni[2]. (Knaup 2005.)
Dawes (1988, p.133) osserva: “Nelle loro arringhe, gli avvocati evitano di di discutere attraverso disgiunzioni ("sarebbe potuto succedere o questo o quello, e la conclusione sarebbe sempre stata la stessa") in favore delle congiunzioni. [Ma] Razionalmente, è ovvio, le disgiunzioni sono molto più probabili delle congiunzioni.”
Lo scenario dell'estinzione dell'umanità nel prossimo secolo è un evento disgiuntivo. Potrebbe essere il risultato di uno qualunque dei rischi esistenziali discussi in questo libro - o di qualche altra causa che nessuno di noi aveva previsto. Tuttavia, agli occhi di chi prevede il futuro, le disgiunzioni rendono le profezie bizzarre e prosaiche.
Nel 1960, Peter Wason condusse un esperimento divenuto "classico", noto come il compito '2-4-6' (Wason 1960). I soggetti dovevano scoprire una regola, nota allo sperimentatore ma non al soggetto - come nella ricerca scientifica. I soggetti scrissero tre numeri, come '2-4-6' o '10-12-14' sulle tessere, e lo sperimentatore diceva se la tripletta rispettava la regola oppure no. Inizialmente, ai soggetti veniva data la tripletta '2-4-6', e si diceva loro che questa tripletta rispettava la regola.
I soggetti potevano continuare a testare le triplette finché non si sentivano sicuri di conoscere la regola dello sperimentatore, e a quel punto il soggetto annunciava la regola.
Sebbene i soggetti tipicamente esprimessero un'alta confidenza nelle loro supposizioni, solo il 21% dei soggetti di Wason indovinavano la regola dello sperimentatore, e le repliche dell'esperimento di Wason normalmente riportano tassi di successo di circa il 20%. Contrariamente al suggerimento di Karl Popper, i soggetti del compito di Wason cercavano di confermare le loro ipotesi, più che falsificarle. Pertanto, qualcuno che formuli l'ipotesi "I numeri aumentano di due" testerà le triplette 8-10-12 o 20-22-24, si sentirà dire che coincidono, e annuncerà la regola, sicuro di sé. Qualcuno che formuli la regola x-2x-3x testerà la tripletta 3-6-9, scoprirà che rispetta la regola, e a quel punto annuncerà quella regola. In ciascun caso la vera regola è la stessa: i tre numeri devono essere in ordine crescente.
In alcuni casi i soggetti individuavano, "testavano" e annunciavano regole molto più complicate della risposta vera.
Il compito '2-4-6' di Wason è una forma "fredda" di bias di conferma; le persone cercano le prove che confermano le loro supposizioni ma non quelle che le smentiscono. "Fredda" significa che il compito '2-4-6' è un caso di errore di conferma emotivamente neutrale; le convinzioni sono essenzialmente logiche. I casi "caldi" sono quelli in cui la convinzione è emotivamente carica, come nelle tesi politiche. Non sorprende che gli errori di conferma "caldi" siano più tenaci – dalla portata più ampia e più resistenti al cambiamento. Gli errori di conferma compiuti con più sforzo sono etichettati come cognizioni motivate (note più comunemente come "razionalizzazioni"). Brenner, Koehler e Rottenstreich (2002) scrivono in "Remarks on Support Theory":
Chiaramente, in molte circostanze, la desiderabilità del credere ad una ipotesi potrebbe notevolmente influenzare la sua solidità percepita... Kunda (1990) discute su come le persone motivate a raggiungere certe conclusioni tentino di costruire (in modo distorto) un'argomentazione per la loro ipotesi favorita che potrebbe convincere anche un pubblico imparziale. Gilovich (2000) suggerisce che le conclusioni sgradite siano sottoposte ad uno scrutinio più severo di quelle gradite. Nel primo caso, la persona si chiede se la prova spinga qualcuno ad accettare la conclusione; nel secondo, invece, la persona si chiede se la prova permetta a qualcuno di accettarla.
Quando le persone sottopongono le prove "inaccettabili" a maggiore scrutinio di quelle "accettabili", questo è noto come scetticismo motivato o bias di smentita. Il bias di smentita è particolarmente distruttivo per due ragioni: primo, due analisti “condizionati” al lavoro sullo stesso corpo di prove possono orientare le proprie convinzioni in direzioni opposte - entrambe le parti accetterebbero solo le prove a loro favore. E raccogliere più prove non avvicinerebbe le loro posizioni. Secondo, gli scettici più preparati - che cioè conoscono una lista più lunga di errori logici - ma che applicano tale abilità selettivamente, potrebbero cambiare opinione più lentamente degli analisti meno preparati.
Taber e Lodge (2006) hanno esaminato gli orientamenti precedenti e i cambi di orientamento di studenti che erano stati messi in contatto con la letteratura politica pro e contro il controllo sulle armi e l'affirmative action. Con due esperimenti, lo studio ha testato sei ipotesi:
Ironicamente, gli esperimenti di Taber e Lodger confermarono tutte le sei ipotesi precedenti degli autori. Forse direte: "L'esperimento riflette solo le convinzioni con cui gli autori sono partiti- è solo un caso di bias di conferma" Se le cose stanno così, allora rendendoti un oratore più sofisticato- cioè insegnandoti un'altra distorsione di cui accusare le persone - in realtà ti ho “avvertito”, ti ho reso più lento a reagire di fronte all'evidenza. Ti ho dato un'altra opportunità di fallire ogni volta che affronti la sfida di cambiare opinione.
L'euristica e le distorsioni sono assai frequenti nel ragionamento umano. La familiarità con l'euristica e le distorsioni ci permettono di individuare un'ampia varietà di errori logici che potrebbero altrimenti sfuggire alla nostra indagine. Ma come con qualunque abilità di individuare gli errori di ragionamento, questo studio deve essere condotto in modo paritetico: sia alle nostre idee che alle idee degli altri; sia alle idee "scomode" che a quelle "comode". La consapevolezza della fallibilità umana è una conoscenza pericolosa, se ti ricordi solo della fallibilità di chi è in disaccordo con te. Se sono selettivo sugli argomenti nei quali cercare un errore, o persino su quanto alacremente cercare gli errori, allora qualunque nuova regola della razionalità io impari, ogni nuovo errore logico che imparo ad individuare, mi rende di fatto molto più stupido. L'intelligenza, per essere utile, deve essere usata per qualcosa di diverso dall'auto-sabotarsi.
Non puoi "razionalizzare" una cosa con cui non è razionale iniziare - come se il mentire fosse chiamato "verificazione". Non c'è modo di estrarre più verità da una proposizione con la corruzione o con le lusinghe, o con l'argomentazione più appassionata - questo magari può far sì che più gente creda nella proposizione, ma non la rende più vera. Per migliorare la verità delle nostre convinzioni dobbiamo cambiare le nostre convinzioni. Non ogni cambiamento è un miglioramento, ma ogni miglioramento è necessariamente un cambiamento.
Le nostre convinzioni sono determinate più rapidamente di quanto pensiamo. Griffin e Tversky (1992) hanno approcciato separatamente 24 colleghi che dovevano scegliere tra due offerte di lavoro, e hanno chiesto loro di stimare la probabilità con cui avrebbero potuto scegliere ciascuna offerta. Alla scelta cui fu assegnata la probabilità maggiore, la confidenza media era di un modesto 66%. Tuttavia, solo uno dei 24 soggetti scelse l'opzione cui era stata assegnata inizialmente la probabilità minore, per cui l'accuratezza complessiva della previsione era del 96% (uno dei pochi esempi documentati dell'umana sotto-confidenza)
La morale potrebbe essere che una volta che puoi individuare quale sarà la tua risposta - una volta che puoi assegnare una probabilità più alta alle tue risposte, in un modo o nell'altro - hai, con ogni probabilità, già deciso. E se foste onesti con voi stessi, spesso sareste in grado di individuare la vostra risposta finale a pochi secondi dalla domanda. Cambiamo opinione meno spesso di quanto pensiamo. Quanto è effimero quel breve, sfuggente momento in cui ancora non sai quale sarà la tua risposta, il piccolo, fragile istante in cui l'intelligenza ha una possibilità di agire. Quando si tratta di scegliere, o di valutare un fatto.
Thor Shenkel disse:"Non è una vera crisi della fede, finché le cose hanno la stessa chance di andare in un altro modo"
Norman R. F. Maier disse: "Non proporre soluzioni finché il problema non è stato discusso nel modo più approfondito possibile senza suggerirne alcuna."
Robyn Dawes, commentando Maier, ha detto: "Ho spesso usato questa massima coi gruppi che ho guidato - particolarmente quando affrontano un problema molto duro, che è il caso in cui i membri del gruppo sono più propensi a proporre le soluzioni immediatamente."
Nella sicurezza informatica, un sistema "trusted" è un sistema di cui tu ti fidi, non un sistema affidabile in sé. Un sistema "trusted" è un sistema che, se inaffidabile, può causare un guasto. Quando leggi su un paper che una catastrofe globale è impossibile, o ha una specifica probabilità annuale, o il rischio può essere gestito con qualche strategia specifica, allora ti stai fidando della razionalità degli autori. Confidi della capacità degli autori di passare da una conclusione comoda ad una scomoda, anche in assenza di una inequivocabile prova sperimentale che provi l'infondatezza di un'ipotesi gradita. Confidi che gli autori non abbiano inconsciamente cercato con più solerzia gli errori nelle equazioni che sembravano portare in una direzione sbagliata, prima ancora di vedere il paper finale.
E se l'autorità legifera che basta ventilare un rischio esistenziale per chiudere un progetto, o se diventa una verità de facto del processo politico che nessun possibile calcolo può sovrastare il peso di un allarme, una volta lanciato, allora nessun scienziato ne parlerà più, il che è peggio. Non so come risolvere il problema. Ma penso sarebbe un bene, per chi valuta i rischi esistenziali, sapere qualcosa dell'euristica e degli errori in generale, e in particolare del bias di smentita.
Vedete uno sperimentatore spingere una "Ruota della Fortuna", e la ruota punta sul (versione uno) numero 65 oppure (versione due) numero 15. A quel punto lo sperimentatore ti chiede se la percentuale di nazioni africane nelle Nazioni Unite sia sopra o sotto quel numero. Dopo la tua risposta, lo sperimentatore ti chiede di stimare la percentuale delle nazioni africane nelle Nazioni Unite.
Tversky e Kahneman (1974) dimostrarono che i soggetti ai quali fu inizialmente chiesto se il numero era superiore o inferiore a 15, in seguito formularono stime di percentuali sostanzialmente più basse dei soggetti ai quali fu inizialmente chiesto se la percentuale era sopra o sotto il 65. Le stime mediane dei gruppi della percentuale delle nazioni africane nelle Nazioni Unite erano rispettivamente 25 e 45. E questo anche se i soggetti avevano visto generare il numero da un generatore di numeri casuali, la Ruota della Fortuna, e quindi credevano che il numero non avesse alcuna relazione con la percentuale effettiva delle nazioni africane nelle Nazioni Unite. Inserire una ricompensa per l'accuratezza non cambiò l'ordine di grandezza dell'effetto. Tversky e Kahneman ipotizzarono che questo effetto fosse dovuto all'ancoraggio e all'accomodamento; i soggetti presero il numero iniziale, di per sé non informativo, come punto di partenza, o ancora, e poi corressero il numero in alto o in basso finché raggiunsero una risposta che suonasse loro plausibile; e poi smisero di correggere. Il risultato era una sotto-correzione rispetto all'ancora.
Nell'esempio che apre il paper, noi prima abbiamo chiesto all'esperto della sostanza P di individuare il valore effettivo per la forza del segnale radio che l'avrebbe detonata, e solo dopo abbiamo chiesto i livelli di confidenza intorno a quel valore. Questo metodo di valutazione porta le persone a correggere verso l'alto o verso il basso rispetto alla loro stima di partenza, finché raggiungono valori che "suonano implausibili" e smettono di correggere. Questo porta a sotto-correzioni e a vincoli di confidenza troppo stretti.
Dopo il paper del 1974 di Tversky e Kahnemanm si è cominciata ad accumulare ricerca che mostra un range sempre più alto di ancoramento e pseudo-ancoramento. L'ancoramento si verificava anche quando le ancore erano risposte alquanto implausibili alla domanda; per esempio, chiedere ai soggetti l'anno in cui Einstein vide gli Stati Uniti per la prima volta, dopo aver considerato ancore come 1215 o del 1992. Queste ancore implausibili producevano effetti di ancoraggio ampi quanto ancore altrettanto plausibili come il 1905 o il 1939 (Strack e Mussweiler 1997). Camminando per la corsia di un supermercato, incontri una pila di lattine di zuppa di pomodoro, e un cartello che dice "Il limite è di 12 lattine per cliente" È possibile che questo segno spinga la gente ad acquistare più lattine di zuppa di pomodoro? Secondo un esperimento empirico, sì (Wansink, Kent e Hoch 1998)
Questi fenomeni così generalizzati hanno preso il nome di effetti di contaminazione, poiché è emerso che quasi ogni informazione potrebbe farsi strada in un giudizio cognitivo (Chapman e Johnson 2002). Tra le manipolazioni tentate per eliminare la contaminazione annoveriamo: pagare i soggetti per avere risposte corrette (Tversky e Kahneman 1974), formare i soggetti per evitare l'ancoraggio sulla quantità iniziale (Quattrone e al. 1981), e affrontare problemi del mondo reale (Wansink e al. 1998) Queste manipolazioni non hanno eliminato, o anche solo leggermente diminuito, la grandezza degli effetti di ancoraggio e contaminazione. Di norma, inoltre, i soggetti cui fu chiesto se erano stati influenzati dal fattore contaminante negavano di essere stati influenzati, quando l'esperimento mostrava che lo erano (Wilson e al. 1996)
Una manipolazione che in un caso dopo l'altro aumenta gli effetti di contaminazione è mettere i soggetti in condizioni cognitivamente "impegnate" come narrare una stringa di parole mentre stanno lavorando (Gilbert e al. 1998) o chiedere ai soggetti delle risposte rapide (Gilbert e Osborne 1989). Gilbert e al. (1998) attribuiscono questo effetto al compito aggiuntivo che interferisce con la capacità di correzione dell'ancora; in altre parole, si è ottenuto meno accomodamento nella condizione cognitivamente impegnata. Questo diminuisce l'accomodamento, e pertanto incrementa l'effetto di sotto-accomodamento noto come ancoraggio.
Per riassumere: anche l'informazione visibilmente irrilevante ancora i giudizi e contamina le supposizioni. Quando le persone partono da informazioni che sanno essere irrilevanti e la aggiustano fino a raggiungere una risposta "che suoni bene", stanno sotto-correggendo. Le persone sotto-correggono di più in situazioni cognitivamente impegnate ed altre manipolazioni che rendono il problema più difficile. Le persone negano di essere ancorate o contaminate, anche quando l'esperimento mostra che lo sono. Questi effetti non sono ridotti, nemmeno in minima parte, da incentivi finanziari, un'istruzione esplicita di evitare la contaminazione, e situazioni del mondo reale.
Pensate ora quante storie sull'Intelligenza Artificiale, nei media, citano la serie di Terminator come se fossero documentari, e quanti servizi sui media sulle interfacce mente-macchina citano Borg di Star Trek.
Se il menzionare fugacemente un'ancora ha un effetto sostanziale sui giudizi dei soggetti, quanto più grande dobbiamo aspettarci che sia l'effetto del leggere un intero libro, o guardare uno show televisivo con un'azione dal vivo? Nell'ambiente primitivo, non c'erano figure in movimento; tutto ciò che vedevi con i tuoi occhi era vero. Le persone sembrano rendersi conto, quando coinvolgono la razionalità cosciente, che la fiction è fiction. I report mediatici che citano Terminator non trattano, di norma, il soggetto di Cameron come una profezia, o come una verità prestabilita. Il reporter, invece, sembra trattare la visione di Cameron come un qualcosa che, essendo avvenuta prima, potrebbe ben accadere ancora - il film è richiamato (è cioè disponibile) come se fosse un caso storico illustrativo. Io chiamo questo mix di ancoraggio e disponibilità la fallacia logica della generalizzazione dai dati della fiction.
Un concetto collegato è il bias della buona storia, ipotizzato in Bostrom (2001). L'evidenza della fiction normalmente consiste di 'buone storie' nel senso di Bostrom. (Notate che non tutte le buone storie sono presentate come fiction.)
I narratori obbediscono a regole di narrativa molto stretta, che non sono collegate alla realtà. La logica drammatica non è logica.
Gli aspiranti scrittori sanno che la verità non è una scusa: non puoi giustificare un evento incredibile nella tua finzione citando un esempio della vita reale. Una buona storia è dipinta con dettagli brillanti, illuminata da metafore luccicanti; un narratore deve essere concreto, duro e preciso come una pietra. Ma nella previsione, ogni dettaglio aggiunto è un peso aggiuntivo! La verità è un duro lavoro, e non è il tipo di duro lavoro svolto dai narratori. Dovremmo evitare di essere non solo intrappolati dalla fiction - ossia non riuscire a profondere lo sforzo mentale necessario a diffidarne - ma anche di essere contaminati dalla fiction, lasciando che ancori i nostri giudizi. E dovremmo essere consapevoli che non siamo sempre consapevoli di questa contaminazione. Non di rado, in una discussione sul rischio esistenziale, le categorie, scelte, conseguenze e strategie derivano da film, libri e show televisivi. Ci sono anche sconfitte più sottili, ma questa è una resa a titolo definitivo.
L'euristica dell'affetto si riferisce al modo in cui le impressioni soggettive di "bontà" o "mediocrità" possano agire come un'euristica, capace di produrre rapidi giudizi percettivi, e anche distorsioni sistematiche.
In Slovic e al. (2002) due gruppi di soggetti valutavano lo scenario in cui un aeroporto deve decidere se spendere denaro nell'acquisto di nuova attrezzatura, mentre i critici ritengono che il denaro vada speso su altri aspetti della sicurezza aeroportuale. La scala di risposta spaziava da 0 (nessun sostegno) a 20 (massimo sostegno). Una misura che fu descritta come "Salvare 150 vite", ricevette un supporto medio di 10,4 mentre una misura che fu descritta come "Salvare il 98% di 150 vite" ricevette un supporto medio di 13,6. Persino "Salvare l'85% di 150 vite" ricevette un supporto più alto del semplice "Salvare 150 vite". L'ipotesi che motivava l'esperimento era che salvare 150 vite suonava genericamente bene ed è quindi solo debolmente valutabile, mentre salvare il 98% di qualcosa è chiaramente molto buono perché è molto vicino al limite superiore sulla scala percentuale.
Finucane e al. (2000) si chiesero se le persone "fondessero" le loro valutazioni dei possibili benefici di una tecnologia come l'energia nucleare, e le loro valutazioni dei possibili rischi, in un'unica sensazione, complessivamente buona o cattiva, riguardo a una data tecnologia. Finucane e al. testarono questa ipotesi fornendo quattro tipi di informazione che aumentava o diminuiva il beneficio o il rischio percepito. Non c'era una relazione logica tra l'informazione fornita (per esempio riguardo al rischio) e la variabile non manipolata (p.e. i benefici). In ciascun caso, l'informazione manipolata produsse un effetto inverso sulla caratteristica affettivamente inversa: fornire informazione che aumentava la percezione del rischio diminuiva la percezione del beneficio. Fornire informazione che diminuiva la percezione del beneficio, invece, aumentava la percezione del rischio. Finucane e al. (2000) trovarono inoltre che la pressione del tempo aumentava grandemente la relazione inversa tra il rischio percepito e il beneficio percepito - presumibilmente perché la pressione del tempo aumentava la dominanza dell'euristica dell'affetto sul ragionamento analitico.
Ganzach (2000) ha scoperto lo stesso effetto nel mondo della finanza: gli analisti sembrano basare il loro giudizio di rischio e rendimento di stock che non conoscono sulla base di una percezione affettiva complessiva. Gli stock percepiti come "buoni" venivano giudicati a basso rischio e ad alto rendimento; gli stock percepiti come cattivi venivano giudicati ad alto rischio e a basso rendimento. In altre parole, per gli stock poco conosciuti il rischio percepito e il rendimento percepito erano correlati negativamente, come previsto dalla euristica dell'affetto. Notate che, in questo esperimento, l'informazione sparsa giocava lo stesso ruolo dell'impegno cognitivo o della pressione temporale nell'aumentare il ricorso all'euristica dell'affetto. Per gli stock più noti, il rischio ed il rendimento percepito erano positivamente correlati; dagli stock più rischiosi ci si aspettavano ritorni più alti, come previsto dalla teoria economica normale (se uno stock è sicuro, gli acquirenti pagano un premio per la sua sicurezza e diventa più costoso, così abbassando il rendimento atteso)
Le persone hanno tipicamente informazioni sparse, quando prendono in considerazione le tecnologie future. Non è pertanto sorprendente che le loro inclinazioni debbano esibire polarizzazione affettiva. Quando ho iniziato a pensare a questi temi, valutavo la biotecnologia come relativamente meno benefica rispetto alla nanotecnologia, e mi preoccupavo più di un super-virus ingegnerizzato che di un cattivo uso della nanotecnologia. L'intelligenza Artificiale, dalla quale mi aspettavo i benefici maggiori, non mi dava l'ansietà minore. In seguito, dopo aver analizzato i problemi in modo molto più dettagliato, la mia valutazione del beneficio relativo rimaneva in gran parte la stessa, ma le mie preoccupazioni si erano invertite: le tecnologie più potenti, con i maggiori benefici previsti, ora sembravano avere i rischi corrispondentemente più difficili. In retrospettiva, questo è proprio ciò che uno si aspetterebbe. Ma gli analisti con scarsa informazione a disposizione potrebbero valutare le tecnologie in modo affettivo, lasciando così che l'informazione sul beneficio percepito mitighi la forza del rischio percepito.
(2.000/20.000/200.000) uccelli migranti muoiono ogni anno affogando in chiazze di petrolio a cielo aperto, che gli uccelli scambiano per specchi d'acqua. Queste morti si potrebbero prevenire coprendo le pozze di petrolio con delle reti. Quanto sareste disposti a pagare per fornire le reti necessarie?
Tre gruppi di soggetti presero in considerazione tre versioni della storia di cui sopra, e fu chiesto loro quale aumento della pressione fiscale sarebbero stati disposti ad accettare per salvare 2.000 – 20.000 – 200.000 uccelli. La risposta – nota come Disponibilità Dichiarata a Pagare, o DDAP – era una media di 80$ per il gruppo di 2000 uccelli, 78$ per 20.000 e 88$ per 200.000. Questo fenomeno è noto come insensibilità o indifferenza alla scala.
Studi simili hanno mostrato che i residenti di Toronto avrebbero pagato solo un po' di più per pulire tutti i laghi inquinati dell'Ontario che per i laghi inquinati di una particolare regione dell'Ontario (Ukahneman 1986): e che i residenti di quattro stati occidentali americani avrebbero pagato solo il 28% in più per proteggere tutte le 57 aree tutelate di quegli stati che per proteggere una sola area (McFadden e Leonard, 1995).
La spiegazione più diffusamente accettata per l'indifferenza alla scala richiama l'euristica dell'affetto. Kahneman e al. (1999) scrivono:
La storia costruita da Desvouges e altri probabilmente evoca per molti lettori una rappresentazione mentale di un “prototipo di incidente”, magari l'immagine di un uccello esausto, con le piume impregnate di olio nero, incapace di scappare. L'ipotesi della valutazione per prototipi afferma che il valore affettivo di questa immagine dominerà le espressioni di approccio al problema – inclusa la disponibilità a pagare per la soluzione. La valutazione per prototipi implica l'indifferenza alla scala.
Altre due ipotesi che spiegherebbero l'indifferenza alla scala includono l'acquisto di soddisfazione morale (Kahneman e Knetsch, 1992) e il versamento per buona causa (Harrison 1992) . L'acquisto di soddisfazione morale suggerisce che le persone spendano abbastanza denaro per mettere un “guanto caldo” su di sé, e l'ammontare richiesto è una funzione della psicologia della persona, che nulla ha a che vedere con gli uccelli. Il versamento per buona causa suggerisce invece che le persone abbiano una certa somma di denaro che sono disposti a pagare per “l'ambiente” e che ogni causa ambientale faccia appello a quella somma.
Si è notato che l'indifferenza alla scala si applica anche alle vite umane! Carson e Mitchell (1995) riportano che aumentare il rischio presunto dell'acqua clorata da 0,004 a 2,43 morti annuali ogni 1000 (quindi di 600 volte!) aumenta la DDAP da 3,78$ a 15,23$ (4 volte). Baron e Greene (1996) non hanno riscontrato alcuna differenza nel variare il numero di vite salvate di un fattore di dieci.
Fetherstonhaugh e altri (1997) in un paper intitolato “Insensibilità al valore della vita umana: uno studio dell'intorpidimento psicologico”, ha trovato prove che la nostra percezione delle morti umane, e la valutazione delle vite umane, obbedisce alla legge di Weber - noi usiamo cioè una scala logaritmica. E a dire il vero, studi sull'indifferenza alla scala in cui le variazioni quantitative siano abbastanza grandi da sollevare una qualunque sensibilità, mostrano a fronte di aumenti esponenziali della quantità piccoli aumenti lineari nella disponibilità a pagare. Kahneman, Ritov e Schkade (1999) interpretano tutto ciò come un effetto cumulato di scala e prototipo – l'immagine del prototipo genera la maggior parte dell'emozione, e la scala ha un piccolo impatto emotivo che si aggiunge (e non moltiplica) al primo ammontare.
Albert Szent-Gyorgi disse: “Sono profondamente commosso quando vedo un uomo soffrire, e rischierei la mia vita per lui. Poi parlo in modo impersonale della possibile polverizzazione delle nostre grandi città, con cento milioni di morti. Sono incapace di moltiplicare la sofferenza di un uomo per cento milioni”. Le emozioni umane hanno luogo in un cervello analogico. Il cervello umano non riesce a rilasciare abbastanza neurotrasmettitori da generare un'emozione mille volte più forte del dolore di un singolo funerale. Se un possibile rischio passasse da 10.000.000 a 100.000.000 di morti, questo non decuplicherebbe la nostra determinazione a scongiurarlo. Costringe solo gli occhi a sorvolare su uno zero di più, un effetto talmente piccolo da dover, di norma, aggiungere diversi ordini di grandezza per rilevare la differenza sperimentalmente.
Quanto confidiamo nelle nostre stime errate? Nella sezione 1 sulla disponibilità, ho discusso di un esperimento sul rischio percepito, in cui i soggetti sovrastimavano la probabilità delle cause di morte degne di copertura mediatica di una misura correlata alla loro effettiva copertura sui giornali. Slovic, Fischhoff e Lichtenstein (1982, 472) hanno inoltre osservato che:
Un aspetto particolarmente pernicioso dell'euristica è che le persone ripongono tipicamente molta confidenza nei giudizi che vi si basano. In un altro richiamo allo studio sulle cause di morte, è stato chiesto alle persone di indicare le probabilità di aver ragione nella scelta del più frequente tra due eventi letali (Fischoff, Slovic e Lichtenstein, 1977)... Nell'Esperimento 1, erano calibrati ragionevolmente quando diedero probabilità di 1:1, 1.5:1, 2:1 e 3:1. Vale a dire, la loro percentuale di risposte corrette era vicina alla percentuale appropriata corretta, date queste probabilità. Tuttavia, man mano che le probabilità aumentavano da 3:1 a 100:1, l'accuratezza quasi non aumentava. Solo il 73% delle risposte a cui era stata assegnata una probabilità di 100:1 erano corrette (invece del 99,1%) L'accuratezza “saltava” all'81% a 1000:1, e all'87% a 10.000:1. Per le risposte cui erano state assegnate probabilità di 1.000.000:1 o maggiori, l'accuratezza era del 90%; il grado appropriato di confidenza sarebbe stato di 9:1... In sostanza, i soggetti spesso si sbagliavano anche ai livelli di probabilità più alti. E inoltre assegnavano a molte risposte probabilità estreme: più di metà dei loro giudizi era maggiore di 50:1. Quasi un quarto erano maggiori di 100:1... il 30% dei rispondenti dell'Esperimento 1 assegnarono probabilità maggiori di 50:1 all'asserzione, sbagliata, che gli omicidi siano più frequenti dei suicidi.
Questo risultato, apparentemente incredibile, è molto comune nelle letterature di euristica ed errori, dov'è noto come iperconfidenza. Supponiamo che io vi chieda di stimare una quantità incerta, come il numero di medici e chirurghi elencati nelle Pagine Gialle dell'elenco di Boston, o la produzione totale (in milioni) di uova negli Stati Uniti.
Voi mi darete un numero, che certamente non sarà esattamente corretto; il vero valore sarà inferiore o superiore alla vostra supposizione. Dopodiché, io vi chiedo di stabilire un limite inferiore, tale per cui confidate al 99% che il vero valore superi quel limite, e un limite superiore tale per cui voi confidate al 99% che il vero valore sia inferiore a quel limite. Questi due limiti formano il vostro intervallo di confidenza al 98%. Se siete ben calibrati, allora su un test con cento domande di questo tipo, circa due produrranno risposte al di fuori del vostro intervallo di confidenza.
Alpert e Raiffa (1982) chiesero a dei soggetti un totale di circa 1000 domande di cultura generale come quelle di cui sopra; 426 dei veri valori erano al di fuori degli intervalli di confidenza dei soggetti. Se i soggetti fossero stati adeguatamente calibrati, ci sarebbero state più o meno 20 sorprese. In altre parole, eventi a cui i soggetti assegnarono una probabilità del 2% avvenivano in realtà il 42,6% delle volte.
Ad un altro gruppo di 35 soggetti fu chiesto di stimare un limite superiore o inferiore con una confidenza del 99,9% . Ricevettero il 40% di sorprese. Ad altri 35 soggetti furono chiesti dei valori “minimi” e “massimi” e furono sorpresi il 47% delle volte. Per finire, a un quarto gruppo di 35 soggetti furono chiesti dei limiti “incredibilmente alti” e “incredibilmente bassi”; furono sorpresi nel 38% dei casi.
In un secondo esperimento, a un nuovo gruppo di soggetti fu dato un primo set di domande, che furono valutate, ricevettero un feedback, furono informati dei risultati dei precedenti esperimenti, fu spiegato loro con chiarezza il concetto della calibrazione, e poi fu chiesto loro di fornire intervalli di confidenza al 98% per un nuovo set di domande. I soggetti “post-allenamento” furono sorpresi il 19% delle volte, che è un sostanziale miglioramento rispetto al punteggio “pre-allenamento” del 34%, ma sempre tristemente lontano dal valore correttamente calibrato del 2%.
Tassi di fallimento simili si sono riscontrati anche tra gli esperti. Hynes e Vanmarcke (1977) chiesero a sette ingegneri geo-tecnici rinomati a livello internazionale di predire a quale altezza cederebbe un argine con le fondamenta di argilla e di specificare livelli di confidenza attorno a questa stima che ritenessero abbastanza ampi da avere un 50% di possibilità di contenere l'altezza reale.
Nessuno dei livelli stimati conteneva la vera altezza critica per il cedimento. Christensen-Szalanski e Bushyhead (1981) riportarono le stime di alcuni medici sulla probabilità di polmonite di 1531 pazienti visitati perché accusavano la tosse. Nell'intervallo di confidenza asserita meglio calibrato, con probabilità medie dichiarate dell'88%, la percentuale di pazienti che davvero avevano la polmonite era meno del 20%.
Nelle parole di Alpert e Raiffa (1982):
Per l'amore di Dio, Allargate Questi Frattili Estremi! Siate onesti con voi stessi! Ammettete ciò che ignorate!
Lichtenstein, Fischhoff e Phillips (1982) rividero i risultati di 14 paper su 34 esperimenti eseguiti da 23 ricercatori che studiavano la calibrazione umana. Il risultato incredibilmente forte fu che le persone soffrono di iperconfidenza. Ormai, l' iperconfidenza non è più degna di nota; ma continua ad apparire in quasi ogni esperimento in cui i soggetti siano autorizzati ad assegnare probabilità estreme.
L'iperconfidenza si manifesta con forza nel settore della pianificazione, dove è appunto nota come fallacia della pianificazione. Buehler, Griffin e Ross (1994) chiesero a degli studenti di psicologia di prevedere una variabile importante – il tempo di consegna della loro tesi di psicologia. Attesero finché gli studenti si avvicinarono alla fine dei loro progetti annuali, e poi chiesero agli studenti quando si aspettavano realisticamente di consegnare le loro tesi, e inoltre quando pensavano che sarebbero riusciti a consegnarle “se tutto fosse andato nel peggior modo possibile”. In media, gli studenti impiegarono 55 giorni a completare la loro tesi; 22 giorni in più di quanto avevano previsto, e 7 giorni in più delle loro previsioni per il caso peggiore.
Buehler, Griffin e Ross (1995) chiesero ad alcuni studenti la quantità di tempo entro cui erano sicuri al 50%, al 75% e al 99% di completare il loro progetto accademico. Solo il 13% dei partecipanti finì il progetto nell'intervallo di tempo cui aveva assegnato una probabilità del 50%, solo il 19% nel tempo che aveva una probabilità del 75%, e solo il 45% completò nel tempo cui era stato assegnato una probabilità del 99%. Buehler, Griffin e Ross (2002) scrissero: “I risultati più impressionanti sono quelli per il livello di confidenza del 99%. Anche quando chiedemmo loro una stima largamente prudente, una previsione che si sentissero virtualmente certi di soddisfare, la confidenza degli studenti nelle loro stime temporali, in realtà, eccedeva di gran lunga i loro risultati.”
Newby-Clark e altri (2000) trovò che chiedere ai soggetti previsioni sulla “migliore supposizione” realistica, oppure sulla “migliore possibilità” sperata produceva risultati indistinguibili. Quando si chiede loro il caso “più probabile”, le persone tendono ad immaginarsi il caso in cui tutto procede esattamente come previsto, senza ritardi inattesi o catastrofi impreviste: la stessa visione del “caso migliore”. La realtà, a quanto pare, di norma porta risultati peggiori, sotto qualche aspetto, del “caso peggiore”.
Questo paper discute l'iperconfidenza dopo aver discusso il bias di conferma e il sottoproblema del bias di smentita. La ricerca sulla calibrazione è una conoscenza pericolosa- tanto è forte l'invito ad applicarla selettivamente: “Che folle il mio avversario, ad essere così certo dei suoi argomenti! Non sa quanto spesso le persone sono sorprese nelle loro certezze?”. Se ti rendi conto che le opinioni esperte hanno meno forza di quanto tu creda, faresti anche meglio a capire che i tuoi pensieri hanno molta meno forza di quanto tu creda, e che quindi serve meno forza di quanto previsto per dissuaderti dalle tue convinzioni preferite. Altrimenti, diventi più lento a reagire all'evidenza. Ti ritrovi in una posizione peggiore che se non avessi mai sentito parlare di calibrazione. Ecco perché – malgrado la tentazione sia spesso grande – evito di discutere la ricerca sulla calibrazione finché non ho prima parlato del bias di conferma, così posso avanzare la stessa avvertenza.
Notate inoltre che quello di un esperto molto sicuro della sua opinione è un caso ben diverso da un calcolo fatto strettamente su dati attuariali, o da un modello confermato con precisione. Tutti i calcoli, anche inequivocabili, che hanno portato un esperto ad assegnare ad un evento una probabilità di 10-6, sono stati certamente smentiti più spesso di una volta su un milione. Ma se il calcolo combinatorio non potesse correttamente prevedere che un biglietto della lotteria ha una probabilità di vincere di 10-8, gli allibratori chiuderebbero bottega.
Il mio ultimo bias non viene dal campo dell'euristica e degli errori, ma dalla psicologia sociale. Una serie di esperimenti, ora molto nota, di Latanée e Darley (1969), ha scoperto l'effetto bystander, anche noto come “apatia dello spettatore”, a causa del quale è meno probabile che gruppi allargati di persone agiranno in caso di emergenze – non solo individualmente, ma collettivamente.
Il 75% delle persone sole in una stanza, notando che entrava del fumo da sotto una porta, si alzò e uscì per denunciarlo. Quando tre persone ignare erano presenti, il fumo fu denunciato solo nel 38% dei casi. Le persone ignare, quando erano circondate da due persone che ignoravano il fumo deliberatamente, si alzavano a denunciare il fumo solo nel 10% dei casi, anche quando la stanza era immersa nella foschia. Uno studente di college che sembrava avere un attacco epilettico fu aiutato nell'85% dei casi da un singolo “spettatore” e [solo] nel 31% dei casi da cinque compresenti.
L'effetto “spettatore” è di norma spiegato come il risultato delle diffusione di responsabilità e dell'ignoranza pluralistica. Essere parte di un gruppo riduce la responsabilità individuale. Ognuno spera che qualcun altro si faccia carico del problema, e questo riduce la pressione individuale fino al punto che nessuno fa nulla. A sostegno di questa ipotesi si possono annoverare manipolazioni in cui i soggetti credono che la vittima sia particolarmente dipendente da loro; questo riduce l'effetto spettatore, o lo neutralizza completamente. Cialdini (2001) raccomanda, nel caso vi troviate in un'emergenza, di individuare una singola persona presente cui chiedere aiuto - in modo da contrastare l'effetto di diffusione.
L'effetto di ignoranza pluralistica è più sottile. Cialdini (2001) scrive:
Molto spesso, un'emergenza non è, ovviamente, un'emergenza. L'uomo sdraiato nel vicolo è la vittima di un attacco cardiaco o un ubriacone che dorme? In tempi di tale incertezza, la tendenza naturale è di cercare suggerimenti nelle azioni degli altri. Possiamo imparare dal modo in cui gli altri testimoni reagiscono se l'evento è o no un'emergenza. Ciò che si dimentica facilmente, tuttavia, è che ogni altra persona presente all'evento probabilmente cerca a sua volta delle conferme sociali. E poiché preferiamo tutti apparire calmi e imperturbabili in mezzo agli altri, probabilmente cercheremo quella conferma senza scomporci, guardando rapidamente, di sottecchi, quelli attorno a noi. Pertanto, è probabile che tutti sbircino gli altri imperturbabili, senza agire.
L'effetto spettatore non fa appello al nostro egoismo individuale, o all'insensibilità alla sofferenza degli altri: quando sono sole, le persone di norma agiscono. L'ignoranza pluralistica spiega perché le persone non reagiscono di fronte ad una stanza che si riempie di fumo; l'egoismo individuale no. Negli esperimenti che implicano danni evidenti a sé o agli altri, le persone sedute di fianco a testimoni impassibili scrutano spesso questi ultimi.
Spesso mi si chiede: ”Se (il rischio esistenziale X) è reale, perché non vi si stanno lavorando più persone?”. Le risposte possibili sono molte, e qui ne ho accennate solo alcune. Le persone possono soffrire di iperconfidenza o di eccessivo ottimismo. Possono concentrarsi su scenari eccessivamente specifici per il futuro, escludendo dal proprio orizzonte mentale tutti gli altri. Potrebbero non venire loro in mente eventi passati di estinzione. Potrebbero sovrastimare la prevedibilità del passato, e quindi sottostimare la sorpresa del futuro. Potrebbero non rendersi conto della difficoltà di prepararsi alle emergenze senza il beneficio della retrospettiva. Potrebbero preferire scommesse filantropiche con probabilità di pagamento più alte, trascurando il valore della posta in palio. Potrebbero confondere l'informazione positiva sui benefici di una tecnologia con l'informazione negativa sui suoi rischi. Potrebbero essere stati influenzati da film in cui alla fine il mondo si salva. Potrebbero acquistare soddisfazione morale più facilmente facendo donazioni agli altri. Oppure, la prospettiva estremamente spiacevole dell'estinzione umana potrebbe spingerli a cercare motivazioni per cui l'umanità NON si estinguerà, senza una ricerca ugualmente scrupolosa sui motivi per cui invece potrebbe.
Ma se la domanda è, specificamente, “Perché non vi si stanno lavorando più persone?”, una possibile componente è che le persone si stanno facendo questa domanda puntando il loro sguardo in giro, per vedere se nessun altro sta reagendo all'emergenza, cercando nel frattempo di apparire calmi e imperturbabili. Se vuoi sapere perché gli altri non stanno rispondendo ad un emergenza, prima che lo faccia tu, potresti esserti risposto da solo alla domanda.
Ogni idea vera che ti mette a disagio sembrerà rispettare lo schema di almeno un errore psicologico.
Robert Pirsig disse: ”Se l'uomo più pazzo del mondo afferma che il sole splende, questo non lo fa splendere meno.” Se credi che qualcuno soffra di un errore psicologico, allora per prima cosa dimostra la tua competenza demolendo gli errori fattuali che ne conseguono.
Se non ci sono errori fattuali, allora a cosa serve la psicologia? Conoscendo un po' di psicologia, viene la tentazione di intromettersi in argomenti su cui non abbiamo competenza tecnica -invece di analizzare in modo spassionato la psicologia dei contendenti.
Se qualcuno scrivesse una storia sull'urto di un asteroide che distrugge la civiltà moderna, allora qualcuno potrebbe bollare quella storia come estrema, distopica, apocalittica, sintomatica dell'ingenua incapacità dell'autore a fare i conti con una società tecnologica complessa. Dovremmo etichettare tutto ciò come criticismo letterario, non scientifico; si tratta di belle o brutte storie, non di buone o cattive ipotesi. Per quantificare la probabilità annuale dell'urto di un asteroide nella vita reale, è necessario prima studiare astronomia e le serie storiche: nessun criticismo letterario potrà aiutarci ad avanzare una stima. Garreau (2005) sembra sostenere che uno scenario di una mente che lentamente aumenta di potenza è più maturo e sofisticato di uno scenario di aumento dell'intelligenza estremamente rapido. Ma questa è una questione tecnica, non di gusto; tutta la psicologia del mondo non può ancora dirti l'esatta inclinazione di quella curva.
È più facile abusare della psicanalisi che dell'euristica e degli errori. Accusare qualcuno di fallacia della congiunzione porta naturalmente ad elencare gli specifici dettagli che pensi entrino in gioco e abbassino la probabilità congiunta. Ma anche così, non perdete di vista i fatti più importanti del mondo reale; non permettete che la discussione verta sulla psicologia.
Malgrado tutti i pericoli e le tentazioni, conoscere i bias psicologici è meglio che ignorarli. Altrimenti cammineremmo dritti in mezzo alle pale da elicottero in moto della vita. Ma state molto attenti a non indugiare troppo nell'accusare gli altri dei loro bias. Quella strada vi porta a diventare un oratore sofisticato- uno che, di fronte ad un qualunque argomento sconveniente, vi trova almeno un bias. Senza dubbio, la persona che devi tenere più d'occhio sei tu.
Jerry Cleaver disse: ”L'errore che compi qui non è dimenticarti di qualche tecnica complicata, intricata, di alto livello. Qui ti dimentichi delle basi. Distogli gli occhi dal punto.”
In ultima analisi, le analisi dovrebbero incentrarsi su affermazioni verificabili, prese dal mondo reale. Non distogliamo gli occhi dal punto.
Perché non dovremmo creare un corpo organizzato di pensiero sui rischi esistenziali? La caduta degli asteroidi non è come i super-virus artificiali, i disastri fisici non sono come le guerre nanotecnologiche. Perché non considerare ciascuno di questi problemi separatamente?
Se qualcuno propone un disastro di tipo fisico, allora il comitato riunito per analizzare il problema dovrà ovviamente includere dei fisici. Ma qualcuno, in quel comitato, dovrebbe anche sapere quanto sia terribilmente pericoloso avere una risposta in mente prima di aver terminato di fare la domanda. Qualcuno, in quel comitato, dovrebbe ricordare la risposta di Enrico fermi al suggerimento di Leo Szilard che con una reazione a catena di fissione si sarebbero potute creare armi nucleari. La risposta fu: ”Sciocchezze!” - Fermi considerava la possibilità così remota da non darsi nemmeno la pena di indagarvi. Qualcuno dovrebbe ricordare la storia degli errori nei calcoli fisici: il test nucleare di Castel Bravo che produsse un'esplosione di 156 megatoni, fuori dall'intervallo di 4-8, a causa di una reazione del litio-7 che non era stata contemplata. Avevano correttamente risolto l'equazione sbagliata, senza pensare a tutti i termini che avrebbero dovuto essere inclusi, e almeno una persona morì nel raggio supplementare dell'esplosione. Qualcuno dovrebbe ricordare la prova accurata di Lord Kelvin che con calcoli quantitativi multipli, diversi e indipendenti di teorie ben radicate, sosteneva che la Terra non poteva esistere da quaranta milioni di anni. Qualcuno dovrebbe sapere che quando un esperto stima la probabilità in “un milione a uno” senza usare dati attuariali o calcoli di un modello preciso, confermato, la calibrazione è probabilmente più vicini a venti a uno (sebbene questa non sia certo una conversione esatta)
Ogni rischio esistenziale chiama in causa problemi che condivide con tutti gli altri rischi esistenziali, in aggiunta alle competenze specifiche del rischio esistenziale. Nel comitato per i disastri fisici, qualcuno dovrebbe sapere il significato del termine “rischi esistenziali”; dovrebbe possedere ogni abilità conseguita o mutuata dal settore della gestione del rischio esistenziale. E per la massima sicurezza, quella persona dovrebbe anche essere un fisico. Le competenze specifiche del settore e quella pertinente ai rischi esistenziali dovrebbero incontrarsi in una sola persona. Sono scettico sulla possibilità che uno studente di euristica ed errori, incapace di leggere le equazioni della fisica, possa controllare il lavoro dei fisici che non sanno nulla di euristica ed errori.
C'è stato un periodo in cui tratteggiavo scenari riccamente dettagliati, senza rendermi conto che ogni dettaglio aggiuntivo costituiva un onere. C'è stato un periodo in cui credevo di poter davvero sostenere che l'Intelligenza Artificiale si sarebbe sviluppata al 90% di probabilità tra il 2005 ed il 2025, con un picco nel 2018. Questa affermazione ora mi sembra una totale stupidaggine. Perché ho mai pensato di poter generare una distribuzione di probabilità così ristretta su un problema come quello? Soprattutto, da dove mai ho preso quei numeri?
Gli addetti ai lavori più competenti di, diciamo, nanotecnologia molecolare o Intelligenza Artificiale, non per questo possiedono le ulteriori abilità necessarie ad affrontare i rischi esistenziali della loro professione. Nessuno mi disse, quando mi avvicinai alla sfida dell'Intelligenza Artificiale, che a una persona come me sarebbe stato necessario studiare l'euristica e gli errori. Non ricordo perché sono capitato per la prima volta su un testo di euristica ed errori, ma ricordo che era la descrizione di un risultato di iperconfidenza – una descrizione casuale, online, senza citazioni. Ero così sbalordito che contattai l'autore per chiedergli se era un vero risultato sperimentale (E lui mi ha portato al testo Judgment Under Uncertainty [Kahneman, Slovic e Tversky 1982].)
Non sarei dovuto giungere a quel testo per caso. Qualcuno avrebbe dovuto avvertirmi, come io ora avverto voi, che quella conoscenza era essenziale ad uno studente di rischi esistenziali. Dovrebbe esserci un curriculum per persone come noi; una lista di strumenti culturali aggiuntivi alle nostre competenze specifiche. Io non sono un fisico, ma so qualcosina -probabilmente non abbastanza- sulla storia degli errori in fisica, e anche un biologo al lavoro sui super-virus dovrebbe saperne un po'.
Una volta incontrai un avvocato che aveva elaborato una sua teoria della fisica. Dissi all'avvocato: “Non puoi inventare le tue teorie fisiche senza conoscere la matematica e studiare per anni; la fisica è difficile”. Lui rispose: “Ma se davvero conosci la fisica, mi disse una volta Feynman, puoi spiegarla a tua nonna.” E io gli risposi: “Consiglieresti ad un tuo amico di scriversi l'arringa da solo?” A quel punto tacque. In astratto, sapeva che la fisica era difficile, ma penso non abbia mai riflettuto sul fatto che la fisica potesse essere un mestiere difficile quanto l'avvocatura.
Uno dei molti bias non discussi in questo capitolo descrive l'effetto distorcente di non sapere ciò che non sappiamo. Quando un talent-scout valuta la sue abilità, richiama alla mente le performance dei candidati che ha assunto, molti dei quali hanno in seguito eccelso; il che aumenta l'autostima del talent scout. Ma non guarda mai il lavoro dei candidati che non ha assunto. Pertanto voglio mettere in evidenza che questo paper tocca solo un piccolo sottoinsieme di euristiche ed errori; perché quando ti chiedi quanto hai già imparato, ti ricorderai i pochi bias che questo paper cita, piuttosto dei tanti bias che tralascia. Questi brevi cenni non possono trasmettervi la “sensazione” del settore, quella comprensione profonda che “cuce” un insieme di esperimenti memorabili in un'interpretazione unificata. Molti bias altamente rilevanti, come il bisogno di chiusura cognitiva, non li ho nemmeno citati. Lo scopo di questo capitolo non è di insegnarvi la conoscenza necessaria ad uno studente di rischi esistenziali, ma di stimolarvi a saperne di più.
Pensare ai rischi esistenziali porta a incorrere nelle stesse fallacie del pensiero in generale. Ma in ballo c'è molto, molto di più. Un risultato comune, in euristica ed errori, è che offrire denaro ed altri incentivi non elimina il bias. Kachelmeier e Shehata (1992) offrì a dei soggetti che vivevano nella Repubblica Popolare Cinese l'equivalente di un salario trimestrale. I soggetti dell'esperimento non fecero errori intenzionalmente; fecero errori perché non sapevano come fare di meglio. Anche dicendo loro che la sopravvivenza dell'umanità era a rischio, questo non li aiutava a fare di meglio. Forse aumentava solo il loro bisogno di restringere lo spettro delle possibilità, portandoli così a fare di peggio. È terribilmente spaventoso da dire, ma le persone non diventano più intelligenti “solo” perché ne va della sopravvivenza dell'umanità.
In aggiunta alle distorsioni “standard” ho personalmente osservato quelli che sembrano essere modi pericolosi di pensiero specifici per i rischi esistenziali. L'Influenza Spagnola del 1918 uccise 25-50 milioni di persone. La Seconda Guerra Mondiale uccise 60 milioni di persone. 10^8 è l'ordine di grandezza delle peggiori catastrofi nella storia scritta dell'umanità. Numeri sostanzialmente maggiori, come 500 milioni di morti, e soprattutto scenari qualitativamente differenti come l'estinzione dell'intera specie umana, sembrano far scattare una modalità di pensiero diversa – fanno entrare in un “regno separato”. Persone disgustate all'idea di far del male ad un bambino sentono parlare dei rischi esistenziali e dicono:”Beh, forse la specie umana non merita davvero di sopravvivere.”
C'è un detto, in euristica ed errori, che le persone non valutano gli eventi, ma le descrizioni degli eventi- una cosa chiamata ragionamento non estensionale. L'estensione dell'estinzione umana include la morte tua, dei tuoi amici, della tua famiglia, dei tuoi cari, della tua città, del tuo paese, dei tuoi alleati politici. Tuttavia, persone che si indignerebbero all'idea di cancellare l'Inghilterra dalla mappa, di uccidere ogni membro del Partito Democratico, di radere al suolo Parigi --e sarebbero ancora più terrorizzate dal sentire il medico dire che il loro figlio ha un cancro-- queste persone discuteranno l'estinzione dell'umanità con flemma impassibile. Le parole “Estinzione dell'umanità” appaiono nei romanzi, o sono discusse nei libri di filosofia – appartengono a una dimensione diversa da quella dell'Influenza Spagnola. Valutiamo le descrizioni degli eventi, non l'estensione degli eventi. La frase fatta “fine del mondo” invoca il regno del mito e del sogno, della profezia e dell'Apocalisse, dei racconti e dei film. La sfida alla razionalità dei rischi esistenziali è che, essendo la catastrofe così enorme, nelle persone scatta una modalità diversa di pensiero. Le morti umane, improvvisamente, non sono più una tragedia, le previsioni dettagliate improvvisamente non richiedono più alcuna competenza, e se la storia abbia un fine lieto o triste è una questione di gusto personale.
Ma questa è solo una mia osservazione aneddotica. Ritenevo più giusto incentrare questo paper sugli errori ben documentati dalla letteratura (la letteratura generale della psicologia cognitiva, perché ancora non esiste una letteratura sperimentale specifica sulla psicologia dei rischi esistenziali, ma dovrebbe).
Nella matematica della teoria Bayesiana delle decisioni c'è il concetto di valore dell'informazione – l'utilità attesa della conoscenza. Il valore dell'informazione emerge dal valore del suo contenuto; se raddoppi la posta in gioco, raddoppi il valore dell'informazione sulla posta in gioco. Il valore del pensiero razionale segue una dinamica simile—il valore dell'eseguire un calcolo che comprende una data evidenza è calcolato in modo molto simile al valore dell'evidenza stessa (Good 1952; Horvitz, Cooper, e Heckerman 1989).
Non posso comprendere davvero il valore di un pensiero lucido sui rischi globali, non più di quanto Albert Szent Gyorgy possa moltiplicare la sofferenza di un umano per cento milioni.
L'indifferenza alla scala è il rischio dell'essere un umano biologico che funziona con un cervello analogico; il cervello non può moltiplicarsi per sei miliardi. E le poste in gioco del rischio esistenziale si estendono al di là anche dei sei miliardi di umani oggi vivi, fino a tutte le stelle di tutte le galassie che l'umanità e i discendenti dell'umanità potranno un giorno raggiungere. Tutto questo enorme potenziale dipende dalla nostra sopravvivenza qui, ora, nei giorni in cui il regno dell'umanità è un singolo pianeta che gira attorno ad una singola stella. Non riesco a percepire il nostro futuro. Posso solo cercare di difenderlo.
Judgment Under Uncertainty: Heuristics and Biases (Kahneman, Slovic and Tversky 1982)
Questo è il testo che ha più contribuito a gettare le basi del settore, dal taglio fortemente accademico. La ricerca successiva ha generalizzato, elaborato e spiegato meglio i fenomeni trattati in questo volume, ma i risultati di base forniti restano ancora grandemente validi.
Choices, Values, and Frames. (Kahneman and Tversky 2000) Heuristics and Biases: The psychology of Intuitive judgment (Gilovich, Griffin, and Kahneman 2002).
Questi due volumi coprono il campo dell'euristica e degli errori nella loro forma corrente.
Sono meno accessibili ad un pubblico generale.
Rational Choice in an Uncertain World (Dawes 1988). Prima edizione 1988 di Dawes e Kagan, seconda edizione 2001 di Hastie e Dawes.
Lo scopo di questo libro è di introdurre il campo dell'euristica e degli errori ad un pubblico generico particolarmente intelligente. (Per esempio: il Teorema di Bayes è spiegato, non dato per scontato, ma la spiegazione copre solo poche pagine.)
È un buon libro per farsi rapidamente un'idea del settore.
Ringrazio Michael Roy Ames, Nick Bostrom, Milan Ćirković, Olie Lamb, Tamás
Martinec, Robin Lee Powell, Christian Rovner, e Michael Wilson per i loro commenti,
suggerimenti e critiche.
Naturalmente, mi assumo la responsabilità di ogni errore rimasto.
Alpert, M. and Raiffa, H. 1982. A Progress Report on the Training of Probability Assessors. In Kahneman et. al. 1982: 294-305.
Ambrose, S.H. 1998. Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans. Journal of Human Evolution 34:623-651.
Baron, J. and Greene, J. 1996. Determinants of insensitivity to quantity in valuation of public goods: contribution, warm glow, budget constraints, availability, and prominence. Journal of Experimental Psychology: Applied, 2: 107-125.
Bostrom, N. 2001. Existential Risks: Analyzing Human Extinction Scenarios. Journal of Evolution and Technology, 9.
Brenner, L. A., Koehler, D. J. and Rottenstreich, Y. 2002. Remarks on support theory: Recent advances and future directions. In Gilovich et. al. (2003): 489-509.
Buehler, R., Griffin, D. and Ross, M. 1994. Exploring the "planning fallacy": Why people underestimate their task completion times. Journal of Personality and Social Psychology, 67: 366-381.
Buehler, R., Griffin, D. and Ross, M. 1995. It's about time: Optimistic predictions in work and love. Pp. 1-32 in European Review of Social Psychology, Volume 6, eds. W. Stroebe and M. Hewstone. Chichester: John Wiley & Sons.
Buehler, R., Griffin, D. and Ross, M. 2002. Inside the planning fallacy: The causes and consequences of optimistic time predictions. In Gilovich et. al. 2003: 250-270.
Burton, I., Kates, R. and White, G. 1978. Environment as Hazard. New York: Oxford University Press.
Carson, R. T. and Mitchell, R. C. 1995. Sequencing and Nesting in Contingent Valuation Surveys. Journal of Environmental Economics and Management, 28(2): 155-73.
Chapman, G.B. and Johnson, E.J. 2002. Incorporating the irrelevant: Anchors in judgments of belief and value. In Gilovich et. al. (2003).
Christensen-Szalanski, J.J.J. and Bushyhead, J.B. 1981. Physicians' Use of Probabilistic Information in a Real Clinical Setting. Journal of Experimental Psychology: Human Perception and Performance, 7: 928-935.
Cialdini, R. B. 2001. Influence: Science and Practice. Boston, MA: Allyn and Bacon.
Combs, B. and Slovic, P. 1979. Causes of death: Biased newspaper coverage and biased judgments. Journalism Quarterly, 56: 837-843.
Dawes, R.M. 1988. Rational Choice in an Uncertain World. San Diego, CA: Harcourt, Brace, Jovanovich.
Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P. and Wilson, N. 1993.
Measuring natural resource damages with contingent valuation: tests of validity and reliability. Pp. 91-159 in Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.
Fetherstonhaugh, D., Slovic, P., Johnson, S. and Friedrich, J. 1997. Insensitivity to the value of human life: A study of psychophysical numbing. Journal of Risk and Uncertainty, 14: 238-300.
Finucane, M.L., Alhakami, A., Slovic, P. and Johnson, S.M. 2000. The affect heuristic in judgments of risks and benefits. Journal of Behavioral Decision Making, 13(1): 1-17.
Fischhoff, B. 1982. For those condemned to study the past: Heuristics and biases in hindsight. In Kahneman et. al. 1982: 332–351.
Fischhoff, B., and Beyth, R. 1975. I knew it would happen: Remembered probabilities of once-future things. Organizational Behavior and Human Performance, 13: 1-16.
Fischhoff, B., Slovic, P. and Lichtenstein, S. 1977. Knowing with certainty: The appropriateness of extreme confidence. Journal of Experimental Psychology: Human Perception and Performance, 3: 522-564.
Ganzach, Y. 2001. Judging risk and return of financial assets. Organizational Behavior and Human
Decision Processes, 83: 353-370.
Garreau, J. 2005. Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies – and What It Means to Be Human. New York: Doubleday.
Gilbert, D. T. and Osborne, R. E. 1989. Thinking backward: Some curable and incurable consequences of cognitive busyness. Journal of Personality and Social Psychology, 57: 940-949.
Gilbert, D. T., Pelham, B. W. and Krull, D. S. 1988. On cognitive busyness: When person perceivers meet persons perceived. Journal of Personality and Social Psychology, 54: 733-740.
Gilovich, T. 2000. Motivated skepticism and motivated credulity: Differential standards of evidence in the evaluation of desired and undesired propositions. Presented at the 12th Annual Convention of the American Psychological Society, Miami Beach, Florida.
Gilovich, T., Griffin, D. and Kahneman, D. eds. 2003. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge, U.K.: Cambridge University Press.
Good, I. J. 1952. Rational decisions. Journal of the Royal Statistical Society, Series B.
Griffin, D. and Tversky, A. 1992. The weighing of evidence and the determinants of confidence. Cognitive Psychology, 24: 411-435.
Harrison, G. W. 1992. Valuing public goods with the contingent valuation method: a critique of Kahneman and Knestch. Journal of Environmental Economics and Management, 23: 248–57.
Horvitz, E.J., Cooper, G.F. and Heckerman, D.E. 1989. Reflection and Action Under Scarce Resources: Theoretical Principles and Empirical Study. Pp. 1121-27 in Proceedings of the Eleventh International Joint Conference on Artificial Intelligence. Detroit, MI.
Hynes, M. E. and Vanmarke, E. K. 1976. Reliability of Embankment Performance Predictions. Proceedings of the ASCE Engineering Mechanics Division Specialty Conference. Waterloo, Ontario: Univ. of Waterloo Press.
Johnson, E., Hershey, J., Meszaros, J.and Kunreuther, H. 1993. Framing, Probability Distortions and Insurance Decisions. Journal of Risk and Uncertainty, 7: 35-51.
Kachelmeier, S.J. and Shehata, M. 1992. Examining risk preferences under high monetary incentives: Experimental evidence from the People's Republic of China. American Economic Review, 82: 1120-1141.
Kahneman, D. 1986. Comments on the contingent valuation method. Pp. 185-194 in Valuing environmental goods: a state of the arts assessment of the contingent valuation method, eds. R. G. Cummings, D. S. Brookshire and W. D. Schulze. Totowa, NJ: Roweman and Allanheld.
Kahneman, D. and Knetsch, J.L. 1992. Valuing public goods: the purchase of moral satisfaction. Journal of Environmental Economics and Management, 22: 57-70.
Kahneman, D., Ritov, I. and Schkade, D. A. 1999. Economic Preferences or Attitude Expressions?: An Analysis of Dollar Responses to Public Issues, Journal of Risk and Uncertainty, 19: 203-235.
Kahneman, D., Slovic, P., and Tversky, A., eds. 1982. Judgment under uncertainty: Heuristics and biases. New York: Cambridge University Press.
Kahneman, D. and Tversky, A. 2000. eds. Choices, Values, and Frames. Cambridge, U.K.: Cambridge University Press.
Kamin, K. and Rachlinski, J. 1995. Ex Post ≠ Ex Ante: Determining Liability in Hindsight. Law and
Human Behavior, 19(1): 89-104.
Kates, R. 1962. Hazard and choice perception in flood plain management. Research Paper No. 78. Chicago: University of Chicago, Department of Geography.
Knaup, A. 2005. Survival and longevity in the business employment dynamics data. Monthly Labor
Review, May 2005.
Kunda, Z. 1990. The case for motivated reasoning. Psychological Bulletin, 108(3): 480-498.
Latane, B. and Darley, J. 1969. Bystander "Apathy", American Scientist, 57: 244-268.
Lichtenstein, S., Fischhoff, B. and Phillips, L. D. 1982. Calibration of probabilities: The state of the art to 1980. In Kahneman et. al. 1982: 306–334.
Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. and Combs, B. 1978. Judged Frequency of Lethal Events. Journal of Experimental Psychology: Human Learning and Memory, 4(6), November: 551-78.
McFadden, D. and Leonard, G. 1995. Issues in the contingent valuation of environmental goods:
methodologies for data collection and analysis. In Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.
Newby-Clark, I. R., Ross, M., Buehler, R., Koehler, D. J. and Griffin, D. 2000. People focus on optimistic and disregard pessimistic scenarios while predicting their task completion times. Journal of Experimental Psychology: Applied, 6: 171-182
Quattrone, G.A., Lawrence, C.P., Finkel, S.E. and Andrus, D.C. 1981. Explorations in anchoring: The effects of prior range, anchor extremity, and suggestive hints. Manuscript, Stanford University.
Rasmussen, N. C. 1975. Reactor Safety Study: An Assessment of Accident Risks in U.S. Commercial Nuclear Power Plants. NUREG-75/014, WASH-1400 (U.S. Nuclear Regulatory Commission, Washington, D.C.)
Rogers, W. et al. 1986. Report of the Presidential Commission on the Space Shuttle Challenger Accident. Presidential Commission on the Space Shuttle Challenger Accident. Washington, DC.
Sanchiro, C. 2003. Finding Error. Mich. St. L. Rev. 1189.
Schneier, B. 2005. Security lessons of the response to hurricane Katrina. http://www.schneier.com/blog/archives/2005/09/security_lesson.html Viewed on January 23, 2006.
Sides, A., Osherson, D., Bonini, N., and Viale, R. 2002. On the reality of the conjunction fallacy. Memory & Cognition, 30(2): 191-8.
Slovic, P., Finucane, M., Peters, E. and MacGregor, D. 2002. Rational Actors or Rational Fools:
Implications of the Affect Heuristic for Behavioral Economics. Journal of Socio-Economics, 31: 329–342.
Slovic, P., Fischoff, B. and Lichtenstein, S. 1982. Facts Versus Fears: Understanding Perceived Risk. In Kahneman et al. 1982: 463–492.
Strack, F. and Mussweiler, T. 1997. Explaining the enigmatic anchoring effect: Mechanisms of selective accessibility. Journal of Personality and Social Psychology, 73: 437-446.
Taber, C.S. and Lodge, M. 2000. Motivated skepticism in the evaluation of political beliefs. Presented at the 2000 meeting of the American Political Science Association.
Taleb, N. 2001. Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. Pp. 81-85. New York: Textre.
Taleb, N. 2005. The Black Swan: Why Don't We Learn that We Don't Learn? New York: Random House. Quoted with permission from p. 7-8
Tversky, A. and Kahneman, D. 1973. Availability: A heuristic for judging frequency and probability.
Cognitive Psychology, 4: 207-232.
Tversky, A. and Kahneman, D. 1974. Judgment under uncertainty: Heuristics and biases. Science, 185: 251-284.
Tversky, A. and Kahneman, D. 1982. Judgments of and by representativeness. In Kahneman et. al. (1982): 84-98.
Tversky, A. and Kahneman, D. 1983. Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90: 293-315.
Wansink, B., Kent, R.J. and Hoch, S.J. 1998. An Anchoring and Adjustment Model of Purchase Quantity Decisions. Journal of Marketing Research, 35(February): 71-81.
Wason, P.C. 1960. On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of
Experimental Psychology, 12: 129-140.
Wilson, T.D., Houston, C., Etling, K.M. and Brekke, N. 1996. A new look at anchoring effects: Basic anchoring and its antecedents. Journal of Experimental Psychology: General. 4: 387-402.
[1] Milan Ćirković osserva che la super eruzione di Toba (~ 73.000 A.C) potrebbe essere considerata una quasi estinzione. L'esplosione e l'inverno conseguente uccisero la gran parte dell'umanità di allora; le prove genetiche suggeriscono che solo poche migliaia di individui sopravvissero, forse meno (Ambrose 1998). Notate che questo evento non appartiene alla nostra memoria storica – precede infatti l'avvento della scrittura.
[2] Da notare che il valore del 44% include ogni tipo di business (come le trattorie, ad esempio), e non solo le nuove dot-com.