Published using Google Docs
Cognitive Biases Potentially Affecting Judgment of Global Risks (Portuguese)
Updated automatically every 5 minutes

Cognitive Biases Potentially Affecting Judgment of Global Risks


Yudkowsky, Eliezer. 2008. “Cognitive Biases Potentially Affecting Judgment of Global Risks.” In Global Catastrophic Risks, edited by Nick Bostrom and Milan M. Cirkovic, 91–119. New York: Oxford University Press.

If you find any translation errors in this document and would like to fix them, or if you’d like to contribute to the Machine Intelligence Research Institute by translating another one of our documents please contact jake@intelligence.org.

The original English text of this document can be found at:

intelligence.org/files/CognitiveBiases.pdf

Author: Eliezer Yudkovsky

Translator: José Cacalo de Carvalho


Table of Contents

Table of Contents

1. Introdução

2. Disponibilidade

3. Viés de Retrospecto

4. Cisnes Negros

5. A Flácia de Conjunção

6. Viés de Confirmação

7. Ancoragens, Ajustes e Contaminação

8. O Afeto Heurístico

11. Apatia do Espectador

13. Conclusão

14. Literatura Recomendada

Agradecimentos

Referências


1. Introdução

Via de regra, não há muitas pessoas dispostas a destruir o mundo em que vivemos. Mesmo corporações sem nomes, governos intrometidos, cientistas inescrupulosos, e outros agentes do mal, precisam de um mundo no qual podem atingir seus objetivos de lucro, ordem, posse ou outras vilanias. Se nossa extinção proceder de forma paulatina, de modo a permitir um momento de horrenda percepção, os malfeitores, provavelmente, se surpreenderão com o fato de que eles realmente conseguiram destruir o mundo. Portanto, eu sugiro que se nosso planeta for realmente destruído, o será por engano.

O estudo experimental sistemático dos erros produzidos no julgamento humano, e o que estes erros revelam sobre o processo mental básico, é conhecido hoje, na psicologia cognitiva, por “programa de investigação Heurísticas e Viéses”. Este programa tem feito descobertas altamente relevantes àquele que procuram avaliar riscos catastróficos globais. Suponha que você esteja preocupado sobre os riscos da substância P, um explosivo com potencial para destruir planetas que seria detonada se exposta a um forte sinal de rádio. Felizmente existe um expert famoso, descobridor da substância P, que passou os últimos trinta anos e a conhece como ninguém n o mundo. Você entra em contato com este expert e pergunta que intensidade o sinal deve ter. Ele responde que o ponto crítico é, provavelmente, por volta de 4 mil terawatts, “Provavelmente?” Você pergunta. “Poderia me dar um intervalo de confiança de 98%?”; “Claro,” responde o especialista. “Estou 99% certo que o ponto crítico está acima dos 500 TW and 99% certo está abaixo dos 80 mil TW.”; “E 10 TW?” Você pergunta. ”Impossível”, responde o expert.

A metodologia descrita acima para a resposta do expert parece perfeitamente razoável, é o tipo de coisa que qualquer praticante competente poderia fazer quando confrontado com tal problema. De fato, esta metodologia foi usada no Reactor Safety Study (Rasmussn 1975), hoje tida como a primeira tentativa séria na avaliação de riscos probabilística. Contudo, os estudiosos de Heuristícas e Viéses reconhecerão, no mínimo, dois erros maiores nesta metodologia, não digo falácias, mas condições extremamente suscetíveis ao erro humano.

O programa investigativo Heurísticas e Viéses mostrou resultados que podem surpreender e desanimar o acadêmico sem muita prática. Alguns leitores podem se levantar e dizer?” Isto é realmente um resultado experimental? As pessoas são realmente tão ruins em fazer conjecturas? Talvez o experimento foi mal desenhado, e o resultados, com tais manipulações, se afastaram da realidade.” Por falta de espaço para longas exposições, me resta pedir ao leitor que consulte a literatura primária sobre o tema. As manipulações óbvias já foram tentadas, e os resultados são convincentes.

2. Disponibilidade

Suponha que pegou ao acaso uma palavra de um texto em inglês com três ou mais letras. É mais provável que a palavra comece com R (“rope”), ou R é sua terceira letra (“park”)?

Um princípio geral, no qual “Heurísticas e Viéses” se baseia é que os humanos usam métodos de julgamentos (heurísticas) que dão rapidamente um resultado aproximado e aceitável na maioria dos casos, mas que também dão margem a erros sistemáticos chamados viéses. Um exemplo de heurística é julgar a a freqüência ou probabilidade de ocorrência de um evento pela sua disponibilidade, a facilidade com que tal exemplo de evento venha à mente. R aparece mais na terceira posição de uma palavra inglesa que na primeira, mas é muito mais fácil se lembrar das palavras que começam com R que das que têm o R na terceira posição. Portanto, a maioria das pessoas afirma que há mais palavras que iniciam com a letra R, quando o caso é o oposto. (Tversky and Kahneman 1973.)

Viéses implícitos na disponibilidade heurística impacta as estimativas do grau de risco. Um estudo pioneiro feito por Lichtenstein et. al. (1978) examinou julgamentos de probabilidades relativa e absoluta de riscos. As pessoas, em termos gerais, sabem quais riscos podem causar um elevado número de mortes e quais causam um baixo número. Contudo, quando solicitadas a quantificar riscos de maneira mais precisa, tendem a fortemente superestimar a freqüência de casos raros de morte, e subestimar a de casos mais comuns. Outros erros recorrentes também se fizeram notar: Os acidentes foram tidos como causadores de mais mortes que as doenças. (Estas matam 16 vezes mais que aqueles). O homicídio foi incorretamente citado como mais freqüente causa mortis que o diabetes ou câncer de estômago. Uma pesquisa feita por Combs and Slovic (1979) no obituário de dois jornais verificou que erros no julgamento de probabilidade se correlacionavam fortemente (0,85 e 0,89) com informações seletivas dos jornais.

As pessoas se recusam a adquirir um seguro contra enchentes, mesmo quando fortemente subsidiado e com preço bem abaixo do que serai atuarialmente justo. Kunreuther et. al. (1993) sugere que uma indiferença às ameaças de enchentes pode ocorrer a partir da “inabilidade dos indivíduos em conceber enchentes que nunca ocorreram... Habitantes de planícies que são regularmente alagadas parecem ser prisioneiros de suas experiências ... Enchentes recentes parecem elevar as expectativas de perdas e danos máximos com os quais os gestores crêem que deveriam considerar.” Burton et. al. (1978) reporta que quando represas e barragens são construídas, elas reduzem o número de enchentes, e então, aparentemente, criam uma falsa sensação de segurança, que, por sua vez, leva a uma redução nas precauções. Enquanto construir barragens diminui os riscos de enchentes, as perdas e danos em cada evento aumentam de tal maneira que elevam as médias anuais de prejuízos.

Aparentemente as pessoas não fazem extrapolações de experiências com pequenos riscos para grandes perigos; na verdade, as experiências com pequenos riscos determina um limite máximo percebido de riscos. Uma sociedade bem protegida de riscos pequenos não toma precauções contra grandes riscos (construir em planícies alagáveis depois que as pequenas enchetes são eliminadas). Uma sociedade sujeita a pequenos riscos de forma regular irá considerar os mesmos como a pior das hipóteses (protegendo-se das pequenas enchentes, mas não das grandes).

Os riscos de extinção da humanidade tendem a ser sub-avaliados, pois, obviamente, nunca vivemos um evento desta magnitude.[1]

3. Viés de Retrospecto

Viés de Retrospecto é quando o indivíduo, após ter conhecimento do resultado eventual, superestima a predicabilidade da ocorrência deste evento quando comparado a indivíduos sem este prévio conhecimento. O Viés de Retrospecto é também conhecido por “eu sabia que isto ia acontecer”.

Fischhoff and Beyth (1975) apresentou a seus estudantes alguns eventos com os quais eles não estavam familiarizados, como um conflito entre os Gurkhas e os britânicos em 1814. Dando o evento como conhecimento prévio, cinco grupos de estudos criados foram questionados sobre qual resultado eles teriam previsto como a probabilidade para cada um dos quatro: vitória britânica, vitória dos Gurkhas, empate com acordo de paz ou empate sem acordo de paz. Para quatro grupos foi informado, respectivamente, que estes quatro resultados foram, de fato, o ocorido. O quinto grupo não recebeu nenhuma informação prévia. Em cada caso, o grupo que recebeu informação prévia, julgou aquele resultado (recebido) como o mais provável em relação a qualquer o outro grupo, inclusivo ao grupo de controle.

Viés de Retrospecto é importante em caso legais (jurídicos), onde o juiz ou o júri deve decidir se o acusado foi tecnicamene negligente ao falhar em prever um risco (Sanchiro 2003). Num experimento baseado num caso verídico, Kamin and Rachlinski (1995) questionaram dois grupos a estimar a probabilidade de danos provenientes de enchentes causadas por travamento de ponte elevatória municipal. Ao grupo de controle foi dado a infromação conhecida pela cidade quando a municipalidade decidiu por não manter um vigia no local. O grupo experimental recebeu esta informação mais o fato que uma enchente havia ocorrido. As instruções diziam que a cidade foi negligente se a probabilidade previsível de ocorrência de enchente fosse maior que 10%. 76% do grupo de controle concluiu que a enchete era tão pouco provável que nenhuma ação deveria ser tomada; 57% do grupo experimental concluiu que a ocorrência era tão previsível que a falta de ação deveria ser considerada, tecnicamente, negligência passível de punição. Um terceiro grupo experimental recebeu informação da ocorrência e  foi instruído a evitar o viés retrospectivo, que não alterou o resultado em nada: 56% concluiu que a municipalidade foi negligente. Juízes não podem simplesmente instruir o júri a evitar o viés de retrospecto, pois este tipo de tentativa de manipulação é inócuo.

Ver a história sob a lente da retrospectiva nos induz significativamente a subestimar o custo de prevenção a catástrofes. IN 1986, o ônibus espacial Challenger explodiu por causa de um anel de retenção de borracha que perdia sua flexibilidade em baixas temperaturas. (Rogers et. al. 1986.) Havia sinais de aviso de um problema com anéis de retenção. Mas para haver prevenido tal desastre, seria necessário, não averiguar o problema com o anel de retenção, mas averiguar todos os sinais de aviso que pareciam tão graves como o problema do anel de retenção, sem o benefício de retrospectiva.

4. Cisnes Negros

Tale (2005) sugere que viés de retrospecto e viés de disponibilidade são os principais responsáveis por nossas falhas em prevenir o que Taleb chama de Cisnes Negros. Cisnes Negros é uma versão especialmente difícil do problema de “rabo gordo”: as vezes a maior parte da variância num  processo vem de eventos excepcionamente grandes e raros. Considere um instrumento financeiro que rende $ 10 com probabilidade de 98%, mas perde $ 1.000 com probabilidade de 2%. É um risco líquido pequeno, mas parece que ganha quase sempre. Taleb (2001) dá um exemplo de um trader cuja estratégia funcionou durante seis anos sem nenhum trimestre negativo. Performando aproximadamente $ 80 milhões, para em seguida perder $ 300 milhões numa única catástrofe.

Um outro exemplo é este do Long-Term Capital Management, um hedge-fund cujos fundadores tinham em seu quadro dois prêmios Nobel de economia. Durante a crise monetária asiática e a inadimplência dos títulos russos em 1998, os mercados se comportaram de forma literalmente sem precedentes. Atribuíram uma probabilidade irrisória pelo modelo histórico da LTCM. Como resultado, o fundo começou perdendo $ 100 milhões por dia, seguidamente. Num único dia em 1998, perderam mais de $ 500 milhões (Taleb 2005.)

Os fundadores do LTCM definiram as condições do mercado em 1998 como “evento 10-sigma”. Mas, obviamente isto não era de todo improvável. Erroneamente acreditando que, como o passado era previsível, o futuro também o era. Como Fischhoff (1982) o colocou:

Quando tentamos compreender eventos passados, nós, implicitamente, testamos as hipóteses ou regras que usamos tanto para interpretar como para antecipar o mundo ao nosso redor, se com o beneficio da retrospectiva, nós subestimamos sistematicamente as surpresas que o passado nos deu e nos dá, nós estamos atribuindo às estas hipóteses testes desordenadamente débeis e, presumivelmente, achando pouca razão para modificá-las.

A lição da história é que cisnes negros acontecem. As pessoas ficam surpresas com catástrofes que acontecem foram de suas previsões, além de suas probabilidades de distribuições históricas. Por que, então, ficamos chocados quando os cisnes negros ocorrem? Por que o LTCM alavancou $ 125 bilhões contra $ 4,72 bilhões de equity, praticamente assegurando que qualquer cisne negro iria destruí-los?

Por causa do viés de retrospecto, nós aprendemos muitas lições específicas. Depois do 11 de setembro (de 2001), a U.S. Federal Aviation Administration proibiu estiletes em aviões. O viés de retrospecto entendeu o evento com facilmente previsível, permitindo as indignadas vítimas a considerar uma “negligencia”, tal como as falha das agências de inteligência em distinguir os avisos das atividades da  Al Qaeda entre milhares de outros avisos. Nós aprendemos a não permitir o sobrevôo de aviões seqüestrados sobre nossas cidades. Nós não parendemos a lição: “ Cisnes Negros acontecem; vamos fazer o pssivel para nos prepararmos para o inesperado.”

Taleb (2005) escreve:

É difícil motivar as pessoas na prevenção de cisnes negros... Prevençao não é facilmente percebida, medida ou compensada; é normalmente uma atividade silenciosa e sem reconhecimento. Apenas considere que uma medida cara é tomada a fim de prevenir tal ocorrência. É muito fácil computar o custo, enquanto os resultados são difíceis de serem determinados. Como se pode mostrar sua eficiência, se a medida foi um sucesso ou se apenas coincidiu com nenhum acidente em particular? ... Avaliação de performance de trabalhos neste tema não são paenas complicados, mas pode ter um viés em favor de “atos de heroísmo” observados. Os livros de história não registram medidas “heróicas” de prevenção.

5. A Flácia de Conjunção

Linda tem 31 anos de idade, solteira, cândida e brilhante. Ela se formou em filosofia. Como estudante, era profundamente atenta a questões de discriminação e justiça social, e também participou de manifestações anti nuclear.

Ordene as seguintes afirmações da mais provável a menos provável:

  1. Linda é professora em escolar elementar;
  2. Linda trabalha numa livraria e pratica yoga;
  3. Linda é militante no movimento feminista;
  4. Linda assistente social psiquiátrica;
  5. Linda é membro da Liga de Mulheres Eleitoras;
  6. Linda é caixa de banco;
  7. Linda é vendedora de seguros;
  8. Linda é caixa de banco e militante no movimento feminista.

89% de 88 estudantes indicaram viii mais provável que v. (Tversky and Kahneman 1982.) Como a descrição da de Linda foi escolhida como similar a uma feminista e não similar a uma caixa de banco, viii é mais representativa da descrição de Linda.

Contudo, colocar a opção viii antes da v  viola a regra de conjunção da teoria da probabilidade que afirma que p(A&B)≤p(A). Imagine uma amostra de 1.000 mulheres; certamente há mais mulheres caixas de banco que mulheres feministas e caixas de banco.

Poderia a falácia de conjunção se aplicar a indivíduos que interpretam instruções experimentais de forma não antecipada? Talvez eles pensem que “provável” significa a probabilidade da descrição de Linda dadas as afirmativas v e viii e não a probabilidade de ocorrência de v e viii  dada a descrição de Linda. Ou talvez ele interpretem v e viii como “Linda é caixa do banco e não militante no movimento feminista.” Apesar de muitas hipóteses alternativas e criativas terem sido inventadas para explicar a falácia de conjunção, esta tem sobrevivido a muitos teste experimentais feitos para derrubá-la. Vejam, por exemplo Sides et. al. (2002) como sumário. Por exemplo, o seguinte experimento exclui ambas as hispotese alternativas expostas acima:

Considere um dado de jogo de seis lados com quatro faces verdes (G) e duas vermelhas (R). O dado será lançado 20 vezes e as cores de cima serão registradas. Você escolhe uma das 3 seqüências abaixo. Se confirmar em qualquer sucessão de lances do dado, você ganhará $ 25.

  1. RGRRR
  2. GRGRRR
  3. GRRRRR

125 estudantes da UBC e Stanford University jogaram com pagamentos reais. 65% deles escolheram a sequencia B. (Tversky and Kahneman 1983.) A sequencia B é a mais representativa do dado, pois há mais faces verdes que vermelhas e a B apresenta a maior proporção de faces verdes. Contudo, a sequencia A aparece mais vezes que B, pois A está estritamente contida em B – para obter B você deve ter A precedida de verde (G).

No teste acima, as probabilidades poderiam ser calculadas pelos estudantes, Contudo, antes de um esforço de cálculo numérico, parece que eles (pelo menos 75% deles) deram um palpite intuitivo, baseado na sequencia que parecia mais representativa do dado. Nomeando isto de “representatividade heurística” não implica que os estudantes, deliberadamente, decidiram que eles iriam estimar probabilidade estimando similaridade. Na verdade, a representatividade heurística é que produz o senso intuitivo que a sequencia B “parece mais provável” que a A. Em outras palavras, a representatividade heurística é, mais do que um procedimento conscientemente adotado, uma característica nativa do cérebro que serve para julgamentos rápidos de probabilidade. Nós não nos damos conta de estarmos substituindo o juízo de probabilidade pelo de representatividade.

A falácia de conjunção pode ser, da mesma forma, aplicada a previsões futurísticas. Dois grupos independentes de analistas profissionais no Second International Congress on Forecasting foram solicitados a julgar, respectivamente, a probabilidade “um completo rompimento das relações diplomáticas entre os EUA e a União Soviética, em algum momento de 1983” ou “uma invasão soviética na Polônia junto um completo rompimento das relações diplomáticas entre os EUA e a União Soviética”. O segundo grupo (que ficou com a 2º opção) apresentou uma probabilidade significativamente maior. (Tversky and Kahneman 1983.)

Em Johnson et. al. (1993), estudantes de MBA na Wharton foram estavam programados para visitar Bangkok como parte de seu programa de graduação. Vários grupos de estudantes foram perguntados quanto eles gostariam de pagar por um seguro anti-terrorismo. A um grupo foi perguntado quando eles gostariam de pagar por um seguro anti-terrorismo que cobrisse o vôo da Tailandia para os EUA. A um segundo grupo, para uma cobertura dos vôos de ida e de volta. A um terceiro grupo, a totalidade da viagem. As respostas forma, na média e respectivamente $ 17,19, $ 13,90 e $ 7,44.

De acordo com a teria da probabilidade, adicionar detalhes a um evento, o torna menos provável que Linda seja uma caixa de banco feminista que uma caixa de banco, pois toda feminista caixa de banco é caixa de banco... No entanto a psicologia humana parece seguir a regra que adicionando-se um detalhe torna-se a história mais plausível.

As pessoas tendem a querer pagar mais por um projeto de defesa à guerra bacteriológica proveniente da China que por um de qualquer origem. A segunda ameaça é menos vívida e alarmante, mas a defesa é mais útil por que é mais vaga. Mas valiosa ainda seria a defesa que faria a humanidade se encontrar menos exposta a uma extinção a partir de ameaça não especificamente nano tecnológica, tal como a colonização do espaço, ou vid Yudkowski sobre Inteligência Artificial. O perito em segurança, Bruce Schneier, observou (tanto antes quanto depois do furacão de 2005 em Nova Orleans) que o governo dos EUA estava vigiando alvos específicos de prováveis ataques terroristas de grande porte em detrimento de manter (recursos) para rápido atendimento a qualquer tipo de calamidade. (Schneier 2005.)

Proteção a ameaças muito específicas podem igualmente criar uma falsa sensação de segurança: “X não é um risco existencial e você não precisa se preocupar com ele por causa de A, B, C, D ou E”; onde a falha de qualquer das proposições A, B, C, D ou E extinguiria a espécie humana. “Nós não precisamos nos preocupar com a guerra nano tecnológica, pois a comissão da ONU desenvolverá inicialmente a tecnologia e prevenir sua proliferação até o momento que um escudo ativo seja inventado, capaz de nos defender de todos os vazamentos acidentais ou maliciosos que a nanotecnologia atual possa produzir, e esta condição seja contínua por prazo indeterminado.” Cenários vívido e específicos podem inflar nossas estimativas de probabilidade de ocorrência, e também de direcionar erroneamente os investimentos para defesa de cenários estreitos e pouco plausíveis.

De forma mais geral, as pessoas tendem a superestimar as probabilidades conjuntivas e subestimar as disjuntivas. (Tversky and Kahneman 1974.) Ou seja, tendem a superestimar as probabilidades que, por exemplo, sete eventos de 90% de probabilidade irão todos ocorrer. E, contrariamente, tendem a subestimar que pelo menos um de sete eventos de probabilidade de 10% ocorrerão. Alguém estudando, p.e., a incorporação de uma startup, deve avaliar que vários eventos individuais devem (todos) ocorrer da forma prevista (haverá fundos suficientes, empregados competentes, os clientes vão querer o produto) e ao mesmo tempo, ponderar que, pelo menos uma  falha crítica irá ocorrer (o banco recusa um empréstimo de fundos, o projeto principal vai a pique, o cientista chefe morre). Isto pode ajudar a entender  por que somente 44% das startups  ainda estão de pé no 4º ano de sua existência. (Knaup 2005.)

Dawes (1988) observa: “Em suas conclusões, advogados, preferem argumentar a partir de conjunções que de disjunções (“ou isto, ou aquilo, ou outro poderia ter ocorrido, qualquer um levaria a mesma conclusão”). Quando racionalmente, é claro, as disjunções são muito mais prováveis que as conjunções.”

O cenário de a humanidade ser extinta durante os próximos 100 anos é um evento disjuntivo. Poderia acontecer como resultado de qualquer um dos riscos discutidos neste texto ou por algum outra causa que nenhum de nós foi capaz de prever. Ainda assim, para um futurista, profecias disjuntivas não soam como poesia.

6. Viés de Confirmação

Em 1960, Peter Wason conduziu um, agora clássico, experimento que ficou conhecido como a tarefa “‘2-4-6”. (Wason 1960.) Os sujeitos tinham que deduzir a regra, sabida pelo monitor, mas não por eles, analogamente às pesquisas científicas. Tinham que escreve um trio, “2-4-6-“ ou “10-12-14”, por exemplo, e o monitor dizia se estava correta ou não. Inicialmente os sujeitos recebiam que o trio “2-4-6” e eram informados que este se encaixava na regra. Eles continuavam testando os trios até que se decidissem que tinham descoberto a regra, momento, no qual a anunciava.

Apesar de os sujeitos, tipicamente, estarem seguros que tinham descoberto a regra, somente 21% acertavam. Réplicas deste experimento mostraram igualmente resultados próximos a 20%. Contrariamente à recomendação de Karl Popper, os sujeitos da tarefa de Walson tentaram mais confirmar suas hipóteses do que adulterá-las. Portanto, alguém que formule a hipótese ”os números crescem de 2 em 2” irão testar os trios 8-10-12 ou 20-22-24, ouvir que eles se encaixam e, confiantemente anunciar a regra.  Já alguém com a hipótese x-2x-3x irá testar o trio 3-6-9, deduzir que se encaixa e anunciar a regra da mesma forma, em qualquer dos casos, a regra é a mesma: o 3 números devem estar em ordem ascendente! Em alguns casos os sujeitos vieram com regras muito mais complicadas que a correta.

A tarefa 2-4-6 de Walson é uma forma “fria” de viés de confirmação; s pessoas tendem a confirmar, e não adulterar uma evidência. “Fria” quer dizer que a tarefa 2-4-6 é um caso afetivamente neutro de viés de confirmação, a dedução é lógica, ou seja, não emocional. “Quente” significa uma dedução carregada de emoção, como uma discussão política. De fato, viéses de confirmação “quente” são mais fortes, maiores em seus efeitos e mais resistentes a mudanças. Viéses de confimação altamente ativos e cheios de esforços são chamados de Cognição Motivada (mais ordinariamente conhecida por “racionalização”). Como postulado por Brenner et. al. (2002) em "Remarks on Support Theory":

Claramente, em muitas circunstâncias, o desejo de acreditar numa hipótese pode impactar seu apoio percebido... Kunda (1990) discute como as pessoas que são motivadas a alcançar certas conclusões tendem a construir (de modo enviesado) um compelido caso em favor de suas hipóteses que possa convenver uma platiea imparcial. Gilovich (2000) sugere que conclusões nas quais as pessoas não querem acreditar são tidas em padrões mais elevados que aquelas que querem acreditar. No primeiro caso, perguntam se a evidência força a crença, quando no segundo a evidência permite a crença.

Quando as pessoas submetem evidências discordantes a um maior escrutínio que as concordantes, isso é chamado de ceticismo motivado ou viés de confirmação. Vies de desconfirmação é especialmente destrutivo por duas razões: Primeiro, dois interlocutores que considerem a mesma linha de evidência podem mudar para crenças opostas – ambos os lados aceitando somente evidência favorável. Juntar mais evidências, pode não trazer os mesmos a um ponto pacifico. E segundo, os céticos mais habilidosos – que dominam uma liturgia mais extensa de falácias lógicas – mas aplicam esta habilidade de modo seletivo, podem mudar de opinião de forma mais lenta que os sem tais habilidades.

Taber and Lodge (2000) examinaram as atitudes originais de estudantes e suas alterações posteriores quando expostos à literatura política a favor e contra o controle de porte e posse de armas e ações afirmativas. O estudo testou seis hipóteses através de dois experimentos:

  1. Efeito da atitude original. Sujeitos que tem fortes sentimentos a favor de uma determinada questão, mesmo quando encorajados a serem objetivos, apresentam mais argumentos a favor que contra.
  2. Viés de Desconfirmação. Sujeitos irão gastar mais tempo e energia cognitiva denegrindo argumentos contra que a favor.
  3. Viés de Confirmação. Sujeitos livres para escolher suas fontes de informação irão buscar fontes favoráveis mais que as desfavoráveis.
  4. Polarização de Atitude. Expor sujeitos a um aparentemente equilibrado conjunto de pros e contras irá exagerar sua polarização inicial.
  5. Efeito da Atitude Forte. Sujeitos expressando fortes atitudes estarão mais expostos aos viéses acima.
  6. Efeito da Sofisticação. Sujeitos com maiores conhecimentos políticos, por possuírem mais munição com a qual reagir contra fatos incongruentes e argumentos, estarão mais expostos aos viéses acima.

Ironicamente, os experimentos de Taber and Lodge confirmaram todas as seis hipóteses acima. Tavez você  dizer: “O experimento somente reflete as crenças com as quais os autores o iniciaram, ou seja, é apenas um caso de viés de confirmação.” Se assim for, então fazendo de você um argumentador mais capaz, ou seja, lhe apresentando novas formas de viéses com as quais atribuir às pessoas, eu estarei, na verdade, lhe prejudicando, lhe tornando mais lento para reagir a evidências. Eu dei a você mais uma chance de falhar em momentos que você se encontra frente a desafios para mudar de opinião.

Heurística e Viés são amplamente comuns no raciocínio humano. Familiaridade com o tema pode nos ajudar a detectar uma ampla variedade de falácias lógicas que poderiam se evadir durante nossa inspeção. Mas, como em qualquer habuilidade em detectar falhas em linhas de raciocínio, esta inspeção devem ser aplicada de forma homogênea:  tanto em relação a nossas idéias quanto as dos outros; a idéias que nos disconfortam e a que nos confortam. A percepção da falibilidade humana é um conhecimento perigoso caso você se lembre somente da falibilidade dos outros quando eles discordam de você. Se sou seletivo sobre em quais argumentos eu busco erros, então cada nova realidade que descubro, cada nova falácia lógica que aprendo a identificar, me faz uma pessoa mais burra! Inteligência, para ser útil, deve servir para outras coisas e não para emburrecer...

Para começo de conversa, não se pode “racionalizar” o que não é racional. Como se a mentira fosse uma forma validação. É impossível atribuir mais verdade a uma proposição através de propina, bajulação ou de um argumento carregado de emoção. Você pode fazer mais pessoas acreditarem numa proposição, mas você não pode torná-la mais verdadeira. Para tornar nossas crenças mais verdadeiras, nós devemos mudar de crenças! Nem toda mudança é um progresso, mas todo progresso é uma mudança.

Nossas crenças são mais prontamente determinadas do que percebemos. Griffin and Tversky (1992) discretamente abordaram 24 colegas com duas propostas de trabalho, e pediram para estimar a probabilidade de pegarem cada uma delas. A confiança média na maior probabilidade foi de modestos 66%. Mas apenas 1 dos 24 escolheu a de, inicialmente, menor probabilidade de ser a escolhida, resultando num acerto de 96% (um reportou instância de baixa confiança humana).

A oral da história é que uma vez que você possa prever qual será sua resposta , uma vez que você pode estimar uma maior probabilidade a uma das alternativa, você em todas as probabilidades, já se decidiu! E, se você for honesto consigo mesmo, você será capaz de responder à pergunta em alguns segundos. Nós mudamos de idéia menos frequentemente que pensamos. Quão efêmero é este momento imperceptível em que ainda não podemos apreender qual resposta daremos, o pequeno e frágil instante quando há uma chance de nossa inteligência agir, tanto em questão de escolha quanto em questão de fato.

Thor Shenkel disse: “Não é uma verdadeira crise de fé se não puder tomar facilmente qualquer um dos caminhos.”

Norman R. F. Maier disse: “Não proponha soluções se o problema não foi ainda amplamente analisado sem proposta alguma de solução.”

Robyn Dawes, comentando Maier, disse: Frequentemente usei esta assertiva com grupos que eu estava coordenando, particularmente quando confrontados com problemas difíceis, ocasiões que tendiam a propor soluções de forma rápida.

Em ciência da computação, um “sistema confiante” é aquele no qual você, de fato, confia, não aquele que é, de fato, confiável. Um “sistema confiante” é aquele que, se não é confiável, pode apresentar falhas. Quando você lê um paper que propõe que uma potencial catástrofe global é impossível, ou que tem uma probabilidade anual específica, ou ainda pode ser gerenciada usando estratégias especificas, você confia na racionalidade dos autores. Você confia na habilidade dos autores para ser direcionado de uma conclusão confortável para outra desconfortável, mesmo na ausência de evidência experimental acachapante para provar que a comemorada hipótese seja falsa. Você confia que os autores não se esforçaram inconscientemente um pouco mais na busca de inconsistências na equação que pareciam estar se inclinando para o lado errado, antes mesmo de ver o paper final.

E se uma autoridade advoga que a mera sugestão de um risco existencial é suficiente para proibir um projeto; ou se se torna de fato uma verdade no processo político que nenhum cálculo pode neutralizar o fardo de uma sugestão feita; então nenhum cientista irá fazer qualquer outra sugestão, o que é muito pior. Eu não sei como solucionar este problema. Mas penso que seria interessante os estudiosos de riscos existenciais saber algo sobre heurística e viés em termos gerais, e sobre viés de desconfirmação em particular.

7. Ancoragens, Ajustes e Contaminação

Um monitor gira a “roda da fortuna” e você assiste, e a roda para no (versão 1) número 65 ou (versão 2) no 15. Ele pergunta a você se o percentual de países africanos está acima ou abaixo desse número. Em seguida ele lhe pergunta o percentual de países africanos na ONU.

Tversky and Kahneman (1974) demonstraram que sujeitos da versão 1 deram palpites maiores que os da versão 2! Os palpites foram, em média, 45 e 25 respectivamente. Isto, mesmo observando o resultado totalmente aleatório  de uma rode da fortuna, sabendo ainda que os resultados não tinham absolutamente nenhuma relação com a pergunta! Instruções para serem o mais imparcial e o mais preciso possível, não mudaram os resultados. Tversky and Kahneman pensaram na hipotese de que este efeito era fruto de ancoragem e ajuste; os sujeitos pegaram o número inicial (um dado qualquer) como ponto de partida, ou âncora, e em seguida fez um ajuste para cima ou para baixar até chegar a algo que lhes parecessem plausível.

No exemplo inicial, nós primeiramente perguntamos ao expert sobre a substância P para estimar o valor correto que poderia detonar tal substância, e somente depois disso pedimos um intervalo de confiança acerca desse valor. Este método guia as pessoas a justar para cima e para baixo até que se encontre um valor que soe implausível, então cessam os ajustes. Isto leva a um ajuste pouco preciso e a intervalos estreitos de confiança.

Após o paer de Tversky and Kahneman em 1974, as pesquisas começaram a se acumular e a mostrar uma gama bem maior de efeitos de “ancoragens” e “pseudo-ancoragens”. Ancoragem ocorria quando a âncora representava uma resposta altamente implausível às perguntas. Por exemplo, pedir para estimar o ano da primeira visita de Einstein aos EUA, após considerar âncoras de 1215 ou 1992. Estas âncoras implausíveis produziram diferentes efeitos de ancoragem tão maiores quanto mais plausíveis como 1905 ou 1935. (Strack and Mussweiler 1997.)

Durante suas compras num supermercado, você vê uma pilha de latas de sopa de tomate e um cartaz ao lado “máximo de 12 latas por consumidor.” Será que este cartaz faz, realmente, as pessoas comprarem mais latas do produto? De acordo com experimentos empíricos, sim. (Wansink et. al. 1998.)

Tal fenômeno generalizado tornou-se conhecido como efeito de contaminação, pois ficou claro que quase todo tipo de informação consegue impactar no julgamento cognitivo. (Chapman and Johnson 2002.) Tentativas (manipulação) para neutralizar esta contaminação inclui pagar os sujeitos para obter respostas corretas (Tversky and Kahneman 1974), instruir os candidatos a evitarem ancoragem nas quantidades iniciais (Quattrone et. al. 1981) ou ainda trabalhar com situações do mundo real. (Wansink et. al. 1998). Estas manipulações não reduziram, nem minimamente, a magnitude da ancoragem nem dos efeitos de contaminação. Além disso, os sujeitos, quando foram perguntados se haviam sofrido influência pelo fator contaminante, responderam que eles, seguramente, acreditavam que não, quando os resultados mostravam que sim. (Wilson et. al. 1996.)

Uma manipulação que, consistentemente, aumenta os efeitos de contaminação coloca o sujeito em condição cognitiva “ocupada”, tal como reverter uma seqüência de palavras enquanto trabalha (Gilbert et. al. 1988) ou pedir ao sujeito uma resposta rápida (Gilbert and Osborne 1989). Gilbert et. al. (1988) atribui este efeito o fato de a tarefa extra interferir na habilidade de ajustar para longe da âncora; ou seja, menos ajustes foram feitos durante a condição cognitiva “ocupada”. Isto reduz o ajuste, portanto aumenta o efeito de sub-ajuste conhecido com “Ancoragem”.

Em suma: Informação visivelmente irrelevante ancora os julgamentos e contamina os palpites (estimativas). Quando as pessoas começam a partir de uma informação que se sabe ser irrelevante e ajustam até chegar a uma resposta aparentemente plausível, elas sub-ajustam. As pessoas sub-ajustam mais severamente em situações de cognição “ocupada” e em outras manipulações que tornar o problema mais difícil. As pessoas negam que estão “ancoradas” ou contaminadas, ainda que os resultados mostrem o contrário. Estes efeitos não são reduzidos, nem minimamente via incentivos financeiros, instruções explícitas para que se evite contaminação ou situações do mundo real.

Agora considere quantas estórias na mídia sobre inteligência artificial cita os filmes do Terminator como se eles fossem documentários, e quantas mencionam o Borg de Star Trek quando o tema é interface cérebro-computador.

Se apresentação ligeira de uma âncora tem um efeito substancial no julgamento de um sujeito, quão grande efeito deveríamos esperar se lêssemos um livro inteiro, ou assistíssemos um programa na TV? No ambiente em que viviam nossos ancestrais, não havia cinema; qualquer coisa que você visse com seus  próprios olhos era a verdade. As pessoas parecem perceber, pelo menos quando se trata de pensamento consciente, que ficção é ficção. Os reports de mídias que mencionam Terminator, normalmente, não trata este trabalho de Cameron como uma profecia nem uma realidade. Na verdade o repórter parece considerar a visão de Cameron como algo que, tendo acontecido antes, pode muito bem acontecer novamente – O filme tem um recall como se fosse uma ilustração de um fato histórico. Eu chamo este mix ancoragem e recal de falácia lógica de generalização a partir de um evidencia ficcional.

(A conceito relacionado a este é o viés da boa historia hipotetizada em Bostrom (2001). Notem que toda boa historia é apresentada como ficção.)

Os contadores de estórias obedecem a regras estritas de narrativas não relacionadas com a realidade. Logica dramática não é logica. Os aspirantes a escritor são ensinado que a verdade não é uma desculpa: você não pode justificar um evento inverossímil em sua ficção citando a instancia de um fato da vida real. Uma boa estória é pintada com detalhes vibrantes, iluminada por metáforas brilhantes; um contador de estórias deve ser concreto, tão duro e preciso quanto uma pedra. Mas, quando se trata de previsões, cada detalhe que se adiciona tornar um fardo extra! A verdade é um trabalho duro, mas não o tipo de trabalho duro executado por um conta-contos. Nos devemos evitar, não apenas sermos enganados duped pela ficção, falhando em fazer um esforço mental extra necessário para desacreditá-la,  mas sermos, igualmente, contaminados pela ficção, permitindo que ela se ancore em nossos julgamentos. E nós deveríamos estar cientes que nem sempre estamos cientes dessa contaminação. Não é incomum que em discussões sobre riscos existenciais, as categorias, escolhas, consequências, e estratégias sejam derivadas de filmes, livros e show da TV. Há subtler derrotas, mas isto já é pura rendição.

8. O Afeto Heurístico

O afeto heurístico refere-se ao modo no qual as impressões subjetivas do bem e do mal podem agir com heurística, capaz de produzir rápidos julgamentos de percepção, como também vieses sistemáticos.

Em Slovic et. al. (2002), dois grupos de sujeitos avaliaram um cenário no qual um aeroporto deve decidir pelo investimento na compra de um novo equipamento, quando os críticos argumentam que o dinheiro deveria ser gasto em outros aspectos relacionados a segurança aeroportuária. A escala de resposta varia de 0 (nenhum apoio) a 20 (total apoio). Uma medida descrita como “salvadora de 150 vidas” obteve suporte de 10,4 enquanto outra medida descrita com “salvadora de 98%” ganhou 13,6 . Mesmo a alternativa que salvaria 85% das 150 vidas ganho maior apoio que a primeira. A hipótese que motivou o experimento foi que salvar 150 vidas soa difusamente boa e é, portanto, só fracamente avaliável, enquanto 98% de qualquer coisa é claramente muito bom por que está tão perto do máximo possível, ou seja o limite superior da escala.

Finucane et. al. (2000) especulou se as pessoas iriam unir seus julgamentos sobre os possíveis benefícios de uma tecnologia como a energia nuclear, e seus julgamentos de possíveis riscos, num sentimento generalizado de conforto sobre a tecnologia ou o contrário. Finucane et. al. Testou esta hipóteses apresentando 4 tipos de informação que que aumentaria ou diminuiria a percepção de risco ou benefício. Não havia nenhuma relação lógica entre as informações apresentadas, por (ex., sobre riscos) e a variável (por ex., benefícios). Em cada caso a informação manipulada produziu uma um efeito inverso na caraterística emotiva inversa. Quando aprestada informações que aumentavam a percepção de risco, reduzia a percepção de benefícios. Finucane et. al. (2000) também verificou que a pressão em função do tempo disponível para a decisão aumentava de forma considerável a relação inversa entre risco percebido e beneficio percebido. Aparentemente por que a pressão do tempo curto aumentava a dominância heurística emotiva sobre o raciocínio analítico.

Ganzach (2001) encontrou os mesmos efeitos no setor financeiro: os analistas parecem basear seus julgamentos de risco e retorno para uma ação não familiar numa atitude global afetiva. Ações percebidas como “boas” são avaliadas com baixo risco e alto e retorno, e a as ações percebidas como “ruins”, tido como alto risco e baixo retorno. Ou seja, para ação não familiar, os riscos e retornos percebidos são negativamente correlacionados, como previsto pela heurística emocional. (Notem que, neste experimento, informação esparsa  teve o mesmo papel no caso de ocupação cognitiva ou de pressão por tempo curto na cada vez maior dependência na heurística emocional.) Para uma ação familiar,  ocorre o contrário, os riscos e benefícios percebidos tem uma correlação positiva. Ações de alto risco são esperadas produzir altos retornos, como previsto na teoria econômica comum. (Se uma ação  é segura, o comprador paga um prêmio por sua segurança, aumentando assim seu valor, reduzindo portanto, seu retorno esperado.)

Tipicamente, as pessoas têm informações muito esparsas para considerar tecnologias futuras. Portanto, não é uma surpresa que deveriam mostram uma polarização emotiva em suas atitudes. Quando eu comecei a refletir sobre isto, eu julguei a biotecnologia como menos benéfica que a nanotecnologia, e, eu me preocupava mais com um supervírus que com um mau uso da nanotecnologia. Inteligência Artificial, de onde eu esperava os maiores benefícios de todos, não me deu a mínima ansiedade. Depois então, após trabalho nos problemas num maior nível de detalhes, minha avaliação sobre benefícios relativos continuaram mais ou menos na mesma, mas minhas preocupações se inverteram: as mais poderosas tecnologias, com os maiores benefícios esperados, parecem agora ter, correspondentemente, os risco mais difíceis. Em retrospecto, isto é o que se deveria esperar. Porém, analistas com informações insuficientes podem julgar tecnologias de forma emotivo-afetiva, de forma que informações sobre benefícios esperados parecem mitigar a força dos riscos esperados.

8. Negligência de Escopo

(2.000 / 20.000 /200.000) aves migratórias morrem anualmente por afogamento em depósitos de óleo a céu aberto, que elas confundem com superfícies de água. Estas mortes poderiam ser prevenidas cobrindo-se o local com redes. Quanto dinheiro você estaria disposto a gastar para investir nestas redes?

Três grupos de sujeitos consideraram três versões da questão acima. Perguntados o que tamanho de aumento de imposto, estariam dispostos a aceitar a fim de evitar 2.000, 20.000 ou 200.000 mortes de aves. As respostas, chamadas de “Intenção Declarada de Pagar” ou SWTP, na sigla em Inglês, tiveram as seguintes médias: $80 para o grupo de 2.000, $78 para o grupo de 20.000 e $88 para o grupo de 200.000. (Desvousges et. al. 1993.) Este fenômeno é conhecido por  Insensibilidade de Escopo ou Negligência de Escopo.

    Estudos similares tem mostrado que os residentes da cidade de Toronto pagariam apenas um pouco mais para limpar todos os lagos poluídos em Ontário que para limpar lagos poluídos numa região em particular em Ontário (Kahneman 1986); e tem mostrado ainda que residentes em 4 estados do oeste norte-americano pagariam apenas 28% a mais para proteger todos as áreas selvagens nestes estados que para proteger uma única área (McFadden and Leonard, 1995).

           A explicação mais aceita para a Negligência de Escopo remete à Heurística Emotivo-Afertiva. Kahneman et. al. (1999) escreve:

“A estória construída por  Desvouges et. al. Provavelmente evoca para muitos leitores uma representação mental de um incidente original, como um protótipo, talvez uma imagem de uma ave exausta com suas penas encharcada de óleo e incapaz de reagir e escapar. A hipótese de uma valoração via um protótipo confirma que  o valor emocional desta imagem dominará nas manifestações de uma atitude ao problema, incluindo uma disposição de pagar por uma solução. Avaliação via protótipo implica em negligência de escopo.”

Duas outras hipótese sobre a negligência de escopo incluem a “compra” de uma      satisfação moral (Kahneman and Knetsch, 1992) e uma “boa’ causa pela qual brigar (Harrison 1992).  Compra de satisfação moral  sugere que as pessoas  gastem dinheiro suficiente a fim de criar uma “aura brilhante” em torno de sua pessoa, e o montante exigido é determinado pela psicologia da pessoa, não tendo nada a ver com aves. Uma boa causa pela qual brigar sugere que as pessoas tenham algum dinheiro para ser destinado ao “meio-ambiente”,  e qualquer questão sobre o ativo ambiental evoca esta quantia.

Tem sido provado que a negligência de escopo se aplica nas vidas humanas. Carson and Mitchell (1995) mostra que se aumentando o suposto risco associado a beber água clorada de 0,004 para 2,43 mortes anuais para cada 1.000 habitantes (um fator de 600) aumentou a SWTP de $3,78 para $15,23 (um fator de 4). Baron and Greene (1996) não  encontrou nenhum efeito em variar por um fator de 10 as vidas humanas salvas.

Fetherstonhaugh et. al. (1997), num paper  intitulado “Insensibilidade para o Valor da Vida Humana: Um Estudo sobre a Anestesia Psicofísica” encontrou evidências  que nossa percepção de mortes humanas e a valoração de vidas humanas obedecem a lei de Weber, ou seja, que usamos uma escala de valores  logarítmica. E, de fato, estudos sobre negligência de escopo, nos quais as variações quantitativas são enormes o suficiente para promover um mínimo de sensibilidade mostra um pequeno aumento linear na “Disposição a Pagar”  correspondente a uma aumento exponencial  no escopo. Kahneman et. al. (1999) interpretam isto como um efeito adiditivo de escopo e protótipo emocionais. A imagem protótipo promove a maior parte da emoção, e o escopo promove uma pequena quantidade de emoção que é adicionada (não multiplicada) à primeira quantia.

Albert Szent-Györgyi  disse:  “  Me toca profundamente quando vejo o uma pessoa sofrer ,  e estaria disposto a arriscar minha vida por ela.  Então tenho uma conversa impessoal sobre uma possível pulverozalção de nossas grandes cidade, com cem milçe mortos.  Não consigo multiplicar  o sofrimento de uma pessoa por cem milhões.” As emoções humanas se processam dentro de um cérebro análogo. O cérebro humano não  liberra neuroo transmissores em número suficiente

Albert Szent-Györgyi  disse:  “  Me toca profundamente quando vejo o uma pessoa sofrer ,  e estaria disposto a arriscar minha vida por ela.  Então tenho uma conversa impessoal sobre uma possível pulverização de nossas grandes cidade, com cem milhões de mortos.  Não consigo multiplicar  o sofrimento de uma pessoa por cem milhões.” As emoções humanas se processam dentro de um cérebro análogo. O cérebro humano não libera neurotransmissores em número suficiente para se sentir uma emoção mil vezes mais forte que a consternação num funeral. A identificação de um risco que sai de 10 milhões para 100 milhões de mortes não multiplica por 10 a nossa determinação para tentar evitá-lo. Adiciona-se um zero a mais no papel para nossos olhos ver. Um efeito tão desprezível que devemos aumentar por várias ordens de grandeza a fim de ser detectado experimentalmente.

9. Calibração e Excesso de Confiança

Qual o nível de Confiança que as pessoas admitem para suas estimativas equivocadas? Na seção 1 sobre Disponibilidade, eu discorri sobre uma experiência com percepção de risco, na qual o sujeito superestima a probabilidade de causas de mortes que poderiam virar manchete de modo estariam correlacionadas com seus anuncios seletivos nos periódicos. Slovic et. al. (1982) tambem observou:

“Um aspecto pernicioso da heurística é que as pessoas tem alto grau de confiança nos julgamentos feito com base nela. Numa outra observação feita com os estudos sobre causas de mortes, as pessoas foram inquiridas a indicar as chances que elas tinham de estar corretas ao fazer a escolha entre 2 eventos, o qual seriam mais letais (Fischoff, Slovic, and Lichtenstein, 1977)... Na experiência 1 os sujeitos se mostraram razoavelmente bem calibrados com chances dadas de 1:1, 1:5:1, 2:1 e 3:1. Isto é, o percentual de respostas corretas foi próximo do observado, dado estas chances citadas. Contudo, quando as chances aumentaram de 3:1 para 100:1 houve pouco ou nenhum aumento na precisão das estimativas, somente 73% das respostas que deram 100:1 estava correta (ao contrário de 99,1%). A precisão aumentou de 81% com 1.000:1 para 87% com 10.000:1 . Para as respostas com chances de 1.000.000:1 ou maiores, a margem de acerto foi de 90%; O grau de confiança apropriado seriam obtidos com chances de 9:1... Em resumo, os sujeitos estavam frequentemente errados mesmo nas chances mais altas. Além disso, eles deram muitas resposta com chances extremas. Mais da metade de suas estimativas foram acima de 50:1 e quase 25% foi maior que 100:1... 30% dos sujeitos na Experiência 1 de chances maiores que 50:1 à equivocada asserção que os homicídios são mais frequentes que os suicídios.”

Este aparente-extraordinário resultado é bastante comum na literatura de heurística e viéses, onde é conhecido como “excesso de confiança”. Suponha que eu lhe pergunte qual seu melhor palpite relativo a uma quantidade incerta como, por exemplo, o número de “médicos e cirugiões” listado nas Páginas Amarelas no diretório de telefones de Boston, ou a produção total de ovos nos EUA. Você vai dar algum número, que, certamente, não será exatamente o valor correto; o valor correto (sic) será maior ou maior que seu palpite. Em seguida eu lhe peço que me d        ê um número que seria o limite inferior de tal forma que você esteja 99% seguro que o número correto está acima deste limite, e me dê também outro número que seria o limite superior de tal reque você esteja 99% seguro que o número correto está abaixo deste limite. Estes limites inferior e superior formam, então, seu intervalo de confiança 98%. Se você estiver bem calibrado, então num teste com cem questões do tipo, algo em torno de 2 questões terão respostas que estariam fora do seu intervalo de confiança de 98%.

Alpert and Raiffa (1982) fez aos sujeitos um total de 1.000 questões de conhecimento geral como estas do parágrafo anterior; 426 dos valores corretos cairam fora dos intervalos de confinaça de 98% dos sujeitos. Se os sujeitos estivessem apropriadamente calibrados haveria aproximadamente 20 surpresas, ou seja, os eventos aos quais os sujeitos atribuiram 2% de probabilidade de ocorrência ocorreram em 42,6% das vezes.

Um grupo de 35 sujeitos foram interpelados a estimar limites superiores e inferiores com 99,9% deconfiança. O resultado foi 40% de surpresas. A um outro grupo de 35 sujeitos, foi pedido que dessem valores “minímos” e “máximos” e foram surpreendidos 47% das vezes. Finalmente, um quarto grupo de 35 sujeitos foram requisitados a dar valores “incrivelmente baixos” e  “incrivelmente altos”, e foram registradas 38% de surpresas.

Numa segunda experiência, um novo grupo de sujeitos recebeu um primeiro conjunto de questões, pontuadas, com feedback, e com os resultados das experiências anteriores, tiveram o conceito de calibração explicado a eles, e foram solicitados a dar um intervalo de confiança de 98% para um novo conjunto de questões. Os sujeitos treinados tiveram as surpresas reduzidas para 19%, uma melhora substancial quando comparada aos resultados obtidos antes do treino , que foi de 34%, mas ainda muito longe do valor bem calibrado de 2% de surpresas.

Os mesmos níveis de erros tem sido encontrados em experts também. Hynes and Vanmarke (1976) pediram a 7 engenheiros geotécnicos reconhecidos internacionalmente para prever a altura de uma estrutura que causaria a falha de uma fundação de argila e especificar limites de um intervalo de confiança em relação a esta previsão que fossem largo o suficiente para ter 50% de chances de conter o valor correto. Resultado: Nenhum dos limites dados continhama altura correta de falha.  Christensen-Szalanski and Bushyhead (1981) verificou. as estimativas dos médicos para a probabilidade de ocorrência de pneumonia em 1.531 pacientes que foram examinados por apresentarem tosse como sintomas. No limite limite superior do intervalo declarado de 88%, a proporção de pacientes que realmente tinham pneumonia foi menor que 20%.

Nas palavras de Alpert and Raiffa (1982): ‘Pelo amor de Deus, Espalhem Eestes Fractais Extremos! Sejam honesto com vocês mesmos! Admitam que vocês não sabem!’

Lichtenstein et. al. (1982) fez uma revisão dos 14 papers que tratavam de 34 experiências feitas por 23 pesquisadores sobre o tema “calibração humana”. O resultado claro é que a vasta maioria das pessoas tem excesso de confiança. Na atualidade o “excesso de confiança” não é mais uma caractrística positiva, mas ele continua a aparecer em, praticamente em todos os testes nos quais se permitem que os sujeitos atribuam probabilidades extremas.

O excesso de confiança se mostra mais comum na área de planejamento, onde é conhecido como a falácia do planejamento. Buehler et. al. (1994) pediu a estudantes de psicologia que estimassem uma variável importante: a data de entrega de suas teses de conclusão do curso. Os pesquisadores aguardaram até os estudantes chegarem ao término de seus projetos de ao cabo de 1 ano, e então solicitaram aos mesmos uma projeção realista da data de entrega, como também uma outra data caso “tudo que pudesse dar errado assim o fosse”. Na média, os estudantes levaram 55 dias para finalizar suas teses, 22 dias depois do prometido e 7 dias após as datas do pior cenário.

Buehler et. al. (1995) solicitou aos estudantes que dessem as datas na quais eles estariam 50%, 75% e 99% seguros que iriam entregar seu projeto acadêmico. Somente 13% dos participantes entregaram na data que atribuiram 50% de probabilidade, somente 19% terminou no tempo de 75% e 45% no tempo de 99%. Buehler et. al. (2002) escreveu: os resultados para 99% são especialmente chocante: Mesmo sendo pedido uma estimativa muito conservadora, ou seja, uma previsão em que eles se sentissem virtualmente certos de cumprir, a confiança deles na data prevista excedeu em larga escala seus cumprimentos.

Newby-Clark et. al. (2000) percebeu que perguntar aos sujeitos por suas estimativas baseadas em cenários “best guess” realistas, ou perguntar por estimativas em cenários “best case” nos quais eles tinham a esperança de ocorrer, produziram resultados indistinguíveis uns dos outros. Para dar resultados “mais prováveis”, as pessoas tendem a ver tudo como se fosse ocorrer exatamente como planejado, ou seja, sem atrasos inesperados ou catástrofes não previstas: a mesma visão no caso do “best case”. A realidade, na verdade, nos dá resultados um tanto pior que nossos “piores cenários”.

Este texto discute excesso de confiança no momento apósa discussão sobre o viés de confirmaçãoe o viés de desconfirmação. A pesquisa sobre calibraçãoé um conhecimento perigoso, muito tentador de se aplicar seletivamente. “Meus oponentes são tolos por acretitarem na certeza de seus próprios argumento! Não sabem eles que na maioria das vezes as pessoas são surpreendidas nas suas certezas?” Se você consegue perceber que a opinião dos que tem expertises tem menos força quedo que você pensava, então é melhor você perceber que seus próprios raciocónios tem muito menos força do que você pensava, assim fica mais fácil de fazer desistir de suas expectativas definidas. Caso contrário você ficará muito lento para reagir às evidênciasque se apresentam. Voce se encontra em pior situação que estaria se nunca tivesse ouvido falar em calibração. É por isso que, apesar da enorme e frequente tentação, eu evito discutir sobre a pesquisa de calibração, sem  antes falar de viés de confirmação, assim posso fazer este mesmo alerta.

Notem ainda que um especialista fortemente confiante em suas opiniões, é uma questão bem diferente de um cálculo  feito estritamente a partir de dados atuariais, ou estritamente a partir de  um modelo preciso, precisamente confirmado. Em todas as vezes que um especialista emite uma opinião, mesmo a partir de de cálculos estritos, que um evento tenha a probabilidade de ocorrer de 0,000001, ele se enganou, indubitavelmente, mais frequentemente que uma vez em 1 milhão. Mas se a análise combinatória não pudesse prever que um bilhete de loteria tem a chance de ganhar de 0,00000001, a banca iria quebrar.

11. Apatia do Espectador

Meu último tipo de viés vem, não do campo da Heurística e Viéses, mas do campo da psicologia social. Uma atualmente famosa série de experiências feitas por Latane et Darley (1969) deswcobriu o efeito do espectador, também conhecido por apatia do espectador,  na qual um grupo número grande de pessoas são menos prováveis de agir numa emergência, não apenas individualmente, mas coletivamente também. 75% dos sujeitos sozinhos numa sala, deixaram de dar o alerta quando uma fumaça começou a entrar por debaixo da porta. Quando 3 sujeitos desinformados estavam na sala, o alerta foi feito em 38% das vezes somente. Um sujeito desinformado, na presença de outros 2 informados que intencionalmente ignoraram a fumaça, reportaram somente 10% das vezes, mesmo quando a sala estava com uma razoável quantidade de fumaça. Um colega estudante tendo, aparentemente, um ataque epiléptico foi socorrido em 85% das vezes quando estava a sós com a vitima, mas em apenas 31% das vezes quando havia 5 espectadores.

O efeito do espectador é normalmente explicado como um resultado da difusão da responsábilidade e uma ignorância pluralística. Ser parte de um grupo reduz a responsabilidade individual. Cada um tem a expectativa que o outro vai tomar uma atitude em seu lugar, e isto reduz a responsabilidade individual, a ponto de que ninguém aja. Fundamentos para esta hipótese são endossados a partir de de manipulações nas quais os sujeitos acreditam que a vítima é, de alguma forma, dependente deles; isto reduz o efeito de espectador ou neutraliza-o inteiramente. Cialdini (2001) recomenda que, esteja você numa emergência, você selecione um único espectador em particular, e peça ajuda especificamente a esta pessoa, vencendo portanto a difusão (da responsabilidade).

Ingonrância pluralista é um efeito mais sutil. Sialdini (2001) escreve:

        Muitas vezes um emergência não é realmente uma emergência. Um homem caído na sarjeta está tendo um ataque cardíaco ou é apenas um bêbado dormindo?... Em momentos de tal incerteza, o natural é olhar ao redor buscando pela ação de outros para se ter uma pista.  Podemos esclarecer se é uma emergância ou não observando o modo como outros espectadores reagem ao evento. Mas o que é fácil de não perceber é que os outros, provavelmente, estão igualmente à procura de de uma evidência social também. E pelo fato de que desejamos parecer seguros e inabalados perante outros, nós, provavelmente, vamos buscar as evidências de forma plácida, com olhares leves e dissimulados aos que estão nossa volta. Portanto, todos provavelmente verão os outros olhando calmamente em volta e negando-se a agir.

O efeito do espectador não resultado do egoísmo do indivíduo, ou de ser insensívelao sofrimento alheio. Quando estão sós os sujeitos normalmente agem. Ignorância Pluralista pode ajudar a explicar, egoísmo do indivíduo não pode, no caso da falha em reagir em uma sala enchendo-se de fumaça. Em experiências envolvendo perigos aparentes, seja a outros ou a si própio, sujeitos colocados entre parceiros não-reativos frequentemente olham para seus parceiros não-retaivos.

As vezes sou perguntado:”Se o <risco existencial X> é real, então por que não há mais gente fazendo algo sobre isto?” Há muitas respostas posíveis, algumas delas eu expus aqui. As pessoas pode ter excesso de confiança ou de otimismo. Elas podem focar num cenário específico e aberto no futuro, para a exclusão de outros. Elas podem não se lembrar de nenhuma extinsão do passado. Elas podem superestimar a predicabilidade do passado, e, portanto, subestimar a surpresa do futuro. Elas podem não perceber a dificuldade de se preparar para emergências sem o benefício do conhecimento dos fatos já ocorridos. Elas podem preferir as apostas filantrópicas com mais probabilidades de melhores retornos, negligenciando o valor do que está em risco. Elas podem confundir informação positiva sobre o benefícios de uma tecnologia com informações negativas sobre seus riscos. Elas podem estar sendo influenciadas pelos filmes do cinema onde o mundo sempre acaba sendo salvo. Elas podem comprar uma satisfação moral mais facilmente fazendo doações à outras caridades. Ou ainda, o prospecto extremente desgostoso da extinção humana que as urge buscar argumentos de que o ser humano não será extinto, sem uma busca tão intensa quanto a possibilidade da extinsão de fato.

Contudo, se a questão é, especificamente, “Por que só alguns tomam a atitude correta?”, um possível motivo, entre outros, é que as pessoas se perguntam a mesma coisa, lançando seus olhares ao redor para ver se alguém faz alguma coisa, enquanto tentam manter a pose de que está tudo bem. Se você quer saber por que os outros não estão reagindo, você deve fazer esta pergunta para você mesmo.  

12. Uma Cautela Final

Cada verdade que lhe traga um pouco de descomforto vai parecer se encaixar no padrão de pelo menos um erro psicológico.

Robert Pirsig disse: “O mais tolo de todos pode dizer que o sol está brilhando, mas isto não faz a sol escurecer.” Se você acredita que alguém é culpado por um erro psicológico, então voce deve demonstrar sua competência, primeiramente, derrubando seus erros factuais consequente. Se não há erros factuais, então para que serve a psicologia? A tentação na psicologia é que, conhecendo um apenas um pouco do assunto, nós nos metemos em nos argumentos nos quais não temos nenhuma epertise técnica, pior, pretendemos analisar sabiamnte a psicologia dos sujeitos.

Se alguém escreve um roteiro sobre a queda de um asteróide que destrói a civilização moderna, então alguém pode fazer uma crítica dizendo que é uma história extrema, distópica, apocalíptica e sintomática da incapacidade ingênua do autor para lidar com uma sociedade tecnológica complexa. Nós devemos considerar esta crítica como literária, não como científica. É sobre uma estória boa ou ruim, não como “hipótese” boa ou ruim. A fim de dimensionar a probabilidade de um asteróide se chocar com a Terra no mundo real, tem-se que estudar astronomy e os registros históricos: nem todo o criticismo literário do mundo é capaz de dar um número para. Garreau (2005) parece indicar que um cenário no qual há uma mente que aumenta sua capacidade lentamente é mais madura e sofisticada, que outro cenário onde há um aumento muito grande e rápido de inteligência. Mas, isto é questão é tecnica, não uma questão de gosto; Nem toda a psicologia deste mundo é capaz de indicar a exata inclinação de uma curva.

Poucas coisas abusam mais de heurísticas e viéses que a pscanálise. Apontar alguém de falácia de conjunção leva, naturalmente, a listar os detalhes específicos que você considera penosos e que reduz a probabilidade de junção. Ainda assim, não peder o foco dos fatos no mundo-real de interesses primários; não permitir que o argumento se transforme sobre psicologia.

Apesar de todos os perigos e tentações, é melhor saber sobre viéses psicológicos que não o saber. Se não nós iremos diretamente na direção da máquina de moer carnes da vida. Mas, seja bastante cuidadoso para não se divertir em demasiado ao acusar os outros de incorrer em viéses. Este é o caminho que leva a ser um argumentador sofisticado, alguém que, em frente a um argumento incômodo, encontra no mesmo instante, um viés no mesmo. Voce tem que ser cuidadoso, em primeiro lugar com você mesmo.

Jerry Cleaver disse: “O que lhe prejudica quando você aplica alguma técnica complicada, intrigante e de alto nível, é a não observância do básico. Não manter o foco no alvo”.

A análise deve estar centrada em asserções verificáveis no mundo real. Não desvie seus olhos do alvo.

13. Conclusão

Por que deveria existir um grupo organizado que se dedicasse à discussão sobre riscos existenciais? Choque de asteróides não são como supervirus desenvolvidos em laboratórios.; desastres naturais não são como guerras nanotecnológicas. Por que não considerar cada problema separadamente?

Se alguém propõe um desastre natural, então o comitê que se propõe analisar o problema deve contar com um geólogo. Mas, quem estiver neste este comitê deve conhecer os riscos de saber a resposta antes mesmo de terminar de fazer a pergunta.  Quem estiver neste este comitê deve lembrar-se da resposta de Enrico Fermi a Leo Szilard, quando este sugeriu que a reação em cadeia da fissão nuclear poderia ser usada para fazer uma bomba atômica. (A reposta foi “Bobagem!”, Fermi considerou a possibilidade tão remota que achava que não deveria perder tempo investigando a questão.) Deve-se lembrar as histórias de erros nos cálculos da Física: O teste nuclear de Castle Bravo que produziu uma explosão equivalente a 15 MTon em vez dos 4 a 8 previstos, em função da reação não prevista do lítio-7: Eles resolveram a equação erroneamente, e falharam em considerar todos os termos que deveriam ter sido incluidos, e ao menos uma pessoa morreu na área de influência que se expandiu. Deve-se lembrar da meticulosa prova de Lord Kelvin que a Terra provavelmente não existiria por mais de 40 milhões de anos. Deve-se ter ciência que quando um especialista diz que a probabilidade é “uma em um milhão” sem usar dados atuariais ou sem usar cálculos de um modelo preciso e precisamente confirmado, a calibração está mais próxima de “uma em vinte” (contudo não é uma conversão exata).

Qualquer tipo particular de risco existencial evoca problemas que são afins com outros tipos de risco existencial, isto em acréscimo ao domínio específico do expertise necessário para tal específico risco existencial. Alguem no grupo de desastres-naturais deve saber o que o termo “risco existencial” significa; deve possuir a qualidade que o campo de gerenciamento de risco existencial tem adquirido ou copiado de outros ao longo do tempo. Para uma maior segurança, esta pessoa deveria ser também um físico de formação. O o expertise do específico domínio e o expertise pertencente ao risco existencial deve ser combinando em uma só pessoa. Sou um tanto cético que escolado em heurística e viéses, mas que não sabe ler equações físicas, possa conferir e checar o trabalho de físicos que não soubessem nada de heurística e viéses.

Antes eu desenhava scenários excessivamente detalhados sem me dar conta que cada detalhe adicional implicava num fardo extra. Antes eu realmente achava que havia 90% de probabilidade que a Inteligência Artificial fosse desenvolvida entre 2005 e 2025, com um máximo de chance em 2018. Esta expectativa hoje me parece totalmente sem sentido.  Como eu pude imaginar que eu seria capaz de gerar uma just probabilidade de distribuição em relação a um problema deste tipo? Para começar , de onde eu tirei estes números?

Profissionais especialistas em, digamos, nanotecnologia molecular ou Inteligência Artificial, não saberão automaticamente as habilidades adicionais necessárias para encarar o problema dos riscos existenciais em suas profissões. Ningué, me disse, quando me dispus a aceitar o desafio da Inteligência Artificial, que era necessário alguém como eu para estudar heurísticas e viéses. Não me lembro o por que eu achei necessário primeiramente lidar com o tema de heurísticas e viéses, mas me recordo que isto era uma descrição de de um resultado com excesso de confiança, uma descrição casual, na linha, sem qualquer referências. Eu estava tão incrédulo a ponto de contatar o autor e perguntar se aquilo era, de fato, resultado de uma experiência real.

Eu não deveria ter tido que me deparar com esta referência por sorte. Alguém tinha que ter me dito, da mesma forma que eu estão lhe alertando aqui, que isto é um conhecimento necessário a um estudioso de risco existencial. Deveria haver um currículo para pessoas como nós, uma lista de habilidades em adição ao conhecimento sobre nosso campo específico de atuação. Não são físico, mas sei algo disso, provavelmente não o suficiente, sobre a histórria de erros em física, e um biólogo que se entretém com isso deveria saber também.

Uma vez conheci um advogado que tinha feito sua própria teoria da física. Eu disse ao doutor: você não conseguirá inventar sua própria física sem conhecimentos de matemática e anos de estudo; física é uma disciplina díficil. Ele retrucou: Mas se você realmente entende de física, você pode explicar até para sua avó, o Richard Feynman me disse. E eu disse a ele: “Você iria sugerir a um amigo colega que argumentasse seu próprio caso na Corte?” Então ele ficou em silêncio. Ele sabia, de forma abstrata, que a física era difícil, mas eu acho que nunca havia passado, honestamente, pela cabeça dele, que a física poderia ser tão difícil quanto a advocacia.

Um dos muitos tipos de viéses não  discutidos aqui neste capítulo descreve o efeito de viés do fato de não sabermos sobre o que nós não sabemos. Quando um recrutador de uma empresa avalia suas próprias habilidades, ele faz um recall  em sua mente das performances dos candidatos que ele contratou, muitos dos quais, subsequentemente, se excederam; portanto o recrutador vê suas habilidades como sendo ótimas. Mas o recrutador nunca tem a chance de observar o trabalho daqueles que ele não contratou. Portanto, eu devo fazer um alertar aqui que eu toco apenas num pequeno subconjunto de eurística e viéses; pois quando você olha sobre o que você já aprendeu, você se dá conta que apenas alguns viéses foram tratados aqui, comparados com os que não o foram. Breves resumos não transmitem um senso do campo (de conhecimento), um amplo entendimento que permeia um conjunto de experimentos memoráveis num ainterpretação unificada. Muitos viéses altamente relevantes, como os necessários para conclusões, eu nem mencionei aqui. O propósito desta sessão não é ensinar os conhecimentos mandatórios para um estudante de riscos existenciais, mas despertar o sentimento de que há muito mais para aprender.

Pensar sobre risos existenciais lhe deixa como presa fácil das mesmas falácias que incorrem no pensar em geral. Mas, as consequências são muito, muito maiores. Um resultado comum em heurísticas e viéses é que mesmo oferecendo dinheiro vivo ou outros incentivos não elimina o viés.  (Kachelmeier and Shehata (1992) ofereceu aos sujeitos residentes na República Popular da China o equivalente a 3 meses de salário.) Os sujeitos nestes experimentos não cometem erros de propósito; Eles cometem erros porque não sabem responder melhor. Mesmos que você dissesse que a sobrevivvência da humanidade está em jogo, eles ainda assim não saberiam como responder melhor. (pode até aumentar a nessecidade da precisão, fazendo eles errarem mais ainda.) É uma coisa terrivelmente assutadora, mas as pessoas não se tornar mais inteligentes, apenas porque a sobrevivvência da humanidade está em jogo.

Em acréscimo aos viéses padrões, eu pessoalmente observei o que parecem ser maneiras perigosas de pensar sobre riscos existenciais. A gripe Espanhola, em 1918, matou entre 25 e 50 milhões de pessoas. A 2ª Guerra Mundial matou 60 milhões. 108 é a ordem de grandeza mas mais catástrofes na história escrita da humanidade. Número substancialmente maiores, como 500 milhões de mortos, e, especialmente, cenários qualitativamente diferentes, tais como, a extinção completa da espécie humana, parece fazer entrar em ação um modo diferente de pensar, entra num “magistério separado”. Pessoas que nunca sonharam em maltratar uma criança ouve falar de risco exitencial, e diz, “Bem, talvez a espécia humana não mereça de fato continuar existindo.

Há um ditado em heurísticas e viéses que as pessoas não avaliam eventos, mas descrições de eventos, o que é chamado de racioncínio não-existência. A extensão  da extinção da humanidade inclui a sua própria morte, de seus amigos, de sua família, daqueles que você ama, de sua cidade, de seu país e de seus parceiros políticos. E mesmo assim, há pessoas que, apesar de ficarem ofendidas com proposições de, por exemplo, eliminar a Grã-bretanha do mapa, ou matar todos os membros partido Democrata nos EUA, ou ainda transformar Paris numa montanha de entulho, e que ficariam horrorizadas em houvir de um médico que seus filhos tem câncer, elas discutem a extinção da huminadade com a maior calma deste mundo. “Extinção da Humanidade”, como palavras no papel, aparece em novelas ficcionais, ou é discutida em livros de filosofia, pertence a um contexto diferente do da febre espanhola. Nós consideramos as descrições dos eventos, não as extensões dos mesmos. O clichê fim do mundo invoca o magistério do mito e do sonho, da profecia e do apocalipse, das novelas e filmes. O desafio do risco existencial para a racionalidade é que as catástrofes, sendo tão enormes, as pessoa mudam, automáticamente, para um modo diferente de raciocínio.  A morte de humanos de repente deixa de ser algo ruim, e se a estória tem um final feliz ou triste, isso é apenas uma questão de gosto pelas estórias.

Mas esta foi apenas uma observação irônica minha. Eu achei melhor que este ensaio focasse mais nos erros bem documentados na literatura, na lteratura geral sobre psicologia cognitiva, por que não há ainda uma literatura experimental específica à psicologia de riscos existenciais. Deveria haver.

Na matemática de teoria de decisão Bayesiana há um conceito de valor da informação, a utilidade esperada do conhecimento. O valor da informação emerge do valor do objeto do qual esta informação trata; Se você dobra a aposta, você dobra o valor da informação sobre o que está em jogo. O valor do julgamento racional funciona da mesma forma, o valor de performar uma computação que integra a evidência é calculado da mesma forma que o valor da evidência propriamente dita. (Good 1952; Horvitz et. al. 1989.)

Só mesmoAlbert Szent-Györgyi poderia multiplicar o sofrimento de um humano por 100 milhões, posso eu realmente entender o valor do julgamento racional sobre riscos globais. Negligência de Escopo é problema de ser um humano biológico, movido por um cérebro análógico; O cérebro não pode multiplicar por 6 bilhões. E o que está jogo nos riscos existenciais se extende de além dos 6 bilhões de humanos vivos hoje, a todas as galaxias que a humanidade e seus descendentes poderão um dia povoar. Todo este enorme potencial está baseado em nossa sobrevivência aqui, agora, nesta época em que o domínio da humanidade está num único planeta orbitando um única esrtrela. Eu não posso sentir o futuro. Tudo que posso fazer é tentar defendê-lo.

14. Literatura Recomendada

Judgment Under Uncertainty: Heuristics and Biases (Kahneman, Slovic, and Tversky 1982).Este é o volume editado que ajudou a estabelecer, escrito para os leitores de fora da academia. Pesquisas posteriores tem generalizado, elaborado, e melhor escrito o fenomêno tratado neste volume, mas os resultados básicos dados ainda se sustentam com firmeza.

Choices, Values, and Frames (Kahneman and Tversky 2000). Heuristics and Biases: The Psychology of Intuitive Judgment (Gilovich, Griffin, and Kahneman 2002). Estes 2 volumes editados dá uma visão mais ampla sobre o campo de heurística e viéses em sua forma corrente. São de alguma forma menos acessível ao público geral.

Rational Choice in an Uncertain World (Dawes 1988). First edition 1988 by Dawes and Kagan, second edition 2001 by Hastie and Dawes. Este livro se dedica a introdução de heurística e viéses a um público geral mais inteligente. Por exemplo: o Teorema de Bayes é mais explicado que assumido, mas a descrição está em apenas algumas páginas. É um bom livro para rapidamente se adquirir algumas noções sobre a área.


Agradecimentos

Gostaria de agradecer a Michael Roy Ames, Nick Bostrom, Milan Ćirković, Olie Lamb, Tamás Martinec, Robin Lee Powell, Christian Rovner, and Michael Wilson por seus comentários, sugestões e críticas. Desnecessário dizer que quaisquer erros neste ensaios são meus.

Referências

Alpert, M. and Raiffa, H. 1982. A Progress Report on the Training of Probability Assessors. In Kahneman et. al. 1982: 294-305.

Ambrose, S.H. 1998. Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans. Journal of Human Evolution 34:623-651.

Baron, J. and Greene, J. 1996. Determinants of insensitivity to quantity in valuation of public goods: contribution, warm glow, budget constraints, availability, and prominence. Journal of Experimental Psychology: Applied, 2: 107-125.

Bostrom, N. 2001. Existential Risks: Analyzing Human Extinction Scenarios. Journal of Evolution and Technology, 9.

Brenner, L. A., Koehler, D. J. and Rottenstreich, Y. 2002. Remarks on support theory: Recent advances and future directions. In Gilovich et. al. (2003): 489-509.

Buehler, R., Griffin, D. and Ross, M. 1994. Exploring the "planning fallacy": Why people underestimate their task completion times. Journal of Personality and Social Psychology, 67: 366-381.

Buehler, R., Griffin, D. and Ross, M. 1995. It's about time: Optimistic predictions in work and love. Pp. 1-32 in European Review of Social Psychology, Volume 6, eds. W. Stroebe and M. Hewstone. Chichester: John Wiley & Sons.

Buehler, R., Griffin, D. and Ross, M. 2002. Inside the planning fallacy: The causes and consequences of optimistic time predictions. In Gilovich et. al. 2003: 250-270.

Burton, I., Kates, R. and White, G. 1978. Environment as Hazard. New York: Oxford University Press.

Carson, R. T. and Mitchell, R. C. 1995. Sequencing and Nesting in Contingent Valuation Surveys. Journal of Environmental Economics and Management, 28(2): 155-73.

Chapman, G.B. and Johnson, E.J. 2002. Incorporating the irrelevant: Anchors in judgments of belief and value. In Gilovich et. al. (2003).

Christensen-Szalanski, J.J.J. and Bushyhead, J.B. 1981. Physicians' Use of Probabilistic Information in a Real Clinical Setting. Journal of Experimental Psychology: Human Perception and Performance, 7: 928-935.

Cialdini, R. B. 2001. Influence: Science and Practice. Boston, MA: Allyn and Bacon.

Combs, B. and Slovic, P. 1979. Causes of death: Biased newspaper coverage and biased judgments. Journalism Quarterly, 56: 837-843.

Dawes, R.M. 1988. Rational Choice in an Uncertain World. San Diego, CA: Harcourt, Brace, Jovanovich.

Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P. and Wilson, N. 1993.

Measuring natural resource damages with contingent valuation: tests of validity and reliability. Pp. 91-159 in Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.

Fetherstonhaugh, D., Slovic, P., Johnson, S. and Friedrich, J. 1997. Insensitivity to the value of human life: A study of psychophysical numbing. Journal of Risk and Uncertainty, 14: 238-300.

Finucane, M.L., Alhakami, A., Slovic, P. and Johnson, S.M. 2000. The affect heuristic in judgments of risks and benefits. Journal of Behavioral Decision Making, 13(1): 1-17.

Fischhoff, B. 1982. For those condemned to study the past: Heuristics and biases in hindsight. In Kahneman et. al. 1982: 332–351.

Fischhoff, B., and Beyth, R. 1975. I knew it would happen: Remembered probabilities of once-future things. Organizational Behavior and Human Performance, 13: 1-16.

Fischhoff, B., Slovic, P. and Lichtenstein, S. 1977. Knowing with certainty: The appropriateness of extreme confidence. Journal of Experimental Psychology: Human Perception and Performance, 3: 522-564.

Ganzach, Y. 2001. Judging risk and return of financial assets. Organizational Behavior and Human

Decision Processes, 83: 353-370.

Garreau, J. 2005. Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies – and  What It Means to Be Human. New York: Doubleday.

Gilbert, D. T. and Osborne, R. E. 1989. Thinking backward: Some curable and incurable consequences of cognitive busyness. Journal of Personality and Social Psychology, 57: 940-949.

Gilbert, D. T., Pelham, B. W. and Krull, D. S. 1988. On cognitive busyness: When person perceivers meet persons perceived. Journal of Personality and Social Psychology, 54: 733-740.

Gilovich, T. 2000. Motivated skepticism and motivated credulity: Differential standards of evidence in the evaluation of desired and undesired propositions. Presented at the 12th Annual Convention of the American Psychological Society, Miami Beach, Florida.

Gilovich, T., Griffin, D. and Kahneman, D. eds. 2003. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge, U.K.: Cambridge University Press.

Good, I. J. 1952. Rational decisions. Journal of the Royal Statistical Society, Series B.

Griffin, D. and Tversky, A. 1992. The weighing of evidence and the determinants of confidence. Cognitive Psychology, 24: 411-435.

Harrison, G. W. 1992. Valuing public goods with the contingent valuation method: a critique of Kahneman and Knestch. Journal of Environmental Economics and Management, 23: 248–57.

Horvitz, E.J., Cooper, G.F. and Heckerman, D.E. 1989. Reflection and Action Under Scarce Resources: Theoretical Principles and Empirical Study. Pp. 1121-27 in Proceedings of the Eleventh International Joint Conference on Artificial Intelligence. Detroit, MI.

Hynes, M. E. and Vanmarke, E. K. 1976. Reliability of Embankment Performance Predictions. Proceedings of the ASCE Engineering Mechanics Division Specialty Conference. Waterloo, Ontario: Univ. of Waterloo Press.

Johnson, E., Hershey, J., Meszaros, J.and Kunreuther, H. 1993. Framing, Probability Distortions and Insurance Decisions. Journal of Risk and Uncertainty, 7: 35-51.

Kachelmeier, S.J. and Shehata, M. 1992. Examining risk preferences under high monetary incentives: Experimental evidence from the People's Republic of China. American Economic Review, 82: 1120-1141.

Kahneman, D. 1986. Comments on the contingent valuation method. Pp. 185-194 in Valuing environmental goods: a state of the arts assessment of the contingent valuation method, eds. R. G. Cummings, D. S. Brookshire and W. D. Schulze. Totowa, NJ: Roweman and Allanheld.

Kahneman, D. and Knetsch, J.L. 1992. Valuing public goods: the purchase of moral satisfaction. Journal of Environmental Economics and Management, 22: 57-70.

Kahneman, D., Ritov, I. and Schkade, D. A. 1999. Economic Preferences or Attitude Expressions?: An Analysis of Dollar Responses to Public Issues, Journal of Risk and Uncertainty, 19: 203-235.

Kahneman, D., Slovic, P., and Tversky, A., eds. 1982. Judgment under uncertainty: Heuristics and biases. New York: Cambridge University Press.

Kahneman, D. and Tversky, A. 2000. eds. Choices, Values, and Frames. Cambridge, U.K.: Cambridge University Press.

Kamin, K. and Rachlinski, J. 1995. Ex Post ≠ Ex Ante: Determining Liability in Hindsight. Law and

Human Behavior, 19(1): 89-104.

Kates, R. 1962. Hazard and choice perception in flood plain management. Research Paper No. 78. Chicago: University of Chicago, Department of Geography.

Knaup, A. 2005. Survival and longevity in the business employment dynamics data. Monthly Labor

Review, May 2005.

Kunda, Z. 1990. The case for motivated reasoning. Psychological Bulletin, 108(3): 480-498.

Latane, B. and Darley, J. 1969. Bystander "Apathy", American Scientist, 57: 244-268.

Lichtenstein, S., Fischhoff, B. and Phillips, L. D. 1982. Calibration of probabilities: The state of the art to 1980. In Kahneman et. al. 1982: 306–334.

Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. and Combs, B. 1978. Judged Frequency of Lethal Events. Journal of Experimental Psychology: Human Learning and Memory, 4(6), November: 551-78.

McFadden, D. and Leonard, G. 1995. Issues in the contingent valuation of environmental goods:

methodologies for data collection and analysis. In Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.

Newby-Clark, I. R., Ross, M., Buehler, R., Koehler, D. J. and Griffin, D. 2000. People focus on optimistic and disregard pessimistic scenarios while predicting their task completion times. Journal of Experimental Psychology: Applied, 6: 171-182

Quattrone, G.A., Lawrence, C.P., Finkel, S.E. and Andrus, D.C. 1981. Explorations in anchoring: The effects of prior range, anchor extremity, and suggestive hints. Manuscript, Stanford University.

Rasmussen, N. C. 1975. Reactor Safety Study: An Assessment of Accident Risks in U.S. Commercial Nuclear Power Plants. NUREG-75/014, WASH-1400 (U.S. Nuclear Regulatory Commission, Washington, D.C.)

Rogers, W. et al. 1986. Report of the Presidential Commission on the Space Shuttle Challenger Accident. Presidential Commission on the Space Shuttle Challenger Accident. Washington, DC.

Sanchiro, C. 2003. Finding Error. Mich. St. L. Rev. 1189.

Schneier, B. 2005. Security lessons of the response to hurricane Katrina. http://www.schneier.com/blog/archives/2005/09/security_lesson.html Viewed on January 23, 2006.

Sides, A., Osherson, D., Bonini, N., and Viale, R. 2002. On the reality of the conjunction fallacy. Memory & Cognition, 30(2): 191-8.

Slovic, P., Finucane, M., Peters, E. and MacGregor, D. 2002. Rational Actors or Rational Fools:

Implications of the Affect Heuristic for Behavioral Economics. Journal of Socio-Economics, 31: 329–342.

Slovic, P., Fischoff, B. and Lichtenstein, S. 1982. Facts Versus Fears: Understanding Perceived Risk. In Kahneman et al. 1982: 463–492.

Strack, F. and Mussweiler, T. 1997. Explaining the enigmatic anchoring effect: Mechanisms of selective accessibility. Journal of Personality and Social Psychology, 73: 437-446.

Taber, C.S. and Lodge, M. 2000. Motivated skepticism in the evaluation of political beliefs. Presented at the 2000 meeting of the American Political Science Association.

Taleb, N. 2001. Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. Pp. 81-85. New York: Textre.

Taleb, N. 2005. The Black Swan: Why Don't We Learn that We Don't Learn? New York: Random House. Quoted with permission from p. 7-8

Tversky, A. and Kahneman, D. 1973. Availability: A heuristic for judging frequency and probability.

Cognitive Psychology, 4: 207-232.

Tversky, A. and Kahneman, D. 1974. Judgment under uncertainty: Heuristics and biases. Science, 185: 251-284.

Tversky, A. and Kahneman, D. 1982. Judgments of and by representativeness. In Kahneman et. al. (1982): 84-98.

Tversky, A. and Kahneman, D. 1983. Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90: 293-315.

Wansink, B., Kent, R.J. and Hoch, S.J. 1998. An Anchoring and Adjustment Model of Purchase Quantity Decisions. Journal of Marketing Research, 35(February): 71-81.

Wason, P.C. 1960. On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of

Experimental Psychology, 12: 129-140.

Wilson, T.D., Houston, C., Etling, K.M. and Brekke, N. 1996. A new look at anchoring effects: Basic anchoring and its antecedents. Journal of Experimental Psychology: General. 4: 387-402.


[1] Milan Ćirković destaca que a super erupção do vulcão Toba (~73.000AC) pode ser considerado um evento de quase-extinção. A explosão catastrófica e o subseqüente inverno matou a grande maioria do seres humanos; evidências genéticas sugerem que restaram apenas alguns milhares de sobreviventes, talvez menos. (Ambrose 1998.) Notem que este evento não está em nossa memória histórica, pois ocorreu antes do aparecimento da escrita.