Belief in Belief

De Racionalidade
Ir para: navegação, pesquisa

Original

Carl Sagan once told a parable of someone who comes to us and claims: “There is a dragon in my garage.” Fascinating! We reply that we wish to see this dragon—let us set out at once for the garage! “But wait,” the claimant says to us, “it is an invisible dragon.”

Now as Sagan points out, this doesn’t make the hypothesis unfalsifiable. Perhaps we go to the claimant’s garage, and although we see no dragon, we hear heavy breathing from no visible source; footprints mysteriously appear on the ground; and instruments show that something in the garage is consuming oxygen and breathing out carbon dioxide.

But now suppose that we say to the claimant, “Okay, we’ll visit the garage and see if we can hear heavy breathing,” and the claimant quickly says no, it’s an inaudible dragon. We propose to measure carbon dioxide in the air, and the claimant says the dragon does not breathe. We propose to toss a bag of flour into the air to see if it outlines an invisible dragon, and the claimant immediately says, “The dragon is permeable to flour.”

Carl Sagan used this parable to illustrate the classic moral that poor hypotheses need to do fast footwork to avoid falsification. But I tell this parable to make a different point: The claimant must have an accurate model of the situation somewhere in their mind, because they can anticipate, in advance, exactly which experimental results they’ll need to excuse.

Some philosophers have been much confused by such scenarios, asking, “Does the claimant really believe there’s a dragon present, or not?” As if the human brain only had enough disk space to represent one belief at a time! Real minds are more tangled than that. There are different types of belief; not all beliefs are direct anticipations. The claimant clearly does not anticipate seeing anything unusual upon opening the garage door. Otherwise they wouldn’t make advance excuses. It may also be that the claimant’s pool of propositional beliefs contains There is a dragon in my garage. It may seem, to a rationalist, that these two beliefs should collide and conflict even though they are of different types. Yet it is a physical fact that you can write “The sky is green!” next to a picture of a blue sky without the paper bursting into flames.

The rationalist virtue of empiricism is supposed to prevent us from making this class of mistake. We’re supposed to constantly ask our beliefs which experiences they predict, make them pay rent in anticipation. But the dragon-claimant’s problem runs deeper, and cannot be cured with such simple advice. It’s not exactly difficult to connect belief in a dragon to anticipated experience of the garage. If you believe there’s a dragon in your garage, then you can expect to open up the door and see a dragon. If you don’t see a dragon, then that means there’s no dragon in your garage. This is pretty straightforward. You can even try it with your own garage.

No, this invisibility business is a symptom of something much worse.

Depending on how your childhood went, you may remember a time period when you first began to doubt Santa Claus’s existence, but you still believed that you were supposed to believe in Santa Claus, so you tried to deny the doubts. As Daniel Dennett observes, where it is difficult to believe a thing, it is often much easier to believe that you ought to believe it. What does it mean to believe that the Ultimate Cosmic Sky is both perfectly blue and perfectly green? The statement is confusing; it’s not even clear what it would mean to believe it—what exactly would be believed, if you believed. You can much more easily believe that it is proper, that it is good and virtuous and beneficial, to believe that the Ultimate Cosmic Sky is both perfectly blue and perfectly green. Dennett calls this “belief in belief.”1

And here things become complicated, as human minds are wont to do—I think even Dennett oversimplifies how this psychology works in practice. For one thing, if you believe in belief, you cannot admit to yourself that you only believe in belief, because it is virtuous to believe, not to believe in belief, and so if you only believe in belief, instead of believing, you are not virtuous. Nobody will admit to themselves, “I don’t believe the Ultimate Cosmic Sky is blue and green, but I believe I ought to believe it”—not unless they are unusually capable of acknowledging their own lack of virtue. People don’t believe in belief in belief, they just believe in belief.

(Those who find this confusing may find it helpful to study mathematical logic, which trains one to make very sharp distinctions between the proposition P, a proof of P, and a proof that P is provable. There are similarly sharp distinctions between P, wanting P, believing P, wanting to believe P, and believing that you believe P.)

There’s different kinds of belief in belief. You may believe in belief explicitly; you may recite in your deliberate stream of consciousness the verbal sentence “It is virtuous to believe that the Ultimate Cosmic Sky is perfectly blue and perfectly green.” (While also believing that you believe this, unless you are unusually capable of acknowledging your own lack of virtue.) But there are also less explicit forms of belief in belief. Maybe the dragon-claimant fears the public ridicule that they imagine will result if they publicly confess they were wrong (although, in fact, a rationalist would congratulate them, and others are more likely to ridicule the claimant if they go on claiming there’s a dragon in their garage). Maybe the dragon-claimant flinches away from the prospect of admitting to themselves that there is no dragon, because it conflicts with their self-image as the glorious discoverer of the dragon, who saw in their garage what all others had failed to see.

If all our thoughts were deliberate verbal sentences like philosophers manipulate, the human mind would be a great deal easier for humans to understand. Fleeting mental images, unspoken flinches, desires acted upon without acknowledgement—these account for as much of ourselves as words.

While I disagree with Dennett on some details and complications, I still think that Dennett’s notion of belief in belief is the key insight necessary to understand the dragon-claimant. But we need a wider concept of belief, not limited to verbal sentences. “Belief” should include unspoken anticipation-controllers. “Belief in belief” should include unspoken cognitive-behavior-guiders. It is not psychologically realistic to say, “The dragon-claimant does not believe there is a dragon in their garage; they believe it is beneficial to believe there is a dragon in their garage.” But it is realistic to say the dragon-claimant anticipates as if there is no dragon in their garage, and makes excuses as if they believed in the belief.

You can possess an ordinary mental picture of your garage, with no dragons in it, which correctly predicts your experiences on opening the door, and never once think the verbal phrase There is no dragon in my garage. I even bet it’s happened to you—that when you open your garage door or bedroom door or whatever, and expect to see no dragons, no such verbal phrase runs through your mind.

And to flinch away from giving up your belief in the dragon—or flinch away from giving up your self-image as a person who believes in the dragon—it is not necessary to explicitly think I want to believe there’s a dragon in my garage. It is only necessary to flinch away from the prospect of admitting you don’t believe.

To correctly anticipate, in advance, which experimental results shall need to be excused, the dragon-claimant must (a) possess an accurate anticipation-controlling model somewhere in their mind, and (b) act cognitively to protect either (b1) their free-floating propositional belief in the dragon or (b2) their self-image of believing in the dragon.

If someone believes in their belief in the dragon, and also believes in the dragon, the problem is much less severe. They will be willing to stick their neck out on experimental predictions, and perhaps even agree to give up the belief if the experimental prediction is wrong—although belief in belief can still interfere with this, if the belief itself is not absolutely confident. When someone makes up excuses in advance, it would seem to require that belief and belief in belief have become unsynchronized.

http://lesswrong.com/lw/i4/belief_in_belief/


Footnotes

1. Daniel C. Dennett, Breaking the Spell: Religion as a Natural Phenomenon (Penguin, 2006).

Crença na Crença

Carl Sagan contou, certa vez, uma parábola sobre um homem que afirma: “Tem um dragão na minha garagem”. Fascinante! Dizemos a ele que gostaríamos de ver o tal dragão – vamos logo para a tal garagem! “Ah, mas é que é um dragão invisível”, diz o homem.

Bem, como Sagan aponta, isso não torna a hipótese infalsificável. Talvez, se fôssemos à garagem, embora não víssemos dragão nenhum, ouviríamos sua respiração pesada, vinda do nada; pegadas aparecendo misteriosamente no solo; e instrumentos mostrariam que alguma coisa na garagem estaria consumindo oxigênio e expirando dióxido de carbono.

Mas suponha que nós disséssemos ao homem “Tudo bem, nós vamos à garagem e veremos se conseguimos ouvir a respiração pesada do dragão” e ele imediatamente respondesse que não, é um dragão inaudível. Propomos então medir o dióxido de carbono no ar, e o homem responde que o dragão não respira. Propomos jogar um saco de farinha no ar, para ver se ela revela os contornos de um dragão invisível, e o homem diz, imediatamente, “O dragão é permeável à farinha”.

Carl Sagan usava essa parábola para ilustrar a clássica moral que diz que hipóteses ruins têm que correr para evitar sua falsificação. Mas eu conto a parábola aqui para apontar outra coisa: aquele homem deve ter um modelo preciso da situação em algum lugar em sua mente, porque ele consegue prever exatamente para que resultados experimentais ele vai precisar inventar desculpas, antes mesmo que os esperimentos sejam feitos.

Alguns filósofos ficaram muito confusos diante desse tipo de cenário, perguntando “O homem realmente acredita que tem um dragão na garagem, ou não?”. Como se o cérebro humano só tivesse espaço em disco para representar uma única crença por vez! Mentes de verdade são mais emaranhadas que isso. Existem tipos diferentes de crenças; nem todas as crenças são previsões diretas. O homem claramente não espera ver nada de diferente ao abrir o portão da garagem. Caso contrário, não inventaria desculpas antes do experimento. Pode ser, também, que o conjunto mental de crenças proposicionais do sujeito contenha Tem um dragão na minha garagem. Para um racionalista, pode parecer que essas duas crenças deveriam entrar em conflito, mesmo que sejam de tipos diferentes. Mesmo assim, é um fato físico que alguém pode escrever “O céu é verde!” ao lado de uma foto do céu azul, sem que o papel exploda em chamas.

A virtude racionalista do empirismo deveria impedir que se cometa esse tipo de erro. Nós deveríamos perguntar, constantemente, que experiências nossas crenças preveem, fazer com que elas paguem aluguel em expectativas. Mas o problema do homem que afirma ter um dragão é mais profundo, e não pode ser curado por um conselho tão simples. Não é exatamente difícil conectar a crença em um dragão à expectativa da experiência na garagem. Se você acredita que tem um dragão na garagem, então você espera abrir a porta e ver um dragão. Se você não vir um dragão, significa que não tem um dragão na garagem. É bem simples. Você pode até tentar com a sua própria garagem.

Não, essa coisa de invisibilidade é sintoma de algo bem pior.

Dependendo de como foi a sua infância, você talvez lembre da época em que começou a duvidar que Papai Noel existia, mas você ainda achava que deveria acreditar no Papai Noel, então você tentava negar as dúvidas. Como Daniel Dennett observa, mesmo quando é difícil acreditar em algo, muitas vezes é bem mais fácil acreditar que você deve acreditar naquilo. O que significa acreditar que o Céu Cósmico Supremo é, ao mesmo tempo, perfeitamente azul e perfeitamente verde? A afirmação é confusa; não é claro nem mesmo o que significa acreditar nisso – em que coisa exatamente você estaria acreditando, se acreditasse nisso. É muito mais fácil acreditar que é adequado, que é bom e virtuoso e benéfico, acreditar que o Céu Cósmico Supremo é, ao mesmo tempo, perfeitamente azul e perfeitamente verde. Dennett chama isso de “crença na crença” [1].

E aqui as coisas se complicam, como a mente humana costuma fazer – e creio que mesmo Dennett simplifica demais o funcionamento dessa psicologia na prática. Para começar, se você acredita em uma crença, você não pode admitir para você mesmo que você só acredita na crença, porque é virtuoso acreditar em algo, não acreditar na crença em algo, e, portanto, se você só acredita na crença, ao invés de acreditar, você não é virtuoso. Ninguém vai admitir para si mesmo “Eu não acredito que o Céu Cósmico Supremo é azul e verde, mas eu acredito que eu deveria acreditar nisso” – a menos que seja alguém com uma capacidade acima do normal de admitir a própria falta de virtude. As pessoas não acreditam que acreditam numa crença, elas apenas acreditam que acreditam.

(Aqueles que acharem isso confuso podem achar útil estudar lógica matemática, que mostra as claras distinções entre uma proposição P, uma prova de P, e uma prova de que P pode ser provada. Há distinções igualmente claras entre P, querer P, acreditar em P, querer acreditar em P e acreditar que você acredita em P.)

Existem diferentes tipos de crença na crença. Você pode acreditar em uma crença explicitamente; ou seja, você pode recitar em sua consciência, deliberadamente, “É virtuoso acreditar que o Céu Cósmico Supremo é perfeitamente azul e perfeitamente verde” (ao mesmo tempo em que acredita que você acredita nisso, a menos que você tenha uma capacidade acima do normal de admitir a própria falta de virtude). Mas também há formas menos explícitas de crença na crença. Pode ser que o homem do dragão tema a ridicularização que ele imagina que sofrerá se confessar publicamente que estava errado (embora, na verdade, um racionalista fosse lhe dar os parabéns, e seja mais provável que outras pessoas o ridicularizem se ele continuar afirmando que tem um dragão na garagem). Talvez o homem esteja se esquivando da possibilidade de admitir para si mesmo que não existe dragão, porque isso entraria em conflito com sua auto-imagem de glorioso descobridor do dragão, que viu na garagem o que os outros não conseguiram ver.

Se todos os nossos pensamentos fossem proposições verbais como as que os filósofos manipulam, a mente humana seria muito mais fácil de entender. Imagens mentais fugazes, esquivas não verbalizadas, desejos que buscamos sem reconhecer – todos fazem parte do que somos, tanto quanto as palavras.

Embora eu discorde de Dennett em alguns detalhes e complicações, ainda acho que seu conceito de crença na crença é a chave para entender o homem do dragão. Precisamos, no entanto, de um conceito mais amplo de crença, que não se limite a proposições verbais. Crença deveria abarcar fatores não verbalizados que controlam expectativas. Crença na crença deveria abarcar fatores não verbalizados que guiam o comportamento cognitivo. Não é realista, do ponto de vista psicológico, afirmar “O homem do dragão não acredita que há um dragão em sua garagem; ele acredita que é benéfico acreditar que há um dragão em sua garagem”. Mas é realista afirmar que o homem do dragão faz previsões como se não houvesse dragão algum na garagem, enquanto inventa desculpas como se acreditasse nessa crença.

Você pode ter uma imagem mental comum da sua garagem, sem dragões nela, que prediz corretamente o que você experimenta quando abre a porta, e nunca pensar na frase verbal Não há um dragão na minha garagem. Aliás, eu aposto que isso já aconteceu com você – que quando você abre a porta da sua garagem ou quarto ou o que seja, e não espera ver dragões, nenhuma frase assim passa pela sua cabeça.

E para se esquivar de desistir da sua crença no dragão – ou para se esquivar de desistir de sua auto-imagem como uma pessoa que acredita no dragão – não é preciso pensar explicitamente Eu quero acreditar que há um dragão na minha garagem. Só é preciso se esquivar da perspectiva de admitir que você não acredita.

Para prever corretamente, antes de fazer os experimentos, quais desculpas terá que inventar para quais resultados experimentais, o homem do dragão precisa (a) possuir um modelo preciso capaz de controlar suas expectativas em algum lugar de sua mente e (b) agir cognitivamente para proteger (b1) sua crença proposicional flutuante sobre o dragão ou (b2) sua auto-imagem como alguém que acredita no dragão.

Se alguém acredita na crença no dragão e, ao mesmo tempo, acredita no dragão, o problema é muito menos grave. A pessoa estará disposta a arriscar previsões experimentais, e talvez até a concordar em deixar de acreditar se sua previsão estiver errada – embora a crença na crença ainda possa interferir nesse processo, se a crença propriamente dita não for totalmente confiante. Para que alguém invente desculpas antes do experimento, parece ser necessário que a crença, e a crença na crença, estejam fora de sincronia.

http://lesswrong.com/lw/i4/belief_in_belief/


Notas de Rodapé

  1. Daniel C. Dennett, Breaking the Spell: Religion as a Natural Phenomenon (Penguin, 2006).