Expecting Short Inferential Distances

De Racionalidade
Ir para: navegação, pesquisa

Original

Homo sapiens’s environment of evolutionary adaptedness (a.k.a. EEA or “ancestral environment”) consisted of hunter-gatherer bands of at most 200 people, with no writing. All inherited knowledge was passed down by speech and memory.

In a world like that, all background knowledge is universal knowledge. All information not strictly private is public, period.

In the ancestral environment, you were unlikely to end up more than one inferential step away from anyone else. When you discover a new oasis, you don’t have to explain to your fellow tribe members what an oasis is, or why it’s a good idea to drink water, or how to walk. Only you know where the oasis lies; this is private knowledge. But everyone has the background to understand your description of the oasis, the concepts needed to think about water; this is universal knowledge. When you explain things in an ancestral environment, you almost never have to explain your concepts. At most you have to explain one new concept, not two or more simultaneously.

In the ancestral environment there were no abstract disciplines with vast bodies of carefully gathered evidence generalized into elegant theories transmitted by written books whose conclusions are a hundred inferential steps removed from universally shared background premises.

In the ancestral environment, anyone who says something with no obvious support is a liar or an idiot. You’re not likely to think, “Hey, maybe this person has well-supported background knowledge that no one in my band has even heard of,” because it was a reliable invariant of the ancestral environment that this didn’t happen.

Conversely, if you say something blatantly obvious and the other person doesn’t see it, they’re the idiot, or they’re being deliberately obstinate to annoy you.

And to top it off, if someone says something with no obvious support and expects you to believe it—acting all indignant when you don’t—then they must be crazy.

Combined with the illusion of transparency and self-anchoring, I think this explains a lot about the legendary difficulty most scientists have in communicating with a lay audience—or even communicating with scientists from other disciplines. When I observe failures of explanation, I usually see the explainer taking one step back, when they need to take two or more steps back. Or listeners assume that things should be visible in one step, when they take two or more steps to explain. Both sides act as if they expect very short inferential distances from universal knowledge to any new knowledge.

A biologist, speaking to a physicist, can justify evolution by saying it is the simplest explanation. But not everyone on Earth has been inculcated with that legendary history of science, from Newton to Einstein, which invests the phrase “simplest explanation” with its awesome import: a Word of Power, spoken at the birth of theories and carved on their tombstones. To someone else, “But it’s the simplest explanation!” may sound like an interesting but hardly knockdown argument; it doesn’t feel like all that powerful a tool for comprehending office politics or fixing a broken car. Obviously the biologist is infatuated with their own ideas, too arrogant to be open to alternative explanations which sound just as plausible. (If it sounds plausible to me, it should sound plausible to any sane member of my band.)

And from the biologist’s perspective, they can understand how evolution might sound a little odd at first—but when someone rejects evolution even after the biologist explains that it’s the simplest explanation, well, it’s clear that nonscientists are just idiots and there’s no point in talking to them.

A clear argument has to lay out an inferential pathway, starting from what the audience already knows or accepts. If you don’t recurse far enough, you’re just talking to yourself.

If at any point you make a statement without obvious justification in arguments you’ve previously supported, the audience just thinks you’re crazy.

This also happens when you allow yourself to be seen visibly attaching greater weight to an argument than is justified in the eyes of the audience at that time. For example, talking as if you think “simpler explanation” is a knockdown argument for evolution (which it is), rather than a sorta-interesting idea (which it sounds like to someone who hasn’t been raised to revere Occam’s Razor).

Oh, and you’d better not drop any hints that you think you’re working a dozen inferential steps away from what the audience knows, or that you think you have special background knowledge not available to them. The audience doesn’t know anything about an evolutionary-psychological argument for a cognitive bias to underestimate inferential distances leading to traffic jams in communication. They’ll just think you’re condescending.

And if you think you can explain the concept of “systematically underestimated inferential distances” briefly, in just a few words, I’ve got some sad news for you...

http://lesswrong.com/lw/kg/expecting_short_inferential_distances/

Esperando distâncias inferenciais curtas

O ambiente de adaptação evolutiva do Homo sapiens (também conhecido como AAE ou "ambiente ancestral") consistia de bandos de caçadores-coletores de no máximo 200 pessoas, sem escrita. Todo o conhecimento herdado era transmitido pela fala e memória.

Em um mundo como esse, todo o conhecimento prévio é conhecimento universal. Todas as informações não estritamente privadas são públicas, ponto final.

No ambiente ancestral, era improvável você acabar ficando mais do que um passo inferencial além de qualquer outra pessoa. Quando você descobre um novo oásis, você não tem que explicar aos seus colegas membros da tribo que é um oásis, ou porque é uma boa idéia beber água, ou como andar. Só você sabe onde fica o oásis; isso é conhecimento privado. Mas todo mundo tem os pressupostos para compreender a sua descrição do oásis, os conceitos necessários para pensar sobre a água; isso é conhecimento universal. Ao explicar as coisas no ambiente ancestral, você quase nunca tinha que explicar seus conceitos. No máximo, você teria que explicar um novo conceito, e não dois ou mais simultaneamente.

No ambiente ancestral não havia disciplinas abstratas com grandes corpos de evidências cuidadosamente coletadas generalizadas em teorias elegantes transmitidas por livros escritos cujas conclusões estão a uma centena de passos inferenciais de distância das premissas universalmente compartilhadas.

No ambiente ancestral, qualquer um que dissesse algo sem suporte óbvio seria um mentiroso ou um idiota. Não era provável que você pensasse: "Ei, talvez esta pessoa tenha conhecimentos prévios bem fundamentados que ninguém na minha banda sequer ouviu falar", porque era uma invariante confiável do ambiente ancestral que isto não acontecia.

Por outro lado, se você dissesse algo óbvio e a pessoa não enxergasse, ela era a idiota, ou estaria deliberadamente obstinada a te irritar.

E por fim, se alguém dissesse algo sem suporte óbvio, esperando que você acreditasse - agindo todo indignado quando você não o fizesse - então ele deveria estar louco.

Combinado com a ilusão de transparência e auto-ancoragem, eu acho que isto explica muito sobre a dificuldade lendária que a maioria dos cientistas têm em se comunicar com um público leigo - ou mesmo em se comunicar com cientistas de outras disciplinas. Quando observo falhas de explicação, eu costumo ver o explicador tomar um passo para trás, quando eles precisam tomar dois ou mais passos para trás. Ou ouvintes pressupõem que as coisas deveriam ser visíveis em um único passo, quando eles levam dois ou mais passos para se explicar. Ambos os lados agem como se esperassem distâncias inferenciais muito curtas a partir do conhecimento universal até qualquer novo conhecimento.

Um biólogo, falando com um físico, pode justificar a evolução dizendo que é a explicação mais simples. Mas nem todo mundo na Terra foi inculcada com a lendária história da ciência, de Newton a Einstein, que dà a frase "explicação mais simples" sua importância impressionante: uma Palavra de Poder, falada no nascimento de teorias e esculpida em suas lápides. Para outra pessoa, "Mas é a explicação mais simples!" pode soar como um argumento interessante, mas dificilmente fulminante; ele não parece uma ferramenta tão poderosa para compreender a política do escritório ou consertar um carro quebrado. Obviamente, o biólogo está apaixonado por suas próprias idéias, arrogante demais para estar aberto a explicações alternativas que soam igualmente plausíveis (se isso soa plausível para mim, deve soar plausível para qualquer membro são do meu bando).

E da perspectiva do biólogo, ele consegue entender como a evolução pode soar um pouco estranha no começo - mas quando alguém rejeita a evolução mesmo após o biólogo explicar que é a explicação mais simples, bem, é claro que não-cientistas são apenas idiotas e não adianta nada falar com eles.

Um argumento claro tem que apresentar um "caminho" inferencial, partindo daquilo que a audiência já sabe ou aceita. Se você não der passos para trás o suficiente, você estará apenas falando para si mesmo.

Se em algum momento você fizer uma afirmação sem justificativa óbvia nos argumentos que você sustentou antes, a audiência simplesmente vai achar que você é louco.

Isto também acontece quando você se permite ser visto dando visivelmente mais peso a um argumento do que a audiência considera justificado naquele momento. Por exemplo, falar como se você pensasse que "explicação mais simples" é um argumento fulminante a favor da evolução (o que ele é), ao invés de uma idéia um pouco interessante (o que ele parece que para alguém que não tenha sido criado para reverenciar a Navalha de Occam).

Ah, e é melhor você não dar nenhuma pista de que você acha que está trabalhando a uma dúzia de passos inferenciais de distância do que a audiência conhece, ou de que você acha que tem conhecimento prévio especial que não está disponível a eles. O público não sabe nada sobre um argumento evolutivo-picológico a respeito de um viés cognitivo de subestimar distâncias inferenciais levando a congestionamentos na comunicação. Eles só vão pensar que você está sendo arrogante.

E se você acha que consegue explicar o conceito de "distâncias inferenciais sistematicamente subestimadas" brevemente, em poucas palavras, eu tenho uma notícia triste para você...

http://lesswrong.com/lw/kg/expecting_short_inferential_distances/