. . . What's a Bias, Again?

De Racionalidade
Ir para: navegação, pesquisa

Original

A bias is a certain kind of obstacle to our goal of obtaining truth. (Its character as an “obstacle” stems from this goal of truth.) However, there are many obstacles that are not “biases.”

If we start right out by asking “What is bias?,” it comes at the question in the wrong order. As the proverb goes, “There are forty kinds of lunacy but only one kind of common sense.” The truth is a narrow target, a small region of configuration space to hit. “She loves me, she loves me not” may be a binary question, but E = mc2 is a tiny dot in the space of all equations, like a winning lottery ticket in the space of all lottery tickets. Error is not an exceptional condition; it is success that is a priori so improbable that it requires an explanation.

We don’t start out with a moral duty to “reduce bias,” because biases are bad and evil and Just Not Done. This is the sort of thinking someone might end up with if they acquired a deontological duty of “rationality” by social osmosis, which leads to people trying to execute techniques without appreciating the reason for them. (Which is bad and evil and Just Not Done, according to Surely You’re Joking, Mr. Feynman, which I read as a kid.)

Rather, we want to get to the truth, for whatever reason, and we find various obstacles getting in the way of our goal. These obstacles are not wholly dissimilar to each other—for example, there are obstacles that have to do with not having enough computing power available, or information being expensive. It so happens that a large group of obstacles seem to have a certain character in common—to cluster in a region of obstacle-to-truth space—and this cluster has been labeled “biases.”

What is a bias? Can we look at the empirical cluster and find a compact test for membership? Perhaps we will find that we can’t really give any explanation better than pointing to a few extensional examples, and hoping the listener understands. If you are a scientist just beginning to investigate fire, it might be a lot wiser to point to a campfire and say “Fire is that orangey-bright hot stuff over there,” rather than saying “I define fire as an alchemical transmutation of substances which releases phlogiston.” You should not ignore something just because you can’t define it. I can’t quote the equations of General Relativity from memory, but nonetheless if I walk off a cliff, I’ll fall. And we can say the same of biases—they won’t hit any less hard if it turns out we can’t define compactly what a “bias” is. So we might point to conjunction fallacies, to overconfidence, to the availability and representativeness heuristics, to base rate neglect, and say: “Stuff like that.”

With all that said, we seem to label as “biases” those obstacles to truth which are produced, not by the cost of information, nor by limited computing power, but by the shape of our own mental machinery. Perhaps the machinery is evolutionarily optimized to purposes that actively oppose epistemic accuracy; for example, the machinery to win arguments in adaptive political contexts. Or the selection pressure ran skew to epistemic accuracy; for example, believing what others believe, to get along socially. Or, in the classic heuristic-and-bias, the machinery operates by an identifiable algorithm that does some useful work but also produces systematic errors: the availability heuristic is not itself a bias, but it gives rise to identifiable, compactly describable biases. Our brains are doing something wrong, and after a lot of experimentation and/or heavy thinking, someone identifies the problem in a fashion that System 2 can comprehend; then we call it a “bias.” Even if we can do no better for knowing, it is still a failure that arises, in an identifiable fashion, from a particular kind of cognitive machinery—not from having too little machinery, but from the machinery’s shape.

“Biases” are distinguished from errors that arise from cognitive content, such as adopted beliefs, or adopted moral duties. These we call “mistakes,” rather than “biases,” and they are much easier to correct, once we’ve noticed them for ourselves. (Though the source of the mistake, or the source of the source of the mistake, may ultimately be some bias.)

“Biases” are distinguished from errors that arise from damage to an individual human brain, or from absorbed cultural mores; biases arise from machinery that is humanly universal.

Plato wasn’t “biased” because he was ignorant of General Relativity—he had no way to gather that information, his ignorance did not arise from the shape of his mental machinery. But if Plato believed that philosophers would make better kings because he himself was a philosopher—and this belief, in turn, arose because of a universal adaptive political instinct for self-promotion, and not because Plato’s daddy told him that everyone has a moral duty to promote their own profession to governorship, or because Plato sniffed too much glue as a kid—then that was a bias, whether Plato was ever warned of it or not.

Biases may not be cheap to correct. They may not even be correctable. But where we look upon our own mental machinery and see a causal account of an identifiable class of errors; and when the problem seems to come from the evolved shape of the machinery, rather from there being too little machinery, or bad specific content; then we call that a bias.

Personally, I see our quest in terms of acquiring personal skills of rationality, in improving truthfinding technique. The challenge is to attain the positive goal of truth, not to avoid the negative goal of failure. Failurespace is wide, infinite errors in infinite variety. It is difficult to describe so huge a space: “What is true of one apple may not be true of another apple; thus more can be said about a single apple than about all the apples in the world.” Success-space is narrower, and therefore more can be said about it.

While I am not averse (as you can see) to discussing definitions, we should remember that is not our primary goal. We are here to pursue the great human quest for truth: for we have desperate need of the knowledge, and besides, we’re curious. To this end let us strive to overcome whatever obstacles lie in our way, whether we call them “biases” or not.

http://lesswrong.com/lw/gp/whats_a_bias_again/

...O que é um viés, mesmo?

Um viés é um certo tipo de obstáculo ao nosso objetivo de alcançar a verdade (sua natureza de “obstáculo” decorre deste objetivo da verdade). Entretanto, há muitos obstáculos que não são “vieses”.

Se nós começarmos diretamente perguntando “O que é um viés?”, ele surge na questão na ordem errada. Como diz o provérbio, “Existem quarenta tipos de loucura, mas apenas um tipo de senso comum”. A verdade é um alvo estreito, uma pequena região a ser acertada no espaço de configurações. “Ela me ama, ela não me ama” pode ser uma questão binária, mas E = mc2 é um pequeno ponto no espaço de todas as equações, como um bilhete vencedor de loteria no espaço de todos os bilhetes de loteria. O erro não é uma situação excepcional; é o sucesso que é tão improvável a priori que requer uma explicação.

Nós não tomamos como ponto de partida um dever moral de “reduzir os vieses”, porque vieses são maus e Simplesmente Não Permitidos. Esta é a maneira de pensar à qual alguém pode ser levado se adquirir um dever deontológico de "racionalidade" por osmose social, o que leva as pessoas a tentar executar técnicas sem entender a razão de ser delas (o que é ruim e mau e Simpelsmente Não Permitido, de acordo com O senhor está brincando, Sr. Feynman!, que eu li quando era criança).

Em vez disso, nós começamos querendo chegar à verdade, por seja lá qual for a razão, e nós encontramos vários obstáculos que se colocam no caminho de nosso objetivo. Estes obstáculos não são completamente diferentes uns dos outros – por exemplo, há obstáculos que têm a ver com não ter poder de computação o suficiente disponível, ou com as informações serem custosas. Acontece, de fato, que um grande grupo de obstáculos parece ter uma certa característica em comum – se aglomerando em uma região do espaço de ‘obstáculos para a verdade’ – e esse aglomerado foi rotulado de “vieses”.

O que é um viés? Temos como olhar para o aglomerado empírico e encontrar um teste compacto para decidir se algo pertence a ele? Talvez nós descubramos que não temos nenhuma explicação melhor do que apontar para alguns exemplos extensionais, e torcer para que o interlocutor entenda. Se você é um cientista que acabou de começar a investigar o fogo, pode ser muito mais sábio apontar para uma fogueira e dizer “Fogo é aquela coisa laranja, brilhante e quente que está ali”, em vez de dizer “Eu defino fogo como uma transmutação alquímica de substâncias que libera flogisto”. Você não deve ignorar algo só porque você não é capaz de defini-lo. Eu não posso citar de cabeça as equações da Relatividade Geral, mas, mesmo assim, se eu andar para além de um penhasco, eu vou cair. E podemos dizer o mesmo a respeito dos vieses – eles não vão nos atingir com nem um pouco menos força só porque nós não conseguimos definir o que é um “viés”. Então nós podemos apontar para falácias da conjunção, para confiança excessiva, para as heurísticas da disponibilidade e da representatividade, para a negligência da frequência basal e dizer: “coisas assim”.

Dito tudo isso, parece que nós chamamos de “vieses” aqueles obstáculos para a verdade que são produzidos, não pelo custo de informações, nem pelo poder limitado de computação, mas pela forma de nossa própria maquinaria mental. Talvez a maquinaria esteja evolutivamente otimizada para propósitos que se opõem ativamente à precisão epistêmica; por exemplo, a maquinaria utilizada para ganhar discussões em contextos políticos adaptativos. Ou a pressão seletiva distorceu a precisão epistêmica; por exemplo, acreditar no que os outros acreditam, para se dar bem socialmente. Ou, no clássico heurística-e-viés, a maquinaria opera com um algoritmo identificável que faz algum trabalho útil, mas também produz erros sistemáticos: a heurística da disponibilidade não é em si mesma um viés, mas ela dá origem a alguns vieses identificáveis e compactamente descritíveis. Nossos cérebros estão fazendo algo de errado, e depois de muita experimentação e/ou muita reflexão, alguém identifica o problema de uma maneira que o Sistema 2 pode compreender; então nós chamamos isso de “viés”. Mesmo que nós não possamos melhorar em nada só por conhecê-lo, ainda assim é uma falha que surge, de uma maneira identificável, de um tipo particular de maquinaria cognitiva – não de ter maquinaria insuficiente, mas sim da própria forma da maquinaria.

“Vieses” são distintos dos erros que surgem do conteúdo cognitivo, tal como crenças adotadas, ou deveres morais adotados. Nós chamamos estes de “enganos”, em vez de “vieses”, e eles são muito mais fáceis de corrigir, uma vez que nós mesmos os tenhamos percebido (embora a origem do engano, ou a origem da origem do engano, possa ser, em última instância, um viés).

"Vieses" também não se confundem com erros que surgem do dano a um cérebro humano individual, ou de costumes culturais adquiridos; vieses surgem de maquinaria que é universal entre humanos.

Platão não era “enviesado” porque ele não conhecia a Relatividade Geral – ele não tinha nenhuma maneira de coletar essa informação, sua ignorância não surgiu da forma de sua maquinaria mental. Mas se Platão acreditava que filósofos dariam reis melhores porque ele próprio era um filósofo – e se essa crença, por sua vez, surgisse de um instinto político adaptativo universal de autopromoção, e não porque o pai de Platão disse a ele que todos têm um dever moral de promover sua própria profissão para governar, nem porque Platão cheirou muita cola quando criança – então isso seria um viés, ainda que Platão nunca tenha sido alertado disso.

Vieses podem não ser baratos de corrigir. Alguns podem nem mesmo ser corrigíveis. Mas nos casos em que olhamos para nossa maquinaria mental e vemos uma explicação causal de uma classe identificável de erros; e quando o problema parece vir da forma evoluída da maquinaria, em vez de vir da maquinaria ser insuficiente, ou de ter um conteúdo específico ruim; então nós chamamos isso de viés.

Pessoalmente, eu vejo nossa missão em termos de aquisição de habilidades pessoais de racionalidade, de aprimoramento das técnicas de descoberta da verdade. O desafio é obter o objetivo positivo da verdade, não evitar o alvo negativo da falha. O espaço de falha é amplo, erros infinitos de infinita variedade. É difícil descrever um espaço tão gigantesco: “O que é verdade para uma maçã pode não ser para outra maçã; por isso, mais pode ser dito de uma única maçã do que de todas as maçãs do mundo”. O espaço de sucesso é mais restrito e, por conseguinte, mais pode ser dito sobre ele.

Embora eu não repudie (como se pode ver) discutir definições, nós devemos lembrar que este não é nosso objetivo primário. Nós estamos aqui para seguir na grande busca humana pela verdade; pois nós temos uma necessidade desesperada de conhecimento, e, além disso, nós somos curiosos. Para alcançarmos esse fim, nos empenhemos para superar quaisquer obstáculos que estejam em nosso caminho, quer nós os chamemos de “vieses”, quer não.

http://lesswrong.com/lw/gp/whats_a_bias_again/