Discussões
inúteis, intermináveis, agressivas. Gente defendendo as maiores asneiras, e se
orgulhando disso. Pessoas perseguindo e ameaçando as outras. Um tsunami
infinito de informações falsas. Reuniões, projetos, esforços que dão em nada.
Decisões erradas. Líderes políticos imbecis. De uns tempos pra cá parece que o
mundo está mergulhado na burrice. Você já essa sensação? Talvez não seja só uma
sensação. Estudos realizados com dezenas de milhares de pessoas, em vários
países, revelam algo inédito e assustador: aparentemente, a inteligência humana
começou a cair.
Os primeiros sinais vieram da
Dinamarca. Lá, todos os homens que se alistam no serviço militar são obrigados
a se submeter a um teste de inteligência: o famoso, e o mesmo tempo misterioso,
teste de QI. Os dados revelaram que, depois de crescer sem parar depois do século
20, o quociente de inteligência dos dinamarqueses virou o fio, e em 1998
iniciou uma queda contínua: está descendo 2,7 pontos a cada década. A mesma
coisa está acontecendo na Holanda (onde tem sido observada queda de 1,35 ponto
por década), na Inglaterra (2,5 a 3,4 de QI a menos por década, dependendo da
faixa etária analisada), e na França (3,8 perdidos por décadas). Noruega,
Suécia e Finlândia – bem Alemanha e Portugal, onde foram realizados estudos
menores – detectam efeito similar.
“Há um declínio contínuo na
pontuação do QI ao longo do tempo. E é um fenômeno real, não um simples
desvio”, diz o antropólogo inglês Edward Dutton, autor de uma revisão analítica
das principais pesquisa já feitas a respeito. A regressão pode parecer lenta;
mas, sob perspectiva histórica, definitivamente não é. No atual ritmo de queda,
alguns países poderiam regredir para QI médio de 80 pontos, patamar definido
como “baixa inteligência” já na próxima geração de adultos. Não há dados a
respeito no Brasil, mas nossos indicadores são terríveis. Um estudo realizado
neste ano pelo Ibope Inteligência com 2 mil pessoas revelou que 29% da
população adulta é analfabeta funcional, ou seja, não consegue ler sequer um
cartaz ou um bilhete. E o número de analfabetos absolutos, que não consegue ler
nada, cresceu de 4% para 8% nos últimos três anos.
No caso brasileiro, a piora pode ser
atribuída á queda nos investimento na educação, que já são baixos (o país gasta
US$ 3.800 anuais com cada aluno do ensino básico, menos da metade da média das
nações da OCDE) e têm caído nos últimos anos. Mas como explicar aparente
proliferação da burrice mesmo entre foi a escola? O primeiro passo é entender a
base da questão: o que é, e como se mede a inteligência.
De 0 a 160
O primeiro teste de QI (quociente de
inteligência) foi elaborado em 1905, pelos psicólogos franceses Alfred Binet e
Théodore Simon, para identificar crianças com algum tipo de deficiência mental.
Em 1916, o americano Lewis Terman, da
Universidade Stanford, aperfeiçoou o exame, que acabou sendo adaptado e
usados pelos EUA, na 1ª Guerra Mundial, para avaliar os soldados. Mas o questionário
tinha vários problemas – a começar pelo fato de que ele havia sido desenvolvido
para aferir deficiência mental em crianças, não medir a inteligência de adultos.
Inconformado com isso, o psicólogo romeno-americano David Wechsler resolveu
começar do zero. E, em 1955, publicou o WAIS: Wechsler Adult Intelligence
Scale, exame que se tornou o teste de QI mais aceito entre os psicólogos,
psiquiatras e demais pesquisadores da cognição humana (só neste ano, foi
realizado ou citado em mais de 900 estudos sobre o tema).
Ele leva em média 1h30, e deve ser
aplicado por um psicólogo. Consiste numa bateria de perguntas e testes que
avaliam 15 tipos de capacidade intelectual, divididos em quatro eixos:
compreensão verbal, raciocínio, memória e velocidade de processamento. Isto
inclui teste de linguagem (o psicólogo diz, por exemplo: ”defina o termo
abstrato”, e avalia a rapidez e a complexidade da sua resposta), conhecimentos
gerais, aritmética, reconhecimentos de padrões (você vê uma sequência de
símbolos, tem de entender a relação entre eles e indicar o próximo),
memorização avançada, visualização espacial – reproduzir formas 3D usando
blocos de madeira – e outros exercícios. O grau de dificuldade do exame é
cuidadosamente calibrado para que a média das pessoas marque de 90 a 110
pontos. Esse é o nível que indica inteligência normal, média. Se você fizer
mais de 130 pontos, é enquadrado na categoria mais alta, de inteligência “muito
superior” (a pontuação máxima é 160).
Mas é preciso encarar esses números
em sua devida perspectiva. O teste de QI não diz se uma pessoa vai ter sucesso
na vida, nem determina seu valor como indivíduo. Não diz se você é sensato,
arguto ou criativo, entre outras dezenas de habilidades intelectuais que um ser
humano pode ter. O ele faz é medir a cognição básica, ou seja, sua capacidade
de executar operações mentais elementares, que formam a base de todas as
outras. É um mínimo denominador comum. E, por isso mesmo pode ajudar a enxergar
a evolução (ou involução) da inteligência.
Ao longo do século 20, o QI aumentou
consistentemente no mundo todo – foram três pontos a mais por década em média.
É o chamado “efeito Flynn”, em alusão ao psicólogo James Flynn, que o
identificou documentou. Não foi difícil de entender essa evolução. Melhore a
saúde a nutrição e a educação das pessoas, elas naturalmente se saíram melhor
em qualquer teste de inteligência. O QI da população japonesa, por exemplo,
chegou a crescer 7,7 pontos por década após 2ª Guerra Mundial; uma consequência
direta da melhora nas condições de vida por lá. Os cientistas se referem ao
efeito atual, de queda de inteligência, como “efeito Flynn reverso”. Como
explica-lo?
Involução natural
A primeira hipótese é a mais simples, e a
mais polemica também. “A capacidade cognitiva é fortemente influenciada pela
genética. E as pessoas com alto nível delas vêm tendo cada vez menos filhos”,
afirma o psicólogo Michael Woodley, da Universidade de Umeã, na Suécia. Há
décadas a ciência sabe que boa parte da inteligência (a maioria dos estudos
fala em 50%) é hereditária. E levantamentos feitos em mais de cem países, ao
longo do século 20, constatam que há uma relação inversa entre QI e taxa de
natalidade. Quanto mais inteligente uma pessoa é, menos filhos ela acaba tendo,
em média. Some uma coisa a outra e você concluirá que, com o tempo, isso tende
a reduzir a proporção de pessoas altamente inteligentes na sociedade. Trata-se
de uma teoria controversa, e com razão. No passado, ela levou a eugenia, uma
pseudociência que buscava o aprimoramento da raça humana por meio de reprodução
seletiva e esterilização de indivíduos julgados incapazes. Esses horrores
ficaram para trás. Hoje ninguém proporia tentar “melhorar” a sociedade
obrigando os mais inteligentes a ter mais filhos – ou impedindo as demais
pessoas de ter.
Mais isso não significa que a
matemática das gerações não possa estar levando a algum tipo de declínio na inteligência
básica. Inclusive pela pr´pria evolução da sociedade, que tornou a vida mais
fácil. “Um caçador-coletor que não pensasse numa solução para conseguir comida
e abrigo provavelmente morreria, assim como seus descendentes”, escreveu o
biólogo Gerald Crabtree, da universidade Stanford, em um artigo recente. “Já um
executivo de Wall Street que cometesse um erro similar poderia até receber um
bônus”. Crabtree é um radical. Ele acha que a capacidade cognitiva pura, ou
seja, o poder que temos de enfrentar um problema desconhecido e supera-lo,
atingiu o ápice a milhares de anos e de lá pra cá só caiu – isso teria sido
mascarado pelo evolução tecnológica, em que as inovações são realizadas por
enormes grupos de pessoas, não gênios solitários. Outros pesquisadores, como
Michael Woodley, endossam essa tese: dizem que o auge da inteligência ocorreu
há cerca de cem anos.
Os fatos até parecem confirmar essa
tese (Einstein escreveu a relatividade sozinho, já o iPhone é projetado por
milhares de pessoas, 800 engenheiros trabalhando só na câmera), mas ela tem
algo de falacioso. A humanidade cria e produz coisas cada vez mais complexas –
e é por essa complexidade, não por uma suposta queda de inteligência
individual, que as grandes invenções envolvem o trabalho de mais gente. Da
mesma forma, as sociedade modernas permitem que pessoas abrace uma profissão e
se especialize nela, deixando as demais tarefas para os outros profissionais,
ou a cargo de máquinas.
E não há nada de errado nisso. Mas
há quem diga que o salto tecnológico dos últimos 20 anos, que transformou nosso
cotidiano, possa ter começado a afetar nossa inteligência humana. Tal vez aí
esteja a explicação para o “efeito Flynn reverso” – que começou justamente
neste período, e se manifesta em países desenvolvidos onde o padrão de vida é
mais igualitário e estável (sem diferenças ou oscilações que podem mascarar a
redução de QI).
“Hoje, crianças de 7 ou 8 anos já
crescem com o celular”, diz Mark Bauerlein, professor da Universidade de Emory,
nos EUA, e autor do livro Dumbest Generation
(“A Geração mais Burra”, não lançado em português). “É nessa idade que as
crianças deveriam consolidar o hábito de leitura, para adquirir vocabulário”.
Pode parecer papo de erudita, mas há indícios que o uso de smartphones e
tablets na infância já esteja causando efeitos negativos. Na Inglaterra, por
exemplo, 28% das crianças da pre- escola (4 e 5 anos) não sabem se comunicar
utilizando frases completas, no nível que seria normal para essa idade. Segundo
educadores, isso se deve ao tempo que elas ficam na frente de TVs, tablets e
smartphones. O problema é considerado tão grave que o governo anunciou um plano
para reduzir esse índice pela metade até 2028 – e o banimento de smartphones
nas escolas é uma das medidas em discursão. O efeito também é observado em
adolescentes. Nos principais exames que os americanos fazem para entrar na
faculdade, o SAT e o ACT, o desempenho médio vem caindo. Em 2016, a nota na
prova de interpretação de texto do SAT foi a mais baixa em 40 anos.
As pessoas nuca leram e escreveram
tanto; mas estão lendo e escrevendo coisas curtíssimas, em seus smartphones. Um
levantamento feito pela Nokia constatou que os americanos checam o celular em
média 150 vezes por dia. Dá uma vez a cada seis minutos, ou seja, é como se
fosse um fumante emendando um cigarro no outro. E esse dado de 2013; hoje é
provável que o uso seja ainda maior. A onda preocupa até a Apple e a Google,
que estão incluindo medidores de uso nas novas versões do IOS e do Android –
para que você possa saber quantas vezes pega o seu smartphone, e quanto tempo
gasta com ele, a cada dia.
A mera presença do celular, mesmo
desligado, afeta a nossa capacidade de raciocinar. Adrian Ward, professor da
Universidade do Texas, constatou isso ao avaliar o desempenho de 548 estudantes
em três situações: com o celular na mesa, virado para baixo; com o aparelho no
bolso ou na bolsa; e com o celular em outra sala. Em todos os casos o celular
ficou desligado. Mas quanto mais perto ele ficava da pessoa, pior o desempenho
dela. “Você não está pensando no celular. Mas ele consome parte dos recursos
cognitivos. É como um dreno cerebral”, Conclui Ward.
Outra hipóteses é que o uso
intensivo nas redes sociais, que são projetadas para consumo rápido (passamos
poucos segundos lendo cada post) e consomem boa parte do tempo (cada brasileiro
gasta 3h39 min. por dia nelas, segundo pesquisas feita pela empresa
GlobalWebIndex), esteja corroendo nossa capacidade de prestar atenção nas
coisas. Você já deve ter sentido isso: parece cada vez mais difícil ler um
texto, ou até mesmo ver um vídeo no YouTube, até o final. E quando assistimos
algo mais longo, como um filme ou uma série na Netflix, geralmente nos
esquecemos logo. São duas faces da mesma moeda. Levar no bolso a internet, com
seu conteúdo infinito, baniu o tedio da vida humana. Mas, justamente por isso,
também pode ter nos tornado mais impacientes, menos capazes de manter o foco.
Se prestarmos menos atenção ás
coisas, elas obrigatoriamente têm de ser mais simples. Esse efeito se manifesta
nos campos mais distintos, da música aos pronunciamentos políticos. Cientistas
do Instituto de Pesquisas em Inteligência (IIIA), na Espanha, analisaram em
computador 460 mil faixas lançadas nos últimos 50 anos, e concluíram que a
música está se tornando menos complexa e mais homogênea. Houve uma redução de
60% na quantidade de timbres (com menor variedade de instrumentos e técnicas de
gravação), e de 50% na faixa dinâmica (variação de volume entre as partes mais
baixas e nas partes mais altas de cada música). Tudo soa mais parecido – e mais
simples.
Essa simplificação também é visível
no discurso político. Um estudo da Universidade de Carnegie Mellon, nos EUA,
constatou que os políticos americanos falam como crianças. A pesquisa analisou
o vocabulário e a sintaxe de cinco candidatos á última eleição presidencial
(Donald Trump, Hillary Clinton, Ted Cruz, Marco Rubio e Bernie Sanders), e
constatou que seus pronunciamentos têm um nível verbal de criança de 11 a 13
anos. Os pesquisadores também analisaram os discursos de ex-presidentes
americanos, e encontraram um declínio constante. Abraham Lincoln se expressava
no mesmo nível de um adolescente de 16 anos. Ronald Reagan, 14. Obama e Clinton, 13. Trump, 11. (O lanterna é George
W. Bush, com vocabulário de criança de 10 anos.)
Isso não significa que os músicos
sejam incompetentes e os políticos sejam burros. Eles estão sendo pragmáticos,
e adaptando suas mensagens ao que seu público consegue entender – e,
principalmente estamos dispostos a ouvir. Inclusive porque esse é outro pilar
da burrice moderna: viver dentro de uma bolha que confirma suas crenças, e nunca
mudar de opinião. Trata-se de um comportamento irracional, claro.
Os limites da razão
Você certamente já com uma pessoa
irracional, que manteve a própria opinião mesmo diante dos argumentos mais
irrefutáveis. É uma fenômeno normal, que os psicólogos chamam de “viés de
confirmação”: a tendência que a mente tem de abraçar informações que apoiam
suas crenças, e rejeitar dados que as contradizem.
Isso ficou claro num estudo famoso,
e meio macabro, realizado em 1975 na Universidade de Stanford. Cada
participante recebeu 25 bilhetes suicidas (que pessoas deixaram antes de se
matar), e tinham que descobrir quais deles eram verdadeiros e quais eram
falsos. Alguns voluntários logo identificaram os bilehetes falsos, forjados pelos
cientistas. Outros quase sempre se deixavam enganar. Então os pesquisadores
dividiram os participantes em dois grupos: um só com as pessoas que tinham
acertado, e outros só com os que tinham errado.
Só que era tudo pegadinha. Os
cientistas haviam mentido sobre a pontuação de cada pessoa. Eles abriram o jogo
sobre isso, e então pediram a que cada um avaliasse o seu próprio desempenho.
Aconteceu o seguinte. Quem havia sido colocado no “grupo dos bons” continuou
achando que tinha ido bem (mesmo nos casos que havia ido mal); já os do outro
grupo se deram notas baixas, fosse qual fosse sua nota real. Conclusão: a
primeira opinião que formamos sobre uma coisa é muito difícil de derrubar –
mesmo com dados concretos. Esse instinto de “mula empacada” afeta até os
cientistas, como observou o psicólogo Kevin Dunbar, também de Stanford. Ao
compartilhar a rotina de um laboratório de microbiologia durante um ano, ele
viu que cientistas iniciam suas pesquisas com uma tese e depois fazem testes
para comprova-la, desconsiderando outras hipóteses. “Pelo menos 50% dos dados
encontrados em pesquisas são inconsistentes com a tese inicial. Quando isso
acontece, os cientistas refazem os experimentos mudando detalhes, como a
temperatura, esperando que dado estranho desapareça”, diz Dunbar. Só uma
minoria investiga resultados inesperados (justamente o caminho que muitas vezes
leva a grandes descobertas).
Quanto mais você está comprometido
com uma teoria, mas você tende a ignorar evidencias contrárias. “Há informações
demais a nossa volta, e os neurônios precisam filtra-las”, afirmar Dunbar. Há
até uma região no cérebro, o córtex pré-frontal dorsolateral, cuja função é
suprimir informações que a mente considere “indesejadas”. Tem mais: nosso
cérebro libera uma descarga de dopamina, neurotransmissor ligado á sensação de
prazer, quando recebemos informações que confirmam nossas crenças. Somos
programados para não mudar de opinião. Mesmo que isso signifique acreditar em
coisas que não são verdade.
Nosso cérebro é tão propenso a irracionalidade que há quem
acredite que a própria razão como nós conhecemos (o ato de pensar fria e
objetivamente, para encontra a verdade e resolver problemas) simplesmente não
exista. “A razão tem duas funções: produzir motivos para justificar a si mesmo
e gerar argumentos para convencer os demais”, dizem os cientistas cognitivos
Hugo Mercier e Dan Sperber, da Universidade Harvard, no livro The Enigma of Reason (O Enigma da Razão, não
lançado em português). Eles dizem que a razão é relativa, altera-se
conforme o contexto, e sua grande utilidade é construir acordos sociais – custe
o que custar.
Na pré-história, isso fazia todo
sentido todo o sentido. Nossos ancestrais tinham que criar soluções para
problemas básicos de sobrevivência, como predadores e falta de alimento, mas
também precisavam lidar com os conflitos inerentes à vida em bando (se eles não
se mantivessem juntos, seria difícil viver). Só que o mundo de hoje, em que as
pessoas opinam sobre todos os assuntos nas redes sociais, deu um nó nesse
instrumento. “Os ambientes modernos distorcem a nossa habilidade de prevê
desacordos entre indivíduos. É um dos muitos casos em que o ambiente mudou
rápido demais para que a seleção natural pudesse acompanhar”, dizem Mercier e
Sperber.
Para piorar, a evolução nos pregou
outra peça, ainda mais traiçoeira: quase todas as pessoas se acha mais
inteligente que as outras. Acha que toma as melhores decisões e sabe mais sobre
rigorosamente todos os assuntos, de política a nutrição. É o chamado efeito Dunning-Kruger,
em alusão aos psicólogos americanos David Dunning e Justin Kruger, autores dos
estudos que o comprovam. Num deles, 88% dos entrevistados disseram dirigir
melhor que a média. Em outro, 32% dos engenheiros de uma empresa afirmaram
estar entre os 5% dos competentes. Pesquisas
posteriores revelam que, quanto mais ignorante você é sobre um tema, mais tende
acreditar que o domina. No tempo das savanas isso poderia ser até bom. “A
curto prazo, dá mais autoconfiança”, afirma Dunning. Agora aplique essa lógica
ao mundo de hoje, e o resultado será o mar de conflitos que tomou conta do dia
a dia. A era da cizânia – e da burrice.
Ela pode ser desesperadora. Mas
nada indica que seja um caminho sem volta. Nos 300 mil anos da história homo sapiens, estamos apenas no mais
recente – e brevíssimo – capitulo. Tudo pode mudar; e, como a história ensina,
muda. Inclusive porque a inteligência humana ainda não desapareceu.
Vamos pensar por si
próprio sem usar a tecnologia como muleta. Fica a dica!
Indicação
completar: filme Idiocracia.
Fonte:
super interessante nº 394
A
era da burrice
por Eduardo Szklarz e Bruno Garattoni
Também poderá gostar de: Desvendando o Tabu: Intolerância Religiosa.