Por que as pesquisam erram? As respostas existem. Falta à imprensa assumir o debate
As informações e opiniões formadas neste blog são de responsabilidade única do autor.

Por que as pesquisam erram? As respostas existem. Falta à imprensa assumir o debate

Bruno Paes Manso

21 de outubro de 2014 | 09h44

No último Tendências e Debates de 18 de outubro, na FSP, dois autores responderam à seguinte pergunta: é correta a maneira como são feitas as pesquisas eleitorais no Brasil? Da forma como a discussão foi colocada, até parece que o assunto causa divergência entre os estatísticos. Isso é falso. Existe consenso entre os matemáticos sobre os graves problemas nos levantamentos eleitorais. O problema, entretanto, não é a forma como as pesquisas são feitas. Mas a credibilidade dos números divulgados pelos jornais e televisões. Matematicamente, diversos trabalhos já demostraram, não se pode garantir a margem de confiança propagada pelos institutos.

Não se trata aqui de nenhuma teoria da conspiração, mas de uma discussão objetiva sobre teoria e métodos estatísticos. Vale um esforço para tentar compreender o que os matemáticos tentam explicar faz 20 anos.

O problema das pesquisas brasileiras está na margem de erro e no intervalo de confiança normalmente divulgados pelos institutos. No primeiro turno e no segundo turno, por exemplo, os principais levantamentos seguiram apontando margem de erro de 2 pontos percentuais (para cima ou para baixo) e intervalo de confiança de 95%. Isso significa que, se um candidato tem 30%, pode chegar entre 28% e 32% das intenções. Além disso, para cada 100 pesquisas feitas, 95 vão bater com dados no intervalo previsto.

Segundo os matemáticos, porém, os institutos não podem afirmar que suas pesquisas têm essa precisão. Este é o ponto. Trata-se de um erro conceitual definir as margens de erro e o intervalo de confiança nas pesquisas feitas pelo método de cotas, o formato das pesquisas eleitorais do Ibope e Datafolha, por exemplo. Essas margens de erro só podem ser definidas quando as pesquisas são feitas pelo método de seleção aleatória, muito mais caros e trabalhosos. Isso significa que as pesquisas eleitorais brasileiras apontam tendências, mas não podem oferecer a garantia do acerto.

No levantamento aleatório, usado nas pesquisas mais elaboradas do IBGE e IPEA, seleciona-se por sorteio o município, as ruas, os domicílios e os eleitores a serem ouvidos. O pesquisador precisa ir até o local e falar com os sorteados. A dificuldade imposta pelo método é grande, mas garante a precisão a margem de confiança dos dados. Nas pesquisas por cotas, os eleitores são definidos eleitores por sexo, idade, classe, etnia e moradia, por exemplo. O entrevistador vai para um ponto de fluxo intenso e encontra os entrevistados. Não há como definir a margem de erro nesse método.

Já passou da hora de jornais e institutos enfrentarem esse debate de frente. A informação é fundamental para nossa democracia e a crítica deve ser levada a sério. O erro tem induzido os eleitores a escolhas equivocadas. Até mesmo os legisladores parecem não entender a questão: eles obrigam a divulgação da margem de erro nas pesquisas eleitorais. Mas não obrigam as pesquisas a usarem métodos aleatórios que permitam o estabelecimento das margens de erro, o que é uma evidente contradição. Chega a ser engraçado: uma lei que atualmente não pode ser cumprida!

Existem soluções jornalísticas para lidar com esse problema:

1) Continuar dando os resultados das pesquisas, sem garantia da precisão dos números. Deveria ser explicado que os institutos estão apontando uma tendência provável, sem garantir a credibilidade do levantamento. Isso diminuiria o interesse jornalístico nas pesquisas, que deve mesmo ser relativizado já que os erros são recorrentes e muitas vezes decisivos na forma como o eleitores votam. Essas pesquisas sem margem de erro não merecem manchetes porque são notícias imprecisas.

2) A segunda opção seria melhorar a metodologia usada.  Jornais e televisões poderiam fazer um pool para arcarem com os custos das pesquisas aleatórias. Caso isso ocorresse e a margem de erro fosse teoricamente admissível, a pesquisa retomaria sua relevância jornalística. Essa segunda solução também resolveria o problema legal, que obriga a divulgação da margem de erro.

Vimos o desastre mais uma vez na votação do primeiro turno, que falhou na eleição presidencial e em praticamente todos os estados. Aécio Neves, por exemplo, teve 33,5% nas urnas. Na véspera, o  Ibope dava 27% e o Datafolha 26%.

Em São Paulo, a barbeiragem atingiu Padilha, candidato ao governo petista, que sempre oscilou nas pesquisas com taxas entre 7 e 11%. Nas urnas, teve 18,2%. Pezão (PMDB) disputaria com Garotinho (PR) o segundo turno no Rio, segundo Ibope e Data Folha. Deu Crivella (PRB). A votação de Garotinho estava superestimada. No Rio Grande do Sul, Sartori (PMDB) ficava bem abaixo do favorito Tarso Genro (PT). Nas urnas Sartori ficou à frente, bem acima da margem de erro.

A vitória de Rui Pimenta (PT) no primeiro turno na Bahia foi surpresa para todos, já que chegou a estar ameaçado de ficar fora do segundo turno e na véspera da eleição empatava com Paulo Souto (DEM). No Amazonas, Eduardo Braga (PMDB) venceria no primeiro turno conforme o Ibope. Ficou em segundo lugar, atrás de José Mello (PROS).

Em praticamente todas as unidades da federação os votos dados ficaram fora da margem de erro prevista. Isso seria o bastante para provar empiricamente que a margem de erro de 2% e o intervalo de confiança de 95% é um estelionato.

O debate precisa ser travado. Os estatísticos já demonstraram teoricamente o equívoco dos institutos na definição da confiança dos dados. Os institutos são capazes de demonstrar que suas margens de erro são consistentes?

Para quem se interessar, seguem os trabalhos de José Ferreira de Carvalho, no Tendências e Debates, de 

,

Documento

, José Ferreira de Carvalho e Cristiano Ferraz (Unicamp). Eles têm referências bibliográficas de estudos feitos desde 1990.

 

 

 

publicidade

publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.