Quando a Ciência Virou Número

postado em: Avaliação, Comportamento, Pesquisa | 0

Durante muito tempo, fazer ciência era, antes de tudo, conversar. Sim, conversar por meio de cartas, artigos, encontros — como a nota selada de Lavoisier de 1772, entregue ao Secretário da Academia Francesa, que contém as suas primeiras observações sobre a combustão e o papel do oxigênio, assegurando sua descoberta. Nada de relatórios técnicos com mil exigências de formatação ou PowerPoint cronometrados em congressos lotados. O que importava mesmo era a ideia, o experimento, o raciocínio por trás da descoberta. Havia uma certa leveza, um entusiasmo quase artesanal na produção do conhecimento.

Mas algo mudou. E mudou feio. Hoje, a avaliação da pesquisa virou um jogo de números. São índices de impacto, fatores h, rankings de periódicos, métricas bibliométricas e outros nomes complicados que, no fundo, querem reduzir a complexidade de uma pesquisa a um número qualquer. Não importa mais tanto o que você descobriu — mas onde publicou, quantas vezes foi citado e por quem. E quanto mais rápido, melhor. Se possível, com resultados “bonitos” e “publicáveis”. Nesse ritmo, a ciência foi ficando parecida com uma linha de montagem: um artigo atrás do outro, cada vez mais parecidos, cada vez mais genéricos. Os encontros acadêmicos — que antes eram lugares para confronto de ideias, debates quentes e construção de parcerias — agora são vitrines. Apresenta-se um resumo, ganha-se um certificado, tira-se uma foto para o currículo. Depois? Cada um para o seu lado.

O problema é que, nessa pressa por produzir, começamos a confundir quantidade com qualidade. E pior: abrimos espaço para os chamados “artefatos”, essas ferramentas baseadas em inteligência artificial que produzem textos científicos convincentes — mas vazios. Sim, eles citam autores, organizam argumentos, fazem parecer tudo muito sério. Mas, no fundo, não fizeram experimento nenhum. Não levantaram hipótese, não foram a campo, não ficaram meses ou anos revisando resultados. Somente processaram o que já estava publicado e deram uma cara nova ao que já foi dito. Estão para a ciência como o plágio está para a literatura: têm a forma, mas não a alma.

A ironia é que esse retorno à repetição sem crítica lembra muito o período medieval. Naquela época, aprender era repetir os antigos. Olaus Magnus, por exemplo, escreveu sobre os povos nórdicos citando basicamente autores clássicos como Tácito e Jordanes, sem se dar ao trabalho de duvidar. Era o saber que se mantinha pelo peso da tradição, não pela verificação dos fatos. Foi preciso alguém como Andreas Vesalius, no século XVI, para romper com essa lógica. Ele olhou para o corpo humano e disse: “isso aqui não é bem como Galeno descreveu.” E foi lá, com bisturi e coragem, refazer os mapas da anatomia. Fez o que naquela época pareceria quase insano: contradisse um nome consagrado com base em evidência própria. É esse tipo de atitude que move a ciência. E é isso que a burocracia das métricas está, pouco a pouco, sufocando.

Precisamos repensar, com urgência, como avaliamos a pesquisa acadêmica. A boa ciência é feita de perguntas difíceis, erros, correções e um olhar atento sobre a realidade. E avaliar isso exige mais do que contar citações ou exigir publicação em periódico A1. Exige leitura atenta, diálogo entre pares, tempo para maturação das ideias. Se não voltarmos a valorizar o conteúdo sobre a casca, a construção sobre o marketing, estaremos aceitando que a ciência seja apenas um ruído elegante — e não um instrumento de transformação do mundo.

Porque, no fim das contas, ciência sem crítica é só repetição. E repetição, por mais bonita que seja, não nos leva muito longe.

Compartilhe!