Atualmente está ocorrendo uma discussão e a emissão de opiniões dos avaliadores nacionais da qualidade das publicações sobre algumas conferências e journals. O problema surge quando foi definido um critério bibliométrico pela CAPES para a avaliação de meios de apresentação de pesquisas. Há anos venho escrevendo que os índices de avaliação de publicações são importantes AUXILIARES na avaliação da qualidade da pesquisa. Quando estava na vice-presidência da Câmara de Pós-gradução da UFRGS implantamos a necessidade de recredenciamento dos orientadores a cada cinco anos com base, naquela época novo, currículo Lattes: qualidade É importante. Este ano a Comissão de Computação da CAPES retirou do documento de área, que é o referencial mais conhecido, os limiares da indexação e os transferiu para outro documento denominado “Considerações sobre Qualis Periódicos – 2016” apesar de tratar de Periódicos e de Conferências.
Recentemente alguns detentores de Prêmios Nobel afirmam o que venho defendendo: o importante é a qualidade da pesquisa não os índices. Mas a discussão atual foca um outro aspecto: apesar de de ser definido um critério, dito objetivo de avaliação e rankeamento de conferências e journals há pessoas (muitas as mesmas que defendem ardentemente o QUALIS atual) que se sentem desconfortáveis com este critério. Qual o critério? A estratificação da qualidade em níveis calculados pelo h-index ou JCR. Anteriormente as Comissões Especiais da SBC fizeram um rankeamento das conferências e os avaliadores da CAPES afirmaram que esta classificação estava enviesada (biased) pelas pessoas que haviam feito a classificação. Na Comissão Especial de Banco de Dados fizemos um trabalho exaustivo e muito sério para receber esta crítica, o mesmo deve ter se passado nas demais Comissões. Então foi criado o método “impessoal” da estratificação por percentagens de indicadores bibliométricos. É claro que há uma ideologia atrás da escolha deste critério único, eu acredito que as avaliações das Comissões Especiais da SBC eram muito mais interessante: por exemplo, um WS organizado por pesquisadores top de uma área pode ser A1 por sua excelente qualidade, no h-index não pode aparecer.
O que me deixa chocado é que agora pessoas ficam descontentes com a classificação e, mais um exemplo, dizem que o Simpósio ACM SAC é uma (perdão, mas estou apenas repetindo a palavra) “porcaria” apesar do alto h-index. Então que voltemos para as classificações da Comunidade, das Comissões Especiais da SBC e não pela opinião de poucos. E o pior, opinião emocional pois não tem suporte em dados. Um dos critérios exigidos para a classificação bibliométrica de conferências é a taxa de aceitação. Olhem a taxa de aceitação deste simpósio além da classificação A1 pela CAPES.
Não estou analisando a dita “qualidade” intrínseca do evento (aliás o que é isto mesmo?) mas sua utilidade. Quem o organiza não é um grupo predador, é a ACM, e está na trigésima terceira realização! Qual a sua utilidade? É a reunião anual de pesquisadores de diferentes áreas para uma produtiva troca de ideias permitindo o desenvolvimento de pesquisas multi-orientadas. A seguir mostro outras duas conferências, em que participei, com o mesmo objetivo: fazer uma reunião anual de pesquisadores de várias áreas, uma da ACM e outra da IFIP, duas sociedades sérias. A ACM Student Research Competition do SAC é suportada pela Microsoft, isto é algo de baixa qualidade? Predador? Caça niqueis? É claro que não! A participação em eventos de grande escopo evita o famoso problema da “bolha social” onde não há diversidade de opiniões e, como sabemos bem, em muitas conferências apenas os participantes do grupo conseguem publicar. Minha posição é: sejamos revolucionários e tenhamos coragem de entender que há múltiplas dimensões para avaliar a utilidade de uma conferência. Não podemos ficar presos e prejudicados por uma avaliação unidimensional.