Vamos proibir IA na Universidade?

Posso começar com uma breve história. Meu trabalho de mestrado, desenvolvido há várias décadas, teve como objetivo a construção de um sistema informatizado de gestão e recuperação do acervo bibliográfico de um departamento acadêmico. Esse sistema representava, para a época, um avanço significativo no uso da tecnologia para apoiar a pesquisa e o ensino. Mais tarde, sua concepção evoluiu para produtos mais amplos e sofisticados, que se integraram naturalmente a ambientes institucionais. Lembro-me vivamente de quando apresentei o sistema a um renomado professor de Física: sua reação foi imediata: “Isso não é bom para a formação de um físico de qualidade; o aluno precisa se acostumar a folhear e a realizar buscas manuais nos journals da biblioteca.” Essa resposta, marcada por um olhar tradicional e resistente à automação, ilustra bem a transição cultural que acompanhou o surgimento dos primeiros sistemas de informação acadêmica. Não é necessário acrescentar muito mais: hoje dispomos de ferramentas como o Google Acadêmico, o DBLP e diversos repositórios institucionais que redefiniram completamente a maneira como buscamos, organizamos e validamos o conhecimento científico.

Semelhantemente, ao redigir artigos em inglês, recorro amplamente a ferramentas de apoio à escrita, como o Grammarly. O resultado é notável: o texto final revisado apresenta uma fluência e precisão linguística que dificilmente eu alcançaria sem esse auxílio. Esse exemplo demonstra que, assim como ocorreu com a informatização da pesquisa bibliográfica, as tecnologias contemporâneas de suporte à escrita não substituem o autor, mas o potencializam, permitindo que o foco se volte para o conteúdo e a clareza do pensamento, e não somente para a forma linguística.

Posso prosseguir ampliando o raciocínio anterior sob uma perspectiva mais atual. O conceito de Retrieval-Augmented Generation (RAG) representa um dos avanços mais expressivos na recente evolução dos sistemas inteligentes, especialmente por sua capacidade de integrar o conhecimento simbólico, estruturado e verificável com a modelagem estatística da linguagem natural. Ao combinar mecanismos de recuperação de informação com geração textual, o RAG cria uma verdadeira arquitetura cognitiva híbrida, que alia a precisão dos métodos de Information Retrieval (IR) à flexibilidade contextual dos grandes modelos de linguagem (Large Language Models, LLMs).

Na prática, quando um autor trabalha um esboço de argumento ou uma formulação inicial, com o RAG busca, em bases de conhecimento ou repositórios de documentos, informações relevantes e semanticamente compatíveis, utilizando-as para fundamentar o texto subsequente em dados verificáveis e coerentes com o contexto proposto. Essa operação tem um valor epistêmico considerável: ao ancorar a geração textual em evidências externas, o sistema reduz o risco de inferências infundadas, de erros interpretativos e de chamadas “alucinações” típicas de modelos puramente generativos.

Assim, o uso de tecnologias como o RAG na redação acadêmica não deve ser entendido como uma forma de fraude, nem tampouco como substituição da autoria humana, mas como uma extensão legítima das capacidades cognitivas do pesquisador. Do mesmo modo que, no passado, sistemas de recuperação bibliográfica automatizada ampliaram a eficiência da pesquisa documental e ferramentas como o Grammarly potencializaram a clareza linguística dos textos, o RAG oferece um novo patamar de apoio intelectual: ele atua como mediador entre o pensamento humano e o vasto corpo de conhecimento disponível, permitindo ao autor concentrar-se na elaboração conceitual, na argumentação e na originalidade de suas ideias. Trata-se, portanto, não de uma abdicação da autoria, mas de um reforço do diálogo entre inteligência humana e inteligência artificial, um diálogo que amplia, e não diminui, a dimensão criadora do trabalho acadêmico.

Conclui-se, portanto, que a proibição do uso de Inteligência Artificial e, em particular, de Large Language Models (LLMs) constitui uma medida não somente ineficaz, mas também epistemicamente insustentável. Não há, em termos práticos, mecanismos verificáveis que permitam distinguir de forma inequívoca a produção textual humana daquela que se beneficiou de algum grau de assistência tecnológica. Os limites entre autor e ferramenta tornam-se inevitavelmente difusos, pois toda escrita contemporânea, acadêmica, científica ou literária já se insere em um ecossistema de mediações digitais, de corretores automáticos a tradutores e sistemas de busca semântica.

Mais do que tentar impedir o uso dessas tecnologias, o desafio ético e pedagógico contemporâneo é formar sujeitos críticos e conscientes de seus instrumentos. O que se impõe é uma educação para o uso ético e responsável da inteligência artificial, pautada pela integridade intelectual, pela transparência metodológica e pelo reconhecimento do papel humano na curadoria e na interpretação do conhecimento. Assim como a calculadora não eliminou o pensamento matemático, mas o libertou de operações mecânicas, o uso criterioso de LLMs e de arquiteturas como o RAG pode libertar o pesquisador de tarefas repetitivas e permitir-lhe concentrar-se naquilo que é propriamente humano: a capacidade de formular perguntas relevantes, interpretar resultados e produzir sentido.

Concluindo, não se trata de proibir a tecnologia, mas de educar para o seu domínio ético, reflexivo e criativo, condição essencial para que a inteligência artificial se torne, efetivamente, uma aliada na expansão das capacidades cognitivas e expressivas do ser humano.

Compartilhe!