Posso prosseguir ampliando o raciocínio anterior sob uma perspectiva mais atual. O conceito de Retrieval-Augmented Generation (RAG) representa um dos avanços mais expressivos na recente evolução dos sistemas inteligentes, especialmente por sua capacidade de integrar o conhecimento simbólico, estruturado e verificável com a modelagem estatística da linguagem natural. Ao combinar mecanismos de recuperação de informação com geração textual, o RAG cria uma verdadeira arquitetura cognitiva híbrida, que alia a precisão dos métodos de Information Retrieval (IR) à flexibilidade contextual dos grandes modelos de linguagem (Large Language Models, LLMs).
Na prática, quando um autor trabalha um esboço de argumento ou uma formulação inicial, com o RAG busca, em bases de conhecimento ou repositórios de documentos, informações relevantes e semanticamente compatíveis, utilizando-as para fundamentar o texto subsequente em dados verificáveis e coerentes com o contexto proposto. Essa operação tem um valor epistêmico considerável: ao ancorar a geração textual em evidências externas, o sistema reduz o risco de inferências infundadas, de erros interpretativos e de chamadas “alucinações” típicas de modelos puramente generativos.
Assim, o uso de tecnologias como o RAG na redação acadêmica não deve ser entendido como uma forma de fraude, nem tampouco como substituição da autoria humana, mas como uma extensão legítima das capacidades cognitivas do pesquisador. Do mesmo modo que, no passado, sistemas de recuperação bibliográfica automatizada ampliaram a eficiência da pesquisa documental e ferramentas como o Grammarly potencializaram a clareza linguística dos textos, o RAG oferece um novo patamar de apoio intelectual: ele atua como mediador entre o pensamento humano e o vasto corpo de conhecimento disponível, permitindo ao autor concentrar-se na elaboração conceitual, na argumentação e na originalidade de suas ideias. Trata-se, portanto, não de uma abdicação da autoria, mas de um reforço do diálogo entre inteligência humana e inteligência artificial, um diálogo que amplia, e não diminui, a dimensão criadora do trabalho acadêmico.
Conclui-se, portanto, que a proibição do uso de Inteligência Artificial e, em particular, de Large Language Models (LLMs) constitui uma medida não somente ineficaz, mas também epistemicamente insustentável. Não há, em termos práticos, mecanismos verificáveis que permitam distinguir de forma inequívoca a produção textual humana daquela que se beneficiou de algum grau de assistência tecnológica. Os limites entre autor e ferramenta tornam-se inevitavelmente difusos, pois toda escrita contemporânea, acadêmica, científica ou literária já se insere em um ecossistema de mediações digitais, de corretores automáticos a tradutores e sistemas de busca semântica.
Mais do que tentar impedir o uso dessas tecnologias, o desafio ético e pedagógico contemporâneo é formar sujeitos críticos e conscientes de seus instrumentos. O que se impõe é uma educação para o uso ético e responsável da inteligência artificial, pautada pela integridade intelectual, pela transparência metodológica e pelo reconhecimento do papel humano na curadoria e na interpretação do conhecimento. Assim como a calculadora não eliminou o pensamento matemático, mas o libertou de operações mecânicas, o uso criterioso de LLMs e de arquiteturas como o RAG pode libertar o pesquisador de tarefas repetitivas e permitir-lhe concentrar-se naquilo que é propriamente humano: a capacidade de formular perguntas relevantes, interpretar resultados e produzir sentido.
Concluindo, não se trata de proibir a tecnologia, mas de educar para o seu domínio ético, reflexivo e criativo, condição essencial para que a inteligência artificial se torne, efetivamente, uma aliada na expansão das capacidades cognitivas e expressivas do ser humano.