Explorando o uso de LLMS com RAG para simplificar o acesso às normativas da Universidade do Estado de Santa Catarina
DOI:
https://doi.org/10.5902/2318133895063Palavras-chave:
Grandes Modelos de Linguagem, Inteligência Artificial, Normativas Acadêmicas, UDESC, Retrieval-Augmented GenerationResumo
A dispersão de normativas acadêmicas dificulta o acesso a informações em universidades. Este estudo tem como objetivo investigar o uso de grandes modelos de linguagem – LLM – integrados à técnica retrieval-augmented generation – RAG – para simplificar o acesso às normativas da Universidade do Estado de Santa Catarina. Informações recuperadas a partir de documentos normativos foram utilizadas como contexto RAG em perguntas enviadas a dois LLMs: Meta Llama 3.1 e Google Gemini 2.5. A avaliação, baseada no framework Ragas, indicou que a qualidade do contexto recuperado é essencial para respostas fiéis e corretas. O Gemini apresentou maior robustez frente a contextos ruidosos, alcançando melhores índices de fidelidade e correção, evidenciando o potencial da abordagem para suporte acadêmico.
Downloads
Referências
COMANICI, Gheorghe et al. Gemini 2.5: Pushing the Frontier with Advanced Reasoning, Multimodality, Long Context, and Next Generation Agentic Capabilities. arXiv preprint, New York, 2025, arXiv:2507.06261.
DOUZE, Matthijs et al. The FAISS Library. IEEE Transactions on Big Data, Piscataway, 2025, p. 1-17.
ES, Shahul; JAMES, Jithin, ANKE, Luis Espinosa, SCHOCKAERT, Steven. RAGAs: Automated Evaluation of Retrieval Augmented Generation. CONFERENCE OF THE EUROPEAN CHAPTER OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS, 18, 2024. Conference proceedings … St. Julians: Association for Computational Linguistics, 2024.
GRATTAFIORI, Aaron. et al. The Llama 3 Herd of Models. arXiv preprint, New York, 2024, arXiv:2407.21783.
LANGCHAIN TEAM. LangChain: The platform for reliable agents. 2025. Disponível em: https://www.langchain.com/langchain. Acesso em: 5 jan. 2026.
LEWIS, Patric et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 34, 2020. Anais… Vancouver: Neural Information Processing Systems Foundation, 2020.
LIMA, Saint-Clair da Cunha. Assistente de busca: uma abordagem RAG para busca semântica em documentos textuais da Assembleia Legislativa do Rio Grande do Norte. Natal: UFRN, 2025. 169f. Dissertação (Mestrado em Tecnologia da Informação), Universidade Federal do Rio Grande do Norte.
LOPES, Álvaro José et al. Chat diário oficial. 2025. Grupo Raia. Disponível em: https://grupo-raia.org/projetos/projeto/chat-diario-oficial. Acesso em: 5 jan. 2026.
MIKOLOV, Tomas; CHEN, Kai; CORRADO, Greg; DEAN, Jeffrey. Efficient estimation of word representations in vector space. arXiv preprint, New York, 2013, arXiv:1301.3781,
MINAEE, Shervin et al. Large language models: a survey. arXiv preprint, New York, 2024, arXiv:2402.06196.
NETO, Milton Gama. Construindo aplicações personalizadas com LLM através de RAG (Retrieve Augmented Generation). Medium, [S.l.], 2024. Disponível em: https://medium.com/data-hackers/construindo-aplicações-personalizadas-com-llm-através-de-rag-retrieve-augmented-generation-6f3a3df7b6de. Acesso em 9 jan. 2026.
OLIVEIRA, Luana Ferreira. Chatbot como ferramenta de apoio ao acesso às informações acadêmicas da UFSM. Santa Maria: UFSM, 2024. 47f. Trabalho de conclusão de curso (Graduação em Sistemas de Informação). Universidade Federal de Santa Maria.
SILVA, Vinícios Facin. Assistente virtual para coordenador de curso: aplicação de LLMs à gestão de perguntas frequentes em um curso de graduação. Blumenau: UFSC, 2025. 71f. Trabalho de conclusão de curso (Graduação em Engenharia de Controle e Automação). Universidade Federal de Santa Catarina.
PESSANHA, Gabriel Rodrigo Gomes; VIEIRA, Alessandro Garcia; BRANDÃO, Wladmir Cardoso. Large language models (LLMs): a systematic study in administration and business. Revista de Administração Mackenzie, São Paulo, v. 25, n. 6, 2024, eRAMD240059.
SAHA, Binita; SAHA, Utsha. Enhancing international graduate student experience through ai-driven support systems: a LLM and rag-based approach. INTERNATIONAL CONFERENCE ON DATA SCIENCE AND ITS APPLICATION, 6, 2024. Conference proceedings … Pristina: ICONDATA, 2024.
SINGER-VINE, Jeremy. Pdfplumber. 2023. Disponível em: https://github.com/jsvine/pdfplumber. Acesso em: 10 nov. 2025.
VIBRANTLABS. Ragas: Supercharge your LLM application evaluations. 2024. Disponível em: https://github.com/vibrantlabsai/ragas. Acesso em: 5 jan. 2026.
VASWANI, Ashish et al. Attention is all you need. Advances In Neural Information Processing Systems, Long Beach, v. 30, 2017, p. 5998-6008.
VOGEL, Daniela; RAMOS, Alexandre Moraes; FRANZONI, Ana Maria Bencciveni. Transformando a educação com Large Language Models (LLMs): benefícios, limitações e perspectivas. Caderno Pedagógico, Curitiba, v. 22, n. 4, 2025, e13846.
WEI, Jason et al. Emergent abilities of large language models. arXiv preprint, New York, 2022, arXiv:2206.07682.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Attribution 4.0 Internacional Reconocimento não comercial sem obra derivada, que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.
Autores têm autorização para assumir contratos adicionais separadamente, para distribuição não-exclusiva da versão do trabalho publicada nesta revista. Exemplo: publicar em repositório institucional ou como capítulo de livro, com reconhecimento de autoria e publicação inicial nesta revista.
Autores têm permissão e são estimulados a publicar e distribuir seu trabalho online. Exemplo: em repositórios institucionais ou na sua página pessoal - a qualquer ponto antes ou durante o processo editorial, já que isso pode gerar alterações produtivas, bem como aumentar o impacto e a citação do trabalho publicado.
Política de privacidade
Os nomes e endereços informados nesta revista serão usados exclusivamente para os serviços prestados por esta publicação, não sendo disponibilizados para outras finalidades ou a terceiros.

