Explorando o uso de LLMS com RAG para simplificar o acesso às normativas da Universidade do Estado de Santa Catarina

Autores

DOI:

https://doi.org/10.5902/2318133895063

Palavras-chave:

Grandes Modelos de Linguagem, Inteligência Artificial, Normativas Acadêmicas, UDESC, Retrieval-Augmented Generation

Resumo

A dispersão de normativas acadêmicas dificulta o acesso a informações em universidades. Este estudo tem como objetivo investigar o uso de grandes modelos de linguagem – LLM – integrados à técnica retrieval-augmented generation – RAG – para simplificar o acesso às normativas da Universidade do Estado de Santa Catarina. Informações recuperadas a partir de documentos normativos foram utilizadas como contexto RAG em perguntas enviadas a dois LLMs: Meta Llama 3.1 e Google Gemini 2.5. A avaliação, baseada no framework Ragas, indicou que a qualidade do contexto recuperado é essencial para respostas fiéis e corretas. O Gemini apresentou maior robustez frente a contextos ruidosos, alcançando melhores índices de fidelidade e correção, evidenciando o potencial da abordagem para suporte acadêmico.

Downloads

Não há dados estatísticos.

Biografia do Autor

Lucas Pietro Biasi Rayzer, Universidade do Estado de Santa Catarina

Bacharel em Engenheira de Software pela Universidade do Estado de Santa Catarina (UDESC). Participei de um projeto de pesquisa intitulado como: Projeto Automático de Algoritmos, onde o projeto de algoritmos de otimização e inteligência artificial consistiu na seleção e combinação de componentes algorítmicos, e na configuração dos seus parâmetros de entrada. No segundo semestre de andamento do projeto, foram produzidos estudos na área de Análises de Redes, na qual o centro CEAVI foi objeto de estudo, analisando alguns dos aspectos da rede de coautoria entre professores deste centro da UDESC. Atuei também como estagiário no Escritório Modelo de Pesquisa e Desenvolvimento de Software (EMPDS) da UDESC Alto Vale, onde atuei como desenvolvedor full-stack em PHP.

Fernando Santos, Universidade do Estado de Santa Catarina

Professor adjunto no Departamento de Engenharia de Software da Universidade do Estado de Santa Catarina (UDESC). Concluiu o Bacharelado em Ciências da Computação na Universidade Regional de Blumenau (FURB) em 2005. Obteve o título de Mestre em Ciências da Computação pela Universidade Federal do Rio Grande do Sul (UFRGS) em 2009, e o título de Doutor em Ciência da Computação também pela UFRGS em 2019. Possui experiência na indústria, com vivência em desenvolvimento e análise de sistemas entre 2006 e 2010. Em 2023 recebeu o prêmio Fritz Müller na categoria jovem pesquisador da área de ciências exatas e da terra, oferecido pela Fundação de Amparo à Pesquisa e Inovação do Estado de Santa Catarina (FAPESC). Atua nas áreas de inteligência artificial, sistemas multiagente e simulações baseadas em agentes.

Referências

COMANICI, Gheorghe et al. Gemini 2.5: Pushing the Frontier with Advanced Reasoning, Multimodality, Long Context, and Next Generation Agentic Capabilities. arXiv preprint, New York, 2025, arXiv:2507.06261.

DOUZE, Matthijs et al. The FAISS Library. IEEE Transactions on Big Data, Piscataway, 2025, p. 1-17.

ES, Shahul; JAMES, Jithin, ANKE, Luis Espinosa, SCHOCKAERT, Steven. RAGAs: Automated Evaluation of Retrieval Augmented Generation. CONFERENCE OF THE EUROPEAN CHAPTER OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS, 18, 2024. Conference proceedings … St. Julians: Association for Computational Linguistics, 2024.

GRATTAFIORI, Aaron. et al. The Llama 3 Herd of Models. arXiv preprint, New York, 2024, arXiv:2407.21783.

LANGCHAIN TEAM. LangChain: The platform for reliable agents. 2025. Disponível em: https://www.langchain.com/langchain. Acesso em: 5 jan. 2026.

LEWIS, Patric et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 34, 2020. Anais… Vancouver: Neural Information Processing Systems Foundation, 2020.

LIMA, Saint-Clair da Cunha. Assistente de busca: uma abordagem RAG para busca semântica em documentos textuais da Assembleia Legislativa do Rio Grande do Norte. Natal: UFRN, 2025. 169f. Dissertação (Mestrado em Tecnologia da Informação), Universidade Federal do Rio Grande do Norte.

LOPES, Álvaro José et al. Chat diário oficial. 2025. Grupo Raia. Disponível em: https://grupo-raia.org/projetos/projeto/chat-diario-oficial. Acesso em: 5 jan. 2026.

MIKOLOV, Tomas; CHEN, Kai; CORRADO, Greg; DEAN, Jeffrey. Efficient estimation of word representations in vector space. arXiv preprint, New York, 2013, arXiv:1301.3781,

MINAEE, Shervin et al. Large language models: a survey. arXiv preprint, New York, 2024, arXiv:2402.06196.

NETO, Milton Gama. Construindo aplicações personalizadas com LLM através de RAG (Retrieve Augmented Generation). Medium, [S.l.], 2024. Disponível em: https://medium.com/data-hackers/construindo-aplicações-personalizadas-com-llm-através-de-rag-retrieve-augmented-generation-6f3a3df7b6de. Acesso em 9 jan. 2026.

OLIVEIRA, Luana Ferreira. Chatbot como ferramenta de apoio ao acesso às informações acadêmicas da UFSM. Santa Maria: UFSM, 2024. 47f. Trabalho de conclusão de curso (Graduação em Sistemas de Informação). Universidade Federal de Santa Maria.

SILVA, Vinícios Facin. Assistente virtual para coordenador de curso: aplicação de LLMs à gestão de perguntas frequentes em um curso de graduação. Blumenau: UFSC, 2025. 71f. Trabalho de conclusão de curso (Graduação em Engenharia de Controle e Automação). Universidade Federal de Santa Catarina.

PESSANHA, Gabriel Rodrigo Gomes; VIEIRA, Alessandro Garcia; BRANDÃO, Wladmir Cardoso. Large language models (LLMs): a systematic study in administration and business. Revista de Administração Mackenzie, São Paulo, v. 25, n. 6, 2024, eRAMD240059.

SAHA, Binita; SAHA, Utsha. Enhancing international graduate student experience through ai-driven support systems: a LLM and rag-based approach. INTERNATIONAL CONFERENCE ON DATA SCIENCE AND ITS APPLICATION, 6, 2024. Conference proceedings … Pristina: ICONDATA, 2024.

SINGER-VINE, Jeremy. Pdfplumber. 2023. Disponível em: https://github.com/jsvine/pdfplumber. Acesso em: 10 nov. 2025.

VIBRANTLABS. Ragas: Supercharge your LLM application evaluations. 2024. Disponível em: https://github.com/vibrantlabsai/ragas. Acesso em: 5 jan. 2026.

VASWANI, Ashish et al. Attention is all you need. Advances In Neural Information Processing Systems, Long Beach, v. 30, 2017, p. 5998-6008.

VOGEL, Daniela; RAMOS, Alexandre Moraes; FRANZONI, Ana Maria Bencciveni. Transformando a educação com Large Language Models (LLMs): benefícios, limitações e perspectivas. Caderno Pedagógico, Curitiba, v. 22, n. 4, 2025, e13846.

WEI, Jason et al. Emergent abilities of large language models. arXiv preprint, New York, 2022, arXiv:2206.07682.

Downloads

Publicado

27-02-2026

Como Citar

Rayzer, L. P. B., & Santos, F. (2026). Explorando o uso de LLMS com RAG para simplificar o acesso às normativas da Universidade do Estado de Santa Catarina. Regae: Revista De Gestão E Avaliação Educacional, e95063. https://doi.org/10.5902/2318133895063