Por favor, use este identificador para citar o enlazar este ítem: https://dspace.unl.edu.ec/jspui/handle/123456789/27380
Título : Modelo de red neuronal transformer para responder preguntas frecuentes acerca de becas e incentivos de los estudiantes de la Carrera de Computación de la Universidad Nacional de Loja Transformer neural network model to answer frequently asked questions about Scholarships and Incentives for students of the Computing Career of the Universidad Nacional de Loja
Autor : Cumbicus Pineda, Oscar Miguel
Quevedo Reyes, Evelyn Juliana
Palabras clave : <AGENTE CONVERSACIONAL><ROBERTA> <SQUAD><KDT><AUTO-ATENCIÓN>
Fecha de publicación : 27-jun-2023
Editorial : Universidad Nacional de Loja
Resumen : El desconocimiento de los estudiantes acerca de las becas e incentivos que oferta la Universidad Nacional de Loja (UNL), ha ocasionado que muchos estudiantes que realmente necesitan este tipo de ayudas económicas para cubrir parte sus necesidades, no puedan acceder a las mismas. El objetivo del presente Trabajo de Titulación (TT) fue elaborar un modelo de red neuronal transformer que permita responder preguntas frecuentes acerca de becas e incentivos, esto se llevó a cabo mediante seis fases de Descubrimiento de Conocimiento en bases de Textos (KDT) constituida por: definición del concepto clave, recopilación de información, preprocesamiento, transformación, minado de texto e interpretación de los resultados. En primera instancia se realizó un corpus acerca de becas e incentivos, el cual fue indispensable en el proceso de Fine Tuning para la elaboración y entrenamiento del modelo de red transformer, se empleó herramientas como Google Colab y Hugging Face, seguidamente se seleccionó un modelo preentrenado para optimizar tiempos de aprendizaje, en base a una investigación previa se seleccionó un modelo basado en BERT, denominado RoBERTa, este ejemplar se encuentra entrenado en squad en el idioma español, y además presenta mejores que su antecesor, razones por las cuales fue seleccionado, para conseguir el modelo con mejores resultados se realizaron diversas configuraciones para finalmente obtener un modelo con F1 score de 0.81. Una vez desarrollado el modelo se le aplicaron pruebas para obtener un promedio de respuesta, en la primera de obtuvo un valor de 0.89 al tener de forma guiada tanto el contexto como la pregunta, en la siguiente valoración se modificó la semántica de las preguntas para un mismo contexto, obteniendo, así como media más alto un 0.95 F1 score y como más bajo un 0.42. Posteriormente para la prueba de funcionalidad se requirió la ayuda de estudiantes de la Carrera de Computación para que realicen las practicas correspondientes y corroborar de esta forma el funcionamiento del modelo transformer de manera guiada, en 56% concluyeron que responde a las preguntas propuestas en base a un contexto dado y en un 53% concordaron que brinda respuestas comprensibles. Finalmente se puede concluir que fue posible efectuar la elaboración de un modelo transformer que sea capaz de responder preguntas acerca de becas e incentivos mediante el uso de un modelo preentrenado, acompañado de la metodología fine tuning para el entrenamiento del mismo. Palabras Claves: Agente conversacional, RoBERTa, Squad, KDT, Auto-atención
Descripción : The students' lack of knowledge about the scholarships and incentives offered by the Universidad Nacional de Loja has meant that many students who really need this type of financial aid to cover part of their needs cannot access them. The objective of this Thesis was to develop a transformer neural network model that allows answering frequently asked questions about scholarships and incentives, this was carried out through six phases of Knowledge Discovery in Text bases (KDT) constituted by: definition of the key concept, information gathering, preprocessing, transformation, text mining and interpretation of the results. In the first instance, a corpus was made about scholarships and incentives, which was essential in the Fine Tuning process for the elaboration and training of the transformer network model, tools such as Google Colab and Hugging Face were used, then a pre-trained model to optimize learning times, based on previous research, a model based on BERT was selected, called RoBERTa, this specimen is trained in squad in the spanish language, and also has better than its predecessor, reasons why it was selected, to obtain the model with the best results, various configurations were made to finally obtain a model with an F1 score of 0.81. Once the model was developed, tests were applied to obtain an average response, in the first one it obtained a value of 0.89 by having both the context and the question guided, in the following evaluation the semantics of the questions were modified for a same context, obtaining a 0.95 F1 score as the highest average and 0.42 as the lowest. Subsequently, for the functionality test, the help of students of the Computing career was required to carry out the corresponding practices and thus corroborate the operation of the transformer model in a guided manner, in 56% they concluded that it answers the proposed questions based on a given context and 53% agreed that it provides understandable answers. Finally, concluded that it was possible to elaborate a transformer model that is capable of answering questions about scholarships and incentives through the use of a pretrained model, accompanied by the fine tuning methodology for its training. Keywords: Conversational agent, RoBERTa, Squad, KDT, Auto-attention  
URI : https://dspace.unl.edu.ec/jspui/handle/123456789/27380
Aparece en las colecciones: TRABAJOS DE TITULACION AEIRNNR

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
EvelynJuliana_QuevedoReyes.pdf2,75 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.