Por favor, use este identificador para citar o enlazar este ítem: https://dspace.unl.edu.ec/jspui/handle/123456789/31512
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorValdiviezo Condolo, Marcelo Fernando-
dc.contributor.authorBetancourt Ochoa, Josué Elian-
dc.date.accessioned2024-11-21T21:11:34Z-
dc.date.available2024-11-21T21:11:34Z-
dc.date.issued2024-11-21-
dc.identifier.urihttps://dspace.unl.edu.ec/jspui/handle/123456789/31512-
dc.descriptionGesture-based communication is crucial for people with hearing or speech disabilities. However, at the present time systems are often expensive or difficult to use. This project is focused on the development of a mobile application for gesture interpretation using a dense neural network. The system includes a circuit designed to capture the user's hand signals using flexible sensors and an MPU6050, sending the perceived information to a database in Firebase to be processed in an application programmed in Flutter. The mobile application was developed with Dart language, which has allowed the incorporation of main functionalities: visualization of gestures in letters, pronunciation of the interpreted characters and, teaching of gestures through images and videos on platforms such as YouTube. The results indicate a sixty six percent accuracy in the interpretation of global gestures of the trained model, which can be improved by modifying certain training parameters and expanding the database of each class of gestures. Key words: Translator glove; Assisted Technologies; Microcontroller; Sign language; Machine learning; Flutteres_ES
dc.description.abstractLa comunicación basada en gestos es crucial para personas con discapacidades auditivas o del habla. Sin embargo, los sistemas actuales suelen ser costosos o difíciles de usar. Este proyecto se centró en el desarrollo de una aplicación móvil para la interpretación de gestos utilizando una red neuronal densa. El sistema incluye un circuito diseñado para capturar las señales de la mano del usuario mediante sensores flexibles y un MPU6050, enviando la información percibida a una base de datos en Firebase para ser procesados en una aplicación programada en Flutter. La aplicación móvil fue desarrollada con lenguaje Dart, la cual ha permitido incorporar funcionalidades principales: visualización de gestos en letras, pronunciación de los caracteres interpretados y enseñanza de gestos a través de imágenes y videos en plataformas como YouTube. Los resultados indican una precisión del 66% en la interpretación de gestos globales del modelo entrenado, la cual puede mejorar modificando ciertos parámetros del entrenamiento y ampliando la base de datos de cada clase de gestos. Palabras clave: Guante traductor; Tecnologías Asistidas; Microcontrolador; Lenguaje de señas; Aprendizaje máquina; Flutteres_ES
dc.format.extent82 p.es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Nacional de Lojaes_ES
dc.rightsopenAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/ec/es_ES
dc.subjectGUANTE TRADUCTORes_ES
dc.subjectTECNOLOGÍAS ASISTIDASes_ES
dc.subjectMICROCONTROLADORes_ES
dc.subjectLENGUAJE DE SEÑASes_ES
dc.subjectAPRENDIZAJE MÁQUINAes_ES
dc.subjectFLUTTERes_ES
dc.titleDiseño e implementación de un guante traductor de señas para personas con discapacidad auditiva y/o verbal.es_ES
dc.typebachelorThesises_ES
Aparece en las colecciones: TRABAJOS DE TITULACION AEIRNNR

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
JosueElian_BetancourtOchoa.pdf39,61 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.