Por favor, use este identificador para citar o enlazar este ítem:
https://dspace.unl.edu.ec/jspui/handle/123456789/31512
Título : | Diseño e implementación de un guante traductor de señas para personas con discapacidad auditiva y/o verbal. |
Autor : | Valdiviezo Condolo, Marcelo Fernando Betancourt Ochoa, Josué Elian |
Palabras clave : | GUANTE TRADUCTOR TECNOLOGÍAS ASISTIDAS MICROCONTROLADOR LENGUAJE DE SEÑAS APRENDIZAJE MÁQUINA FLUTTER |
Fecha de publicación : | 21-nov-2024 |
Editorial : | Universidad Nacional de Loja |
Resumen : | La comunicación basada en gestos es crucial para personas con discapacidades auditivas o del habla. Sin embargo, los sistemas actuales suelen ser costosos o difíciles de usar. Este proyecto se centró en el desarrollo de una aplicación móvil para la interpretación de gestos utilizando una red neuronal densa. El sistema incluye un circuito diseñado para capturar las señales de la mano del usuario mediante sensores flexibles y un MPU6050, enviando la información percibida a una base de datos en Firebase para ser procesados en una aplicación programada en Flutter. La aplicación móvil fue desarrollada con lenguaje Dart, la cual ha permitido incorporar funcionalidades principales: visualización de gestos en letras, pronunciación de los caracteres interpretados y enseñanza de gestos a través de imágenes y videos en plataformas como YouTube. Los resultados indican una precisión del 66% en la interpretación de gestos globales del modelo entrenado, la cual puede mejorar modificando ciertos parámetros del entrenamiento y ampliando la base de datos de cada clase de gestos. Palabras clave: Guante traductor; Tecnologías Asistidas; Microcontrolador; Lenguaje de señas; Aprendizaje máquina; Flutter |
Descripción : | Gesture-based communication is crucial for people with hearing or speech disabilities. However, at the present time systems are often expensive or difficult to use. This project is focused on the development of a mobile application for gesture interpretation using a dense neural network. The system includes a circuit designed to capture the user's hand signals using flexible sensors and an MPU6050, sending the perceived information to a database in Firebase to be processed in an application programmed in Flutter. The mobile application was developed with Dart language, which has allowed the incorporation of main functionalities: visualization of gestures in letters, pronunciation of the interpreted characters and, teaching of gestures through images and videos on platforms such as YouTube. The results indicate a sixty six percent accuracy in the interpretation of global gestures of the trained model, which can be improved by modifying certain training parameters and expanding the database of each class of gestures. Key words: Translator glove; Assisted Technologies; Microcontroller; Sign language; Machine learning; Flutter |
URI : | https://dspace.unl.edu.ec/jspui/handle/123456789/31512 |
Aparece en las colecciones: | TRABAJOS DE TITULACION AEIRNNR |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
JosueElian_BetancourtOchoa.pdf | 39,61 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.