Por favor, use este identificador para citar o enlazar este ítem:
https://dspace.unl.edu.ec/jspui/handle/123456789/21989
Título : | Aplicación móvil para el prototipado de interfaz gráfica de usuario en la plataforma android mediante el reconocimiento de bocetos utilizando visión artificial. |
Autor : | Coronel Romero, Edison Leonardo Aguilar Espinoza, José Luis |
Palabras clave : | <APLICACIÓN MÓVIL><INTERFAZ GRÁFICA><PROTOTIPO DE INTERFAZ GRÁFICA><ANDROID><VISIÓN ARTIFICIAL> |
Fecha de publicación : | 27-jun-2019 |
Editorial : | Loja: Universidad Nacional de Loja |
Resumen : | Los desarrolladores novatos o iniciales de aplicaciones móviles, afrontan la creación de prototipos de interfaz gráfica de usuario en sus proyectos. Para ejecutar este proceso, se ven obligados a la búsqueda y capacitación de herramientas que están dirigidas a profesionales del Diseño Gráfico; desviando el tiempo destinado para el análisis y desarrollo de Software. El objetivo de este estudio es determinar si la visión artificial facilita la creación de prototipos de interfaz gráfica de usuario, a través de una aplicación, la cual se compone de un servidor de aprendizaje profundo (Machine Learning - Engine), un servidor de base de datos y funciones en la nube (Firebase) y una aplicación móvil para teléfonos inteligentes con sistema operativo Android. Dicha aplicación permite capturar una foto a un boceto dibujado por el usuario; luego es enviada al servidor de aprendizaje profundo para detectar los posibles componentes que hayan sido dibujados. Según el resultado, es generado el prototipo de interfaz gráfica en la ubicación y clase detectada por la visión artificial, para luego ser gestionado con las opciones disponibles dentro de la aplicación móvil. Para la visión artificial se utilizó un modelo pre-entrenado de red neuronal convolucional Faster R-CNN, entrenado y evaluado con la librería TensorFlow y desplegado en los servidores IBM Power AI Vision y Machine Learning - Engine. Para el entrenamiento se utilizó un conjunto de trazos a mano recolectados a 19 estudiantes, las cuales fueron tratados mediante técnicas de distorsión utilizando OpenCV, con el fin de aumentar los datos a un total de 862 imágenes, y de esta manera mejorar la calidad de detección del modelo. Finalmente se desarrolló un escenario de prueba con 19 estudiantes de la Universidad Nacional de Loja de la Carrera de Ingeniería en Sistemas, en donde el 95% afirmó positivamente el funcionamiento y objetivo de la aplicación, validando el correcto funcionamiento del sistema y del presente trabajo de titulación; sin embargo, la aplicación puede ser mejorada aumentando la cantidad y calidad de imágenes en el conjunto de datos, y añadiendo nuevos componentes gráficos de la guía Material Design para Android; de esta forma se mejoraría la calidad de detección y diversidad de componentes por parte del modelo de visión artificial. |
Descripción : | Amateur or beginner developers of mobile applications face the creation of prototypes of graphical user interface in their projects. In order to run this process, they are forced to search and get training about the tools that are aimed to Graphic Design professionals; distracting the time allocated for the analysis and development of Software. The objective of this study is to determine whether artificial vision facilitates the creation of prototypes of graphical user interface, through an application, which is composed of a deep learning server (Machine Learning - Engine), a database server and functions on the cloud (Firebase) and a mobile app for smartphones with Android operating system. Such application allows to capture a photo of a sketch drawn by the user; then, it is sent to the deep learning server to detect the possible components that have been drawn. Depending on the result, it is generated the graphical interface prototype at the location and type detected by the artificial vision; then, it will be managed with the available options within the mobile app. For the artificial vision it was used a pre-trained model of convolutional neural network Faster R-CNN, trained and evaluated with TensorFlow library and deployed on IBM Power AI Vision and Machine Learning - Engine servers. For the training, a set of hand strokes collected from 19 students was used, which were treated using distortion techniques using OpenCV, in order to increase the data to a total of 862 images, and thus improve the detection quality of the model. Finally, a test scenario was developed with 19 students from the Universidad Nacional de Loja of the System Engineering Career, where 95% positively affirmed the operation and purpose of the application, validating the correct running of the system and of this degree work; however, the application can be improved by increasing the quantity and quality of images in the data set, and adding new graphic components to the Design Material guide for Android; this would improve the quality of detection and diversity of components by the artificial vision model. |
URI : | http://dspace.unl.edu.ec/jspui/handle/123456789/21989 |
Aparece en las colecciones: | TRABAJOS DE TITULACION AEIRNNR |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
Aguilar Espinoza, José Luis.pdf | 4,35 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.