Las Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. Son modelos generales y aproximadores universales. Con algoritmos de optimización basados en descenso de gradiente, pueden optimizar miles o millones de parámetros en base a una función de error. Se distinguen de otros modelos en que no requieren un diseño manual de características de los datos para funcionar; las características se aprenden automáticamente mediante el proceso de optimización, también llamado entrenamiento. Su diseño se organiza en capas que determinan su arquitectura. En los últimos años, se ha conseguido entrenar Redes Neuronales con múltiples capas mediante un conjunto de técnicas que suelen denominarse Aprendizaje Profundo (Deep Learning).
En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora, incluyendo la clasificación de imágenes.
Las capas convolucionales permiten aplicar convoluciones con filtros aprendidos para un mejor desempeño y eficiencia.
Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil.
Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la invarianza o equivarianza.
Dotar con invarianza o equivarianza a los modelos tiene utilidades en varios dominios, como la clasificación de imágenes de galaxias, imágenes de microscopios o formas de mano. En particular, el reconocimiento de formas de mano en imágenes es una de las etapas más importantes de los sistemas de reconocimiento de lenguas de señas o gestos mediante imágenes o video. En muchos casos, la rotación, traslación o escalado de la mano en la imagen no afectan a su forma, y por ende se requiere dotar de invarianza a la red para mejorar el desempeño del sistema.
No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin.
En el primer aporte de esta tesis, analizamos diversas estrategias para obtener invarianza o equivarianza en modelos de clasificación de imágenes con redes neuronales. Comparamos los modelos tradicionales AllConvolutional y LeNet, y los modelos especializados Group CNN y Spatial Tansformer Networks para determinar su desempeño. Realizamos experimentos con varios conjuntos de datos conocidos (MNIST y CIFAR10) utilizando aumentación de datos.
Los resultados arrojan evidencia en favor de la hipótesis de que aún con ingeniosas modificaciones de las redes convolucionales, la aumentación de datos sigue siendo necesaria para obtener un desempeño similar al de los modelos no invariantes. Más aún, en varios casos la aumentación de datos por si sola puede proveer un desempeño similar al de los modelos especializados, siendo al mismo tiempo más simples de entrenar y comprender.
Además, analizamos cómo re-entrenar una red previamente generada para convertirla en invariante, y encontramos que el entrenamiento de las últimas capas permite convertir un modelo no invariante en uno que si lo sea con un bajo costo computacional y leve pérdida de desempeño.
Si bien estos mecanismos permiten imbuir de invarianza o equivarianza una red, la forma en que la misma codifica o representa dichas propiedades no están claros. La comprensión de la invarianza o equivarianza de una red o cualquier sistema puede ayudar a mejorar su desempeño y robustez. Estas propiedades pueden estimarse midiendo los cambios en las salidas de la red en base a las transformaciones realizadas a su entrada.
Las metodologías actuales de evaluación y comprensión de la invarianza y equivarianza se enfocan solamente en las capas de salida de la red. No obstante, para poder comprender como se codifican, el análisis debe realizarse en base a toda la red, es decir, considerando las representaciones intermedias.
En el segundo y principal aporte de esta tesis, por ende, desarrollamos métricas para medir la invarianza y equivarianza de las redes. Dichas métricas permiten cuantificar estas propiedades de forma empírica no solo en la salida de la red sino también en sus representaciones internas. De esta forma, podemos visualizar y cuantificar que tan invariante o equivariante es una red, ya sea en su totalidad, por capas, o por activaciones individuales. Las métricas son aplicables a cualquier red neuronal, sin importar su diseño o arquitectura, así como a cualquier conjunto de transformaciones. Realizamos una implementación de las métricas en una librería de código abierto, con soporte para la librería tensorial PyTorch. Las métricas fueron validadas para verificar su correcto funcionamiento y utilidad. Además, estudiamos sus propiedades, como la variabilidad ante los conjuntos de datos, transformaciones, inicialización de los pesos, y otras.
Utilizando las métricas, también se evaluamos modelos de redes neuronales convolucionales conocidos para caracterizarlos en términos de su invarianza o equivarianza. Asimismo, caracterizamos diversos tipos de capas como las de Batch Normalization, Max Pooling, diversas funciones de activación, capas convolucionales con distintos tamaños de filtro, y otros. Los resultados otorgan una primera mirada de los modelos de redes en términos de estas propiedades, y esperamos que puedan fomentar un mejora en ese área.
Por último, hacemos un tercer aporte al reconocimiento automático de lengua señas basado en video. El reconocimiento de señas es un subárea del reconocimiento de gestos o acciones. Tiene como objetivo traducir al lenguaje escrito un video en donde una persona se comunica mediante lengua de señas. Desde la aparición de tecnologías de captura de video digital existen intentos de reconocer gestos y señas con diferentes fines. Es un problema multidisciplinar complejo y no resuelto aún de forma completa.
Un paso fundamental en el reconocimiento de señas es la clasificación de formas de mano, ya que estas conllevan una gran parte de la información de una seña. El motivante principal de las interrogantes planteadas sobre modelos de invarianza y equivarianza surge a partir del estudio de técnicas de clasificación de formas de mano.
Si bien las redes convolucionales proveen un desempeño ejemplar en varios dominios, su desempeño para la clasificación de formas de mano no ha sido evaluado rigurosamente. Por ende evaluamos diversos modelos de redes neuronales para determinar su aplicabilidad en este dominio.
Utilizando los conjuntos de datos de formas de mano LSA16 y RWTH-PHOENIX-Weather, realizamos experimentos con los modelos LeNet, VGG16D, ResNet, Inception y AllConvolutional para determinar su eficacia como clasificadores en este dominio. Los resultados indican que todos los modelos tienen un desempeño razonable en ambos conjuntos de datos, con resultados iguales o mejores que otros modelos diseñados específicamente para la tarea. No obstante, el modelo VGG16D obtuvo los mejores resultados. Incluimos también evaluaciones de transferencia de aprendizaje, con y sin re-entrenamiento de las capas; en ambos casos dichas estrategias obtuvieron un desempeño peor que los modelos entrenados sin transferencia de aprendizaje. Además, realizamos un estudio de varias estrategias de pre-procesamiento de las imágenes, encontrando que la segmentación de las manos del fondo otorga un incremento de desempeño significativo. Por último, también desarrollamos una librería de código abierto para facilitar el acceso y preprocesamiento de bases de datos de formas de manos.
El manejo de fallos es una preocupación creciente en el contexto del HPC; en el futuro, se esperan mayores variedades y tasas de errores, intervalos de detección más largos y fallos silenciosos. Se proyecta que, en los próximos sistemas de exa-escala, los errores ocurran incluso varias veces al día y se propaguen en grandes aplicaciones paralelas, generando desde caídas de procesos hasta corrupciones de resultados debidas a fallos no detectados.
En este trabajo se propone SEDAR, una metodología que mejora la fiabilidad, frente a los fallos transitorios, de un sistema que ejecuta aplicaciones paralelas de paso de mensajes.
La solución diseñada, basada en replicación de procesos para la detección, combinada con diferentes niveles de checkpointing (checkpoints de nivel de sistema o de nivel de aplicación) para recuperar automáticamente, tiene el objetivo de ayudar a los usuarios de aplicaciones científicas a obtener ejecuciones confiables con resultados correctos. La detección se logra replicando internamente cada proceso de la aplicación en threads y monitorizando los contenidos de los mensajes entre los threads antes de enviar a otro proceso; además, los resultados finales se validan para prevenir la corrupción del cómputo local. Esta estrategia permite relanzar la ejecución desde el comienzo ni bien se produce la detección, sin esperar innecesariamente hasta la conclusión incorrecta. Para la recuperación, se utilizan checkpoints de nivel de sistema, pero debido a que no existe garantía de que un checkpoint particular no contenga errores silenciosos latentes, se requiere el almacenamiento y mantenimiento de múltiples checkpoints, y se implementa un mecanismo para reintentar recuperaciones sucesivas desde checkpoints previos si el mismo error se detecta nuevamente. La última opción es utilizar un único checkpoint de capa de aplicación, que puede ser verificado para asegurar su validez como punto de recuperación seguro. En consecuencia, SEDAR se estructura en tres niveles: (1) sólo detección y parada segura con notificación al usuario; (2) recuperación basada en una cadena de checkpoints de nivel de sistema; y (3) recuperación basada en un único checkpoint válido de capa de aplicación. Cada una de estas variantes brinda una cobertura particular, pero tiene limitaciones inherentes y costos propios de implementación; la posibilidad de elegir entre ellos provee flexibilidad para adaptar la relación costo-beneficio a las necesidades de un sistema particular. Se presenta una descripción completa de la metodología, su comportamiento en presencia de fallos y los overheads temporales de emplear cada una de las alternativas. Se describe un modelo que considera varios escenarios de fallos y sus efectos predecibles sobre una aplicación de prueba para realizar una verificación funcional.
Además, se lleva a cabo una validación experimental sobre una implementación real de la herramienta SEDAR, utilizando diferentes benchmarks con patrones de comunicación disímiles. El comportamiento en presencia de fallos, inyectados controladamente en distintos momentos de la ejecución, permite evaluar el desempeño y caracterizar el overhead asociado a su utilización. Tomando en cuenta esto, también se establecen las condiciones bajo las cuales vale la pena comenzar con la protección y almacenar varios checkpoints para recuperar, en lugar de simplemente detectar, detener la ejecución y relanzar. Las posibilidades de configurar el modo de uso, adaptándolo a los requerimientos de cobertura y máximo overhead permitido de un sistema particular, muestran que SEDAR es una metodología eficaz y viable para la tolerancia a fallos transitorios en entornos de HPC.
Tesisi completa
La Interacción Tangible, particularmente sobre tabletops, muestra un gran potencial en el ámbito educativo. Sus principales beneficios se encuentran relacionados con la motivación, el disfrute, el aprendizaje, el involucramiento, la tangibilidad, la multimodalidad y la posibilidad de realizar y enriquecer tareas colaborativas. Desde sus inicios se han realizado numerosas experiencias que muestran buenos resultados en diversos dominios. Los desafíos que se enfrentan al momento de crear aplicaciones basadas en IT son varios. La participación de expertos no técnicos en el desarrollo de este tipo de aplicaciones, ha ido aumentando en los últimos años. Es así, que han comenzado a gestarse herramientas que facilitan el proceso de creación de actividades basadas en IT para usuarios sin conocimientos en programación, de manera tal de que puedan tomar decisiones de diseño vinculadas a las interacciones entre objetos físicos e información digital. Estas herramientas varían en sus objetivos, en el grupo destinatario y en las posibilidades que ofrece cada una. Este escenario a dado pie a una de las motivaciones principales de este trabajo. Así, esta tesis se enfoca en el área de la Interacción Tangible aplicada al escenario educativo, y en particular en poder acercar estas tecnologías a los docentes para el diseño de actividades educativas basadas en IT. La tesis inicia su recorrido echando luz sobre marcos conceptuales relacionados con la IT, y para eso se analizan 20 marcos presentados en la literatura, de los cuales 6 se orientan a dar guías y fundamentaciones para la integración de la IT en el ámbito educativo. Al mismo tiempo, se ha elaborado un estado del arte siguiendo una metodología de revisión sistemática de la literatura, en el que se analizan 63 experiencias educativas basadas en IT, en particular sobre tabletops, que se vienen desarrollando en los últimos 10 años. Esto ha permitido conocer los principales dominios de aplicación de la IT, los tipos de tecnologías subyacentes, las principa- les motivaciones de su uso y los beneficios encontrados. También siguiendo un protocolo de revisión sistemática, se estudiaron herramientas orien- tadas a crear aplicaciones IT por parte de docentes, terapeutas y otros profesionales no informáticos. Se analizó un total de 7 herramientas que fueron comparadas según diferentes criterios, referenciados en el marco de la tesis. El principal aporte de este trabajo, se concentra en acercar la interacción tangible al ámbito educativo. Para ello, se creó una herramienta de autor, que se ha llamado EDIT por su acrónimo EDitor para aplicaciones educativas basadas en IT, cuyo objetivo es permitir la creación de aplicaciones IT sin requerir conocimientos en programación. El diseño de EDIT se fundamenta a partir del recorrido previo realizado en la tesis. Considera tanto los marcos conceptuales indagados, como aspectos no atendidos por las herramientas de creación de contenidos de IT existentes. Otro aporte de importancia ha sido el proceso de validación de la herramienta, a través de un estudio de caso, ya que ha permitido acercar la IT a los docentes. Se llevaron a cabo sesiones con 38 docentes de distintos niveles educativos. Durante las sesiones, estos interactuaron con aplicaciones IT y desarrollaron una propia, utilizando EDIT. En el estudio de caso, se propuso conocer la aceptación de EDIT por parte de los docentes, y sus opiniones, percepciones y reflexiones acerca de la IT y sus posibilidades para sus contextos educativos. Los instrumentos de recogida de datos y la metodología aplicada en las sesiones se basan en los estudios previos analizados, pero se adaptan según los objetivos de esta tesis. Los resultados alcanzados durante el estudio de caso permiten afirmar que EDIT presenta una alta aceptación por parte de los docentes participantes. Al mismo tiempo, todos los participantes han logrado crear sus aplicaciones basadas en IT, y han dado opiniones positivas tanto sobre EDIT como de las posibilidades de la IT en sus ámbitos de trabajo. Al mismo tiempo, se encontraron aspectos de mejora y algunas percepciones que pueden resultar en barreras para su incorporación en los contextos áulicos. Finalmente, esta tesis ha logrado alcanzar todos los objetivos que se propusieron al inicio, y abre la puerta hacia un conjunto de líneas de trabajo futuro, entre las que se mencionan: atender las sugerencias de mejoras por parte de los docentes, integrar nuevas plantillas para crear otros tipos de actividades con EDIT, desarrollar un entorno donde los docentes puedan compartir sus aplicaciones IT, y así fomentar la colaboración. Por último, dejar disponible EDIT y su código y continuar con las acciones de transferencias de estas tecnologías a partir de talleres con docentes y en sus contextos educativos.
El aporte central de esta tesis es la definición de un nuevo método capaz de generar un conjunto de reglas de clasificación difusas de fácil interpretación, baja cardinalidad y una buena precisión. Estas características ayudan a identificar y comprender las relaciones presentes en los datos facilitando de esta forma la toma de decisiones.
El nuevo método propuesto se denomina FRvarPSO (Fuzzy Rules variable Particle Swarm Oprmization) y combina una red neuronal competitiva con una técnica de optimización basada en cúmulo de partículas de población variable para la obtención de reglas de clasificación difusas, capaces de operar sobre atributos nominales y numéricos. Los antecedentes de las reglas están formados por atributos nominales y/o condiciones difusas. La conformación de estas últimas requiere conocer el grado de pertenencia a los conjuntos difusos que definen a cada variable lingüística. Esta tesis propone tres alternativas distintas para resolver este punto.
Uno de los aportes de esta tesis radica en la definición de la función de aptitud o fitness de cada partícula basada en un ”Criterio de Votación” que pondera de manera difusa la participación de las condiciones difusas en la conformación del antecedente. Su valor se obtiene a partir de los grados de pertenencia de los ejemplos que cumplen con la regla y se utiliza para reforzar el movimiento de la partícula en la dirección donde se encuentra el valor más alto. Con la utilización de PSO las partículas compiten entre ellas para encontrar a la mejor regla de la clase seleccionada.
La medición se realizó sobre doce bases de datos del repositorio UCI (Machine Learning Repository) y tres casos reales en el área de crédito del Sistema Financiero del Ecuador asociadas al riesgo crediticio considerando un conjunto de variables micro y macroeconómicas.
Otro de los aportes de esta tesis fue haber realizado una consideración especial en la morosidad del cliente teniendo en cuenta los días de vencimiento de la cartera otorgada; esto fue posible debido a que se tenía información del cliente en un horizonte de tiempo, una vez que el crédito se había concedido
Se verificó que con este análisis las reglas difusas obtenidas a través de FRvarPSO permiten que el oficial de crédito de respuesta al cliente en menor tiempo, y principalmente disminuya el riesgo que representa el otorgamiento de crédito para las instituciones financieras. Lo anterior fue posible, debido a que al aplicar una regla difusa se toma el menor grado de pertenencia promedio de las condiciones difusas que forman el antecedente de la regla, con lo que se tiene una métrica proporcional al riesgo de su aplicación
Las zonas rurales aisladas de Argentina se caracterizan, entre otros aspectos, por su baja densidad demográfica, población dispersa, cobertura de red celular limitada y carencia de servicios básicos entre los cuales el de distribución de energía eléctrica. Los habitantes de estos lugares utilizan energías alternativas, como paneles solares y grupos electrógenos, para cubrir necesidades energéticas elementales. En estas regiones las posibilidades de acceso a la información digital son prácticamente inexistentes debido a que es muy difícil suministrar energía eléctrica a los equipos computacionales. Sin embargo, los dispositivos móviles se constituyen en una alternativa viable, debido a su bajo consumo energético en comparación a las computadoras convencionales. Se presenta una investigación sobre el consumo de energía de los dispositivos móviles en zonas aisladas y diferentes mecanismos para reducir el consumo energético y optimizar el uso de la energía disponible. El trabajo experimental se realizó en comunidades educativas rurales aisladas del Noroeste Argentino (NOA), con la participación de maestros y alumnos de diferentes grados. Se desarrollaron dos modelos para aplicar en zonas rurales aisladas, el primero estima la energía requerida para ejecutar tareas de uso frecuente y el segundo determina la energía disponible por hora. Para automatizar y facilitar el uso de ambos modelos, se construyó un prototipo que mide la energía disponible y se desarrolló una aplicación móvil que se comunica con el prototipo, lee los valores de las mediciones, aplica el modelo y presenta las estimaciones. Como parte de la investigación, se efectuó una revisión bibliográfica de las principales temáticas abordadas, a partir de la cual se elaboró el marco teórico de la tesis incorporando características tecnológicas que fueron fundamentales para realizar el trabajo experimental. Los resultados de la investigación se aplicaron exitosamente en un caso de estudio desarrollado en una escuela rural aislada de la Provincia de Salta. Se realizó una experiencia educativa mediada por dispositivos móviles, utilizando paneles solares fotovoltaicos portátiles para suministrar energía a los dispositivos móviles. La experiencia se planificó en función de los requerimientos energéticos de los dispositivos y de la energía solar disponible en la zona, utilizando el prototipo y la aplicación móvil para efectuar las estimaciones. Se destacan la motivación, el entusiasmo por participar y la buena recepción de la tecnología por parte de docentes y alumnos. La discusión aborda diversos hallazgos y problemáticas que surgieron durante el desarrollo del trabajo experimental y caso de estudio. Se concluye que la reducción y optimización del consumo energético en dispositivos móviles posibilitan su utilización en zonas rurales aisladas aprovechando el principal recurso energético disponible (La Energía Solar), proporcionando a los pobladores de estas zonas acceso a las tecnologías de la información y comunicación.
En la actualidad, una condición imperante para el crecimiento de la industria del software es que las empresas ofrezcan productos de mayor calidad, que satisfaga las demandas y exigencias del cliente, pero sobre todo que genere confianza al momento de su uso.
Por ello, las empresas de la Industria del Software tienen el desafío de desarrollar estrategias con el objetivo de incrementar la calidad y capacidad de sus procesos y, en consecuencia, la calidad de sus productos y servicios.
Este proceso de mejora involucra, por un lado, la adopción de un modelo de calidad adecuado a las características de la empresa, que favorezca la medición y seguimiento de diversos aspectos relacionados al proceso de desarrollo de software.
Y, por otro lado, relacionado a lo anterior, resulta necesario automatizar la gestión de elementos del ciclo de desarrollo de software, de forma tal de promover la reducción de costos y la eficiencia en los procesos de obtención de productos finales. En este caso, la filosofía ágil resulta ser el enfoque más adecuado para los entornos de desarrollo actuales, y se posicionan como alternativa a los procesos de desarrollo con alto costo en documentación y procesos excesivamente prolongados.
La presente tesis doctoral presenta, AQF (Agile Quality Framework) un framework cuya propuesta integra el diseño y desarrollo de un modelo que permita evaluar la calidad en procesos ágiles de software, y una plataforma que permitirá el seguimiento de proyectos de software ágiles junto a la evaluación sistemática de calidad del proceso de desarrollo.
Se pretenden unir esfuerzos con esta iniciativa y motivar a la comunidad académica a trabajar en calidad con las empresas desarrolladoras de software para mejorar la competitividad y la calidad global de esta industria a partir de un framework que se adecúe a sus realidades y les permita mejorar sus procesos fácilmente.
Hace ya más de dos décadas, se registra un esfuerzo sostenido en el tiempo por definir un modelo de proceso que guíe el desarrollo de proyectos de Ingeniería de Explotación de Información. Sin embargo, las propuestas existentes presentan una visión parcial e incompleta, conduciendo a una tasa de fracaso cercana al 60% [Gondar, 2005; Marbán et al., 2009], a partir de lo cual los siguientes autores [Kurgan y Musilek, 2006; Mariscal et al., 2010; Kdnuggets, 2014] señalan la necesidad de definir un modelo de proceso que resuelva las limitaciones existentes. En este contexto, la presente investigación tiene como objetivo desarrollar un modelo de proceso integral, el cual presente una visión unificada, integrando los procesos orientados al producto y a la gestión, completa y detallada, describiendo las actividades involucradas y sus dependencias. Como resultado del trabajo, se propone MoProPEI, un modelo de proceso integrado por los subprocesos de Desarrollo y Gestión, y descompuesto en un mayor grado de detalle en fases y actividades, para las cuales se propone el uso de distintas técnicas y procedimiento que describen las tareas a realizar. La correcta integración de la propuesta fue verificada a partir de su aplicación en tres proyectos pertenecientes a las áreas de educación, salud y análisis web. Las características estáticas fueron evaluadas mediante el marco comparativo de metodologías para proyectos de explotación de información [Moine, 2013]. Finalmente, se implementa la validación mediante un experimento controlado, replicando el único experimento reproducible identificado en la disciplina [Sharma, 2008]. De los resultados derivados de las estrategias de evaluación utilizadas, se observa que MoProPEI presenta una diferencia significativa con respecto a las propuestas antecesoras.
La Realidad Aumentada (RA) consiste en la creación de un entorno en el que la información y los objetos virtuales se fusionan con la realidad, ofreciendo al usuario una experiencia enriquecida sin interferir con su percepción natural. Esta tesis se centra en la integración de dos tipos particulares de aumentación de la realidad: la basada en imágenes arbitrarias y la basada en rostros humanos, e incluyendo en esta última el reconocimiento facial de individuos y la estimación de parámetros biométricos. Se persigue por una parte la escalabilidad, en el sentido de no tener una limitación en la cantidad de objetivos de aumentación (imágenes o rostros) almacenados en una base de datos, y por otra parte, la independencia de servicios externos en línea a la hora de la explotación.
Se propone utilizar descriptores de rostros con ciertas similitudes morfológicas a otros populares descriptores de imágenes. Esta similitud permite tratarlos como un mismo problema. Dado que el cuello de botella identificado en el proceso de RA es la búsqueda de correspondencias, es decir la búsqueda de una imagen o rostro en la base de datos, se propone obtener escalabilidad mediante el uso de algoritmos avanzados de búsqueda aproximada de vecinos más cercanos o ANN. Se realizan estudios cuantitativos de desempeño de diversas implementaciones de algoritmos ANN utilizando un nuevo esquema de evaluación. Como resultado se establece a HNSW como el algoritmo más apropiado para la tarea.
Se consigue diseñar, implementar y evaluar una arquitectura integrada y escalable de RA basada en imágenes y reconocimiento de rostros con inferencia biométrica, basada en procesamiento paralelo y asíncrono.