El reconocimiento automático de gestos humanos es un problema multidisciplinar complejo y no resuelto aún de forma completa. Desde la aparición de tecnologías de captura de video digital existen intentos de reconocer gestos dinámicos con diferentes fines. La incorporación de nuevas tecnologías como sensores de profundidad o cámaras de alta resolución, así como la mayor capacidad de procesamiento de los dispositivos actuales, permiten el desarrollo de nuevas tecnologías capaces de detectar diferentes movimientos y actuar en tiempo real. A diferencia del reconocimiento de la voz hablada, que lleva más de 40 años de investigación, esta temática es relativamente nueva en el ambiente científico, y evoluciona de forma acelerada a medida que aparecen nuevos dispositivos así como nuevos algoritmos de visión por computador.
La captura y reconocimiento de gestos dinámicos permite que sean utilizados en diversas áreas de aplicación como por ejemplo monitoreo de pacientes médicos, control en un entorno de videojuego, navegación y manipulación de entornos virtuales, traducción de léxicos de la lengua de señas, entre otras aplicaciones de interés. Particularmente la lengua de señas puede entenderse como un problema particular del reconocimiento de gestos dinámicos, el cual es sumamente apreciado en los últimos tiempos por distintas instituciones, ya que permite una ayuda directa a personas hipoacúsicas.
Para poder utilizar un sistema de reconocimiento automático de lengua de señas para traducir los gestos de un intérprete, es necesario afrontar una serie de diversas tareas. En primer lugar existen diferentes enfoques dependiendo el dispositivo de sensado a utilizar. Si bien existen dispositivos invasivos como guantes de datos, en esta Tesis se analizan sólo dispositivos no invasivos de dos tipos: las cámaras RGB convencionales, y las cámaras de profundidad (con particular interés en los nuevos dispositivos RGB-d). Una vez capturado el gesto se requiere de diversas etapas de pre-procesamiento para identificar regiones de interés como las manos y rostro del sujeto/intérprete, para luego identificar las diferentes trayectorias del gesto realizado. Además, particularmente para la lengua de señas existe una variabilidad enorme en las diferentes posturas o configuraciones que la mano puede tener, lo cual hace a esta disciplina una problemática particularmente compleja. Para afrontar esto es necesario una correcta generación de descriptores tanto estáticos como dinámicos. Este es uno de los ejes principales investigados en esta Tesis. Además, debido a que cada región presenta gramáticas de lenguaje específicas, se requiere la disposición de una base de datos de la Lengua de Señas Argentina (LSA), inexistente hasta el momento. En base a los motivos mencionados anteriormente, esta Tesis tiene como objetivo general desarrollar un proceso completo de interpretación y traducción de la Lengua de Señas Argentina a través de videos obtenidos con una cámara RGB.
En primer lugar se realizó un estudio del estado del arte en el reconocimiento de gestos. Se investigaron técnicas inteligentes para el procesamiento de imágenes y video así como los diferentes tipos de descriptores existentes en la actualidad. Como trabajo preliminar se desarrolló una estrategia capaz de procesar acciones humanas capturadas con un dispositivo MS Kinect. La estrategia desarrollada implementa una red neuronal SOM probabilística (ProbSOM) con un descriptor específicamente diseñado para retener información temporal. Este trabajo permitió superar los resultados existentes hasta el momento para dos bases de datos reconocidas.
En el campo de la lengua de señas se realizaron dos aportes principales. En primer lugar se desarrolló una base de datos específica para el reconocimiento de señas argentinas. Esto incluyó una base de datos de imágenes con 16 configuraciones de las más utilizadas en el lenguaje, junto con una base de datos de videos de alta resolución con 64 señas distintas, con un total de 3200 videos. Estas bases de datos se grabaron con 10 intérpretes diferentes y varias repeticiones, permitiendo así su uso con técnicas clásicas de aprendizaje automático. Además, en estas bases de datos los intérpretes utilizaron guantes de color, en forma de marcador. Esto se realizó con el fin de facilitar la tarea de segmentar las manos de las imágenes/videos y así poder avanzar con el resto de las etapas de clasificación. De este modo, se da la posibilidad a nuevos investigadores de evaluar otros algoritmos de reconocimiento sin la necesidad de preocuparse por esta etapa de segmentación.
En segundo lugar, se diseñaron e implementaron dos métodos de clasificación de señas, los cuales fueron evaluados satisfactoriamente en las bases de datos antes mencionadas. El primer método está dedicado a la clasificación de configuraciones de manos (gestos estáticos). Aquí se utilizó un agrupamiento probabilístico para clasificar correctamente las 16 configuraciones posibles de la base de datos, logrando un reconocedor simple y potente. El segundo modelo de clasificación permitió la clasificación de señas segmentadas en videos. Este último consta de un sistema probabilístico basado en la información capturada de las dos manos, donde para cada una se evalúan tres componentes principales: la posición, la configuración y el movimiento de las manos. Esta discriminación permitió tener un sistema modular, con diferentes sub-clasificadores capaces de intercambiarse y evaluarse de modo independiente. Para lograr obtener descriptores adecuados para estos subsistemas, es necesario realizar un procesamiento que involucra la correcta segmentación y seguimiento de las manos del intérprete, clasificación de las distintas configuraciones y una correcta representación de la información del movimiento.
Para evaluar los modelos desarrollados se realizaron diversas pruebas sobre las bases de datos desarrolladas. En primer lugar se realizaron pruebas de validación cruzada utilizando un porcentaje de las pruebas como entrenamiento y el resto para testeo. Adicionalmente se realizó también una evaluación de cuán robusto es el sistema al incorporar nuevos intérpretes, desconocidos hasta el momento. De este modo, 9 de los 10 individuos de la base de datos fueron utilizados como datos de entrada del sistema, evaluando con el individuo restante. Todos estos experimentos mostraron excelentes resultados, con una tasa de error menor al 5%. Por otro lado, para evaluar la eficacia del modelo implementado, se cambiaron algunos de los sub-clasificadores por técnicas más conocidas en la literatura como Modelos de Markov o Redes Neuronales FeedForward, mostrando solidez en las estrategias propuestas en esta Tesis.
Esta tesis presenta una nueva técnica de Minería de Datos capaz de construir, a partir de la información disponible, un conjunto de reglas de clasificación que posea tres características fundamentales: precisión aceptable, cardinalidad baja y simplicidad en la definición de las reglas. Esto último está dado por el uso de un número reducido de atributos en la construcción del antecedente. Esta característica, sumada a la baja cardinalidad del conjunto de reglas permite distinguir patrones sumamente útiles a la hora de comprender las relaciones entre los datos. Estas cualidades hacen que el modelo obtenido posea una gran capacidad descriptiva resultando sumamente útil para la toma de decisiones. El método propuesto ha sido aplicado sobre varios conjuntos de datos, tanto de repositorio como reales, demostrando que ambas características se verifican aunque en algunos casos su precisión sea ligeramente superada por otros métodos existentes. Esto tiene que ver con la presión realizada por mantener la simplicidad del modelo no permitiendo la generación de reglas con poca cobertura.
La calidad es una aspiración y al mismo tiempo una preocupación constante, más aún cuando de por medio se encuentra la procura de la satisfacción y la entrega de valor. Es una aspiración, un reconocimiento, un objetivo muy complejo y al mismo instante muy sencillo de cumplir. Pues, ¿A quién no le gusta que le cumplan los compromisos?. La calidad es un grado de excelencia, y lo excelente es eternamente nuevo. Para un gobierno corporativo, en sentido general, sus objetivos de calidad siempre estarán enfocados en alcanzar eficiencia y eficacia en todos sus niveles de administración y áreas funcionales. Lograr la calidad para un gobierno que se enfoca en las Tecnologías y los Sistemas de Información (TSI) es un reto, porque los líderes organizacionales cada vez más esperan que los líderes de TSI innoven y entreguen valor en toda la organización y, al mismo tiempo, apoyen con la operación al máximo nivel; es decir, buscando el balance perfecto. La calidad se ha constituido en una meta de muchos países. En Ecuador, la Constitución establece que la administración pública se rige por principios, entre otros: el de calidad. Esto involucra la participación conjunta de las personas que aseguren el accionar en el contexto organizacional. La calidad incide sobre las personas, las actividades, los procesos y los resultados; todo orientado hacia la excelencia. Tomando en cuenta que las TSI se han constituido en el aliado estratégico de las instituciones públicas, entonces es vital propiciar que el equipo que las gobierna actúe con calidad. Al respecto el estándar ISO/IEC 38500 de Gobierno de la Tecnología de la Información propone un conjunto de principios orientadores para los administradores de las organizaciones en cuanto al uso eficiente y eficaz de la tecnología en sus organizaciones, pero entendiéndose como un aporte a la mejora de la calidad. Por ello es oportuno identificar con adecuado criterio las relaciones entre estándares de gobierno y modelos de excelencia, los criterios y sub-criterios que derivarían y como formarían parte de un modelo de calidad. La presente tesis doctoral aborda la calidad como un medio de investigación en el contexto del Gobierno de Tecnologías y Sistemas de Información (GoTSI) basada en valor, desde un punto de vista específico y exhaustivo, con perspectiva de dirección estratégica organizacional. Este abordaje se siente corroborado por un estudio comparativo y una revisión sistemática de la literatura llevados a cabo al inicio de la investigación doctoral. Entonces se propone un Modelo de Calidad de GoTSI Basada en Valor, denominado por sus siglas en inglés VBISTGQM (Valued-Based Information System Technology Governance Quality Model). El modelo incluye contenidos de trabajos previos, del modelo iberoamericano de excelencia y el estándar ISO/IEC 38500. Este modelo puede ser utilizado como un instrumento de medición y valoración de uso flexible y adaptable a los nuevos criterios que emergen de la dinámica del entorno, de igual manera adaptable a cada organización de TSI. El modelo define seis criterios, nueve sub-criterios y treinta y cuatro dimensiones; estas se valoran mediante cinco componentes catalogados como evidencias en la era del conocimiento, los mismos que en su conjunto inciden en la toma de decisiones de un Gobierno de Valor de TSI. Luego, cada uno de los sub-criterios y criterios de evaluación son analizados mediante tres niveles jerárquicos ponderados que permiten cuantificar la medida de sub-criterio, criterio y del GoTSI. En líneas generales se acompaña al modelo varias fases para realizar la autoevaluación, en donde el producto final es un informe que reporta los aspectos fuertes y débiles, así como, los aspectos que necesitan mejorar. Para la operacionalización y afianzamiento del modelo, se llevaron a cabo varios análisis estadísticos que han permitido contrastar hipótesis, verificar errores y la consistencia de las respuestas que expresaron 62 líderes y directivos ecuatorianos con experiencia en el desarrollo de estrategias relacionadas con el uso de las TSI. Los resultados demuestran un modelo conceptual confiable. Finalmente, con diez supuestos participantes se presenta la funcionalidad del modelo de calidad.
Los procesadores multicore asimétricos o AMPs (AsymmetricMulticore Processors) constituyen una alternativa de bajo consumo energético a los procesadores multicore convencionales, que están formados por cores idénticos. Los AMPs integran cores rápidos y complejos de alto rendimiento, y cores más simples de bajo consumo, que ofrecen menores prestaciones. Investigaciones previas han demostrado que los AMPs ofrecen numerosos beneficios frente a los multicores convencionales, pero también plantean importantes desafíos para el software de sistema. Gran parte de las optimizaciones del software de sistema propuestas para AMPs se han realizado a nivel de sistema operativo (SO), principalmente mediante la inclusión de algoritmos de planificación conscientes de la asimetría en la plataforma. Una ventaja de esta aproximación es el hecho de que las aplicaciones no requieren modificaciones para explotar de forma efectiva los beneficios de los AMPs. La mayor parte de los algoritmos de planificación existentes para AMPs intentan optimizar el rendimiento global. Sin embargo, estos algoritmos degradan otros aspectos críticos como la justicia o la eficiencia energética de la plataforma. Además, dada su naturaleza, resulta complejo extender estas estrategias para soportar prioridades de usuario. El principal objetivo de esta tesis doctoral es superar estas limitaciones, mediante el diseño de estrategias de planificación más flexibles para AMPs. Asimismo, en esta tesis realizamos diversos estudios que muestran el impacto que la optimización de una métrica tiene en otras. Para mejorar el rendimiento global, la justicia o la eficiencia energética en AMPs, el planificador debe tener en cuenta el beneficio que cada aplicación alcanza al usar los distintos tipos de cores en un AMP. Se ha demostrado que no todos los hilos en ejecución de una carga de trabajo obtienen siempre el mismo beneficio relativo (speedup factor – SF) al usar un core de alto rendimiento frente a uno de bajo consumo. Tener en cuenta esta diversidad de SFs a la hora de distribuir los cores entre aplicaciones es clave para optimizar los distintos objetivos. Para esto, el SO debe determinar de forma efectiva el SF de cada hilo en tiempo de ejecución. Para hacer frente a este desafío, en esta tesis proponemos una metodología general para construir modelos de estimación de SF precisos basados en el uso de contadores hardware. La mayoría de los algoritmos de planificación existentes para AMPs, han sido evaluados empleando simuladores o plataformas asimétricas emuladas. Muchas de estas estrategias se han evaluado utilizando prototipos de planificadores en modo usuario. Por el contrario, en esta tesis doctoral, evaluamos los algoritmos propuestos en un entorno más realista: empleando implementaciones de los algoritmos en el kernel de SOs reales (OpenSolaris y GNU/Linux) y sobre hardwaremulticore asimétrico real.
Esta tesis presenta un estudio cuyo propósito fue determinar la influencia del uso de software de simulación en la enseñanza de conceptos y fundamentos sobre redes de computadoras, para un contexto específico, Universitario de Grado y Postgrado. El estudio fue del tipo cuantitativo, con diseño experimental con grupo de control. Se analizaron 23 experiencias docentes con un total de 330 alumnos a lo largo de cuatro años académicos. Las pruebas paramétricas permitieron concluir que, existe diferencia estadísticamente significativa a favor de los estudiantes que emplearon una estrategia basada en simulación.
Esta tesis analiza y propone un modelo orientado a la administración eficiente de recursos de un data center como resultado del alineamiento estratégico entre Negocio y Tecnología Informática (de ahora en más, TI), usando un modelo de alineación estratégica y metodologías de desarrollo ágiles, integrando desarrollo y despliegue1 (deployment) y soportado por buenas prácticas reconocidas internacionalmente. Con el objetivo de alinear las estrategias del Gobierno Corporativo, del Gobierno de negocio y el Gobierno de TI, se propone un marco conceptual desde el punto de vista heurístico concerniente a la alineación de los procesos Corporativos con TI, aplicando los principios de metodología Lean Startup y utilizando y modificando el Strategic Alignment Model (SAM) de Henderson y Venkatraman, para lograr una cadena de valor implementada mediante requerimientos y servicios (SAM-RS). La alineación estratégica corporativa se integra con el modelo colaborativo de DevOps, mediante la incorporación de herramientas al ciclo de vida DevOps, en base a los criterios de buenas prácticas ITIL de disponibilidad, monitoreo, integración continua y versionamiento de las aplicaciones. El aporte de este trabajo es la integración de gobierno y gestión, considerando mecanismos ágiles de desarrollo y despliegue de aplicaciones mediante un alineamiento estratégico. La adopción de buenas prácticas de reconocimiento internacional fortalece este alineamiento y posiciona a la organización que lo aplique en un lugar destacado hacia la eficiencia de la administración de sus recursos. Se plantean dos casos de estudio con el objetivo de visualizar la aplicación de los modelos propuestos. El caso de estudio 1, desde el ámbito de SAM-RS, se evidencia cómo un requerimiento corporativo se transforma en varios requerimientos de TI, y cómo los requerimientos de TI son desarrollados y desplegados al usuario, logrando obtener resultados de acuerdo al marco de los objetivos estratégicos. En el caso de estudio 2 se aplican las herramientas DevOps de configuración y monitoreo para detectar fallos y restaurar servicios de manera automática en aplicaciones del usuario, con la finalidad de demostrar cómo se logra el alineamiento directo entre la organización y los servicios de software de TI en el marco de las buenas prácticas de disponibilidad.