En este trabajo se desarrollan-en orden-los fundamentos de la Física Cuántica, y de la Computación Cuántica, una noción completa de las arquitecturas multicapa tolerante a fallos para la implementación física de una computadora cuántica, para completar los primeros cuatro capítulos con las técnicas propias para la simulación de este nuevo paradigma sobre placas multicore del tipo General-Purpose Computing on Graphics Processing Units (GPGPU). La segunda parte de este trabajo consiste en los tres capítulos inmediatamente siguientes, los cuales suman 10 innovaciones en este campo, a saber: 1. el Proceso de Ortogonalización Booleano (POB) con su inversa, 2. el Proceso de Ortogonalización de Gram-Schmidt Mejorado (POGSMe) con su inversa, 3. el Proceso de Ortogonalización Cuántico (POCu) con su inversa, 4. la Red Ortogonalizadora Booleana Sistólica (ROBS), 5. la Red Ortogonalizadora Cuántica Sistólica (ROCS), y 6. una métrica que llamamos Tasa Dimensional de Entrada-Salida (TDES) la cual fue creada para monitorear el impacto del mejorador para la estabilidad del Proceso Ortogonalizador de Gram-Schmidt en el costo computacional final. 7. una versión mejorada de las ya conocidas Memorias Matriciales Correlacionadas Booleanas (MMCB), es decir, la MMCB mejorada (MMCBMe) en base al innovador Proceso de Ortonormalización Booleano (POB) del Capítulo 5, 8. la Memoria Matricial Correlacionada Cuántica (MMCCu), y 9. la MMCCu Mejorada (MMCCuMe) en base al Proceso de Ortogonalización Cuántico (POCu) implementado en forma sistólica y conocida como la Red Ortogonalizadora Cuántica Sistólica (ROCS) del Capítulo 5.10. el Capítulo 7, el cual contiene las simulaciones computacionales, las cuales verifican fehacientemente la mejora en la performance de almacenamiento como resultado de aplicar el POCu a las MMCCu, así como una serie de simulaciones relativas a arreglos uni, bi y tridimensionales, los cuales representan señales, imágenes (multimediales, documentales, satelitales, biométricas, etc.) y video o bien imágenes multi e hiper-espectrales satelitales, tomografías o resonancias magnéticas seriadas, respectivamente. Dichas simulaciones tienen por objeto verificar los atributos de ortogonalización de los algoritmos desarrollados. Dado que es la primera vez que en la literatura se realizan este tipo de simulaciones en GPGPU para esta tecnología, el Capítulo 7 representa en si mismo el décimo aporte del presente trabajo a esta área del conocimiento. Un último capítulo reservado a conclusiones parciales por capítulo y generales del trabajo como un todo.
La Web Social y la Web Semántica han impactado en la forma en que la creación de conocimiento se ha llevado a cabo en la Web. La Web Social promociona la participación de los usuarios para crear y editar contenido y conocimiento en la Web. La proliferación de contenido y la necesidad de tener una administración automatizada de esta información disparó la aparición de la Web Semántica. Actualmente, la Web Social y la Web Semántica conviven y comparten un mismo tema: un mejor manejo del conocimiento. Sin embargo, la mayoría de la información en la Web Social no es parte de la Web Semántica, y la información de la Web Semántica no es utilizada para mejorar a la Web Social. Esta tesis presenta un enfoque innovador para estimular una co-evolución entre la Web Semántica y la Web Social: las fuerzas que impulsan la Web Social y las herramientas que llevan a cabo la Web Semántica trabajando en conjunto con el fin de tener beneficios mutuos. En este trabajo afirmamos que la co-evolución entre la Web Social y la Web Semántica mejorará la generación de información semántica en la Web Semántica, y mejorará la producción de conocimiento en la Web Social. Esto invita a responder las siguientes preguntas: ¿Cómo puede incluirse la generación de datos semánticos en las actividades de los usuarios de la Web Social? ¿Como puede definirse la semántica de un recurso web en un entorno social? ¿Cómo puede inyectarse en la Web Social las nuevas piezas de información extraídas de la Web Semántica? ¿Poseen las comunidades de la Web Social convenciones generales que deban ser respetadas? Con el fin de mejorar la Web Semántica con las fuerzas de la Web Social, en este trabajo se proponen dos enfoques de Social Semantic Tagging: P-Swooki que permite a usuarios de una wiki semántica gestionar anotaciones semánticas permitiendo completar el proceso de construcción de conocimiento, y Semdrops que permite a los usuarios describir en forma semántica cualquier recurso de la Web tanto en un espacio de conocimiento personal como en un espacio compartido. Además, con el fin de mejorar el contenido de la Web Social, proponemos BlueFinder: un sistema de recomendación que detecta y recomienda la mejor manera de representar en un sitio de la Web Social, información que es extraída de la Web Semántica. En particular, BlueFinder recomienda la manera de representar una propiedad semántica de DBpedia en Wikipedia, respetando las convenciones de la comunidad de usuarios de Wikipedia.
En la actualidad, las áreas de Medición, Evaluación y Análisis son pilares de la Ingeniería de Software ya que brindan información para, principalmente, tomar decisiones sobre cuestiones relacionadas a la calidad de productos, procesos, etc. En estas áreas, como en otras, es deseable garantizar repetibilidad para lograr consistencia en los resultados. Para ello, las organizaciones deben contar con estrategias de Medición y Evaluación (M&E) que integren tres capacidades: i) una especificación de las vistas del proceso de M&E en la cual se documenten, entre otros aspectos, las principales actividades que deben ser planificadas y ejecutadas, ii) un marco conceptual de M&E que permita disponer de un vocabulario común, y iii) métodos y herramientas específicos para llevar a cabo las actividades. En este sentido, hemos desarrollado una estrategia llamada GOCAME (Goal-Oriented Context-Aware Measurement and Evaluation), que integra estas tres capacidades. La presente tesis doctoral se centra en la primera capacidad mencionada, es decir: la especificación de las vistas del proceso de M&E para la estrategia GOCAME. Contar con la especificación del proceso desde diferentes perspectivas permite tener una guía clara y repetible de las actividades que deben llevarse a cabo, como así también detectar puntos de control, identificar los productos de trabajo insumidos y producidos, y escoger adecuadamente los agentes que ocuparán los roles involucrados en la realización de las actividades, entre otros aspectos. Para especificar las diferentes vistas del proceso se utilizarán lenguajes estándares apropiados, permitiendo que exista un entendimiento compartido dentro y fuera de la organización que lo aplique, de modo que cualquier usuario interesado pueda comprender el proceso, hacer uso del mismo y/o plantear mejoras a éste. Si bien existe literatura, e incluso estándares, que describen el proceso de M&E, lo hacen como si fueran dos procesos disjuntos, de hecho muchos ni hablan de Evaluación. Sin embargo, estos procesos están muy relacionados. Además, en la literatura revisada se observa que los procesos de M&E no se especifican desde sus diferentes vistas. Incluso se ha detectado que no existe un consenso respecto de la terminología de proceso utilizada, motivo por el cual aquí se propone una ontología de proceso (genérica). Esta ontología también se utiliza para enriquecer el marco conceptual de M&E (segunda capacidad mencionada). La hipótesis principal de este trabajo es que sin una clara definición de las vistas del proceso, los programas y proyectos de M&E, suelen ser menos repetibles, reproducibles y controlables. Además, poseer un (modelo de) proceso basado en un marco conceptual de M&E no sólo permite contar con programas y proyectos con dichas características, sino que también favorece la robustez y confiabilidad de la información obtenida (datos y metadatos), la cual es utilizada en procesos de toma de decisión. También, un modelo de procesos facilita la definición de métodos y herramientas que permitan llevar a cabo las actividades, ya sea de forma total o parcialmente automatizada. Por otra parte, cabe mencionar que GOCAME es una estrategia de M&E de propósito múltiple, la cual puede ser personalizada para desarrollar estrategias para propósitos específicos. Particularmente, a partir de GOCAME se ha derivado la estrategia SIQinU (Strategy to Improve Quality in Use), la cual se enfoca en mejorar sistemáticamente la Calidad en Uso de las aplicaciones evaluadas. Esta estrategia también cuenta con las tres capacidades de GOCAME, y en este trabajo se abordará la especificación de las vistas del proceso que subyace en SIQinU.
Un repositorio institucional es un depósito de documentos digitales, cuyo propósito es gestionar, organizar, almacenar, preservar y difundir en acceso abierto la producción resultante de la actividades de una organización. La variedad de materiales que se alojará en un repositorio institucional dependerá de la política de contenidos que determine la propia institución; los contenidos, en principio, podrían mantenerse a perpetuidad y el repositorio ser implementado de modo tal de asegurarlo, pero este punto también dependerá de la política de preservación que la institución determine.
El objetivo central de esta tesis es, entonces, proponer una metodología de evaluación para repositorios institucionales. Con esto se busca mejorar la calidad de los repositorios, así como la estandarización, ayudar a la interoperabilidad y obtener una mayor visibilidad de las producciones que una institución, en este caso educativa, guarda en un repositorio.
Entre los objetivos específicos está el de asegurar la preservación de los contenidos del repositorio, de modo que siempre sea posible acceder a ellos y que éstos resulten legibles tanto para usuarios humanos como máquinas. Para lograrlo es necesario conocer el campo de actividad de estos repositorios, enmarcado por la Iniciativa de Acceso Abierto que definió sus alcances y funciones, y elaborar una correcta definición de ellos, para responder a las preguntas fundamentales: ¿qué es un repositorio? y ¿qué estructura y funciones lo caracterizan mejor? Con miras a responder tales interrogantes, se relevaron los modelos que a lo largo del tiempo han servido para representar un repositorio digital, elaborando una mirada crítica en cuanto a la utilidad de cada uno de ellos, y observando cuánto de las estructuras y funciones propuestas permanecen en los repositorios actuales. Se analizaron sus similitudes y diferencias, para identificar el modelo que mejor se ajustaba y para determinar la necesidad de contar con más de un modelo que representase el repositorio. Una vez elegido el modelo, se determinaron cuáles serían los parámetros de evaluación que interesaban a los objetivos planteados.
Como objeto de estudio y experimentación se seleccionó el repositorio institucional central de la Universidad Nacional de La Plata —el Servicio de Difusión de la Creación Intelectual (SEDICI)—, anticipando que las conclusiones extraídas, en cuanto a líneas de acción para cumplir con los objetivos previstos, podrían ser extensibles a otros repositorios institucionales. Se realizó el relevamiento del estado de los objetos digitales del repositorio, para luego determinar las acciones a realizar, proponer cambios y delinear un plan a largo plazo vinculado al planeamiento de la preservación de los contenidos de modo de asegurar que los contenidos siempre estén disponibles y en una condición tal que permita la legibilidad por parte de los usuarios. Luego de cada análisis, se extrajeron algunas conclusiones y reflexiones breves. La tesis culmina con la exposición de las conclusiones generales y con los trabajos proyectados para el futuro, vinculados principalmente a la selección y migración a formatos más apropiados para la preservación, a la generación de nuevas tareas de validación de metadatos asociados a los contenidos y a la realización de un plan integral de preservación.
Los patrones de usabilidad son un aspecto central en el desarrollo de software, pues estos son los encargados de sentar las bases de un conjunto de principios validados y establecidos para la creación de una apropiada interfaz de usuario. En este sentido el esfuerzo por desarrollar un modelo de patrones de usabilidad esta justificado y permite sumar una instancia mas al proceso de automatización en el desarrollo de software. En esta tesis doctoral se propone un mecanismo que ha evolucionado desde los patrones hasta una arquitectura de usabilidad, detallando el proceso evolutivo que ha llevado el mismo, define en detalle el patrón de usabilidad UNDO/REDO y construye los cimientos para extender este modelo a otros patrones de usabilidad.
Los proyectos de Explotación de Información son un tipo especial de proyecto de Ingeniería en Software que poseen problemas similares al existir cuestiones de gestión que pueden provocar su fracaso. Entre estas cuestiones se destaca la necesidad de establecer si es posible realizar el proyecto, si la solución es la correcta y si es posible cumplir con todas las metas y expectativas del proyecto; así como la cantidad de personas que van a participar en el equipo de trabajo durante el desarrollo del proyecto, y por cuanto tiempo. En este contexto, el presente trabajo de tesis tiene como objetivo proponer, estudiar y validar dos modelos a ser utilizados al inicio de un proyecto de Explotación de Información en el ámbito de las Pequeñas y Medianas Empresas. El primer modelo permite realizar la Evaluación de la Viabilidad del proyecto, mientras que el segundo modelo tiene como objetivo realizar la Estimación del Esfuerzo (medido en cantidad de personas por tiempo) que se requiere para llevar a cabo el proyecto de manera completa.
(English) Demo Content
El posicionamiento de un objeto sobre la corteza terrestre durante años ha sido una tarea de innumerables investigaciones y adelantos tecnológicos. Desde los mercantes que usaban los cuerpos celestiales para ubicarse en su navegación por los océanos, hasta los sistemas autónomos que, portando un micro-dispositivo embebido, resuelven en cuestión de segundos la posición actual sobre la faz de la tierra para poder realizar su navegación. Muchas son las aplicaciones que se favorecen de esta tecnología y en general la mayoría de ellas se pueden llevar a cabo sin inconvenientes en cuanto a la precisión requerida. Algunas áreas específicas como la agricultura de precisión, la aeronavegación, la navegación marítima, los desarrollos aeroespaciales, necesitan una mayor precisión para realizar sus tareas. Existen muchas investigaciones y desarrollos de empresas, gobiernos e instituciones que afrontan a diario este desafío. Muchos de ellos con resultados exitosos y comprobables. Por otro lado, también es razonable pensar que estos desarrollos no alcanzan a la totalidad de los usuarios que los necesitan. En algunos casos las razones son económicas y en otros la región de residencia no se ve beneficiada por el servicio. Adquirir la infraestructura para montar un sistema de posicionamiento preciso, como el DGPS por ejemplo, puede requerir la inversión de millones de dólares. En otros casos puede implicar el abono de un servicio mensual. Aún así, y más allá de contar con la capacidad económica, en ciertas regiones no es posible acceder a las señales de corrección por características del terreno o por estar fuera del área de cobertura. Por ello, la necesidad de desarrollar soluciones tecnológicas para estas regiones es un desafío recurrente.
Este proyecto trata de reducir la brecha existente entre estos desarrollos y los usuarios finales que necesitan realizar tareas con mayor precisión posicional que la entregada originalmente por un sistema global de navegación satelital (GNSS) como es el NAVSTAR-GPS. La propuesta está basada en el desarrollo de un sistema de posicionamiento relativo de precisión dotado de receptores de bajo costo. La contribución está dada por el desarrollo de una metodología y técnicas para el tratamiento de información que proviene de los receptores.
El propósito de esta tesis es formular una metodología transferible de desarrollo y evaluación de la calidad de Objetos de Aprendizaje (OA).
En principio se analizaron los diseños: pedagógico, funcional, gráfico, tecnológico y operacional de las propuestas existentes y se elaboraron criterios de valoración de un OA de acuerdo a las funcionalidades, los estándares y el contexto educativo de implementación.
El Modelo de Proceso propuesto contempla en cada una de sus fases iterativas los aspectos tecnológicos y pedagógicos del OA. Se integraron las actividades del Diseño Centrado en el Usuario con la metodología de desarrollo de software de sistemas interactivos.
En el trabajo experimental presentado se detallan y documentan tanto el proceso de elaboración, como los resultados obtenidos de la aplicación del Modelo de Proceso, a modo de prueba concreta del trabajo de Tesis.
Como consecuencia del complejo uso que los usuarios tienen sobre la Web surge una nueva problemática que no ha sido aún resuelta y que las técnicas de adaptabilidad clásicas (aquellas que se aplican durante el desarrollo de la aplicación) son incapaces de resolver: la navegación inter-aplicación (e incluso a veces intra-aplicación) genera perdidas de contexto en la tarea y/o interés de los usuarios que implican un empeoramiento de sus experiencias. Objetivo general de este trabajo diseñar e implementar una solución a partir de la cual se extienda el actual enfoque de adaptabilidad e integración de aplicaciones Web con nuevos mecanismos que permitan adaptar las mismas en pos de mejorar la experiencia de los usuarios cuando realizan tareas intra e inter-aplicación.
La motivación para el desarrollo de esta investigación tiene su origen en las posibilidades que las TIC, específicamente los sistemas colaborativos, pueden otorgar para la inclusión de la diversidad en el ámbito educativo. Dentro del amplio sector poblacional que abarca el área de la discapacidad, se hizo foco en personas con Necesidades Complejas de Comunicación (NCC), usuarios de Comunicación Aumentativa y Alternativa (CAA), en proceso de incorporación de un Sistema de CAA (SAAC) de alta tecnología. En este sentido, este trabajo se alinea en el área de Tecnología Informática Aplicada en Educación (TIAE), y se delimita en las sub áreas de Computer Supported Collaborative Learning (CSCL) y Assistive Technology. Se propone delimitar las características que debería respetar un sistema colaborativo de CAA orientado al entrenamiento de prácticas de CAA mediadas por tecnología informática, y elaborar las condiciones que propicien su evaluación, diseño y desarrollo. Al mismo tiempo, se lo concibe como ayuda tecnológica para el desarrollo de competencias comunicacionales necesarias a la incorporación de SAAC de alta tecnología. La metodología adoptada para el logro de este objetivo es de tipo cualitativa, propia al Paradigma Interpretativo; la investigación se desarrolla en el marco de las categorizaciones tipográficas: investigación - acción e investigación etnográfica. Finalmente, el aporte resultado del proceso de investigación, se compone de un modelo metodológico en el que se describen las características a las que debería responder un sistema colaborativo de CAA, y criterios e indicadores para la evaluación, diseño y desarrollo de sistemas de este tipo. Y un modelo técnico que incluye el diseño teórico de un software al que denominamos ECCA (Entorno Colaborativo de Comunicación Aumentativa), y un prototipo inicial que muestra algunas funcionalidades propuestas.
La optimización de problemas es un terreno fértil en un mundo que se caracteriza por contar con recursos escasos (naturales, económicos, tecnológicos, infraestructura, sociales, tiempo, etc.). Hacer el mejor uso posible de estos recursos en una tarea, a la vez, importante y difícil. Ofrecer soluciones de calidad, aunque no necesariamente sean las mejores, implica que los recursos excedentes, frutos de la optimización, puedan utilizarse en nuevos productos o servicios. La gran mayoría del software que utilizan las empresas tiene como misión principal la automatización de tareas repetitivas. Una minoría de aplicaciones de software se utiliza como soporte a la toma de decisiones de un decisor humano. Una porción ínfima de artefactos de software son capaces de ofrecer cual es la decisión adecuada para un problema complejo. Es en este último grupo donde se encuentran las técnicas estudiadas en esta tesis. La implementación en el mundo real de algoritmos de búsqueda y optimización se hace necesaria y evidente a medida que aumenta la complejidad de los procesos, las empresas y gobiernos sufren una presión constante para ser más competitivos y eficientes, y los recursos disponibles se presentan como escasos ante una demanda en permanente aumento. Las metaheurísticas están pensadas para ofrecer una solución a este tipo de problemas pertenecientes a la clase de complejidad NP. Si bien son soluciones aproximadas, no exactas, en general son lo suficientemente buenas como para que su utilidad sea valiosa.
Aspect oriented programming (AOP) introduces new and powerful modularization constructs. The aspect module is used to encapsulate crosscutting concerns, which otherwise would remain tangled and scattered. The idea of encapsulating crosscutting concerns rapidly expanded to earlier phases in the development cycle, including requirement analysis (aspect oriented requirement engineering, AORE) and design (aspect oriented modeling, AOM). The overall application of aspect orientation concepts is known as aspect oriented software development (AOSD). AOP is not yet a mainstream practice. Particularly AOSD is still in its early stages. This is reflected in the lack of reports of full development cycles using aspect oriented approaches, especially using industrial case studies. Furthermore, the power of aspects comes at the price of new challenges, one of them is that systems built using aspects are more difficult to understand. The crosscutting nature of aspects allows them to alter the behavior of many other modules. As a result, aspects may interact in unintended and unanticipated ways. This problem is known as aspect interactions. In this work we deal with the aspect interaction problem in the context of an industrial domain: slots machines. We perform a complete development cycle of the slot machine software. This is, to the best of our knowledge, the first complete industrial case of study of aspect orientation. Through this experience we discovered the limitations with regard to aspect interactions, of some emblematic aspect oriented approaches for requirement engineering, design and implementation. The contribution of this work is threefold. Firstly, we contribute with the evaluation and extensions to some of AORE and AOM approaches, in order to provide explicit support for aspect interactions in requirement analysis and design phases. We also evaluate the implementation of interactions using a static and a dynamic AOP language, and propose an AspectJ extension that copes with aspect interactions. Secondly, this work is the first report of a complete aspect oriented development cycle of an industrial case study. Thirdly, this work provides a complex case study that presents several business logic crosscutting concerns, which in turn exhibit numerous aspect interactions, that serves as a challenging test bed for upcoming AOSD approaches.
La enseñanza en el área de simulación de eventos discretos requiere integrar una variedad de conceptos teóricos y ponerlos en práctica a través de la creación y ejecución de modelos abstractos de simulación, con el objetivo de recopilar información que pueda traspolarse hacia los sistemas reales. Para construir modelos, ejecutarlos y analizar los resultados de cada ejecución se utilizan herramientas de software cada vez más sofisticadas que permiten expresar los elementos de los modelos en términos de entidades abstractas y relaciones, y que recopilan gran cantidad de datos y estadísticas sobre cada una de estas entidades del modelo. GPSS es una de estas herramientas, y se compone de un lenguaje de programación por bloques y un motor de simulación que traduce estos bloques en distintas entidades del modelo. A pesar de que su primera versión data de 1961, GPSS es aún muy utilizado por profesionales y empresas, y es una de las herramientas más utilizadas para la enseñanza de simulación de eventos discretos por instituciones académicas de todo el mundo. El avance de la capacidad de cómputo de las computadoras ha permitido incorporar una mayor cantidad de herramientas y funciones a las distintas implementaciones de GPSS. Mientras que esto representa una ventaja para sus usuarios, requiere también un cada vez mayor esfuerzo por parte de los docentes para enseñar a sus estudiantes a aprovechar todo su potencial. Muchos docentes e investigadores han buscado optimizar la enseñanza de simulación de eventos discretos desde múltiples ángulos: la organización del curso y la metodología de enseñanza, la creación de elementos de aprendizaje que ayuden a aplicar los distintos elementos teóricos, la generación de herramientas para construir modelos GPSS, y la construcción de herramientas para comprender el motor de simulación por dentro. En esta tesis se introduce una herramienta de software que permite construir modelos GPSS de manera interactiva, cuyo diseño fue pensado para integrar los elementos teóricos del curso con los objetos y entidades de GPSS. Esta herramienta también permite ejecutar estos modelos y analizar con alto nivel de detalle su evolución a través del tiempo de simulación, lo que permite a los estudiantes comprender cómo funciona el motor de simulación y cómo interactúan las distintas entidades entre sí. Se incluye también una propuesta de enseñanza basada en una fuerte participación de los estudiantes, que, por medio de esta nueva herramienta, les permite incorporar los conceptos más fácilmente. Esta propuesta de enseñanza fue puesta a prueba con alumnos del área de sistemas, quienes tomaron un curso que contiene los mismos elementos teóricos y prácticos de un curso tradicional, pero con una organización diferente. Entre los resultados logrados se destacan una reducción del tiempo requerido para aprender los conceptos de GPSS cercana al 50%, una mayor capacidad por parte de los alumnos para asimilar conceptos y derivar nuevos conceptos por sí solos, a partir de conceptos adquiridos previamente.
El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.
En este trabajo de tesis presentamos una estrategia para identificar las características transversales utilizando el Léxico Extendido del Lenguaje (LEL). La estrategia identifica características transversales en una forma similar a la que son identificados en los requerimientos. Sin embargo, mientras las técnicas tradicionales se basan en las acciones, la estrategia propuesta se basa en estados (aunque también utiliza sustantivos y acciones). Debido a que la construcción del LEL se realiza tempranamente en el proceso de desarrollo del software, la estrategia propuesta detecta características transversales tan temprano como es posible y esto redunda en beneficios al evitar el retrabajo que pudiera ocasionar la detección a mitad del desarrollo. El lenguaje que utiliza para representar el conocimiento de la aplicación (LEL) posee buena expresividad, pero por sobre todo, utiliza el lenguaje conversacional sin utilizar ningún tipo de formalismo, lo cual redunda en beneficios para ser utilizado por todas las personas que participan del desarrollo de software. En esta tesis se muestra tanto la aplicabilidad como la efectividad de la estrategia propuesta. La aplicabilidad se ilustra a través de 3 ejemplos del mundo real. Se describe una pequeña aplicación bancaria que se utiliza para ejemplificar la estrategia y su aplicación. También se describen dos casos de estudios sobre aplicaciones de mediana magnitud. Ambos casos de estudios están basados en aplicaciones reales. Uno de ellos es una aplicación de control antievasión de impuestos y la otra es un portal web que publica noticias. Además, la presente tesis también describe un experimento que se llevó a cabo con el fin de mostrar la efectividad de la estrategia. El experimento fue planteado suficientemente realista y con una población de 20 sujetos como para obtener un muestreo de resultados suficiente. Por último, la tesis describe una herramienta que permite asistir en la aplicación de la estrategia propuesta.
Desarrollar aplicaciones Web Accesibles es en la actualidad una necesidad. Cada día más y más usuarios con capacidades diferentes y/o discapacidades temporales o permanentes acceden a la Web, y muchos de ellos tienen dificultades especiales para obtener la información deseada. Sin embargo, el desarrollo de este tipo de software Web es complicado por varias razones. Si bien algunas de estas son de índole tecnológicas, la mayoría están relacionadas con la necesidad de componer intereses de diseño distintos y muchas veces no relacionados entre sí, los cuales a su vez pueden ser funcionales, como lo son la mayoría de los requerimientos específicos de una aplicación, o no-funcionales, como lo es la Accesibilidad.
Aún existiendo hoy en día un gran número de herramientas y propuestas para ayudar a los desarrolladores en la evaluación de la Accesibilidad de las aplicaciones Web, la situación no es la misma al observar desde la perspectiva del diseñador Web. Parece ser que diseñar sitios Web accesibles es más costoso y complejo que crear sitios Web y luego evaluarlos/modificarlos. A pesar de que este sentimiento puede ser ciertamente verdadero, los beneficios al modelar la Accesibilidad en etapas tempranas del diseño superan ampliamente las necesidades de un desarrollador al implementar esa Accesibilidad.
En esta tesis, presentamos un enfoque original para concebir, diseñar y desarrollar aplicaciones Web Accesibles con una modalidad Orientada a Aspectos. Para alcanzar nuestro objetivo, ofrecemos algunas técnicas de modelado que desarrollamos específicamente para manejar las características no-funcionales, genéricas y transversales de la Accesibilidad como un interés de factor de calidad. Específicamente, enriquecimos los “User Interaction Diagrams” (UIDs) con puntos de integración, los cuales usamos durante el diseño de la interfaz de usuario, para razonar y documentar la Accesibilidad en la actividad de modelado. Luego, instanciando la plantilla del “Softgoal Interdependency Graph” (SIG) con las tablas de asociación, trabajamos en el modelo de interfaz abstracta (compuesta por “ontology widgets”) para obtener un modelo de interfaz concreta y accesible de la aplicación Web en desarrollo. Para ilustrar nuestras ideas y señalar las ventajas de una clara separación de intereses durante el ciclo de vida de desarrollo, utilizamos un ejemplo de aplicación real.
La popularidad y facilidad de acceso de las aplicaciones Web expone a una aplicación Web a exigencias de nuevas características realizadas por sus usuarios que ésta debe proveer para mantener cautivo al usuario implantando un estado de constante evolución. La evolución requiere usualmente modificaciones de funcionalidad existente o nueva funcionalidad para mejorar la experiencia del usuario en la aplicación Web. Muchas veces estos cambios son requeridos para mantener vigente a la aplicación, es decir acompañar a las tendencias del mercado. Los cambios introducidos pueden corresponder a un tipo de funcionalidad llamado volátil caracterizado por ser temporal, surgir de improviso y muchas veces por deber ser incorporada a la brevedad. Cuando esta funcionalidad es temporal, se incorpora al sistema para luego ser retirada de forma planificada en base a una fecha determinada o de forma espontanea en base a un evento de negocio. En este escenario, entre otras variables, se ve comprometida la mantenibilidad y estabilidad de la aplicación. Por otro lado, su inesperado surgimiento usualmente no permite una adopción fácil y económica ya que la aplicación no fue diseñada teniendo en cuenta esta nueva funcionalidad.
En esta tesis se presenta una metodología modular para dar solución a los requerimientos volátiles en aplicaciones Web. La metodología abordará el problema desde las etapas análisis brindando herramientas conceptuales para su adecuado diseño y posterior implementación. Es modular ya que puede complementar las metodologías de ingeniería Web más maduras; en esta tesis se utilizara como metodología de referencia OOHDM. En la etapa de análisis de requerimientos, se proveerán herramientas que permitan identificar, aislar, y gestionar inconsistencias de requerimientos volátiles. Para las tareas de diseño se proveerán herramientas teóricas que faciliten el modelado de los requerimientos de las aplicaciones Web brindando instrumentos para los diferentes modelos involucrados: conceptual, navegacional, y de interfaz. Finalmente, se proveerá una guía de implementación de éste tipo de funcionalidad con un análisis comparativo con la implementación de funcionalidad volátil ad-hoc.
El éxito de un producto o servicio de software depende en gran medida de la satisfacción de un cierto nivel de calidad observado sobre el mismo producto o servicio así como sobre los recursos y procesos involucrados en su obtención y su operación. Conocer de forma cuantitativa y objetiva el nivel de calidad de un producto, servicio, proceso o recurso es fundamental como parámetro para la toma de decisiones hacia un camino de mejora. Sin embargo, lograr esto no es una tarea trivial ya que la calidad es un concepto abstracto y relativo que debe ser considerado desde diversos puntos de vista, involucrando diversos aspectos y en contextos de aplicación particulares.
Para lograr lo anterior, es crucial para una organización contar con programas y procesos de Aseguramiento de Calidad para definir las tareas necesarias para detectar y corregir problemas en la calidad así como procesos de Medición y Evaluación que provean la información cuantitativa y objetiva sobre los niveles de calidad reales de cada una de las entidades relevantes involucradas. Sin embargo, configurar, ejecutar y mantener un programa de medición y evaluación robusto y consistente no es una tarea simple.
Cuando se implementan programas de medición y evaluación en organizaciones de software, ciertos aspectos técnicos clave deben ser resueltos. En primer lugar, se deben establecer claramente, mediante la especificación de un proceso, las actividades a realizar, así como los recursos y los artefactos que serán utilizados y producidos durante su ejecución. Estas actividades deben organizarse de tal manera que puedan ser coordinadas con actividades de soporte relacionadas con actividades ingenieriles. En segundo lugar, se debe establecer de forma explícita un marco conceptual que facilite un entendimiento común de los términos y relaciones utilizados en las actividades mencionadas entre los proyectos de la organización así como el intercambio y reuso consistente de instancias de tales conceptos para que los resultados puedan ser repetibles, comparables y consistentes. En tercer lugar, se deben utilizar métodos, técnicas y herramientas específicos y apropiados para llevar a cabo efectivamente las actividades definidas.
En este sentido existe un número importante de propuestas que definen enfoques, procesos, modelos, métodos y herramientas para llevar a cabo las actividades de medición y evaluación. Sin embargo, la mayoría de estas propuestas no proveen un enfoque integrado que incluya todos estos elementos.
Adicionalmente muchas de estas propuestas carece de una base conceptual que defina de forma clara y estructurada los conceptos y relaciones involucradas en tales actividades. Y en los casos donde existe una terminología definida no existe un consenso general (aún entre propuestas de la misma fuente) sobre los términos involucrados que permita integrar diferentes propuestas, complicando aún más los problemas de implementación de programas de medición y evaluación.
En esta tesis se muestran los resultados de una investigación destinada a crear una solución para cubrir dicha falta proponiendo un marco conceptual con base ontológica que define de forma clara y estructurada los elementos de información (los términos y relaciones) utilizados para especificar el diseño e implementación de actividades de medición y evaluación. El marco propuesto fue creado a partir de los términos definidos en la literatura relevante, siguiendo un enfoque orientado a objetivos y enfocado a la organización. Además el marco sigue un enfoque sensible al contexto para proveer un soporte a la toma de decisiones más coherente y consistente entre los proyectos de la organización. El marco resultante conforma una plataforma de soporte para la definición de procesos y métodos para la ejecución de proyectos de medición y evaluación en la organización. La propuesta incluye además una arquitectura de soporte que permite la integración del marco al dominio de aplicación de la organización.
Finalmente, estos elementos han sido implementados en una herramienta web que permite visualizar los beneficios de la propuesta.
El proceso de captura de requisitos constituye un proceso con connotaciones sociales relacionadas con diferentes personas (stakeholders), una circunstancia que hace que se presenten ciertos problemas cuando se lleva adelante la conceptualización de requisitos. En esta tesis se propone un Proceso de Conceptualización de Requisitos que se estructura en dos fases: (a) Análisis Orientado a al Problema: cuyo objetivo es comprender el problema dado por el usuario en el dominio en el que este se lleva a cabo, y (b) Análisis de Orientado al Producto: cuyo objetivo es obtener las funcionalidades que el usuario espera del producto de software a desarrollar, teniendo en cuenta la relación de estas con la realidad expresada por el usuario en su discurso. Se proponen seis técnicas que articulan cada una de las tareas que componen las fases de proceso propuesto.
En la década del 80 del siglo pasado, las Computadoras Personales (PC) marcaron un antes y un después en relación al desarrollo de software. A partir de entonces muchos entusiastas se pusieron a desarrollar software, llegando en la actualidad a contar con un número de aplicaciones a nivel mundial que resulta muy difícil de catalogar. En el último lustro, los dispositivos móviles reducen drásticamente los costos y brindan prestaciones en algunos casos similares a las PC. La particularidad de bajo costo hace que muchos mas usuarios tengan la posibilidad de acceder a los mismos. La característica de siempre presente resulta tentadora para que muchos más entusiastas desarrollen aplicaciones. Este entusiasmo (generalmente no correspondido con una formación académica) lleva a que mucha gente desarrolle aplicaciones desconociendo de diseño y mucho menos de accesibilidad y usabilidad de las aplicaciones por parte de los consumidores (usuarios finales). El bajo costo, la diversidad de aplicaciones, la posibilidad de siempre presente ha hecho que hoy el nivel de inserción de los dispositivos móviles este en el orden de 1,5 líneas activas por habitante de la República Argentina. Por otro lado el Gobierno Electrónico (e-Government) es una temática multidisciplinaria que puede ser abordada desde distintas miradas: Social, Económica, Cultural, Informática, etc. Asumiendo que todos los medios tecnológicos deben sumarse ofreciendo al ciudadano más vías para poder realizar sus gestiones sin necesidad de acceder a las oficinas de Gobierno (Unidades de Gestión, Municipalidades, etc.), en este trabajo de tesis se aborda la problemática de brindar a los ciudadanos una herramienta (los dispositivos móviles) que contemple sus necesidades especificas. Esta tesis propone un modelo de sitio Web Móvil para los municipios del conurbano Bonaerense que prioriza las necesidades del usuario. Utilizando herramientas de modelado y desarrollo existentes. Las necesidades del usuario surgen a partir de un intenso trabajo de campo. A fin de validar aspectos de accesibilidad y usabilidad se desarrollo una herramienta de GEstión de COntenidos para DIspositivos MÓviles (GECODIMO).
A fin de comprobar los niveles de satisfacción de los usuarios relacionados con usabilidad y accesibilidad se probo el modelo en distintas franjas etarias de municipios objeto de estudio obteniendo guarismos sumamente alentadores. El objetivo principal del presente trabajo de tesis doctoral es ofrecer a los gobiernos del conurbano bonaerense, en principio, una herramienta (modelo de sitio móvil) que posibilite concretar una gestión más eficiente y participativa.
(English) Demo Content
e-Governance es una temática interdisciplinaria la cual puede ser abordada desde distintas miradas: Social, Económica, Cultural, etc. En este trabajo de tesis se aborda desde un punto de vista informático, no por ello alejado de las consideraciones sociales tomando en cuenta la existencia de la brecha tecnológica que le impide a algunas comunidades poder hacer uso de las TIC (Tecnologías de la Información y Comunicación). Todos los medios tecnológicos deberán sumarse ofreciéndole más vías al ciudadano para poder realizar sus gestiones, no excluyendo la posibilidad de realizarse las mismas sin necesitar contar con tecnología, simplemente concurriendo a la entidad. De todos los medios posibles se elige a los sitios web como canal de implementación de e-Governance y a los sitios web de los gobiernos locales como entidades de análisis considerando la fuerte interacción de los ciudadanos con los mismos. La calidad de los sitios de los gobiernos locales deberá ser analizada bajo dos dimensiones: diseño y contenido. Se consideran distintos parámetros que aseguren la calidad de dichas dimensiones en cuanto a diseño: accesibilidad, navegabilidad, usabilidad y funcionalidades básicas; en cuanto a contenido además de analizarse la información y los servicios ofrecidos a los ciudadanos, se tomarán en cuenta parámetros como: veracidad, transparencia y participación ciudadana. Esta tesis propone un marco de medición diseñando métricas que permitan analizar cada uno de los parámetros que contribuyen a la calidad de los sitios web de los gobiernos locales. Bajo una metodología de ponderación de la métrica y construcción de coeficientes en los distintos niveles del marco, será posible cuantificar el grado de cumplimiento de los sitios en cada parámetro de calidad y finalmente en e- Governance. Es posible comparar los valores de distintos sitios e incluso generar un ranking de posicionamiento. Estos rankings al ser publicados suelen servir como un impulso para que los gobiernos locales mejoren el diseño y contenido de los sitios para alcanzar un mejor posicionamiento. No obstante el objetivo principal del marco es relevar, cuantificar y obtener información sobre las principales deficiencias de los sitios web a fin de ofrecer a los gobiernos locales información precisa para que puedan mejorar sus sitios web.
Se ha considerado a este trabajo como un aporte al establecimiento de una red global de sensores donde los humanos (agentes inteligentes), y computadoras potentes interactúan con redes piloto de sensores inalámbricos, distinguiendo en la red global 3 subdominios:
• Una red superior existente, donde los distintos nodos ejecutan las aplicaciones en potentes computadoras que pueden interconectarse vía Internet u otras redes globales.
• Los dispositivos sensores que forman una red piloto y se comunican entre sí por medio inalámbrico.
• Un portal de servidores, formado por nodos que controlan las redes piloto, y permiten la interacción entre los nodos de la red superior y los dispositivos de la WSN.
Los temas a desarrollar en esta tesis son:
•Modelado y simulación: La simulación es utilizada para evaluar sistemas desarrollados y a implementar en redes reales. La utilidad de los datos obtenidos depende puramente del realismo y la precisión de los modelos a implementar.
Fundamentalmente se avanzan con simulaciones que simplifican la instalación de las WSNs.
•Entorno de desarrollo de aplicaciones: Necesario para la corrida de las simulaciones como también desarrollo de las aplicaciones a ser instaladas en los nodos físicos existentes.
•Alternativa de soporte de las WSN: la preexistencia de situaciones donde la prestación de servicios de transmisión de datos es sumamente ineficiente y provisto por una empresa de manera monopólica. Ciertas veces el servicio es inexistente en la locación del proyecto. Por ello se avanzó en la búsqueda de
un soporte a la red de WSN no basada en la Red Digital Soporte de la prestadora en la región de desarrollo del trabajo.
Web application development is a complex and time consuming process that involves di erent stakeholders (ranging from customers to developers); these applications have some unique characteristics like navigational access to information, sophisticated interaction features, etc.
However, there have been few proposals to represent those requirements that are speci c to Web applications. Consequently, validation of requirements (e.g. in acceptance tests) is usually informal, and as a result troublesome.
To overcome these problems, this PhD Thesis proposes WebSpec, a domain speci c language for specifying the most relevant and characteristic requirements of Web applications: those involving interaction and navigation. We describe WebSpec diagrams, discussing their abstraction and expressive power.
As part of this work, we have created a test driven model based approach called WebTDD that gives a good framework for the language. Using the language with this approach we have test several of its features such as automatic test generation, management of changes in requirements, and improving the understanding of the diagrams through application simulation.
This PhD Thesis is composed of a set of published and submitted papers. In order to write this PhD Thesis as a collection of papers, several requirements must be taken into account as stated by the University of Alicante. With regard to the content of the PhD Thesis, it must speci cally include a summary which is devoted to the description of initial hypotheses, research objectives, and the collection of publications itself, thus justifying its coherence. It should be underlined that this summary of the PhD Thesis must also include research results and nal conclusions. This summary corresponds to part I of this PhD Thesis (chapter 1 has been written in Spanish while chapter 2 is in English).
This work has been partially supported by the following projects: MANTRA (GV/2011/035) from Valencia Ministry, MANTRA (GRE09-17) from the University of Alicante and by the MESOLAP (TIN2010-14860) project from the Spanish Ministry of Education and Science.
El objetivo general de la tesis es desarrollar un enfoque de modelado que permita la especificación de aplicaciones de Hipermedia Móvil usando derivación semiautomática a partir de los modelos especificados. El enfoque elegido se basa en el desarrollo dirigido por modelos, esto quiere decir que no solamente se usan modelos para el modelado de las aplicaciones sino que se hace hincapié en la necesidad de contar con transformaciones entre los distintos modelos. Nuestro enfoque permite la especificación de modelos que representan conceptos referidos tanto al dominio de la aplicación como de los aspectos navegacionales de la misma. Dentro de los aspectos navegacionales se consideran tanto aquellos relacionados a la navegación digital como así también los relacionados a la navegación en el mundo real. El enfoque mencionado esta basado en conceptos avanzados de separación de concerns (típicos en la orientación a objetos y aspectos) y utiliza distintos tipos de concerns: paradigmáticos (como la navegación, la movilidad, etc.) o aplicativos (como diversos temas dentro de un dominio específico). Los aportes realizados por esta tesis son: • La determinación de los conceptos específicos de aplicaciones de Hipermedia Móvil, y que las diferencian de las aplicaciones de hipermedia convencionales y de las aplicaciones móviles. • La definición de un enfoque que pueda ser utilizado para las aplicaciones de Hipermedia Móvil. • La incorporación de elementos de separación avanzada de concerns tanto verticales como horizontales (también llamados aplicativos y paradigmáticos respectivamente). • Disponer de un lenguaje genérico que pueda ser aplicado a dominios particulares, por ejemplo, asistencia turística y drama urbano móvil (Mobile Urban Drama) entre otros. • Especificación e implementación de herramientas de transformación de modelos para derivar sucesivamente los modelos de nuestro enfoque hasta obtener aplicaciones ejecutables en el contexto del desarrollo dirigido por modelos.
Cuando se trata de tomar decisiones a un nivel ingenieril, medir no es una posibilidad sino una necesidad; representa una práctica sistemática y disciplinada por la cual se puede cuantificar el estado de un ente. Si hay un aspecto que se debe tener en claro en medición, es que para comparar mediciones diferentes las mismas deben ser consistentes entre sí, esto es, deben poseer la misma escala y tipo de escala además de obtenerse bajo métodos de medición y/o reglas de cálculos equivalentes. Los marcos de medición y evaluación representan un esfuerzo, desde la óptica de cada estrategia, por formalizar el modo de definir las métricas, sus objetivos, entre otros aspectos asociados, a los efectos de garantizar la repetitividad y consistencia en el proceso de medición que sustentan. Existen aplicaciones capaces de procesar flujos de mediciones en línea, pero el inconveniente principal con el que se enfrentan, es que no contienen información con respecto al significado del dato que están procesando. Para este tipo de aplicaciones, la medición es un dato, es decir, una forma de representar un hecho captado, careciendo de información sobre el concepto al que se asocian o bien, el contexto en el cual es obtenida dicha medición. Los dispositivos de medición, están en general desarrollados para captar una medida mediante un método dado, y en la mayoría de los casos, la forma de obtener dicha medida para su posterior procesamiento en otros entornos (ordenadores de escritorio, móviles, etc.), está en función de servicios o accesorios provistos por el fabricante. Suponiendo que la totalidad de las mediciones, provenientes de diferentes dispositivos, pudieran ser incorporadas en un mismo canal de transmisión, pocos son los entornos de procesamiento de flujos de datos que incorporan comportamiento predictivo. En aquellos que se incorpora comportamiento predictivo, ninguno de los analizados se sustenta en una base conceptual, que permita contrastar una medida contra la definición formal de su métrica. Esto último, incorpora un serio riesgo de inconsistencia, que afecta directamente al proceso de medición y en consecuencia, a los posteriores análisis que en base a estos datos se realicen. Nuestra Estrategia de Procesamiento de Flujos de Datos centrado en Metadatos de Mediciones (EIPFDcMM), se focaliza en permitir la incorporación de fuentes de datos heterogéneas, cuyos flujos de mediciones estructurados y enriquecidos con metadatos embebidos basados C-INCAMI, permitan realizar análisis estadísticos de un modo consistente a los efectos de implementar un comportamiento detectivo y a su vez, permitan incorporar información contextual a las mediciones, para enriquecer la función de clasificación con el objeto de implementar el comportamiento predictivo. Tanto la implementación del comportamiento detectivo como del predictivo tendrán asociados mecanismos de alarma, que permitirán proceder a la notificación ante la eventual identificación de una zona de riesgo. De este modo, se pretende garantizar la repetitividad y consistencia en el proceso de medición que sustentan.
La medición del tamaño del software es una actividad esencial para la estimación y planificación de un proyecto de desarrollo o las actividades de mantenimiento de software. Las técnicas de medición de Puntos Función permiten determinar el tamaño funcional del software a partir de diversos documentos del desarrollo, en particular nos interesan los asociados con los requerimientos funcionales del usuario. Para las etapas más tempranas del ciclo de vida, cuando los requerimientos funcionales no están completamente definidos o se requiere una estimación rápida, han sido propuestos múltiples enfoques de estimación de tamaño funcional. Sin embargo, se ha observado que algunas de estas técnicas requieren documentación con un nivel de detalle similar al usado para una medición con un método estándar, la que frecuentemente no está disponible en las fases iniciales de un proyecto de software. Otras propuestas no especifican claramente el artefacto necesario para ejecutar la estimación, no se encontró información sobre la exactitud de las estimaciones o la evaluación realizada para comprobar los resultados de su aplicación. Por último, son escasos los enfoques que se aplican a los productos de la Elicitación de Requerimientos. Con el objetivo de ofrecer una alternativa para las fases más tempranas de un proyecto de software, en esta tesis se presenta el procedimiento Scenario Function Points (SFP) que permite estimar el tamaño funcional de un sistema de software a partir de un producto de la Elicitación de Requerimientos, específicamente, los escenarios generados de acuerdo al enfoque de Leite. SFP está basado en el método estándar IFPUG FPA y su definición está soportada por un conjunto de reglas que establecen la asociación entre los conceptos del Modelo de Escenarios y los propios de dicho método. Para guiar la aplicación de SFP se diseñó un proceso y se elaboró su especificación formal. El objetivo de esta última es facilitar la capacitación y comunicación de los usuarios, favorecer la efectiva ejecución del proceso y propiciar la repetibilidad de los resultados. Además, el proceso es soportado por el software SFP Tool, que facilita y agiliza el proceso de estimación. La evaluación del procedimiento SFP se realizó mediante un Caso de Estudio múltiple basado en tres sistemas implementados. Los resultados obtenidos son alentadores en cuanto a su capacidad como herramienta de estimación y al esfuerzo requerido por el proceso. En lo referido al primer aspecto, la exactitud de las estimaciones está en el orden de ±30% (considerando a la medición con el método estándar IFPUG como el valor de referencia), que está dentro del rango aceptable para una estimación temprana. Además, en comparación con otras propuestas de estimación, el resultado es similar y en algunos casos mejor. Con respecto al esfuerzo, los resultados demuestran que es significativamente menor que el reportado en la literatura para una medición estándar.
El objetivo de esta Tesis es el análisis para la gestión de entornos virtuales de manera eficiente. Se realizó una optimización para el middleware de planificación en forma dinámica sobre entornos de computación Grid, siendo la meta a alcanzar la asignación y utilización óptima de recursos para la ejecución coordinada de tareas. Se investigó en particular la interacción entre servicios Grid y la problemática de la distribución de tareas en meta-organizaciones con requerimientos de calidad de servicio no trivial, estableciendo una relación entre la distribución de tareas y las necesidades locales pertenecientes a organizaciones virtuales. En primer término, se realizaron experiencias sobre la problemática de aplicaciones en entornos multicluster y luego se analizó como la infraestructura Grid pueden impactar en el diseño de este tipo de aplicaciones. Se propuso e implementó una arquitectura para la gestión de entornos virtuales, logrando un máximo aprovechamiento de entornos Grid utilizando clusters de computadoras como recurso. Por último se formuló una optimización para algoritmos de planificación, donde en base a la distribución geográfica y las características de la aplicación que se debe ejecutar, se generan automáticamente entornos virtuales de ejecución utilizando el conjunto de máquinas más adecuado. Con esta optimización se logra en el mejor de los casos un incremento del 20% en el tiempo total de ejecución del sistema.
En esta tesis se distinguen los estados de evolución y niveles de actuación en el contexto de un ciclo de vida para el aprendizaje de Sistemas Autónomos de Robots (SAR). Sobre estas bases, resulta conveniente especificar mecanismos de aprendizaje por colaboración entre SARs, definiendo un ciclo de vida de aprendizaje que considere arquitecturas y modelos que caractericen al SAR y su actuación en el ambiente de operación, en particular SARs más evolucionados colaborando con SARs receptores menos evolucionados. Centrado en el mecanismo de aprendizaje especificado resulta conveniente estudiar experimentalmente la colaboración entre SARs, validando la tesis que éstos tienen un mejor comportamiento utilizando colaboración que cuando no la usan.
Un Decision Support System (DSS) asiste a los usuarios en el proceso de análisis de datos en una organización con el propósito de producir información que les permita tomar mejores decisiones. Los analistas que utilizan el DSS están más interesados en identificar tendencias que en buscar algún registro individual en forma aislada [HRU96]. Con ese propósito, los datos de las diferentes transacciones se almacenan y consolidan en una base de datos central denominada Data Warehouse (DW); los analistas utilizan esas estructuras de datos para extraer información de sus negocios que les permita tomar mejores decisiones [GHRU97]. Basándose en el esquema de datos fuente y en los requisitos de información de la organización, el objetivo del diseñador de un DSS es sintetizar esos datos para reducirlos a un formato que le permita, al usuario de la aplicación, utilizarlos en el análisis del comportamiento de la empresa. Dos tipos diferentes (pero relacionados) de actividades están presentes: el diseño de las estructuras de almacenamiento y la creación de consultas sobre esas estructuras. La primera tarea se desarrolla en el ámbito de los diseñadores de aplicaciones informáticas; la segunda, en la esfera de los usuarios finales. Ambas actividades, normalmente, se realizan con escasa asistencia de herramientas automatizadas. A partir de lo expresado anteriormente Identificamos, por consiguiente, tres problemas a resolver: a) la creación de estructuras de almacenamiento eficientes para la toma de decisión, b) la simplificación en la obtención de la información sobre esas estructuras para el usuario final y, c) la automatización, tanto del proceso de diseño de las estructuras de almacenamiento, como en la elaboración iterativa de consultas por parte del usuario de la aplicación. La solución propuesta es el diseño de una nueva estructura de almacenamiento que denominaremos Historical Data Warehouse (HDW) que combina, en un modelo integrado, un Historical Data Base (HDB) y un DW; el diseño de una interface gráfica, derivada del HDW, que permite realizar consultas en forma automática y, por último, el desarrollo de un método de diseño que engloba ambas propuestas en el marco del Model Driven Software Development (MDD).
El objetivo de la Tesis es definir tres nuevas unidades de medida de software, que estén basadas en casos de uso, y que reduzcan el error de la estimación temprana de esfuerzo. Para lograr tal objetivo, fue necesario trabajar en los siguientes subobjetivos: definir las unidades de medida para la base de cálculo seleccionada: casos de uso; definir la forma de cálculo de las nuevas unidades de medida; probar, por medio de casos de estudio que incluyan varios proyectos, que es posible reducir el error de la estimación temprana de esfuerzo para las técnicas: Productividad Media Histórica (Historical Mean Productivity, HMP), Regresión Simple y Múltiple, y Redes Neuronales.
La Web ha motivado la generación de herramientas que permiten, con distintos grados de sofisticación y precisión, manipular sus contenidos. Para ello, tratan una serie de problemas, relacionados con la naturaleza imperfecta y cambiante de todas las actividades humanas. Ésta se refleja en fenómenos como las ambigüedades, contradicciones y errores de los textos almacenados. Esta tesis presenta una propuesta para complementar la administración de contenidos en la Web y de esta manera facilitar el proceso de recuperación de información. Se presenta un prototipo, denominado Web Intelligent Handler (WIH), que implementa una serie de algoritmos básicos para manipular algunas características morfosintácticas de textos en castellano y, en base a ellas, obtener una representación resumida y alternativa de su contenido. En este contexto, se define una nueva métrica de ponderación para reflejar parte de la esencia morfosintáctica de los sintagmas. Además se define un esquema de interacción entre los módulos para regular la explotación de los textos. También se explora la capacidad de los algoritmos propuestos en el tratamiento de los textos, considerándolos como una colección de sintagmas, sujeta a factores tales como contradicciones, ambigüedades y errores. Otro aporte de esta tesis es la posibilidad de evaluar matemáticamente y de manera automática tipos de estilos de texto y perfiles de escritura. Se proponen los estilos literario, técnico y mensajes. También se proponen los perfiles documento, foro de intercambio, índice Web y texto de sitio blog. Se evalúan los tres estilos y los cuatro perfiles mencionados, los que se comportan como distintos grados de una escala de estilos y perfiles, respectivamente, cuando se los evalúa con la métrica morfosintáctica aquí definida. Adicionalmente, utilizando la misma métrica, es posible realizar una valoración aproximada y automática de la calidad de cualquier tipo de texto. Esta calificación resulta ser invariante a la cantidad de palabras, temática y perfil, pero relacionada con el estilo del escrito en cuestión.
La Web ha motivado la generación de herramientas que permiten, con distintos grados de sofisticación y precisión, manipular sus contenidos. Para ello, tratan una serie de problemas, relacionados con la naturaleza imperfecta y cambiante de todas las actividades humanas. Ésta se refleja en fenómenos como las ambigüedades, contradicciones y errores de los textos almacenados. Esta tesis presenta una propuesta para complementar la administración de contenidos en la Web y de esta manera facilitar el proceso de recuperación de información. Se presenta un prototipo, denominado Web Intelligent Handler (WIH), que implementa una serie de algoritmos básicos para manipular algunas características morfosintácticas de textos en castellano y, en base a ellas, obtener una representación resumida y alternativa de su contenido. En este contexto, se define una nueva métrica de ponderación para reflejar parte de la esencia morfosintáctica de los sintagmas. Además se define un esquema de interacción entre los módulos para regular la explotación de los textos. También se explora la capacidad de los algoritmos propuestos en el tratamiento de los textos, considerándolos como una colección de sintagmas, sujeta a factores tales como contradicciones, ambigüedades y errores. Otro aporte de esta tesis es la posibilidad de evaluar matemáticamente y de manera automática tipos de estilos de texto y perfiles de escritura. Se proponen los estilos literario, técnico y mensajes. También se proponen los perfiles documento, foro de intercambio, índice Web y texto de sitio blog. Se evalúan los tres estilos y los cuatro perfiles mencionados, los que se comportan como distintos grados de una escala de estilos y perfiles, respectivamente, cuando se los evalúa con la métrica morfosintáctica aquí definida. Adicionalmente, utilizando la misma métrica, es posible realizar una valoración aproximada y automática de la calidad de cualquier tipo de texto. Esta calificación resulta ser invariante a la cantidad de palabras, temática y perfil, pero relacionada con el estilo del escrito en cuestión.
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
+
Este trabajo aborda el tema de la calidad de vida, en adelante CV, la posibilidad de su estudio a través de conjuntos de índices e indicadores, y el uso de SIG como herramienta de análisis. En el marco de este trabajo se entenderá por CV el hecho de poder lograr consolidar un desarrollo social sin deteriorar la base de recursos: naturales, humanos, energéticos y ambientales. Dado que si quisiéramos "capturar" la realidad el volumen de datos a analizar sería excesivo, en su lugar lo que se busca es tomar unas pocas pero significativas observaciones que nos permitan comprender de manera bastante aproximada la realidad. Es aquí donde intervienen entonces los indicadores. Por lo tanto, para el estudio de la CV será necesario contar con un conjunto de indicadores para describir cada una de las diferentes dimensiones que abarca el concepto de CV. Desde luego que este conjunto debe ser diseñado por un grupo multidisciplinario de expertos en el tema. Estos indicadores pueden clasificarse en objetivos y subjetivos, siendo los primeros los que intentan precisar lo que la gente realmente necesita y los últimos lo que la gente cree necesitar. Puesto que distintos grupos sociales perciben las cosas de distintas maneras, un estudio que intente dar cuenta de la calidad de vida no puede tener un modelo aplicable a todos los lugares por igual. Un modelo de CV deberá tener en cuenta necesariamente las particularidades de la región bajo estudio. Por ser la CV un tema que presenta cambios en el espacio y en el tiempo no es de extrañar que varios autores hayan usado SIG como herramienta para su análisis. Ocurre, sin embargo, que la modificación de tales indicadores no suele ser un hecho aislado y que, dada la naturaleza interdependiente de la realidad, el cambio en un indicador normalmente implica cambios en otros indicadores. Por este motivo, la actualización de aquellos indicadores modelizados mediante SIG se torna una tarea de difícil mantenimiento. No obstante, existen en la actualidad técnicas para tratar con el manejo complejo de dependencias. Una de ellas son los patrones de diseño, que representan el último eslabón en desarrollo de software bajo el paradigma de la programación orientada a objetos. Mediante esta técnica, se construirán 3 frameworks para abordar el tema de la calidad de vida. Dada la importancia que tiene para cualquier individuo o grupo social, no sólo desde el punto de vista político, el poder lograr una mejor calidad de vida, el presente trabajo pretende contribuir al estudio y monitoreo de la CV de un lugar, con el objetivo de detectar problemas en forma temprana y servir como base para la toma de decisiones tendientes a mejorar la calidad de vida de los ciudadanos.
La programación de algoritmos paralelos, a diferencia de los algoritmos secuenciales, no cuenta para su representación con un único modelo. Esa carencia ocasiona que su aplicación sobre una arquitectura heterogénea, a través de modelos existentes, no halle el resultado que se ambiciona. La computación paralela ha propuesto, como pocas, significativos quiebres en el ámbito de la Ciencia de la Computación, al provocar la reformulación y generación de nuevos conceptos. El desarrollo de nuevos modelos que mejoren los tiempos de ejecución para aplicaciones paralelas en arquitecturas no homogéneas, se justifica y demanda desde la importancia que concedería al momento de obtener resoluciones efectivas. El Mapping sobre arquitecturas heterogéneas consiste en determinar la asignación de tareas a procesadores, considerando las características más importantes de la aplicación (cantidad de tareas, tiempo de cómputo, etc) y las características de ese tipo de arquitectura en la cual se ejecuta la aplicación; es decir, cantidad de tipos de procesadores y costo de comunicación, entre otras variables. El aporte de esta Tesis Doctoral en cuanto a implementación de modelos y algoritmo de Mapping, evalúa y subsana, basándose en las respectivas pruebas, las limitaciones de aquellas versiones anteriores.
Esta tesis aborda la definición de un método numérico basado en invariantes para la clasificación automática de objetos a partir de la información de sus caracteres, focalizado en la búsqueda de las invariantes con base en una aplicación original metodológica de los principios de superposición e interferencia en el análisis de espectros, en congruencia analógica con la taxonomía numérica, por su relación lógica y con fortaleza metodológica.
En esta tesis se caracterizan los procesos de explotación de información asociados a los problemas de inteligencia de negocio: descubrimiento de reglas de comportamiento, descubrimiento de grupos, descubrimiento de atributos significativos (atributos importantes para el entorno de negocio que se aplica), descubrimiento de reglas de pertenencia a grupos y ponderación de reglas de comportamiento o de pertenencia a grupos. Se identifican las tecnologías de sistemas inteligentes que pueden utilizarse para los procesos caracterizados, validando estos procesos a través de casos aceptados por la comunidad internacional. Se proponen las funcionalidades de un ambiente de explotación de información que integra las tecnologías identificadas. Este ambiente administra en forma unificada los distintos procesos explotación de información que requieren las tecnologías referenciadas.