Objetivos generales:
- Investigar los aspectos vinculados a la obtención de servicios de streaming, el modelado de redes de datos y la caracterización del tráfico allí cursado.
- Determinar un mecanismo que permita establecer un orden entre los nodos que brindan un determinado servicio o recurso deseado en una red "best effort" como es Internet
Objetivos específicos:
- Armar una taxonomía de los servicios que se pueden brindar en redes IP.
- Analizar diferentes formas de modelizar redes de datos, de manera tal que resulte lo más fiel posible a la realidad de una red como Internet, en cuanto a topología, velocidad de enlaces, agregación y caracterización del tráfico, congestión, etc.
- Diagramar y ejecutar simulaciones, en un modelo de red, que permitan cuantificar parámetros de comunicación (bandwidth, delay, jitter, packet loss) en diferentes tipos de servicios que se pueden brindar en dicha red.
- Establecer un criterio que permita ordenar los nodos que ofrecen el servicio deseado considerando los resultados de las simulaciones abordadas.
En este trabajo se presenta el estudio de un caso de integración de una MANET, desplegada en una zona remota, a una red de infraestructura. La finalidad principal es la de proporcionar, a los nodos de la red ad hoc, acceso “seguro” a un servidor de la red de infraestructura, sin comprometer recursos como ancho de banda y energía que son limitados en la zona de despliegue. Para ello, se implemento un escenario de pruebas que comprende el despliegue de una MANET en zona remota y la integración de la misma a una red de infraestructura a través de la red celular. Sobre el escenario propuesto se establecieron canales de comunicación extremo a extremo, entre un nodo de la MANET y un servidor de infraestructura. Inicialmente, se realizaron pruebas inyectando tráfico de datos sobre un canal “no seguro” para obtener valores de referencia para latencia, throughput y consumo de energía. Luego, se efectuaron las mismas pruebas utilizando canales de comunicación “seguros” configurados sobre protocolos IPSEC y SSL/TLS. Los resultados obtenidos utilizando canales “seguros” fueron comparados con los valores de referencia para determinar las diferencias de consumo de recursos. Las desviaciones que surgieron de estas comparaciones, permitieron:
- Establecer el consumo adicional de recursos generado por el uso de protocolos seguros.
- Realizar un estudio comparativo de rendimiento, entre diferentes configuraciones de protocolos de seguridad.
- Determinar que protocolo seguro se adapta mejor a este tipo de entornos.
Las redes Peer-to-Peer (P2P) puras no estructuradas como Gnutella, dónde los nodos se conectan entre sí como pares o iguales, sin roles diferenciados ni jerarquías de ninguna clase, son sistemas distribuidos, dinámicos, sin punto alguno de centralización, que favorecen la robustez y tolerancia a fallos. Sin embargo, la búsqueda de recursos en estos sistemas constituye un problema esencial. El algoritmo de búsqueda BFS de Gnutella genera gran cantidad de tráfico dificultando su escalabilidad. Esta tesis propone un nuevo algoritmo de búsqueda denominado Búsqueda Inteligente Incremental P2P (BII-P2P) en el que los nodos, asistidos por sus redes neuronales locales, propagan selectivamente las solicitudes de búsquedas sólo al subconjunto más apropiado de vecinos. Así se mejora significativamente el algoritmo de Gnutella consiguiendo mayor porcentaje de hallazgos con menor cantidad de tráfico generado sobre la red P2P. El rendimiento de este algoritmo de búsqueda inteligente se ve potenciado por una conveniente estrategia de exploración incremental.
Los trabajos que requieren capacidad de cómputo intensiva necesitan de un administrador de carga de trabajo especializado, que brinde mecanismos de cola, políticas de planificación, esquema de prioridades, monitoreo y administración de recursos. Cuando los usuarios emiten sus trabajos, el administrador deberá decidir cuándo y dónde ejecutarlos, teniendo en cuenta sus requerimientos, realizar un monitoreo del progreso e informar al usuario cuando haya finalizado su ejecución. Al integrar capacidad de proceso, almacenamiento y acceso a recursos remotos, se podrán ejecutar aplicaciones que no pueden procesarse en una computadora única y así satisfacer demandas de cómputo complejas. En este trabajo se discute el uso de Condor como gestor de recursos disponibles en un entorno de Computación de Alta Disponibilidad ya que es un sistema que ofrece funcionalidades de HTC donde los usuarios no tienen que preocuparse, por ejemplo, dónde enviar sus trabajos para ejecución, ni de tener que enviar manualmente un gran número de ellos cuando así lo requieran.
Esta tesis tiene como objetivo general desarrollar una herramienta para analizar/predecir condiciones de trabajo de una red de sensores. En particular, se enfoca a un conjunto de dispositivos de vuelo que son parte de sistemas aeroespaciales. El simulador es obtenido por medio de un modelado específico del sistema y su contrastación es realizada a través de un prototipo hardware. La herramienta propuesta permite conseguir medidas previas a la implementación de una etapa experimental definitiva de un dispositivo de vuelo. En particular, en los sistemas aeroespaciales, es necesario cambiar las condiciones de trabajo de los prototipos para predecir el comportamiento y posibles fallos durante la etapa de servicio del hardware definitivo. Conseguir estas condiciones de trabajo puede resultar muy costoso debido al valor de los dispositivos para generarlas. El modelo de simulación provee el medio para extrapolar posibles escenarios operativos sin contar con instrumentos físicos.
En el desarrollo de esta tesis se propuso presentar el nuevo protocolo Netconf RFC 4147 y su profunda relación con las tareas de management de dispositivos de red. Los objetivos principales fueron diseñar e implementar un servidor de gestión de elementos llamado NEMS (Netconf Element Management System), completamente programado en Python[8], con la función principal de administrar la configuración de aquellos equipos con soporte del protocolo Netconf. Se ha utilizado el mismo para validar los métodos propuestos por el estándar y verificar su capacidad de controlar diversos dispositivos.
Además, se planteó documentar en este trabajo el diseño y la implementación del sistema de gestión propuesto, las operaciones, posibles casos de uso y las posibles extensiones futuras de los módulos asociados.
Demo Content
El objetivo de la tesis es elaborar un modelo destinado a la generación de tráfico de red para simulación de sistemas, total o parcialmente autosimilar, y que satisfaga determinadas características cuantitativas del tráfico que modela. Tasa promedio de paquetes, coeficiente de Hurst, comportamiento de las colas, y otros indicadores. Además, cada paquete del tráfico generado, debe incluir la información adicional necesaria que permita analizar la eficiencia de los algoritmos de asignación de ancho de banda en WiMAX, en un entorno de simulación.
El Potential Polynomial of Degree 1 in Each Variable o P1P es una teoría reciente que resuelve un problema variacional complejo, los P1P se utilizaron para análisis de datos masivos en las áreas de Aprendizaje en Maquinas y Dataminig con resultados positivos, la tesis presenta el uso de los P1P en el modelado tráfico en redes IP, detalla la teoría de los P1P con un enfoque en redes para su posterior aplicación. Los dos modelos construidos, uno en el nivel de red y trasporte, y dos en el nivel de aplicación, demuestran que los P1P son una alternativa de modelado con la propiedad de ajustase a las características de tráfico particular. La tesis proporciona métodos de aplicación y construcción de P1P's, también brinda una forma de reducir la cantidad de variables para modelos complejos. El metamodelo y el estudio de los P1P con la teoría de la información son el inicio de nuevos trabajos de investigación para el uso en aplicaciones y para la propia teoría de P1P. La evaluación de la representatividad del modelo matemático de un sistema en relación a la realidad es un aspecto importante para obtener buenas estimaciones, realizamos una comparación entre un P1P y la Teoría de Colas para modelar tráfico de correo electrónico.
El enfoque de este estudio se orienta al análisis y desarrollo de tecnologías basadas en la investigación estadística, las redes neuronales y los sistemas autónomos aplicados a los problemas de detección de intrusiones en redes de datos. A lo largo de su desarrollo se pretende consolidar mejores métodos para detectar dichos ataques, para lo cual se seleccionan los más apropiados elementos de juicio que hagan efectivos y óptimos los métodos de defensa. Los objetivos específicos de este trabajo se sumarizan en el siguiente orden: - Proponer una arquitectura realista y bien estructurada de los métodos de defensa, a los fines de ser implementados en cualquier sitio. - Demostrar y comprobar paso a paso, las hipótesis y las propuestas teóricas mediante el análisis de los datos tomados de la realidad. - Poner de manifiesto el dominio en el conocimiento de la seguridad informática y de los IDS, de tal forma que ellos constituyan el ítem inteligente en la elección de los algoritmos apropiados, cuestión de evitar la incumbencia de un problema en algún algoritmo, en particular. - Implementar un prototipo de los algoritmos propuestos.
El objetivo de esta tesis es definir una metodología general y abarcativa para desarrollar proyectos con enfoque SOA y BPM. Además, esta tesis provee un modelo para la integración de aplicaciones, realizando un estudio evolutivo de las distintas estrategias destinadas a tal fin, buscando puntos de contacto entre ellas y eligiendo los elementos a componer para lograr una integración completa, segura y confiable de los sistemas de software existentes, optimizando su reusabilidad y minimizando los costos de mantenimiento, tanto técnicos como económicos.
El crecimiento tecnológico va de la mano con el crecimiento y evolución de las aplicaciones. Con el correr del tiempo las redes de datos requieren más disponibilidad tornándose crítico para una red académica o privada. Pequeños cambios en el uso de la red pueden causar alto impacto en la misma, cuando nos referimos a impacto en general hablamos que es un impacto negativo, por ejemplo saturando un enlace o utilizando recursos asignados para otra aplicación mas prioritaria, esto aumenta el costo de operación de la red y como consecuencia una degradación de servicio. Se pretende lograr una completa visión de la “salud” de la red, observando en puntos clave para lograr una buena administración y la calidad de servicio de la misma. Se dará alcance a los siguientes ítems: • Medir y clasificar el tráfico en una red. • Detectar las aplicaciones, funcionamiento normal, congestión, fallas, cambios en el tiempo y evolución de una red. • Rastreo y análisis en la red para identificar actividad no autorizada o actividad que provoque degradación. • Herramientas para el planeamiento y control.
Este trabajo, esta orientado al estudio del trafico autosimilar en las redes telemáticas, fundamentado en la revisión crítica, de diversos trabajos científicos realizados en este campo hasta el presente, y al desarrollo de aplicaciones practicas basadas en las wavelets u onditas utilizando el software MATLAB®. El objetivo de este trabajo se formaliza a través de dos ejes:
1. Brindar un marco o estructura didáctica que permita el desarrollo del tema como una unidad de estudio y aprendizaje.
2. El desarrollo de scripts o aplicaciones, para abordar el estudio de distintas características y/o propiedades en el contexto de la autosimilitud, y de esta manera, permitir el análisis, detección de comportamiento, estimación de parámetros, y la producción de tráfico sintético, de manera que puedan utilizarse en el ámbito de la simulación.
Se considera este trabajo como un aporte curricular razonablemente autocontenido, con miras a facilitar el estudio de la temática considerada, y servir de base a otros estudios que contemplen la autosimilitud en el contexto del tráfico en las redes telemáticas.
Los microcontroladores están inmersos en nuestra forma de vida. Los encontramos en automóviles, lavarropas, celulares, reproductores MP3, agendas y en un sinfín de sitios en nuestra vida cotidiana. La capacidad de integración a muy alta escala (VLSI) -con crecimiento casi exponencial en los últimos años-, hace que estos dispositivos cada día contengan más y más funciones que antes eran impensadas. Debido a ello, una agrupación de estos dispositivos conectados en red, configura un sistema de control muy poderoso, que dotado de algún protocolo normalizado que permita su interconexión a Internet, le da un alcance prácticamente ilimitado y de gran escalabilidad. Por lo expuesto, en esta tesis se estudiará la implementación de una red de microcontroladores, definiendo funciones de Control y adquisición de datos, equivalentes a los sistemas de Control y Adquisición de Datos (SCADA) de gran escala. Sobre la definición efectuada, surgirá un protocolo de aplicación que permitirá así un desarrollo Top-Down del sistema. Sobre la base de la definición lograda, este primer capítulo describe en un modo general los alcances de la tesis, donde se estudiarán entre otros aspectos, los protocolos de capas de comunicaciones para llegar a dos de las implementaciones más populares utilizadas en los ambientes industriales: RS485 y Ethernet. Si bien la primera es mucho más antigua, sigue aún vigente y se ha potenciado a partir de la creación de interfaces compatibles, citando como ejemplo la inmunidad a ruido eléctrico que le provee una interfase transparente sobre fibra óptica. La segunda, más moderna, ya fija una tendencia debido a su ubicuidad y amplitud de prestaciones.
Las mediciones de tiempo utilizando una computadora han llevado a estudiar posibles herramientas. Dichas herramientas presentan características de hardware y de software. Con el advenimiento de los sitemas distribuidos, aparece la necesidad de mediciones en equipos remotos conectados, que lleva a tener que sincronizarlos entre sí. Dicho sincronismo no es trivial. El problema surge por comunicar las referencias de tiempo a través de la red.
El objetivo de este trabajo es analizar y proponer técnicas de Calidad de Servicio en redes wireless usando el protocolo IPv6. Estas técnicas están empezando a tener una gran importancia dentro del ámbito de las redes de datos. Esto se debe, principalmente, a las nuevas aplicaciones que hacen uso de dichas redes. Por su parte, las redes inalámbricas han tenido en los últimos años una incursión masiva en las redes hogareñas y empresariales y ese crecimiento continúa en alza. Pero, a pesar de incrementar el ancho de banda disponible en las sucesivas especificaciones, su rendimiento real no alcanza para cubrir todas las necesidades funcionales de esas aplicaciones. Por último, IPv6 se presenta como el sucesor de IPv4 y entre sus mejoras existen algunas que están relacionadas con la Calidad de Servicio. Es por esto, que ante el avance de estas técnicas y tecnologías, se abre una excelente posibilidad para integrarlas.