DESPLIEGUE DE UNA APLICACIÓN BASADA EN MICROSERVICIOS CON AUTO ESCALADO EN LA NUBE DE UN PROVEEDOR DE SERVICIOS CON ORQUESTADOR DE CONTENEDORES
dc.contributor.author | Oñate Rodriguez-Pardo, Jaime | |
dc.date.accessioned | 2024-07-23T14:00:08Z | |
dc.date.available | 2024-07-23T14:00:08Z | |
dc.date.issued | 2024-07-18 | |
dc.description | Trabajo Fin de Grado leído en la Universidad Rey Juan Carlos en el curso académico 2023/2024. Directores/as: María Teresa González De Lena Alonso | |
dc.description.abstract | En el mercado actual, las aplicaciones, programas y servicios presentan grandes complejidades en su diseño y arquitectura. Esto se relaciona con su rendimiento, y con la capacidad de satisfacer las peticiones de clientes bajo cargas de trabajo inesperadas. Con cargas de trabajo bajas, se destina mas dinero del necesario para el servicio desplegado; y con cargas de trabajo superiores a la esperada, no se satisfacen servicios esenciales (afecta especialmente a la experiencia de usuario). Debido a estas cargas de trabajo arbitrarias, es necesario invertir en nuevas tecnologías que resuelvan el problema, como en la tecnología del escalado automático. Por otro lado, debido la complejidad implicada es necesario una herramienta que gestione el despliegue de esta tecnología, como los orquestadores de contenedores. En este trabajo de fin de grado se ha investigado la implementación de escalado automático en el despliegue de productos software utilizando orquestadores de contenedores. A lo largo del proyecto, se han identificado las limitaciones de los gestores de contenedores tradicionales y se ha explorado la viabilidad de emplear tecnologías avanzadas que proporcionen estas capacidades. El estudio se ha centrado en la transición de un gestor de contenedores a un orquestador de contenedores, esencial para gestionar aplicaciones que requieren escalado automático. Se ha demostrado que orquestadores como Kubernetes no solo facilitan el despliegue y escalado de contenedores, sino que también aseguran balanceo de carga, alta disponibilidad y recuperación ante fallos. Esto contrasta con las capacidades limitadas de los gestores de contenedores, que se restringen a manejar contenedores individuales en un solo host. En los capítulos siguientes, se presenta un análisis detallado del estado actual de las tecnologías de orquestación, se describe la lógica subyacente en los sistemas de orquestación de contenedores y se despliega un producto en un entorno de orquestación real, realizando pruebas para evaluar su rendimiento y capacidad de escalado. A pesar de la complejidad y coste de emplear un orquestador de contenedores, se vuelve necesario su uso en aplicaciones con cargas de trabajo variables e impredecibles. | |
dc.identifier.uri | https://hdl.handle.net/10115/38638 | |
dc.language.iso | spa | |
dc.publisher | Universidad Rey Juan Carlos | |
dc.rights | Creative Commons Atribución 4.0 Internacional | |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | |
dc.rights.uri | https://creativecommons.org/licenses/by/4.0/legalcode | |
dc.subject | contenedores | |
dc.subject | orquestador de contenedores | |
dc.subject | Kubernetes | |
dc.subject | Docker | |
dc.subject | Google Cloud | |
dc.subject | clúster | |
dc.subject | autoescalado | |
dc.subject | Docker Swarm | |
dc.subject | Google Kubernetes Engine | |
dc.title | DESPLIEGUE DE UNA APLICACIÓN BASADA EN MICROSERVICIOS CON AUTO ESCALADO EN LA NUBE DE UN PROVEEDOR DE SERVICIOS CON ORQUESTADOR DE CONTENEDORES | |
dc.type | info:eu-repo/semantics/studentThesis |
Archivos
Bloque original
1 - 1 de 1
Cargando...
- Nombre:
- 2023-24-ETSII-A-2113-2113043-j.onater-MEMORIA.pdf
- Tamaño:
- 1.05 MB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Memoria del TFG