El Salvador
websys@itcgapps.com

Arquitectura básica de Cloud Computing

Bitácora de temas

Arquitectura básica de Cloud Computing

La arquitectura básica del modelo de trabajo en Cloud Computing se compone de varios elementos técnicos que trabajan de forma integrada para ofrecer servicios confiables y escalables. Entre estos componentes destacan la interconexión de centros de datos, la virtualización de recursos de cómputo y almacenamiento, la creación de redes virtualizadas, y la aplicación de herramientas y técnicas orientadas a alta disponibilidad y tolerancia a fallos, cuyo objetivo principal es mantener los servicios accesibles incluso ante fallas.

Centros de datos

Los centros de datos son el corazón físico del cloud computing. Se trata de instalaciones físicas construidas y operadas por proveedores como Microsoft Azure, Amazon Web Services (AWS) y Google Cloud, entre otras, diseñadas para albergar miles de servidores, sistemas de almacenamiento y dispositivos de red de alto rendimiento que hacen posible la entrega de servicios en la nube.

Estos centros de datos contienen infraestructura de red altamente potente, conformada por enrutadores, conmutadores y enlaces de gran capacidad, que permiten interconectar cientos o miles de servidores físicos. Un centro de datos incluye, por sí mismo, la existencia de conectividad en red, alimentación eléctrica, métodos de enfriamiento y otros recursos para que la plataforma opere de manera adecuada. Gracias a esta arquitectura, los proveedores pueden ofrecer recursos de cómputo, bases de datos y almacenamiento a gran escala, soportando millones de usuarios simultáneamente.

Dado que el principio clave de los centros de datos en cloud es el modelo multi‑cliente o de recursos compartidos, donde múltiples organizaciones utilizan la misma infraestructura física bajo un esquema de pago por uso, es importante que dichos proveedores gestionen la seguridad de tales centros de datos. Para proteger esta infraestructura, los proveedores implementan estrictas medidas de seguridad física como vigilancia 24/7, controles biométricos de acceso y zonas restringidas, así como controles de ciberseguridad que incluyen monitoreo continuo, segmentación de redes y protección contra ataques.

Centros de datos y regiones

En la mayoría de proveedores, la infraestructura global se organiza mediante el concepto de regiones. Una región es un conjunto de uno o más centros de datos desplegados dentro de un perímetro físico definido por baja latencia (por ejemplo, ciudades vecinas), interconectados por una red regional dedicada de alta velocidad que permite mover datos y servicios de forma eficiente.

Para que un centro de datos forme parte de una región, debe cumplir requisitos estrictos de diseño y localización. Entre ellos se consideran factores como distancia geográfica controlada, ubicación en áreas con bajo riesgo de inundaciones, terremotos u otros desastres naturales, así como estabilidad política, económica y social que garantice la integridad y continuidad operativa de la infraestructura. Muchas regiones incluyen además zonas de disponibilidad, que son centros de datos físicamente separados dentro de una misma región, cada uno con infraestructura independiente de energía, refrigeración y red. Su propósito es proteger contra fallos a gran escala dentro de una región.

Geografías

A un nivel superior, los proveedores agrupan regiones en geografías, las cuales generalmente buscan cumplir requisitos de residencia de datos y recuperación ante desastres entre grandes áreas del mundo. Una geografía es una agrupación lógica de una o más regiones cloud dentro de una gran área del mundo (normalmente un país, conjunto de países o un continente, tales como Estados Unidos, Europa, Brasil o Canadá). El propósito principal de agrupar regiones en geografías es cumplir requisitos legales y regulatorios sobre dónde pueden residir los datos. Muchas organizaciones clientes, dentro de su marco regulatorio de operación, podrían estar sujetas a regulaciones como: GDPR en Europa, HIPAA o FedRAMP en Estados Unidos o, más comúnmente, leyes nacionales de soberanía de datos.

Al definir una geografía, los datos no salen automáticamente de esa geografía y los servicios de replicación, copia y recuperación ante desastres se mantienen dentro de ese límite por defecto. Es decir, una región es una ubicación técnica (con centros de datos) en tanto que una geografía es una frontera legal, regulatoria y de soberanía de datos.

Alta disponibilidad

La alta disponibilidad en cloud computing se refiere a la capacidad de un servicio para permanecer operativo y accesible sin interrupciones significativas. Este compromiso suele expresarse mediante un Acuerdo de Nivel de Servicio (SLA), representado por porcentajes como 99%, 99.9% o 99.99%, que indican el tiempo esperado de disponibilidad. Los proveedores cloud logran esta alta disponibilidad combinando infraestructura física resiliente, servicios automatizados y los propios acuerdos SLA, que funcionan como una garantía formal para el cliente. No se trata de un solo componente, sino de una estrategia integral que involucra múltiples capas de la arquitectura cloud.

Entre esas capas podemos mencionar como pilares fundamentales de la alta disponibilidad a:

  • Las zonas de disponibilidad, que permiten que, si un centro de datos falla, la aplicación continúe operando desde otra zona dentro de la misma región. A esto se suma la redundancia geográfica, mediante la cual los datos y servicios pueden replicarse entre regiones distantes para proteger contra desastres naturales o cortes de gran magnitud.
  • El almacenamiento redundante, que copia los datos varias veces en distintos medios para asegurar su durabilidad.
  • Los mecanismos de escalado automático o elasticidad, tanto vertical como horizontal, que ajustan recursos según la demanda.
  • Herramientas de balanceo de carga, encargadas de distribuir el tráfico entre servidores para evitar la saturación de un único nodo.

Tolerancia a fallos

La tolerancia a fallos es una estrategia complementaria que busca que los sistemas sigan funcionando incluso cuando ocurren fallas de hardware, software o conectividad. Se apoya en una combinación de infraestructura distribuida globalmente, automatización inteligente y redundancia, compartiendo objetivos con la alta disponibilidad, pero con foco en la recuperación automática ante errores.

Entre los mecanismos clave de tolerancia a fallos se encuentran:

  • La infraestructura global y las zonas de disponibilidad, que permiten migrar servicios si una zona completa falla
  • Los conjuntos de disponibilidad, donde recursos como máquinas virtuales se distribuyen en diferentes nodos físicos para evitar que un solo fallo afecte a todas las instancias.
  • La replicación automática de datos, que puede ser local, entre zonas o incluso entre geografías.
  • Herramientas de balanceo de carga, con tareas similares a su propósito en la alta disponibilidad.
  • Servicios de monitoreo de salud, los cuales detectan fallas de hardware o rendimiento y pueden notificar al cliente o mover automáticamente las cargas de trabajo a nodos saludables.

Conclusión

En conclusión, los centros de datos proporcionan la base física del cloud, las regiones y zonas organizan esa infraestructura para optimizar latencia y resiliencia, las geografías agrupan regiones con propósito de gestionar residencia de datos. Todos estos conceptos se combinan estratégicamente para ofrecer alta disponibilidad y tolerancia a fallos; en conjunto, forman una arquitectura integral que permite a la nube ofrecer servicios confiables, escalables y resistentes, incluso frente a fallas significativas.