¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores

En este artículo se analizarán las principales tecnologías que están emergiendo en el campo de la tecnología y que están marcando la tendencia actual y futura de la infraestructura de un Data Center moderno. Se presentará especial atención a tecnologías como Software Defined Data Center (SDDC) e Hyper Convergencia, ya que son éstas las que están revolucionando la manera en que los data centers operan a nivel mundial.

Como parte del proceso de evolución de los Data Centers se nota una marcada tendencia a la necesidad de mayor flexibilidad, agilidad y control. Con las aplicaciones de tercera plataforma han surgido nuevos retos para los cuales las infraestructuras tradicionales no están preparadas, por lo que es necesarios adoptar nuevas formas de hacer operar el centro de datos.

La manera popular, en estos momentos, de satisfacer dichas necesidades es adoptar un modelo definido por software el cual se basa en la idea de abstraer los recursos físicos del data center y manejarlos con software. El ejemplo más claro de este modelo es la utilización de un hypervisor para la virtualización de los recursos de cómputo. La habilidad de crear un servidor nuevo con solo unos cuantos “clics” o migrar las cargas de trabajo de un servidor físico a otro sin disrupción de servicio es la esencia del modelo definido por software.

Este modelo definido por software que empezó con la virtualización de componentes de cómputo, ahora está comenzando a abarcar todas las áreas del data center, es por eso que en la actualidad el concepto ha evolucionado al término “Data Center Definido por Software” o SDDC por sus siglas en inglés. Se debe entender que SDDC no es un equipo o elemento específico dentro de la infraestructura, más bien es un concepto que describe cómo los distintos componentes de un data center son abstraídos y controlados por software. Sin embargo, un SDDC sí tiene unas características bien definidas que es importante anotar:

  • Automatización de tareas
  • Orquestación de recursos
  • Abstracción de recursos en software

Por naturaleza un código de software, es más confiable que los humanos, por ejemplo, para realizar las tareas típicas de administración de una infraestructura que puede incluir revisión de logs de servidores, actualizaciones de firmware, etc. Es por esto, que los SDDC comparados con los data centers tradicionales, son más ágiles, seguros y reaccionan más rápidamente ante las exigencias del negocio. Como consecuencia del modelo de abstracción de los componentes físicos, el hardware es cada vez menos relevante en un centro de datos moderno.

El salto hacia el Cómputo Definido por Software (SDC)

El término cómputo normalmente tiene relación con los componentes de CPU y memoria de un servidor. Los otros componentes de redes y almacenamiento son otros conceptos que serán abordados más adelante en este artículo.
SDC, es la técnica de controlar y automatizar los recursos de cómputo abstraídos en software.

En la mayoría de casos, esto significa manipular las cargas de trabajo de las máquinas virtuales.

Se puede considerar a la virtualización de servidores como el antecesor del SDDC ya que esta tecnología fue la primera en gestionar, a través de software, los componentes físicos del ambiente de servidores y en la actualidad la industria de TI está muy familiarizada con ésta.

Existen muchas ventajas, para el negocio, derivadas de la adopción del modelo SDC o virtualización de servidores. Algunas de estas tienen que ver con la consolidación de recursos físicos, incremento de la agilidad del departamento de IT, incremento del desempeño de la infraestructura y mejora en los niveles de utilización de los recursos. Los hipervisores modernos ofrecen características avanzadas para el manejo de las cargas de trabajo tales como migración de VMs entre servidores físicos sin disrupción del servicio; o aplicación de funciones inteligentes que permiten colocar las cargas de trabajo en el servidor físico más apropiado de acuerdo a los niveles de utilización.

El reto para las otras tecnologías definidas por software como almacenamiento definido por software y redes definidas por software, es ir ganando aceptación, confianza y utilización en el mercado.

SDC ya alcanzó ese punto de confianza años atrás gracias a la virtualización; ahora su reto es el de proveer mayor control e inteligencia a la plataforma. Las tecnologías definidas por software se basan en su habilidad para manipular sistemas desde afuera de los sistemas, típicamente eso se alcanza a través de APIs (Application Programming Interfaces) o puntos de integración; por lo cual los esfuerzos de este modelo estarán centrados en mejorar la integración con dichas APIs.

El salto hacia el Almacenamiento Definido por Software (SDS)

Al igual que la virtualización de servidores, el concepto de SDS (Software Defined Storage) es tomar control de los recursos de almacenamiento y de cierta manera virtualizar los. El propósito es tomar distintos medios de almacenamiento físicos aislados, agruparlos y abstraernos con software de tal manera que puedan ser consumidos de manera controlada y programada por la plataforma SDS en lugar de que sean accedidos de manera independiente.

SDS también se concentra en brindar control sobre los almacenamientos, incluyendo servicios de datos que les permite a los administradores optimizar y proteger la información almacenada. Algunos servicios que las plataformas SDS incluyen son los siguientes:

  • De-duplicación
  • Compresión
  • Thin provisioning
  • Clones
  • Replicación
  • Snapshots

Uno de los grandes beneficios de SDS es que, a través de la abstracción, los almacenamientos subyacentes heterogéneos, se muestran y se sienten como homogéneos desde el punto de vista del administrador y de las aplicaciones que se ejecutan sobre ellos. SDS permite que el manejo del almacenamiento llegue a la granularidad de la VM, Virtual Machine o máquina virtual, y del disco virtual en lugar de concentrarla a nivel de volúmenes o LUNs de almacenamiento, como tradicionalmente se maneja. Esto, sin duda, ofrece un mayor control y flexibilidad del ambiente.

Uno de los grandes problemas que se resuelve con SDS es el manejo de las actualizaciones y reemplazos de almacenamientos productivos. Esta tarea, en las infraestructuras tradicionales, implica complicados procesos de migración, de análisis de compatibilidad, y grandes períodos de tiempo de interrupción de los servicios. Al desacoplar el hardware con las plataformas de SDS, este reemplazo se puede hacer transparentemente sin interrupciones de servicio ni impacto en el desempeño de las aplicaciones.

De igual manera SDS es uno de los principales promotores del uso de hardware tipo commodity.

Mientras que en los data centers tradicionales se suele destinar grandes cantidades de dinero en almacenamientos monolíticos, SDS permite crear una arquitectura de almacenamiento alternativa que no depende de un almacenamiento físico. El ejemplo más claro de este tipo de arquitectura, es aquella en la que los medios de almacenamiento (discos) están directamente conectados en los servidores y SDS se encarga de agregarlos en un solo pool de recursos a través de software. En esta arquitectura no se necesita un almacenamiento externo.

El salto hacia las Redes Definidas por Software (SDN)

Las redes son el corazón de las comunicaciones dentro y fuera de los Data Centers; su rol es tan vital que la abstracción de su función en una arquitectura tipo SDN (Software Defined Network) cambiará radicalmente la forma en que se operan y diseñan los data centers. De igual manera, la abstracción de las redes libera nuevos niveles de escalabilidad y flexibilidad.

El concepto de SDN se basa en desacoplar el plano de control del plano de datos en los dispositivos de red, de tal manera que se pueda manejar y programar el plano de control desde la plataforma SDN. Esto permite por ejemplo que las redes puedan ser rediseñadas en una sola operación de programación centralizada, igualmente escalar la red bajo demanda. Las redes tradicionales han confiado ampliamente en la sobre-suscripción de los enlaces para acomodar el tráfico nuevo, sin embargo, con el modelo SDN es posible crear redes dinámicas que se vayan adaptando a los nuevos requerimientos de tráfico de manera automática.

SDN, al igual que sucede con el almacenamiento y el cómputo, también elimina la dependencia hacía fabricantes específicos ya que el hardware es abstraído en la plataforma de software. Esto quiere decir que el departamento de IT no estaría más atado al ciclo de vida de los equipos y a los desarrollos de nuevas funcionalidades por parte del fabricante, ya que estaría en capacidad de desarrollar sus propias mejoras y aplicaciones. Las empresas tendrían la facilidad de mover hardware, reemplazarlo, usar varias marcas a nivel de dispositivos conservando siempre el mismo nivel de abstracción. Todo esto es posible gracias a proyectos como OpenFlow, el cual se ha convertido en referente del modelo SDN.

Los proveedores de servicios tipo Cloud podrían ser los grandes beneficiarios de SDN, puesto que esta tecnología podría permitirles crear ambientes de red con administración independiente para sus clientes (multi-tenant) sin la necesidad de modificar la capa de hardware. Con un solo clic se podría disparar una seria de llamadas a APIs, las cuales se encargaran de crear nuevas redes en cuestión de segundos. Esto permite, a nivel de redes, alcanzar la agilidad que las plataformas de nube están acostumbradas a proveer a sus usuarios; lo mismo podría aplicarse al interior de cualquier institución.

El salto hacia la Seguridad Definida por Software

Un estudio realizado por IBM en el 2014, muestra que el 95% de los incidentes de seguridad que su equipo atendió fueron atribuidos a errores humanos (IBM, 2014). Los errores humanos pueden ir desde el uso de contraseñas débiles hasta errores en la configuración de Listas de Control de Acceso (ACLs). De cualquier manera, parece ser que, si estos errores humanos pudieran ser erradicados parcial o completamente, la mayoría de problemas de seguridad de las instituciones podrían evitarse.

Los Data Centers modernos, apuntan a Software Defined Security como solución a los errores humanos. Tal como en los otros sistemas definidos por software que se revisaron, la seguridad definida por software se caracteriza por la abstracción del manejo de la seguridad y de las políticas de los dispositivos y plataformas que proveen seguridad como firewalls, IPS, etc. Esta tecnología permite la automatización de las políticas de seguridad y su modificación de manera centralizada. Además, la automatización de los cambios de políticas de seguridad permite mayor precisión lo que conlleva a menos incidentes de seguridad atribuibles a errores humanos.

Un ejemplo de seguridad definida por software sería el despliegue automático de un firewall basado en software que dé servicio a un nuevo cliente, el cual habilita ciertas reglas de seguridad en las cuales se deniegue todo tipo de tráfico excepto por el dirigido hacia el puerto 443. Las reglas como tal no están codificadas en el proceso de automatización, pero si el resultado de la política que es bloquear todo tráfico que no vaya dirigido al puerto 443.

Este tipo de políticas de seguridad, mostradas en el ejemplo anterior, son tareas que se hacen todo el tiempo en el departamento de IT sin la necesidad de utilizar seguridad definida por software; pero son susceptibles a errores humanos, dependientes de las plataformas de seguridad y no se conducen por políticas definidas. La creación de políticas de seguridad a través de una capa de abstracción por software es el modelo de seguridad de los data centers modernos.

Fuente: Pontificia Universidad Católica del Ecuador, Estudio de las tendencias tecnológicas para la modernización de centro de datos, Mario Sánchez Paz.

Adaptado por la división consultoría de EvaluandoCloud.com

 

¿Qué Software es apto para su empresa?

Acceda a nuestros evaluadores