Nuevo modelo de Infraestructuras hiperconvergentes en España

Compartir nota:

SimpliVity ha presentado hoy en España su modelo de infraestructura hiperconvergente y de arquitectura de datos que simplifica las TI, los datos y operaciones, ofreciendo importantes ahorros en costes operativos. En la nota le contamos de qué se trata esta nueva solución y cómo puede llegar a ser una mejora en la empresa del usuario.

Las compañías se enfrentan a cantidades masivas de datos que cuestan millones de dólares para recoger, almacenar y gestionar. La continua inversión en hardware de servidores, almacenamiento y de red que utiliza métodos ineficientes para el almacenamiento y procesamiento de datos no es la respuesta adecuada, como tampoco lo es la forma en que se gestionan estos componentes de TI en silos funcionales. Este enfoque es complejo, laborioso y costoso, y se dificulta cada año con el crecimiento exponencial del volumen de datos. SimpliVity ofrece una solución diseñada para simplificarlo y que, además, resulten grandes ahorros en capital y costes operativos.

El centro de datos definido por software (SDDC) abstrae el control de todos los elementos de la infraestructura, incluyendo CPU, almacenamiento y redes, desde el hardware y permite la distribución de servicios y la gestión automatizada a través del software. Hasta ahora, la virtualización de servidores se ha visto frenada por los silos de almacenamiento físico y de activos de red. La virtualización se sigue ejecutando en sistemas de hardware especializados en el data center. Estos recursos de almacenamiento y de red no son escalables, ni están agrupados y a menudo están sobre aprovisionados para soportar las cargas de trabajo de los servidores virtualizados. El entorno resultante es complejo y costoso de gestionar, y la escala solo agrava el problema.

Hay algunas cuestiones respecto al almacenamiento de datos para cargas de trabajo virtualizadas que no se pueden resolver con una infraestructura de montones de silos heredada:

Rendimiento
Al existir múltiples cargas de trabajo con diferentes flujos IO que están siendo multiplexados por el hipervisor, el resultado son flujos IO aleatorios que compiten por los recursos, lo que aumenta las IOPS necesarias para dar servicio a las cargas de trabajo virtuales. Para hacer frente a los problemas de rendimiento, los administradores de almacenamiento suelen añadir más discos. Sin embargo, esto también aumenta la capacidad. Esta provisión excesiva conduce a un mayor coste por gigabyte de almacenamiento asignado a cada máquina virtual.

Capacidad
Dado que las máquinas virtuales encapsulan el sistema operativo, las aplicaciones y los datos, el centro de datos virtualizado agrega un volumen masivo de datos redundantes, y crea una enorme ineficiencia en la capacidad de almacenamiento. También lo hace la expansión incontrolada de máquinas virtuales. El rápido despliegue de máquinas virtuales aumenta el volumen de almacenamiento necesario para la infraestructura virtual. A medida que el número de máquinas virtuales aumenta, también lo hace el volumen de instantáneas que consume capacidad de almacenamiento.

Movilidad y gestión
Las máquinas virtualizadas son portátiles, sin embargo, siempre están atadas al almacenamiento de datos en el dominio de virtualización, que está atado a un sistema de almacenamiento físico en silos. Las políticas para la replicación o instantáneas, por ejemplo, se configuran a nivel de la unidad de almacenamiento; un LUN. Esto significa que los almacenes de datos en el mismo LUN heredan las políticas basadas en LUN. La toma de instantáneas y/o replicar un LUN que aloja decenas o cientos de máquinas virtuales cuando se necesita sólo una única copia de la máquina virtual resulta en un uso ineficiente de la capacidad de almacenamiento y ancho de banda de red. Al mismo tiempo, la virtualización es un modelo de abstracción que permite una gestión VM-céntrica donde los recursos se asignan, se definen y están optimizados a nivel de máquina virtual y sin limitaciones físicas.

La plataforma de virtualización de datos de SimpliVity es una tecnología resuelve estos problemas. Lo hace suministrando una nueva arquitectura de datos sobre la infraestructura hiperconvergente.

La hiperconvergencia describe una solución de infraestructura de computación virtual que combina todas las funciones de un centro de datos en forma de un dispositivo, lo que mejora la velocidad y la agilidad en la implementación de infraestructura para cargas de trabajo virtuales. La infraestructura hiperconvergente se caracteriza por un diseño basado en software; componentes de hardware x86 básicos que combinan computación, almacenamiento y redes con tecnología de hipervisor en un solo dispositivo “building block”; automatización; gestión de recursos agregados a través de los nodos como un único sistema federado; y está diseñado, suministrado y soportado por un único fabricante. El sistema de TI consumible único, pretende simplificar la gestión, resolver los problemas de interoperabilidad, y reducir costes frente a las infraestructuras heredadas.

Los primeros integrantes del mercado de la infraestructura convergente consistían en productos heredados basados en la fórmula pre-racked y soluciones cableadas basadas en una arquitectura de referencia.

ITSitio.com: Nuevo modelo de Infraestructuras hiperconvergentes en España

La siguiente ola de soluciones son aplicaciones modulares basadas en componentes de hardware básicos que agregan las funciones de computación y almacenamiento y que pueden escalar añadiendo “building blocks” o nodos. Aunque ofrecen mejoras en el tiempo de implementación y el coste de adquisición, este tipo de soluciones no puede abordar eficazmente los problemas relacionados con el rendimiento/IOPS o la capacidad.

SimpliVity ofrece la “tercera ola”, proporcionando una única pila de infraestructura de software unificada sobre componentes de hardware x86 en un solo pool de recursos compartidos. La Plataforma de Virtualización de Datos da respuesta a los problemas de rendimiento, capacidad y gestión de movilidad, en una arquitectura de datos que:

• Elimina la redundancia de lecturas y escrituras mediante la reducción de la huella de datos en almacenamiento primario/producción y secundario/backup, gracias a la deduplicación. La comprensión y optimización al inicio contribuye a una reducción del 300% de los TCO.
• Integra la protección de datos, eliminando la necesidad de un complejo y costoso equipamiento de hardware y software.
• Consigue la centralización VM mediante el seguimiento de los datos que pertenecen a cada máquina virtual y permite la movilidad.

Compartir nota:

Publicaciones Relacionadas

Scroll to Top