Revisión de EMC VNX5200
El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas VNX2 de la empresa y presenta almacenamiento en bloque con archivos opcionales y funcionalidad de almacenamiento unificado. El VNX5200 puede administrar hasta 125 discos duros y SSD SAS y NL-SAS de 2,5 o 3,5 pulgadas y está construido con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas empresariales StorageReview, viajó recientemente al centro de datos de EMC en Hopkinton, MA, para participar de manera práctica y realizar pruebas comparativas del VNX5200.
El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas VNX2 de la empresa y presenta almacenamiento en bloque con archivos opcionales y funcionalidad de almacenamiento unificado. El VNX5200 puede administrar hasta 125 discos duros y SSD SAS y NL-SAS de 2,5 o 3,5 pulgadas y está construido con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas empresariales StorageReview, viajó recientemente al centro de datos de EMC en Hopkinton, MA, para participar de manera práctica y realizar pruebas comparativas del VNX5200.
En septiembre del año pasado, EMC actualizó su popular línea VNX de arreglos de almacenamiento unificado con importantes mejoras de hardware. El resultado fue la línea VNX2, con mejoras como un cambio de PCIe 2.0 a PCIe 3.0 y la nueva arquitectura MCx (que abarca RAID multinúcleo, caché multinúcleo y FAST Cache multinúcleo) para aprovechar mejor los múltiples núcleos de CPU en los procesadores de almacenamiento.
Muchas de estas mejoras se centran en permitir que la plataforma VNX haga un mejor uso del flash en un momento en que los administradores de almacenamiento continúan avanzando hacia configuraciones de arreglos híbridos. Según EMC, casi el 70% de los sistemas VNX2 ahora se envían en configuraciones flash híbridas, un cambio que también ha otorgado más importancia al papel de la suite FAST de EMC para el almacenamiento en caché y la organización en niveles.
Si bien el VNXe3200 más pequeño que revisamos anteriormente también se actualizó con tecnologías VNX2, el VNX5200 está diseñado para clientes del mercado mediano que necesitan un sistema de almacenamiento primario en sus oficinas centrales y para necesidades de oficinas remotas/sucursales que son más sólidas que las que el VNXe3200 puede manejar. El VNX5200 se puede configurar para almacenamiento en bloque, de archivos o unificado y utiliza un chasis de gabinete de procesador de disco (DPE) EMC de 3U, 25x 2,5 pulgadas. Las unidades de procesador de almacenamiento del VNX5200 incorporan un procesador Xeon E5 de cuatro núcleos y 1,2 GHz con 16 GB de RAM y pueden administrar un máximo de 125 unidades con conectividad FC, iSCSI, FCoE y NAS.
La familia VNX2 también incluye actualmente cinco sistemas de almacenamiento diseñados para escalas mayores que el VNXe3200 y el VNX5200.
El almacenamiento en bloque VNX5200 funciona con procesadores de almacenamiento VNX duales con una topología de unidad SAS de 6 Gb. Una implementación de VNX2 puede utilizar uno o más Data Movers y una unidad controladora para ofrecer servicios NAS. Al igual que otros miembros de la serie VNX, el VNX5200 utiliza módulos de E/S UltraFlex tanto para sus Data Movers como para los procesadores de almacenamiento en bloque. El VNX5200 admite hasta tres Data Mover y un máximo de tres módulos UltraFlex por Data Mover.
Funcionalidad multinúcleo MCx
VNX es anterior a la tecnología generalizada de procesadores multinúcleo y las generaciones anteriores de la plataforma no se crearon sobre una base que pudiera aprovechar el escalamiento dinámico de la CPU. FLARE, el entorno operativo VNX1 y CLARiiON CX, permitía que servicios como RAID se ejecutaran en un núcleo de CPU específico, pero el paradigma de subproceso único de FLARE significaba que muchas funciones principales estaban vinculadas al primer núcleo de CPU. Por ejemplo, todos los procesos de E/S entrantes eran manejados por el Core 0 antes de ser delegados a otros núcleos, lo que generaba escenarios de cuellos de botella.
MCx implementa lo que EMC caracteriza como escalamiento horizontal de sistemas multinúcleo, que permite que todos los servicios se distribuyan en todos los núcleos. Bajo esta nueva arquitectura disponible tanto en VNX2 como en VNXe3200, es menos probable que los procesos de E/S entrantes sufran cuellos de botella porque, por ejemplo, los puertos Fibre Channel frontales se pueden distribuir uniformemente entre varios núcleos de procesador. MCx también implementa la afinidad de núcleos de E/S a través de su concepto de núcleos preferidos. Cada puerto, front-end y back-end, tiene una asignación de núcleo preferida y una asignación de núcleo alternativa. El sistema atiende solicitudes de host con el mismo núcleo de front-end donde se originaron las solicitudes para evitar el intercambio de caché y contexto entre núcleos.
Una ventaja importante de la nueva arquitectura MCx es la compatibilidad con LUN activo/activo simétrico, que permite a los hosts acceder a los LUN simultáneamente a través de ambos procesadores de almacenamiento en el arreglo. A diferencia de la implementación asimétrica de FLARE, el modo activo/activo simétrico permite que ambos SP escriban directamente en el LUN sin la necesidad de enviar actualizaciones al procesador de almacenamiento principal.
En la actualidad, los sistemas VNX2 admiten acceso simétrico activo/activo para LUN de grupo RAID clásico, pero no admiten activo/activo para LUN de grupo privado que, en cambio, pueden utilizar el modo activo/activo asimétrico. Los LUN de grupo privado o “LUN clásicos” actualmente no pueden hacer uso del modo activo/activo simétrico si usan servicios de datos que no sean el divisor VNX RecoverPoint.
Una de las sinergias convincentes del VNX5200 entre la arquitectura MCx y el almacenamiento de medios flash es el soporte del sistema para EMC FAST Suite, que permite a los administradores aprovechar los medios de almacenamiento flash para aumentar el rendimiento del arreglo en unidades heterogéneas. FAST Suite combina dos enfoques para utilizar flash para acelerar el rendimiento del almacenamiento (almacenamiento en caché y niveles) en una solución integrada. Las actualizaciones de VNX2 para FAST Suite incluyen una granularidad de niveles cuatro veces mejor y soporte para nuevas unidades flash eMLC.
VNX FAST Cache permite utilizar hasta 4,2 TB de almacenamiento SSD para servir datos muy activos y ajustarse dinámicamente a los picos de carga de trabajo, aunque el límite superior de tamaño de caché del VNX5200 es de 600 GB. A medida que los datos envejecen y se vuelven menos activos con el tiempo, FAST VP clasifica los datos desde unidades de alto rendimiento hasta unidades de alta capacidad en incrementos de 256 MB según políticas definidas por el administrador.
Especificaciones de EMC VNX5200
Diseño y construcción
En la terminología de VNX, una implementación de almacenamiento consta de varios componentes de rack integrados. El componente del controlador es un gabinete de procesador de almacenamiento (SPE) que no incorpora compartimentos para unidades o, como ocurre con este VNX5200, un gabinete de procesador de disco (DPE) que sí proporciona almacenamiento interno. Los gabinetes de matriz de discos (DAE) VNX se pueden utilizar para incorporar capacidad de almacenamiento adicional.
Un SPE incorpora los procesadores de almacenamiento VNX además de módulos SAS duales, fuentes de alimentación duales y paquetes de ventiladores. Los gabinetes de procesador de disco (DPE) incluyen un gabinete, módulos de disco, procesadores de almacenamiento, fuentes de alimentación duales y cuatro paquetes de ventiladores. Se puede agregar almacenamiento adicional mediante el uso de DAE mediante el uso de bahías para unidades de 15 x 3,5 pulgadas, 25 x 2,5 pulgadas o 60 x 3,5 pulgadas con tarjetas de control de enlace SAS duales y fuentes de alimentación duales.
Ya sea que formen parte de un gabinete de procesador de almacenamiento o de un gabinete de procesador de disco, los procesadores de almacenamiento VNX brindan acceso a datos a hosts externos y conectan el almacenamiento en bloque del arreglo con la funcionalidad opcional de almacenamiento de archivos VNX2. El VNX5200 puede aprovechar una variedad de módulos UltraFlex IO de EMC para personalizar su conectividad.
Opciones del módulo UltraFlex Block IO:
Para configurar el VNX5200 para almacenamiento de archivos o almacenamiento unificado, se debe utilizar en conjunto con una o más unidades Data Mover. El gabinete VNX Data Mover (DME) tiene un tamaño de 2U y alberga los Data Movers. Los Data Movers utilizan procesadores Xeon 5600 de cuatro núcleos y 2,13 GHz con 6 GB de RAM por Data Mover y pueden administrar una capacidad de almacenamiento máxima de 256 TB por Data Mover. El gabinete del transportador de datos puede funcionar con uno, dos o tres transportadores de datos.
Las estaciones de control tienen un tamaño de 1U y brindan funciones de administración a los Data Movers, incluidos controles para conmutación por error. Se puede implementar una estación de control con una estación de control secundaria para lograr redundancia. Las opciones del módulo UltraFlex File IO incluyen:
Servicios de gestión y datos
La familia VNX utiliza el software de administración Unisphere de EMC. Nuestra impresión general de Unisphere es que ofrece una interfaz limpia y bien organizada a la que podrán acceder los generalistas de TI y al mismo tiempo permitirá a los administradores de almacenamiento experimentados acceder a la funcionalidad completa del sistema.
Unisphere incorpora una funcionalidad de instantáneas que incluye opciones de configuración para una política de eliminación automática que elimina instantáneas (1) después de un período de tiempo específico o (2) una vez que el espacio de almacenamiento de instantáneas excede un porcentaje específico de la capacidad de almacenamiento. Las instantáneas de VNX pueden hacer uso de las tecnologías de aprovisionamiento ligero y redireccionamiento en escritura de EMC para mejorar la velocidad y reducir los requisitos de almacenamiento de las instantáneas almacenadas.
VNX utiliza algoritmos de compresión de bloques y archivos diseñados para archivos y LUN relativamente inactivos, lo que permite que sus operaciones de compresión y deduplicación se realicen en segundo plano con una sobrecarga de rendimiento reducida. La deduplicación de bloque fijo de VNX está diseñada con una granularidad de 8 KB para escenarios como máquinas virtuales, escritorios virtuales y entornos de prueba/desarrollo con mucho que ganar con la deduplicación. La deduplicación se puede configurar en el nivel de LUN del grupo, y los LUN finos, gruesos y deduplicados se pueden almacenar en un único grupo.
Unisphere Central proporciona monitoreo centralizado de múltiples cajas para hasta miles de sistemas VNX y VNXe, por ejemplo, sistemas implementados en oficinas remotas y sucursales. La suite Unisphere también incluye el software VNX Monitoring and Reporting para la utilización del almacenamiento y los patrones de carga de trabajo para facilitar el diagnóstico de problemas, el análisis de tendencias y la planificación de capacidad.
En entornos virtualizados, el VNX5200 puede implementar Virtual Storage Integrator de EMC para VMware vSphere 5 para aprovisionamiento, administración, clonación y deduplicación. Para VMware, el VNX5200 ofrece integraciones API para VAAI y VASA, y en entornos Hyper-V se puede configurar para transferencia de datos descargados y copia descargada para archivos. EMC Storage Integrator ofrece funcionalidad de aprovisionamiento para Hyper-V y SharePoint. El software EMC Site Recovery Manager también puede gestionar la conmutación por error y la conmutación por recuperación en situaciones de recuperación ante desastres.
Los arreglos VNX2 desde VNX5200 hasta VNX8000 ofrecen el nuevo cifrado de datos en reposo basado en controlador de EMC, denominado [email protected], que cifra todos los datos del usuario en el nivel de la unidad. [email protected] utiliza cifrado AES 256 y está pendiente de validación para el cumplimiento de FIPS-140-2 Nivel 1. Los nuevos arreglos VNX [email protected] se envían con el hardware de cifrado incluido, y los sistemas VNX2 existentes se pueden actualizar en campo para admitir [email protected] y cifrar sin interrupciones el almacenamiento existente como una tarea en segundo plano.
[email protected] cifra todos los datos escritos en la matriz utilizando un protocolo de ruta de datos normal con una clave única por disco. Si las unidades se retiran de la matriz por cualquier motivo, la información contenida en la unidad será ininteligible. [email protected] también incorpora la funcionalidad de borrado criptográfico porque sus claves de cifrado se eliminan cuando se elimina un grupo RAID o un grupo de almacenamiento.
VNX2 ofrece funcionalidad de caché de escritura reflejada, donde cada procesador de almacenamiento contiene datos en caché primarios para sus LUN y una copia secundaria del caché para el procesador de almacenamiento del mismo nivel. Los niveles RAID 0, 1, 1/0, 5 y 6 pueden coexistir en la misma matriz y la función proactiva de repuesto en caliente del sistema aumenta aún más la protección de los datos. El sistema utiliza unidades de respaldo de batería integradas para eliminar la caché y otras consideraciones para un apagado ordenado durante fallas de energía.
La protección local está disponible a través de la función de instantáneas de un momento dado de Unisphere, y la protección de datos continua está disponible a través de la replicación local de RecoverPoint. VPLEX de EMC se puede utilizar para ampliar la disponibilidad continua dentro y entre centros de datos. Según EMC, utilizó DVR de televisión como inspiración para su software RecoverPoint Continuous Remote Replication.
Replication Manager y AppSync brindan protección consistente con las aplicaciones con las soluciones de respaldo y recuperación de EMC, incluidas Data Domain, Avamar y Networker, para acortar las ventanas de respaldo y los tiempos de recuperación.
Prueba de fondo y medios de almacenamiento
Publicamos un inventario del entorno de nuestro laboratorio, una descripción general de las capacidades de red del laboratorio y otros detalles sobre nuestros protocolos de prueba para que los administradores y los responsables de la adquisición de equipos puedan evaluar de manera justa las condiciones bajo las cuales hemos logrado los resultados publicados. Para mantener nuestra independencia, ninguna de nuestras revisiones es pagada ni administrada por el fabricante del equipo que estamos probando.
La revisión de EMC VNX5200 se destaca como un enfoque de prueba bastante único en comparación con la forma en que habitualmente evaluamos los equipos. En nuestro proceso de revisión estándar, el proveedor nos envía la plataforma, que luego conectamos a nuestras plataformas de prueba fijas para realizar evaluaciones comparativas de rendimiento. Con el VNX5200, el tamaño y la complejidad, así como la configuración inicial, nos hicieron cambiar este enfoque y llevar nuestro revisor y equipo al laboratorio de EMC. EMC preparó un VNX5200 con el equipo y las opciones necesarias para pruebas de iSCSI y FC. EMC suministró su propio conmutador FC de 8 Gb dedicado, mientras que nosotros trajimos uno de nuestros conmutadores Mellanox SX1024 de 10/40 Gb para conectividad Ethernet. Para enfatizar el sistema, aprovechamos un servidor EchoStreams OSS1A-1U, superando las especificaciones de hardware que utilizamos en nuestro entorno de laboratorio tradicional.
Especificaciones de EchoStreams OSS1A-1U:
Nuestra evaluación del VNX5200 comparará su rendimiento en puntos de referencia sintéticos en cinco configuraciones que reflejan cómo los clientes de EMC implementan sistemas VNX2 en un entorno de producción. Cada configuración aprovechó 8 LUN que miden 25 GB de tamaño.
Cada configuración incorporó 24 unidades y utilizó las configuraciones RAID más comunes con su implementación en un entorno de producción.
Análisis de carga de trabajo sintética empresarial
Antes de iniciar cada uno de los puntos de referencia sintéticos de fio, nuestro laboratorio acondiciona previamente el dispositivo en estado estable bajo una carga pesada de 16 subprocesos con una cola pendiente de 16 por subproceso. Luego, el almacenamiento se prueba en intervalos establecidos con múltiples perfiles de profundidad de subprocesos/colas para mostrar el rendimiento en condiciones de uso ligero y pesado.
Pruebas de precondicionamiento y estado estacionario primario:
Este análisis sintético incorpora cuatro perfiles que se utilizan ampliamente en las especificaciones y puntos de referencia de los fabricantes:
Después de preacondicionarlo para cargas de trabajo de 4k, sometimos el VNX5200 a nuestras pruebas principales. Como tal, cuando se configuró con SSD y se accedió a través de Fibre Channel, registró 80,472 IOPS de lectura y 33,527 IOPS de escritura. Usando los mismos SSD en RAID10 (aunque esta vez usando nuestra prueba de nivel de bloque iSCSI), el VNX5200 logró 37,421 IOPS de lectura y 22,309 IOPS de escritura. El cambio a discos duros de 15K en RAID5 usando conectividad Fibre Channel mostró 12,054 IOPS de lectura y 3,148 IOPS de escritura, mientras que la configuración de disco duro de 10K alcanzó 7,688 IOPS de lectura y 2,835 IOPS de escritura. Cuando se utilizan HDD de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 4390 IOPS de lectura y 1068 IOPS de escritura.
Los resultados fueron muy parecidos en cuanto a latencia promedio. Cuando se configuró con SSD en RAID10 y usó conectividad Fibre Channel, mostró 3,18 ms de lectura y 7,63 ms de escritura. Utilizando los mismos SSD con nuestra prueba de nivel de bloque iSCSI, el VNX5200 contó con 6,84 ms de lectura y 11,47 ms de escritura. El cambio a discos duros de 15K en RAID5 usando conectividad Fibre Channel mostró 21,23ms de lectura y 81,31ms de escritura en latencia promedio, mientras que la configuración de disco duro de 10K registró 33,29ms de lectura y 90,31ms de escritura. Al cambiar a discos duros de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 58,29 ms de lectura y 239,64 ms de escritura.
A continuación, pasamos a nuestro punto de referencia de latencia máxima. Cuando se configuró con SSD en RAID10 y se utilizó nuestra prueba de nivel de bloque iSCSI, mostró 197 ms de lectura y 421,8 ms de escritura. Utilizando los mismos SSD, aunque esta vez con conectividad Fibre Channel, el VNX5200 contó con 202,1 ms de lectura y 429,2 ms de escritura. El cambio a discos duros de 15K en RAID5 usando conectividad Fibre Channel registró 1311,3 ms de lectura y 1199,2 ms de escritura para una latencia máxima, mientras que la configuración de disco duro de 10K registró 2687,8 ms de lectura y 2228,1 ms de escritura. Al cambiar a discos duros de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 3444,8 ms de lectura y 2588,4 ms de escritura.
Nuestro último punto de referencia 4K es la desviación estándar, que mide la consistencia del rendimiento del VNX5200. Cuando se configuró con SSD en RAID10 usando nuestra prueba de nivel de bloque iSCSI, el VNX5200 registró 3,30 ms de lectura y 12,06 ms de escritura. El uso de los mismos SSD con conectividad Fibre Channel muestra 9,20 ms de lectura y 14,32 ms de escritura. El cambio a discos duros de 15K en RAID5 con conectividad Fibre Channel registró 25,93 ms de lectura y 120,53 ms de escritura, mientras que la configuración de disco duro de 10K registró 35,37 ms de lectura y 175,66 ms de escritura. Cuando se utiliza la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró 52,75 ms de lectura y 254,55 ms de escritura.
Nuestro siguiente punto de referencia utiliza una carga de trabajo secuencial compuesta por 100% de operaciones de lectura y luego 100% de operaciones de escritura con un tamaño de transferencia de 8k. En este caso, el VNX5200 registró 178 959 IOPS de lectura y 76 022 IOPS de escritura cuando se configuró con discos duros de 10 000 en conectividad RAID5 Fibre Channel. El uso de discos duros de 15K en RAID5 con conectividad Fibre Channel muestra 176,895 IOPS de lectura y 77,505 IOPS de escritura. El cambio a SSD en RAID10 usando una conectividad Fibre Channel registró 169,833 IOPS de lectura y 74,470 IOPS de escritura, mientras que la prueba de nivel de bloque SSD iSCSI mostró 69,303 IOPS de lectura y 40,379 IOPS de escritura. Cuando se utilizan HDD de 7K en una configuración RAID6 con conectividad Fibre Channel, el VNX5200 registró 75,982 IOPS de lectura y 76,122 IOPS de escritura.
Nuestra próxima serie de cargas de trabajo se compone de una combinación de operaciones de lectura de 8k (70 %) y escritura (30 %) hasta una cola de 16 subprocesos, siendo la primera la de rendimiento. Cuando se configuró con SSD en RAID10 usando conectividad Fibre Channel, el VNX5200 registró un rango de 8673 IOPS a 41 866 IOPS por 16T/16Q. El uso de los mismos SSD durante nuestra prueba a nivel de bloque iSCSI muestra un rango de 6631 IOPS a 28193 IOPS. El cambio a discos duros de 15K en RAID5 con conectividad Fibre Channel registró un rango de 1204 IOPS y 6411 IOPS, mientras que la configuración de disco duro de 10K registró 826 IOPS y 5113 IOPS en 16T/16Q. Cuando se utiliza la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de 267 IOPS a 2467 IOPS.
A continuación, analizamos la latencia promedio. Cuando se configura con SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 registró un rango de 0,45 ms a 6,11 ms para 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 0,59 ms a 9,07 ms. El cambio a discos duros de 15K en RAID5 con conectividad Fibre Channel registró un rango de 3,31 ms y 39,89 ms, mientras que la configuración de disco duro de 10K registró 4,83 ms inicialmente y 49,97 ms con 16T/16Q. Cuando se utiliza la configuración RAID6 de discos duros de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de 14,93 ms a 103,52 ms.
Echando un vistazo a sus resultados de latencia máxima, cuando se configuró con SSD en RAID10 usando conectividad Fibre Channel, el VNX5200 tuvo un rango de 27,85 ms a 174,43 ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba a nivel de bloque iSCSI muestra un rango de 31,78 ms a 134,48 ms en latencia máxima. El cambio a discos duros de 15K en RAID5 con conectividad Fibre Channel registró un rango de 108,48 ms y 2303,72 ms, mientras que la configuración de disco duro de 10K mostró 58,83 ms y 2355,53 ms para 16T/16Q. Cuando se utiliza la configuración RAID6 de discos duros de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de latencia máximo de 82,74 ms a 1338,61 ms.
Nuestra próxima carga de trabajo analiza la desviación estándar de nuestras operaciones de 8k, 70 % de lectura y 30 % de escritura. Al utilizar SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 registró un rango de solo 0,18 ms a 10,83 ms para 16T/16Q. El uso de los mismos SSD durante nuestra prueba a nivel de bloque iSCSI muestra un rango similar de 0,21 ms a 11,54 ms en consistencia de latencia. El cambio a discos duros de 15K en RAID5 con conectividad Fibre Channel registró un rango de 3,48 ms a 56,58 ms, mientras que la configuración de disco duro de 10K mostró 2,5 ms inicialmente y 66,44 ms con 16T/16Q. Cuando se utiliza la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de desviación estándar de 7,98 ms a 110,68 ms.
Nuestro punto de referencia sintético final utilizó transferencias secuenciales de 128k y una carga de trabajo de 100% operaciones de lectura y 100% de escritura. En este escenario, el VNX5200 registró 2,84 GB/s de lectura y 1,26 GB/s de escritura cuando se configuró con SSD mediante nuestra prueba de nivel de bloque iSCSI. El uso de discos duros de 15K en RAID5 con conectividad Fibre Channel muestra 2,48 GB/s de lectura y 2,33 GB/s de escritura. Volviendo a SSD en RAID10 (esta vez usando una conectividad Fibre Channel), registró 2,48 GB/s de lectura y 3,06 GB/s de escritura. Cuando se utilizan discos duros de 7K en una configuración RAID6 con conectividad Fibre Channel, el VNX5200 registró 2,47 GB/s de lectura y 2,68 GB/s de escritura, mientras que la configuración de disco duro de 10 K registró 2,47 GB/s de lectura y 3,22 GB/s de escritura.
Conclusión
El ecosistema VNX de EMC está bien establecido en el mercado de almacenamiento empresarial, pero VNX2 refleja la voluntad de la empresa de revisar completamente la arquitectura VNX para aprovechar al máximo los avances en tecnologías de procesador, flash y redes. Al igual que el VNXe3200, que está orientado a implementaciones más pequeñas, el VNX5200 también demuestra que EMC está prestando atención a las empresas medianas y a las sucursales/remotas que tal vez no puedan justificar el gasto de los sistemas más grandes de la familia VNX pero que aun así quieren todo. de los beneficios empresariales.
Utilizado junto con FAST Suite, el VNX5200 puede ofrecer almacenamiento en caché flash y niveles en conjunto, una combinación contra la cual los pares de EMC tienen problemas para competir. En nuestras pruebas, desglosamos los niveles y configuraciones de almacenamiento comunes para ilustrar con un conjunto de pruebas limitado lo que los usuarios pueden esperar del 5200. Las pruebas cubrieron HDD de 7K en hasta SSD, lo que ilustra la flexibilidad que tiene el sistema, brindando capacidad, rendimiento, o ambos a través de una variedad de opciones de interfaz.
En última instancia, la plataforma VNX2 puede manejar casi cualquier cosa que se le presente; y es esa flexibilidad la que garantiza acuerdos con EMC a diario. Dada la combinación de opciones de almacenamiento, los módulos IO y el soporte NAS, los sistemas pueden administrar casi todo lo que una organización podría necesitar. Por supuesto, hay casos de uso que van más allá del 5200 que probamos aquí. La familia VNX crece bastante (y también se reduce un poco con el VNXe3200) para abordar estas necesidades, ya sea con más potencia de procesamiento, asignación de flash o estantes de discos.
Ventajas
Contras
Línea de fondo
El EMC VNX5200 es una entrada clave en su nueva ola de arreglos de almacenamiento unificados que están diseñados para aprovechar el almacenamiento flash, las CPU de múltiples núcleos y los entornos de red de centros de datos modernos. Su asequibilidad, flexibilidad en la configuración y acceso al software de administración VNX2 e integraciones de terceros lo convierten en un paquete general formidable para el mercado medio.
Página del producto EMC VNX5200
Discutir esta revisión
Funcionalidad multinúcleo MCxEspecificaciones de EMC VNX5200Diseño y construcciónServicios de gestión y datosPrueba de fondo y medios de almacenamientoAnálisis de carga de trabajo sintética empresarialConclusiónVentajasContrasLínea de fondo