Todavía le queda un largo camino por correr, pero la virtualización es mucho más que una promesa de futuro que hay que conocer y tener en cuenta. Es ya una realidad que ayuda a crear centros de datos más eficientes y versátiles, capaces de dar respuesta a las exigencias actuales de las empresas. Para analizar los procesos de virtualización que se están acometiendo en materia de servidores y puestos de trabajo, así como las últimas tendencias en redes y almacenamiento, NetMediaEurope ha reunido a cuatro destacados representantes de la industria tecnológica: Simón Viñals, director de Tecnología de Intel, Alejandro Solana, director técnico de VMware Iberia, Jorge Jiménez, responsable de Data Center Business Development en Schneider Electric y Patrick Delannoy, del Departamento de Preventa de Econocom – Ermestel, en un encuentro moderado por nuestra compañera Rosalía Arroyo, redactora jefe de ChannelBiz.
Con ellos también hemos hablado durante el evento “Más allá de la virtualización: El centro de datos definido por software”, de ese concepto que empieza a sonar cada vez con más fuerza y pretende ir un paso más adelante en los datacenters, facilitando por un lado la programación de cualquier elemento de la infraestructura y añadiendo por el otro una mayor compatibilidad entre dispositivos de diversos fabricantes.
Pasado, presente… y futuro
“Como fabricante de soluciones modulares y escalables de infraestructura, hemos notado durante los últimos tiempos que el grado de adopción de la virtualización es cada vez mayor”, dice Jorge Jiménez, responsable de Data Center Business Development en Schneider Electric, una compañía especializada en gestión de la energía que está teniendo que diseñar soluciones específicas para el nuevo entorno y adecuarlas en todo momento a las necesidades del negocio, lo cual posibilita el incremento de servidores virtuales dentro del parque de datacenters actual. Y es que, a día de hoy, se estima que cerca del 60% de los servicios críticos están trabajando ya sobre plataformas virtuales, cuando hace apenas cuatros años “podríamos estar hablando de una virtualización de una cuarta parte de las cargas”, según calcula Alejando Solana, Director Técnico de VMware Iberia, ya que por aquel entonces “la virtualización era una nueva tecnología que proporcionaba fundamentalmente beneficios de reducción de costes de capacidad”, y no mucho más.
“En los años 90 y principios de los 2000, la gente todavía tenía ciertos recelos hacia la virtualización, que utilizaba básicamente para entornos de desarrollo, entornos de pruebas o entornos de pre-producción”, recuerda Simón Viñals, Director de Tecnología de Intel. “En esos momentos, la tecnología no estaba lo suficientemente madura como para dar el salto a gran escala. Pero sobre todo a partir de 2006 empezaron a salir tecnologías de la mano del hardware y del software como VT-x, la de 64-bit para virtualización, de mejora en la gestión de las colas o de entrada/salida, que permitieron que la virtualización sea vista no sólo como un entorno fiable para poner entornos de producción, sino también para los de misión crítica”.
Eso, a nivel global. ¿Pero qué pasa en España? Aquí seguimos las tendencias registradas en el resto del planeta en líneas generales, aunque “todavía hay más camino que recorrer [que en otras partes] porque culturalmente nos cuesta un poquito más aceptar nuevas tecnologías dentro de nuestra forma de trabajar”, reconoce Alejando Solana que añade que lo bueno es que la virtualización no está siendo un fin en sí mismo, “se está convirtiendo en un medio para proporcionar nuevas soluciones de forma más sencilla, tanto desde el punto de vista de servidor como de la experiencia del usuario”. Por su parte, Patrick Delannoy, del Departamento de Preventa de Econocom – Ermestel, diferencia entre varias facetas: mientras a nivel de servidores la virtualización estaría “bastante extendida”, en materia de escritorio (VDI) las empresas aún comienzan a tomar conciencia “de que quizás responda a una necesidad real, como la flexibilidad con la que los usuarios pueden trabajar”. Un tercer punto sería el del cloud computing, donde “todas tienen al menos alguna iniciativa en versión demo o una prueba de concepto para intentar establecerse”.
Principales ventajas de la virtualización
A este cambio de actitud contribuyen las crecientes ventajas de la virtualización. El beneficio inmediato es la consolidación o poder ejecutar una mayor cantidad de máquinas en un servidor físico, junto a la consecuente reducción de costes que desde siempre ha sido destacada como una ventaja clara respecto al modelo anterior. “Pero después, las nuevas prestaciones de la virtualización en cuanto a mejoras de rendimiento, estabilidad, seguridad y eficiencia energética, nos han permitido hacer cosas que no se nos habían ocurrido antes. Por ejemplo, la colocación de máquinas virtuales en función de la carga de trabajo y de parámetros como el consumo de energía y la temperatura”, comenta Simón Viñals. “Ahora podemos colocarlas de la forma que más nos aporte a nuestro negocio y en el momento del día, semana o mes en que lo necesitemos”.
La palabra clave sería flexibilidad. Ahora las empresas ya no tienen que dimensionar todos sus servicios para los picos, redundando el hardware, ni luchar con distintos tipos de servidores, modelos y fabricante porque, en cambio, pueden mover las máquinas virtuales en caliente entre diferentes plataformas físicas y trazar estrategias de balanceo de carga, de alta disponibilidad y de tolerancia de fallos basadas en la virtualización con una plataforma homogénea o estandarizada. “Esto ha ayudado mucho también a optimizar los procesos operativos en la capa más baja de la infraestructura y, al final, a alinear toda la gestión de los centros de datos con el negocio”, observa Jorge Jiménez, que pone como ejemplo de esta eficacia proactiva al DCIM (Datacenter Infraestructure Management). Ya no valen elementos sueltos, hay que comenzar a unificar la parte de TI con la de infraestructura de servicios, de energía y de enfriamiento y pensar en el centro de datos como algo global.
Otras tecnologías asociadas con la virtualización que destacan los expertos son AES-NI, que acelera la codificación de los datos, y TXT, que asegura el lanzamiento del hipervisor imprimiendo un sello de garantía de que no ha sido manipulado por ataques tipo rootkit. Y es que “hay un aspecto que no podemos dejar de mencionar [al hablar de virtualización], que es la parte de la seguridad”, apunta Patrick Delannoy. Hasta hace poco, “entendíamos la seguridad como un backup y un restore. Pero la virtualización ha permitido dar un paso mucho más allá del típico restore de cinta, de una cabina de almacenamiento destinada a copias y de esos respaldos que al final lo que hacían era parar también el servicio. La virtualización nos hace ser muchísimo más ágiles y tener los servicios online durante muchísimo más tiempo […] Permite a los departamentos de TI focalizarse en la gestión del aplicativo y del servicio más que en el servidor”, enumera.
El centro de datos definido por software
De virtualizar la CPU y la memoria para crear el contenedor de máquina virtual y obtener todas estas ventajas, se está comenzando a extender la misma filosofía a otras áreas del centro de datos más allá del servidor en busca de una mayor agilidad y automatización. En concreto, se está extendiendo a la parte de redes y almacenamiento, lo que da lugar a eso que ya se conoce como centro de datos definido por software, “que permite, con un solo clic de ratón, no depender de la arquitectura de clustering de una determinada aplicación propietaria y dotarla de alta disponibilidad o tolerancia de fallos”, explica Alejandro Solana. “Lo que busca, fundamentalmente, es optimizar la infraestructura hardware que hay por debajo, haciendo que convivan distintas redes en una misma infraestructura de forma segura y optimizando la inversión. Además, desde el punto de vista de un modelo de cloud híbrido, una aplicación que tiene tres o cuatro capas puede estar ubicada geográficamente de forma dispersa aunque a nivel de red parezca estar en un entorno LAN”. Por una parte se simplifica la provisión y gestión de las necesidades de los departamentos de negocio y del propio usuario y, por otro lado, se fomenta la independencia con mayúsculas.
Paulatinamente, se ha pasado de la vinculación con el mainframe a un modelo cliente-servidor. De ahí a la pelea con diversos sistemas operativos, arquitecturas webs y navegadores. Y por último, al contexto del cloud computing y la disponibilidad basada en software, donde todo está desligado a nivel de hardware y se puede focalizar la gestión en base a políticas, incluido el backup y la replicación ante desastres. Dado que los servicios dentro de un datacenter están relacionados unos con otros y las aplicacioens hablan entre sí , “se puede establecer vía software un plan de contingencia que en un modelo físico tradicional sería implanteable y, si se plantea, realmente costoso”, continúa Solana. “A día de hoy las aplicaciones han ido madurando y son conscientes de qué es lo que hay dentro de esa máquina virtual para monitorizar el servicio concreto que nos interesa”, lo que nos ha permitido pasar “de los sistemas tipo failover a los activo-activo actuales”, completan Delannoy y Viñals, respectivamente.
A todo esto han contribuido, por supuesto, los propios avances en las capas físicas al crearse estrategias de cableado unificado y de ancho de banda. “Sin embargo, el mundo de la virtualización del almacenamiento en nuestro país es todavía una asignatura pendiente”, avisa el representante del Departamento de Preventa de Econocom – Ermestel, “ya que existen productos de hace muchos años que virtualizan el almacenamiento de una forma bastante interesante y con diferentes dispositivos”. Desde la parte más física “todavía se tiene que terminar de madurar la idea de la alta disponibilidad de los entornos virtuales”, conviene Jorge Jiménez. “Hace falta que madure el diseño de los centros de datos y se acomode a la flexibilidad que dan las tecnologías TI”.
¿Y ahora qué?
Así las cosas y mientras el mensaje va calando, la industria ya se pregunta hacia dónde se dirige el mercado de la virtualización. “Los fabricantes de virtualización tienen muy claro que tienen que ser flexibles con el negocio, pero creo que el reto y lo que también hace falta es que se alineen con el consumo energético, porque al final lo que pagamos cada mes es la factura eléctrica”, advierte el responsable de Data Center Business Development en Schneider Electric, que señala que un 10% del consumo de los centros de datos se debe a servidores zombi o comatosos. Para Intel, el siguiente paso llega unido al cloud y se trata de “virtualizar todo el datacenter, incluyendo la infraestructura”, de modo que no sólo se ofrezca una infraestructura como servicio sino un datacenter como servicio que los clientes podrán contratar sin preocuparse de cómo está dimensionado físicamente.
Desde VMware, mientras tanto, hablan de garantizar la movilidad a nivel de infraestructura, la portabilidad a nivel de aplicación y el acceso a cualquier servicio desde cualquier lugar a nivel de usuario, todo ello con una gestión más horizontal que piense en las personas y el self-service dentro de “un modelo heterogéneo multidispositivo”. En la actualidad, cada usuario posee de media tres equipos distintos, por lo que la clave radicaría en saber “gestionar al [propio] usuario que tiene que acceder a los servicios en lugar de gestionar el dispositivo”, su ubicación, navegador o sistema operativo.“El buen resultado o no de una implementación de virtualización es cómo trabaja este usuario, que al final es el que nos importa”, asiente el portavoz de Econocom, que considera que lo que hay que hacer es dotar de inteligencia a los nuevos sistemas para que dé igual el gadget empleado y no sea el usuario quien tenga que perder tiempo en configurar e instalar programas. “Independientemente del escritorio virtual vamos a poder abrir aplicaciones de una forma mucho más sencilla”, prevé.
A continuación, el vídeo íntegro del encuentro “Más allá de la virtualización: El centro de datos definido por software”.
También ha sido reconocida por su empleados como el "mejor lugar para trabajar" en otros…
El distribuidor de tecnología avanza en las áreas de cloud computing, contenedores, virtualización, inteligencia artificial…
Arrow Electronics espera que la IA generativa aumentada marque un cambio en las interacciones entre…
El EBITDA ajustado de este año debería situarse entre los 66 y los 71 millones…
El Gigante Azul busca "construir un ecosistema de partners fuerte y capacitado, que pueda responder…
Este experto del sector tecnológico ha pasado previamente por compañías como Vectra AI, Nokia, Riverbed…