Hace diez años, la organización promedio sufría de problemas
graves de servidores dispersos. “Una aplicación, un servidor” fue el grito de
batalla entonces. La seguridad y el desempeño previsible tuvieron prioridad
sobre la eficiencia y la utilización de los servidores.
Los hipervisores y las máquinas virtuales han ayudado a
poner orden en este asunto. Al permitir
que múltiples aplicaciones compartan memoria, poder de procesamiento y otros
recursos en el mismo servidor host físico, la virtualización ha reducido los
costos y ha hecho que los centros de TI sean más ágiles.
Pero existe un lado oscuro de la virtualización. El secreto
bien guardado consiste en: las tecnologías de virtualización tradicionales son
magníficas para consolidar el trabajo de recursos pero no son nada adecuadas
para las aplicaciones que las organizaciones dependen para ejecutar sus
procesos más importantes, delicados y críticos para el negocio.
Los motivos tienen que ver, en gran medida, con la seguridad
y la conformidad, representan la segunda gran área de preocupación cuando tiene
que ver con colocar aplicaciones de misión crítica en entornos virtualizados.
Debido a que los servidores virtuales comparten recursos, es más difícil (si no
imposible) aislar o endurecer aplicaciones y cargas de trabajo específicas para
seguridad.
Por todos estos motivos, la virtualización ha golpeado el
techo cuando tiene que ver con el mundo de aplicaciones de misión crítica.
Gartner estima que aproximadamente el 70% de los entornos de servidor fueron
virtualizados en el 2013. El restante 30%, que representa en gran medida cargas
de trabajo de misión crítica complejas, de transacciones intensas, permanece
sin ser tocado por la virtualización.
Particionamiento seguro: una tercera vía
Hasta hace poco, los directores de informática que intentan
reducir costos y aumentar la flexibilidad de sus aplicaciones de misión
crítica, han enfrentado una elección difícil: tomar el riesgo de virtualizar
estas cargas de trabajo y esperar que no se topen con contención de recursos, o
mantener sus aplicaciones de misión crítica apartadas en servidores dedicados,
caros y subutilizados; lo que realmente no es una opción.
Pero con la aparición del cómputo en estructura (fabric
computing), que utiliza interconexiones de alta velocidad para enlazar
holgadamente recursos de cómputo en entornos elásticos, las organizaciones ven
una nueva alternativa a la virtualización.
Esa opción, coloquialmente llamada “particionamiento seguro”,
implica crear particiones dedicadas dentro de un entorno fabric basado en
procesadores estándar Intel x86. Estas particiones son dedicadas para servir a
una aplicación de misión crítica específica, proporcionando toda la memoria,
poder de cómputo, almacenamiento y otros recursos necesitados por aquellas
cargas de trabajo para operar de manera segura y a niveles de desempeño y
confiabilidad de misión crítica. Este
abordaje elimina la competencia por recursos.
En esencia, estas particiones actúan conectadas directamente
en un servidor físico, pero debido a que se basan en software y residen en un
entorno de estructura de alta velocidad, ellos obtienen la ventaja de contar
con una flexibilidad extrema.
Para el restante 30% de entornos de TI que no han sido
virtualizados, estas son buenas noticias. Los directores de informática ya no
deben hacer concesiones en relación a sus aplicaciones de misión crítica.
Pueden conseguir los beneficios de la virtualización a un costo razonable sin
sacrificar seguridad y desempeño.
Por Helcio Beninatto, Presidente de Unisys en Latinoamérica
y VP de Enterprise Services para la región
Fuente:diarioti.com

No hay comentarios:
Publicar un comentario