This page contains a Flash digital edition of a book.
FOCUS CLOUD FACILITIES


Número 4. Segundo Trimestre 2011


que conseguimos con el sistema de control”. Todos los sistemas de cualquier máquina – de tipo energético o no- son compatibles con el protocolo SNMP, lo cual significa una estandarización de las alertas/modelo de actuación. El estándar SNMP procede del mundo informático, donde está muy implantado y, por tanto, según explica el director de Tissat, “lo que nosotros hemos hecho es desarrollar todas las piezas que permiten que los estándares propios del mundo energético –como los modelos SCADA - puedan acabar emitiendo alertas SNMP y por tanto puedan ser trabajados de forma unificada”.


INTELIGENCIA ARTIFICIAL


El automatismo es clave para el cloud. Con un control tan exhaustivo como el que proporciona el sistema antes descrito, el gestor se encuentra ante miles de alertas que gestionar, y la clave es actuar frente a ellas de la forma más rápida posible.


“Veníamos del mundo de la gestión de emergencias y por tanto estamos acostumbrados a lidiar con miles de millones de incidencias automáticamente. Para ello se han desarrollado módulos de inteligencia artificial, que te


permiten, a partir de unas reglas de partida y un módulo de autoaprendizaje, que el sistema sea capaz de autoformarse”, subraya Escuín. “Eso permite que, aun disponiendo de más de 20.000 servidores, cerca de 600 variables de control energético y 200 variables de control TI, el sistema sea capaz de actuar de forma rápida y de proveer toda la información necesaria para mejorar” concluye. A continuación pone el ejemplo siguiente: “En caso de un ataque de denegación de servicios, tendría que arrancar servidores adicionales y distribuir la carga para que no consigan paralizar mis aplicaciones. El sistema de Tissat puede responder a esta situación de forma centralizada y automática, determinando qué equipos habrá que activar y cómo. Sólo después habrá que tomar decisiones ‘humanas’, como si hay que activar otra sala, etc. Esta centralización de incidencias y automatismo son necesarios en entornos cloud, donde la complejidad de la infraestructura es enorme”.


EL SUPER GESTOR DE OPERACIONES


Por la experiencia de Tissat, no más allá del 6% del total de incidencias que entran en su sistema requieren de intervención humana. Esto ha propiciado también una integración


KIO NETWORKS: PREPARANDO LAS FACILITIES PARA EL CLOUD EN MÉXICO


Otro reciente ejemplo de instalación preparada para el cloud computing es la de Kio Networks, una empresa mexicana de servicios de TI y alojamiento, que en mayo anunció la inauguración de dos nuevos centros de datos en Ciudad de México. Desde ellos, la firma pretende proporcionar servicios especializados de “Proximity Hosting” -proporcionando ultrabaja latencia- para el mercado financiero y bursátil, y servicios cloud de alta densidad y virtualización de infraestructura (IaaS y PaaS).


Estos servicios en la nube tienen, al parecer de José Fonseca, director comercial de KIO Networks, dos características fundamentales: alta seguridad y agilidad en la entrega para volúmenes de consumo no predeterminados.


Para resolver el reto de la seguridad, el proveedor de servicios ha construido un complejo de centros de datos diseñados con redundancia 2N de tipo Tier IV. La infraestructura eléctrica debe contar, en primer lugar, “con reglas de diseño para operar con niveles de redundancia 2N, desde la acometida eléctrica con un switch seccionador automático de transferencia entre las dos acometidas, continuando con la instalación de dos subestaciones derivadas A y B, con posibilidad de unirlas a través de TIE para la eventualidad de que una de las rutas falle”, subraya Fonseca.


En cuanto a la asignación rápida de recursos, los servicios cloud se encuentran preinstalados en una configuración estándar en la que los racks están precableados, dotados con capacidades de servidores virtuales y software de autoaprovisionamiento que permiten una configuración y entrega al cliente en tiempos menores a 24 horas.


Interrogado respecto al papel de los sistemas DCIM (Data Center Infraestructure Manager) en el correcto funcionamiento de un centro


14 www.datacenterdynamics.es Oficinas de KIO Networks


de equipos de trabajo y es uno de los factores del abaratamiento de costes en la gestión. “Hasta ahora teníamos equipos separados: ingenieros


eléctricos, informáticos y de


telecomunicaciones. Desde el punto de vista del servicio, esta antigua visión no se sostiene”.


Un usuario final no sabe si lo que ha caído es la línea o un servidor o el grupo electrógeno, lo que necesita es que el problema se solucione y esto significa controlar la cadena entera.


“No podemos tener tres personas “pasándose la pelota” entre sí. Con nuestro sistema actual, hemos creado puestos de control multifuncionales. El operador será capaz de cambiar tanto un volumen de disco como el régimen de funcionamiento de un motor si es necesario”.


Para Escuín, está claro que el modelo está cambiando, pero el problema es que seguimos basándonos en la misma visión tecnológica anterior. “Y virtualización no es igual a cloud computing. Desde nuestro punto de vista la nube es un modelo mucho más global que afecta desde las facilities hasta la capa última de los sistemas”. 


cloud, José Fonseca explica lo siguiente: “Típicamente, los centros de datos cuentan con sistemas DCIM instalados fundamentalmente para funciones de monitoreo continuo, identificación y aislamiento de fallas y agilidad en la respuesta a incidentes de mantenimiento. A diferencia de ello, los sistemas DCIM instalados en KIO (...) también nos permiten el control y ajuste automático de los equipos para que trabajen con cierto porcentaje de free cooling, extractores para nivelar la presión atmosférica y otras funciones que hacen altamente eficiente el uso de todos los componentes tecnológicos del CPD”.


En un entorno altamente virtualizado, KIO Networks mantiene la visibilidad y el control del tema eléctrico a través del uso de tecnología basada en equipos FDC y regletas monitoreables a nivel de cada contacto o plug, lo que permite medir y tarificar el consumo eléctrico por equipo o grupo de equipos virtualizados.


Page 1  |  Page 2  |  Page 3  |  Page 4  |  Page 5  |  Page 6  |  Page 7  |  Page 8  |  Page 9  |  Page 10  |  Page 11  |  Page 12  |  Page 13  |  Page 14  |  Page 15  |  Page 16  |  Page 17  |  Page 18  |  Page 19  |  Page 20  |  Page 21  |  Page 22  |  Page 23  |  Page 24  |  Page 25  |  Page 26  |  Page 27  |  Page 28  |  Page 29  |  Page 30  |  Page 31  |  Page 32  |  Page 33  |  Page 34  |  Page 35  |  Page 36  |  Page 37  |  Page 38  |  Page 39  |  Page 40  |  Page 41  |  Page 42  |  Page 43  |  Page 44  |  Page 45  |  Page 46  |  Page 47  |  Page 48  |  Page 49  |  Page 50  |  Page 51  |  Page 52  |  Page 53  |  Page 54  |  Page 55  |  Page 56  |  Page 57  |  Page 58  |  Page 59  |  Page 60  |  Page 61  |  Page 62  |  Page 63  |  Page 64  |  Page 65  |  Page 66  |  Page 67  |  Page 68