La importancia del DCIM en el EDGE

Si nos remontamos al año 1999 parece que ha pasado mucho tiempo, pero tan solo han pasado 20 años.  Pues bien, en ese año una empresa como Google monto su primer rack con dos Servidores Dual Pentium II a 300 Mhz, 512 Mb en RAM , 9 discos duros de 9 GB, una estación SUN Ultra II con procesadores duales a 200 MHz, y 256 MB en Ram, con 3 discos duros de 9 GB y 6 discos de 4 GB.

Hemos querido describir más o menos parte de ese primer rack de Google para los más nostálgicos, aunque yo voy un poquito más atrás y aún recuerdo mi Spectrum ZX de 48 k…. Pues bien, una vez dicho todo esto, a lo largo de estos 20 años han pasado muchas cosas, entre otras, que Google dispone de más de 20 Centros de datos, (nadie sabe cuántos servidores) y que en 2019 el consumo de energía de sus centros de datos es 100% renovable según consta en su propia página web.

Ellos son conocedores en todo momento de cómo va evolucionando la tecnología, como será alimentada en el futuro inmediato y donde se realizará el mayor volumen de cómputo.

El sector, viendo los pasos de las grandes compañías tecnológicas y apoyándose en sus experiencias, ha ido dando pasos y creando Centros de datos  deslocalizados (Regionales o Edge) con capacidades que pueden variar entre 1-2 Mw. a tan solo 10-20 KW, o incluso más  pequeños  y no menos importantes, de hasta 10 KW de carga TI.

Si hemos visto lo que ha ocurrido en los últimos 20 años. ¿Qué no va a ocurrir en los próximos 10 años a esta velocidad tecnológica?  Cada día nos damos cuenta por ejemplo que la tolerancia de las personas hacia la interrupción en el servicio es cada vez más baja y la demanda de servicios cada vez más alta. Los usuarios cambiaremos de unas empresas a otras en el mismo momento que nos demos cuenta qué estamos perdiendo capacidad de servicio y nos iremos en busca de mejores proveedores.

Por tal motivo cada vez es más necesario realizar el computo lo más cercano posible a la operativa, para poder hacer frente a las nueva tecnológicas y nuevos servicios que la sociedad está demandando cada día más.

Hasta hace poco podíamos ver pequeños "centros de cómputo", como por ejemplo, en grandes almacenes comerciales, oficinas bancarias, o en sectores como retail, sanidad, etc., con poca redundancia o disponibilidad, con rack (abiertos no seguros, no organizados, sin flujos de aires, etc.,)  

En muchos casos incluso, estas infraestructuras, están o estaban gestionadas por personal ajeno a la empresa y cuando hay una caída ,que suelen ser habituales, tienen que llamar al técnico y este se tiene que desplazar... Esto ocasiona muchas perdidas al año, por un lado, al cliente final al perder cada día más clientes por el servicio y por otro lado a la empresa que lo gestiona, pues su gestión es ineficiente y con elevados costes operativos.

En la actualidad vamos viendo que cada vez se están mejorando estás infraestructuras, con diseños más avanzados en su construcción.  Esto es debido en gran parte como comentamos, a que cada vez, las personas y sobre todo las nuevas generaciones, no soportan tanto las caídas de las infraestructuras,  y el servicio cada vez es más importante para todos nosotros.

Por todo ello, cada vez nos encontramos con más centros de datos prefabricados, donde el despliegue es más fácil y rápido, donde están controlados todos los sistemas de Energía, IT, Refrigeración, Seguridad, Protección contra incendios, Conectividad a la red.

Con estas soluciones, estamos gestionando la infraestructura como 100% crítica, donde el nivel de cómputo es prácticamente el necesario para la gestión del cliente, pero muchas de ellas aún con un serio problema de anticipación a posibles fallas, con costes de mantenimiento elevados al tener que seguir desplazando personal para ciertas tareas de mantenimientos no programados  o con altas demoras en los tiempos de respuestas ante caídas del sistema no contempladas o planificadas.

Estamos viendo que estos fantásticos centros de datos deslocalizados, si no disponen en su diseño inicial de una herramienta DCIM que gestione toda la infraestructura como crítica en un 100% y la integre totalmente con el resto de posibles sites o centrales de operaciones, sistemas y demás centros, será una infraestructura no aprovechada 100% al Core del negocio y el retorno de la inversión será mucho más elevado.


Con una herramienta DCIM en el Edge, el gestor de la infraestructura podrá en todo momento tener el control de dicha infraestructura en tiempo real, podrá disponer del dato y su trazabilidad en cualquier momento (incluso a nivel históricos),  podrá analizar la gestión de todos los activos, los mantenimientos programados, realizar acciones proactivas para evaluar el coste operacional y económico antes de que ocurra, conocer sus costes energéticos, saber si sus servidores están al máximo de su capacidad de operaciones, controlar el cooling, etc.

Disponer de todos los recursos de Google es muy complicado, solo unos pocos se lo pueden permitir, pero disponer de una herramienta DCIM en el Edge que le puede resolver y anticipar muchos problemas en su infraestructura a la vez de  mejorar su cuenta de resultados, está al alcance de todos.

                                                                 

                                                                                    Let it work for you

 

Compartir post LinkedIn

Post relacionados


La inteligencia artificial


¿Cuál es el coste e interrupción en un Data Center?