Los proyectos Big Basin y Olympus apuntan a servicios más rápidos con nuevos diseños basados en aprendizaje automático.
PC World en Español
De forma paralela, Microsoft y Facebook están haciendo lo mismo. Ambas compañías están dotando de eficiencia a sus servidores y, en esa línea, están trabajando en desarrollar servicios más rápidos con nuevos diseños basados en inteligencia artificial.
La red social ha publicado varias estadísticas que confirman que sus servidores soportan una gran carga, pero que a la vez dan cuenta de una buena orquestación de dichas plataformas. Y es que cada día, sus usuarios ven 100 millones de horas de video, 400 millones de personas utilizan Messenger y más de 95 millones de fotos y videos se publican en Instagram.
Uno de los principales habilitadores de esta capacidad es la tecnología de reconocimiento de imágenes que implementa la compañía.
Y Microsoft ha configurado una estrategia similar. La tecnológica de Redmond busca continuamente equilibrar la carga en sus servidores. Por ejemplo, sus centros de datos aplican el aprendizaje automático para servicios de lenguaje natural como Cortana.
Ambas organizaciones introdujeron nuevos diseños de hardware en código abierto para asegurar respuestas más rápidas a los servicios de inteligencia artificial. Los diseños permiten ofrecer más capacidades a través de sus redes y software. Y han presentado estos servidores en la cumbre Open Compute Project.
Los prototipos pueden ser utilizados por otras empresas como referencia para implementar sus propios servidores en la empresa y luego enviar para su fabricación en Asia. Se trata de una práctica bastante común. De hecho, Google y Facebook llevan haciéndolo desde hace varios años.
Big Basin y Olimpus
Big Basin –así se llama el proyecto de Facebook- es una caja de servidores poco ortodoxa a la que la compañía ha denominado JBOG. Ésta ofrece una potencia sin precedentes para el aprendizaje automático. El sistema no tiene CPU y funciona como una caja independiente que necesita ser conectada a las cajas discretas del servidor y del almacenaje.
El servidor cumple con la promesa de desacoplar unidades de procesamiento, almacenamiento y redes en centros de datos. El cálculo es también mucho más rápido cuando el procesamiento y el almacenamiento se conectan en red más cerca. Las unidades desacopladas también comparten recursos de energía y refrigeración, lo que reduce la factura eléctrica en los centros de datos. El sistema se puede conectar a Tioga Pass, un nuevo diseño de servidor de doble CPU de Facebook en código abierto.
Un diseño de centro de datos desacoplado es importante para firmas como Google y Facebook, que están comprando miles de servidores para satisfacer sus crecientes necesidades de procesamiento. Las empresas pueden ampliar los servicios web y las tareas de aprendizaje automático mucho más rápido al desacoplar el almacenamiento, el procesamiento y otros recursos.
El sistema Big Basin tiene ocho aceleradores Nvidia Tesla P100 GPU, conectados en una arquitectura de malla a través de la interconexión súper rápida NVLink. La interconexión de malla es similar a la del servidor DGX-1 de Nvidia, que se utiliza en una supercomputadora de inteligencia artificial de Fujitsu en Japón.
Por otra parte, Olympus, el otro diseño de servidor desarrollado con tecnologías de inteligencia artificial ha sido fabricado por Microsoft. Éste cuenta con más espacio para coprocesadores de IA. La tecnológica de Redmond también anunció un acelerador de GPU con Nvidia e Ingrasys llamado HGX-1, que es similar al Big Sur de Facebook, pero que se puede escalar para enlazar 32 GPU.
El proyecto Olympus es un diseño de servidor más convencional que no requiere cambos masivos en las instalaciones del servidor. Es un servidor de rack 1U con las CPU, GPU, memoria, almacenamiento y redes. Todo en una caja.
Y, por primera vez, Olympus hará algo raro para la actividad de los servidores: pasar de x86 a ARM con soporte para Centriq 2400 de Qualcomm o los chips Thunder X2 de Cavium.