El desembarco de su nueva familia de chips adaptada a la era del aprendizaje automático está listo. Intel competirá con las TPU de Google o las GPU de Nvidia.
PC World en Español
Intel quiere liderar el nuevo escenario tecnológico enfocado en IoT, Big data, entre otros, para el que se pronostica un auténtico boom de chips que buscarán cambiar las tecnologías totalmente, la mayoría asociadas al Machine Learning y el tratamiento del dato.
Para ello, la compañía tendrá que acelerar sus pautas de innovación, puesto que ya no será suficiente con el actual modelo de desarrollo de dos fases conocidas como Tick Tock y, además, tendrá que optimizar los procesos de fabricación y reducir el área de sus transistores, así como rediseñar la arquitectura del procesador en la segunda fase. La competencia aprieta y el mercado demanda ciclos de desarrollo mucho más ágiles.
En esa línea, Intel trabaja en la transformación de los chips de PC para evolucionar el silicio dirigido a centros de datos e IoT. Ahora se sabe que los modelos Xeon Phi van a contar con nuevas características Machine Learning. Más allá de su definición, estos chips mejorarán su comportamiento con el nuevo software, entrenado para tareas como el reconocimiento de imágenes o el análisis de datos de manera mucho más eficiente.
Intel aún no ha desvelado cuando serán anexadas estas nuevas características, pero la próxima versión de Xeon Phi, prevista para el año 2018, podrían incluir estas mejoras, adoptando nuevas instrucciones preparadas para el aprendizaje automático de la máquina.
Se trata de un procesador con nombre en código Knights Landing que cuenta con hasta 72 núcleos de CPU. El chip todavía está siendo probado pero la compañía cree que puede superar a las GPU de otros fabricantes.
Podría estar formada por una CPU principal, acompañada de un coprocesador con el fin de mejorar el rendimiento en supercomputación. El Xeon Phi reduce la necesidad de extraer los datos, dado que muchas de las tareas de aprendizaje automático se llevan a cabo hoy en día por parte de la GPU.
Google anunció el pasado mes de mayo su modelo TPU (Tensor Processing Unit) de similares características a la GPU de Nvidia.
En el caso de Intel, el Intel MIC puede ser encapsulado con conexiones internas de alta velocidad que favorecerán su uso en entornos Machine Learning. Intel está intentando enlazar sus Xeon Phi con el OmniPatch para agilizar la transmisión de datos entre distintos servidores conectados.
Además, ampliará el soporte para el código abierto. La compañía está construyendo modelos de Machine Learning en torno a Coffee, un paquete de código abierto. Los chips Xeon Phi podrían ultimar el soporte TensorFlow, el software de código abierto ‘Machine Learning’ de Google.
Desde Intel ven un gran potencial en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por citar un ejemplo, el chip podría ayudar a identificar enfermedades de forma prematura o a clasificar una imagen mediante el análisis de píxeles.
Intel cree que los chips podrían ser utilizados en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos.
Por ejemplo, el chip podría ayudar a identificar una enfermedad o podría ayudar a clasificar una imagen mediante el análisis de píxeles. El objetivo principal es reducir los tiempos de cálculo.