En el marco de la Conferencia de Inteligencia Artificial que se lleva  a cabo en San Francisco, Estados Unidos. El pionero fabricante de chips, Intel anunció la tercera generación de sus VPU Movidius Keem Bay.

Intel presentó su VPU Movidius Keem Bay que promete un rendimiento hasta seis veces mayor que la Unidad de Procesamiento de Visión de la generación anterior y los VPU de la competencia. Asimismo, la nueva VPU de la marca está basada en inteligencia artificial.

Características arquitectónicas sin competencia

El fabricante de chips señala que la nueva arquitectura de la VPU Movidius Keem Bay cuenta con características únicas que permitirán mejor eficiencia y rendimiento, afirmando que será 10 veces mayor que los de primera generación.

“Es cuatro veces más rápido que el TX2 de Nvidia (que consume unos 30 vatios) y 1.25 veces más rápido que el acelerador AI HiSilicon Ascend 310 de Huawei.Además, ofrece cuatro veces las inferencias por segundo por TOPS en comparación con Xavier de Nvidia.”

Cuenta con visión por computadora, aplicaciones de inferencia y un diseño borde a borde, la Keem Bay está diseñada en un tamaño de 72mm, casi el 80 por ciento más pequeña que la reciente GPU Xavier presentada por Nvidia.

Intel y MediaTek llevarán juntos el 5G a las computadoras y laptops
Jonathan Ballon, Intel vice president in the Internet of Things Group, speaks Tuesday, Nov. 12, 2019, displays the new Gen 3 Intel Movidius VPU during Intel’s AI Summit in San Francisco. During the event, Intel Corporation presents updates on new products designed to accelerate artificial intelligence development and deployment from cloud to edge. (Credit: Walden Kirsch/Intel Corporation)

“En el límite, el rendimiento es importante, por supuesto”, dijo Ballon, vicepresidente del Grupo de Internet de las cosas de Intel. Pero “a los clientes también les importa la potencia, el tamaño y, cada vez más, la latencia”.

Intel Nervana, el primer chip con IA ya está entre nosotros

Tal como lo había anunciado hace pocos meses, Intel presentó oficialmente su primer procesador de red neuronal llamado Nervana, en versiones de  entrenamiento  (NNP-T) e inferencia “construidos desde la base para entrenar modelos de aprendizaje profundo a escala”, señaló Intel en su momento.

Intel

Apostando por el desarrollo del hardware para optimizar el negocio en la nube, el fabricante presenta su nuevo chip Nervana en dos versiones: NNP para capacitación (NNP-T1000) e inferencia (NNP-I1000 diseñados para el aprendizaje profundo complejo, para clientes de la nube y centros de datos.

Estos chips buscan que la red proporcione a los clientes la “inteligencia necesaria en el momento correcto”, refiriéndose a los procesos en la nube que actualmente están siendo muy utilizados.

Se espera que Keem Bay e Intel Nervana salgan al mercado en 2020, específicamente para la primera mitad del año.

Más en TekCrispy