En Computex, Intel demuestra el procesador 'Meteor Lake': la IA ocupa un lugar central
TAIPEI: en 2022, Intel presentó su concepto de una VPU, un nuevo componente de silicio para sus próximos procesadores "Meteor Lake". En un evento solo por invitación en Taipei, el gigante de la CPU demostró el primer procesador Meteor Lake en funcionamiento, compartió algunos detalles más sobre estos chips de próxima generación y habló sobre sus habilidades en el área más popular hoy en día: IA. La VPU será fundamental para eso.
John Rayfield, vicepresidente y gerente general de inteligencia artificial de clientes de Intel, se reunió con un grupo selecto de periodistas el fin de semana antes de Computex para realizar algunas demostraciones con el primer chip Meteor Lake equipado con VPU para abrir la tapa. El modelo exacto del chip Meteor Lake, y sus velocidades y avances detallados, no se compartieron. Sin embargo, lo que quedó claro es que Meteor Lake se originará en el mercado móvil. Esto se debe a que el nuevo módulo VPU tiene que ver con la eficiencia energética y la asignación de tareas exigentes relacionadas con la IA a este nuevo componente de procesamiento.
La próxima generación de procesadores de Intel se ha denominado con este último nombre en código "Lake", e Intel expuso algunos de sus principios en torno a él en la demostración. Las generaciones anteriores, Alder Lake (núcleo de 12.ª generación) y Raptor Lake (núcleo de 13.ª generación), destacaron el rendimiento a través de su diseño híbrido, con nuevos núcleos de rendimiento (núcleos P) y núcleos eficientes (núcleo E) en la matriz. Estas generaciones vieron aumentos en IPC, frecuencia y rendimiento por vatio.
En el curso del desarrollo, Intel trabajó mucho con Microsoft para asegurarse de que sus procesadores cambiaran las tareas a los núcleos adecuados, lo que se manifestó en Windows 11 y en la herramienta Thread Director de Intel. Llevando las cosas más allá, Meteor Lake enfatizará, desde el principio, la eficiencia energética a través de una combinación de nueva tecnología de proceso y la adición de la VPU en el nuevo diseño de chip modular de Meteor Lake, empleando lo que se denomina vagamente "chiplets" o "mosaicos". ."
Lograr que el software funcione bien con un nuevo componente de procesador es el truco, por supuesto, pero el trabajo con Alder y Raptor Lake significa que hay un gran ecosistema de aplicaciones que se puede incorporar; el soporte ISV está en su lugar y, según Rayfield, la fortaleza de Intel está en la amplia base de aplicaciones x86.
Parte de lo que hace posible la migración a la VPU es el fruto de la tecnología Foveros de Intel (mucho más en el enlace) y la adquisición en 2016 del fabricante de chips Movidius. Foveros, en los términos más simples, emplea una tecnología de apilamiento 3D que permite que los módulos de chips, o chiplets, se coloquen en capas, en lugar de colocarse uno al lado del otro. En el caso de Meteor Lake, uno de estos módulos será la VPU, que según el gigante de los chips será el ingrediente secreto de esta generación.
Intel aún no ha revelado nada sobre los chips Meteor Lake individuales. Como se señaló el año pasado en una presentación en la conferencia Hot Chips, Meteor Lake se producirá en el proceso Intel 4 (en contraste con el Intel 7 utilizado por Alder y Raptor Lake). La siguiente generación de "Arrow Lake" estará en el proceso 20A de Intel. Un recordatorio: el número después de "Intel" en sus nombres de proceso ya no corresponde al tamaño nanométrico en la tecnología de proceso.
Al aumentar Meteor Lake en Intel 4, la compañía enfatiza la administración de energía y la hipereficiencia de próxima generación. Meteor Lake también contará con la última revisión de Intel de sus gráficos en chip, que se basarán en Intel Arc y, en este caso, la arquitectura "Alchemist" de Arc. La integración de Arc traerá soporte para tecnologías clave como DirectX 12 Ultimate, XeSS (supermuestreo) y trazado de rayos en un formato de bajo consumo. Los representantes de Intel no quisieron compartir más detalles sobre el arco en el chip, pero insistieron en que la aceleración de gráficos será "mucho mejor" que las soluciones de gráficos integrados (IGP) existentes de Intel. El Arc IGP no podrá compararse con las tarjetas de escritorio Arc de Intel en términos de rendimiento bruto, debido a la envolvente de energía muy diferente, pero tendrá el mismo diseño que se coloca como un chiplet, operando a temperaturas más bajas.
Sin embargo, la VPU está destinada a ser el mayor desarrollo aquí, con la tarea de realizar inferencias locales en la PC. Rayfield fue tan lejos como para enfatizar que este es un momento decisivo en el espacio de la PC, con la integración del procesamiento eficiente de IA del cliente local y lo que eso hará posible. "Estamos dando la vuelta a esta esquina en las PC donde la interfaz va a cambiar radicalmente", dijo. "La interfaz de usuario cambiará más en los próximos cinco años que en los últimos 20... en el buen sentido".
Intel se ve en una posición ideal para aprovechar la IA y preparar la mesa para experiencias útiles del usuario final a medida que evoluciona la tecnología. Rayfield señaló, por ejemplo, que la latencia es un problema con la IA cuando la IA está integrada en una interfaz de usuario. Basado en experiencias informáticas pasadas, el usuario espera respuestas instantáneas, que las soluciones basadas en la nube simplemente no pueden igualar. También existen desafíos fundamentales en torno al costo de escalar aplicaciones de IA como ChatGPT a muchos millones de usuarios de PC. Es simplemente un costo prohibitivo, en lugar de poner parte de esa carga de procesamiento en el lado del cliente. Hacer parte del trabajo localmente permite una escala distribuida masiva, un mejor control sobre la privacidad (sus datos permanecen locales) y una baja latencia (la computación se realiza en su dispositivo).
¿Cómo se desarrolla eso realmente en los términos informáticos actuales? Actualmente, la IA se usa en plataformas de clientes para cosas como el reemplazo de fondo en tiempo real y el desenfoque en las videollamadas, y la reducción de ruido sobre la marcha. Estas tareas usan modelos de inferencia que funcionan en CPU y GPU; a medida que los efectos aumentan y las expectativas del usuario aumentan, los problemas informáticos se vuelven más exigentes y el uso de energía también puede convertirse en un problema. Dicho esto, las formas más destacadas e identificables de IA que conquistan el mundo, como ChatGPT y Stable Diffusion(Opens in a new window), están basadas en la nube. Rayfield citó algunas estadísticas que sugieren un aumento de 50 veces en las demandas de potencia de cómputo de 2021 a 2023 para la supresión dinámica de ruido, y ganancias aún más enormes en las demandas de trabajo de IA generativa basado en modelos de lenguaje grandes (LLM), como ejemplo, Microsoft Co- Piloto. Estas crecientes demandas significan un gran potencial para descargar parte de esa necesidad en la inferencia local a bajos niveles de potencia.
La VPU que llega como mosaico en Meteor Lake es un acelerador neuronal. La CPU y la GPU seguirán realizando sus propias tareas, y esta seguirá siendo una plataforma heterogénea, pero hay ventajas importantes al poner la carga en la VPU para tareas pesadas de IA. Dicho esto, algunas tareas más pequeñas relacionadas con la IA seguirán siendo manejadas por la parte de la CPU, caso por caso, si no vale la pena pasarlas por el controlador del dispositivo.
Si bien el trabajo fundamental de Intel con Microsoft en los últimos años será clave, el fabricante de chips también está sembrando esfuerzos en una variedad de canales. Tomemos, por ejemplo, ONNX, que es un formato de contenedor de código abierto de IA al que Intel está contribuyendo; la compañía también se ha esforzado por exponer la aceleración de bajo consumo de las VPU a las aplicaciones basadas en la Web. La compañía también ha contribuido a los esfuerzos con utilidades clave como Open Broadcaster System (OBS), Audacity y Blender para crear complementos que permitirán que esas piezas fundamentales de software aprovechen la VPU.
Además, la empresa tiene su propia pila de herramientas OpenVINO para IA, centrada en la asignación de cargas de trabajo a diferentes mosaicos y la optimización de las cargas de trabajo para los diferentes motores. Intel también trabaja con una gran cantidad de ISV que podrán usar la VPU para ayudar con las experiencias generales de IA. Hoy en día, los ejemplos de estos incluyen la aplicación de desenfoque de fondo sin corromper los objetos de primer plano, lo que en realidad requiere bastante computación para hacerlo bien.
Esto, combinado con los esfuerzos de código abierto, es una pieza necesaria del rompecabezas. "Más del 75% es un problema de software", dijo Rayfield. "Somos principalmente una empresa de hardware, pero el problema está principalmente en el software".
Entonces, en cuanto a la demostración que se muestra en el sitio en Computex: era un hardware muy temprano y era muy temprano. Intel trabajó con uno de sus OEM de sistemas para producir una plataforma móvil (laptop) de demostración. El nombre del fabricante del sistema fue ocultado con buen gusto por las etiquetas adhesivas de Intel. Y en formato de demostración real, tomó un poco de esfuerzo trabajar con él. Por ejemplo, el teclado de la computadora portátil con hardware inicial no funcionaba.
Sin embargo, Rayfield y el resto del grupo de Intel demostraron el uso del generador de imágenes Stable Diffusion AI, ejecutado localmente, con una combinación de CPU, GPU y VPU, dentro del editor de imágenes de código abierto GIMP. Se ejecutó usando un complemento OpenVINO.
Las tareas de generación de imágenes se ejecutaron en el sistema propiamente dicho, sin que la computadora portátil estuviera conectada a Internet. Las mismas semillas en Stable Diffusion se mantuvieron constantes de ejecución en ejecución. Aquí puede ver los resultados de Stable Diffusion del indicador de demostración, que era "un astronauta montando un caballo en la luna".
Con el Administrador de tareas de Windows 11 en vivo, estaba claro que el motor neuronal VPU ("NPU" en la imagen aquí) estaba siendo golpeado durante el transcurso de la ejecución. (La imagen a continuación es solo para ilustrar la VPU/NPU dentro del Administrador de tareas; el gráfico de carga está plano ya que la demostración había terminado cuando se filmó). Como explicó Rayfield, en Meteor Lake, el paquete del procesador en su conjunto comprenderá cuatro mosaicos, siendo cada uno un SOC, y uno de ellos la VPU.
En última instancia, es probable que veamos Meteor Lake primero en las computadoras portátiles, específicamente en el segmento de dispositivos móviles delgados y livianos. Es en este tipo de PC donde una VPU puede ayudar más con la eficiencia energética, ya que las funciones de IA están integradas en el software y los complementos futuros. Eventualmente, sin embargo, la VPU escalará a todos los segmentos de Meteor Lake, y todos los SKU en la línea Meteor Lake integrarán un mosaico de VPU.
Intel dice que tiene la intención de enviar Meteor Lake a fines de 2023, y se darán más detalles durante el verano en el período previo al lanzamiento. ¡Manténganse al tanto!
Regístrese para lo nuevo ahorapara recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.
Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.
Su suscripción ha sido confirmada. ¡Mantén un ojo en tu bandeja de entrada!
¿Qué hay de nuevo ahora?