La unidad de procesamiento neuronal (NPU) está especializada en lidiar con los procesos de IA
Las arquitecturas heterogéneas recurren a la CPU, la GPU y la NPU para maximizar el rendimiento y la eficiencia energética
Las unidades de procesamiento neuronal, conocidas habitualmente como NPU por su denominación en inglés (Neural Processing Unit) han llegado a los SoC y las APU para quedarse. Para quedarse definitivamente. La era de la inteligencia artificial (IA) ha comenzado, y precisamente la NPU es una unidad funcional diseñada expresamente para lidiar con los algoritmos de IA en general, y con la IA generativa en particular, de la forma más eficiente posible.
Actualmente Qualcomm, Intel, AMD, Apple, Samsung o Huawei son algunas de las compañías que tienen chips preparados para afrontar una modalidad de procesamiento conocida como computación heterogénea. Estos chips aglutinan tres tipos diferentes de unidades de procesamiento: la CPU, cuyo propósito es general; la GPU, que ante todo se encarga de lidiar con los procesos que requiere la generación de los gráficos; y, por último, la NPU, que, como hemos visto, está especializada en lidiar con los procesos de IA.
La computación heterogénea persigue maximizar el rendimiento y la eficiencia
La arquitectura heterogénea en la que acabamos de indagar reparte la responsabilidad de la ejecución de los procesos entre tres tipos diferentes de unidades de procesamiento con el propósito de maximizar el rendimiento y la eficiencia energética. Este es en definitiva el espíritu de la computación heterogénea en este contexto. No obstante, hay algo muy importante que merece la pena que no pasemos por alto: los procesos de IA pueden ser ejecutados en la CPU, la GPU o la NPU. En cualquiera de ellas. Eso sí, esta elección tiene consecuencias.
La GPU es la unidad de procesamiento mejor dotada para la paralelización masiva debido a que esta estrategia es la más eficaz a la hora de abordar el proceso de generación de los gráficos. La IA también se beneficia claramente de este enfoque, especialmente si, además, la GPU incorpora unidades específicas para resolver operaciones matriciales que admiten una gran paralelización. En la práctica esta unidad de procesamiento es la que entrega el rendimiento más alto cuando lidia con procesos de IA, pero también es la menos eficiente desde un punto de vista energético.
Como acabamos de ver, la CPU también puede ejecutar procesos de IA, aunque dado que en su arquitectura prevalece el propósito general y no la paralelización masiva su rendimiento habitualmente será inferior al que nos entrega la GPU al procesar el mismo algoritmo de IA. Y presumiblemente también consumirá menos. Por último, la NPU está específicamente diseñada para lidiar con procesos de IA de la manera más eficiente posible desde un punto de vista energético, aunque su rendimiento al ejecutar procesos exigentes será menor que el de la CPU, y, sobre todo, que el que nos entrega la GPU.
Intel y AMD han reaccionado con más lentitud que otros diseñadores de SoC y APU, pero ambas empresas ya tienen chips que incorporan una NPU. Y en el futuro extenderán esta estrategia a otras líneas de producto. Los procesadores Intel Core Ultra con microarquitectura Meteor Lake incorporan una NPU, y los Ryzen 7040 y 8040 de AMD incorporan una NPU con arquitectura XDNA, que está optimizada expresamente para procesar señales e IA. Esta estrategia da forma al presente. Y, desde luego, también al futuro de la computación de consumo y profesional. Las CPU, GPU y NPU están condenadas a convivir y entenderse. Nosotros, los usuarios, ganamos.
Ver todos los comentarios en https://www.xataka.com
VER 2 Comentarios