Con il nuovo millennio, l’evoluzione dei microprocessori non si è fermata alle sole architetture CISC o RISC.
Una tendenza fondamentale dell’ultimo decennio è stata l’integrazione di altri componenti di calcolo specializzati direttamente all’interno dello stesso chip del processore.
In particolare, le moderne CPU includono spesso una GPU (Graphics Processing Unit) integrata e, più di recente, anche un’acceleratore dedicato per l’Intelligenza Artificiale, noto come NPU (Neural Processing Unit). Questa convergenza di tecnologie è evidente nei moderni SoC (System-on-Chip).

(Credits: utmel.com)
La GPU è un processore grafico specializzato nell’elaborazione parallela massiva, nato inizialmente per gestire la grafica e oggi utilizzato anche per calcoli scientifici e di intelligenza artificiale. In passato le GPU erano per lo più componenti separati (schede video dedicate). Oggigiorno, invece, molte CPU incorporano una GPU direttamente nel loro circuito, spesso ripatezzata iGPU (integrated GPU). Questa soluzione combinata, spesso chiamata APU (Accelerated Processing Unit) soprattutto in ambito AMD, è diventata comune sia nei computer desktop/laptop sia nei dispositivi mobili.
Le CPU “ibride” con grafica integrata sfruttano la capacità di calcolo parallelo della iGPU per migliorare l’efficienza energetica e le prestazioni complessive del sistema. Tanto che le GPU integrate di ultima generazione offrono ormai prestazioni più che sufficienti per molte attività quotidiane, per il multimedia e persino per un discreto gaming casual, riducendo la necessità di una scheda grafica dedicata in diversi scenari.
Naturalmente, per applicazioni grafiche molto pesanti (come videogiochi 3D di fascia alta, rendering professionale, ecc.) le GPU dedicate mantengono ancora un vantaggio, ma il divario si sta riducendo grazie ai continui progressi delle soluzioni integrate.
L’altra grande evoluzione recente è l’integrazione di unità specializzate per l’intelligenza artificiale, le NPU (Neural Processing Unit). Con la diffusione di algoritmi di Machine Learning e di applicazioni di AI in ambito consumer (si pensi al riconoscimento vocale/immagini, agli assistenti virtuali, alle funzionalità smart nei sistemi operativi), i produttori di chip hanno introdotto nei processori una nuova componente: la Neural Processing Unit. La NPU è progettata per accelerare le operazioni tipiche dell’AI, come i calcoli di reti neurali (ad esempio l’identificazione di oggetti in un’immagine o le funzioni degli assistenti AI integrati nei sistemi operativi).
Queste unità contengono circuiti ottimizzati per eseguire rapidissimamente operazioni di matrice e vettoriali (moltiplicazioni e somme su array di dati), che sono alla base del deep learning.
Il vantaggio delle NPU è la loro efficienza: sono in grado di garantire un numero elevatissimo di operazioni al secondo riducendo drasticamente i consumi rispetto a un uso esclusivo di CPU o GPU general-purpose. Negli ultimi anni, ad esempio, sono apparse sul mercato CPU dotate di NPU integrate capaci di raggiungere decine di TOPS (Tera Operations Per Second, trilioni di operazioni al secondo) con un assorbimento di potenza di pochi decine di watt. Questo significa poter eseguire inferenze AI localmente sul dispositivo (dalla foto che riconosce automaticamente il volto, al traduttore simultaneo sullo smartphone, fino alle funzionalità di AI nei software) in modo veloce ed efficiente, senza dover ricorrere a server remoti.
I chip degli smartphone, ad esempio, da diversi anni integrano CPU multi-core, GPU e NPU (oltre ad altri moduli come DSP, ISP, modem, ecc.) su un unico silicio per massimizzare le prestazioni e minimizzare i consumi.
Anche nel mondo PC vediamo oggi i frutti di questa evoluzione: le recenti architetture di Intel e AMD introducono NPU dedicate ai carichi di lavoro AI accanto a GPU integrate sempre più potenti
La famiglia Apple Silicon offre un esempio lampante di integrazione: i chip Apple M1, e successivi, combinano CPU multi-core, GPU integrate e Neural Engine (NPU) in un unico processore, fornendo performance elevate sia in ambito grafico sia nei compiti di machine learning. In breve, la CPU moderna non è più “sola”, ma lavora in sinergia con questi co-processori specializzati, tutti racchiusi nello stesso package.