La nuova architettura NPU stravolge il calcolo locale su smartphone e PC

I produttori di semiconduttori hanno svelato l’architettura aggiornata per le piattaforme mobile e desktop. Il cuore dello sviluppo ruota attorno a una profonda integrazione dei coprocessori neurali (NPU) di nuova generazione, progettati per ribaltare completamente l’approccio all’elaborazione dei dati direttamente on-device.

Le specifiche tecniche sotto la scocca Questi sistemi di calcolo poggiano su un processo produttivo a 3 nanometri perfezionato, che vanta una densità di transistor notevolmente superiore rispetto al passato. La larghezza di banda della RAM, ora in standard LPDDR5X, è stata spinta fino a 8533 Mbps. Non si tratta del solito vezzo da benchmark, ma di un parametro vitale per il caching e per far girare i modelli di reti neurali in locale, tagliando in gran parte il cordone ombelicale con i server in cloud.

I nuovi chip garantiscono prestazioni sul fronte del machine learning che toccano la soglia dei 45 TOPS (trilioni di operazioni al secondo). Il cluster della CPU sfrutta una topologia ibrida: un super-core Cortex-X spinto oltre i 3,3 GHz si fa carico dei picchi estremi, affiancato da tre core prestazionali per macinare i calcoli in multithreading pesante e da quattro core ad alta efficienza per gestire i processi in background senza prosciugare l’autonomia.

Hardware e gestione termica Per smaltire il calore sprigionato da chip così muscolosi negli chassis ultrasottili degli smartphone e degli ultrabook, gli ingegneri sono passati all’utilizzo di fogli di grafene multistrato e camere di vapore con una superficie di dissipazione sensibilmente maggiorata. La conduttività termica dell’intero sistema compie un balzo del 25%. Il risultato pratico è che i dispositivi riescono a sostenere le frequenze massime per periodi molto più lunghi, tenendo finalmente a bada il thermal throttling.

Un’accelerazione tecnologica di questa portata lato hardware non è fine a se stessa. Punta dritta a sdoganare la generazione autonoma di contenuti, a garantire un’esecuzione fluida per gli script di automazione più complessi e a processare i flussi di dati visivi in tempo reale, elaborando il tutto rigorosamente all’interno della memoria fisica del dispositivo.

More From Author

NVIDIA e la frontiera della “Agentic AI”: l’evoluzione tecnologica che guida i mercati