Federico Gavazzi X75

I PIU’ POTENTI 7 MICROPROCESSORI PER I CALCOLI DI INTELLIGENZA ARTIFICIALE AI

 

GLI ACELLERATORI COMPUTAZIONALI PER L’AI SPECIFICI O INTEGRATI

Negli ultimi anni si e’ sviluppato fortemente l’uso di intelligenza artificiale, e tutti gli indicatori promettono una forte crescita in una moltitudine di settori. Rispetto a qualche anno fa inoltre sono aumentati i dati da elaborare, funzione anche delle sempre maggiori richieste ed obiettivi. In confronto a 10 anni fa, le esigenze sono cambiate radicalmente e i produttori di chip, si stanno impegnando in una sorta di gara per aggiudicarsi il primato in comparti anche differenti.

In secondo luogo, le reti neurali richiedono una grande potenza di elaborazione, specie nella fase di training, e i processori tradizionali non sono idonei per questo tipo di calcolo. Ad esempio un semplice riconoscimento di immagini di gatti attraverso le CPU comuni potrebbe richiedere giorni o settimane per il solo addrestamento.

Affinché l’IA possa scalare velocemente verso nuove funzionalita’, e rendere gli sviluppatori liberi di poter sperimentare rapidamente reti neurali, apprendendo velocemente da eventuali errori, e perfezionare gli algoritmi, occorre aumentare costantemente la potenza di calcolo, che non e’ mai abbastanza. 

E questo è esattamente ciò che la maggior parte dei giganti della tecnologia stanno facendo.

RADEON AMD INSTINCT

Ha sostituito il marchio FirePro S di AMD nel 2016. Rispetto al marchio Radeon dei prodotti mainstream consumer/gamer, i prodotti a marchio Radeon Instinct sono destinati ad accelerare l’apprendimento profondo, la rete neurale artificiale e le applicazioni ad alte prestazioni di calcolo/GPGPU.

APPLE A11 BIONIC NEURAL ENGINE

Progettato da Apple Inc. e prodotto da TSMC. È apparso per la prima volta nell’iPhone 8, iPhone 8 Plus e iPhone X. L’A11 include un hardware di rete neurale dedicato che Apple chiama “Neural Engine”. Questo hardware di rete neurale può eseguire fino a 600 miliardi di operazioni al secondo ed è utilizzato per Face ID, Animoji e altre attività di machine learning. Il motore neurale permette ad Apple di implementare la rete neurale e l’apprendimento automatico in modo più efficiente dal punto di vista energetico rispetto all’uso tipico CPU – GPU.

GOOGLE TENSOR PROCESSING UNIT

Una tensor processing unit (TPU) è un circuito integrato specifico per applicazioni (ASIC) sviluppato da Google appositamente per l’apprendimento automatico. Rispetto ad un’unità di elaborazione grafica, è progettato per un alto volume di calcolo a bassa precisione, ad esempio, con una precisione di soli 8 bit ha un rapporto IOPS/WATT elevatissimo. Il chip è stato progettato specificamente per il framework TensorFlow di Google. Tuttavia, Google utilizza ancora CPU e GPU per altri tipi di machine learning. Google usa inoltre altri acceleratori di AI, provenienti da diverse compagnie per il mercato embedded e robotica.

HUAWEI KIRIN 970

Kirin 970 è alimentato da una CPU a 8 core e da una GPU a 12 core di nuova generazione. Costruito utilizzando un processo da 10 nm.  Il chipset racchiude 5,5 miliardi di transistor in un’area di un solo cm². L’ammiraglia di HUAWEI, Kirin 970, è la prima piattaforma di elaborazione AI mobile di HUAWEI con una unità di elaborazione neurale (NPU) dedicata. Rispetto ad un cluster di CPU Cortex-A73 quad-core, l’architettura di calcolo eterogenea del Kirin 970 offre fino a 25 volte le prestazioni con un’efficienza 50 volte superiore.

IBM POWER9

IBM Power9 è un chip che ha una nuova architettura di sistema ottimizzata per gli acceleratori utilizzati nell’apprendimento automatico. Intel produce CPU Xeon e acceleratori Nervana e NVIDIA produce acceleratori Tesla. Power9 di IBM è letteralmente il coltellino svizzero dell’accelerazione ML in quanto supporta una quantità astronomica di IO e banda passante, 10 volte superiore a qualsiasi altra tecnologia.

INTEL NERVANA

Il Nervana ‘Neural Network Processor’ utilizza un approccio di elaborazione in parallelo e a cluster ed è costruito più o meno come una normale GPU. Dispone di 32 GB di memoria HBM2 dedicati in 4 diversi stack da 8 GB, tutti collegati a 12 cluster di elaborazione che contengono ulteriori nuclei (il conteggio esatto è sconosciuto attualmente). La velocità totale di accesso alla memoria si combina ad un enorme 8 terabit al secondo

NVIDIA TESLA V100

NVIDIA® Tesla® V100 è la GPU per data center più avanzata al mondo mai costruita per accelerare l’IA, l’HPC e la grafica. Alimentata da NVIDIA Volta , la più recente architettura di GPU, Tesla V100 offre le prestazioni di 100 CPU in una singola GPU, consentendo a scienziati, ricercatori e ingegneri di affrontare sfide un tempo impossibile ad altri.

CONCLUSIONE

Il mercato come si vede e’ ricco di novita’ e sperimentazioni, come ad esempio l’unita’ Mips di Google. Possiamo evincere che il mercato consumer consente alle compagnie AI di ottenere prestazioni enormi attraverso strategie di marketing differenziate. La principale e’ la capacita’ di unire gaming (settore di grande fatturato) a ricerca AI, Neural Netowork e Tensor Flow. L’altra e’ l’integrazione negli smartphone, che operano in maniera diversa, ma congiuntamente costituiscono un bacino enorme per alimentare lo sviluppo ed il progresso nel settore intelligenza artificiale.

Dunque i colossi di microprocessori, si rivolgono sempre piu’ al mercato consumer per poter portare innovazione in tutti gli altri settori.