Tim Zaman, capo dell'intelligenza artificiale e del pilota automatico di Tesla, ha rivelato che la società di Elon Musk gestisce attualmente il settimo supercomputer più grande del mondo. È vero, stiamo parlando solo del numero di acceleratori utilizzati nel sistema.
Secondo il signor Zaman, il complesso di elaborazione Tesla ha recentemente subito un aggiornamento. Di conseguenza, il numero totale di acceleratori NVIDIA A100 utilizzati (80 GB) è cresciuto fino a 7360 unità. L'anno scorso, Tesla ha presentato il suo nuovo cluster di 720 nodi, ciascuno dotato di otto booster A100. Pertanto, al momento dell'annuncio sono stati utilizzati un totale di 5760 acceleratori. La performance dichiarata ha raggiunto 1,8 Eflops (FP16).
Come parte dell'aggiornamento, il sistema ha ricevuto altre 1600 unità. gli stessi acceleratori. Tesla non ha ancora rivelato la performance risultante, ma potrebbe aumentare di circa un quarto. Il sistema è progettato per addestrare modelli di intelligenza artificiale responsabili del funzionamento degli strumenti di pilota automatico nei veicoli elettrici dell'azienda. Lungo la strada, Tesla sta sviluppando il supercomputer Dojo. Sarà dotato dei propri chip 7nm D1 (FP32). Ogni chip avrà un'area di 645 mm2 e conterrà 50 miliardi di transistor.
2022-08-16 04:39:41
Autore: Vitalii Babkin