Tesla의 인공 지능 및 자동 조종 장치 책임자인 Tim Zaman은 Elon Musk의 회사가 현재 세계에서 7번째로 큰 슈퍼컴퓨터를 운영하고 있다고 밝혔습니다. 사실, 우리는 시스템에서 사용되는 가속기의 수에 대해서만 이야기하고 있습니다.
Zaman 씨에 따르면 Tesla 컴퓨팅 컴플렉스가 최근 업그레이드를 거쳤습니다. 그 결과 NVIDIA A100 가속기(80GB)의 총 사용 대수는 7360대로 늘어났습니다. 작년에 Tesla는 8개의 A100 부스터가 장착된 720개의 노드로 구성된 새로운 클러스터를 공개했습니다. 이로써 발표 당시 총 5760개의 액셀러레이터가 사용됐다. 선언된 성능은 1.8 Eflops(FP16)에 도달했습니다.
업데이트의 일환으로 시스템은 또 다른 1600개를 받았습니다. 같은 가속기. Tesla는 아직 그 결과를 공개하지 않았지만 약 4분의 1 정도 증가할 수 있습니다. 이 시스템은 회사의 전기 자동차에서 자동 조종 장치의 작동을 담당하는 AI 모델을 훈련하도록 설계되었습니다. 그 과정에서 Tesla는 Dojo 슈퍼컴퓨터를 개발하고 있습니다. 자체 7nm D1(FP32) 칩이 장착됩니다. 각 칩은 645mm2의 면적을 가지며 500억 개의 트랜지스터를 포함합니다.
2022-08-16 04:39:41
작가: Vitalii Babkin