Intel kündigte auf dem Six Five Summit die IPU (Infrastructure Processing Unit) an, einen weiteren xPU-Vertreter in blauer Terminologie. In diesem Fall handelt es sich um ein programmierbares Netzwerkgerät, das den Overhead reduziert und CPU-Ressourcen freigibt, indem es die Aufgaben der Speicher- und Netzwerkvirtualisierung, des Sicherheitsmanagements und der Isolierung auf dedizierte Hardwareeinheiten innerhalb der IPU verlagert.
Dies wird es Hyperscalern und Cloud-Betreibern ermöglichen, auf vollständig virtualisierte Speicher und Netzwerke zu migrieren und gleichzeitig eine hohe Leistung, Vorhersagbarkeit und Kontrolle beizubehalten. Die IPU verwaltet die Ressourcen der IT-Infrastruktur auf Systemebene intelligent und ermöglicht so eine flexible Bereitstellung und (Neu-)Konfiguration von Workloads.
Angesichts der wachsenden Popularität von Microservice-Architekturen ist dieser Ansatz sehr nützlich – Intel zitiert Daten von Google und Facebook – 22 bis 80 % der CPU-Zyklen können nur für die Kommunikation zwischen Microservices und nicht für die Ausführung von Nutzlasten aufgewendet werden. Rechenzentren der nächsten Generation erfordern eine neue intelligente Architektur, in der große, verteilte und heterogene Computersysteme zusammenarbeiten und sich nahtlos zu einer einzigen Plattform verbinden.
„IPU ist eine neue Technologieklasse, die eine der strategischen Säulen unserer Cloud-Strategie ist. Es erweitert die Fähigkeiten von SmartNIC und wurde entwickelt, um die Komplexität und Ineffizienz moderner Rechenzentren zu beseitigen. Intel ist bestrebt, mit seinen Kunden und Partnern Lösungen zu entwickeln und Innovationen zu entwickeln – IPU ist ein Beispiel für diese Zusammenarbeit“, sagte Guido Appenzeller, CTO, Intel Data Platforms Group.
Wenn Ihnen das alles bekannt vorkommt, ist das nicht verwunderlich. Lösungen mit ähnlichen Aufgaben und Ansätzen, DPU (Data Processing Unit) genannt, werden aktiv von NVIDIA, Fungible und anderen Anbietern entwickelt. Die DPU kombiniert einen Netzwerkcontroller, Universalkerne, einen Beschleuniger (GPU, FPGA, ASIC), Speicher und Engines, um einzelne Operationen in einem einzigen Gerät zu beschleunigen. Aber in diesem Fall ist der Software-Teil viel wichtiger als der Hardware-Teil, da moderne SmartNICs hardwaremäßig nicht weit von DPU entfernt sind.
Intel hat bereits eigene Xeon D- und FPGA-basierte IPU/DPU-Optionen. Durch die Kooperation mit den meisten Hyperscalern ist das Unternehmen nach eigenen Angaben bereits umsatzführend im IPU-Markt. Intels erste FPGA-basierte IPU-Plattform wurde von mehreren Cloud-Anbietern bereitgestellt, und eine ASIC-IPU befindet sich im Test. Intel testet seine IPU-Lösungen mit Microsoft Azure, Baidu, JD Cloud & AI und VMware.
„Vor 2015 war Microsoft Vorreiter bei rekonfigurierbaren SmartNICs in mehreren Generationen von Intel-Servern, um die Netzwerk- und Speicherstacks zu entlasten und zu beschleunigen. SmartNIC ermöglicht es uns, CPU-Kerne freizugeben, die Speicherbandbreite und IOPS zu erhöhen, nach der Bereitstellung neue Funktionen hinzuzufügen und unseren Cloud-Kunden eine vorhersehbare Leistung zu bieten. Sagt Andrew Putnam von Microsoft. "Intel war von Anfang an ein vertrauenswürdiger Partner von uns, und wir freuen uns, dass Intel mit IPUs weiterhin eine klare Branchenvision für das Rechenzentrum der Zukunft vorantreibt."
Allerdings ist zu beachten, dass Hyperscaler ein eigener Spezialmarkt sind, in dem kundenspezifische Lösungen die Regel sind. Inwieweit konventionelle Rechenzentrumsbetreiber und Firmenkunden bereit sein werden, IPU zu implementieren, ist eine offene Frage. Weitere Details zu den Soft- und Hardware-Features der neuen Produkte, die Intel im Oktober versprach.
2021-06-14 23:41:43
Autor: Vitalii Babkin