News HPE & Intel: Aurora ist wenigstens der schnellste AI-Supercomputer

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.430
Intels Aurora läuft weiterhin nur mit unter 90 Prozent der Sollkapazität. Zum 1. Platz in der Disziplin AI reicht es trotzdem. So schnell wie vielerorts gedacht wird das System aber auch fertig nicht, wie Betreiber Argonne Labs erklärte: Intels Werbung mit „2 ExaFLOPs Rpeak“ war unglücklich. HPE ist hingegen in Feierlaune.

Zur News: HPE & Intel: Aurora ist wenigstens der schnellste AI-Supercomputer
 
  • Gefällt mir
Reaktionen: bad_sign, PietVanOwl, gustlegga und 3 andere
So schnell wie vielerorts gedacht wird das System aber auch fertig nicht, wie Betreiber Argonne Labs erklärte
Sollte das nicht anders heißen, liest sich irgendwie komisch.

So schnell wie vielerorts gedacht wird das System aber auch nicht fertig, wie Betreiber Argonne Labs erklärte
So liest sich das meiner Meinung nach besser.
 
  • Gefällt mir
Reaktionen: Taigabaer
Das ich das noch erleben darf 😅 Das ganze Projekt war ja ein Trauerspiel für Intel, Wirtschaftlich wie Werbetechnisch.
Aber schön wenn es jetzt mal so langsam rennt.
 
Also müssen Supercomputer auf maximale effizienz getrimmt werden, weil die Stromversorgung sonst ein problem werden kann.
Scheint hier gemacht worden zu sein.
Wäre dann ARM als Basis interessant oder was ist da so der Effizienz weg?
 
@FWSWBN glaube hier ist eher gemeint "so schnell wird das System auch nicht, wenn es fertig ist"
 
  • Gefällt mir
Reaktionen: TechFA, BrollyLSSJ und FWSWBN
FWSWBN schrieb:
Sollte das nicht anders heißen, liest sich irgendwie komisch.


So liest sich das meiner Meinung nach besser.
Ahoi,

du hast den Satz falsch verstanden.. deine Version macht in dem Zusammenhang dann keinen Sinn mehr. :)

Gruß
thornhill
 
  • Gefällt mir
Reaktionen: Schinken42 und FWSWBN
Cabranium schrieb:
Wäre dann ARM als Basis interessant oder was ist da so der Effizienz weg?
Ja, aber es ist relativ egal, weil die meiste Leistung oft aus Beschleunigern kommt. Ausnahme ist da tatsächlich Fugaku und verwandte Systeme, die auf ARM-Prozessoren mit enorm breiten Vektoreinheiten setzen (und dadurch nicht auf Beschleuniger angewiesen sind). Da ist die flexible Breite von ARM-SVE schon ein enormer Vorteil.

Aber generell ist der Weg, möglichst enge Kopplung von CPU und GPU zu ermöglichen, da bei vergleichbarer Fertigung der (Ko-)Prozessoren der größte Unterschied irgendwann im Energieverbrauch für die Datenübertragung liegt. Das ist der Grund für solche Konstrukte wie den Grace-Hopper Superchip von Nvidia oder AMDs "Mega-APU" MI300A bzw jetzt vorher bei Frontier auch schon eine Verbindung von CPU und GPU per Infinity Fabric statt "nur" PCIe.
 
  • Gefällt mir
Reaktionen: AAS
ATIst schrieb:
@FWSWBN glaube hier ist eher gemeint "so schnell wird das System auch nicht, wenn es fertig ist"
Schwere deutsche Sprache :D

Typischer Fall von man kann es so oder so lesen :D und egal ob man es richtig oder falsch liest, es gibt 2 verschiedene Ergebnisse.

Danke für den Hinweis @ATIst und @thornhill


PS: Ich werd langsam echt zu alt für so etwas :D
 
  • Gefällt mir
Reaktionen: thornhill
Cabranium schrieb:
Wäre dann ARM als Basis interessant oder was ist da so der Effizienz weg?

stefan92x schrieb:
Ja, aber es ist relativ egal, weil die meiste Leistung oft aus Beschleunigern kommt. Ausnahme ist da tatsächlich Fugaku und verwandte Systeme, die auf ARM-Prozessoren mit enorm breiten Vektoreinheiten setzen (und dadurch nicht auf Beschleuniger angewiesen sind). Da ist die flexible Breite von ARM-SVE schon ein enormer Vorteil.

Ich kenne aktuelle Zahlen nicht, aber als ich in meiner Studienzeit vor knapp 10 Jahren bei einer High Performance Student Cluster Competition teilgenommen habe (2-4 Blades) war ARM zwar vertreten, aber in allen Belangen Schlusslicht, auch beim Verbrauch. Das sollte inzwischen in vielen Bereichen deutlich besser geworden sein, aber diese theoretischen Tests reizen die Systeme bis zur Kotzgrenze aus und ARM hat meiner Erfahrung nach einen super Sweet Spot, aber oberhalb davon säuft es ähnlich wie Intel.
 
Cabranium schrieb:
Wäre dann ARM als Basis interessant oder was ist da so der Effizienz weg?
Nicht unbedingt. Intel hat - was die „Vorteile“ von ARM angeht - nun nachgelegt mit der APX.

Das Problem der Effizienz schlägt bei Supercomputern an vielen Stellen zu. Ein Knackpunkt ist die Skalierbarkeit und damit die Datenverwaltung.

AMD und NVIDIA gehen die Probleme bei GH100 und eben dem MI300A an einer Stellschraube an, dann geht es aber über die Knoten und Co.

Daten müssen zu den Knoten, andere Daten synchronisieren gehalten werden. Die Aufgaben passend verteilt usw.

Bei den Systemgrößen kommt auch der Kühlung immer mehr Aufmerksamkeit zu.

Komplexes Thema.
 
Askat86 schrieb:
Ich kenne aktuelle Zahlen nicht, aber als ich in meiner Studienzeit vor knapp 10 Jahren bei einer High Performance Student Cluster Competition teilgenommen habe (2-4 Blades) war ARM zwar vertreten, aber in allen Belangen Schlusslicht
Was heißt da denn überhaupt "ARM"? Angesichts der Vielzahl verschiedenster Prozessormodelle kann man das ja gar nicht pauschal sagen, da die Auslegung des jeweiligen Chips einen größeren Einfluss hat als die verwendete ISA.
 
Damit man sich den Energieverbrauch mal vorstellen kann:
Das AMD Werk Dresden hat sich (Fab30 und FAB 36) selbst versorgt. Dazu nutzte es 2x25MW per Gaskraftwerk (vom EVU betrieben).
Damals mit 3000 MA und einer High End Wafer Produktion hat das gereicht.
 
  • Gefällt mir
Reaktionen: Volker
Hey typisch Intel: lügen und betrügen + ineffizient. Manche Dinge ändern sich einfach nie.
 
  • Gefällt mir
Reaktionen: TechFA
Ich prophezeihe schon mal dass El Capitan wohl auch noch vor Aurora fertig wird...
Die Systemabnahme ist jedenfalls weiterhin für Ende des Jahr geplant.
Wenn man sich die Tabelle und speziell den Flops/W Wert vom heutigen Luxx-Artikel ansieht ist es ja jetzt schon eine Ohrfeige für Intel.
Luxx.jpg


Der Sprücheklopfer Gelsinger soll besser schon mal die Taschentücher rausholen.
Hier mal ein erst 3 Wochen altes Video von HPE zu El Capitan.
 
  • Gefällt mir
Reaktionen: Freiheraus, dergraf1, mscode und eine weitere Person
stefan92x schrieb:
Ja, aber es ist relativ egal, weil die meiste Leistung oft aus Beschleunigern kommt. Ausnahme ist da tatsächlich Fugaku und verwandte Systeme, die auf ARM-Prozessoren mit enorm breiten Vektoreinheiten setzen (und dadurch nicht auf Beschleuniger angewiesen sind). Da ist die flexible Breite von ARM-SVE schon ein enormer Vorteil.

Aber generell ist der Weg, möglichst enge Kopplung von CPU und GPU zu ermöglichen, da bei vergleichbarer Fertigung der (Ko-)Prozessoren der größte Unterschied irgendwann im Energieverbrauch für die Datenübertragung liegt. Das ist der Grund für solche Konstrukte wie den Grace-Hopper Superchip von Nvidia oder AMDs "Mega-APU" MI300A bzw jetzt vorher bei Frontier auch schon eine Verbindung von CPU und GPU per Infinity Fabric statt "nur" PCIe.
Sehr schön erklärt, danke!
/sign
 
Zurück
Oben