Softwarebilliger.de
Softwarebilliger.de

Computer mit 160 Terabyte Arbeitsspeicher und

das soll erst der Anfang sein! HPE stellt mit seinem Supercomputer "The Machine" die Physik auf den Kopf. 160 Millionen Bücher lassen sich dank des revolutionären Memory-Driven-Computing binnen weniger Sekunden durchforsten.

Hersteller Hewlett Packard Enterprise (HPE) hat den weltgrößten Computer mit einheitlichem Arbeitsspeicher von sage und schreibe 160 Terabyte vorgestellt. Noch ist diese Höllenmaschine ein Prototyp und es wird noch lange dauern, bis "The Machine" in Rechenzentren und damit im professionellen Einsatz ankommen wird. Doch eines Tages könnte HPE mit seiner Memory-Driven Computing genannten Innovation tatsächlich ein Computer-Paradigma einleiten. Im Zeitalter von Big Data müssen nämlich unvorstellbar große Datenmengen in Echtzeit verarbeitet werden - beispielsweise beim autonomen Fahren.

Bisherige System-Architekturen in PCs oder Servern basieren darauf, dass Daten zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren bewegt werden. Der Datentransport wird dank neuer Chips zwar immer schneller. Doch für eine Echtzeitverarbeitung riesiger Datenmengen, wie sie selbst fahrende Autos und Verkehrsleitsysteme produzieren, ist die heutige Computer-Architektur nicht schnell genug. Mit "The Machine" stellt HPE Entwicklungen aus 60 Jahren Computergeschichte auf den Kopf und zeigt das enorme Potenzial des so genannten Memory-Driven Computing.

Der vorgestellte Prototyp mit 160 Terabyte Arbeitsspeicher sei laut HPE in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten. Mit aktuell etwa 160 Millionen Büchern ist diese Bibliothek die größte der Welt. Es war vorher nie möglich, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten, sagt der Hersteller. Tagelang brauchen heutige Supercomputer, um komplexere Rechenschritte auszuführen. HPEs Prototype "The Machine" reduziert solche Verarbeitungszeiten auf Sekunden.

Und das soll erst der Anfang sein. Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte.

Zum Vergleich: Das ist das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit könnten zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden, um Antworten und Lösungen mit noch nie dagewesener Geschwindigkeit zu finden, berichtet HPE.

All zu tief in die Karten blicken lassen sich die Forscher der HPE-Labs nicht. Sie verraten vorerst drei wesentliche Bausteine der neuen Computer-Architektur: Das System verfüge über 160 TB Shared Memory, die über 40 physische Rechnerknoten laufen und sich untereinander mit einem Hochleistungs-Fabric-Protokoll unterhalten. Zudem komme ein optimiertes Linux-basiertes Betriebssystem zum Einsatz, das auf ThunderX2 läuft - der ARMv8-SoC-Architektur der zweiten Generation von Cavium. Im Inneren verbaue HPE photonische/optische Kommunikationsverbindungen, darunter das neue X1 Photonics Module. Softwareprogrammierungs-Werkzeuge würden außerdem die Vorteile des im Überfluss vorhandenen nicht-flüchtigen Arbeitsspeichers voll auszuschöpfen.

"Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns große Fortschritte in allen Bereichen der Gesellschaft ermöglichen", sagt Mark Potter, Technologievorstand von HPE und Chef der Forschungseinrichtungen Hewlett Packard Labs.
Bildquelle: HPE

Die mit einem * markierten Felder sind Pflichtfelder.