Highlights der Infrastruktur-Keynote bei der AWS re:Invent 2021 mit Peter DeSantis
by Jason Pavao, Senior Solution Architect, Rackspace Technology
Am Mittwoch, den 1. Dezember, betrat Peter DeSantis, Senior Vice President, Utility Computing and Apps bei Amazon Web Services (AWS), die Bühne und hielt seine zehnte re:Invent-Keynote mit einer Reise in die Vergangenheit. Vor fünfzehn Jahren entstand AWS zunächst als S3, gefolgt von SQS und EC2 einige Monate später. Cloud Computing war zu diesem Zeitpunkt noch kein Bestandteil unseres allgemeinen Wortschatzes, aber wie wir alle wissen, sollte sich das bald ändern.
„Es ist erstaunlich zu sehen, wie weit wir es von diesen bescheidenen Anfängen aus gebracht haben“, so DeSantis, während er auf die Zeit zurückblickt, als AWS zunächst eine einzige Region war und Availability Zones noch nicht einmal als Konzept existierten. Das einzige Speichermedium, das EC2 zugrunde lag, war flüchtig, und es war nur ein Instanztyp verfügbar.
Peter erinnert uns daran, dass die wichtigsten Schlüsselfaktoren für alle AWS-Services seit jeher gleich sind: Sicherheit, Verfügbarkeit, Elastizität, Leistung, Kosten und Nachhaltigkeit. Mit diesen zentralen Punkten schuf Peter DeSantis die Grundlage, um in seiner Keynote zu verkünden, dass AWS immer ein Vorreiter in Sachen Innovation sein wird.
AWS Nitro SSD
Auch wenn Nitro keine neue Produktankündigung ist, so war es doch ein wichtiger Teil der Keynote, denn Peter bemerkte: „Nitro ist der Grund, warum AWS mit der Entwicklung von eigenem Silizium begonnen hat.“ Der Nitro-Controller ermöglicht Konsistenz über mehrere Speicher, Prozessoren und Netzwerkanbieter hinweg und bietet so eine nahtlose Erfahrung für AWS-Kunden. Mit der Einführung der Nitro SSD bietet AWS nun auch EBS io2 Block Express an, das 260.000 IOPS mit einer konstanten Latenz von weniger als einer Millisekunde bietet.
AWS Graviton 3
AWS konzentriert sich voll und ganz auf die Bereitstellung von Leistungsverbesserungen bei echten Kunden-Workloads. Während die meisten Chiphersteller versuchen, mit plakativen Angaben wie Prozessorfrequenz und der Anzahl der Kerne zu punkten, sind diese nicht das eigentliche Ziel und verbrauchen wesentlich mehr Strom. Ein höherer Stromverbrauch erzeugt mehr Wärme, was eine geringere Effizienz bedeutet.
Wie also konnte AWS die Leistung eines Graviton-Kerns wirkungsvoll steigern? Die Antwort: durch eine Verbreiterung des Kerns! Ein breiterer Kern kann mehr Arbeit pro Verarbeitungszyklus leisten. Anstatt also die Anzahl der Zyklen pro Sekunde zu erhöhen, wurde die Menge an Arbeit, die pro Zyklus erledigt werden kann, von fünf auf acht Anweisungen pro Zyklus erhöht. Dies wird auch als Parallelität bei der Befehlsausführung bezeichnet. Ein weiterer Aspekt, mit dem AWS die Leistung des Graviton 3 verbessert hat, ist die um 50 % höhere Speicherbandbreite im Vergleich zum Vorgängerprozessor Graviton 2.
Der Prozessor Graviton 3 ist zwar noch nicht allgemein verfügbar, bietet aber bereits in der Vorabversion eine um 25 % verbesserte Gesamtleistung für die meisten Workloads.
Verbesserungen beim maschinellen Lernen mit den AWS-Prozessoren Trainium und Inferentia
Zunächst einmal ist zu beachten, dass Sie für Training und Inferenz eine völlig unterschiedliche Infrastruktur benötigen. Außerdem besteht das maschinelle Lernen aus zwei verschiedenen Komponenten: Training und Inferenz.
Beim Training entwickeln Sie Ihr Modell anhand von Iterationen durch Ihre Trainingsdaten. Stellen Sie sich ein solches Modell als eine mathematische Formel mit vielen Variablen vor. All diese Berechnungen werden auf riesigen Matrizen mit Gleitkommazahlen durchgeführt. Beim Training werden mithilfe von statistischen Verfahren optimale Koeffizienten für all diese Variablen gefunden, die als Parameter bezeichnet werden.
Bei der Inferenz wird das von Ihnen trainierte Modell verwendet, um Vorhersagen zu treffen. Der größte Teil der Kosten entfällt auf die Inferenz, da Sie immer Inferenzen gegen Ihre Modelle für maschinelles Lernen durchführen.
Die AWS-Prozessoren Trainium und Inferentia sind spezialisierte Prozessoren, die die beste Leistung beim Training für maschinelles Lernen und bei der laufenden Inferenz liefern.
Dezentrale Trainingsverfahren
Die einfachste Möglichkeit zur Durchführung eines dezentralen Trainings ist die Datenparallelität unter Verwendung mehrerer Trainingsprozessoren. Im Speicher jedes Prozessors befindet sich eine vollständige Kopie des Modells. Die Trainingsdaten werden partitioniert und jeder Prozessor verarbeitet eine Teilmenge der Trainingsdaten. Gelegentlich müssen die Prozessoren einige Informationen austauschen, während sie sich auf eine gemeinsame Lösung zubewegen. So wird verhindert, dass es zu Netzwerkengpässen kommt.
AWS-Klimaschutzversprechen
Von der Gestaltung von Rechenzentren bis hin zur Modellierung und Verfolgung der Leistung von AWS-Abläufen wurden die größten Effizienzgewinne durch die Entwicklung von AWS-Silizium erzielt. Graviton ist beispielsweise der effizienteste Universalprozessor von AWS, der für die meisten Workloads 60 % mehr Effizienz bietet. Darüber hinaus ist Inferentia der effizienteste Inferenzprozessor von AWS, der derzeit erhältlich ist. Leider lagen zum Zeitpunkt der Keynote keine tatsächlichen Arbeitseffizienz-Benchmarks für den Trainium-Prozessor von AWS vor.
Amazon hat sich verpflichtet, bis 2040 durch umfangreiche Investitionen in grüne Technologien klimaneutral zu werden, womit Amazon dem Übereinkommen von Paris um zehn Jahre voraus ist. Darüber hinaus hat Amazon stets an der Verbesserung der Effizienz und der Verringerung des Energiebedarfs für die Bereitstellung von Services für Kunden gearbeitet, indem es alle Aspekte seiner Infrastruktur betrachtet hat.
Dies ist nur ein weiteres Beispiel dafür, wie Amazon Web Services (AWS) eine Vorreiterrolle in Sachen Innovation einnimmt. Rackspace Technology ist ein stolzer zuverlässiger Premium-Beratungspartner für AWS Partner Network (APN), der über umfassende AWS-Expertise und Skalierbarkeit verfügt, um auch die komplexesten AWS-Projekte zu bewältigen.