Höhepunkte aus der AWS re:Invent 2023-Keynote von Swami Sivasubramanian

by Masoom Tulsiani, AWS Cloud Architect, EMEA Professional Services, Rackspace Technology

a man smiling with glasses

Der AWS-Cloud-Architekt berichtet über die Highlights, die er auf der AWS re:Invent 2023-Veranstaltung gelernt hat - von der KI-Bilderzeugung über die multimodale Suche bis zur Datensicherheit.

 

Die symbolische Beziehung zwischen Menschen und KI ähnelt der symbolischen Beziehung zwischen Remoras und Mantarochen, so Swami Sivasubramanian, Vice President of Database, Analytics and Machine Learning bei AWS. Er hielt eine Grundsatzrede auf der AWS re:Invent 2023 in Las Vegas im November.  

Für diejenigen, die damit nicht vertraut sind: Remoras klammern sich an Mantarochen, um sie zu schützen, zu transportieren und um Reste aus den Mahlzeiten der Mantarochen zu bekommen. Remoras profitieren von Mantarochen, indem sie ihre Haut von Bakterien und Parasiten reinigen.

Die Sitzung von Sivasubramanian begann mit der Vorstellung der AWS Machine Learning Infrastructure von Amazon Web Services (AWS), einschließlich des Datenberechnungsstapels und der Schichten. AWS unterstützt jetzt die neuesten Modelle von Ai21 Jurassic-2, Anthropic, Cohere, Meta und Stability AI sowie Ergänzungen zu den Amazon Titan-Modellen - den Modellen der Wahl für viele Unternehmen.

Die Teilnehmer erfuhren auch, dass:

  • Der Betrieb einer kosteneffizienten Infrastruktur bleibt eine Herausforderung
  • Daten sind immer noch ein Unterscheidungsmerkmal für Unternehmen
  • Der Erfolg von generativen KI-Anwendungen wird davon abhängen, wie effektiv Unternehmen ihre Sprachmodelle trainieren können

Sechs wichtige Highlights

Unter den vielen Ankündigungen während der Veranstaltung stachen sechs wichtige Highlights ins Auge:

  1. Amazon Titan Bilderzeugung in Amazon Bedrock: AWS-Benutzer können jetzt realistische Bilder in Studioqualität in großem Umfang und zu geringen Kosten mit natürlichsprachlichen Anweisungen in Amazon Bedrock erzeugen. Außerdem wird das AWS Generative AI Innovation Center KI-Zertifizierungen anbieten und Kunden bei ihren generativen Bedrock-KI-Anwendungen unterstützen.
  2. Die Modelle Claude 2.1 von Anthropic und Llama 2 70B von Meta: Beide sind jetzt auf Amazon Bedrock verfügbar und eignen sich für umfangreiche Aufgaben wie Sprachmodellierung, Texterstellung und Dialogsysteme. Claude 2.1 bietet ein 200K-Token-Kontextfenster und verbesserte Genauigkeit in langen Dokumenten.
  3. Amazon Titan Multimodale Einbettungen: Ermöglicht es Unternehmen, genauere und kontextrelevante multimodale Such- und intelligente Empfehlungserlebnisse zu schaffen. Das Modell wandelt Bilder und kurze Texte in Einbettungen um - numerische Darstellungen, die es dem Modell ermöglichen, semantische Bedeutungen und Beziehungen zwischen Daten leicht zu verstehen. Diese werden in der Vektordatenbank des Kunden gespeichert.Lesen Sie mehr über diese Innovation hier.
  4. Amazon SageMaker HyperPod: Reduziert die Zeit für das Training von Foundation-Modellen (FMs) durch die Bereitstellung einer speziell entwickelten Infrastruktur für verteiltes Training im großen Maßstab und hilft, die Zeit für das Training von Modellen um bis zu 40 % zu reduzieren.
  5. Modellbewertung auf Amazon Bedrock: Erleichtert den Zugang zu kuratierten Datensätzen und vordefinierten Metriken für automatische Auswertungen und hilft bei der Bewertung, dem Vergleich und der Auswahl der besten Basismodelle für KI-Anwendungsfälle.
  6. AWS Clean Rooms ML: Hilft Benutzern, Modelle des maschinellen Lernens anzuwenden, um Vorhersageerkenntnisse zu gewinnen, ohne die zugrunde liegenden Rohdaten zu teilen. Gibt auch Trainingsdatensätze mithilfe des AWS Glue Data Catalog an.

Sivasubramanian demonstrierte die Modellbearbeitungsfunktion unter Verwendung des Amazon Bedrock Image Playground mit dem Amazon Titan Image Generator. Es erzeugte Hintergrundvariationen durch Eingabeaufforderungen und unglaubliche Bilderzeugungsfunktionen.

Datenbank- und Analysedienste

Die Teilnehmer freuten sich auch über die folgenden Daten- und Analyseankündigungen von Sivasubramanian:

  • Amazon Neptune analytics: Eine Analysedatenbank-Engine, die durch die sekundenschnelle Analyse von zig Milliarden Verbindungen mit integrierten Graphenalgorithmen zu neuen Erkenntnissen verhilft und eine schnellere Vektorsuche sowohl mit Graphen als auch mit Daten ermöglicht.
  • Amazon Q generative SQL für Amazon Redshift Serverless: Ermöglicht es Data-Engineering-Teams, die Erstellung von Datenpipelines zu beschleunigen. Q kann SQL-Abfragen schneller in natürlicher Sprache schreiben und den Prozess für benutzerdefinierte ETL-Aufträge vereinfachen.
  • Amazon OpenSearch Serverless vector engine: Dies wird zu effizienteren Suchen und Prozessen führen.
  • Amazon DocumentDB und Amazon DynamoDB Datenbank-Vektor-Funktionen: Demnächst verfügbar, damit Benutzer mehrere Arten von Daten zusammen speichern können.
  • Amazon MemoryDB für Redis: Dadurch wird die Vektorsuche unterstützt, was zu schnelleren Antwortzeiten führt und Zehntausende von Abfragen pro Sekunde ermöglicht. Es ist eine nützliche Anwendung, insbesondere für die Betrugserkennung bei Finanzdienstleistungen.
  • Datenbanken wie MongoDB und Schlüsselwertspeicher wie Redis: Diese werden als Wissensbasis in Amazon Bedrock verfügbar sein.
  • Amazon Q Datenintegration: Dies wird in AWS Glue verfügbar sein.

AWS-Partner geben Einblick in KI

Die Teilnehmer bekamen auch praktische Anwendungsbeispiele von Partnern wie Booking.com und Intuit präsentiert. Rob Francis, CTO von Booking.com, erläuterte, wie das Unternehmen seine KI-Reiseplaner-Anwendung durch das Hosting von Llama 2.0 und die Verwendung von Amazon Sagemakerentwickelt hat. Die wichtigsten Komponenten der Empfehlungs-API verwenden Amazon Bedrock und Titan.

Nhung Ho, VP of AI bei Intuit, gab Einblicke in seine Erfahrungen bei der Entwicklung eines Tools namens GenX zur Bereitstellung generativer KI-Erfahrungen mit Hilfe einer skalierbaren Architektur, die auf SageMaker, Bedrock und Redshift basiert. Sein Team hat auch Intuit Assist entwickelt, das auf großsprachige Finanzmodelle (LLMs) zurückgreift, um Informationen zu Themen wie persönliche Finanzen zu liefern.

Abschließend ist es wichtig zu erwähnen, dass Sivasubramanian betonte, wie wichtig eine solide Datengrundlage ist, die auch die Datensicherheit umfasst, um das Beste aus der generativen KI herauszuholen. Dies ist besonders wichtig, weil wir alle eine Explosion von Daten erleben. AWS denkt bei jeder Innovation daran. So sind beispielsweise die von Titan erzeugten Bilder mit Wasserzeichen versehen, um die Verbreitung von Fehlinformationen zu verhindern.

Tags:

Erfahren Sie mehr darüber, wie wir Ihnen helfen können, die Zukunft mit AWS zu gestalten