Der erste Schritt der KI ist die Datenbereitstellung. Wie befähigte Nutzer und Datenplattformen die nächste Stufe der generativen KI prägen

By Ryan Garfi, Director, Data & AI Solutions, Rackspace Technology

evolution-of-data-platforms-rackspace-technology

Sind Ihre Daten KI-fähig? Wir gehen einen Schritt zurück und betrachten die Variablen, die heute KI-fähige Daten erfordern. Fähige KI-Benutzer zeichnen sich durch drei Variablen aus: Datenkompetenz, Verwendung von Echtzeit- und Streaming-Architekturen und Nutzung von domänenspezifischen Datenprodukten. Hier erfahren Sie, wie sich diese Variablen auf KI auswirken.

KI ist der Motor der heutigen Spitzeninnovationen. Und Daten sind ihr Treibstoff. Wenn Ihr Treibstoff nicht in einem idealen Zustand der KI-Bereitschaft ist, könnten Ihre Initiativen ins Stocken geraten oder sogar scheitern. Bevor Sie mit Ihrem nächsten Konzeptnachweis für KI beginnen, sollten Sie herausfinden, warum die Datenbereitschaft Ihr erster Schritt sein muss.

Einige Unternehmen sind beim Einsatz von KI bereits weit voraus. In vielen Fällen gibt es zwei herausragende Variablen in ihrem Ansatz: befähigte KI-Nutzer und hoch entwickelte Datenplattformen. Diese beiden Variablen scheinen stark mit dem KI-Erfolg zu korrelieren. Sie verbessern insbesondere die Effizienz der KI-Entwicklung und tragen dazu bei, Vertrauen in die KI aufzubauen.

Wachsende Zahl befähigter KI-Nutzer

Mächtige KI-Anwender zeichnen sich durch drei Variablen aus: Datenkompetenz, Verwendung von Echtzeit- und Streaming-Architekturen und Nutzung von domänenspezifischen Datenprodukten. Im Folgenden wird erläutert, wie sich diese Variablen auf die KI auswirken.

Datenkompetenz: Einer der größten Trends ist die Zunahme der Datenkompetenz, laut DataCamp. Sie fand heraus, dass 86 % der Führungskräfte Datenkompetenz als wesentlich für die tägliche Arbeit einstufen. KI-Nutzer haben ihre Datenkompetenz erweitert, was die Nachfrage nach anspruchsvolleren Datenprodukten und schnelleren Entwicklungszyklen erhöht. So wird beispielsweise die Einführung offener Standards wie Apache Spark für die Verarbeitung und Apache Iceberg und Delta für die Speicherung immer wichtiger.

>

Echtzeitdaten und Streaming-Architekturen: Das Aufkommen dieser Funktionen ermöglicht es Unternehmen, große Datenmengen in Echtzeit zu analysieren, was zu verwertbaren Erkenntnissen und sofortigen Entscheidungen führt. Dies ist für moderne Anwendungen von entscheidender Bedeutung. Es bedeutet, dass Streaming-Daten aus sozialen Medien, Sensoren, Finanztransaktionen und mehr schnell verarbeitet werden können. Außerdem können Maßnahmen dann ergriffen werden, wenn sie die größte Wirkung haben.

Domänenspezifische Datenprodukte: Ein weiterer neuer Trend ist die Verlagerung auf bereichsspezifische Datenprodukte, die effektiver sind als allgemeine Datenprodukte. Sie bieten Unternehmen eine genauere Kontrolle und Unterstützung für komplexe Anwendungsfälle. Eine weitere Anpassungsmöglichkeit ist den Low-Code/No-Code-Tools zu verdanken, die Power-Usern die Möglichkeit geben, maßgeschneiderte Dashboards und Berichte zu erstellen, die ihren spezifischen Anforderungen entsprechen.

Revolutionierung der KI-Datenproduktentwicklung

Generative KI steigert die Nachfrage nach Datenkatalogisierung und Testdatengenerierung, da sie die Effizienz und Genauigkeit verbessern kann. Außerdem beschleunigen verbesserte Beobachtbarkeit und DevOps-Praktiken zusammen mit der Trennung von Build-and-Run-Teams die Bereitstellung und standardisieren das Management.

Um das Vertrauen zu stärken, müssen KI-Modelle mit unverfälschten, genauen und gut dokumentierten Daten gespeist werden. Eine breite Palette von Innovationen revolutioniert die Fähigkeit, qualitativ hochwertige Daten zu erstellen, darunter Datenkataloge, Data Governance und modulare Datenarchitekturen. Was das für die Unternehmen von heute bedeutet, erfahren Sie hier.

Generative KI in der Datenkatalogisierung und Testdatengenerierung

Eine Möglichkeit, die Erstellung hochwertiger, KI-fähiger Daten zu unterstützen, ist die Datenkatalogisierung. Datenkataloge sind organisierte Verzeichnisse der Datenbestände von Unternehmen. Sie durchforsten kontinuierlich Datenquellen, um Metadaten zu sammeln, einschließlich Struktur, Herkunft und Verwendung. Dann verfolgen sie Änderungen im Laufe der Zeit. Durch die Bereitstellung einer ganzheitlichen Sicht auf die Daten tragen die Kataloge dazu bei, dass die KI-Modelle mit genauen und gut dokumentierten Daten gespeist werden.

>

Die Generierung von Testdaten umfasst die Erstellung von Daten, die tatsächliche Daten imitieren, aber nicht mit ihnen verbunden sind. Sie werden für die Durchführung von Leistungstests verwendet. Der Prozess hilft bei der Validierung der Softwarefunktionalität, der Erkennung potenzieller Probleme und der Unterstützung der Leistung unter verschiedenen Bedingungen.

Datenqualität, Abstammung und Governance

Datenqualität, Abstammung und Governance sind entscheidend für die Schaffung vertrauenswürdiger KI-Systeme. Die Datenqualität bezieht sich auf die Zuverlässigkeit und Genauigkeit der Daten, die zum Trainieren von KI-Modellen verwendet werden. Die Datenherkunft zeichnet den Lebenszyklus der Daten nach, einschließlich ihrer Herkunft, Bewegung, Umwandlung und Verwendung. Die KI-Governance liefert die Rahmenbedingungen, Praktiken und Richtlinien, die erforderlich sind, um die Entwicklung, Bereitstellung und Nutzung von KI-Systemen zu verfolgen. Alle drei spielen eine wichtige Rolle bei der Entwicklung von KI-Systemen, die verantwortungsvoll und ethisch vertretbar sind und mit den gesetzlichen Vorschriften und Ihren Geschäftszielen im Einklang stehen.

Modulare Datenarchitekturen

Der modulare Ansatz in der Datenarchitektur bietet Unternehmen einen entscheidenden Vorteil: die Möglichkeit, Komponenten zu skalieren und zu aktualisieren, ohne das gesamte System zu beeinträchtigen. Dabei werden unabhängige, in sich geschlossene Komponenten eingesetzt, die zusammenarbeiten. Dabei kommen häufig Container-Technologien wie Docker und Orchestrierungs-Tools wie Kubernetes zum Einsatz, mit denen Unternehmen KI-Systeme einfacher aktualisieren und verwalten können. Richtig gemacht, führt dies zu mehr Flexibilität, besserer Skalierbarkeit und einfacherer Wartung.

Mit hochwertigen Daten Vertrauen in KI schaffen

Hochwertige, unvoreingenommene Daten sind für eine verantwortungsvolle KI und den Aufbau von Vertrauen unerlässlich. Eine starke Datenverwaltung und kontinuierliche Überwachung unterstützen ethische KI-Praktiken und fördern das langfristige Vertrauen der Nutzer. Laut Precisely geben 76 % der Unternehmensleiter an, dass datengestützte Entscheidungsfindung das Hauptziel ihrer Daten-Programme ist. Doch 67 % vertrauen ihren Daten nicht.

Der Bedarf an hochwertigen Daten

Unvoreingenommene, zuverlässige und hochwertige Daten sind für die Genauigkeit und Vertrauenswürdigkeit von KI-Modellen unerlässlich. Um sicherzustellen, dass Sie KI-Systeme nur mit den hochwertigsten Daten füttern, müssen Sie sicherstellen, dass Ihre Grundlagen in mehreren Kategorien abgedeckt sind, darunter Relevanz, Vollständigkeit, Darstellung, Verzerrung und Aktualität.

Datenbeobachtbarkeit und ITIL-Integration

Datenbeobachtung und ITIL (Information Technology Infrastructure Library) Integration ist die Anwendung von ITIL-Prinzipien und -Prozessen zur Verwaltung von Datensystemen, zur Bereitstellung von Datenqualität und zur Herstellung von Zuverlässigkeit. Die systematische Umsetzung von Datenbeobachtung und Integration in ITIL-Systeme ermöglicht es Datenteams, Anomalien in Echtzeit zu erkennen, Ursachenanalysen schnell durchzuführen und Vertrauen und Transparenz in Datenprodukte zu fördern.

Zwei reale, KI-fähige Datenfallstudien

Foundry for AI by Rackspace (FAIR™) unterstützt Unternehmen bei der Bewältigung ihrer KI-Datenherausforderungen mit bewährten Prozessen, Services und Lösungen.

  • FAIR half einem führenden Unternehmen für Verpackungsinnovation und Nachhaltigkeit in den USA, die Herausforderung der manuellen Datenextraktion und Verarbeitung wichtiger Finanzberichte zu bewältigen. Zu den bereitgestellten Lösungen gehörte die Entwicklung einer Datenstrategie, mit der große Datenmengen in einem einzigen Datensee zusammengefasst wurden. Das Ergebnis war eine Reduzierung des Zeitaufwands für die Verwaltung und Qualität von Kundendaten um 33 %.
  • FAIR unterstützte einen großen Anbieter von Gesundheitsdienstleistungen in Asien bei der Bewältigung der Herausforderung, dass langsame Leistungen und vorhandene Berichte die Innovation beeinträchtigten. Zu den gelieferten Lösungen gehörte die Integration der Datenbeobachtung, um eine einheitliche Sicht auf Fehler und Warnungen zu ermöglichen. Zu den Ergebnissen gehörten der Zugriff auf einheitliche Daten und die Generierung von Erkenntnissen in Echtzeit.

Erfahren Sie mehr darüber, warum Unternehmen hochwertige Daten für KI-Innovation und -Leistung benötigen, aus der Sicht des CTO für KI bei FAIR.

Tags: