Maschinelles Lernen: So beschleunigen Sie die Implementierung Ihrer Modelle

Mark McQuade

abstract graphic

 

Geschäftsmodelle basieren auf Daten, die bei der Entscheidungsfindung und bei Vorhersagen für das zukünftige Wachstum und die Leistung helfen. Üblicherweise sind Business Analytics reaktiv, d. h. Entscheidungen werden auf Grundlage bereits erbrachter Leistungen getroffen. Heutzutage greifen führende Unternehmen jedoch vermehrt auf Machine Learning (ML) und KI zurück, um ihre Daten für Predictive Analytics nutzen zu können. Dieser Wandel bringt allerdings einige große Herausforderungen mit sich.

Laut IDC scheitern fast 30 % aller KI- und ML-Initiativen. Die Hauptgründe dafür sind eine schlechte Datenqualität, zu wenig Erfahrung und eine schwierige Operationalisierung. Außerdem sind diese Initiativen sehr zeitintensiv, da die ML-Modelle fortlaufend mit neuen Daten im Rahmen des Entwicklungszyklus trainiert werden müssen. Das liegt daran, dass die Datenqualität kontinuierlich abnimmt.

Sehen wir uns die Herausforderungen an, die bei der Entwicklung von ML-Modellen auftreten, und wie das Model Factory Framework von Rackspace Technology diesen Prozess vereinfacht und beschleunigt – damit Sie genau diese Herausforderungen bewältigen können.

 

Herausforderungen beim maschinellen Lernen 

Zu den schwierigsten Komponenten des maschinellen Lernens gehört die Operationalisierung von entwickelten ML-Modellen, die präzise und schnelle Erkenntnisse gemäß Ihrer Unternehmensanforderungen generieren. Sie sind dabei sicherlich auf einige der bekanntesten Hürden gestoßen:

  • Ineffiziente Koordination im Lifecycle-Management zwischen Betriebsteam und ML-Engineers. Laut Gartner erreichen 60 % aller Modelle nicht einmal die Produktionsumgebung aufgrund der gestörten Kommunikation.
     
  • Eine radikale Ausbreitung der Modelle. Darunter ist eine komplexe Situation zu verstehen, bei der mehrere Modelle mit unterschiedlichen Datensätzen und Hyperparametern gleichzeitig innerhalb verschiedener Umgebungen ausgeführt werden. Dabei den Überblick über diese Modelle und die dazugehörigen Daten zu behalten, kann eine große Herausforderung darstellen.
     
  • Modelle können zwar relativ schnell entwickelt werden, allerdings nimmt ihre Implementierung oft Monate in Anspruch, wodurch sich die Wertschöpfung verzögert. Unternehmen fehlen oft definierte Frameworks für die Datenaufbereitung, das Modelltraining, die Bereitstellung und das Monitoring. Dazu kommen strenge Governance- und Sicherheitskontrollen.
     
  • Das DevOps-Modell für die Entwicklung von Anwendungen kann nicht auf ML-Modelle angewendet werden. Der standardisierte lineare Ansatz ist hinfällig, weil die Modelle über ihren Lifecycle hinweg immer wieder mit neuen Datensätzen trainiert werden müssen. Das rührt daher, dass die Daten schnell veralten und dadurch unbrauchbar werden.

 

Der Lifecycle von ML-Modellen ist ziemlich komplex – von der Dateneinspeisung über die Transformation bis hin zur Validierung. Alles muss den Anforderungen der Initiative entsprechen. Ein Modell wird zunächst entwickelt und validiert und daraufhin trainiert. Je nachdem, wie lange der Entwicklungsprozess dauert, müssen unter Umständen fortlaufend Trainings erfolgen, während ein Modell Entwicklungs-, Test- und Implementierungsumgebungen durchläuft. Nach dem Training wird das Modell in die Produktionsumgebung verlagert. So trägt es dann zum Erreichen von Geschäftszielen bei. Während dieser Phase wird die Leistung des Modells protokolliert und überwacht, um dessen Eignung zu gewährleisten.

 

Schneller Aufbau von Modellen mit Amazon SageMaker

Zu den verfügbaren Tools, die diesen Entwicklungsprozess beschleunigen, zählt Amazon SageMaker. Diese ML-Plattform von Amazon Web Services (AWS) bietet zahlreiche Funktionen, die die Entwicklung, das Training und die Ausführung von ML-Modellen in der Cloud oder am Netzwerkrand schneller vorantreiben. Der Stack von Amazon SageMaker umfasst Modelle für KI-Dienste wie Computervision, Sprache und Empfehlungsmaschinen sowie Modelle für ML-Dienste, die Sie bei der Implementierung von Deep-Learning-Funktionen unterstützen. Darüber hinaus werden führende ML-Frameworks, ‑Schnittstellen und ‑Infrastrukturoptionen unterstützt.

Aber die Anwendung der richtigen Tools ist nur die halbe Miete. Umfangreiche Verbesserungen im Hinblick auf die Bereitstellung von ML-Modellen können nur erreicht werden, wenn auch die Effizienz des Lifecycle-Managements über alle beteiligten Teams hinweg verbessert wird. Unterschiedliche Teams innerhalb von Unternehmen bevorzugen verschiedene Tools und Frameworks, wodurch es zu Verzögerungen im Modell-Lifecycle kommen kann. Eine offene und modulare Lösung – unabhängig von der Plattform, den Tools oder des ML-Frameworks – sorgt für eine einfache Anpassung und Integration in bewährte AWS-Lösungen. Eine solche Lösung ermöglicht es Ihren Teams, die Tools ihrer Wahl zu verwenden.

Genau hier kommt das Model Factory Framework von Rackspace Technology ins Spiel. Es bietet eine CI/CD-Pipeline für Ihre Modelle, die deren Implementierung und Nachverfolgung erleichtert.

Werfen wir einen genaueren Blick darauf, wie die Lösung die Effizienz und Geschwindigkeit hinsichtlich der Entwicklung, der Implementierung, des Monitorings und der Governance von Modellen optimiert und so zu einer schnelleren Verlagerung in die Produktionsumgebung führt.

 

End-to-End-ML-Entwurf

Während des Entwicklungsprozesses werden ML-Modelle von Data-Science-Teams an Betriebsteams übergeben. Wie bereits erwähnt können die unterschiedlichen Präferenzen dieser Teams aufgrund der fehlenden Standardisierung zu Verzögerungen im Zeitplan führen.

Das Model Factory Framework von Rackspace Technology stellt eine Lösung für das Lifecycle-Management von Modellen dar, die sich durch ihren modularen Aufbau auszeichnet. Sie besteht aus Open-Source-Tools, die unabhängig von der Plattform, dem Tool und dem Framework funktionieren. Die Lösung wurde speziell entwickelt, um die Zusammenarbeit zwischen Ihren Data Scientists und Betriebsteams zu verbessern, damit sie zügig Modelle entwickeln, die Paketierung automatisieren und die Modelle in verschiedenen Umgebungen bereitstellen können.

Das Framework eignet sich für eine Integration mit AWS-Services und industrieüblichen Automatisierungstools wie Jenkins, Airflow und Kubeflow. Es unterstützt eine Reihe von Frameworks, z. B. TensorFlow, scikit-learn, Spark ML, spaCy und PyTorch, und kann in verschiedene Hosting-Plattformen wie Kubernetes und Amazon SageMaker integriert werden. 

 

Die Vorteile des Model Factory Frameworks von Rackspace Technology

Das Model Factory Framework von Rackspace Technology sorgt für wesentlich mehr Effizienz, da der ML-Lifecycle von durchschnittlich 15 auf bis zu fünf Schritte reduziert wird. Dank der einheitlichen Datenquelle für das Management automatisiert es den Übergabeprozess zwischen verschiedenen Teams und erleichtert die Wartung sowie die Fehlerdiagnose.

Aus Sicht der Data Scientists standardisiert das Model Factory Framework ihren Code und macht ihn über unterschiedliche Umgebungen hinweg reproduzierbar. Außerdem ermöglicht es die Nachverfolgung von Experimenten und Trainings. Zudem können durch den skriptgesteuerten Zugriff auf Spot-Instance-Trainings bis zu 60 % der Compute-Kosten eingespart werden. Den Betriebsteams bietet das Framework integrierte Tools für die Diagnostik, Leistungsüberwachung und Minderung von Modelldrifts. Es verfügt außerdem über eine Model-Registry, um die Modellversionen im Laufe der Zeit nachverfolgen zu können. Insgesamt hilft dies Ihrem Unternehmen dabei, die Zeit bis zur Modellbereitstellung zu verkürzen und den Aufwand zu reduzieren, wodurch Sie schneller Geschäftserkenntnisse erhalten und den ROI maximieren können.

 

Leistungsübersicht – von der Entwicklung und Implementierung bis zum Monitoring und der Steuerung

Das Model Factory Framework arbeitet mit einer ausgewählten Liste von Notebook-Vorlagen und geschützten, domainspezifischen Sprachen, wodurch das Onboarding, die Reproduktion über verschiedene Umgebungen hinweg, die Nachverfolgung von Experimenten, die Anpassung von Hyperparametern sowie die konsistente Paketierung von Modellen und Code erleichtert werden – unabhängig von der Domain.

Nach der Paketierung kann das Framework die End-to-End-Pipeline auslösen, welche die Vorverarbeitung durchführt, Engineering- und Training-Jobs ausführt, generierte Metriken und Artefakte protokolliert und das Modell über mehrere Umgebungen hinweg bereitstellt.

  • Entwicklung: Das Model Factory Framework unterstützt zahlreiche Entwicklungsmöglichkeiten. Benutzer können entweder lokal entwickeln, mit integrierten Entwicklungsumgebungen (Integrated Development Environments, IDEs) auf Notebooks-Servern arbeiten oder SageMaker-Notebooks verwenden. Sie können sogar eine automatisierte Umgebungsbereitstellung mit AWS-Tools wie AWS CodeStar nutzen.
     
  • Bereitstellung: Es werden mehrere Plattform-Backends für denselben Modellcode unterstützt. Die Modelle können auf Amazon SageMaker, Amazon EMR, Amazon ECS und Amazon EKS bereitgestellt werden. Änderungen werden nachverfolgt, darunter Artefakte und Notebooks mit Echtzeit-Batch- und Streaming-Inferenz-Pipelines.
     
  • Monitoring: Modellanfragen und ‑antworten werden für detaillierte Analysen überwacht, damit gegen Modell- und Datendrifts vorgegangen werden kann.
     
  • Steuerung: Daten- und Modellartefakte werden strikt voneinander getrennt. Der Zugriff kann mittels AWS IAM und Bucket-Richtlinien gesteuert werden, die Modell-Feature-Speicher, Modelle und zugehörige Pipeline-Artefakte kontrollieren. Das Framework unterstützt außerdem die regelbasierte Zugriffskontrolle durch Amazon Cognito, die Rückverfolgbarkeit mit Data Version Control und das Auditing bzw. Accounting durch umfangreiches Tagging.

 

Mit einer Kombination aus bewährten Beschleunigern, nativen AWS-Tools und dem Model Factory Framework können Unternehmen die Automatisierung der Modellentwicklung erheblich beschleunigen, Verzögerungen und den Aufwand reduzieren, den Time-to-Insight verbessern und den ROI maximieren.

Wenn Ihr Unternehmen an der Nutzung des Model Factory Frameworks interessiert ist, um Ihre ML-Anwendungsfälle zu vereinfachen und zu beschleunigen, finden Sie auf unseren KI- und ML-Seiten weitere Informationen, darunter Erfahrungsberichte von Kunden, Details zu unterstützten Plattformen und andere hilfreiche Ressourcen.

 

Verbessern Sie Ihr Kundenerlebnis anhand Ihrer Daten