Schützen Sie Ihr geistiges Eigentum in einer AI-Welt
Unternehmen müssen die Vorteile der KI-Nutzung sorgfältig gegen die Notwendigkeit abwägen, Datenlecks zu verhindern, die sich aus der Nutzung öffentlicher KI-Tools durch Mitarbeiter ergeben, denen es an angemessener Data Governance mangelt.
Vor etwas mehr als einem Jahr stürmte die künstliche Intelligenz (KI) ins öffentliche Bewusstsein und weckte weltweit großes Interesse. Die Veröffentlichung von ChatGPT im November 2022 löste einen Ansturm von Aktivitäten aus, da OpenAI-Konkurrenten sich beeilten, ihre Produkte und Tools auf den Markt zu bringen. Die Massenmedien haben mit der Behauptung, dass die KI mindestens Millionen von Arbeitsplätzen vernichten und schlimmstenfalls den Tod der Menschheit bedeuten würde, großes Interesse geweckt. In Bezug auf die Umwälzung von Unternehmen wird die KI größer sein als das Internet.
Dann, als sich das Jahr 2023 dem Ende zuneigte, begann sich die übermäßige Aufregung zu legen. An ihre Stelle trat die stillschweigende Akzeptanz, dass GenAI kommen und bleiben wird, und die Vorstellung, dass Unternehmen aller Größenordnungen sie schnell einführen müssen oder ihre Wettbewerbsfähigkeit aufs Spiel setzen. Natürlich wurden viele Unternehmen unvorbereitet getroffen; tatsächlich hatten nur wenige eine Vorstellung davon, wie sich GenAI auf ihre Abläufe auswirken würde oder wie man diese Auswirkungen bestimmen könnte. Doch in der relativ kurzen Zeitspanne von einem Jahr hat sich eine neue Art von Schatten-IT entwickelt.
Fast sofort hatte jeder Verbraucher Zugang zu LLM-gesteuerten KI-Chatbots. ChatGPT und seine nahen Verwandten Microsoft® Bing® und Microsoft® Copilot® sowie Mainstream-Konkurrenten wie Google Bard™ und Google Gemini™ wurden schnell von Mitarbeitern in allen Funktionen übernommen - oft ohne angemessene Unternehmensführung. Dies stellt für die Unternehmen ein potenziell großes Problem beim Schutz ihres geistigen Eigentums dar. Das liegt daran, dass die meisten frei verfügbaren GenAI-Tools die vom Benutzer eingegebenen Informationen als Aufforderung nutzen, um die Genauigkeit der Antworten des Tools durch kontinuierliches Training zu verbessern.
Was soll das bedeuten? Gen AI Chatbots verwenden LLMs, die in der Lage sind, Sprache zu interpretieren und zu generieren, indem sie die statistischen Beziehungen zwischen Wörtern aus Millionen von Textdokumenten während eines "Trainingsprozesses" lernen. Zu den Nutzungsbedingungen vieler kostenloser GenAI-Online-Tools gehört es, dass alle Daten, die während der Eingabeaufforderung an das Tool übermittelt werden, häufig für die spätere Feinabstimmung des LLM verwendet werden können, um dessen Genauigkeit zu verbessern.
Insbesondere die Best Practices für die Erstellung von Prompts ermutigen die Benutzer, Beispieltexte einzufügen, um dem LLM ein Beispiel dafür zu geben, wonach er suchen muss. Wenn das Beispiel aus einem internen, geschützten Dokument stammt, wurde es tatsächlich für die Öffentlichkeit freigegeben. Wie Owen O'Connell, SVP und CIO bei Shell, sagte, "Wir können nicht zulassen, dass Dinge wie unsere Unternehmensstrategie durch ChatGPT fließen."
In diesem Artikel von FAIR AI Insightserfahren Sie mehr über die Überlegungen, die Unternehmen anstellen müssen, wenn sie leistungsstarke Chatbots mit generativen KI-Modellen, insbesondere mit textgenerierenden Large Language Models (LLMs), in ihren Datenumgebungen einsetzen wollen, und lernen Strategien kennen, um die damit verbundenen Bedenken zu zerstreuen.
Datenschutz und Vertraulichkeit sind Kernaspekte jeder umfassenden Unternehmensarchitektur, aber die Verfügbarkeit von GenAI SaaS für Verbraucher und die unmittelbaren Vorteile für Wissensarbeiter haben das Risiko von Datenlecks erhöht. Unternehmen müssen ihre Data-Governance-Richtlinien und -Verfahren umgehend anpassen, um die Einführung und Nutzung von GenAI im gesamten Unternehmen zu steuern.
Es stellt sich also die Frage: Wie kann ein Unternehmen GenAI nutzen und gleichzeitig sein geistiges Eigentum schützen?
Im Wesentlichen geht es darum, eine verinnerlichte Version eines GenAI-Modells anzunehmen. Aber wie bei allen Cloud-Diensten müssen sich die Unternehmen die Frage stellen: Sollen wir das Datenschutzniveau akzeptieren, das die unternehmensorientierten GenAI-Tools bieten, die von vielen Public-Cloud-Anbietern angeboten werden, oder sollten wir eine private Cloud-Technologie nutzen?
Michael Carbin, Associate Professor am MIT, sagte kürzlich: "Wenn Ihnen ein bestimmtes Problem sehr am Herzen liegt oder Sie ein System entwickeln, das für Ihr Unternehmen von zentraler Bedeutung ist, stellt sich die Frage, wem Ihr geistiges Eigentum gehört." Wenn es um den Datenschutz bei der unternehmensinternen Nutzung generativer KI geht, sind die Erwartungen nicht anders als bei anderen IT-Anwendungen. Ein Unternehmen möchte absolute Kontrolle und Aufsicht über jedes KI-Tool, das seine eigenen Daten verwendet.
Eine Möglichkeit ist eine private dedizierte IT-Umgebung. Die andere Option sind öffentliche Cloud-Dienste. Die Entscheidung, welche Option für ein Unternehmen am besten geeignet ist, hängt von der Risikotoleranz des Unternehmens ab. Für stark regulierte Branchen sind private Umgebungen höchstwahrscheinlich die richtige Wahl. Public Cloud AI kann für Unternehmen geeignet sein, die weniger auf sensible Daten angewiesen sind.
Unterm Strich können GenAI-Tools die Produktivität der Mitarbeiter erheblich steigern, wie viele bereits außerhalb der strengen Unternehmensführung entdeckt haben. Gleichzeitig können es sich die Unternehmen nicht leisten, das Risiko zu ignorieren, das dies für ihre geschützten Daten und ihr geistiges Eigentum darstellt.
2023 öffnete die Schleusen für ein noch nie dagewesenes öffentliches Interesse und eine noch nie dagewesene Akzeptanz von KI, und heute geht es darum, diese potenziell transformative, aber riskante Technologie verantwortungsvoll zu steuern.
Der Weg in die Zukunft besteht darin, GenAI-Lösungen vollständig und verantwortungsbewusst in das gesamte Unternehmen zu integrieren, damit die Mitarbeiter über die benötigten Tools verfügen, ohne auf leicht verfügbare SaaS-Tools zurückgreifen zu müssen.
Melden Sie sich für einen Ideenfindungsworkshop an, um Plattform-Engineering für nachhaltigen Infrastrukturerfolg zu nutzen.
About the Authors
Global Campaign Manager
Nic Du Feu
Nic is a marketer with over 30 years of experience in telecoms and IT based in the UK. Having spent the first 5 years of his career in engineering he then moved through a variety of GTM roles including product management, marketing, business development and consulting which involved traveling throughout EMEA and included a period in North America. During this time, Nic has crossed paths with a myriad of technologies ranging from the physics of optics and wireless through switching and routing to rating and charging applications, all with a focus on understanding the customer challenges that they can solve. Outside of work, Nic and his wife love to spend time with their children’s growing families and maximizing the riot of plants and colors in their garden throughout the year.
Read more about Nic Du Feu