Responsible AI

Ethik, Gerechtigkeit und Nachhaltigkeit in Einklang bringen, um eine verantwortungsvolle KI zu erreichen

Rackspace Technology legt Standards und Richtlinien fest und bietet Governance und Aufsicht, um die verantwortungsvolle und ethische Nutzung von KI sicherzustellen. Wir verpflichten uns, die Technologie in einer Weise zu nutzen, die mit den ethischen Grundsätzen der Verantwortlichkeit, Fairness, Transparenz und Vertrauenswürdigkeit vereinbar ist.

ChatGPT von OpenAI hat maßgeblich dazu beigetragen, KI in den Mainstream-Verbrauchermarkt zu bringen. Die rekordverdächtige Verbreitung des Produkts und der zugrunde liegenden generativen KI-Technologien unter Verwendung anderer grundlegender Modelle, die Sprache, Code und visuelle Elemente umfassen, hat gleichzeitig die Innovation und den Missbrauch der Technologien beschleunigt.

Das hat einige Unternehmen dazu veranlasst, die Verwendung der Technologien und Produkte in Unternehmenssystemen vollständig zu verbieten. Bei der derzeitigen Akzeptanzrate und angesichts der Vorteile eines verantwortungsvollen Einsatzes von KI dürften vollständige Verbote der Nutzung von KI-Technologien wirkungslos sein. Stattdessen sollten Unternehmen Kontrollen einführen und eine Kultur des verantwortungsvollen Umgangs mit KI schaffen, indem sie das Bewusstsein schärfen und Schulungen anbieten, die Anleitungen für den optimalen Einsatz der Technologien und Warnungen vor möglichem Missbrauch enthalten.

 

Wie definieren wir die verantwortungsvolle Nutzung von KI?

Im Gegensatz zur Rechenschaftspflicht ist die Verantwortung nicht dem Einzelnen oder dem Miteigentum vorbehalten, sondern dem kollektiven Eigentum. Verantwortung liegt dann vor, wenn jemand seinem oder ihrem Wort treu bleibt. Wenn man das auf KI anwendet, geht es darum, dass Entwickler und Nutzer von KI-Systemen die potenziellen Auswirkungen dieser Systeme auf den Einzelnen und die Gesellschaft bedenken, Verantwortung übernehmen und Maßnahmen ergreifen müssen, um etwaige negative Folgen abzumildern, damit wir als Organisation gemeinsam die richtigen Entscheidungen treffen können.

Verantwortungsbewusste KI bezieht sich auf die Entwicklung, den Einsatz und die Nutzung von KI in einer Weise, die ethisch, vertrauenswürdig, fair und unvoreingenommen, transparent und für den Einzelnen und die Gesellschaft als Ganzes von Nutzen ist. Der Schwerpunkt sollte auf Innovation, Produktivitätssteigerung und der Nutzung der Technologie als Instrument zur Beseitigung sozialer Vorurteile liegen. Es geht darum, KI als Entscheidungsunterstützungssystem zu nutzen und nicht als Entscheidungsträger.

 

Aufbau einer Vertrauenskette in der KI

KI-Systeme verfügen von Natur aus über mehrere Informationsschichten, die als Bestandteil der eingesetzten Modelle verschlüsselt sind. Daraus ergibt sich die Herausforderung, zu ermitteln, welche Daten mit den dahinterliegenden Plattformen denn eigentlich geteilt werden.Grundlegende Modelle sind aus einer Vielzahl von Quellen verfügbar, die von proprietär bis hin zu Open Source reichen. Diese werden dann erweitert und in verschiedene Funktionsmodelle eingearbeitet, die wiederum in Produkte einfließen.

Nehmen wir zum Beispiel GitHub Copilot. Aus der Sicht des Endnutzers müssen Entwickler, die Copilot für die KI-Paarprogrammierung verwenden, auf geistiges Eigentum und Daten achten, die mit der Plattform geteilt werden, um gemeinsam Code zu erstellen. Das erste Glied in der Kette ist der einzelne Benutzer. Unternehmen müssen Richtlinien und Governance für die Nutzung von GitHub Copilot einführen. Dies ist die zweite Vertrauensebene, die ein Unternehmen der Nutzung eines Softwareprodukts entgegenbringt.

In turn, GitHub uses OpenAI Codex for the underlying foundational model, and GitHub places the next-level chain of trust with OpenAI. For us to responsibly use it, we must understand what GitHub collects, as well as what the underlying platform, OpenAI in this case, collects. Dafür muss eine Vertrauenskette aufgebaut werden, bei der GitHub dem richtigen Handeln von OpenAI vertraut und wir wiederum darauf vertrauen, dass GitHub und unsere Kollegen den Dienst verantwortungsvoll nutzen.

 

Unser Ansatz für den verantwortungsvollen Einsatz von KI innerhalb der Organisation

Es gibt viel Aufregung über die neuen Fähigkeiten, die durch generative KI eingeführt werden. Die Nachfrage nach Produktivitätssteigerungen am hybriden Arbeitsplatz durch den Einsatz von KI-Kopiloten steigt ebenso wie der Wunsch, ein intelligentes Unternehmen mit sicheren, erschwinglichen und skalierbaren KI-Modellen aufzubauen. Wir wollen das alles verantwortungsvoll tun.

Wir haben einige Schritte unternommen, um Richtlinien zu erstellen, die anwendbar, umsetzbar und an unsere Anwendungsszenarien gebunden sind. Hier sind einige Richtlinien, die wir dabei befolgt haben:

  • Halten Sie Richtlinien einfach und leicht verständlich.
  • Definition von Richtlinien zur Datenklassifizierung und Bereitstellung von Leitlinien mit konkreten Beispielen für die Klassifizierung von Informationen und die sichere Verwendung von Daten.
  • Informieren Sie Ihre Teams über die Grundsätze und Richtlinien für verantwortungsvolle KI und kontextualisieren Sie die Richtlinien mit Beispielen aus der Praxis.
  • Implementieren Sie einen Prozess zur Überwachung der ethischen Nutzung von KI.
  • Erstellen Sie einen Governance-Rat, der die Anwendung von Richtlinien selektieren und validieren und diese regelmäßig aktualisieren kann.

 

Unsere wichtigsten KI-Richtlinien:

  • Steuerung und Aufsicht: Wir haben einen Ausschuss gebildet und Verantwortliche bestimmt, die für die Überwachung, Einhaltung, Prüfung und Durchsetzung des KI-Standards sorgen.
  • Autorisierte Nutzung von Software: Die Nutzung von KI-Software unterliegt der gleichen globalen Einkaufs- und internen Nutzungsaufsicht, die wir auch für andere Softwareanwendungen anwenden.
  • Verantwortungsvolle und ethische Nutzung: Wir fördern die ethische Nutzung, Überwachung und Erklärbarkeit von KI-Modellen. Dazu gehört die Gewährleistung von Gültigkeit, Zuverlässigkeit, Sicherheit, Rechenschaftspflicht, Transparenz, unserer Fähigkeit, Fairness zu erklären und zu interpretieren, und der Umgang mit schädlichen Vorurteilen.
  • Vertrauliche und sensible Informationen: Wir haben Standards zur Klassifizierung von Informationen eingeführt und klare Leitlinien für die Nutzung von KI-Diensten bereitgestellt, um den angemessenen Schutz von geistigem Eigentum, regulierten Daten und vertraulichen Informationen zu gewährleisten.
  • Aufbewahrung, Datenschutz und Sicherheit: Wir halten uns an die Richtlinien zur Datenverwaltung und -speicherung und halten uns an die Richtlinien zur Unternehmenssicherheit und zum Datenschutz.
  • Berichte: Mitarbeiter werden ermutigt, Verstöße gegen den KI-Standard in gutem Glauben zu melden.

 

Fazit

Zusammengefasst sind dies unsere wichtigsten Leitprinzipien, die uns dabei helfen, eine Politik zu entwickeln und ein sozial verantwortliches Umfeld zu schaffen, das Innovationen fördert und die negative Nutzung und die Auswirkungen von KI verhindert.

  • KI für das Gute – Erstellen und nutzen Sie KI zum Wohle der Allgemeinheit und begrenzen Sie schädliche Faktoren.
  • Beseitigung von Verzerrungen - Seien Sie fair und beseitigen Sie Verzerrungen durch Algorithmen, Datensätze und verstärkendes Lernen.
  • Rechenschaftspflicht und Erklärbarkeit - Wir müssen uns selbst für den Einsatz von KI und daraus abgeleiteten Anwendungen zur Rechenschaft ziehen und Erklärbarkeit als Grundlage für jeden Prozess der Modellbildung einsetzen.
  • Datenschutz und geistiges Eigentum — Wir sorgen für eine sichere Nutzung von Unternehmensdaten und geistigem Eigentum.
  • Transparenz – Die Verwendung von Modellen und Datensätzen wird gut katalogisiert und dokumentiert.
  • Ethische Nutzung – Wir überwachen und validieren die ethische Nutzung von Datensätzen und KI.
  • Verbesserte Produktivität – Wir werden die Bemühungen zur Einführung von KI darauf konzentrieren, die Produktivität zu verbessern, die betriebliche Effizienz zu steigern und Innovationen voranzutreiben.

 

 

< Drupal-Entität data-align="left" data-embed-button="media_entity_embed" data-entity-embed-display="view_mode:media.full" data-entity-type="media" data-entity-uuid="ffc70d81-8bc0-42e9-b646-2faec089e354" data-langcode="en"> < /drupal-entity>

Nutzen Sie die Leistungsfähigkeit von KI schnell und verantwortungsvoll mit Foundry for AI von Rackspace Technology (FAIR™). FAIR spielt eine Vorreiterrolle bei der globalen KI-Innovation und ebnet Unternehmen den Weg für eine schnellere Einführung von verantwortungsvollen KI-Lösungen. FAIR ist auf Hunderte von KI-Anwendungsfällen in zahlreichen Branchen abgestimmt und ermöglicht gleichzeitig eine individuelle Anpassung durch die Erstellung einer maßgeschneiderten KI-Strategie, die auf Ihre spezifischen Geschäftsanforderungen anwendbar ist. Die Lösungen von FAIR können auf jeder privaten, hybriden oder Hyperscale-Public-Cloud-Plattform eingesetzt werden und stärken Unternehmen weltweit, indem sie über die digitale Transformation hinausgehen und Kreativität freisetzen, die Produktivität steigern und unseren Kunden die Tür zu neuen Wachstumsbereichen öffnen.Folgen Sie FAIR auf LinkedIn.

Mehr erfahren

 

Join the Conversation: Find Solve on Twitter and LinkedIn, or follow along via RSS.

Stay on top of what's next in technology

Learn about tech trends, innovations and how technologists are working today.

Subscribe
FAIR

Erschließen Sie das transformative Potenzial von KI mit Foundry for Generative AI by Rackspace (FAIR™) neu.

About the Authors

Nirmal Ranganathan

Chief Architect - Data & AI

Nirmal Ranganathan

Nirmal Ranganathan is the Chief Architect – Data & AI at Rackspace Technology and responsible for technology strategy and roadmap for Rackspace's Public Cloud Data & AI solutions portfolio, working closely with customers, alliances and partners. Nirmal has worked with data over the past 2 decades, solving distributed systems challenges dealing with large volumes of data, being a customer advocate and helping customers solve their data challenges. Nirmal consults with customers around large-scale databases, data processing, data analytics and data warehousing in the cloud, providing solutions for innovative use cases across industries leveraging AI and Machine Learning.

Read more about Nirmal Ranganathan
Joanne Flack

VP, Deputy General Counsel & Chief Privacy Officer

Joanne Flack

Joanne Flack is Vice President, Deputy General Counsel & Chief Privacy Officer at Rackspace Technology. As part of her role, Joanne is responsible for all privacy, cybersecurity, enterprise risk management, intellectual property, product development and technology legal matters at Rackspace Technology. This includes overseeing appropriate corporate governance and compliant strategy for responsible use of AI, both within Rackspace Technology and in Rackspace Technology’s multicloud solution portfolio. Joanne is an award winning legal executive, and has two decades of in-depth experience in the technology sector. She is a US licensed attorney, a solicitor in England & Wales, an experienced privacy and cybersecurity professional (IAPP Fellow of Information Privacy - FIP, CIPP/US, CIPP/E, CIPT, CIPM; (ISC)² CC, & CISSP candidate), and a COSO certified enterprise risk manager. Joanne is an experienced public company executive, holds an MBA from Imperial College London, and is an NACD certified corporate director.

Read more about Joanne Flack