contact

Kontakt

Blog | 01.03.2024

Verantwortungsvolle AI: Fünf Prinzipien für den richtigen Einsatz

Responsible AI
Table of Contents

Angesichts des Arbeits- und Fachkräftemangels und der wirtschaftlichen Lage fragen sich viele Unternehmen: „Wie können wir effizienter werden – ohne Kompromisse bei der Qualität, beim Kundenerlebnis und bei der Mitarbeiterproduktivität? Oder idealerweise: Verbessern wir das alles und werden zugleich als Unternehmen effizienter? Viele Unternehmen wollen diese Lücken mit Artificial Intelligence (AI) schließen und mit AI effektivere Entscheidungsprozesse unterstützen.

Doch AI eröffnet nicht nur ständig neue Chancen, sondern wirft auch Fragen zur Ethik der Technologie auf: Wie ist es z. B. beim AI-Einsatz um Fairness, Gleichheit, Privatsphäre, Transparenz, Vertrauen und Kontrolle bestellt?

Das erfahren Sie in diesem Beitrag:

  • Was ist Responsible AI und wie lassen sich Risiken minimieren?
  • Welche Vorteile bringt die Automatisierung mit Responsible AI?
  • Was sind Best Practices für die Entwicklung und Implementierung einer AI-Lösung?
  • Welche fünf Prinzipien für Responsible AI hat SS&C Blue Prism?

Was ist Responsible AI?

Bei Responsible AI geht es darum, den AI-Entwicklungsprozess von einem ethischen und rechtlichen Standpunkt aus anzugehen. Ziel ist es, eine sichere, vertrauenswürdige und transparente AI-Nutzung zu ermöglichen. Dies schützt Sie, da so gewährleistet wird, dass Ihr Unternehmen konform bleibt, alle geltenden Gesetze und Vorschriften einhält und seinen guten Ruf nicht gefährdet – Stichwort „Reputationsschäden“. Ob Mensch, Umwelt oder Sicherheit: AI-Systeme müssen überall die höchsten Standards erfüllen.

  • Die AI-Governance sollte eine Dokumentation des AI-Modells und Auditing-Pipelines umfassen. Dann lässt sich leicht nachverfolgen, wie Ihre AI trainiert und getestet wird und wie sie sich während ihres gesamten Lebenszyklus verhält.
  • AI-Compliance stellt sicher, dass Ihre AI-gestützten Systeme alle geltenden Gesetze oder Vorschriften erfüllen, wie Datenschutz und Schutz von geistigem Eigentum.

Ihr Unternehmen profitiert von einer guten AI auf mehrere Weise, zum Beispiel in diesen Bereichen:

  • Rechenschaftspflicht: Die Bewertung der – beabsichtigten und unbeabsichtigten – Leistung Ihrer AI-Systeme ist entscheidend für die Entwicklung verantwortungsvoller Produkte und Dienstleistungen.
  • Vertrauen: Können Sie Ihren AI-Systemen nicht vertrauen, bremst das die Einführung weiterer Technologien in Ihrem Unternehmen aus. Mit einem verantwortungsvollen Ansatz gewinnen Sie dagegen Vertrauen und Loyalität.
  • Verantwortlichkeit als Teil der Unternehmenskultur: Sie müssen dafür sorgen, dass Ihre Entscheidungsträger und Entwicklerteams die ethische Seite der AI-Einführung berücksichtigen und innovative Ansätze für den Geschäftserfolg hervorbringen, ohne dafür verantwortungsvolle Praktiken zu opfern.

Wie passt die Automatisierung dazu?

Intelligent Automation (IA) kombiniert Robotic Process Automation (RPA), Business Process Management (BPM) und AI zur Automatisierung und Optimierung von Geschäftsprozessen. AI ist ein Hauptelement der Intelligent Automation, weshalb eine Responsible AI so unerlässlich ist. Wie Sie Ihre IA-Initiative trainieren und anpassen, wirkt sich direkt auf den Ruf Ihres Unternehmens sowie die Einhaltung von Gesetzen und Vorschriften aus.

Welche Risiken sind mit AI verbunden?

Wenn Sie beim AI-Einsatz keinen verantwortungsvollen Ansatz verfolgen, müssen Sie nicht nur mit rechtlichen und finanziellen Konsequenzen rechnen, sondern setzen auch den Ruf Ihres Unternehmens aufs Spiel. Die Datensätze, mit denen Sie Ihre Modelle für maschinelles Lernen (ML) trainieren, können zu Vorurteilen (oder in der Fachsprache „Verzerrungen“) in Ihrem AI-System führen. Schuld daran können fehlerhafte oder unvollständige Daten sein.

Bleiben Aspekte wie die Datenqualität beim Trainieren der Modelle unberücksichtigt, kann dies zu einem voreingenommenen AI-Programm führen. Und das kann Nachteile für Menschen und Unternehmen bedeuten. Eine verantwortungslose AI-Einführung – also das Gegenteil von Responsible AI – bringt mehrere Risiken mit sich:

  • Fehler oder falsche Daten
  • Voreingenommenheit (Verzerrung) und Diskriminierung
  • mangelnde Interpretierbarkeit
  • instabile Leistung
  • keine Skalierung
  • kostspielige Gerichtsprozesse/Geldbußen

Wie kann AI also verantwortungsvoll eingesetzt werden?

Transparentere AI-Systeme stärken das Vertrauen der Endanwender und schützen Ihre Mitarbeiter und Ihr Unternehmen vor negativen Folgen. Wenn Sie nämlich Technologien wie AI richtig einsetzen, gewinnen Sie das nötige Vertrauen, um noch bessere Prozesse in Ihrem Unternehmen zu skalieren und zu entwickeln.

Werfen wir nun einen Blick auf einige Best Practices und Tools, die Ihnen bei der Implementierung verantwortungsvoller AI-Standards helfen.

Was sind verantwortungsvolle AI-Praktiken?

Neben Ihren allgemeinen Best Practices für die Implementierung eines neuen Softwaresystems in Ihren Geschäftsbereichen gibt es einige wichtige Ansätze, wie Sie einen ethischen AI-Einsatz sicherstellen können.

Wir empfehlen die folgende To-do-Liste, bevor Sie AI in der Praxis einsetzen:

  • ML- und AI-Modelle klar definieren
  • Zuverlässigkeit und Sicherheit Ihrer Trainingsdaten überprüfen
  • Nachvollziehbarkeit schaffen, wie und warum Ihre AI welche Ergebnisse liefert
  • Fairness managen – AI-Verzerrungen und Diskriminierung systematisch angehen
  • Datenschutzpraktiken für sichere Daten durchsetzen
  • potenzielle Bedrohungen prüfen, z. B. Cyberangriffe
  • sicheres, resilientes AI-System entwickeln
  • ständige Validierung und Überwachung der AI-Performance durch einen Mitarbeiter (Human-in-the-Loop-Ansatz)
  • regelkonforme Sicherheit auf allen Ebenen gewährleisten

GenAI: Die richtige Vorbereitung zählt

Vor der Implementierung neuer Technologien wie Generative AI sollten Sie einen strategischen Plan entwickeln. Wie unsere weltweite Befragung von 850 Führungskräften aus dem Jahr 2022 zeigt, ist die Bedeutung einer Responsible AI und AI-Regulierung weithin bekannt. Aber nur 6 % der Unternehmen haben nach eigenen Angaben eine sehr robuste Responsible AI als Grundlage implementiert. (Accenture: „A new era of generative AI for everyone“)

Hier sind unsere Top-Tipps zur Vorbereitung auf GenAI:

  1. Hinterfragen Sie bestehende Denkansätze, indem Sie sich das Potenzial und den Bedrohungsgrad von GenAI ansehen.
  2. Schulen Sie Mitarbeiter auf allen Unternehmensebenen in der Zusammenarbeit zwischen AI und Mensch und lassen Sie Inhalte von Mitarbeitern validieren (Human-Oversight-Konzept).
  3. Identifizieren Sie die Stärken, Grenzen und ethischen Aspekte von GenAI.
  4. Verwenden Sie Trainingsdaten von hoher Qualität.
  5. Stellen Sie mit einem Top-down- und Bottom-up-Ansatz die Abstimmung zwischen Geschäftsanwendern und IT sicher.
  6. Bedenken Sie weitere Auswirkungen, z. B. im ESG-Bereich (Environmental, Social, Governance) oder beim Energieverbrauch von GenAI-Modellen.
  7. Ermitteln Sie konkrete GenAI-Anwendungsfälle in Ihrem Unternehmen.
  8. Nutzen Sie geeignete AI-Tools, die zu Ihren Geschäftsanforderungen passen, und bereiten Sie Ihre Infrastruktur vor.
  9. Etablieren Sie eine AI-Governance und AI-Compliance mit einem Responsible-AI-Framework.
  10. Testen, trainieren und noch mehr testen: Die Überprüfung bewährter Verfahren sollte ständig stattfinden.

Fünf Prinzipien einer Responsible AI

Fünf Prinzipien einer Responsible AI

Jetzt geht es an die Gestaltung der Responsible-AI-Prinzipien für Ihr Framework. Eine kontinuierliche Überwachung ist wichtig, damit die AI jederzeit ethisch korrekt arbeitet. Ein Maturity-Modell oder ein operatives Modell ist hilfreich, wenn Sie ein sicheres, zuverlässiges AI-System entwickeln und implementieren.

Bauen Sie Ihre AI-Lösung auf folgenden fünf Grundlagen auf:

1. Fairness und Inklusivität

Ein AI-System sollte alle fair und vorurteilsfrei behandeln.

Nutzt beispielsweise ein Gesundheitsdienstleister Artificial Intelligence, um für Patienten eine medizinische Behandlung anhand der Symptome zu empfehlen, sollte die AI-Lösung die gleiche Empfehlung für alle Patienten mit diesen Symptomen aussprechen – unabhängig von ihrer finanziellen oder beruflichen Situation.

AI-Systeme zur Entscheidungsfindung bergen das Risiko einer unfairen Verzerrung, wenn sie auf historischen Humandaten und Auswirkungen basieren. Nachdem Sie Ihre ML-Modelle mit vorhandenen, realen Daten trainiert haben, müssen Sie problematische Verzerrungen identifizieren. Diese Verzerrungen können auf ethnischer Zugehörigkeit, Geschlecht, Religion, politischer Neigung, Kultur usw. beruhen und dürfen beim AI-Training nicht unbemerkt bleiben.

Einige Praxistipps für Ihr AI-System:

  • Sammeln Sie verschiedene Informationen von Experten.
  • Überlegen Sie unterschiedlichste Anwendungsfälle für Ihr Systems und was womöglich fehlt.
  • Legen Sie Ziele für Ihr System fest, die für alle Anwendungsfälle gelten, und überwachen Sie diese Ziele im Laufe der Zeit auf Fairness und Inklusivität.
  • Entwerfen Sie Ihre Algorithmen so, dass diese Ihre Fairness-Ziele widerspiegeln.
  • Überprüfen Sie das System kontinuierlich auf unfaire Verzerrungen.
  • Bewerten Sie reale Szenarien über ein Spektrum von Benutzern, Anwendungsfällen und Kontexten hinweg.

2. Datenschutz und -sicherheit

Von Geschäftsinformationen bis hin zum Datenschutz werden die von der AI verwendeten Daten immer komplexer. Trainingsdaten können sensibel und in einigen Fällen wichtig für Ihr AI-System sein (z. B. Krebsdetektoren, die auf früheren Patientenscans basieren).

Ihr AI-System muss alle Gesetze und Vorschriften erfüllen, die für Ihre Region und Branche gelten. Sie sollten aber auch gesellschaftliche und individuelle Erwartungen berücksichtigen. Achten Sie insbesondere bei Folgendem auf Transparenz:

  • Vorgehensweise beim Sammeln, Verwenden und Speichern von Daten
  • Erhebung und Verwendung nur der nötigen Daten für den vorgesehenen Zweck
  • Einholung der Zustimmung, um Kunden- oder Mitarbeiterdaten in Ihrem System zu verwenden
  • Kommunikation über die Datennutzung
  • Benutzerzugriff im gesamten Unternehmen
  • Datenverschlüsselung und -offenlegung
  • Alle eingehenden oder ausgehenden Netzwerkübertragungen

3. Transparenz

Für ein effektives AI-Modell benötigen Sie direkte Einblicke in die Funktionsweise Ihres Systems. Sie müssen genau wissen, wie Ihr AI-System eine Entscheidung trifft und das erklären können – Stichwort „Explainable AI“. So vermeiden Sie Fehler oder Verzerrungen und sind besser auf künftige Skalierungen vorbereitet.

Setzt eine Bank beispielsweise AI für die Kreditvergabe ein, sollten Entscheidungsträger anhand der Daten nachvollziehen können, wie das System zu dieser Entscheidung gelangt ist und ob unerwartete Verzerrungen vorliegen.

Transparenz zeigt Ihnen:

  • wie das Modell mit den Daten und Algorithmen trainiert wurde
  • welche Logik auf die Daten angewendet wurde
  • das endgültige Modell, das vom AI-System generiert wird

4. Rechenschaftspflicht

Die Entwickler, die Ihr AI-System entwerfen und bereitstellen, sind für jede Aktion oder Entscheidung verantwortlich, die das AI-System trifft. Richten Sie frühzeitig ein internes Überprüfungsgremium ein, das Richtlinien sowie eine Kontrollinstanz für Ihre Systeme und Mitarbeiter erarbeitet – eine wichtige Voraussetzung für einen geschäftlich erfolgreichen AI-Einsatz. Orientieren Sie sich an Industriestandards, um Normen für die Rechenschaftspflicht zu entwickeln und sicherzustellen, dass Ihre AI-Systeme nicht die letzte Entscheidungsinstanz sind.

Suchen Sie nach einem ML-Trainingsmodell, das Ihnen folgende Möglichkeiten bietet:

  • alle vom Modell verwendeten Metadaten verfolgen
  • Entscheidungen von Anfang bis Ende überprüfen
  • Benutzer über verzerrte Ergebnisse oder potenzielle Verzerrungen informieren
  • datengestützte Insights und Ergebnisse gewinnen

5. Zuverlässigkeit und Sicherheit

Konsistenz ist der Schlüssel zu einem zuverlässigen, sicheren AI-System. Ihr AI-System soll so funktionieren, wie es ursprünglich konzipiert wurde – und auch in neuen Situationen sicher reagieren. Wie sich Ihr System verhält und auf Unvorhersehbares reagiert, hängt davon ab, wie viele unterschiedliche Bedingungen während der Entwurfs- und Testphase festgelegt wurden.

Diskrepanzen können z. B. auftreten, wenn die Systemleistung für eine bestimmte demografische Gruppe unterdurchschnittlich ist. Deshalb sind strenge Tests und Validierungen unerlässlich. Entwickler müssen prüfen, wie Ihr AI-System auf Grenzfälle innerhalb Ihrer operativen Bedingungen reagiert.

Und behalten Sie die Leistung im Blick: Manche AI-Systeme funktionieren im Laufe der Zeit schlechter. Eine kontinuierliche Überwachung und Modellverfolgung sind unerlässlich, um dauerhaft eine zuverlässige, sichere AI-Leistung zu erhalten

In der Praxis müssen Ihre Entwickler Folgendes tun:

  • Fehlerverteilung eines Modells kennen
  • Daten-Teilmengen mit höheren Fehlerquoten identifizieren
  • AI-Verzerrungen finden und beseitigen, bevor Sie skalieren

Was sind die Vorteile von Responsible AI?

Vorteile von Responsible AI

Vom Zweck des Systems bis hin zur Art und Weise, wie Menschen damit interagieren, sollte Ihr AI-Einsatz zu vorteilhaften und fairen Ergebnissen führen. Damit Sie diese Vorteile erzielen, brauchen Sie ein robustes, strategisches AI-Framework.

Mit Responsible-AI-Praktiken schaffen Sie die richtigen Voraussetzungen für einen verantwortungsvollen Umgang mit Artificial Intelligence durch:

  • Minimierung unbeabsichtigter Verzerrungen: Entwickeln Sie Algorithmen, die sicherstellen, dass Ihr AI-System möglichst unvoreingenommene, repräsentative Daten verwendet.
  • Schaffung von Vertrauen und Transparenz: Sorgen Sie dafür, dass AI-Entscheidungen über alle Prozesse und Funktionen hinweg transparent und erklärbar sind (Explainable AI). So sichern Sie sich das Vertrauen von Kunden, Interessengruppen und Mitarbeitern.
  • Datenschutz und -sicherheit: Sorgen Sie für einen starken Datenschutz und eine hohe Datensicherheit. Persönlichen und sensible Informationen dürfen niemals unethisch oder ohne Erlaubnis verwendet werden.
  • Neue Chancen für Mitarbeiter: Ermutigen Sie alle Mitarbeiter, Zweifel oder Bedenken zum AI-System offen anzusprechen und Innovationen einzubringen.

Verantwortungsvoll automatisieren

Die Vernachlässigung von AI-Ethik und Best Practices kann zu finanziellen Schäden und Reputationsschäden für Ihr Unternehmen führen. Aber mit Responsible AI kann Ihr Unternehmen sämtliche Abläufe skalieren und weiterentwickeln.

Im Mittelpunkt von Responsible AI stehen fünf Grundprinzipien: Fairness und Inklusivität, Datenschutz und -sicherheit, Transparenz, Rechenschaftspflicht sowie Zuverlässigkeit und Sicherheit. Die Einhaltung dieser Prinzipien erfordert klare ML- und AI-Modelle, eine rigorose Datenvalidierung, Explainable-AI-Systeme, Strategien zur Minimierung von Verzerrungen, robuste Sicherheitsmaßnahmen sowie eine kontinuierliche Überwachung und Validierung.

Responsible AI ist nicht nur ein moralischer Imperativ. Dieser verantwortungsvolle Ansatz ist eine strategische Notwendigkeit bei der Bewertung der Komplexität – und der Vorteile – eines AI-Systems für Ihr Unternehmen. Sie profitieren dann von der transformativen Kraft von AI und engagieren sich zugleich für verantwortungsvolle Innovationen – ein aktiver Beitrag, damit Technologie in unserer vernetzten Welt Positives bewirkt.

Laden Sie unseren Gartner-Bericht® herunter: A CTO’s Guide to the Generative AI Technology Landscape

The Latest From SS&C Blue Prism