Blog > Explainable AI >

Explainable AI

Künstliche Intelligenz entwickelt sich weiter und wird in verschiedenen Lebensbereichen eingesetzt. Sie wird immer populärer und weckt bei den Nutzern Neugier, aber auch Bedenken hinsichtlich ihrer Ergebnisse und Entscheidungen, des Datenschutzes und der damit verbundenen Risiken.
Dieser Blogpost, der auf der Recherche des Europäischen Datenschutzbeauftragten zu „Explainable AI“ basiert (TechDispatch #2/2023 - Explainable Artificial Intelligence), nachzulesen auf der Webseite des EDSB, beleuchtet verschiedene Aspekte des Datenschutzes, „erklärbarer Künstlicher Intelligenz“ (Explainable AI, XAI) und damit verbundener Risiken.

Künstliche Intelligenz ist aus dem Alltag vieler Branchen und Wirtschaftszweige nicht mehr wegzudenken. In einer Vielzahl von Branchen wie im Gesundheitswesen (zur Unterstützung medizinischer Diagnosen), im Finanzwesen (zur Unterstützung der Kreditvergabe), im Transportwesen, in der produzierenden Industrie, in der Unterhaltungsbranche usw. wird zunehmend künstliche Intelligenz eingesetzt. Besonders in den letzten Jahren wurden automatisierte Aufgaben wie z.B. die Verarbeitung großer Mengen von Informationen immer mehr von künstlicher Intelligenz übernommen.

Zwei Beispiele für KI-Anwendungen, die in den letzten Jahren populär wurden, sind generative Sprachmodelle (Large Language Models (LLM)) wie ChatGPT und Text-zu-Bild Modelle wie Stable Diffusion. LLM Modelle verstehen, verarbeiten und generieren natürliche Sprache und sind eine Form von generativer künstlicher Intelligenz für textbasierte Inhalte. Text-zu-Bild Modelle erzeugen Bilder auf Basis einer Texteingabe.

Das schnelle Wachstum dieser Technologien hat - abgesehen von den Vorteilen und der weit verbreiteten Neugier - auch gezeigt, dass einige der Anbieter der Systeme nicht in der Lage waren, die Entscheidungen und Ergebnisse des Systems zu erklären. Während des Trainingsprozesses können KI-Modelle neue Korrelationen zwischen bestimmten Eingabemerkmalen entdecken und Entscheidungen und Vorhersagen auf der Grundlage sehr komplexer Modelle mit vielen interagierenden Parametern treffen. In solchen Fällen können die NutzerInnen oder diejenigen, die von dem System betroffen sind, nicht nachvollziehen, warum bestimmte Entscheidungen getroffen oder bestimmte Ergebnisse erzielt werden.

Diese Intransparenz erschwert nicht nur das Verständnis von Entscheidungen, sondern kann auch direkte Auswirkungen auf Menschen haben, da sie Schwächen von KI-Systemen wie Verzerrung, Ungenauigkeit oder sogenannte „Halluzinationen“ verdecken kann. Ein Beispiel dafür, wie der Einzelne betroffen sein könnte, wäre der Einsatz von KI in verschiedenen Alltagsprozessen, z. B. in der Personalabteilung bei der Bearbeitung von Bewerbungen. XAI ist die Fähigkeit von KI-Systemen, klare und verständliche Erklärungen für ihre Handlungen und Entscheidungen zu liefern. Die laufenden Bestrebungen haben bisher aber zu Erklärungen geführt, die nur von Experten auf diesem Gebiet verstanden werden können. Als Rechtfertigung dient die Ergebnisorientierung: die Nutzung und die erzielten Ergebnisse zählen, auch wenn die im Alltag verwendeten Systeme für AnwenderInnen nicht immer verständlich sein mögen.

Datenschutzrisiken und andere Risiken im Zusammenhang mit KI

Der Einsatz von KI führt unweigerlich zur Erhebung und Verarbeitung personenbezogener Daten. An dieser Stelle kommt der Datenschutz ins Spiel. Nach dem Grundprinzip des Datenschutzes muss der für die Verarbeitung personenbezogener Daten Verantwortliche alle Garantien berücksichtigen, um sicherzustellen, dass die Verarbeitung personenbezogener Daten rechtmäßig, nach Treu und Glauben und für die betroffene Person transparent erfolgt.

Im Gegensatz zur Arbeitsweise und den Ergebnissen der KI, die oft nur für Spezialisten verständlich sind, muss die Sprache des Datenschutzes einfach und verständlich sein. Sie muss transparent, nachvollziehbar und für alle Betroffenen zugänglich sein.

Darüber hinaus sind die für die Verarbeitung Verantwortlichen verpflichtet, den Betroffenen zum Zeitpunkt der Erhebung personenbezogener Daten aussagekräftige Informationen über den Einsatz automatisierter Entscheidungen (einschließlich Profiling) und die angewandte Logik zur Verfügung zu stellen.

Erklärbare KI sollte Einblick in die Art und Weise geben, wie KI-Systeme Daten verarbeiten und zu ihren Schlussfolgerungen gelangen, indem sie die „Argumentation" nachvollziehbar macht, die zu den Schlussfolgerungen oder Entscheidungen geführt hat. Darüber hinaus werden politische Entscheidungsträger und diejenigen, die von diesen Systemen betroffen sind, in die Lage versetzt, die Entscheidungen besser zu verstehen und damit umzugehen. Im Allgemeinen sollte Transparenz das Vertrauen in den Einsatz von KI-Systemen fördern. In einigen Fällen kann sie sogar gesetzlich vorgeschrieben sein, insbesondere für Behörden, die gesetzlich verpflichtet sind, ihre Entscheidungen zu begründen.

Wenn KI richtig eingesetzt wird, dürfte sie erhebliche positive Auswirkungen auf die Minimierung der Datenerhebung haben. Im Hinblick auf den Grundsatz datenschutzfreundlicher Voreinstellungen, der die Notwendigkeit technischer und organisatorischer Maßnahmen zur Umsetzung von Datenschutzgrundsätzen wie der Datenminimierung betont, kann XAI durch ihre Fähigkeit, die einflussreichsten Faktoren und Merkmale innerhalb von KI-Entscheidungsprozessen zu ermitteln, direkt zur Verringerung der Erhebung, Speicherung und Verarbeitung von Daten beitragen. XAI kann daher Unternehmen bei der Einhaltung von Datenschutzbestimmungen unterstützen, indem sie ermittelt, welche Datenpunkte für die Entscheidungsfindung wesentlich sind. Die Erkenntnisse aus XAI können zu einer gezielteren und zielgerichteteren Datenerhebung führen. Auf diese Weise werden die Auswirkungen auf die Privatsphäre der Menschen so gering wie möglich gehalten, während gleichzeitig genaue und effektive KI-Ergebnisse erzielt werden.

Andererseits können beim KI-Training besondere Datenkategorien verwendet werden, die bei unsachgemäßer oder missbräuchlicher Verwendung erhebliche Risiken im Hinblick auf den Datenschutz darstellen können. So ist es beispielsweise möglich, dass besondere Datenkategorien wie Religion oder sexuelle Orientierung aus den Trainingsdaten abgeleitet werden. Dies wirft Bedenken auf, welche Auswirkungen dies haben könnte. Ein Beitrag, den XAI in solchen Fällen leisten könnte, wäre, dass die betroffenen Personen präzise, transparente und leicht zugängliche Informationen in einer klaren und einfachen Sprache erhalten. Dies allein reicht jedoch unter Umständen noch nicht aus. Organisationen sollten geeignete technische und organisatorische Maßnahmen treffen, um ein Maß an Sicherheit, einschließlich Vertraulichkeit, Integrität und Verfügbarkeit, zu gewährleisten, das in einem angemessenen Verhältnis zu den Risiken steht, die für die betroffene Person mit der Verarbeitung ihrer Daten verbunden sind. Im Zusammenhang mit XAI bedeutet dies, dass das Risiko der Offenlegung personenbezogener Daten oder Details, die zur Nutzung des KI-Systems verwendet werden und potenziell Auswirkungen auf Einzelpersonen haben könnten, vermieden werden muss. Ebenso birgt XAI das Risiko, dass Anbieter (und/oder NutzerInnen) des KI-Systems durch die Offenlegung geschützter Informationen oder sensibler Geschäftsstrategien Wettbewerbsvorteile verlieren.

Ansätze zur XAI

Mögliche Ansätze zur Erklärbarkeit von KI lassen sich in zwei Kategorien einteilen, die im Folgenden näher erläutert werden:

  • Selbsterklärende Modelle („white box“) zeichnen sich durch leicht verständliche Algorithmen aus, die zeigen, wie sich Dateneingaben auf Ausgaben oder Zielvariablen auswirken. Ein Beispiel ist ein Modell, das eingehende E-Mails automatisch als Spam klassifiziert. Jeder Knoten steht für eine Bedingung (z. B. "Enthält die E-Mail das Wort „kostenlos'?") und jeder Ast für ein mögliches Ergebnis auf der Grundlage dieser Bedingung. Die Blätter des Baums stellen die endgültige Spam/Nicht-Spam-Klassifizierung dar. Diese selbsterklärenden Modelle sind aber für komplexere Arten von KI besonders schwierig umzusetzen.

  • „Black box“- Modelle sind nicht selbsterklärend. Die mangelnde Erklärbarkeit kann auf eine bewusste Verschleierung durch den Systemgestalter oder auf die Komplexität des Modells zurückzuführen sein. Post-hoc-Erklärungen, die nach der Modellierungsentscheidung erstellt werden, können als global oder lokal klassifiziert werden. Globale Erklärungen vermitteln ein allgemeines Verständnis des Verhaltens und der Entscheidungen eines künstlichen Intelligenz-Modells und sollen Muster, allgemeine Trends und Erkenntnisse aufzeigen, die allgemein für das Verhalten des Modells gelten (z.B. wie wählt das System die besten Bewerber für eine offene Stelle aus? In einem medizinischen Diagnosemodell können z. B. Regeln extrahiert werden, die bestimmte Kombinationen von Symptomen, Testergebnissen und Patientenmerkmalen spezifizieren, die zu einer bestimmten Diagnose führen (z. B. "Wenn der Patient über 50 Jahre alt ist und hohen Blutdruck hat, lautet die Diagnose Bluthochdruck"). Im Gegensatz dazu konzentrieren sich lokale Erklärungen auf den Entscheidungsprozess eines KI-Modells für ein bestimmtes Ergebnis (z.B. "Warum wurde meine Bewerbung abgelehnt?"). Anstatt eine globale Erklärung zu liefern, die für das gesamte Modell gilt, zielen lokale Erklärungen darauf ab, das Verhalten des Modells in einem bestimmten Fall zu klären und zu verstehen, warum eine bestimmte Vorhersage oder Entscheidung getroffen wurde.

Übertriebenes Vertrauen in KI-Systeme

Unternehmen müssen sicherstellen, dass KI-Implementierungen über Mechanismen verfügen, die es dem Einzelnen zumindest ermöglichen, mit einem menschlichen Ansprechpartner des für die Verarbeitung Verantwortlichen in Kontakt zu treten, selbst Informationen beizusteuern und die Entscheidung anzufechten. Dies entspricht dem Recht natürlicher Personen, keiner ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden (inkl. Profiling), die rechtliche Folgen nach sich zieht oder sie anderweitig erheblich beeinträchtigt. Organisationen sollten aktiv die menschliche Mitwirkung und Kontrolle bei weitreichenden Entscheidungen fördern, insbesondere bei solchen, die physischen oder wirtschaftlichen Schaden nach sich ziehen können.

Unabhängig davon, welche Methode zur Erklärung von KI-Systemen verwendet wird, muss die menschliche Dimension berücksichtigt werden. Die Erklärung des „Warum" hinter KI-Entscheidungen ermöglicht den Menschen eine sinnvolle Teilhabe an der digitalen Welt, indem sie sich beispielsweise beschweren können, wenn ihre Rechte durch KI-gesteuerte Entscheidungen verletzt werden. XAI ermöglicht es dem Einzelnen zu verstehen, wie seine persönlichen Daten verarbeitet werden, indem die Gründe für KI-Entscheidungen offengelegt werden. Die Transparenz von XAI schafft nicht nur Vertrauen zwischen Unternehmen und NutzerInnen, sondern steht auch im Einklang mit den Grundprinzipien des Datenschutzes.

Darüber hinaus ist es wichtig festzustellen, dass die Einführung von XAI zu einer Zukunft beiträgt, in der KI nicht nur durch ihre technischen Fähigkeiten definiert werden sollte, sondern auch durch die kollektive Verantwortung der Menschheit, die Menschenrechte zu achten, Ethik zu wahren und Verantwortung zu übernehmen.

Dem EDSB, der die Organe, Einrichtungen, Ämter und Agenturen der EU beaufsichtigt, obliegt es, dafür zu sorgen, dass der Einsatz von KI-Systemen mit den Grundsätzen des Datenschutzes im Einklang steht und dass die in den geltenden Rechtsvorschriften festgelegten Bestimmungen eingehalten werden. Die TechDispatch-Berichte der Behörde erklären aktuelle Entwicklungen neuer Technologien.

                                                                    -------------------------------------------------------------------------------------------------------------------------------------
Zusammenfassend besteht kein Zweifel daran, dass KI einen sichtbaren Einfluss auf die Verbesserung verschiedener Aspekte des täglichen Lebens haben wird. Gleichzeitig werden aber auch die Risiken, die mit dem Einsatz von KI verbunden sind, noch deutlicher sichtbar werden. Die Datenschutz-Grundverordnung konzentriert sich auf die Verantwortlichkeiten der für die Datenverarbeitung Verantwortlichen (und deren Auftragsverarbeiter und Unterauftragsverarbeiter) in Bezug auf die Verarbeitung personenbezogener Daten und gilt für alle Arten von Verarbeitungstätigkeiten, einschließlich KI.

Die Vorteile des Einsatzes von KI werden nicht gegen die Risiken für die betroffenen Personen abgewogen, wenn die für die Datenverarbeitung Verantwortlichen nicht in der Lage sind, jeden Schritt der Datenverarbeitung zu erläutern. Dies wäre ein Verstoß gegen die Grundsätze der DSGVO und die Grundrechte der betroffenen Person.

Angesichts des Mangels an solchen Erklärungen und der Zurückhaltung, die Rechte der betroffenen Personen zu gewährleisten, sind diese Risiken derzeit nicht abschätzbar. Die KI „lernt" immer noch durch die Verwendung personenbezogener Daten, und es gibt immer noch keine klaren Informationen darüber, ob diese Daten auf Antrag der betroffenen Person oder auf der Grundlage der in Artikel 6 DSGVO genannten zusätzlichen Rechtsgrundlagen aus dem KI-System gelöscht werden können.

Wenn wir schon immer darauf gewartet haben, dass die KI zum Leben erwacht, sollten wir dann nicht noch etwas länger warten und der KI erlauben, sich zusammen mit den Gesetzen, die sie einhalten muss, weiterzuentwickeln und für alle klarer zu sein?