Ein mögliches Phänomen beim Einsatz von KI-Modellen ist die Diskriminierung von Personengruppen. Eine solche Benachteiligung kann über einen langen Zeitraum unbemerkt auftreten, falls es an grundsätzlich nötigen Prüfprozessen fehlt. Erhebliche Reputationsschäden und Vertrauensverluste sind die Folge. Außerdem leidet die Akzeptanz künstlicher Intelligenz, die ein wichtiger Faktor für eine langfristig erfolgreiche Verwendung ist. xAI hilft, Algorithmen zu verstehen, in dem sie die Bewertungsgrundlagen für die Benutzer transparent macht.
Angesichts der absehbar wachsenden Bedeutung von KI in Banken ist es nur folgerichtig, dass sich auch die Aufsichtsbehörden mit der Thematik beschäftigen. Sie fordern explizit eine Erklärbarkeit von KI-Entscheidungen. Bisher gibt es jedoch noch keine einheitlichen Standards hierfür. Die Transparenzanforderungen variieren abhängig vom Einsatzgebiet und den damit verbundenen Risiken und Folgen einer Fehlentscheidung. So klassifiziert etwa die EU-Verordnung zur Regulierung künstlicher Intelligenz Prüfungen auf Kreditwürdigkeit als Anwendungen mit hohem Risiko. Bereits bestehende Forderungskataloge der Behörden ohne direkten KI-Bezug sind zwar auch weiterhin anwendbar. In den hohen Risikostufen ist aber von einer zukünftigen Anpassung auf xAI-Methodiken auszugehen.
Es existieren zwei Gruppen von xAI-Methoden: ante hoc und post hoc, also Erklärungen, bevor das Ergebnis vorliegt, und solche, die im Nachhinein zeigen, wie das Ergebnis zustande gekommen ist. Die passende Methode hängt vom verwendeten Algorithmus ab. Eine Erklärung ante hoc ist in der Regel nur bei transparenten, performanten Glassbox-Modellen realisierbar. Diese Anwendungen sind so aufgebaut, dass die Betrachtung der jeweiligen Struktur und Daten bereits ausreicht, um die Funktion und am Ende auch die getroffene Entscheidung zu erklären.
Bei komplexeren, aber in Leistungsvermögen und Vorhersagegenauigkeit überlegenen Algorithmen stoßen Ante-hoc-Methoden schnell an ihre Grenzen. Daher kommen hier in der Regel Erklärungsmodelle nach dem Post-hoc-Ansatz zum Einsatz. Sie setzen nach der Erstellung der eigentlichen Anwendung auf diese auf und erklären anhand der Ergebnisse, wie diese zustande kamen. Es existieren eine ganze Reihe unterschiedlicher Post-hoc-Methoden, die sich aber grob nach folgenden Kriterien unterscheiden lassen:
- global vs. lokal: Lokale Methoden erklären eine ganz spezifische, einzelne Vorhersage; globale Methoden zeigen dagegen auf, welche Datenpunkte den größten Einfluss auf die Genauigkeit des Algorithmus haben.
- modellspezifisch vs. modellagnostisch: Modellspezifische Methoden untersuchen die internen Abläufe eines Algorithmus, müssen aber genau auf diesen zugeschnitten sein; modellagnostische Methoden erklären die Beziehungen zwischen Input-Output-Paaren, ohne auf die internen Strukturen des KI-Modells einzugehen.
Welche Kombination die richtige ist – global modellspezifisch oder jede andere denkbare – oder welche konkrete Ad-hoc-Methode die richtige ist, bleibt immer eine Einzelfallentscheidung, bei der die PPI-Experten Finanzdienstleistern gern beratend zur Seite stehen – damit alle Beteiligten die Algorithmen verstehen können!
Die PPI-Experten verfügen über die notwendige bankfachliche und technische Expertise, um Finanzinstitute über die gesamte Strecke einer KI-Einführung zu begleiten. Die Spezialisten beraten nicht nur bei der Wahl des passenden KI-Modells, sondern unterstützen die Banken auch bei der praktischen Umsetzung bis hin zur Darstellung des Modellverhaltens anhand anerkannter Methoden der xAI. Damit steigt die Akzeptanz künstlicher Intelligenz auch bei den Mitarbeitern.