Sichere KI in Banken

Künstliche Intelligenz (KI) ist einer der wichtigsten Innovationstreiber bei Finanzdienstleistern. Allerdings sind viele Anwendungen sogenannte Blackbox-Modelle, bei denen die Bewertungen nicht ohne weiteres nachvollziehbar sind. Das führt zu erheblichen Nutzungsrisiken, die inzwischen auch die Aufsichtsbehörden beschäftigen. Abhilfe schaffen Methoden der Explainable Artificial Intelligence (xAI), die auf unterschiedliche Arten dabei helfen, Algorithmen zu verstehen. Die Experten von PPI stehen Finanzinstituten bei der Einführung und Nutzung von xAI zur Seite.

Transparenz fördert die Akzeptanz künstlicher Intelligenz

Ein mögliches Phänomen beim Einsatz von KI-Modellen ist die Diskriminierung von Personengruppen. Eine solche Benachteiligung kann über einen langen Zeitraum unbemerkt auftreten, falls es an grundsätzlich nötigen Prüfprozessen fehlt. Erhebliche Reputationsschäden und Vertrauensverluste sind die Folge. Außerdem leidet die Akzeptanz künstlicher Intelligenz, die ein wichtiger Faktor für eine langfristig erfolgreiche Verwendung ist. xAI hilft, Algorithmen zu verstehen, in dem sie die Bewertungsgrundlagen für die Benutzer transparent macht.

Sichere KI: Erklärbarkeit bald vorgeschrieben?

Angesichts der absehbar wachsenden Bedeutung von KI in Banken ist es nur folgerichtig, dass sich auch die Aufsichtsbehörden mit der Thematik beschäftigen. Sie fordern explizit eine Erklärbarkeit von KI-Entscheidungen. Bisher gibt es jedoch noch keine einheitlichen Standards hierfür. Die Transparenzanforderungen variieren abhängig vom Einsatzgebiet und den damit verbundenen Risiken und Folgen einer Fehlentscheidung. So klassifiziert etwa die EU-Verordnung zur Regulierung künstlicher Intelligenz Prüfungen auf Kreditwürdigkeit als Anwendungen mit hohem Risiko. Bereits bestehende Forderungskataloge der Behörden ohne direkten KI-Bezug sind zwar auch weiterhin anwendbar. In den hohen Risikostufen ist aber von einer zukünftigen Anpassung auf xAI-Methodiken auszugehen.

Glassbox vs. Blackbox

Es existieren zwei Gruppen von xAI-Methoden: ante hoc und post hoc, also Erklärungen, bevor das Ergebnis vorliegt, und solche, die im Nachhinein zeigen, wie das Ergebnis zustande gekommen ist. Die passende Methode hängt vom verwendeten Algorithmus ab. Eine Erklärung ante hoc ist in der Regel nur bei transparenten, performanten Glassbox-Modellen realisierbar.  Diese Anwendungen sind so aufgebaut, dass die Betrachtung der jeweiligen Struktur und Daten bereits ausreicht, um die Funktion und am Ende auch die getroffene Entscheidung zu erklären.

Bei komplexeren, aber in Leistungsvermögen und Vorhersagegenauigkeit überlegenen Algorithmen stoßen Ante-hoc-Methoden schnell an ihre Grenzen. Daher kommen hier in der Regel Erklärungsmodelle nach dem Post-hoc-Ansatz zum Einsatz. Sie setzen nach der Erstellung der eigentlichen Anwendung auf diese auf und erklären anhand der Ergebnisse, wie diese zustande kamen. Es existieren eine ganze Reihe unterschiedlicher Post-hoc-Methoden, die sich aber grob nach folgenden Kriterien unterscheiden lassen:

  • global vs. lokal: Lokale Methoden erklären eine ganz spezifische, einzelne Vorhersage; globale Methoden zeigen dagegen auf, welche Datenpunkte den größten Einfluss auf die Genauigkeit des Algorithmus haben.
  • modellspezifisch vs. modellagnostisch: Modellspezifische Methoden untersuchen die internen Abläufe eines Algorithmus, müssen aber genau auf diesen zugeschnitten sein; modellagnostische Methoden erklären die Beziehungen zwischen Input-Output-Paaren, ohne auf die internen Strukturen des KI-Modells einzugehen.

Welche Kombination die richtige ist – global modellspezifisch oder jede andere denkbare – oder welche konkrete Ad-hoc-Methode die richtige ist, bleibt immer eine Einzelfallentscheidung, bei der die PPI-Experten Finanzdienstleistern gern beratend zur Seite stehen – damit alle Beteiligten die Algorithmen verstehen können!

Explainable AI mit PPI

Die PPI-Experten verfügen über die notwendige bankfachliche und technische Expertise, um Finanzinstitute über die gesamte Strecke einer KI-Einführung zu begleiten. Die Spezialisten beraten nicht nur bei der Wahl des passenden KI-Modells, sondern unterstützen die Banken auch bei der praktischen Umsetzung bis hin zur Darstellung des Modellverhaltens anhand anerkannter Methoden der xAI. Damit steigt die Akzeptanz künstlicher Intelligenz auch bei den Mitarbeitern.

Können wir Sie unterstützen?

 Marc-Nicolas Glöckner PPI AG

Marc-Nicolas Glöckner

Senior Manager

Kontakt

Das könnte Sie auch interessieren

IKT-Risikomanagement

Die fortschreitende digitale Vernetzung von Wirtschaft und Gesellschaft bringt nicht nur Vorteile: Die Zahl der Angriffe auf Unternehmen aus dem Cyberraum steigt kontinuierlich. Finanzdienstleister sind aufgrund ihrer Geschäftsmodelle besonders gefährdet. Leistungsfähige Abwehrmechanismen sind daher ein Muss.

Mehr erfahren

Secure Cloud

Die Anforderungen einer digitalen Transformation sind angesichts des massiven Wandels in der Finanzbranche keine leichte Aufgabe. Der maßgeschneiderte Ansatz von PPI Secure Cloud bietet die richtigen Werkzeuge und die nötige Unterstützung auf dem Weg zu einer nachhaltig erfolgreichen Zukunft in der Cloudinfrastruktur.

Mehr erfahren