Dieser Artikel untersucht die Herausforderungen und Chancen des Einsatzes von KI im Bereich Compliance für Finanzdienstleistungsunternehmen. Andrew Rufener und Daniel Knecht von finalix argumentieren, dass KI Unternehmen dabei helfen kann, regulatorische Anforderungen, Risiken und Effizienz zu managen, indem sie die Datenanalyse automatisiert und neue Einblicke liefert. Sie betonen die Bedeutung von Vertrauen und Erklärbarkeit in KI-Systemen und schlagen die Notwendigkeit einer klaren Governance und kompetenter Compliance-Officer vor. Neben der Lektüre dieses finalix-Artikels sollten Sie unbedingt auch den KI-generierten Podcast anhören!
Herausforderungen und mögliche Vorteile ausgeklügelter KI-Anwendungen im Kontext regulatorischer Anforderungen
Wie in vielen Branchen bietet künstliche Intelligenz (KI) erhebliche Chancen für Unternehmen im Finanzdienstleistungssektor. Derzeit kämpfen diese Firmen mit erheblichen Kostendruck, dem ständigen Zwang zur Innovation und zur Schaffung neuer Nachfrage, der Steigerung der verwalteten Vermögenswerte (AuM) und der Bewältigung all dieser Herausforderungen bei gleichzeitiger vollständiger Compliance.
Wie trägt KI zur Bewältigung dieser Probleme bei? Welche Vereinfachungen oder Verbesserungen kann diese fortschrittliche Technologie solchen Unternehmen bieten? Wird die Rolle der Compliance und verwandter Funktionen weiterhin so bestehen bleiben wie heute?
In diesem finalix-Gespräch zwischen Andrew Rufener (SME für KI) und Daniel Knecht (SME für AML) möchten wir Licht in die oben genannten Fragen bringen und Leitlinien zur Bewältigung einiger der auffälligsten Herausforderungen geben.
Welches sind die dringlichsten Herausforderungen für Unternehmen in der Finanzindustrie mit Blick auf Compliance?
Daniel:
„Compliance-Herausforderungen sind meist entweder effizienzgetrieben oder qualitätsorientiert. Einerseits erhöhen verstärkte regulatorische Anforderungen den Bedarf an qualifiziertem Personal, das mit der Flut von Warnmeldungen und notwendigen Abklärungen umgehen kann, um Kundenbeziehungen aufrechtzuerhalten. Die Anzahl der Kunden und Transaktionen kann zum Beispiel die Anzahl der erforderlichen Abklärungen an der Front («1st line of defense») exponentiell in die Höhe treiben. Andererseits ist das Sicherstellen der Qualität von größter Bedeutung. Wenn auch nur ein einziger schlechter Fall unentdeckt bleibt, müssen Unternehmen und ihre Mitarbeiter mit schweren Strafen durch die Regulierungsbehörden rechnen.
Was bleibt, ist eine ständige Neubewertung von Effizienz vs. Risiko. Wie viel Risiko sind Unternehmen bereit einzugehen und welche Maßnahmen können ergriffen werden, um das verbleibende Restrisiko zu minimieren, während sie so effizient wie möglich arbeiten. Bis heute gibt es die eine richtige Antwort auf diese Frage und jedes Unternehmen hat einen etwas anderen Ansatz dazu.“
Wie könnte KI diesen vermeintlichen Gegensatz von Effizienz vs. Risiko ggf. entschärfen?
Andrew:
„KI, in ihren verschiedenen Formen, kann sowohl Effizienz fördern als auch fundierte Entscheidungsfindungen unterstützen. Grundsätzlich gibt es die folgenden möglichen Anwendungen:
- Datenaggregation: KI kann effizient dabei helfen, große Mengen an strukturierten (z.B. aus einer Datenbank) und unstrukturierten (z.B. Text- oder Anrufaufzeichnungen) Daten aus verschiedenen Quellen zu konsolidieren und zu analysieren, um wertvolle Erkenntnisse zu gewinnen.
- Informationsgenerierung: Durch die Analyse von Kunden- und Marktdaten kann KI präzise und nützliche Informationen generieren, die notwendig sind, um fundierte Geschäftsentscheidungen zu unterstützen. Dies reicht von der Zusammenfassung großer Datenmengen über die Musterdetektion bis hin zu weiteren Anwendungen.
- Verbesserte risikobasierte Ansätze: KI und Graph-Technologien können helfen, Risiken besser zu identifizieren und zu bewerten, indem sie historische Daten analysieren, Muster erkennen, die auf zukünftige Risiken hinweisen, aber auch Schlüsselbeziehungen zwischen Unternehmen und Einzelpersonen identifizieren, die die Risikoanalyse beeinflussen könnten.
Die Fähigkeit der KI, große Datenmengen zu verarbeiten und sinnvolle Erkenntnisse zu extrahieren, kann die Finanzdienstleistungen grundlegend verändern. Die Automatisierung der Datenaggregation und die Generierung umsetzbarer Erkenntnisse kann menschliche Ressourcen für wertschöpfendere Aufgaben freisetzen, während verbesserte risikobasierte Ansätze zuverlässigere und genauere Bewertungen gewährleisten, möglicherweise auch durch die Einbeziehung von Daten Dritter zur weiteren Verbesserung der Risikoprofilierung. Diese Werkzeuge können helfen, Effizienz zu steigern, Risiken besser zu managen, aber auch die Exposition zu verringern und wertschöpfende Einblicke zu unterstützen.“
Neue Technologien bringen neue Herausforderungen. Was braucht es, damit KI in Compliance effektiv verwendet werden kann?
Daniel:
„Eine der größten Herausforderungen mit KI im Compliance-Bereich ist das Vertrauen. Vertrauen in die Ergebnisse und Resultate, die die Maschine liefert. Vertrauen in das, was der Nutzer sieht und was nicht. Beispielsweise muss jedes System, das KI zur Berechnung von Risikobewertungen und zur Überprüfung von Transaktionen verwendet, «false-positives» herausfiltern und echte Treffer hervorheben, ein gewisses Maß an Vertrauen genießen. Andernfalls kehrt Compliance über kurz oder lang zur manuellen Überprüfung jedes einzelnen Treffers zurück.
Maschinelle Lernalgorithmen verbessern sich im Laufe der Zeit. Ihre Modelle werden mit jeder durchgeführten Aktion und Iteration trainiert. Aber bis die Maschine ein solches Niveau erreicht, bleibt das Risiko von falschen Ausschlüssen bestehen. Wie sollten Unternehmen dieses Problem angehen? Wie können sie dieses Restrisiko behandeln, ohne Ziel von regulatorischen Konsequenzen zu werden?
Im selben Atemzug wirft der Einsatz von KI zur Filterung und Bewertung von Daten anhand einer Reihe von Risikofaktoren neue Fragen zur Verantwortung und Haftung auf. In der alten Welt konnte die Verantwortung und Haftung meist der Person zugewiesen werden, die bestimmte Aufgaben ausführte, oder die für die Überwachung der ausführenden Person verantwortlich war. Mit der Anwendung von KI stellt sich die Schuld- und Verantwortungsfrage komplett neu. Können Compliance-Officer, Kundenbetreuer und anderes Angestellte zur Verantwortung gezogen und persönlich haftbar gemacht werden, wenn die Maschine unvollständige oder falsche Ergebnisse liefert? Finanzdienstleistungsunternehmen müssen ein Gleichgewicht zwischen „akzeptiertem Risiko im Namen des Unternehmens“ und verbleibender persönlicher Verantwortung finden.
Sehr wahrscheinlich sind die aktuellen Rollen, Governance-Strukturen und internen Richtlinien nicht für diesen Zweck geeignet und müssen nicht nur mit einem Compliance-Gedanken, sondern auch mit einem tiefen Verständnis der zugrunde liegenden Technologie überarbeitet werden.“
Andrew:
„Wenn man über KI im Compliance-Bereich spricht und auch in Bezug auf Vertrauen, ist es zunächst entscheidend, Klarheit über den Anwendungsfall, die angewandte Technologie und das Ausmaß, in dem Menschen weiterhin „im Geschehen“ bleiben, zu schaffen. Maschinelles Lernen ist innerhalb der Modellparameter zuverlässig, während „Black Box“-Systeme der GenAI mehr Aufwand erfordern, um sicherzustellen, dass sie innerhalb der festgelegten Parameter bleiben.
Um diese Herausforderungen effektiv anzugehen, müssen Unternehmen zunächst eine Grundlage für Transparenz und Vertrauen schaffen. Dies beginnt bei der Technologie selbst: Compliance-KI-Systeme müssen erklärbar sein (was seit Jahren Best Practice ist), um Klarheit darüber zu schaffen, wie Risikobewertungen berechnet, Entscheidungen getroffen und welche Datenpunkte betont werden. Durch den Einsatz erklärbarer KI können Unternehmen ihren Compliance-Beauftragten helfen, die Ergebnisse der KI zu verstehen, ihnen zu vertrauen und sie zu validieren, wodurch die Abhängigkeit von der Technologie erhöht und die Belastung durch manuelle Kontrollen verringert wird.
Um das Restrisiko und die Möglichkeit falscher negativer Ergebnisse zu managen, können Unternehmen eine Kombination aus menschlicher Aufsicht und gestuften Reaktionssystemen einsetzen. Hochrisikofälle können zur menschlichen Überprüfung markiert werden, während Niedrigrisikofälle über die Zeit überwacht werden. Dies hilft Unternehmen, die Einhaltung von Vorschriften zu gewährleisten, ohne das Personal zu überlasten, und ermöglicht es der KI, aus diesen Überprüfungen zu lernen und ihre Genauigkeit im Laufe der Zeit zu verbessern. Darüber hinaus sind kontinuierliche Modellüberwachung und Feedback-Schleifen entscheidend. Regelmäßige Audits und Validierungsprüfungen der KI-Modelle helfen sicherzustellen, dass sie den regulatorischen Standards entsprechen und potenzielle Verzerrungen oder Fehler umgehend behoben werden.
Die Adressierung von Haftung und Verantwortung ist in der Tat ein neues Terrain. Es ist entscheidend, dass Unternehmen klare Governance- und Verantwortungsstrukturen in KI-unterstützten Compliance-Rollen definieren. Die Entwicklung von KI-Governance-Richtlinien, die Aspekte der Verantwortung, insbesondere in Fehlerfällen, abdecken, kann eine Struktur für Verantwortlichkeit bieten und gleichzeitig Innovationen unterstützen. Mit der neuen KI-Regulierung, die verfügbar wird, ist ihre Umsetzung derzeit noch im Gange, und dies ist ein sich entwickelndes Gebiet.
Schließlich müssen sich die bestehenden Governance-Strukturen, Richtlinien und Rollen (für KI und Daten) anpassen, damit diese Systeme erfolgreich in ein Compliance-Framework integriert werden können. Unternehmen sollten in die Weiterbildung ihrer Teams investieren und sicherstellen, dass sie nicht nur Compliance verstehen, sondern auch die Nuancen der von ihnen verwendeten KI-Tools. Durch die Überarbeitung und Anpassung interner Richtlinien mit einem Fokus auf Technologie können Unternehmen eine widerstandsfähigere Compliance-Funktion schaffen, die in der Lage ist, KI zu nutzen und gleichzeitig den regulatorischen und ethischen Standards treu zu bleiben.“
Wer kann und sollte diese Entwicklung vorantreiben?
Daniel:
„Juristen und Compliance-Spezialisten sind oft zu weit von technischen Entwicklungen entfernt, um die Möglichkeiten der KI vollständig zu verstehen und zu nutzen. Entwickler hingegen fehlt häufig das notwendige Compliance-Wissen, um die tatsächlichen Herausforderungen zu erkennen, die die KI für die Compliance-Abteilung lösen könnte. Daher werden Brückenbauer benötigt, die beide Welten verbinden können. Diese Personen müssen ein fundiertes Wissen über den gesamten Compliance-Prozess haben. Es reicht nicht aus, nur in Silos zu denken und zu planen. Die größten Vorteile können nur erzielt werden, wenn Prozesse und Strukturen ganzheitlich betrachtet werden.
Klassischerweise findet man oft eine Product Owner (PO)-Rolle irgendwo in der Compliance-Organisation, die für die Weiterentwicklung bestehender Tools verantwortlich ist. In den letzten Jahren wurde diese Rolle häufig von Daten-Spezialisten unterstützt, die Zahlen analysieren und versuchen, tiefere Einblicke aus Statistiken zu gewinnen. All das ist wichtig, aber es fehlt die ganzheitliche Sichtweise, die erforderlich ist, um die KI am effektivsten zu integrieren – insbesondere da diese Personen selbst meist Teil eines Compliance-Teams sind.
Stattdessen sollten Ihre Brückenbauer in der Lage sein, Auswirkungen auf übergreifende Prozesse im Zusammenhang mit Kundendaten und dem Customer Lifecycle Management (CLM) zu schaffen. Solche Fähigkeiten sind nicht leicht zu finden, und ich erwarte in den kommenden Jahren keine Entspannung des aktuellen Mangels. Glücklicherweise ist genau dies die Art von Engagements, auf die wir bei finalix spezialisiert sind und bei denen wir unseren Kunden den größten Nutzen bieten können.“
Andrew:
„Um diese Frage zu beantworten, lohnt es sich wahrscheinlich, einen Blick darauf zu werfen, wie wir mit technologischen Entwicklungen im Allgemeinen und jüngst mit dem Aufkommen von Cloud-Infrastrukturen umgegangen sind, die ähnliche Fragen aufwarfen. Während die Komplexität bei KI sicherlich höher ist und zusätzliche Faktoren wie Ethik sowie mögliche Auswirkungen auf das Reputationsrisiko eine Rolle spielen, haben wir immer Personen benötigt, die die Kluft zwischen Technologie, Geschäft, Finanzen und Recht überbrücken können, um die Entwicklungen in die richtige Richtung zu lenken, und das ist jetzt nicht anders. Die Herausforderung besteht jedoch darin, Fachkräfte zu finden, die das breite Spektrum an Herausforderungen über verschiedene Bereiche hinweg verstehen und idealerweise auch an der Gestaltung und Implementierung von Lösungen beteiligt waren, sodass sie die Organisation anleiten können.
Die Erfahrung hat gezeigt, dass Senior-Fachkräfte, die die entsprechenden Erfahrungswerte vorweisen können, am besten geeignet sind, um die Gesamtvision zu entwickeln und die Entwicklung der Lösung zu leiten, indem sie Experten auf ihrem Gebiet steuern und multidisziplinäre Herausforderungen frühzeitig angehen, um komplexe Programme innerhalb der Risiko- und Finanzparameter zu liefern. Diese Fähigkeiten mögen zwar zusätzliche Kosten verursachen, werden sich aber sicherlich in komplexen Projekten auszahlen.“
Es wird eine Weile dauern, bis KI vollends in die Welt von Compliance integriert wird. Wie könnten bis dahin erste «Quick Wins” aussehen? Wo sollten die Unternehmen beginnen, um möglichst bald Ergebnisse zu sehen? Sind locale LLM Anwendungen ein guter Einstieg in die Welt der KI?
Andrew:
„Um mit der letzten Frage zu beginnen: LLMs sind ein gutes Werkzeug, um Anwendern die Möglichkeiten von GenAI nahezubringen, jedoch müssen die Anwender geschult werden, damit sie erfolgreich damit umgehen können. Anwender ohne ausreichende Schulung der GenAI auszusetzen, ist nicht ratsam. Die „Low-Hanging-Fruit“-Anwendungen umfassen (interne) Wissensdatenbanken mit durch Abruf ergänzter Generierung (RAG), Suche mit Tools wie Perplexity und Ergänzungen zu Desktop-Tools, obwohl diese sich noch in den Kinderschuhen befinden. Lokale (interne) generische oder sogar angepasste (Open-Source-) LLMs sind interessant, weil sie innerhalb der Unternehmensgrenzen betrieben werden können und so sichergestellt wird, dass keine Daten das Unternehmen verlassen. Sie erfordern jedoch mehr Aufwand und Wissen von den IT-Teams als cloudbasierte Dienste.
Im Compliance-Bereich kann GenAI als Wissensbasis für Fachexperten und Mitarbeiter im Allgemeinen eingesetzt werden. Allerdings können natürliche Sprachverarbeitung (NLP) und GenAI auch problemlos in heutige Compliance-Workflows eingebettet werden, um Menschen zu unterstützen. Während Menschen die endgültigen Entscheidungen treffen müssen, können viele alltägliche und zeitaufwändige Aufgaben von Maschinen erledigt werden, sodass Menschen bessere und fundiertere Entscheidungen treffen können. Beispielhafte Aufgaben sind Textanalyse, Textzusammenfassung, Berichtsgenerierung, Sentiment-Analyse, Netzwerkanalyse und mehr, wodurch der menschliche Aufwand erheblich reduziert und Entscheidungen verbessert werden können, indem alle erforderlichen grundlegenden Informationen für eine gute Entscheidung bereitgestellt werden.“
Daniel:
„Wie Andrew bereits sagte, könnte ein einfacher erster Schritt in die Welt der KI die Entwicklung von LLMs zur Zusammenfassung von Richtlinien, Verträgen, Kundenprofilen und Ähnlichem sein. Es besteht nur ein geringes Risiko bei der Anwendung solcher Programme, aber die Organisation kann dabei erste Erfahrungen sammeln und gleichzeitig davon profitieren.
Zusätzlich sollten KI-Modelle so schnell wie möglich eingerichtet werden, um Muster und Anomalien in großen Datenquellen wie Transaktionsdaten zu analysieren. Diese Modelle werden im Laufe der Zeit besser. Je früher Sie also damit anfangen, desto schneller werden Sie bessere Ergebnisse sehen. Ob Sie den Ergebnissen von Anfang an voll vertrauen oder einige manuelle Kontrollen und Abgleiche beibehalten, hängt von Ihrer Risikobereitschaft und der individuellen Situation ab.
Des Weiteren können KI-Funktionen auch bei der Berichterstellung mit geringem Risiko und geringem Aufwand unterstützen, was erneut schnelle Erfolge und Erfahrungssammlung ermöglicht.“
Klingt diese Problematik für Sie vertraut und zugleich? Möchten Sie Ihr Geschäft mit Hilfe von KI transformieren, benötigen aber noch etwas mehr Anleitung, wie dies zu tun ist? Oder möchten Sie das Gespräch unverbindlich fortsetzen? Andrew, Daniel und unsere anderen Fachexperten bei finalix würden gerne Ihre Herausforderungen und Möglichkeiten im Detail mit Ihnen besprechen.
Hier bei finalix nutzen wir KI täglich. Dieser Artikel wurde mit Unterstützung von MS Copilot editiert und verbessert. Das Bild zu Beginn des Artikels wurde durch ChatGPT 4.o erstellt. Schliesslich sollten Sie die Möglichkeit nicht verpassen, den komplett durch die KI erstellten und gesprochenen Podcast zu diesem Artikel zu hören – Überraschung garantiert!