Start Warnhinweis BAFIN Big Data und künstliche Intelligenz: Neues Prinzipienpapier der BaFin

Big Data und künstliche Intelligenz: Neues Prinzipienpapier der BaFin

0

Big Data und künstliche Intelligenz: Neues Prinzipienpapier der BaFin

Die BaFin hat am 15. Juni 2021 aufsichtliche Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen von Finanzunternehmen publiziert. Sie sollen zu einem verantwortungsvollen Einsatz von Big Data und künstlicher Intelligenz (Big Data und Artificial Intelligence – BDAI) führen und die Kontrolle des damit einhergehenden Risikos ermöglichen. Hintergrund des Prinzipienpapiers: Technologien wie BDAI werden zunehmend auch von Unternehmen des Finanzmarkts angewendet. Bereits 2018 hatte die BaFin in ihrer Studie „Big Data trifft auf künstliche Intelligenz “ darauf hingewiesen, dass sich daraus Chancen für die Unternehmen, aber auch für Verbraucherinnen und Verbraucher ergeben, dass es aber auch gelte, die Risiken zu beherrschen, die BDAI-Anwendungen mit sich brächten (BaFinPerspektiven Ausgabe 1 | 2018).

Impulse für europäische Diskussion

Ausgehend von den Erkenntnissen der Studie und den Ergebnissen der anschließenden Konsultation (BaFinPerspektiven Ausgabe 1 | 2019) hat sich die BaFin unter anderem mit der Frage befasst, welche aufsichtlichen Grundsätze und Rahmenbedingungen für einen kontrollierten Einsatz von BDAI aufgestellt werden müssen. Ergebnis dieser Überlegungen ist nun ein 16-seitiges Prinzipienpapier, das den von der BaFin beaufsichtigten Unternehmen als Orientierungshilfe dienen soll. Außerdem erhofft sich die BaFin von dem Papier wichtige Impulse für den Austausch mit verschiedenen Stakeholdern. So hat die Europäische Kommission im vergangenen Jahr in ihrer Digital Finance Strategy angekündigt, spätestens bis 2024 gemeinsam mit den Europäischen Aufsichtsbehörden (European Supervisory AuthoritiesESAs) klarzustellen, welche Erwartungen an die Verwendung von BDAI-Technologie gestellt werden sollen. Das Prinzipienpapier der BaFin soll einen wichtigen Beitrag dazu leisten, die gemeinsamen Arbeiten der ESAs mit der Kommission voranzubringen.

Schwierige Abgrenzungsfragen

Dabei liegt allen regulatorischen Fragen rund um BDAI ein grundsätzliches Problem zugrunde: Nach wie vor ist es schwierig, BDAI-Verfahren von Verfahren der klassischen Statistik abzugrenzen. Unter Risikogesichtspunkten lassen sich aber drei Merkmale herausstellen, die bei modernen BDAI-Methoden von besonderer Bedeutung sind:

  • Erstens sind die verwendeten Algorithmen häufig im Vergleich zu klassischen statistischen Verfahren besonders komplex. Das erschwert ihre Nachvollziehbarkeit.
  • Zweitens lassen sich immer kürzere Rekalibrierungszyklen beobachten. Dies liegt an der Kombination aus stetig weiter lernenden Algorithmen und daran, dass nahezu täglich neue Daten zur Verfügung stehen. Dadurch verschwimmen mehr und mehr die Grenzen zwischen Kalibrierung und Validierung.
  • Drittens erhöht sich durch den Einsatz von BDAI-Methoden der Grad der Automatisierung. Dadurch lassen sich Prozesse immer leichter hochskalieren, und die Auswirkung des einzelnen Algorithmus nimmt zu.

Die Prinzipien gelten daher vor allem für solche Algorithmen, die diese drei Merkmale aufweisen.

Aufteilung in zwei Phasen

Um die Prinzipien möglichst genau formulieren zu können, wurde der auf Algorithmen fußende Entscheidungsprozess stark vereinfachend in zwei Phasen unterteilt: die Entwicklungsphase und die Anwendungsphase. In der Entwicklungsphase geht es darum, wie der Algorithmus ausgewählt, kalibriert und validiert wird. Hierfür gibt es beispielsweise Prinzipien zur Datenstrategie, aber auch solche zur Dokumentation der unternehmensinternen und externen Nachvollziehbarkeit. In der Anwendungsphase müssen die Ergebnisse des Algorithmus interpretiert und in Entscheidungsprozesse eingebunden werden. Dies kann automatisch geschehen, aber auch, indem laufend Experten einbezogen werden. In jedem Fall muss eine funktionierende Geschäftsordnung etabliert sein, die unter anderem ausreichende Kontrollmechanismen und entsprechende Feedbackloops zur Entwicklungsphase umfasst. Flankiert werden diese beiden Phasen durch übergeordnete Prinzipien, etwa zur Notwendigkeit einer klaren Verantwortungsstruktur und eines adäquaten Risiko- und Auslagerungsmanagements.

Nur ein Meilenstein

Die Prinzipien sind nur ein Meilenstein beim Ansinnen von BaFin und Deutscher Bundesbank, Rechts- und Anwendungssicherheit für den verantwortungsvollen Einsatz von BDAI im Finanzsektor zu schaffen. Die Arbeiten zu diesem Themenkomplex gehen weiter: Speziell für den Einsatz von maschinellem Lernen bei Säule-I- und Säule-II-Modellen wollen BaFin und Bundesbank Mitte Juli ein Diskussionspapier veröffentlichen, das sie gemeinsam konsultieren wollen. Im Fokus werden dabei Modelle stehen, die im Rahmen der Solvenzaufsicht aufsichtlich genehmigt werden müssen oder Gegenstand aufsichtlicher Prüfungen sind. Das BaFinJournal wird darüber berichten.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here