In 2023 hat die künstliche Intelligenz eine rasende Entwicklung gemacht. Viele Branchen und Aktiengesellschaften haben davon massiv profitiert. Führende US-Bundesaufsichtsbehörden warnen nun erstmals, dass der Einsatz künstlicher Intelligenz ein Risiko für das Finanzsystem darstellt.

Eine „aufkommende Schwachstelle“ ungeahnten Ausmaßes

Der Financial Stability Oversight Council  (FSOC), ein Team führender Regulierungsbehörden der US-Regierung, hat KI kürzlich offiziell als „aufkommende Schwachstelle“ eingestuft. Hoch entwickelte KI-Modelle erfreuen sich in den letzten Jahren immer größerer Beliebtheit. Wenngleich viele prominente Namen auf diesem Gebiet sagen, dass die Technologie katastrophale Auswirkungen haben könnte, wenn sie außer Kontrolle gerät.

„KI hat das Potenzial, Innovationen voranzutreiben und die Effizienz zu steigern, aber ihr Einsatz in Finanzdienstleistungen erfordert eine durchdachte Implementierung und Überwachung, um potenzielle Risiken zu bewältigen“, warnte das FSOC in seinem Jahresbericht. Das Gremium, welches nach der Finanzkrise von 2008 gegründet wurde und unter der Leitung von US-Finanzministerin Janet Yellen steht, merkte mit Nachdruck an, dass KI „bestimmte Risiken mit sich bringen kann“. Darunter Bedenken hinsichtlich der Cybersicherheit, Compliance-Risiken sowie Datenschutzprobleme.

Die Regulierungsbehörden äußerten auch Bedenken hinsichtlich „komplizierter Faktoren“ im Zusammenhang mit generativen KI-Modellen wie ChatGPT. Der Rat wies beispielsweise auf Datensicherheits-, Verbraucherschutz- und Datenschutzrisiken hin, die von Finanzunternehmen ausgehen, wenn sie generative KI nutzen. Und sie merkten ebenso an, dass diese Technologie zu fehlerhaften Ergebnissen führen kann, die schon jetzt im Fachjargon als „Halluzinationen“ bekannt sind.

Eine undurchdringliche Blackbox

Eine weitere Sorge der Regulierungsbehörden besteht darin, dass einige KI-Modelle als „Black Boxes“ funktionieren. Ihr Innenleben ist für Außenstehende schlichtweg undurchdringlich. Das FSOC sagte, dieser „Mangel an ‚Erklärbarkeit‘ kann es schwierig machen, die konzeptionelle Solidität des Systems zu beurteilen, was die Unsicherheit über seine Eignung und Zuverlässigkeit erhöht.“

Mit anderen Worten: Wenn Banken sich auf schwer verständliche KI-Modelle verlassen, ist es kaum nachvollziehbar, wie robust ihre zugrunde liegenden Systeme wirklich sind. In diesem Zusammenhang äußerten die Aufsichtsbehörden Bedenken darüber, wie diese KI-Systeme „voreingenommene oder ungenaue Ergebnisse erzeugen und möglicherweise verschleiern könnten“. Dies würde wiederum Bedenken hinsichtlich einer fairen Kreditvergabe und anderen Fragen des Verbraucherschutzes aufkommen lassen, so das FSOC.

Diese Einschätzung erfolgt nur zwei Jahre, nachdem die Regulierungsbehörden den Klimawandel erstmals als „aufkommende Bedrohung für die Finanzstabilität der USA“ eingestuft haben. Präsident Joe Biden hat kürzlich eine Durchführungsverordnung unterzeichnet, in der er die Bundesbehörden anweist, Maßnahmen zu ergreifen, um die Entwicklung von KI zu schützen, einem boomenden Anwendungs- und Investitionsbereich.