Er beherrscht die Schlagzeilen, steht als Synonym für Innovation und scheint ein kleiner Alleskönner zu sein: der Bot ChatGPT. An Schulen soll er zur Hausaufgabenhilfe werden, die Ärzteschaft könnte ihn als Nachschlagwerk etwa für die Wechselwirkung von Medikamenten nutzen, und wenn es für die schreibende Zunft gut läuft, brauchen Texte wie dieser hier in Zukunft nur noch einen kurzen Faktencheck, bevor sie veröffentlicht werden – ChatGPT sei Dank.
Das mag zunächst etwas plakativ und vielleicht sogar provokant klingen. Tatsächlich zeigt das Beispiel des Vorreiters aus Kalifornien gerade sehr deutlich, dass Künstliche Intelligenz nicht nur auf dem Vormarsch ist, sondern auch mit offenen Armen empfangen wird. Das war nicht immer so und darf überall dort als positiv bewertet werden, wo große Datenmengen verarbeitet werden müssen. Denn genau hier kommen Menschen an ihre Grenzen, weshalb die KI einen echten Mehrwert bieten kann. Bestes Beispiel sei das Finanzwesen, wo es für KI vielfältige Einsatzmöglichkeiten gäbe, sagt beispielsweise Gerard de Melo, Professor für Künstliche Intelligenz und Intelligente Systeme am Hasso-Plattner-Institut der Universität Potsdam: „Bei Investmententscheidungen kommt KI bereits seit geraumer Zeit zum Einsatz, etwa im Automated Trading oder im Roboadvice. In Zeiten globaler Vernetzung und großer, rund um die Uhr fortlaufender Datenströme ist der Einsatz von KI hilfreich, um relevante Signale frühzeitig zu erkennen, etwa in Nachrichtentexten, sozialen Medien oder Satellitenbildern.“
Vorsicht mit der Euphorie
Wer allerdings darauf hofft, künftig eine frei zugängliche KI wie ChatGPT nach der passenden Geldanlage zu befragen und Anlagetipps zu erhalten, wird enttäuscht. ChatGPT kann lediglich aus bestehenden Ratschlägen, die in Textform im Internet vorliegen, neue Ratschläge generieren. Das Ergebnis wäre also sehr generisch und vermutlich auch nicht wirklich aktuell. Oder anders ausgedrückt: nicht besser als die Standard Google-Suche.
Dennoch nutzt auch die Finanzbranche die Software des KI-Pioniers OpenAI. Laut aktueller Daten der Plattform Enterprise Apps Today, die das Portal Statista veröffentlicht hat, kommt ChatGPT bereits in 44 Finanzfirmen zum Einsatz, womit die Branche unter den Nutzern auf Platz fünf liegt. Wie genau dieser Einsatz aussieht, wird leider nicht näher beleuchtet.
KI-Experte de Melo würde die Bedeutung von ChatGPT für das Finanzwesen jedoch nicht überbewerten. Vielmehr sieht er die Vorteile, die KI liefern kann, in anderen Bereichen: „KI kann beispielsweise helfen, fragwürdige Transaktionen zu erkennen oder die Kreditwürdigkeit zu bewerten. Weiterhin gibt es in der Finanzbranche im Bereich Service und Support Einsatzmöglichkeiten für KI. Auch bei der Recherche in unternehmensinternen Daten kann sie eine einfach zu bedienende Schnittstelle bieten, etwa für Datenbankabfragen.“ Und davon profitieren ja letztendlich immer auch die (End-)Kunden.
Wie weit KI bereits in den Finanzsektor vorgedrungen ist, zeigt die aktuelle Studie „State of AI in Financial Services: 2023 Trends“ des Prozessorentwicklers Nvidia. Demnach – wen wundert’s – seien die wichtigsten KI-Anwendungen die Verarbeitung natürlicher Sprache (26 Prozent), gefolgt von Empfehlungssystemen (23 Prozent), der Portfoliooptimierung (ebenfalls 23 Prozent) sowie der Betrugserkennung (22 Prozent). Vorteile sehen die Befragten vor allem in besseren Kundenerlebnissen (46 Prozent), einer Steigerung der betrieblichen Effizienz (35 Prozent) sowie in geringeren Betriebskosten (20 Prozent).
Relevanz von KI ist unbestritten
Wie deutlich der Vormarsch der KI im Finanzwesen ist, zeigt ein Blick auf die Daten einer Adesso-Studie aus dem Jahr 2021. Damals gaben zwar bereits 85 Prozent der Befragten in Banken an, dass sie davon überzeugt seien, dass ein Investment in diese Technologie zu Vorteilen führt – gut fünf Prozentpunkte mehr als der Wert der Gesamtumfrage. Dennoch sagten 78 Prozent, dass KI noch in den Anfängen steckt. 62 Prozent gaben zudem an, dass gesetzliche Rahmenbedingungen dem Einsatz von KI-Anwendungen in einer so stark regulierten Industrie im Weg stünden. In der Gesamtumfrage stimmten nur 52 Prozent dieser Aussage voll oder eher zu.
Auch deshalb benötigt die Finanzbranche aktuell für Anwendungen wie Automated Trading – der automatisierte Handel von Wertpapieren – oder KI-basierter Prognosen noch sehr spezialisierte KI-Modelle und nichts von der Stange, wie KI-Experte de Melo unterstreicht: „Aktuelle Sprachmodelle wie ChatGPT haben eine Reihe von bemerkenswerten Fähigkeiten, glänzen aber vor allem im Umgang mit Textdaten, etwa wenn es darum geht, Informationen aus Konzernberichten, Kreditverträgen oder Nachrichtentexten herauszuziehen. Schon bei Informationen, die aus sozialen Medien gefiltert werden sollen, empfiehlt sich der Einsatz eigens entwickelter Modelle.“ Als Begründung führt de Melo die Vertrauenswürdigkeit verschiedener Accounts an, die so besser berücksichtig werden könne. Er selbst habe sich beispielsweise in einigen Studien mit der Wallstreetbets-Community auf der Plattform Reddit beschäftigt und musste innerhalb der KI dafür Community-spezifische Eigenschaften berücksichtigen. Zur Erinnerung: Wallstreetbets war vor rund zwei Jahren für den konzertierten Kauf von Gamestop-Aktien verantwortlich.
Was KI-Modelle im Finanzwesen leisten können
Es kommt also immer darauf an, wie eine KI aufgebaut ist und lernt. Denn gerade mit Blick auf die Kapitalanlage ist es ein Wissensvorsprung in ineffizienten Märkten, der über Erfolg und Misserfolg entscheiden kann. In der Realität können Fondsmanager in effizienten Märkten, etwa im Dax oder Dow Jones, einen solchen Wissensvorsprung kaum mehr generieren. De Melo: „KI-Modelle können riesige Datenmengen nach interessanten Signalen durchforsten und sich so an einer Bewertung versuchen. Unter Umständen lässt sich auf diese Art die sprichwörtliche Nadel im Heuhaufen finden, die einen Wissensvorsprung sichert.“ Ferner gibt er zu bedenken, dass eine KI aus bestehenden Informationen neue Schlüsse ziehen kann: „Das können logische, aber auch statistische Herleitungen sein, wie etwa beim Forecasting, wo anhand von Beobachtungen aus der Vergangenheit neue Prognosen über die Zukunft gemacht werden. Daher kann eine gute KI durchaus zu einem Wissensvorsprung führen. Dies setzt aber natürlich voraus, dass andere noch keine vergleichbare KI im Einsatz haben.“
… und was sie nicht leisten können
Was zunächst nach einem Segen klingt, kann jedoch auch schnell zu einem Fluch werden – nämlich dann, wenn sich beim „Füttern“ der KI mit Rohdaten schon Fehler einschleichen. Prominentes Beispiel aus dem Jahr 2019: Goldman Sachs hatte für den US-Tech-Riesen Apple eine Kreditkarte entwickelt. Der Kreditrahmen wurde schon damals von einem Computer bewertet. Mittels eines Algorithmus wurden die hinterlegten Daten ausgewertet und der hatte offensichtlich etwas gegen Frauen. Ausgerechnet der Frau von Apple-Mitgründer Steve Wozniak wurde ein deutlich geringerer Kreditrahmen eingeräumt als ihm selbst – obwohl es weder getrennte Konten noch getrennte Vermögen gab.
Solche Fälle von offensichtlicher Diskriminierung können durchaus zu einem Problem werden, räumt auch de Melo ein. Das liege an den Rohdaten, die bereits verschiedene Formen von Voreingenommenheit widerspiegeln können, etwa wenn Menschen aus einer bestimmten Nachbarschaft oder mit bestimmten Merkmalen in der Vergangenheit weniger häufig positive Kreditzusagen bekommen hätten. „Eine KI beruft sich zunächst auf alle verfügbaren Signale. So kann es leider passieren, dass bestimmte Tendenzen in den Daten bewahrt oder gar verstärkt werden“, sagt der KI-Experte. Zwar gäbe es spezielle Methoden, um einzelne Formen von Diskriminierung zu reduzieren, aber komplett eliminieren ließen sich derartige Effekte nicht ohne Weiteres. Auch die KI ist eben nur so unvoreingenommen, wie die Daten, aus denen sie lernt. Hier muss sicherlich noch einiges an Arbeit geleistet werden, erste Ansätze, derart offensichtliche Diskriminierung zu vermeiden, seien jedoch da, sagt de Melo: „Ein möglicher Ansatz ist, KI-Modellen nur eine stark eingeschränkte Wahl an Informationen überhaupt zur Verfügung zu stellen. Ein weiterer Ansatz ist der Übergang zu erklärbarer KI. Das heißt, der Einsatz von transparenteren Methoden, die eine menschliche Überprüfung zulassen.“
EU arbeitet an Regulierung
Auch deshalb arbeitet die EU derzeit an neuen Regularien für den Einsatz von KI in sensiblen Bereichen. Konkret verhandelt wird derzeit über den Artificial Intelligence Act, der Potenziale heben, aber eben auch Grenzen für Künstliche Intelligenz setzen soll. Seine Quintessenz derzeit: Am Ende kontrollieren immer noch Menschen Entscheidungen und Inhalte, die von KI-Modellen erarbeitet werden. Gleichzeitig sollen auch die Tools, mit denen gearbeitet wird, stark reguliert werden. Insbesondere im Anhang III, der eine Liste an Use Cases für eigenständige KI-Systeme enthält, sind einige Bereiche als Hochrisiko eingestuft, etwa die biometrische Identifizierung, Anspruchsberechtigungen für Kranken- und Lebensversicherungen oder auch KI-generierte Texte, die fälschlicherweise für einen von einem Menschen erstellten Text gehalten werden können. Dies könnte bei dieser konkreten Formulierung schnell das Aus für den neuen Shooting-Star ChatGTP bedeuten. Sein Erfinder Sam Altman sieht das nicht als Problem, wie er auf Twitter schreibt: „Wir brauchen genügend Zeit für unsere Institutionen, um herauszufinden, was zu tun ist. Die Regulierung wird von entscheidender Bedeutung sein, und es wird Zeit brauchen, sie auszuarbeiten.“
Und auch de Melo betont, es sei wichtig zu beachten, dass KI-Systeme wie ChatGPT auch viele Schwächen haben: „Wenn die Qualität der zugrundeliegenden Daten unzureichend ist, kann auch die Künstliche Intelligenz zu falschen Herleitungen kommen.“ Ein KI-Modell könnte etwa durch Gerüchte aus den sozialen Medien in die Irre geführt werden. Gleichzeitig sieht er aber auch das große Potenzial in der sich ständig weiterentwickelnden Technologie: „Wir haben inzwischen zunehmend Systeme, die je nach Bedarf völlig unterschiedliche Aufgaben angehen können, darunter auch recht komplexe, die aus vielen unterschiedlichen Einzelschritten bestehen.“ Würden große KI-Modelle zuverlässiger werden, dann könne er sich vorstellen, so der Professor für Künstliche Intelligenz, dass sie in Zukunft automatisiert auch Berichte und Studien zu neuen Fragestellungen generieren könnten.