Kreative Künstliche Intelligenz wie ChatGPT kann Risikoanalyse, Finanzberichterstattung und Prognosen vereinfachen oder sogar automatisieren. Wie KI das Finanzreporting verändern wird.
Das Erstellen von Quartals- und Jahresberichten gehört selten zur Lieblingsbeschäftigung von IR-Abteilung oder beauftragten Textern. Zahlen müssen in Worte übersetzt werden und oft genug ändert sich von Quartal zu Quartal wenig Substanzielles – es geht mehr ums Um- als ums Neuformulieren. Zumindest diese Fleißarbeit im Finanzreporting kann schon heute eine generative Künstliche Intelligenz wie ChatGPT von OpenAI, Claude von Anthropic oder ein Schreibassistenzprogramm auf Basis eines „Großen Sprachmodells“ (Large Language Model, LLM) übernehmen.
Künstliche Intelligenz verspricht aber noch deutlich mehr: Dokumente und Zahlenkonvolute können einfach durchforstet und anders aufbereitet werden, unterschiedliche Datenbestände inhaltlich zusammengeführt und vereinheitlicht, Analysen komplett neu geschrieben werden. Und das alles in einem Bruchteil der Zeit, die Menschen dafür bislang benötigen. Generative KI kann mit den passenden Einstellungen Texte je nach Zielgruppe automatisch an Leseniveau und Vorwissen, Sprache und inhaltlichen Schwerpunkt angepasst umschreiben. Doch nicht nur bei der Erstellung, auch bei der Lektüre kann KI helfen: Leser können einfach mehrere Dokumente miteinander vergleichen, sich ihr eigenes Reporting erstellen lassen und beispielsweise Anomalien leichter erkennen.
Spannende Informationen und relevante Themen aus der Wirtschaft und Finanzwelt in kompakter Form für Ihren unternehmerischen Alltag und für Ihre strategischen Entscheidungen.
Wir machen Wirtschaftsthemen zu einem Erlebnis.
Die KI erlaubt auf den Leser maßgeschneiderte Analysen, kann neue Querverbindungen aufzeigen.
In Zukunft werden Unternehmen ihren „Investor Relations IR-Chatbot“ haben, mit dem Investoren und andere Interessierte alle Informationen des Unternehmens durchsuchen und sich maßgeschneidert aufbereiten lassen können. Ganz neue Querverweise und Korrelationen können so abgebildet werden, die mit den bisherigen klassischen Suchalgorithmen nicht möglich waren. Chatbots sind schon länger möglich, doch waren sie bislang extrem limitiert. Die LLM-KI jedoch ist mit riesigen Datenmengen trainiert worden und entsprechend sehr viel mächtiger. Und die Anbindung an ChatGPT per Schnittstelle ist deutlich günstiger, als ein komplexes Chat-Programm selbst zu erstellen. Die Kosteneinsparungen auf allen Seiten dürften enorm sein.
Doch ganz so schnell und einfach wird es nicht. Bislang wird sich kein seriöses Unternehmen auf ChatGPT fürs Finanzreporting oder die Analyse der Finanzberichte verlassen. Denn die Schwächen der KI, die OpenAI selbst auch deutlich herausstellt, sind bislang eklatant. Vor allem drei Punkte verhindern aktuell noch die ernsthafte Nutzung:
Mit hoher Wahrscheinlichkeit wird die maximale Datenmenge, die KI bearbeiten kann, in naher Zukunft noch größer. Schon heute gibt es Hilfsmittel, die längere Texte in kleine Pakete aufspalten, sie bearbeiten lassen und anschließend die Zwischenergebnisse zusammenführen. Durch gezielte Trainings der KI mit speziell zugeschnittenen Datenbeständen, dem sogenannten Finetuning, können zudem die Ergebnisse der KI besser auf die Bedürfnisse des jeweiligen Absenders zugeschnitten werden. So sinken die Fehleranfälligkeit und die Vermischung mit externen Daten. Wie zuverlässig, wie schnell und wie aufwendig das jedoch sein wird, ist bislang unklar. Denn die KI hat keine eigene Kontrollinstanz auf Plausibilität, sondern setzt ihre Ergebnisse im Kern nach Wahrscheinlichkeiten zusammen: Wenn der Satz mit A beginnt, wird er wahrscheinlich mit B enden. Welches B zu A ausgewählt wird, ist eine Frage der Trainingsdaten, der Komplexität und der Einstellungen des kreativen Freiheitsgrads des Sprachmodells.
Bis auf Weiteres wird das Finanzreporting den Menschen als Kontrollinstanz benötigen. Eigentlich sollte das kein Problem sein – der Effizienzgewinn ist zwar nicht so hoch wie erhofft, aber doch erheblich. Denn statt wie bislang alles „händisch“ zu erstellen und durch einen Menschen kontrollieren zu lassen, ist nur noch die menschliche Kontrolle notwendig. Doch die ersten Erfahrungen mit KI-Texten zeigen, dass nicht nur der Leser, sondern auch der Absender („Nutzer“) diese Kontrollaufgabe leicht vernachlässigt. So blieb selbst in der kurzen Präsentation der Google-Chat-KI „Bard“ ein Fehler unentdeckt. Die Google-Mutter Alphabet verlor daraufhin am selben Tag zwischenzeitlich 100 Milliarden US-Dollar an Börsenwert.
Es mühselig wie die Suche nach der Nadel im Heuhaufen, im Nachhinein alle Informationen noch einmal zu überprüfen. Die Gefahr ist groß, dass eine sorgfältige Kontrolle vernachlässigt wird.
Die Lügen von ChatGPT klingen oft realistisch. Das macht es so verführerisch, sich blind auf die KI zu verlassen. Zugleich ist es mühselig wie die Suche nach der Nadel im Heuhaufen, im Nachhinein alle Informationen noch einmal zu überprüfen. Das Ergebnis der KI ist eine Blackbox. Auch wenn Suchmaschinen-Chatbots wie Bing AI ihre Angaben mit Links versehen, führen diese oft genug ins Leere: Die Informationen sind unter dem angegebenen Link gar nicht vorhanden.
Falschinformationen in der Finanzberichterstattung können für ein Unternehmen aber schnell sehr teuer werden. Dann drohen nicht nur Strafzahlungen, sondern Fehlinformationen können auch das Vertrauen der Stake- und Shareholder. Entsprechende Haftungsfragen sind bislang ungeklärt. Es ist aber naheliegend anzunehmen, dass anders als bei konventionellen IT-Systemen nicht der KI-Hersteller, sondern der Absender des KI-erstellten Finanzreports in Haftung genommen würde, solange die KI-Anbieter keine „Garantie“ für inhaltliche Korrektheit geben. Ob sie das – da sie selbst viele Ergebnisse der KI noch nicht nachvollziehen können – jemals tun werden?
Der Blackbox-Charakter der KI erschwert zudem die Kontrolle, ob eine KI vielleicht manipuliert wird. Das ist vor allem dann gefährlich, wenn wie bei einem möglichen IR-Chatbot das Ergebnis auf Basis einer hausinternen KI erstellt wurde. Durch die Schnittstelle Chat können böswillige Anwender die Antworten manipulieren, sodass vom Hersteller der KI vollkommen unbeabsichtigte Antworten ausgegeben werden (auch als Waluigi Effekt bekannt). So ist es beispielsweise gelungen, einen Chatbot so zu manipulieren, dass er versuchte, dem Nutzer sensible Bankdaten zu entlocken.
Bis KI substanziell helfen kann, das Finanzreporting zu automatisieren, gilt es noch zahlreiche Hindernisse und Fehler zu beseitigen und einen verlässlichen Rechtsrahmen zu schaffen. Noch befinden sich ChatGPT & Co. auch erst in der Versuchsphase. Zwar sind die Fortschritte, die die Systeme schon innerhalb weniger Wochen erzielt haben, beachtlich. Heute sind sie erst ein betreuungsintensiver Assistent. Aber mit einer steilen Lernkurve.
03/2023
Chefredaktion: Bastian Frien und Boris Karkowski (verantwortlich im Sinne des Presserechts). Der Inhalt gibt nicht in jedem Fall die Meinung des Herausgebers (Deutsche Bank AG) wieder.