Das ist der nächste Entwicklungsschritt: Künstliche Intelligenz trifft autonome Entscheidungen und setzt diese um. Wie weit funktioniert das bereits in der Praxis, und welche Chancen und Risiken gibt es dabei?
Wenn es um die Gefahren Künstlicher Intelligenz (KI) geht, ist das „Büroklammer“-Szenario des Philosophen Nick Bostrom nicht fern: Eine superintelligente KI bekommt das scheinbar harmlose Ziel, die Produktion von Büroklammern zu maximieren. Daraufhin beginnt sie, alle verfügbaren Ressourcen für die Büroklammer-Herstellung zu nutzen. Als die verfügbaren Ressourcen der Erde aufgebraucht sind, wird sie im Weltraum aktiv. Weil Menschen sie dabei zu stoppen versuchen, wird sie diese eliminieren. Am Ende könnte das gesamte Universum in Büroklammern umgewandelt werden. Eine konsequente Ausführung durch Agentic AI: Der KI muss nur noch eine bestimmte Aufgabe vorgegeben werden, sie setzt diese selbstständig um, entwickelt Lösungsstrategien und korrigiert eigenständig bei Schwierigkeiten. Der Mensch muss im Idealfall gar nicht mehr eingreifen.
In der KI-Entwicklung wird „agentisches Verhalten“ in sieben Stufen eingeteilt (siehe Kasten). Die erste Stufe kennen die meisten KI-Anwender bereits: Sie reagiert auf einen menschlichen Befehl (oder einen anderen definierten Trigger). Komplexere Aufgaben werden in engem Dialog mit dem Menschen abgearbeitet. Erst ab Stufe 4 spricht man von einer autonomen Umsetzung ohne menschlichen Eingriff. Beispielsweise gibt die KI dann direkt Bestellungen bei Lieferanten auf. Dabei orientiert sich das Modell aber noch eng an den definierten Regeln des Menschen. In den nächsthöheren Stufen passt sie ihr Verhalten an, bestellt etwa wetterabhängig und ändert dynamisch ihre Strategien. In der siebten und höchsten Stufe identifiziert sie schließlich eigenständig Probleme, setzt sich Ziele und passt sich in Echtzeit an. Dabei verwaltet sie alle Aspekte eines bestimmten Bereichs und kann auch mit anderen KIs und Menschen zusammenarbeiten, ohne Aufsicht zu benötigen.
1. Reaktiv (nicht-agentisch)
In dieser Stufe reagiert die KI lediglich auf vordefinierte Auslöser oder Befehle. Sie handelt nur auf externe Eingaben hin, ohne langfristige Ziele oder eigenständige Entscheidungsfindung.
2. Assistiv (nicht-agentisch)
Hier bietet die KI Empfehlungen oder Analysen an, beispielsweise Prognosen oder Optimierungsvorschläge. Die endgültigen Entscheidungen und Handlungen erfordern jedoch menschliches Eingreifen.
3. Semi-autonom
Auf dieser Stufe kann die KI bestimmte Aufgaben oder Entscheidungen innerhalb definierter Parameter selbstständig ausführen. Sie könnte zum Beispiel Lagerbestände anpassen, benötigt aber immer noch menschliche Zustimmung für hochwertige oder großangelegte Aktionen.
4. Autonome Ausführung
Die KI führt Aufgaben ohne menschliches Eingreifen autonom aus, wie etwa das Platzieren von Bestellungen bei Lieferanten oder das Management von Logistikprozessen. Ihre Handlungen sind jedoch durch vordefinierte Regeln oder von Menschen gesetzte Einschränkungen begrenzt.
5. Autonome Anpassungsfähigkeit
In dieser Stufe passt die KI ihre Aktionen basierend auf sich ändernden Bedingungen an und lernt aus vergangenen Erfahrungen, um zukünftige Leistungen zu verbessern. Sie operiert weiterhin innerhalb allgemeiner, von Menschen festgelegter Richtlinien.
6. Zielorientierte Autonomie
Die KI setzt und verfolgt eigenständig langfristige Ziele, passt Strategien dynamisch an und interagiert mit mehreren Systemen oder Agenten. Sie lernt und adaptiert kontinuierlich, ohne menschlichen Input für die Entscheidungsfindung zu benötigen.
7. Volle Handlungsfähigkeit
Auf der höchsten Stufe identifiziert die KI selbstständig Probleme, setzt Ziele und passt sich in Echtzeit an. Sie verwaltet alle Aspekte eines bestimmten Bereichs, operiert über komplexe Systeme hinweg und kann mit anderen KI- oder menschlichen Agenten verhandeln oder zusammenarbeiten, um ihre Ziele zu erreichen. Dies geschieht mit minimaler oder ohne menschliche Aufsicht.
An Ideen, handlungsfähige KI einzusetzen, herrscht kein Mangel. Vom selbstfahrenden Auto über den Programmierassistenten und die pharmaforschende KI bis zur vollautomatischen Supply-Chain-Steuerung reicht das Spektrum. Auch in der Finanzwelt gibt es zahlreiche Anwendungsmöglichkeiten. Beispielsweise könnte eine KI automatisch Finanzierungskonditionen abfragen – und zwar bei einem Maximum an potenziellen Finanzierungspartnern. Keine Sorge, diese müssen davon nicht zwangsläufig genervt sein. Denn auch auf der Seite der Finanzierer agiert eine KI und kann verhandeln bzw. den Dialog abbrechen. Indikative Angebote können zielgenauer werden, weil automatisch eine Vielzahl von Daten zur Bewertung, etwa der Kreditwürdigkeit, verarbeitet wird. Auch bei der Vermögensanlage, der Simulation von Stresstests oder der Verarbeitung von Rechnungen könnte KI helfen. Das große Versprechen der Agenten-KI: Sie nimmt dem Menschen Routinearbeiten ab oder trifft selbstständig Entscheidungen auf komplexen Grundlagen, die sonst viel Aufwand bedeuten.
Je nach Anwendungsfeld ist die Entwicklung unterschiedlich weit fortgeschritten. Bei der generativen KI, den großen Sprachmodellen wie ChatGPT, gab es bereits im vergangenen Jahr zahlreiche „Agenten“-Ansätze. Doch die Fähigkeiten blieben weit hinter dem Hype zurück. Die Agenten drehten sich ewig im Kreis, indem sie sich immer neue Aufgaben stellten und nie zum Abschluss kamen. Oder sie machten nicht im Ansatz das, was sie sollten.
Doch es gibt seitdem Weiterentwicklungen. ChatGPT hat mit dem Modell 4o1 eine wichtige Grundlage für eigenständiges Arbeiten geschaffen. 4o1 „denkt“ eigenständig darüber nach, wie eine Lösung gefunden werden kann und ob ein mögliches Ergebnis korrekt ist. Ohne diese Reflexion würde die KI nicht merken, wenn sie völlig falsch handelt. Wettbewerber Anthropic stellte im Oktober 2024 mit „Computer Use“ einen anderen Ansatz vor: Der Nutzer überlässt dem großen Sprachmodell Claude die Steuerung über den eigenen Bildschirm. Die KI erstellt Abbilder des Bildschirms und kann dadurch selbstständig Aktionen am Rechner ausführen. OpenAI hat angekündigt, Anfang 2025 nachzuziehen.
Besonders schnell haben sich KI-Chatbots verbreitet. Diese versprechen, Call-Center-Mitarbeiter deutlich zu entlasten, indem sie beispielsweise Standardauskünfte automatisiert zur Verfügung stellen. Der schwedische Zahlungsanbieter Klarna hat schon Anfang dieses Jahres berichtet, dass in nur einem Monat der von OpenAI betriebene KI-Agent zwei Drittel aller Kundenservice-Chats bearbeitet habe – also 2,3 Millionen Gespräche oder die Arbeit von 700 Vollzeitmitarbeitern. Dabei, sagt der Zahlungsanbieter, sei die Kundenzufriedenheit auf dem gleichen Niveau, die Fehlerquote bei der Lösung von Anfragen zugleich um 25 Prozent gesunken. Außerdem könnten die Kunden ihre Probleme in weniger als zwei statt wie bisher etwa elf Minuten lösen. Das Beste daran: Der KI-Agent spricht alle wichtigen Sprachen, ist rund um die Uhr verfügbar und kann variabel auch in der Verwaltung von Retouren und anderem eingesetzt werden. Klarna schätzt, dass der Einsatz des KI-Agenten dem Unternehmen in diesem Jahr 40 Millionen US-Dollar einsparen wird.
Spannende Informationen und relevante Themen aus der Wirtschaft und Finanzwelt in kompakter Form für Ihren unternehmerischen Alltag und für Ihre strategischen Entscheidungen.
Wir machen Wirtschaftsthemen zu einem Erlebnis.
40 Mio. US$
hat ein Zahlungsanbieter bereits in einem Jahr mit KI-Chat-Agenten eingespart.
Auf der „Selbstständigkeitsskala“ der „Agentic AI“ stehen die Chat-Roboter weit unten. Denn faktisch erhalten sie ihre Prompts als Anfrage vom Nutzer – dem Kunden – und folgen möglichst eng den Vorgaben. Bei komplexeren Problemen wird in aller Regel noch der Mensch eingeschaltet. Die Lösungen des Unternehmens BlueCallom gehen weiter. Beispielsweise werden acht Cluster mit insgesamt 50 miteinander verbundenen Agenten als autonomes Innovationssystem eingesetzt, das Konzepte und einen ersten Prototyp innerhalb weniger Wochen ermöglichen soll. Ein anderes Produkt befragt alle Mitarbeiter und erstellt selbstständig auf dieser Basis eine komplexe Heatmap aller identifizierten Probleme. BlueCallom verspricht eine Produktivitätssteigerung um fünf bis zehn Prozent in nur drei Monaten.
Wie gut diese Versprechen in der Praxis im Einzelfall eingehalten werden, bleibt abzuwarten. Je besser die KI darin wird, sich selbst zu bewerten, desto weniger fehleranfällig wird ihre Arbeit werden. Bislang ist diese Selbstbewertung nur antrainiert, beispielsweise durch überwachtes Lernen und „Loss Functions“. Dabei wird die Differenz zwischen den Vorhersagen der KI und den tatsächlichen Werten quantifiziert, damit das Modell Anpassungen vornehmen kann. Je kleiner die „Loss Function“ ist, desto besser ist die Leistung des Modells.
Auch Anomalieerkennung ist ein wichtiges Instrument, damit ein Chatbot beispielsweise weiß: Hier liegt etwas außerhalb meiner gelernten Norm – und sollte besser an einen Menschen zur Weiterverarbeitung übergeben werden. Andere Ansätze sind sogenannte Generative Adversarial Networks (GANs), bei denen ein Generator Daten erstellt und ein Diskriminator versucht, echte Daten von den künstlich erzeugten zu unterscheiden. Beide Teile des Systems lernen dabei voneinander und verbessern sich kontinuierlich. So werden die künstlich erzeugten Daten und Szenarien immer besser; die KI erhält dadurch mehr Trainingsdaten, da in der Realität oftmals nicht ausreichend Daten vorliegen – speziell von sehr selten eintretenden Ereignissen oder stark regulierten Datenbereichen. Bei der Explainable AI (XAI) zielt die KI darauf ab, ihre Entscheidungen transparent und damit nachvollziehbar zu machen. So können ihre Entscheidungsprozesse bewertet und anschließend verbessert werden.
Die KI hat kein echtes eigenes Bewusstsein, sondern kann nur auf Basis von Daten und statistischen Mustern arbeiten.
Doch auch wenn es leicht ins Philosophische gehen könnte: KIs werden, selbst wenn sie sehr komplexe Aufgaben erfüllen können, kein echtes Bewusstsein und Selbstbewusstsein haben. Ihre Reflexion ist rein datengetrieben und basiert auf statistischen Mustern, nicht dem inneren Erleben und Verständnis. Der Philosoph John Searle argumentierte schon 1980 mit dem Gedankenexperiment des „chinesischen Zimmers“: Ein Mensch, der keinerlei Chinesisch versteht, kann doch in chinesischer Schrift gestellte Fragen anhand einer in seiner Muttersprache verfassten Anleitung in chinesischer Schrift sinnvoll beantworten. Auch wenn die Personen außerhalb des Raums deshalb denken, der Mensch im Raum könne Chinesisch – so ist es doch nicht der Fall.
Solange es keine KI mit einem allgemeinen Bewusstsein gibt, haben die KI-Systeme und damit die agentische Künstliche Intelligenz ihre Grenzen und sind fehleranfällig. Doch je leistungsstärker die Systeme werden und je besser die Daten für das Training sind, desto weniger Fehler werden sie machen. In sensiblen Bereichen wie dem autonomen Fahren zeigt sich aber auch, wie aufwendig es ist, einen fehlerfrei eigenständig handelnden Akteur zu erreichen. So werden vor allem weniger kritische, weniger komplexe Bereiche erst einmal die Domäne der KI-Agenten bleiben. Aber auch das kann schon vielen die Arbeit erleichtern.
Auch wenn die Gefahr einer „Verbüroklammerung“ der Welt durch KI-Agenten wohl ausgeschlossen werden kann, bleiben Risiken. Die KI kann erratisch entscheiden und handeln, sie kann plötzlich ihr „wahres Gesicht“ zeigen. Sie kann aber auch von außen manipuliert werden oder Daten missbrauchen. Es ist ein Widerspruch: Um Fehlentscheidungen zu verhindern, sollte die KI menschlich manipulierbar bleiben. Doch wie effektiv lässt sich dann der unerwünschte Eingriff von außen verhindern? Je mächtiger KI-Agenten werden, desto sensibler sollten ihre Schöpfer für die Risiken werden.
12/2024
Chefredaktion: Bastian Frien und Boris Karkowski (verantwortlich im Sinne des Presserechts). Der Inhalt gibt nicht in jedem Fall die Meinung des Herausgebers (Deutsche Bank AG) wieder.