Der Begriff ‚Zeitenwende‘ gilt nicht nur für den Strategiewechsel deutscher Sicherheitspolitik, sondern auch für Künstliche Intelligenz. Die Debatten über ChatGPT werfen die Frage auf, was in der Blackbox eines Chatbots passiert. Pegasystems zeigt Zusammenhänge auf.
Abkühlung: Der erste Hype um ChatGPT ist abgeebbt. Innovationseuphoriker wie Berufspessimisten haben ihre Statements lanciert – Zeit für eine differenzierte Betrachtung der Chatbots. Fortschritt und Veränderungen sind nicht immer und ausschließlich positiv – so viel ist klar. Als die Erfindung des Automobils verhinderte, dass Paris, London, Berlin und New York im Kot der Pferde ersticken, wurden Arbeitsplätze im Kutscher-Business obsolet. Das illustriert den Zielkonflikt zwischen Fortschritt im Großen und partiellem Rückschritt im Kleinen. Die Betroffenen finden das verständlicherweise gar nicht lustig. Intelligente Textgeneratoren haben einige Redaktionen erstmals gegen Ende des vergangenen Jahrzehnts getestet. Damals waren die Texte praktisch unlesbar. Kritisch-kreative Redakteure waren durch nichts zu ersetzen. Ein Experiment mit sehr überschaubarer Halbwertszeit.
Die moralische Keule ist kein Maßstab
Heute ist die Entwicklung fortgeschritten. Die vielstimmigen Einschätzungen über die Konsequenzen von intelligenten Chatbots wie ChatGPT reichen von Disruption und Revolution bis zu potenzieller Arbeitsplatzkiller und totalitäres Machtinstrument. Fakt ist, dass wir die Tragweite noch gar nicht abschätzen können. Der Philosoph Georg Wilhelm Friedrich Hegel hat die Erfindung von Schusswaffen einmal als demokratischen Fortschritt gefeiert: Die Anonymisierung der Kombattanten, die sich nicht mehr wie ‚12 Uhr mittags‘ Mann gegen Mann gegenüberstehen, entziehe dem Ideal des adeligen Ritters und damit der feudalen Herrschaft insgesamt die Legitimation, so seine Schlussfolgerung. Das mag aus akademischer Vogelperspektive stimmen, sagt aber nichts über die Entmenschlichung des Krieges durch Massenvernichtungswaffen aus. Umgekehrt ist es gängige Praxis, technische Innovationen fast schon reflexartig mit der moralischen Keule in Bausch und Bogen zu verdammen, bevor ihr potenzieller Nutzen klar ist. Hüten wir uns also vor vorschnellen Urteilen und wohlfeilem Alarmismus.
Die ersten Chatbots lernen Empathie
Die zu klärende Frage lautet, wie intelligent Chatbots wirklich sind. Intelligenz ist ein originär menschliches Phänomen. Nur selten kann ein Mensch allerdings auf die Frage nach seiner eigenen Intelligenz mit einem konkreten Koeffizienten aus einem Intelligenztest aufwarten. Die Selbsteinschätzung ist daher in der Regel eher verhalten. Meist schwankt sie um einen soliden Mittelwert. Kaum jemand möchte sich mit einem hohen Wert hervortun oder mit einem niedrigen Wert blamieren. Hier laufen bereits höchst individuelle soziale Einflussfaktoren wie Scham und Bescheidenheit oder, andersherum, Prahlerei und Geltungssucht in die Selbstbewertung ein, die der Künstlichen Intelligenz (noch) fremd sind. Anders ist es mit sozialen Kompetenzen wie Empathie oder Diskriminierungsfreiheit – Künstliche Intelligenz versucht bereits, diese Fähigkeiten zu erlernen und nachzuahmen. Im Chatbot-unterstützten Kundendialog spielt beispielsweise die Bias-Freiheit, also die generelle Gleichbehandlung ungeachtet von Alter, Geschlecht, Herkunft, Religion, Status und mehr eine wichtige Rolle.
Wahrscheinlichkeit statt Wahrheit
Interessant wird die Intelligenzfrage, wenn Anwendungen wie Chatbots ihre eigene Leistung einschätzen. ChatGPT antwortet auf die Frage: „Wie intelligent sind Chatbots wirklich?“ mit: „Chatbots sind künstliche Intelligenzen, die darauf programmiert sind, bestimmte Aufgaben auszuführen, indem sie natürliche Sprache verwenden, um mit Benutzern zu interagieren. Beim zweiten Versuch eine Woche später heißt es dann: „Chatbots sind Programme, die darauf ausgelegt sind, menschenähnliche Konversationen zu führen und Fragen zu beantworten.“ Der Systemtheoretiker Niklas Luhmann würde diesen Befund wahrscheinlich als typische Form von Kontingenz analysieren. Kontingenz ist ein Begriff aus der Soziologie, der die Ungewissheit menschlicher Lebenserfahrungen bezeichnet. Die Offenheit und Ungewissheit, die Niklas Luhmann für private Lebenserfahrungen und soziale Systeme diagnostiziert hat, gilt offensichtlich auch für Künstliche Intelligenz und deren Anwendungen.
Wahrheiten können und sollten wir deshalb von Chatbots auch gar nicht erwarten. Schließlich arbeiten diese Systeme nicht mit Wahrheiten, sondern mit Wahrscheinlichkeiten auf der Basis einer Unmenge von Daten. Deren Qualität, Aussagekraft und Wahrheitsgehalt kann tendenziell zwischen 0 und 100 Prozent oszillieren. Auch hier also bestenfalls ein solider Mittelwert. Mehr muss es aber auch gar nicht sein, weil allein die schiere Datenmenge für die Praxistauglichkeit und die Überlegenheit, gegenüber der für einen Menschen in der gleichen Zeitspanne verfügbaren Datenbasis völlig ausreicht. Chatbots denken (noch) nicht wie Menschen. Die Lösung von komplexen, mehrstufigen und multidimensionalen Zielkonflikten sowie das Verständnis durch erfahrungsbasierte und transferierbare ‚Weltmodelle‘ – nichts davon bringt Künstlicher Intelligenz aktuell mit. Intelligente Systeme sind Reiz-Reaktions-Maschinen. Für ihre jeweiligen Einsatzzwecke reicht das völlig aus.
Im Umkehrschluss bedeutet das jedoch: Die Verantwortung tragen nach wie vor wir Menschen. Auf der Ebene der Algorithmen und Trainingsdaten sind das Data Scientists und Experten für Künstliche Intelligenz. Auf der Ebene der Anwendungen und deren Auswirkungen sind wir das alle. jf
Anzeige | Trovarit-Academy
Webinarreihe „KI konkret“ – Praxisnahe Use Cases
In vielen Unternehmen herrscht immer noch große Unsicherheit bei der Frage, ob und wie KI nutzbringend für die eigenen Prozesse eingesetzt werden kann.
Die Webinarreihe „KI konkret“ stellt in 3 Terminen Use Cases vor, bei denen reale Herausforderungen in unterschiedlichen Unternehmensbereichen durch den Einsatz von KI gelöst werden konnten.
- Geschäftsprozesse mit KI clever digitalisieren
- Künstliche Intelligenz in der Produktion
- Künstliche Intelligenz & ERP
KI konkret | zur Webinar-Reihe
Der Autor
Florian Lauck-Wunderlich ist Senior Project Delivery Leader bei Pegasystems.