Start Software und Technologie Vertrauenskrise bei GenAI: Warum die Qualität generativer KI sinkt

Vertrauenskrise bei GenAI: Warum die Qualität generativer KI sinkt

Der generativen Künstlichen Intelligenz fehlt die Qualitätssicherung. Anwender sind daher in der Pflicht, diese Technologie verantwortungsvoll einzusetzen. Der wichtigste Schritt: Die Antworten stets überprüfen. Entweder an der Originalquelle oder bei Experten.

Nutzen generativer KI in Unternehmen
Quelle: © ilgmyzin | unsplash.com

Qualitätsverlust bei generativer KI: Eigentlich nehmen die Leistung und die Zuverlässigkeit von intelligenten IT-Assistenten weiter zu. Wer allerdings in den vergangenen Wochen intensiver mit ChatGPT, Perplexity.ai und Co. gearbeitet und die Ergebnisse überprüft hat, der stellt eher das Gegenteil fest: Die Qualität der generierten Antworten lässt neuerdings oft zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Hersteller nicht so ganz erklären können. Auch Technik-Blogs berichten über dieses Thema.

In Anbetracht der Tatsache, dass sich viele Menschen im Berufsleben bereits stark auf generative Künstlicher Intelligenz (GenAI) verlassen, ist dieser Trend ernüchternd. Ein blindes Vertrauen in die digitalen Helfer birgt großes Schadenspotenzial. Etwa dann, wenn Ärzte sich bei der Diagnose auf sie stützen oder Entwickler die von der Künstlichen Intelligenz vorgeschlagenen Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also mindestens gewagt, um es zurückhaltend zu formulieren. Die Situation ist ernst und erfordert von den Anbietern ein Mindestmaß an Qualitätssicherung. Das ist offenbar kein einfaches Unterfangen. Bis Hersteller die Qualität der Antworten ihrer Werkzeuge absichern, sollten die Anwender eigene Maßnahmen ergreifen, um nicht unter den Halluzinationen dieser Werkzeuge zu leiden. Vier Probleme sollten sie dabei angehen.


Anzeige | kostenloses Webinar der Trovarit Academy

Software-Auswahl mit smartRFI
©Contributor | istockphoto.com

A

smartRFI – Der smarte Weg zur Auswahl der passenden Business-Software

12.09.2025
09:30 - 10:15 Uhr

Thema: effiziente Anbieterauswahl, Projektanfrage und vergleichbare Angebote mit KI-Unterstützung
Referent: Vladislav Musika, Trovarit AG
Die Auswahl der richtigen Business-Software kann schnell zur Herausforderung werden: Der Markt ist unübersichtlich, Anbieter schwer vergleichbar, und manuelle Recherchen kosten viel Zeit. Unstrukturierte Anfragen führen oft zu unklaren oder schwer vergleichbaren Antworten – eine fundierte Entscheidung wird so erschwert. In unserem Webinar erfahren Sie, wie Sie mit dem KI-gestützten Online-Tool smartRFI den Auswahlprozess effizienter gestalten, strukturierte RFIs versenden und schneller zu einer fundierten Vorauswahl kommen.
Anmeldung

Problem #1: Halluzinationen

Intelligente Assistenten wie ChatGPT sind so programmiert, dass sie Antworten liefern – koste es, was es wolle. Reicht die Wissensbibliothek nicht aus, um komplexe Sachverhalte zu beantworten, fängt GenAI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie lediglich rund ein Viertel (27 Prozent) der Anwender in Deutschland die Ergebnisse, die GenAI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin 7 Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle davon produzierten Inhalte überprüfen. Anwender sollten insbesondere die verwendeten Primärquellen checken oder – wenn möglich – Experten zur Prüfung der Korrektheit der Antworten zu Rate ziehen.

Problem #2: Bias

Die Anbieter intelligenter IT-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen. Verlassen sollten sich User auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es nicht. Relativ hoch ist die Gefahr dann, wenn kostenlose GenAI-Assistenten oder Nischen-Tools zum Einsatz kommen.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse von GenAI immer genauestens zu prüfen und mit geltenden Gesetzen sowie den Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose Tools meidet, erspart sich zudem viel Ärger.

Problem #3: Content-Kannibalisierung

Content, den Künstliche Intelligenz generiert hat, flutet das Internet. Das ist die schlichte Folge der zunehmenden Nutzung von diesen Assistenten. Nun trainieren Entwickler ihre Chatbots und deren zugrunde liegende Sprachmodelle mit genau diesen Inhalten. Der exponentiell steigende GenAI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die Künstliche Intelligenz für ihre Antworten zurückgreift. So entsteht ein Teufelskreis aus künstlicher Intelligenz, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung nach und nach herausgekürzt. Der Qualitätsverlust bei generativer KI dürfte somit steigen. Hinzu kommt, dass alle Anwender irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ist sinnvoll, hin und wieder Content ohne die Hilfe Künstlicher Intelligenz zu produzieren. Der darf dann gerne Qualitätssiegel „Made in a human brain“ tragen.

Problem #4: Das Wissensoligopol

Der Markt rund um Künstliche Intelligenz ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für GenAI leisten können. Dadurch entsteht nach und nach ein Wissensoligopol, in dem die großen Anbieter wie OpenAI, Google, Microsoft und DeepSeek die Art und Weise bestimmen, welche Informationen überhaupt zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer- sowie Supporter-Basis wächst. Gleichzeitig sollten Anwender es dringend verinnerlichen, dass die IT-Assistenten nicht der Wahrheit letzter Schluss sind. Der Einsatz möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

„Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist“, betont Alain Blaes, CEO der Münchner Kommunikationsagentur PR-COM. „Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt gilt daher die Maxime, jede von GenAI generierte Antwort ausnahmslos und gründlich zu überprüfen, um dem Qualitätsverlust generativer KI entgegenzuwirken.“ Jürgen Frisch