Chatbots liefern heute auf nahezu jede Frage eine Antwort – doch oft stimmt sie nicht. Eine Analyse zeigt: Der Anteil falscher Informationen in KI-Antworten hat sich in nur einem Jahr fast verdoppelt. Warum das für Nutzer und Gesellschaft ein ernstes Problem ist.
Immer eine Antwort – egal ob richtig oder falsch
Lange Zeit galt es als Fortschritt, dass KI-Chatbots auf fast jede Frage reagieren können. Während viele Systeme früher bei heiklen oder aktuellen Themen ausstiegen und keine Antwort gaben, zeigt sich heute ein anderes Bild: Die großen Modelle verweigern inzwischen kaum noch eine Auskunft. Auf den ersten Blick wirkt das wie ein Gewinn für die Nutzerfreundlichkeit – wer fragt, bekommt auch etwas zurück. Doch genau darin liegt ein Risiko.
Eine aktuelle Untersuchung von NewsGuard zeigt: Der Anteil falscher Informationen in den Antworten ist massiv gestiegen. Während im August 2024 noch rund 18 Prozent der geprüften Antworten fehlerhaft waren, waren es im August 2025 bereits 35 Prozent. Statt weniger Falschmeldungen gibt es also mehr – und das, obwohl die Systeme auf dem Papier „klüger“ geworden sind.
Mehr Websuche, mehr Probleme
Ein Grund für die steigende Fehlerquote liegt im stärkeren Zugriff auf das offene Internet. Viele Chatbots nutzen heute Echtzeitsuchen, um aktueller zu wirken. Dabei greifen sie jedoch auf Quellen zurück, die nicht immer vertrauenswürdig sind: von Content-Farmen über ungesicherte Blogs bis hin zu Portalen, die gezielt Desinformation streuen. Die Modelle können diese Qualitätsschwankungen nur begrenzt einschätzen.
Die Strategie „lieber keine Antwort als eine falsche“ wurde weitgehend aufgegeben. Stattdessen liefern die Systeme nun konsequent Antworten – auch dann, wenn die zugrunde liegenden Informationen fragwürdig sind. Der Preis für die vermeintliche Aktualität ist eine deutlich höhere Anfälligkeit für falsche Inhalte.
Besonders anfällig: Politik und sensible Themen
Besonders problematisch sind Bereiche, in denen Desinformation häufig eingesetzt wird, etwa bei Wahlen, internationalen Konflikten oder Gesundheitsthemen. Hier fanden die Prüfer zahlreiche Beispiele, in denen Chatbots nachweislich falsche Behauptungen ungefiltert weitergaben. So wurde etwa eine erfundene Aussage des moldauischen Parlamentspräsidenten von mehreren Modellen als Tatsache präsentiert.
Gerade in solchen Themenfeldern wiegt die Verbreitung von Fehlinformationen schwer. Wenn Systeme, die von Millionen Menschen genutzt werden, politische Falschbehauptungen bestätigen, verstärkt das die Wirkung von Propaganda und untergräbt das Vertrauen in verlässliche Informationen.

Unterschiede zwischen den Modellen
Nicht alle Chatbots sind gleich stark betroffen. Laut NewsGuard lagen Systeme wie Inflection oder Perplexity besonders häufig daneben, während Claude oder Gemini etwas besser abschnitten. Auch Marktführer ChatGPT produzierte im Test rund 40 Prozent fehlerhafte Antworten – ein Wert, der kaum Vertrauen schafft.
Die strukturellen Schwächen sind allen gemein: KI-Modelle haben Mühe, können nicht zwischen seriösen Quellen und fragwürdigen Seiten unterscheiden. Solange sie darauf ausgelegt sind, immer eine plausible Antwort zu liefern, bleibt die Gefahr bestehen, dass Unwahrheiten ebenso überzeugend klingen wie korrekte Fakten.
Konsequenzen für Gesellschaft und Nutzer
Für Nutzerinnen und Nutzer bedeutet das: KI-Antworten sind nicht automatisch zuverlässig, auch wenn sie sprachlich souverän klingen. Das Risiko, falsche Informationen als wahr zu übernehmen, ist gestiegen. Wer sich in politischen oder gesellschaftlichen Debatten auf solche Systeme verlässt, läuft Gefahr, manipuliert zu werden.
Darüber hinaus eröffnet die Schwäche der Chatbots neue Möglichkeiten für Akteure, die gezielt Desinformation verbreiten wollen. Wenn ihre Inhalte von den Modellen aufgenommen und weiterverbreitet werden, erhalten sie eine zusätzliche Reichweite – und wirken glaubwürdiger, als sie tatsächlich sind.