Zuverlässigkeit von ChatGPT, Copilot und Gemini im Fokus
Einführende Überlegungen zur Nutzung von KI
Die Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) sind vielfältig, und die Gründe, warum Menschen KI-Systeme befragen, sind ebenso unterschiedlich. Einige Nutzer suchen unterhaltsame Inhalte, wie etwa amüsante Trendbilder oder touristische Tipps für bevorstehende Urlaubsreisen. Diese Anliegen sind in der Regel von unverbindlicher Natur. Auf der anderen Seite gibt es jedoch auch Nutzer, die ernste und sensible Themen ansprechen, darunter Fragen zu Gesundheit, Versicherungen, wissenschaftlichen Recherchen oder persönliche Ratschläge. In diesen Bereichen ist es kritisch, dass die gelieferten Informationen verlässlich sind, da falsches Wissen zu gravierenden Fehlentscheidungen führen kann. Ungeachtet der potenziellen Risiken vertrauen viele Menschen den Antworten, die ihnen von KI-Systemen angeboten werden, oft blind.
Die Zuverlässigkeit von KI-Chatbots: Eine kritische Einschätzung
Eine aktuelle Studie der Europäischen Rundfunkunion untersucht die Verlässlichkeit beliebter KI-Systeme. Die Untersuchung fokussiert sich auf die Qualität der Antworten zu politischen Themen und historischen Ereignissen. Die Ergebnisse der Studie zeigen, dass das Vertrauen in diese Technologien möglicherweise unbegründet ist. Fast drei Viertel der geprüften Antworten erwiesen sich als mangelhaft. Besonders gravierend waren die Ergebnisse der KI Gemini von Google, die in vielen Fällen fehlerhafte Informationen lieferte. Auch andere Systeme schnitten nicht besser ab: Der KI-Chatbot Copilot lieferte 37 Prozent fehlerhafte Antworten, ChatGPT hatte eine Fehlerquote von 36 Prozent, während Perplexity bei 30 Prozent lag. Diese Zahlen werfen ernsthafte Fragen zur Zuverlässigkeit von KI-gestützten Informationen auf.
Kritische Analyse der Fehlerquellen in KI-Antworten
Der durchschnittliche Fehleranteil bedeutet, dass fast jede zweite Antwort eines KI-Chatbots inhaltlich inkorrekt ist. Die Probleme sind vielfältig: fehlende oder unzuverlässige Quellen, veraltete Informationen und mangelnder Kontext sind die häufigsten Gründe für die Ungenauigkeiten. Ein prägnantes Beispiel verdeutlicht die Problematik: Als die KI nach dem aktuellen Papst gefragt wurde, kamen alle getesteten Systeme zu dem falschen Schluss, dass Papst Franziskus noch im Amt sei, obwohl er zu diesem Zeitpunkt bereits verstorben war. Zudem zeigen die Systeme eine beunruhigende Tendenz, ihre Antworten mit hoher Überzeugung zu präsentieren, ohne auf Unsicherheiten hinzuweisen. Bei einer Untersuchung von 3.000 Anfragen wurden lediglich 17 nicht beantwortet, was ein trügerisches Gefühl von Vertrauen und Sicherheit vermittelt. Nutzer nehmen oft nicht wahr, dass KI-Systeme möglicherweise mindestens ebenso viele falsche Informationen produzieren wie sie verbreiten.
Die Gefahren des unkritischen Vertrauens in KI
Trotz der festgestellten Mängel bleibt das Vertrauen in KI-gestützte Antworten auf einem hohen Niveau. Über ein Drittel der Erwachsenen gibt an, den Resultaten von KI-Systemen zu vertrauen, und ChatGPT wird wöchentlich von mehr als 800 Millionen Nutzern verwendet. Diese Zahlen sind alarmierend, da sie darauf hindeuten, dass Entscheidungen, wie etwa Wahlentscheidungen, aufgrund ungenauer Informationen getroffen werden könnten. Es ist bemerkenswert, dass viele KI-Systeme die Qualität ihrer Quellen nicht kritisch hinterfragen. Fragen nach der Fähigkeit der KI, Fake News zu erkennen, werfen zusätzliche Bedenken auf. Einige Studien deuten darauf hin, dass KI nicht nur bestehende Falschinformationen reproduziert, sondern möglicherweise auch neue generiert. Daher ist es umso wichtiger, die Ausgaben dieser Systeme kritisch zu hinterfragen.
Fazit: Bewusstsein schaffen und kritisch bleiben
Trotz der potenziellen Vorteile, die KI-Technologien in vielen Bereichen bieten, ist es entscheidend, ihre Antworten nicht blind zu akzeptieren. Eine kritische Auseinandersetzung mit den gelieferten Informationen ist besonders wichtig, insbesondere wenn es um Entscheidungen von erheblichem Gewicht geht. Nutzer sollten sich der Schwächen bewusst sein, die mit KI-generierten Antworten verbunden sind, und diese Technologien als Hilfsmittel betrachten, deren Informationen stets überprüft werden sollten.

