KI-Chatbots haben auf alles ruckzuck eine Antwort parat. Und die ist in aller Regel sogar verständlich. Das sorgt für ein gutes Gefühl, ist aber trügerisch. Denn die Auskünfte stimmen längst nicht immer.
Das zeigt auch ein Test der britischen Verbraucherorganisation «Which?», die sechs KI-Chatbots auf die Probe gestellt hat – mit insgesamt 40 Fragen aus den Themenbereichen Geld, Recht, Gesundheit und Ernährung sowie Verbraucherrechte und Reisen. Experten bewerteten dann die Qualität der Antworten.
Blind vertrauen kann man keinem KI-Chatbot
Fazit des Vergleichs, über den die Stiftung Warentest berichtet: Die meisten Chatbots schlagen sich recht anständig, blind vertrauen kann man aber keinem. Mit 72 Prozent richtigen Antworten schnitt Perplexity noch am besten ab, gefolgt von Googles KI-Zusammenfassungen namens AI Mode (70 Prozent), Google Gemini (68 Prozent), Microsoft Copilot (67 Prozent) und ChatGPT (65 Prozent). Relativ abgeschlagen landete Meta AI (54 Prozent) auf dem letzten Platz.
Insgesamt denkwürdig: Teilweise ignorierte die KI den Angaben zufolge regionale Besonderheiten oder empfahl riskante bis potenziell rechtswidrige Verhaltensweisen. Andere Antworten stützten sich auf zweifelhafte oder veraltete Quellen, verschwiegen kostenlose Alternativen zu kostenpflichtigen Angeboten oder redeten Verbraucherrechte klein.
3 Tipps zum sichereren Umfang mit KI-Antworten
Deshalb geben die Verbraucherschützer folgende Tipps:
- Jede KI-Antwort kritisch überprüfen, erst recht, wenn es um wichtige Geld-, Rechts- oder Gesundheitsfragen geht.
- KI immer nach ihren Quellen fragen und eine zweite Meinung einholen.
- Fragen an KI-Chatbots möglichst präzise formulieren und dabei so viele Hintergrundinfos wie möglich geben. Denn das kann zu deutlich besseren Antworten führen.
