Können KI-generierte Antworten falsch sein oder „halluzinierte“ Informationen enthalten?

Geändert am Fr, 7 Mär um 4:24 NACHMITTAGS

Ja, aber nur in seltenen Fällen. Die KI-Funktionen von MAXQDA stützen sich in erster Linie auf die von Ihnen bereitgestellten Daten und nicht auf das inhärente Wissen der Large Language Models (LLMs). Dadurch wird das Risiko von „Halluzinationen“, d.h. der Generierung falscher Informationen, deutlich reduziert. Tatsächlich sind Nutzer:innen positiv davon überrascht, wie zuverlässig MAXQDAs AI Assist Halluzinationen vermeidet: 


„Angesichts vieler früherer Beispiele für den Einsatz von KI-Chatbots wie Bard, ChatGPT usw. waren wir überrascht, dass wir bei AI Assist keine Anzeichen von Halluzinationen feststellen konnten. Wo wir dachten, dass die KI falsche Antworten gegeben hat, fanden wir bei unserer Validierung keine Fälle, in denen AI Assist halluzinierte.“ (Loxton, 2024, S. 30) 


Halluzinationen können jedoch auftreten, wenn die Anfragen über die analysierten Daten hinausgehen, z. B. bei Fragen nach nicht in den Daten vorhandenen Theorien oder Literaturhinweisen. Auch bei der Generierung von Subcode-Vorschlägen für Codes mit wenigen codierten Segmenten können die Vorschläge über die Segmentinhalte hinausgehen. 


Generell gilt: Wenn sich Ihre KI-Anfragen auf Ihre klar definierten Daten beziehen und Ihre Anfragen präzise gestellt sind, ist die Wahrscheinlichkeit falscher Ergebnisse minimal. 


War dieser Artikel hilfreich?

Das ist großartig!

Vielen Dank für das Feedback

Leider konnten wir nicht helfen

Vielen Dank für das Feedback

Wie können wir diesen Artikel verbessern?

Wählen Sie wenigstens einen der Gründe aus
CAPTCHA-Verifikation ist erforderlich.

Feedback gesendet

Wir wissen Ihre Bemühungen zu schätzen und werden versuchen, den Artikel zu korrigieren