Ja, aber nur in seltenen Fällen. Die KI-Funktionen von MAXQDA stützen sich in erster Linie auf die von Ihnen bereitgestellten Daten und nicht auf das inhärente Wissen der Large Language Models (LLMs). Dadurch wird das Risiko von „Halluzinationen“, d.h. der Generierung falscher Informationen, deutlich reduziert. Tatsächlich sind Nutzer:innen positiv davon überrascht, wie zuverlässig MAXQDAs AI Assist Halluzinationen vermeidet:
„Angesichts vieler früherer Beispiele für den Einsatz von KI-Chatbots wie Bard, ChatGPT usw. waren wir überrascht, dass wir bei AI Assist keine Anzeichen von Halluzinationen feststellen konnten. Wo wir dachten, dass die KI falsche Antworten gegeben hat, fanden wir bei unserer Validierung keine Fälle, in denen AI Assist halluzinierte.“ (Loxton, 2024, S. 30)
Halluzinationen können jedoch auftreten, wenn die Anfragen über die analysierten Daten hinausgehen, z. B. bei Fragen nach nicht in den Daten vorhandenen Theorien oder Literaturhinweisen. Auch bei der Generierung von Subcode-Vorschlägen für Codes mit wenigen codierten Segmenten können die Vorschläge über die Segmentinhalte hinausgehen.
Generell gilt: Wenn sich Ihre KI-Anfragen auf Ihre klar definierten Daten beziehen und Ihre Anfragen präzise gestellt sind, ist die Wahrscheinlichkeit falscher Ergebnisse minimal.
War dieser Artikel hilfreich?
Das ist großartig!
Vielen Dank für das Feedback
Leider konnten wir nicht helfen
Vielen Dank für das Feedback
Feedback gesendet
Wir wissen Ihre Bemühungen zu schätzen und werden versuchen, den Artikel zu korrigieren