In Anbetracht der zunehmenden Verbreitung von Fake News und der Etablierung von generativer Künstlicher Intelligenz (KI) als Recherchetool und Informationsmedium untersucht diese Arbeit, wie Nutzer*Innen mit KI interagieren und was zu Vertrauen in die KI-Antwort führt.
Als theoretischer Rahmen dienen die Modelle TIME (Sundar et al., 2015) und HAII-TIME (Sundar, 2020), welche die psychologische Verarbeitung von Interface-Merkmalen modellieren und die Aushandlung von Handlungsmacht zwischen Mensch und KI thematisieren. Das Ziel der Studie ist die Identifikation wahrgenommener Cues und genutzter Affordanzen, sowie die Analyse
von Mustern in der Vertrauensbildung und der Verhandlung von Delegationsgrenzen.
Zur Beantwortung der Forschungsfragen wurden sechs qualitative Leitfadeninterviews mit regelmäßigen KI-Nutzer*Innen durchgeführt, jeweils gestützt durch eine praktische Aufgabe. Diese bestand aus vorgegebenen Nachrichten, die mit Hilfe des KI-Modells Perplexity auf ihre Glaubwürdigkeit überprüft werden sollten. Ausgewertet wurden im Rahmen einer qualitativen
Inhaltsanalyse die transkribierten Audioaufnahmen der Interviews, sowie Think-Aloud-Aufnahmen und Screenrecordings der praktischen Aufgabe.
Die Ergebnisse zeigen, dass wahrgenommene Cues, insbesondere Quellen- und Transparenz Cues das Vertrauen in die KI prägen. Ausschlaggebend bei Quellen Cues ist die oberflächliche Qualitätsbewertung der Quellen, die sich auf die Glaubwürdigkeitsbewertung der KI-Antwort überträgt. Transparenz Cues hingegen stärken generell das Vertrauen in die KI, während Sprachliche Cues die Nutzererfahrung verbessern aber nur in Nuancen eine Rolle bei der Glaubwürdigkeitsbewertung spielen. Die Nutzung von Affordanzen findet meist reaktiv bei Unzufriedenheit mit der vorgelagerten KI-Antwort statt und erhöht das Sicherheitsgefühl der Anwender*Innen bei der Informationsprüfung.
Eine Vertrauensbildung ist hierbei vom Ergebnis der Interaktion abhängig. KI wird von den Teilnehmenden überwiegend als effizientes Werkzeug betrachtet, Rechercheaufgaben werden dabei vollständig an die KI abgegeben, die finale Entscheidungsgewalt behält die Mehrheit jedoch bewusst bei sich. Die Bereitschaft zur Delegation von Aufgaben und die Abgabe von Handlungsmacht sinkt mit steigender persönlicher Relevanz des Ergebnisses.
Die Arbeit bestätigt den Kernmechanismus der genutzten Modelle, zeigt jedoch, dass sie in Abhängigkeit des Forschungsobjektes angepasst werden müssen.
Die Erkenntnisse unterstreichen, dass der Mehrwert von generativer KI im Fake-News-Kontext abhängig von der Fähigkeit der Nutzer*Innen ist, KI-Antworten kritisch zu hinterfragen sowie von einem System-Design, das eine kritische Interaktion unterstützt.