Volltext-Downloads (blau) und Frontdoor-Views (grau)

ChatGPT als Recherchetool? : Fehlertypologie, technische Ursachenanalyse und hochschuldidaktische Implikationen

  • „ChatGPT may produce inaccurate information about people, places, or facts“, so warnt Open AI vor der Unzuverlässigkeit der Auskünfte, die sein Chatbot erteilt. Zu KI-Kompetenz, die heute zu den zukunftsrelevanten und berufsvorbereitenden Studienzielen gezählt wird, gehört, diese Unzuverlässigkeit einschätzen zu können. Der Beitrag bietet dazu eine Fehlertypologie und setzt sie in Bezug zur technischen Funktionsweise. Zwanzig Arten der Unzuverlässigkeit von KI-Auskünften ordnet er den drei Ursachenfeldern Trainingsmaterial, Generierungsprozess und Programmierung zu. Außerdem entwirft er ein Modell des paradoxen Mechanismus der User-Psychologie – Technikglaube vs. Eliza-Effekt – und rekurriert auf Harry Frankfurts Begriff des Unfugs („Bullshit“), der wie zugeschnitten auf KI-Auskünfte scheint. Einige der Fehlertypen, insbesondere die im Generierungsprozess selbst erzeugten, sind als unbehebbares Kernphänomen zu sehen. Im Einsatz generativer KI als Informations- und Recherchetool steckt daher ein großes und dauerhaftes Gefahrenpotenzial – für den Kompetenzaufbau im Studium, aber auch für unsere Wissensgesellschaft als Ganzes.
  • “ChatGPT may produce inaccurate information about people, places, or facts,” Open AI warns when using its chatbot. Being able to assess this unreliability is part of AI literacy, which recently became a future skill at university, understood as a precondition for future careers. The article offers an error typology, which is linked to AI’s technical functionality. Twenty categories of flaws in AI information are assigned to three fields of causative factors: training data, generation process, and programming. Additionally, a paradoxical mechanism pattern in user psychology is outlined – automation bias vs. Eliza effect –, and Harry Frankfurt’s concept of “bullshit” is introduced, which seems tailor-made for AI information. Some error types, especially those caused in the generation process itself, must be regarded as non-recoverable. The use of generative AI as an information and research tool therefore harbors a substantial and lasting risk potential – for competence development in higher education as well as for our knowledge-based society as a whole.

Export metadata

Additional Services

Search Google Scholar

Statistics

frontdoor_oas
Metadaten
Author:Monika OertnerGND
DOI:https://doi.org/10.1515/bd-2024-0042
ISSN:2194-9646
Parent Title (German):Bibliotheksdienst
Volume:2024
Publisher:de Gruyter
Place of publication:Berlin
Document Type:Article
Language:German
Year of Publication:2024
Release Date:2024/12/18
Tag:Künstliche Intelligenz; KI; ChatGPT; Schreiben; Recherche
Issue:5
First Page:259
Last Page:297
Institutes:Institut für professionelles Schreiben - IPS
DDC functional group:400 Sprache
Open Access?:Ja
Relevance:Wiss. Zeitschriftenartikel unreviewed
Licence (German):License LogoCreative Commons - CC BY - Namensnennung 4.0 International