Künstliche Intelligenz und Informationskompetenz: Über die Kunst, einen Brokkoli zu vierteln

von Lukas Tschopp

Mit dem Framework for Information Literacy for Higher Education der American Library Association (ACRL Framework) erfolgte ein Wechsel von konkreten Lernzielen bisheriger Standards hin zu einem konzeptbasierten Framework. Vor dem Hintergrund, dass Künstliche Intelligenz (KI) aktuell große Hoffnungen und ebenso große Befürchtungen weckt, ist fraglich, inwiefern diese Konzepte heute noch Gültigkeit haben. In diesem Artikel unternehme ich den Versuch, anhand des Frames „Authority is constructed and contextual“ zu zeigen, dass aus meiner Sicht das ACRL Framework weiterhin wichtig bleibt, weil es wichtige Impulse geben kann für den Umgang mit Informationen an Hochschulen.

Die Absurdität des Riz Casimir aufdecken

Eine Analogie soll verdeutlichen, worum es in diesem Frame geht. Solange das einzige Curry-Gericht, das ich kenne und das einen Hauch von Exotik versprüht, Riz Casimir (ein Klassiker der Schweizer Küche) ist, solange werde ich glauben, dass Herzkirschen in jedes Curry gehören. Das ist nicht nur bedauerlich, sondern auch ein Weckruf, beim südindischen Imbiss ein Masala Dosa zu probieren. Erst in Bezug zum Masala Dosa und dem darin enthaltenen Kartoffel-Curry wird mir die Absurdität des Riz Casimir mit seinen Herzkirschen bewusst.

Im Umgang mit KI ist die Problemlage ein ähnliche. Solange mir keine bessere Antwort untergekommen ist, gehe ich davon aus, dass stimmt, was grammatikalisch korrekt von der KI geschrieben wurde. Wie beim ersten Beispiel braucht es Kontext, um die Antwort einzuordnen. Oder um es in Bezug zum ACRL Framework herauszuarbeiten: Das kritische Denken ist das Instrument, um zu verstehen, dass das Wissen immer in einem Zusammenhang konstruiert wurde. Was heißt das jetzt, wenn ich über KI sprechen will? Es heißt, dass ich mir bewusstwerde, mit wem (genauer: mit was) ich es zu tun habe. Generative KI ist eine Technologie, die eine große Menge Daten verwendet, um daraus – dem Gesetz der Wahrscheinlichkeit folgend – Antworten zu formen. Diese Technologie produziert also Sprache, nicht Wahrheiten. Oder um beim Essen zu bleiben: Obwohl das Auge mitisst, kann die Mahlzeit scheußlich schmecken.

Russisches Roulette mit generativer KI spielen

Um das besser zu verstehen, möchte ich mich den Daten zuwenden. Sie erscheinen mir wie ein Meer – tief und unergründlich. Bei manchen Unternehmen, die generative KI-Tools entwickeln, ist nicht nachvollziehbar, was alles in diesem Datenmeer schwimmt. Ich betrachte sie mit gemischten Gefühlen. Insbesondere seit ich neulich auf Instagram ein kurzes Video gesehen habe, das eine Frau in Unterwäsche beim Vierteln eines Brokkoli zeigte. Unabhängig von der offensichtlichen Frage nach Geschlechterstereotypen, frage ich mich, was der Informationsgehalt solcher Videos ist und was KI-Systeme daraus machen, die damit trainieren. Obwohl derzeit unklar ist, ob die Verwendung solcher Daten für das Training von KI-Systemen zugelassen wird (Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter, 2024; Süddeutsche Zeitung, 2024), lässt diese Vorstellung bei mir ein flaues Gefühl im Magen entstehen.

Andererseits fasziniert es mich, was aus solchen Daten hervorgehen kann. Ich mag das Hin und Her, welches im Dialogfeld der KI entsteht, wenn ich mit Claude AI einen Entwurf für einen Textbeitrag weiterentwickle. Nur, aus meiner Sicht macht es einen bedeutenden Unterschied, ob ich im Dialog einen Text verfeinere, dessen Inhalt mir einigermaßen vertraut ist oder ob ich – das Beispiel stammt aus meinem Unterricht mit Bachelorstudierenden – die Wechselwirkung von Medikamenten in Claude AI erfrage. Letzteres ist ein hochkomplexes Thema. Jeder Körper reagiert anders auf ein einzelnes Medikament, geschweige denn auf die Kombination von zig Wirkstoffen. Einer KI-Antwort darauf zu vertrauen, ist aus meiner Sicht die neue Form des russischen Roulettes.

Lächerlich und unglaubwürdig

Womit auch ein anderes Thema angesprochen wäre. Die Welt ist komplex geworden und ich habe darin schon lange den Überblick verloren. Vielleicht ist das ein Teil der Faszination, die KI auf mich ausübt. Die Welt wird plötzlich übersichtlich, weil sie mir jemand (genauer: etwas) scheinbar erklären kann. Da kann ich darüber hinwegsehen, dass der Inhalt nur teilweise zutrifft, denn ich kann ihn immerhin lesen, mir in verdaubare Häppchen herunterbrechen lassen und plötzlich glaube ich: Ja, du hast den Dreh raus.

Meistens folgt die Desillusionierung im Verlauf. Es ist schon vorgekommen, dass ich einen Entwurf meiner Arbeitskollegin zeige und bei ihr eine Mischung aus Bedauern und Schalk ausmache. Kurz: Wenn ich die Inhalte nicht sorgfältig prüfe, mich nicht auf verlässliche Quellen abstütze, mache ich mich nicht nur lächerlich, sondern auch unglaubwürdig. Erst im Kontext, den in diesem Beispiel meine Arbeitskollegin herstellt, wird augenfällig, wie beschränkt mein Wissen ist. Womit auch verdeutlich wird, dass das Frame „Authority is constructed and contextual“ auch dann bedeutsam ist, wenn eine neue Technologie die Textproduktion verändert.

Finanzielles Engagement ohne Eigeninteressen?

Ich will damit nicht die Nutzung von KI schlechtreden. Vielmehr möchte ich verdeutlichen, was mir im Alltag allzu häufig vergessen geht: die kritische Reflexion der Inhalte. Die Frage danach, woher diese Antwort kommt.

Erst kürzlich habe ich mich näher damit beschäftigt, wer eigentlich hinter Claude AI steht. Anthropic, das Unternehmen hinter Claude AI, hat beträchtliche Investitionen von Google und Amazon erhalten. Obwohl Anthropic seine Unabhängigkeit betont, scheint mir dies fadenscheinig, wenn mehrere Hundert Millionen Dollar von Konzernen eingeschossen werden, die Profit generieren wollen.

Das bedeutet nicht, dass ich nicht diesen Text mithilfe von Claude AI weiterverarbeiten will, aber es bedeutet, wachsam und sorgsam damit zu sein, was ich wem von mir preisgebe. Und es bedeutet außerdem, dass ich mir das Ergebnis genau anschaue. Neulich erfand Claude AI ein Zitat, um eine meiner Thesen zu stützen. Ich war beunruhigt, weil keine Referenz mitgeliefert wurde.
Nach alledem, was ich jetzt geschrieben habe, meldet sich bei mir der Magen. Ich muss los, Masala Dosa essen.

Das könnte Sie auch interessieren:

Über den Autor:
Lukas Tschopp ist Liaision Librarian an der Universitätsbibliothek Zürich. Seine aktuelle Arbeit konzentriert sich auf die Vermittlung von KI Literacy. Sie finden ihn auf LinkedIn und ORCID.

Portrait: Universitätsbibliothek Zürich©, Fotograf: Benoît Pitteloud

Diesen Blogpost teilen:

Open Science Transfer

SWIB12: Das Programm ist ab sofort online Bibliotheksmanagementsystem FOLIO: Open Source auf dem Weg in den Bibliotheksalltag Linked Open Data: HBZ bringt deutsche Bibliotheken auf die Karte

View Comments

EconStor-Umfrage 2024: Hohe Nutzungszufriedenheit, aber „Luft nach oben“ beim Verständnis der Funktionsweise
Nächster Blogpost