oder Datenanalysen, besser geeignet sein als für andere, wie die Auswertung von Bildern und Videos. da wir davon ausgehen, dass die eine Fähigkeit auch die andere impliziert. Die besonderen Leistungsmerkmale eines Tools sind für die Nutzenden nicht einfach zu identifizieren. Zwar gibt es Ranglis- ten, die eine Orientierung zu den verschiedenen Facetten der Sprachmodelle bieten, aber diese ändern sich durch die fort- schreitende Entwicklung schnell und unterscheiden sich je nach den spezifischen Anforderungen eines Anwendungsfalls. Es kann aber, wie in anderen Softwareanwendungen auch, davon ausgegangen werden, dass nach einer Phase hektischer Aktivi- täten von Marktanbietern, sich recht schnell eine Konsolidierung einstellen wird, bei der lediglich wenige Anbieter und Produkte übrigbleiben. Auch ist davon auszugehen, dass diese KI-Tools in kurzer Zeit einfach Bestandteil vorliegender Anwendungen sein werden, und gar nicht mehr als eigenständige Produkte erlebt werden. Eine kritische Haltung gegenüber den LLM-basierten und hybri- den Suchwerkezeugen bleibt wichtig, insbesondere in Feldern, die eine hohe Genauigkeit erfordern. Bisherige Ansätze der Infor- mationsaufbereitung im Internet erfolgten durch Mechanismen der Verschlagwortung, Indexierung und Katalogisierung von Fundstellen. Auch wenn der Algorithmus der Suchmaschinen als Betriebsgeheimnis verborgen bleibt, so war der grundlegende Prozess der Bereitstellung von Fundstellen für die Nutzenden eher nachvollziehbar als die Art von Informationsverarbeitung, die beim Training und Output eines KI-Tools auf der Basis eines großen Sprachmodells stattfindet. Für die Nutzenden bleibt es schwierig nachzuvollziehen, welche Informationen nun tatsächlich vom LLM erzeugt sind und welche Informationen auf Fundstellen basieren. Dabei haben bereits 71% der Befragten in einer Allensbach-Studie (2024) angegeben, KI schon als „Google-Ersatz“ genutzt zu haben. Es besteht daher die Frage, wie ein passender Umgang mit dieser Technologie aussieht und Informationskompetenz entwickelt werden kann. Ein Aspekt dieser Kompetenz wird darin bestehen, einzuschätzen, welche Fragen sich durch LLM-basierte Systeme gut beantworten lassen und welche eher schlecht geeignet sind. Ethan Mollick (2024) spricht in Bezug auf Fähigkeiten im Um- gang mit KI von einer „jagged frontier“, also einer ungleichmä- ßigen Grenze: Während generative KI manche Dinge gut kann, wie beispielsweise Sonette schreiben, kann sie scheinbar sehr ähnliche Dinge weniger gut, wie beispielsweise Texte zuverlässig auf einem bestimmten Sprachniveau verfassen. In diesem Sinne können aktuelle „Deep Research“-Modelle manche Quellen zu einer passablen Synthese zusammenfassen. Es fällt ihnen dage- gen schwerer, eine (für Menschen) einfacher scheinende Aufga- be zu erledigen, etwa eine Liste aller Anbieter eines Bachelors in Bibliothekswissenschaft zu generieren. Dies ist kontraintuitiv, Insgesamt beinhaltet Informationskompetenz auch, sich mit den grundlegenden Problemen der KI-basierten Wissensbereitstel- lung in unserer Gesellschaft auseinanderzusetzen. Dies betrifft etwa die Trainingsdaten, auf denen LLM basieren, und die damit zusammenhängende Frage, inwiefern welche Quellen zugäng- lich und verwertet werden können. Für die Wissenschaft wäre etwa zu bedenken, dass KI-Modellen der Zugriff auf Fachbeiträ- ge verwehrt ist, die nicht unter einer Open-Access-Vereinbarung publiziert sind. Ein Verlag wird die ungefragte Ausschöpfung der Inhalte seiner Urheber verhindern wollen. Quellen, die hinter einer Paywall liegen, wie Zeitungsartikel, können nicht von den KI-Modellen verarbeitet werden, wenn keine Vereinbarungen zur Kooperation bzw. zur Monetarisierung bestehen. Das schränkt den Suchraum für KI-Recherche ein. Der Axel Springer Verlag hat 2023 etwa einen Vertrag mit OpenAI geschlossen, sodass ChatGPT auf deren Zeitungsartikel Zugriff hat und diese auch verlinkt (Weiß, 2023). Ebenso denkbar wäre es, dass Verlage KI-Assistenten entwickeln, die „Deep Research“ dann (nur) für eigene Datenbestände ermöglichen, um so einen Zusatznut- zen für ihre Kunden und Kundinnen zu erzeugen. Die Frage, mit welchen Quellen das Training der KI-Modelle stattfindet, wird relevant bleiben, da hochwertiges Ausgangsmaterial die aussichtsreichste Chance bietet, die Qualität des KI-Output zu steigern und damit die Leistungsfähigkeit eines KI-Tools. Gleichzeitig werden KI-Systeme gezielt mit Webseiten „gefüttert”, die mit einer bestimmten, z.B. politischen Intention durch KI-ba- sierte Bots in Massen in das Internet eingespeist werden. Diese Seiten haben das einzige Ziel, als Trainingsdaten die Sprachmo- delle inhaltlich zu beeinflussen und so verfügbare Informationen und Sichten zu manipulieren. So lässt sich über die trainierten Sprachmodelle die öffentliche Meinung relativ einfach – auch aus dem Ausland – beeinflussen. Auf der einen Seite bleiben somit viele, hochwertige Quellen als Ausgangsmaterial für das Training der Sprachmodelle verborgen. Auf der anderen Seite wird das Internet mit Millionen von Web- seiten geflutet, die Propaganda verbreiten und die Antworten der KI-Tools beeinflussen. Information im Internet wird damit für das Individuum im Grunde immer schwerer zu bewerten und die individuelle Informationskompetenz stößt an ihre Grenzen. Deswegen bedarf es gesellschaftlicher Regularien, wie Informati- onen in KI-Modellen generiert und bereitgestellt werden. Auch in der Welt analog bereitgestellter Information haben Gesellschaften umfangreiche Strukturen und Prozesse über Jahr- hunderte herausgearbeitet, wie sie Information vorhalten und tradieren und die Informationsbereitstellung über Medien regu- lieren. Presse und Rundfunk, Bibliotheken und Museen, Archive 38 / 39