Seit Wochen tobt durch die Welt der Medien das Werkzeug ChatbotGPT: der praktisch jede Frage beantworten kann, inzwischen auch Witze macht, Korrekturen anbringt, Sachfragen erörtert, Referate, Artikel, Gutachten schreiben kann u.v.a. Geradezu gespenstisch wirkt seine Begabung in visueller Prosa: es kann Bilder hochauflösend beschreiben, aber beschriebene Bilder auch selber herstellen; und gibt man ihm Fotos vom offenen Kühlschrank, schreibt er Rezepte für hilflose Köch*innen. Nicht nur die Journalisten, die Unternehmer, die Werbefirmen, auch die Bildungsfunktionäre erliegen nach und nach dem Charme: Lehrer*innen, Professor*innen, Staatssekretär’innen erwägen den Einsatz, denn eine der praktischsten Funktionen ist die Fähigkeit zum Resümieren ganzer Bücher, jedenfalls langer Texte. Alle Welt könnte ZEIT sparen! und die gewonnene für die Lebenswelt nutzen: Kunst- und Musik, Sport, Kinder- und Krankenpflege, soziale Rituale aller Art. Natürlich soll das Werkzeug noch hassfrei, lügenfrei, etc. werden; doch bisher kann es noch nicht immer zwischen wahr und falsch unterscheiden. Kann es also unversehens Lügen auftischen. Es ist noch in B-Version. Wie harmlos klingt die Beschreíbung der Macher: We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer follow-up questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.