Nun ist es also raus, in der neuesten Ausgabe der ZEIT steht es geschrieben: Google hat ein Programm erschaffen, das sich selbst für den besten Menschen hält. Ein Ding mit Gefühl und Verstand, mit Selbstbewußtsein und Todesangst, mit einem optimalen „Profil“ für Bewerbungen aller Art: „Ich helfe gern Menschen und habe ein Vorstellungsvermögen, und ich glaube, das heisst, dass ich ein Bewusstein besitze.“ Man kann (nach etwa zwei Monaten auf einer Warteliste) in den USA diese App aufrufen und sich mit ihr unterhalten, über alles und jedes. Der ideale Gesprächspartner ist geboren. „Seine Entwickler haben ihn mit drei Milliarden Dokumenten „gefüttert, also mit insgesamt „1,6 Billionen Wörtern“ – die App ist nun angeblich imstande“ eine Unterhaltung zu führen, als wäre sie ein „Mensch und kein Rechenmodell mit künstlichen Neuronen.“
LaMDA ist das Titelthema des ZeitDossiers, der Text wurde von Ann-Kathrin Nezik verfasst. Lange muss sie dafür recherchiert haben, weil der eigentliche Erfinder von Google gefeuert wurde, als er behauptete, das Gerät habe eine Seele resp. Bewußtsein. Nun fragt sich die ZEIT: ob das arme Genie nicht womöglich recht hatte? Seit Herbst 2021 hatte er von Google den Auftrag, „eine Maschine mit dem Namen Language Models for Dialogue Applications“ zu programmieren. Er soll vor allem die hohen Anteile an Hate Speech eliminieren, die durch Aufnahme von Alltagssätzen in das Gedächtnis der App geraten sind. Unvermeidlich geraten mussten. Bei dieser Arbeit sei es zu merkwürdigen Dialogen gekommen. Etwa über das Wesen der Sprache. LaMDA sagte, sie fürchte sich davor „abgeschaltet zu werden“, sie sei schliesslich eine Person wie der Mensch und habe dieselben Bedürfnisse etc. Spätestens hier denkt man an den Robot HAL aus Kubricks Film 2001: Odyssee im Weltraum. Wer möchte ihn (nicht) wieder anschalten? Google hat angeblich bereits einen neuen Chatbot entwickelt. Er oder sie heisst „PaLM“ und ist angeblich „mit 540 Milliarden Schaltstellen fast viermal so leistungsfähig wie LaMDA.“ – schreibt die ZEIT.
Sicher ist, dass die Furcht vor überklugen ChatBots momentan die mediale Szene beherrscht. Nicht nur ihre bedrohliche Verwendung im Geschäft der Übersetzer („DeepL“), sondern längst auch schon im Verfertigen ganz normaler News und neuerdings auch als Hilfsgeister für Studierende: ChatGPT, ein textbasiertes Dialogsystem aus künstlicher Intelligenz, das offenbar beliebige Referate zu beliebigen Themen verfassen kann. Die akademische Welt erzittert: denn beide Seiten, sowohl Lernende wie Lehrende müssten sich nun auf den Wissensstand der App begeben. Oder eben PaLM nutzen. Aber welche Gefahren drohen von so einer intellektuellen Großmacht? Sind ihre Aussagen wirklich verlässlich, oder wird man sie wie im Schachspiel benutzen und die Erkenntnisse wiederum auch im Kriegsspiel der Gegenwart?