Täglich wird es deutlicher: nicht nur die neuesten Waffen, auch und vor allem die neue Dialogmaschine ChatbotGPT hat sich wie ein Sandsturm über die Geisteswelt verbreitet. Überall knirscht es, überall versucht man, es entweder loszuwerden oder in Dienst zu nehmen. Gestern in der NYT ein hoch besorgter Artikel von David E. Sanger, dem langjährigen Beobachter der US-Militärszene in Washington. Muss man fürchten, dass GPT sich zur autonomen Killermaschine entwickelt, ohne dem Menschen noch zu gehorchen? Muss man fürchten, dass AI entscheiden will, wann eine Atombombe wohin geworfen wird? Wie verhalten sich die feindlichen Großmächte Russland, Amerika und China in dieser Fortsetzung des „Great Game“? Die Hauptsorge der US Militärs ist aber die Geschwindigkeit, mit der die autonomen Systeme entscheiden und handeln. Diese Schnelligkeit ist für Menschen unerreichbar. Eine Konsequenz wäre, in sämtliche Waffensysteme weniger Software einzubauen. Weniger Chips würden auch weniger Chip-Produzenten bedeuten. Aber bis man soweit ist – was kann geschehen? Noch weiss man nicht, warum unlängst eine Drohne über dem Kreml kreisen konnte, trotz stärkster Abwehrmassnahmen.