So verkündete der damals amtierende Papst Silvester II., dass um Mitternacht des 31. Dezember 999 die Welt untergehen würde. Das Jahr 1532 war das erste Jahr, in dem Martin Luther die Welt untergehen liess. Diese Weissagung erfüllte sich ebenso wenig wie zwei weitere des Reformers. Auch der Mayakalender, der den Weltuntergang immerhin erst auf 2012 datierte, lag daneben. Nichts Gutes verkündete der Club of Rome. In seinem Bericht «Die Grenzen des Wachstums» wähnte er die Welt kurz vor einer Katastrophe und irrte mit seinen Annahmen.
Die digitale Transformation erschafft nun ihr ganz eigenes Horrorszenario. Das zeigt zwar nicht den Weltuntergang, jedoch den der Menschheit. Bedrohlicher noch als der Klimawandel sei die Entwicklung der künstlichen Intelligenz (KI). «Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmasses sein, wie etwa Pandemien und Atomkrieg», fordert etwa das Center for AI Safety, das Zentrum für KI-Sicherheit. Die Warner vor den Gefahren der künstlichen Intelligenz sind keine religiösen Spinner oder weltfremde Wissenschaftler, wie Geoffrey Hinton zeigt, einer der führenden Wissenschaftler im maschinellen Lernen, der von seiner Position bei der Google-Mutter Alphabet zurücktrat, weil er sich offen zu den Risiken der Technologie äussern möchte.
Wie realistisch die Auslöschung der Menschheit durch KI ist, kann uns vielleicht ChatGPT selbst beantworten: «Künstliche Intelligenz kann für den Menschen gefährlich sein, wenn sie unethisch oder unverantwortlich entwickelt oder eingesetzt wird. Zum Beispiel könnten KI-Systeme, die für militärische Zwecke entwickelt wurden, potenziell tödliche Waffen einsetzen. Ebenso könnten KI-Systeme, die für die Überwachung von Menschen eingesetzt werden, die Privatsphäre und Freiheit der Menschen beeinträchtigen.» Das Fehlen ethischer Richtlinien und rechtlicher Rahmenbedingungen, um sicherzustellen, dass die Systeme sicher verwendet werden können, ist allerdings ein grosses Problem. KI ist zudem nicht nur anfällig für Hackerangriffe und andere Manipulationen. So sind die KI-Autoren, oft in sensiblen Kontexten wie Gesundheitswesen, Strafverfolgung und Bildung eingesetzt, mitunter sicher frei von Neutralität. Die Frage ist daher berechtigt, wann der Kipppunkt erreicht ist, an dem KI weniger nutzt, als eine Gefahr darstellt.
P.S.: Mehr zum Thema künstliche Intelligenz in der Ausgabe Nr. 06/2023.