Künstliche Intelligenz – Dem Menschen überlegen?

von Beate Seelinger

Wahrscheinlich erscheint es denkbar unpopulär, in diesen Zeiten des Krieges zwischen der Ukraine und Russland positiv und lobend über einen Russen zu schreiben. Ich möchte es jedoch dennoch wagen. Ich möchte einen gewissen Stanislaw Petrow erwähnen, einen Offizier der damaligen Sowjetarmee, dem wir viel, vielleicht alles, zu verdanken haben. Dieser Stanislaw Petrow hat vor 40 Jahren wahrscheinlich den Dritten Weltkrieg verhindert. Nichts weniger als das. Der Vorfall ist nicht weltweit bekannt – wie er es eigentlich sein sollte – und auch ich bin erst durch einen Artikel in der „Berliner Zeitung“ vom 26. September 2023 auf ihn aufmerksam geworden. Genau in der Nacht vom 25. auf den 26. September 1983 um 00.15 Uhr herum hat dieser beherzte russische Offizier uns und wahrscheinlich die ganze Welt gerettet. Und sein Kommentar zu seiner heldenhaften Tat lautete, als er Jahrzehnte später darauf angesprochen wurde, nur lapidar: „Ich wollte nicht schuld sein am Dritten Weltkrieg.“
Der Vorfall: Wie gesagt, in der Nacht vom 25. auf den 26. September 1983, um 00.15 Uhr, mitten in der kältesten Phase des Kalten Krieges, schrillte im sowjetischen Raketenabwehrzentrum Serpuchow bei Moskau der Alarm. Der Computer des satellitengestützten Systems meldete den Anflug einer amerikanischen Interkontinentalrakete. Und dies fünf Mal hintereinander!
Es war der Offizier Stanislaw Petrow, der Dienst hatte. Es blieb ihm eine halbe Stunde, zu entscheiden, wie er reagieren musste. So lange betrug die Flugzeit von Interkontinentalraketen. Er hatte unter diesem extremen Zeitdruck die Entscheidung über Leben und Tod von Millionen von Menschen zu treffen. Angriff oder Fehlalarm? Im Falle eines Angriffs hätte er unweigerlich den atomaren Gegenschlag auslösen müssen. Petrow blieb trotz fünfmaliger Alarmmeldung bei seiner Entscheidung: Fehlalarm!
Die Menschheit hat in diesem Fall unglaublich viel Glück gehabt. Es war ein Fehlalarm. Hätte der Offizier den logischen Gegenschlag ausgelöst, hätte der Dritte Weltkrieg stattgefunden.
Was oder wer würde uns jedoch in solch einer Situation retten, wenn im gegenwärtigen, neuen Kalten Krieg ein computergesteuertes System die Entscheidung zu treffen hätte, ob zurückgeschossen werden soll? Was, wenn es keine Menschen mehr wären, die über Sein oder Nichtsein dieser Welt zu entscheiden hätten? Und was, wenn ein per Künstlicher Intelligenz gesteuerter Computer dies zu tun hätte? Könnte KI uns retten?
Zunächst einmal: KI ist nicht fehlerfrei. Sie macht Fehler, manchmal lustige, die bei der Generierung einer Geschichte z. B., unterhaltsam sein können. Künstliche Intelligenz denkt sich auch einfach Dinge aus. Sie „halluziniert“, wie man es nennt. Bei ernsten Aufgabenstellungen ist dies jedoch ein Problem und nicht unterhaltsam und auch nicht lustig. Man kann das System mit mehr Informationen zwar besser trainieren, jedoch auch darauf ist nicht letztendlich Verlass. Wir merken nicht immer, wenn KI Fehler macht. Die Interaktionen wirken menschlich. Aber KI ist nicht rational. Im Gegensatz zu „normalen“ Computerprogrammen basiert KI auf einer unscharfen Logik (engl.: Fuzzy Logic). „Sie kennt kein „Ja“ oder „Nein“, sondern nur ein „Vielleicht“, genauer ein „Vielleicht“ mit Wahrscheinlichkeiten.“, (Sören Pekrul). Es handelt sich bei ihr um eine wahrscheinlichkeitsbasierte Logik. KI lernt aus Beispielen, aus einer riesigen Anzahl an Beispielen. In der Regel geht das gut und das Ergebnis ist richtig. Jedoch nicht immer. „Scharfe Logik funktioniert theoretisch fehlerfrei.“, (Sören Pekrul). Aber selbst herkömmlich programmierte Software, das wissen wir aus Erfahrung, funktioniert nicht immer ohne Fehler. Wollen wir uns solchen Entscheidungsträgern in allen Bereichen unseres Lebens aussetzen? Und wollen wir uns auf Entscheidungen, die auf eventuelle Wahrscheinlichkeiten basieren, blind verlassen?
Der Philosoph Günter Anders (1902-1992), der im Artikel der „Berliner Zeitung“ zitiert wird, hat sich über den Sachverhalt, dass es uns sozusagen unmöglich ist, uns die atomare Selbstvernichtung der Menschheit auch nur vorzustellen, und dass vor der Vorstellung der Apokalypse die menschliche Seele streikt, scharfsinnige Gedanken gemacht. „Wir können uns nicht mehr vorstellen, was wir herstellen und anstellen können!“, hat er formuliert. Unsere Vorstellungen bleiben hinter dem, was unsere Handlungen zeitigen können, zurück. Als Vorstellende sind wir hoffnungslos inkompetent. Zudem müssen wir uns in großem Maße als Nicht-Handelnde begreifen. Wir sind in den allermeisten Fällen „Zahnrädchen, eingebunden in ein gigantisches Getriebe, dessen Endeffekt wir nicht überschauen – oft gar nicht überschauen wollen!“, (Leo Ensel) Wir sind so sehr ins Detail verstrickt, dass wir nicht mehr danach fragen, ob das Endziel ethisch verantwortbar wäre. Zudem müssen wir befürchten, dass wir nicht mehr die Macht unserer Taten erkennen. Letztendlich besteht kein Unterschied zwischen dem Druck auf den Knopf einer Kaffeemaschine und den Druck auf den „Roten Knopf“. Es kommt noch schlimmer: Hyperrealistische Computersimulation lässt die Grenze zwischen Schein und Sein verschwimmen. In beiden Fällen reicht ein Knopfdruck, um die Maschinerie in Gang zu setzen. Und auch diesen wird Künstliche Intelligenz zunehmend ersetzen. Wir erkennen schlicht nicht mehr, was wir tun. Ein Knopf wirkt harmloser als eine Mordwaffe. „Die Dinge lügen“, wie Günter Anders sagt.
Gründe, das Feld ganz und gar KI und computergesteuerten Systemen zu überlassen?
Wir sehen, die Welt der Künstlichen Intelligenz und computergesteuerten Technik wächst uns geflissentlich über den Kopf, und zwar so sehr, dass die Entscheidung über Sein oder Nichtsein unserer Existenz auf Messers Schneide stehen kann, sollte ein von KI gesteuertes System Entscheidungen zu treffen haben, wie die, die Stanislaw Petrow zu treffen hatte. Eigentlich war auch für den Offizier diese Urteilsfindung zu viel, jedoch war er dennoch jeder künstlichen Intelligenz und jedem Computersystem überlegen. Weil er die FREIHEIT besaß, aus dem Programm auszuscheren, und dies wiederum, weil er Fantasie besaß, die über das an Beispielen Gelernte hinausging. Er konnte sich mit dem Mittel seiner Fantasie vorstellen, was seine Entscheidung auslösen konnte. Er konnte sich den Dritten Weltkrieg und die Auslöschung unserer Existenz VORSTELLEN. Ein beispielbasiertes System würde dies wahrscheinlich nicht können. Es gibt kein Beispiel für die Apokalypse. Stanislaw Petrow konnte sich das Endergebnis der Maschinerie, in der er selbst auch nur als Rädchen tätig war und zu entscheiden hatte, ausmalen. Er konnte auch seine SCHULD VORAUSSEHEN und er konnte seine Entscheidung BEURTEILEN. Er bediente sich seiner Kontrollinstanz, seines „Über-Ichs“ bei der Abwägung seines Urteils. KI hat keine Kontrollinstanz, die ihr ggf. halluzinatives Verhalten erkennt und managt. KI hat keine moralisch-ethische Instanz, die so etwas wie Schuld in Betracht ziehen könnte. Und Stanislaw Petrow zog aus seiner Fähigkeit zur Selbstkontrolle und aus seiner moralischen Instanz – seinem Gewissen – die Konsequenz. Er stieg aus dem Programm aus und löste den Gegenschlag nicht aus. Eine Heldentat.
Computergesteuerte Systeme und KI haben uns schon weitgehend im Griff. Bereits heute wirkt es mitunter so, als würden sie sich verselbständigen. Wir dürfen nicht zulassen, dass sie uns in den letzten Fragen beherrschen. Es gibt Bereiche, die einer bewusstseinsübersteigenden, moralisch-ethischen Beurteilung bedürfen, wie z. B. auch in der Medizin. Und es bedarf einer Kontrollinstanz im Augenblick der Entscheidung – denn um Entscheidungen geht es letztendlich immer – die zwingend zugunsten des Menschen handelt. Würde KI dies tun? „…Was aber fehlt, ist das künstliche Über-Ich, um die Impulse des künstlichen Es und des künstlichen Ichs zu kontrollieren…“ (Vinton Gray Cerf in Denis Schnur). „KI sollte mit größter Sorgfalt und Planung verwaltet werden. Es geht jedoch ein Wettlauf in der Entwicklung von KI von statten, der außer Kontrolle geraten zu sein scheint. Selbst ihre Erfinder:innen scheinen diese Entwicklung weder verstehen, vorhersagen oder kontrollieren zu können. Schon fordern selbst einige prominente Vertreter von Technologieunternehmen – Personen, die sich mit der Materie auskennen – in einem offenen Brief einen sofortigen Stopp der Entwicklung von Künstlicher Intelligenz mit Fähigkeiten, die über GPT-4 hinausgehen und konstatieren darin, dass …KI-Systeme mit einer Menschen ebenbürtigen Intelligenz (…) tiefgreifende Risiken für die Gesellschaft und für die Menschheit darstellen (können) …“. (sinngemäß aus: Sören Pekrul). Wir sollten nicht zulassen, dass uns existentielle Entscheidungen und hochsensible Handlungsbereiche aus der Hand genommen werden. Auch Menschen machen Fehler – wie wahr – jedoch sie können auch über sich hinauswachsen, weil sie frei und verantwortungsvoll handeln können und in Sternstunden, wie Stanislaw Petrow, z. B. die Menschheit retten. Dabei spielt mehr mit, als ein erlerntes Programm. Und diese Chance sollten wir uns zu unser aller Heil nicht nehmen.

Quellen dieses Textes:
Leo Ensel, „Ein Held des Atomzeitalters“, Berliner Zeitung, 26. September 2023
Denis Schnur, „Der Künstlichen Intelligenz fehlt eine Kontrollinstanz – ein Über-Ich“, Rhein-Neckar-Zeitung, 28. September 2023
Sören Pekrul, „Nimmt die KI uns die Arbeitsplätze weg?“, www.klassegegenklasse.org/nimmt-die-ki-uns-die-arbeitsplätze-weg/, 23. April 2023