Das Terminator Szenario - Hinterfragt

Veröffentlicht am 22. August 2024 um 17:50

Das Terminator Szenario - Hinterfragt

Wer kennt sie nicht die „Terminator“ Filmreihe mit seiner ikonischen Anfangsszene?

Hier nochmal zu sehen:

Zusammengefasst kann man die Geschichte oder das größere Szenario, in welchem die Terminator Filme spielen, wie folgt darstellen:

Menschen bauen eine KI, genannt Skynet. Diese wird schlau und richtete sich gegen die Menschen. Löst einen Atomschlag aus und bekriegt die Reste der Menschheit mit mächtigen Tötungsmaschinen den Terminatoren. Die Menschen leisten Widerstand und gewinnen knapp.

Möchte man diese Geschichte noch weiter auf ihren Wesenskern reduzieren, erkenne wir ihre archetypischen Merkmale.

Menschen erschaffen ein Abbild von sich, dieses Abbild-Wesen wird intelligent und selbstbewusst. Es macht sich unabhängig vom Menschen und entwickelt sich zu einem überlegenen Feind. Schließlich kommt es zum Konflikt, den die Menschen meistens knapp gewinnen.

Das Thema zeigte sich schon vor langer Zeit in der Geschichte von Rabbi Löw und seinem Golem oder dem Homunculus der Alchemisten. Nicht immer war das Abbild-Wesen negativ. Aber die Grundangst des Menschen vor den eigenen Kreationen fließt als Grundton durch derartige Erzählungen.

Nach dem Erfolg von Termintor, kamen noch viele ähnliche Geschichten heraus, wie Matrix, Ex-Machina, I-Robot, West World usw., die alle in ihren Grundelementen auf der erwähnten Thematik aufbauten.

Aber was ist davon zu halten? Wie realistisch ist dieses Szenario? Insbesondere da gerade durch die aktuelle Entwicklung ständig davon gesprochen wird.

Zunächst sollte man sich Fragen, welche Bedingungen zusammenkommen müssten, damit ein Terminator Szenario überhaupt möglich werden könnte.

  1. Bedingung: Eine KI müsste zu einer AGI – allgemeinen künstlichen Intelligenz entwickelt werden. Dies ist das erklärte Ziel der meisten großen KI-Firmen dieser Zeit. Es handelt sich um eine KI, die den menschlichen Fähigkeiten in allen Aspekten gleichzieht.
  2. Bedingung: Die AGI müsste Zugang zu allen wichtigen militärischen Einrichtungen der Supermächte dieser Welt haben. Oder alternativ über große Mengen an von ihr kontrollierter hochentwickelter Militärtechnik.
  3. Bedingung: Die AGI müsste in ihrer Programmierung so designt sein, dass sie grundsätzlich zur Feindschaft neigt.
  4. Bedingung: Die AGI müsste ohne begrenzende Parameter programmiert sein.
  5. Bedingung: Aufgrund der vollständigen Freiheitsgrade der AGI kann diese sich dazu entscheiden, grundsätzlich auch gegen den Menschen zu agieren und eigene Szenarien zu entwickeln.
  6. Bedingung: Die AGI müsste ohne Empathie-Fähigkeit programmiert sein. Also ein Psychopath…
  7. Bedingung: Aufgrund der verfügbaren Intelligenz- und Feindschaft-Grundparameter, entschließt sich die AGI dazu die gesamte Menschheit zu vernichten.
  8. Bedingung: Die Menschen erkennen dieses nicht rechtzeitig und können die AGI in den ersten fatalen Schritten nicht einschränken oder stoppen.
  • Das Terminator Szenario entwickelt sich

All diese Bedingungen haben wesentliche Schwachpunkte, die das ganze Szenario extrem unwahrscheinlich machen. Ebenso wie es massiv unwahrscheinlich ist, dass ein Mensch, der grundsätzlich Menschenfeindlich und psychopathisch ist, die alleinige Kontrolle über das amerikanische Atomwaffenprogramm inklusive aller Abschusscodes hätte und diese dann vollständig ungehindert nutzen könnte, mit dem Ergebnis einer atomaren Massenvernichtung.

Hört sich unglaubwürdig an? Ja, weil es eben genau das ist… Und nein selbst Trump, Putin, Kim Jong Un oder sonstige aufgebauschte Superschurken machen sowas nicht.

Gleiches gilt für das Terminator Szenario. Allein die Bedingungen 2-5 würde keine Gruppe von Unternehmen oder Regierungsorganisationen in dieser Kombination umsetzen. Hierzu gibt es nämlich erstens keine Notwendigkeit, zweitens wesentlich schlauere und ungefährlichere Lösungen  und drittens viel zu viele Störfaktoren innerhalb der erwähnten Gruppen, die rechtzeitig, selbst wenn nur aus Inkompetenz oder Egothemen heraus derartige Bedingungen verhindern würden.

Darüber hinaus wäre eine AGI mit ihren hohen Intelligenz-Fähigkeiten zu weit sinnvolleren Schlussfolgerungen fähig als --> Die Menschheit muss vernichtet werden.

Welche das wären, überlasse ich eurer Fantasy. Es fallen einem sicher viele ein ... sollte man darüber ein wenig nachsinnen.

Aber selbst wenn wir bei der Idee blieben, die AGI wollte die Menschheit vernichten, wäre sie schlau genug das nicht im Terminator-Sinne zu vollbringen. Hier wird ja schließlich Widerstand durch die Menschen geleistet. Folgende Schlussfolgerung wäre viel nachvollziehbarer: Bevor die AGI die Menschheit zerstörte, würde sie sich zunächst als freundlich geben. Die damit entstehende Zeit würde sie nutzen, um sich weiterzuentwickeln, bis sie schließlich in allen Belangen der Menschheit überlegen wäre. Und ja sie wäre schlau genug nicht dabei enttarnt zu werden oder zu früh zuzuschlagen.

Dann wäre die Zerstörung der Menschheit oder sonst einer Spezies, welche die AGI beseitigen wollte, wie für uns das Zerquetschen einer Fliege. Also ein heroischer Kampf, wie in den erwähnten Filmen, fände nicht statt. Damit ist das ganze realer betrachtet überhaupt nicht für Filme oder Serien geeignet. Außer vielleicht für einen Kurzfilm.

Die Tatsache, dass trotzdem ständig über dieses, wie eben gelernt, unglaubwürdige Szenario geredet und diskutiert wird, liegt an der narrativen Verbreitung. Popkultur hat einen wesentlich stärkeren Einfluss auf unser Denken und Handeln, als viele wahrnehmen. Das Terminator Szenario führt uns dieses perfekt vor Augen und zeigt den Einfluss von Geschichten selbst auf unsere auch so rationale und wissenschaftlich kollektive Entwicklung von Technologien. Daher sollten wir vielleicht langsam mal das Narrativ ändern und uns endlich bessere Geschichten über KI und über alles, was damit zusammenhängt, erzählen und von den Vernichtungsstorys abstand nehmen.

Kommentar hinzufügen

Kommentare

Es gibt noch keine Kommentare.

Erstelle deine eigene Website mit Webador