Photo by Jason Leung on Unsplash
Kriege, Diktaturen und großflächige Menschenverbrechen funktionieren nur über ein gleichgeschaltetes Kollektiv. Soldaten müssen verführt und fanatisiert, Menschen gegen andere Menschen aufgehetzt und Autoritätshörigkeit zum ultimativen Wert angehoben werden. Was passiert aber, wenn man in Zukunft all diese menschlichen Verführungen umgehen und auf Knopfdruck eine emotionslose Armee in Kriege und Schlachten schicken kann? Dieser Frage werden wir uns sehr bald stellen müssen: Große Militärnationen arbeiten bereits akribisch an Roboter-Soldaten und hegen große Pläne. Aber auch im Sicherheits-und Überwachungssektor könnten die Maschinen bald zum Einsatz kommen.
Ein Roboter-Hund. Wie süß! Als eine Art „Kuriosum“ vermeldete die „Bild-Zeitung“ einen PR-Termin des Sicherheitsdienstleisters „Ciborius“, der Anfang April in der Hamburger Innenstadt seinen neuen Aufpasser präsentierte. Was niedlich daherkommt, wird vermutlich sehr bald für ethische Diskussionen sorgen.
Denn die neue Sicherheitstechnik soll natürlich nicht nach einem Probe-Einsatz beiseite gelegt werden. Bereits vor dem PR-Auftritt sei der vierbeinige Roboter in Gefahrengebieten eingesetzt worden, wirbt die Coborius-Group auf ihrer Website – darunter auf Ölplattformen oder im radioverseuchten Gebiet bei Tschernobyl. So weit so gut. Doch nun, so schreibt Ciborius, hätten IT-Experten das Gerät „für den modernen Sicherheitsdienst“ umprogrammiert. Das Prinzip funktioniere wie folgt:
„Der agile Laufroboter besitzt beispielsweise eine hochauflösende 360° Rundumkamera, ultrahelles LED-Licht und hat ein Lichterkennungssystem (LiDAR) an Bord, das auf die Reflexion von elektromagnetischen Wellen setzt, um den Raum vor ihm zu vermessen und abzubilden.
Der Roboter kann Menschen und Objekte erkennen und zuordnen, Veränderungen in der Umgebung wahrnehmen und auch Instrumente präzise ablesen. Befindet sich eine unbekannte Person auf dem Gelände oder steht nach Produktionsschluss eine Fabriktür offen, meldet er diese Information mit Livebildern sofort an die Leitstelle. Dabei folgt er keinem starren Programm, sondern nutzt dynamische Algorithmen, um aus jeder neuen Situation eigenständig zu lernen. Gibt die Leitstelle bei einem bestimmten Objekt Entwarnung, weil es sich beispielsweise um eine neue oder zusätzliche Maschine in der Produktionsstraße handelt, so erkennt der Roboter fortan dieses Objekt und schlägt nicht mehr Alarm.“
Der Roboter wird sozusagen als Spürhund eingesetzt, der Menschen gewisse Bewegungen und Auffälligkeiten meldet. Das klingt erst einmal harmlos. Firmeninhaber Andreas Ciborius schreibt dazu: „Jeder unserer Roboter wird nicht nur durch die Leitstelle überwacht, sondern erhält auch einen menschlichen Begleiter vor Ort.“ So stünde der Roboter jederzeit unter menschlicher Kontrolle, versichert der Firmeninhaber.
Mit künstlicher Intelligenz: Ein neues Ausmaß an Zerstörung?
Bis zu diesem Punkt klingen Sicherheits-Roboter nicht wirklich gefährlich, oder sogar nützlich. Was spricht schon dagegen, technische Geräte in Risikogebiete zu schicken oder ungewöhnliche Aktivitäten auf einem Privatgelände ausfindig zu machen? Bis dahin noch nichts. Jedoch sprach für Albert Einstein ja auch nichts dagegen, dem damaligen US-Präsidenten Franklin D. Roosevelt seine These zu verraten, Masse ließe sich in Energie umwandeln. Dennoch attackierten die USA rund fünf Jahre später die japanischen Städte Nagasaki und Hiroshima mit einem Atombombenangriff, der bis heute fatale Folgen nach sich zieht. Inspiriert von Einsteins Thesen hatten es die Amerikaner geschafft, die Bomben zu bauen. Einsteins Bitte an den Präsidenten, auf den Einsatz dieser Technologie zu verzichten blieb unberücksichtigt. Ein ähnliches Schicksal könnten auch Entwickler von Sicherheitsrobotern nehmen, wenn ethische Diskussionen darüber ausbleiben, bis zu welchem Grad diese Technik im Militär-und Sicherheitssektor eingesetzt werden soll.
Große Militärnationen haben nämlich längst erkannt, dass künstliche Intelligenz zur Superwaffe dieses Jahrhunderts werden kann. Etwa arbeiten China und die USA akribisch an „Killersoldaten“, die in naher Zukunft die nationale Armee unterstützen sollen. Auch Großbritannien ist bereits in die Forschung eingestiegen. Nick Carter, Chef der britischen Streitkräfte, sprach in einem Interview mit „Sky-News“ davon, ab 2030 eine große Zahl autonomer Maschinen in die Armee zu integrieren: „Ich meine, ich vermute, wir könnten eine Armee von 120.000 Mann haben, von denen vielleicht 30.000 Roboter sind, wer weiß?“ Der „Guardian“ schreibt, Investitionen in KI-Soldaten seien sogar das „Herzstück“ eines Fünfjahresplans zur Zukunft der britischen Armee, den das britische Verteidigungsministerium ausarbeitete.
Du möchtest etwas zum Meinungs-und Themensprektrum auf Generaldebatten
beitragen? Kein Problem! Wir sind eine interaktive Blogging-Website.
Kontaktiere uns und erläutere deine Ideen!
Um solchen Entwicklungen entgegenzusteuern, gründete sich die Kampagne „Stop-Killer-Robots“. Laut den Initiatoren würden neben China, Großbritannien und den USA auch Israel, Südkorea und Russland an automatischen Waffen arbeiten, die vollkommen autonom über Ziele und Beschuss – sprich über Leben und Tod – entscheidet. Auf der Kampagnen-Website heißt es:
„Vollkommen autonome Waffen würden ohne weiteres menschliches Eingreifen über Leben und Tod entscheiden, womit eine moralische Schwelle überschritten würde. Als Maschinen würden ihnen die inhärent menschlichen Eigenschaften wie Mitgefühl fehlen, die notwendig sind, um komplexe ethische Entscheidungen zu treffen“ (Übersetzung).
Die jüngere Militärgeschichte mit all ihren technischen Entwicklungen zeigt eines ganz deutlich: Kriege entwickelten sich immer mehr von einer Auseinandersetzung Mann gegen Mann hin zu einer Materialschlacht. Es entscheidet spätestens seit dem 1. Weltkrieg derjenige einen Krieg für sich, der einen technischen Vorsprung hat, nicht derjenige, der die tapfersten kämpferischsten und fanatischsten Soldaten in den eigenen Reihen hat.
Die technischen Entwicklungen sind aber auch ein Grund dafür, warum die Weltkriege im Vergleich zu anderen Schlachten eine bis dato beispiellose Zerstörung verursachen konnten. Die Armeen kämpften nicht mehr primär gegen andere Soldaten, sondern versuchten vermehrt, die Zivilbevölkerung und Infrastruktur mittels Luftangriffen anzugreifen. Es kam nicht mehr darauf an, wer die meisten Männer rekrutieren und instrumentalisieren konnte, sondern wessen Waffen die schrecklichsten Auswirkungen haben. Drohnenangriffe, die etwa die USA in Syrien und Afghanistan durchführt, erfordern noch nicht einmal, dass der Angreifer in die Nähe seiner Ziele fliegen muss. Drohnen können in einer sicheren Basis zum Ziel hingesteuert und per Abschuss zur tödlichen Waffe werden. Moderne Militärtechnologien verringern die Hürden also enorm, Soldaten zu Kriegseinsätzen zu bewegen – vorausgesetzt man stattet sie mit technischen Waffen aus, mithilfe derer sie nicht viel Mut benötigen, Angriffe durchzuführen.
Roboter-Soldaten können furchtlose und emotionslose Krieger sein, ohne dafür Soldaten rekrutieren, diese entsprechend auszubilden und vom Sinn eines Einsatzes überzeugen zu müssen. Über Abschüsse und Angriffe könnten künftig sogar Maschinen und keine Menschen mehr entscheiden. Gewissenlos und automatisiert. Von solchen Kriegen muss die einheimische Bevölkerung vermutlich nicht einmal mehr überzeugt werden, schließlich müssen sich junge Menschen für solche Vorhaben nicht in sonderliche Gefahr bringen. Die britische Armee hofft sogar, dass Roboter-Soldaten das Rekrutierungsproblem des Heeres künftig lösen können.
Roboter als Polizisten?
Jedoch könnten Roboter nicht nur in der äußeren „Sicherheit“ ein Problem werden. Denn was ist wenn Sicherheitsroboter, wie sie die Ciborius-Gruppe entwickelt, bald von der Polizei eingesetzt werden? Was passiert, wenn Roboter bald nicht mehr nur die nationalen Heere unterstützen, sondern bald auch von der Polizei als vollwertiges Mitglied im Streifendienst zum Einsatz kommen?
Polizisten schwören gemeinhin einen Eid, indem sie unter anderem sich zu einer sogenannten „Remonstrationspflicht“ bekennen. Diese Pflicht besagt, dass Befehle, die gesetzeswidrige Handlungen zur Folge haben, von den Einsatzkräften nicht ausgeführt werden dürfen. Menschen dazu zu bringen, sich dennoch dieser Remonstrationspflicht zu widersetzen, dürfte weitaus schwieriger sein, als für gesetzeswidrige Handlungen eine Staffel gleichgeschalteter Roboter zu benutzen, die noch nicht einmal Schmerzen oder Müdigkeit verspüren. Und wie leicht ließen sich Gewaltvorfälle seitens der Staatsmacht dann mit „technischen Problemen“ erklären?
Roboter bald als Überwachungstool?
Roboter können überdies auch als wirksames Überwachungstool eingesetzt werden. Bereits jetzt sind in einigen Wohnungen Haushaltsroboter im Einsatz, die Kameraaufnahmen der Umgebung machen und diese mittels Vergleichsbilder in einer Cloud abgleichen. Das Unternehmen „i-Robot“ etwa entwickelt Staubsauger-Roboter, die ihre Umgebung filmen und diese Bilder dann in einer Datenbank speichert, in der das Gerät sogenannte „Vergleichsbilder“ zur besseren Erkennung der Hindernisse heranziehen kann. Im Umkehrschluss werden also Bilder aus privaten Räumen in einer Cloud gespeichert.
Die Fotos werden natürlich (noch) nicht an Dritte weitergegeben. Dennoch: Man stelle sich mal vor, Unternehmen müssten etwa zur Überprüfung der Kontaktregeln in der Corona-Pandemie diese Wohnungsaufnahmen an zuständige Behörden zur Auswertung weitergeben, wie viele Menschen sich in den Häusern aufhalten und ob Quarantänebestimmungen eingehalten werden. Undenkbar? Nicht ganz. Schließlich erschien es vor anderthalb Jahren ebenfalls undenkbar, dass Impfdaten bald europaweit digital gespeichert werden und wahrscheinlich bald als Kriterium dafür dienen wird, in welche Länder man zukünftig einreisen darf und in welche nicht.
Corona: Digitaler Impfpass und „Privilegien“ – ein trojanisches Pferd in Richtung Massenkontrolle?
Pakistan spioniert politische Gegner aus
Dass der Staat oder andere Organisationen vielleicht irgendwann die eigene Wohnung ausspionieren könnten, ist also keine unbegründete Befürchtung. In anderen Ländern werden private Räumlichkeiten bereits heimlich überwacht. Amnesty International berichtete im März 2018 darüber, dass Menschenrechtsaktivisten in Pakistan über eine Spyware auf ihren digitalen Endgeräten überwacht werden. Techniken wie Robotersoldaten würden daher gerade autoritären Regimen zugute kommen, um gegen ihre politischen Gegner vorzugehen.
Die von mir gezeichneten Befürchtungen sind zugegebenermaßen sehr dystopisch. Jedoch ist es im Anbetracht rasanter Entwicklungen im Bereich der künstlichen Intelligenz geboten, Grenzen zu setzen und Debatten darüber zu führen, welchen Nutzen und welche Risiken Roboter im Sicherheit-und Überwachungssektor haben. Bislang können die großen Militärnationen ihre Forschungen jedoch ungestört vorantreiben.