Kriege der Zukunft: Können Kampfroboter den Menschen vollständig ersetzen?

Roboter halten allmählich Einzug in alle Bereiche des menschlichen Lebens. Wir verwenden verschiedene Robotergeräte, wie z. B. Staubsaugerroboter, sogar im täglichen Leben. Natürlich ist auch die Einführung von Robotern im militärischen Bereich nicht unbemerkt geblieben. Dennoch führen Menschen nach wie vor militärische Konflikte, die manchmal Zehntausende von Menschenleben kosten. Es stellt sich daher die Frage: Können Roboter den Menschen in Zukunft vollständig ersetzen? Ist ein Krieg zwischen Robotern möglich, während die Menschen ihn nur beobachten? Gleichzeitig werden wir nicht mit den schrecklichen Folgen in Form von zerstörten Städten, toten Zivilisten, Zwangsrekrutierung und Entsendung an die Front konfrontiert.

Außerdem gibt es bei Robotern kein menschliches Element. Das bedeutet, dass sie sich an alle Gesetze des Krieges halten werden. In Zeiten der Gefahr werden sich die Roboter nicht zerstreuen oder die Armee verlassen, noch werden sie anfangen zu plündern, die lokale Bevölkerung zu terrorisieren und andere Verbrechen zu begehen..

Und die Fähigkeiten von Kampfrobotern werden der militärischen Führung gut bekannt sein. Das bedeutet, dass die Möglichkeit der Überschätzung der eigenen Kräfte und des Versagens bei bestimmten Militäroperationen geringer ist, als bei der Lebenskraft. Die Liste der weiteren Vorteile von Kampfrobotern ist lang. Doch wie realistisch ist ihr Einsatz anstelle von Menschen, oder stellen sie an sich eine Gefahr für die Menschheit dar?

Geschichte der Kampfroboter

Die Idee, Maschinen anstelle von Menschen im Krieg einzusetzen, gibt es schon seit langem. Das erste UAV wurde 1935 in Großbritannien entwickelt. Das Gerät verfügte über eine Fernsteuerung und konnte eine Strecke von bis zu 5 Kilometern mit einer Höchstgeschwindigkeit von 170 km/h fliegen. Es handelte sich jedoch nicht um ein echtes Kampffahrzeug, denn die Drohne wurde nur als Übungsziel eingesetzt.

Die ersten Drohnen, die zur Kampfaufklärung eingesetzt werden konnten, erschienen 1948 in den USA. Die AQM-34 schnitt bei Tests gut ab und wurde drei Jahre später in die Massenproduktion aufgenommen.

Moderne Kampfroboter

Derzeit konzentrieren sich viele Unternehmen in der ganzen Welt auf die Entwicklung von Laufrobotern. Im Jahr 2005 wurde ein vierbeiniger Kampfroboter entwickelt. Er konnte Lasten von bis zu 110 kg tragen und sich mit 6,5 km/h fortbewegen. Der Roboter konnte sogar eine Steigung von 35 Grad überwinden. Allerdings war er zu laut, was für die Armee unannehmbar ist.

Andere Hersteller konzentrierten sich später auf eine andere Richtung. Sie entwickelten ein spezielles Gewehr für vierbeinige Roboter. Es war mit einer Wärmekamera mit 30-facher Vergrößerung ausgestattet, die es dem Bediener ermöglichte, lebende Ziele zu erkennen. Das Gewehr konnte mit 6,5-Millimeter- oder 7,62-Millimeter-Munition geladen werden. Diese Roboter konnten jedoch nicht vollständig als militärisch bezeichnet werden.

Einer der ersten echten Militärroboter wurde für Aufklärungs- und Überwachungszwecke entwickelt. Der Roboter ist mit Maschinengewehren, vier Granaten und Laserwaffen ausgestattet. Er verfügt über einen Lautsprecher, ein Feuererkennungssystem und eine Sirene. Das Kampffahrzeug hat eine Autonomie von 12 Stunden. Der Roboter kann im autonomen Modus arbeiten, aber der Bediener trifft die Entscheidungen..

Außerdem wurden verschiedene Roboterkomplexe auf Raupenplattformen für offensive und defensive Operationen, für den Abbau und die Entminung von Gebieten, für die Überwachung und Zielerfassung sowie für die Patrouille des Gebiets und die Lieferung von Gütern entwickelt..

Warum Kampfroboter den Menschen nicht bald ersetzen werden

Wie wir sehen, werden Kampfroboter zunehmend im Militär eingesetzt, und die Liste der Aufgaben, die sie erfüllen, wird ständig erweitert. Wie bereits erwähnt, ermöglichen die neuen Roboter eine effizientere Ausführung bestimmter Kampfaufgaben. Wir sind jedoch nicht nur an ihrem Einsatz interessiert, sondern an der vollständigen Ersetzung von Menschen durch Roboter.

Die massenhafte Einführung von Robotern wird jedoch durch mehrere Probleme behindert. Industrieroboter, die aktiv in Produktionsanlagen eingesetzt werden, sollen schwere und monotone Handarbeit ersetzen. Dadurch können sie die Effizienz der Produktion steigern und die Produktionskosten senken.

Im Falle der Anwendung von Kampfrobotern ist die Situation genau umgekehrt - sie sollen hochqualifizierte Spezialisten ersetzen. Darüber hinaus ist das Risiko, einen Roboter-Fußsoldaten zu verlieren, nicht gerechtfertigt. Hightech-Ausrüstung kann in die Hände des Feindes gelangen, was höchst unerwünscht ist. Aber es geht nicht nur um die Gefahr, dass die Technologie in die Hände des Feindes fällt. Das Hauptproblem bei der Masseneinführung von Militärrobotern sind ihre hohen Kosten.

Der Aufstieg der Maschinen und andere Nachteile moderner Kampfroboter

Moderne Roboter lassen sich in drei Haupttypen unterteilen: vollständig ferngesteuerte, halbautonome, die selbständig handeln können, bei denen aber der Bediener alle Entscheidungen trifft, und vollständig autonome. Angesichts des derzeitigen Tempos der Kriegsführung müssen die Roboter der Zukunft, wenn sie den Menschen vollständig ersetzen sollen, vollautomatisch handeln. Sie müssen in der Lage sein, Fehler zu untersuchen, Erfahrungen zu sammeln und selbständig zu lernen, um dies zu tun.

In jüngster Zeit hat die Entwicklung neuronaler, selbstlernender Netze den Anstoß für das Entstehen völlig autonomer Maschinen gegeben. Sie sind jedoch noch nicht perfekt genug, um völlig automatisch zu arbeiten. Daher sind sie nur geeignet, um Menschen zu helfen, nicht aber, um selbst zu kämpfen.

Doch selbst wenn die künstliche Intelligenz es ermöglicht, völlig autonome Maschinen zu entwickeln, birgt ihr Einsatz ernsthafte Gefahren in sich. Während der Libyen-Krise im Jahr 2020 entdeckte ein unbemannter türkischer Quadcopter, der Kargu-2, der im autonomen Modus arbeitete, den Feind und griff ihn an. Es gibt bereits einen Präzedenzfall für die Vernichtung von Menschen durch KI.

Das hat bei Aktivisten eine negative Reaktion hervorgerufen. Im Falle eines Softwarefehlers könnten unschuldige Menschen sterben. Viele Unternehmen, die Roboter entwickeln, und Menschenrechtsorganisationen schrieben einen offenen Brief an die UN-Konvention, in dem sie ein Verbot der Entwicklung und des Einsatzes von autonomen Robotern forderten.

Nach Ansicht vieler Experten sollten paramilitärische Roboter daher ausschließlich unter der Kontrolle des Militärs operieren. Ihr eigenständiger Betrieb muss ausgeschlossen werden.

Vollständig gesteuerte und halbautonome Roboter haben auch einen entscheidenden Nachteil: Sie benötigen eine Funkverbindung mit dem Bediener. Das bedeutet, dass sie für die elektronische Kriegsführung anfällig sind. Praktisch jede Armee der Welt verfügt über elektronische Kriegsführung. Sie können einfach die Kommunikation zwischen dem Roboter und dem Bediener unterbrechen. Darüber hinaus kann das Funksignal aufgrund des Geländes verloren gehen.

Wer ist am schnellsten

Inzwischen sagen Experten voraus, dass Roboter und künstliche Intelligenz in militärischen Konflikten des XXI Jahrhunderts exponentiell zunehmen werden. Ein neues Wettrüsten und sogar eine Veränderung der geopolitischen Landschaft werden mit der totalen Robotisierung der militärischen Technosphäre in Verbindung gebracht. Robotisierung bedeutet nicht nur die Sättigung der Armeen mit allen Arten von Drohnen - fliegenden, reitenden oder schwebenden. Elemente von Autonomie und künstlicher Intelligenz werden alle Bereiche der militärischen Konfrontation durchdringen. Es entstehen Technologien, die die Fähigkeiten von Kampfrobotern zu den traditionellen Waffensystemen - Nuklearkomplexe, Satellitensysteme, Raketenabwehrsysteme usw. - hinzufügen können. Schon bald ist mit dem Auftauchen neuer Arten von Waffen und Einheiten zu rechnen: Cyberkommandos, KI-gestützte Aufklärungseinrichtungen, autonome Fahrzeuge und Robotereinheiten.

Das neue Wettrüsten ist bereits im Gange. In den 20 Jahren seit Mitte der 1980er Jahre haben die USA, Großbritannien, Deutschland, Frankreich, China und Israel die Mittel für Programme zur Entwicklung von Kampfrobotern erhöht.

Das US-Militär geht davon aus, dass der Anteil unbemannter Systeme an der gesamten Flotte von Kampffahrzeugen bis 2030 30 % erreichen wird, was zu einer Steigerung der Kampffähigkeiten der Einheiten um das 2 - 2,5fache führen wird. In den letzten 20 Jahren wurden in den USA etwa 200 Prototypen solcher Fahrzeuge entwickelt.

Heute entwickeln mehr als drei Dutzend Länder UAVs verschiedener Typen, und die Armeen von mehr als fünfzig Ländern haben sie im Einsatz. In den letzten Jahrzehnten waren Zehntausende von Drohnensystemen an militärischen Konflikten beteiligt. Und die Erfahrungen der jüngsten Konflikte im Nahen Osten haben gezeigt, dass Drohnen nicht nur regulären Armeen, sondern auch Guerilla-Einheiten zur Verfügung stehen: Man kann eine funktionierende Kamikaze-Drohne buchstäblich aus Klebeband und Stöcken zusammenbauen.

Roboter lernen zu denken: gut oder schlecht

Experten verknüpfen die Aussichten für die Entwicklung von Kampfrobotern (RTK) mit dem Übergang von ferngesteuerten Systemen zu autonomen Systemen, die in der Lage sind, Aufgaben mit minimaler oder ohne menschliche Beteiligung zu lösen. Sie finden das Ziel selbst, identifizieren es und zerstören es. Gleichzeitig gibt es eine Reihe von Risiken, die mit dem Ausschluss des Menschen aus der Entscheidungskette verbunden sind. Man nennt es das "Problem der sinnvollen menschlichen Kontrolle in internationalen Foren. Ist es möglich, das Recht zu töten an eine Maschine zu delegieren? Wie werden intelligente Roboter mit Menschen interagieren, und kann ein Roboter einem Menschen einen Befehl erteilen?

Und der militärische Konflikt selbst wird von einer Konfrontation zwischen bewaffneten Menschen (zumindest teilweise) zu einem Kampf zwischen einem Menschen und einer denkenden Maschine oder Robotern untereinander.

Völlig autonome Waffen können außerhalb des Rahmens des humanitären Völkerrechts liegen. Außerdem stellt sich das Problem der rechtlichen Verantwortung für die begangenen Handlungen: Wenn eine Drohne Ziele falsch identifiziert und Waffen gegen sie einsetzt, wer ist dann für diesen Fehler verantwortlich?

Teilautonome Fahrzeuge gibt es bereits und sie werden aktiv genutzt - Menschen steuern sie, aber bestimmte Programme können selbständig eingeübt werden. Vollständig autonome Kampfsysteme, die auf künstlicher Intelligenz basieren, gibt es noch nicht. Zumindest nicht offiziell. Einige Experten glauben jedoch, dass Elemente der künstlichen Intelligenz in US-Kampfdrohnen eingesetzt werden. Inoffizielle Kommentare legen sogar nahe, dass Drohnenangriffe auf zivile Objekte gerade wegen eines KI-Fehlers durchgeführt worden sein könnten.

Ob künstliche Intelligenz auf dem Schlachtfeld mit dem menschlichen Gehirn konkurrieren kann, ist immer noch umstritten. KI-Spezialisten sagen: ja, absolut. Das Militär bezweifelt es. Neuronale Netze mit tiefem Lernen benötigen viel Rechenleistung und arbeiten mit Arrays relevanter verifizierter Daten. Es ist nicht bekannt, wie sie mit falschen Daten arbeiten werden.

Elemente für Roboter

Ein weiteres Problem ist die Frage, wie autonome RTKs in der Lage sein werden, Aufgaben in verschiedenen Umgebungen (Luft, Land, Wasser) zu erfüllen und wo sie am effektivsten sein werden. Viele Experten sind der Meinung, dass das ideale Umfeld für intelligente Waffen das Meer ist.

Die rasche Entwicklung von Überwachungs- und Kampfdrohnen wird in den nächsten 30-40 Jahren ein vielversprechender Trend sein. Flotten unbemannter Unterwasserfahrzeuge werden in der Lage sein, die Sicherheit von Schiffsverbänden zu gewährleisten, indem sie U-Boote, Minen und andere Probleme aufspüren. Einige Sensoren werden bereits auf ferngesteuerten Unterwasserfahrzeugen installiert. Mit der Entwicklung von KI-Systemen und der Vorgabe von Protokollaufgaben werden kontrollierte Tauchfahrzeuge durch autonome ersetzt.

Für die Meeresumwelt ist es relativ einfach, die erforderlichen Algorithmen vorzuschreiben. Die Luftumgebung ist viel komplizierter; eine Kampfdrohne muss beispielsweise auf einer komplexen Fläche (Relief, Wohngebäude) mit verschiedenen Objekten selbstständig Ziele auswählen. Einige von ihnen müssen getroffen werden, während andere auf keinen Fall geschlagen werden können.

Wenn eine Maschine für eine bestimmte Aufgabe programmiert ist, wird sie diese mit größerer Effizienz erfüllen als ein Mensch. Aber in kombinierten komplexen Schlachten mit vielen verschiedenen Informationen und Objekten kann sie sich verhalten, wie es ihr gefällt. Technisch gesehen ist dieses Problem lösbar, auch durch den Einsatz von KI zur Datenverarbeitung. Nach und nach werden Maschinen lernen, Bilder zu erkennen, und sie werden in der Lage sein, Ziele nicht schlechter und möglicherweise sogar besser zu identifizieren als Menschen. Dies ist jedoch eine schwierige Aufgabe, und daher wird es ferngesteuerte Kampffahrzeuge wahrscheinlich noch lange Zeit geben.

Probleme und Perspektiven für die weitere Entwicklung

Die Aussichten für bodengestützte Kampf-RTKs bleiben unklar. Heutzutage sind landgestützte Roboter Plattformen auf Rädern oder Raupen, die von einem ferngesteuerten Kinderauto bis zu einem kleinen Panzer reichen. Ihre Waffen reichen von Pistolen bis hin zu Modulen mit automatischen Kanonen, Granatwerfern und gelenkten Panzerabwehrraketen. Viele Unternehmen auf der ganzen Welt - von Verteidigungsmonstern bis hin zu kleinen Privatunternehmen - versuchen heute, etwas Ähnliches herzustellen. In den meisten Fällen handelt es sich dabei um experimentelle Systeme, und ihr Aufgabenbereich ist nicht sehr klar..

Doch all diese Entwicklungen haben zwei große Probleme: Kontrolle und Begehbarkeit. Die Aufrechterhaltung eines Kommunikationskanals auf dem Boden ist viel komplexer als in der Luft - das Gelände und Gebäude sind im Weg. Aus diesem Grund ist die Reichweite von RTKs auf Rädern und mit Nachführsystemen um ein Vielfaches oder sogar um Größenordnungen geringer als die von UAVs. Was die Geländegängigkeit anbelangt, so bewegen sich Rad- und Raupenroboter nicht gut in zerklüftetem Gelände und überwinden kaum (oder gar nicht) Bereiche mit festen Ruinen und Treppen. Sie können Soldaten nicht im Straßenkampf, in felsigem Gelände usw. begleiten..

Daher ist das Aufgabenspektrum von Landkampfrobotern begrenzt. Es ist noch völlig unrealistisch, Soldaten durch sie zu ersetzen. Aber sie können im Kampf und bei der logistischen Unterstützung eine große Hilfe sein: Aufklärung, einschließlich Kampfüberwachung, Schutz und Lieferung von Verbrauchsmaterial. Zu den Aufgaben der Bodensysteme gehören auch die Minenräumung und - langfristig gesehen - die Dekontaminierung von Gebieten sowie Arbeiten zum Schutz vor Strahlung, chemischen und biologischen Gefahren.

Die Suche nach einem Antriebssystem für bodengestützte RTKs geht jedoch weiter. Die meisten russischen und ausländischen Experten sehen die Zukunft in gehenden Systemen. Ein Mensch bestimmt nur die Bedingungen, unter denen eine Maschine ein Ziel als feindlich identifiziert und ohne Befehl oder zumindest Erlaubnis des Bedieners das Feuer eröffnet.

Herausforderungen für die Menschheit

Sie stellt die Menschheit vor viele neue Herausforderungen, von technischen Anwendungen bis hin zu politischen, rechtlichen und ethischen Fragen. Wenn es beim traditionellen Einsatz von Waffen - einschließlich ferngesteuerter Drohnen - immer bestimmte Menschen gibt, die den Befehl gegeben und den Abzug betätigt haben, wer genau und wie ist dann eines Mordes schuldig zu sprechen, dessen Entscheidung von einem autonomen Roboter nach Algorithmen getroffen wurde? Wer ist verantwortlich, wenn das Programm versagt und die Maschinen Zivilisten, Sanitäter, Friedenssoldaten oder das eigene Militär töten? Wer wird mit Sicherheit sagen können, ob es sich um eine Fehlfunktion, einen Hack oder eine böswillige Nachahmung eines Fehlers handelt? Wer wird zur Verantwortung gezogen, wenn die Kriegsmaschine völlig außer Kontrolle gerät und anfängt, jeden zu töten, den sie töten kann?

Rechtliche und ethische Fragen

Bei den Vereinten Nationen wird das Thema autonome Kampffahrzeuge und ihre Vereinbarkeit mit dem humanitären Völkerrecht, den Menschenrechten und der Konvention über unmenschliche Waffen seit 2013 aktiv diskutiert. Vorschläge für ein allgemeines Moratorium für die Entwicklung und den Betrieb autonomer Kampfsysteme wurden wiederholt gemacht, aber bisher wurden keine drastischen Entscheidungen und Maßnahmen getroffen.

Bei den von den Vereinten Nationen geförderten Konsultationen in Genf im Jahr 2018 sprachen sich nur 26 der 88 teilnehmenden Länder für ein Verbot autonomer Kampfsysteme aus - und die führenden Militärmächte waren nicht darunter. Die Delegationen konnten sich auf ein Dutzend "möglicher Prinzipien" allgemeinster Art einigen: dass die Entwicklungen "humanistischen Prinzipien" entsprechen und dass die Verantwortung für ihren Einsatz ohnehin von mindestens einem Menschen getragen werden muss.

Die Entschließung des Europäischen Parlaments von 2018 und die Kampagne zum Verbot autonomer Kampfroboter von 2019 unter der Leitung von Friedensnobelpreisträgerin Jody Williams - obwohl sich 130 zivilgesellschaftliche Organisationen aus 60 Ländern und UN-Generalsekretär António Guterres angeschlossen haben. Bis heute befinden sich autonome Kampfsysteme in einer kaum beschriebenen rechtlichen Grauzone des humanitären und militärischen Völkerrechts.

Human Rights Watch's Stop Killer Robots Kampagne im August 2020 fand die Unterstützung von bereits 165 Organisationen aus 65 Ländern - aber nur 30 von fast 200 Ländern haben sich für ein Verbot von Kampfrobotern ausgesprochen.

Internationale Foren und Treffen unterschiedlicher Repräsentanz zum Thema Verbot von autonomen Kampffahrzeugen werden regelmäßig in verschiedenen Teilen der Welt abgehalten - aber es gibt keine ernsthaften Aussichten für ein Verbot von Kampfrobotern, weil der Bedarf an solchen Systemen im heutigen Militär zu groß ist und in Zukunft weiter wachsen wird.

Humanismus und Abneigung gegen Gewalt nehmen in den meisten Gesellschaften der Welt stetig zu. Untersuchungen zufolge geht die Zahl der Menschen, die bereit sind, persönlich mit einer Waffe in der Hand in den Kampf zu ziehen, anstatt in einem sicheren Bunker hinter einer Drohnenkonsole zu sitzen, in einer wachsenden Zahl von Ländern zurück. Das Gleiche gilt für die Bereitschaft, anderen zu schaden, selbst wenn es sich um militärische Feinde handelt.

Außerdem kann eine autonome Maschine unvergleichlich schneller und genauer reagieren als ein menschlicher Bediener. Das Gerät stellt die Ethik und Legitimität der Teilnahme an einer bestimmten Operation nicht in Frage, insbesondere nicht an einer sehr offiziellen. Die Verantwortung wird verwischt, was manchmal sehr praktisch ist, wenn niemand für die Folgen verantwortlich sein will.

Ein weiteres großes Thema wird unweigerlich die Kombination von autonomen Kampfsystemen mit neuronalen Netzen sein. Neuronale Netze können die Flexibilität, Anpassungsfähigkeit und Gesamteffizienz von Kampffahrzeugen erheblich steigern und sie selbstlernend und tödlich machen - dadurch wird ihr Verhalten selbst für die Entwickler viel weniger vorhersehbar.

All dies wirft eine Vielzahl komplexer Fragen auf, die in den kommenden Jahrzehnten auf die eine oder andere Weise gelöst werden müssen. Die Intensität der internationalen Diskussion über autonome Kampfsysteme wird parallel zur Stärke ihrer Kampfanwendung zunehmen. Vieles wird von der Praxis ihres Einsatzes abhängen: von ihrer tatsächlichen Wirksamkeit und Nützlichkeit auf dem Schlachtfeld für das Militär und von der Zahl der öffentlichkeitswirksamen Tragödien, die mit ihrem Einsatz verbunden sind. Vielleicht werden die Kriege der Zukunft zu Zusammenstößen zwischen Roboterarmeen fast ohne menschliche Beteiligung führen. Möglicherweise wird der öffentliche Druck so groß und der Nutzen des Einsatzes so fragwürdig sein, dass die führenden Militärmächte selbst es schließlich für angebracht halten, das Verbot aufrechtzuerhalten und seine Umsetzung zu überwachen. Aber auch in diesem Fall wird der Fortschritt dazu führen, dass schon bald ein autonomes Kampffahrzeug, auch mit einem neuronalen Netz, in der Garage zusammengebaut werden kann. Dies wird zu einem weiteren Berg komplizierter militärischer, sozialer und politischer Probleme führen.


Eines ist klar: Ein Kampf von Maschinen, nicht von Menschen, ist in nächster Zeit nicht zu erwarten. Der massenhafte Einsatz von Robotern für militärische Zwecke ist jedoch nur eine Frage der Zeit.