17.11.2006, 10:28
Ich neige dazu, diese Entwicklungen sehr kritisch zu betrachten. Man kommt sich vor wie der Zuschauer eines schlechten Films - man weiss genau wie die Handlung weitergeht und kann absolut nichts dagegen tun.
Zunächst fällt auf, dass die Masse dieser Entwicklungen in dieser frühen Phase noch darauf zielt, eigene Soldaten zu ersetzen. Das bedeutet die Roboter (nicht Drohnen) sollen z.B. Versorgungsfahrzeuge fahren, in besonders gefährlichen Kampfsituationen den Kopf hinhalten oder personalintensive und damit sehr teure Überwachungsaufgaben wahrnehmen. Mit verbesserter Technik und den gesammelten Erfahrungen aus diesen Operationen wird dann auch nach&nach der Einsatz z.B. als künstlicher Pilot für Versorgungsflüge kommen.
Als logische Konsequenz aus dieser ersten Phase wird dann die Notwendigkeit entstehen solche Roboter zu bauen, die die entsprechenden automatischen Systeme des Gegners jagen und vernichten. Da hier Geschindigkeit und Reaktionsvermögen auf bisher nicht gekannten Niveau nötig sein wird, muss der Mensch, auch als kontrollierende Instanz, weitgehend ausfallen und auch die letzte Entscheidung zum Waffeneinsatz selbst wird vor Ort vom Roboter getroffen werden müssen. Siehe dazu die Darpa-Aussage "das System weiss (selbst) was es macht".
Hier sind wir dann an dem Punkt an dem uns alles zu entgleiten beginnt. Kein "Herrschaft der Maschinen Syndrom" aber doch ein Punkt an dem wir unterhalb des menschlichen Befehlshabers keine kontrollierenden Instanzen mehr haben - wie heute noch das Gewissen des einzelnen Soldaten in der Befehlskette.
Das Schlimmste ist, dass mir keine Alternative einfällt. Bestenfalls ein internationeles Abkommen, das alle Staaten und Hersteller verpflichtet die letzte Entscheidung zum tödlichen Waffeneinsatz immer durch einen menschlichen Verantwortlichen bestätigen lassen zu müssen. Da das aber einen beträchtlichen Mehraufwand bedeutet (schwere und sperrige Sende- und Empfängereinrichtungen in die kleinen Machinen einzubauen und in der Hardware zu verankern) denke ich nicht dass es dazu kommt.
Übrigens ist es ein Trugschluss anzunehmen, derartige Systeme seien dann der zivilisierten Welt vorbehalten. Ein Verlust einzelner, der dann wohl sehr leichtfertig eingesetzten "autonomen Kampfsysteme", ist relativ wahrscheinlich und die Umprogrammierung der Feindkennungsparameter wird sich trotz aller Sicherungen auch irgendwann von begabten Somalis (oder so) bewerkstelligen lassen.
Eines Tages werden wir dann sehen wie sich der Roboter mit der Kennung TZU-35JK-205878 vor dem internationalen Gerichtshof für ein Massaker verantworten muss - oder sein Programmierer....
Zunächst fällt auf, dass die Masse dieser Entwicklungen in dieser frühen Phase noch darauf zielt, eigene Soldaten zu ersetzen. Das bedeutet die Roboter (nicht Drohnen) sollen z.B. Versorgungsfahrzeuge fahren, in besonders gefährlichen Kampfsituationen den Kopf hinhalten oder personalintensive und damit sehr teure Überwachungsaufgaben wahrnehmen. Mit verbesserter Technik und den gesammelten Erfahrungen aus diesen Operationen wird dann auch nach&nach der Einsatz z.B. als künstlicher Pilot für Versorgungsflüge kommen.
Als logische Konsequenz aus dieser ersten Phase wird dann die Notwendigkeit entstehen solche Roboter zu bauen, die die entsprechenden automatischen Systeme des Gegners jagen und vernichten. Da hier Geschindigkeit und Reaktionsvermögen auf bisher nicht gekannten Niveau nötig sein wird, muss der Mensch, auch als kontrollierende Instanz, weitgehend ausfallen und auch die letzte Entscheidung zum Waffeneinsatz selbst wird vor Ort vom Roboter getroffen werden müssen. Siehe dazu die Darpa-Aussage "das System weiss (selbst) was es macht".
Hier sind wir dann an dem Punkt an dem uns alles zu entgleiten beginnt. Kein "Herrschaft der Maschinen Syndrom" aber doch ein Punkt an dem wir unterhalb des menschlichen Befehlshabers keine kontrollierenden Instanzen mehr haben - wie heute noch das Gewissen des einzelnen Soldaten in der Befehlskette.
Das Schlimmste ist, dass mir keine Alternative einfällt. Bestenfalls ein internationeles Abkommen, das alle Staaten und Hersteller verpflichtet die letzte Entscheidung zum tödlichen Waffeneinsatz immer durch einen menschlichen Verantwortlichen bestätigen lassen zu müssen. Da das aber einen beträchtlichen Mehraufwand bedeutet (schwere und sperrige Sende- und Empfängereinrichtungen in die kleinen Machinen einzubauen und in der Hardware zu verankern) denke ich nicht dass es dazu kommt.
Übrigens ist es ein Trugschluss anzunehmen, derartige Systeme seien dann der zivilisierten Welt vorbehalten. Ein Verlust einzelner, der dann wohl sehr leichtfertig eingesetzten "autonomen Kampfsysteme", ist relativ wahrscheinlich und die Umprogrammierung der Feindkennungsparameter wird sich trotz aller Sicherungen auch irgendwann von begabten Somalis (oder so) bewerkstelligen lassen.
Eines Tages werden wir dann sehen wie sich der Roboter mit der Kennung TZU-35JK-205878 vor dem internationalen Gerichtshof für ein Massaker verantworten muss - oder sein Programmierer....
