(Land) UGV / UGCV
#16
@hunter
Beim Kopp-Verlag kommt es imho auf den Autor an. Von Ulfkotte halte ich wenig - der reitet nur hysterisch auf einem Modetrend herum und versucht, da ideologisch was abzuernten - von Grandt dagegen deutlich mehr.
Es spielt bei Nachrichten eben immer auch eine Rolle, was man glauben will.
Im Grunde habe ich den Link hier in den Thread nur 'reingesetzt, weil ich darüber erstaunt bin wie weit man auf dem Gebiet laut Angabe des Autors sein soll und um dies zu diskutieren.
Zitieren
#17
"Roboter sind gefährlich"

http://www.heise.de/ct/artikel/Roboter-s...63213.html

Zitat:Jürgen Altmann, Physiker und Friedensforscher an der TU Dortmund und Mitbegründer des "International Committee for Robot Arms Control", über autonome Kampfroboter und die Möglichkeiten, sie zu verhindern. (...)

International Committee for Robot Arms Control (ICRAC):
http://www.icrac.co.cc/
Zitieren
#18
heise online: Wenn man Robotern, die mehr und mehr selbstständig handeln und Entscheidungen treffen, Waffen in die Hand gibt, kann es für die Menschheit gefährlich werden. Das ist weder irrational noch Science Fiction, liegt allerdings noch ein ganzes Stück in der Zukunft.

Quintus: Wenn man Menschen, die selbstständig handeln und Entscheidungen treffen, Waffen in die Hand gibt, kann es für die Menschheit gefährlich werden. Das ist weder irrational noch Science Fiction, sondern ist bereits seit langer Zeit Realität.



Meiner Meinung nach sind Kampfroboter sowas von Harmlos im Vergleich zu Menschen ! die Atomwaffen besitzen, die an Biowaffen forschen, und an Naniten als Waffen usw usf und die selbstständig dann Entscheidungen treffen, und dabei solche Waffen haben.

Es ist eigentilch verblüffend das wir unsere derzeitige Zivilisation mit diesen Massenvernichtungswaffen noch nicht selbst zerstört haben.

Aber was nicht ist, kann ja noch werden.....
Zitieren
#19
Ja schon komisch... Heisst also, dass der unsichere Faktor "Mensch" durch seine Skrupel dafür gesorgt hat, dass wir im kalten Krieg den Planeten nicht was heisser gemacht haben. Hätten damals ausschließlich Computer über Erst- und Zweitschlag entschieden, ... das kann sich jeder selbst ausmalen.

Gut, Kampfroboter an sich sind davon weit entfernt und ein Szenario ala Skynet vorerst auch unwahrscheinlich, aber man sollte nie blind der Technik vertrauen.
Zitieren
#20
7ig4 schrieb:Ja schon komisch... Heisst also, dass der unsichere Faktor "Mensch" durch seine Skrupel dafür gesorgt hat, dass wir im kalten Krieg den Planeten nicht was heisser gemacht haben. Hätten damals ausschließlich Computer über Erst- und Zweitschlag entschieden, ... das kann sich jeder selbst ausmalen.

Gut, Kampfroboter an sich sind davon weit entfernt und ein Szenario ala Skynet vorerst auch unwahrscheinlich, aber man sollte nie blind der Technik vertrauen.

Es gab mehrere Zwischenfälle während des kalten Krieges. Ein wirklich dramatischer hat dann wahrscheinlich Regans Rüstungsbegrenzung bzw. Reduzierungsinitiative ausgelöst.
Letztlich stand damals nur ein störrischer russischer Major zwischen Frieden und Atomkrieg.

Gruß

Ede
Zitieren
#21
Ich bin der Überzeugung, daß die Wahrscheinlichkeit eines globalen Atomkrieges zur Zeit des Kalten Krieges geringer gewesen wäre (als sie es war), wenn Rechner darüber bestimmt hätten.

Es gab mehrere Vorfälle in denen Irrationales Denken und Menschliches Versagen beinahe die globale Katastrophe ausgelöst hätten.

Und wer glaubt das dieses Risiko heute geringer ist, der irrt, es ist immer noch viel zu groß.

Aber zu Rechnern muß man natürlich anmerken, daß diese nur das wiedergeben, was Menschen ihnen an Programmierung eingeben. Das heißt, daß auch Rechner den Menschen im Endeffekt wiederspiegeln und somit unsere grundsätzlichen Fehler aufgrund der Programmierung von Rechnern durch uns, auch in diesen aufzufinden sind.

Da Menschen von Grund auf Irrational und Dumm sind, so können Programme die wir schreiben nicht so viel intelligenter sein als wir. Sie müssen nachgeradezu systeminhärente Fehler haben.

Aber im Vergleich zu Menschen sind jedwede Rechner völlig harmlos.

Anbei: zur Zeit habe ich eine Wette am laufen, wodurch sich unsere Zivilisation zugrunde richten wird. Werden es Biowaffen sein? Atomwaffen? Grauer Schleim? Eine spannende Frage.
Zitieren
#22
Quintus Fabius schrieb:Anbei: zur Zeit habe ich eine Wette am laufen, wodurch sich unsere Zivilisation zugrunde richten wird. Werden es Biowaffen sein? Atomwaffen? Grauer Schleim? Eine spannende Frage.

Ich wette da eher auf Degeneration und Stagnation, da der Mensch die Natürliche Auslese ausgehebelt hat überleben nun auch die schwachen bzw. kranken Elemente der Spezies und geben ihre Gene weiter, so wird die Menschheit in ca. 700 Jahren schon aufgrund der Anhäufung an defekten nicht mehr Reproduktionsfähig sein. :wink:
Zitieren
#23
Quintus Fabius schrieb:Ich bin der Überzeugung, daß die Wahrscheinlichkeit eines globalen Atomkrieges zur Zeit des Kalten Krieges geringer gewesen wäre (als sie es war), wenn Rechner darüber bestimmt hätten.

Genau das ist der Punkt, den du ja selber widerlegst. Ein Rechner kennt keine Zweifel, er kennt nur entweder oder. Und das Ent und das Oder sind ihm vom Menschen vorgegeben. Insofern nicht der Weisheit letzter Schluß. Beide "Systeme" haben Vor- und Nachteile, allerdings schätze ich die Urteilskraft eines Menschen höher ein, als die jeglicher aktueller Rechner. (Die ja nicht urteilen, sondern nur entscheiden.)
Zitieren
#24
Wir gehen ja von zwei sich gegenüber stehenden Rechnersystemen aus. Und beide müssen natürlich so programmiert sein, daß sie die jeweiligen Parameter des anderen Systems kennen und wann welche Handlung vorzunehmen ist in Reaktion auf Handlungen des anderen Systems.

Die Entscheidung folgt dann entsprechend der Programmierung. Mal abgesehen davon, daß man auch Rechner so programmieren könnte, daß sie "Zweifel" haben oder gewisse Zufallselemente in ihre Entscheidungen mit einbauen, würde ein rein logischer Mechanismus ohne ! solche einprogrammierten "Zweifel" das Risiko trotzdem deutlich senken bzw gesenkt haben. Schlicht und einfach aufgrund der Logik der Entscheidungen, der Transparenz der Mechanismen und Handlungen.

Die Urteilskraft des Menschen zweifle ich an dieser Stelle mal ganz allgemein an. Während Rechner ihrer Programmierung folgen - und diese ist ja bekannt, transparent und man weiß daher was der Rechner wann tun wird - handeln Menschen viel zu oft völlig irrational und gegen jede Logik.

Es gibt sogar Staatsführer die beachtliche C und B Waffen Arsenale unter sich haben und in kürze über Atomwaffen verfügen werden, die allen Ernstes bei gewissen Gelegenheiten ein gewisses Grünes Leuchten wahrnehmen und fest davon überzeugt sind, daß sie den Weltuntergang und die Wiederkehr des Erlösers noch erleben werden.

Wobei die letzte Auffasung vom persönlichen Erleben des Weltuntergangs mal glatt von einer Mehrheit der US Amerikaner ja auch so geglaubt wird. Überhaupt ist der Glaube, dieses bizarre und dumme Konstrukt menschlicher Schwäche die größte Gefahr für die Menschheit.

Solange es das Übel der Religion gibt, werden wir uns so oder so selbst massakrieren. Und wir sind ganz offenkundig zu dumm uns von diesem Übel zu befreien, sind gar in großen Teilen ohne dieses magische Denken gar nicht funktionsfähig.

Es ist für mich übrigens immer wieder ein Wunder, daß der Kalte Krieg tatsächlich ohne Eskalation abgelaufen ist. Das war angesichts der vielen Vorfälle und der ganzen systeminhärenten Fehler das unwahrscheinlichste Ergebnis. Im Jahr 1960 hätte ich jede Summe darauf gewettet, daß es zum Atomkrieg kommt. Und er kam nicht, einfach verblüffend.

Das Glück ist halt oft mit den Dummen.

Revan:

700 Jahre sind eine Menge Zeit. So lange wird unsere technische Zivilisation in keinem Fall mehr Bestand haben. Und mit dem Ende unserer technischen Zivilisation wird auch die natürliche Auslese wieder ganz normal arbeiten und die genetischen Fehlentwicklungen der Menschen in kürzester Zeit ausmerzen.

Unsere Reproduktionsfähigkeit wird aufgrund genetischer Fehlentwicklungen nie untergehen, schlicht und einfach weil es lange vorher zu einem Massensterben ohne Ende kommen wird aufgrund der zwingenden Umstände die auf uns zukommen.

Ich will es mal sehr einfach ausdrücken: In nur 100 Jahren (wobei ich 100 jetzt nur als symbolischen Wert für einen Bereich zwischen 50 und 150 Jahren verstanden wissen möchte) werden

mehrere Milliarden Menschen sterben müssen.

So oder so. Allein dieses Ausbluten und die damit einher gehenden Umstände werden genügend Schwache auslöschen.
Zitieren
#25
Quintus Fabius schrieb:....
700 Jahre sind eine Menge Zeit. So lange wird unsere technische Zivilisation in keinem Fall mehr Bestand haben. Und mit dem Ende unserer technischen Zivilisation wird auch die natürliche Auslese wieder ganz normal arbeiten und die genetischen Fehlentwicklungen der Menschen in kürzester Zeit ausmerzen.
....
:wink: also bei Star Wars waren die Menschen den Roboterarmeen überlegen, bei Raumschiff Enterprise auch ... ich warte eigentlich nur darauf, dass endlich "die Macht" in mir erweckt wird und ich ein Jedi-Ritter werde :wink:
Zitieren
#26
Wenn man über die Gefährlichkeit von Maschinen für den Kampfeinsatz im weiteren Kontext sprechen möchte, dann sind Naniten meiner Ansicht nach eine gewisse Gefahr.

Wenn die technische Weiterentwicklung nicht unterbrochen wird, dann werden Naniten in einiger Zeit als Waffen einsetzbar sein.

Und Nanitenwaffen sind nun etwas, was wirklich das Potential hat, gefährlich zu werden.

Erich:

Star Wars wie Enterprise sind ein sehr schönes Beispiel für einen der entscheidendsten Fehler des Menschen an sich: Unser Gehirn benutzt nämlich fast immer für die Vorhersage der Zukunft die Strukturextrapolierung.

Dieser systeminhärente Fehler des Menschlichen Gehirns hat schon viele Katastrophen verursacht. Von daher ist dein Eintrag hier bei allem Humor sogar von einer gewissen Bedeutung gerade für diese Thematik.

Leute wie du sind Musterbeispiele dafür, wie Menschen Strukturextrapolierung betreiben, das zeigen alle deine Einträge ganz klar auf. Man denkt die gegenwärtigen Dinge weiter.

Geschichtlich aber gibt es allzu oft anstelle einer solchen Weiterentwicklung eine Menge von Brüchen und Sprüngen. Und die Strukturextrapolierung verhindert nun, daß wir solche Umbrüche erkennen können, kommen sehen.

Wenn man nun über die Zukunft im mittelfristigen Bereich spekulieren möchte, dann wird die Sicht auf darin liegende Gefahren für Menschen wie dich natürlich durch die Strukturextrapolierung beeinträchtigt.
Zitieren
#27
Zitat:und man weiß daher was der Rechner wann tun wird - handeln Menschen viel zu oft völlig irrational und gegen jede Logik.

Das halte ich für falsch. Code wird von Menschen erzeugt, aber ist so komplex, dass nach 3 Tagen keiner mehr weiß, wie was er eigentlich im Detail macht. Menschen programmieren irrational, unlogisch und falsch. :wink:
Zitieren
#28
Erich schrieb::wink: also bei Star Wars waren die Menschen den Roboterarmeen überlegen, bei Raumschiff Enterprise auch ... ich warte eigentlich nur darauf, dass endlich "die Macht" in mir erweckt wird und ich ein Jedi-Ritter werde :wink:
:lol:

7ig4 schrieb:Genau das ist der Punkt, den du ja selber widerlegst. Ein Rechner kennt keine Zweifel, er kennt nur entweder oder. Und das Ent und das Oder sind ihm vom Menschen vorgegeben. Insofern nicht der Weisheit letzter Schluß.
Der Zweifel entsteht beim Mensch primär durch Anzahl von Faktoren die er richtig gewichten müsste. Er kann es aber häufig nicht, weil ihn die Komplexität der Faktoren überfordern. Es häufig im Selbsterhaltungstrieb endet, was im Kriegsfall nicht im Kampf sondern in der Verweigerung endet. Oder in der Geschäftswelt lieber nichts, als einen Fehler begeht ... Letzteres wohl eher kulturbedingt.

Der Vorteil des Programmierers ist der, dass er in aller Ruhe die Ursachenketten richtig ins Programm integrieren kann, ohne Todesangst und in aller Regel mit mehr Übersicht. Wenn man das richtig gemacht hat, seh ich keinen Grund, wieso man dem Computer Zweifel beibringen müsste. Auch nichts tun, kann ja eine richtige Entscheidung sein.


@Quintus
Gerade in der Rüstungstechnik bist du doch umgeben von Maschinen und Robotern, die völlig autonom dem Menschen Leistungen erbringenen zu denen er nie fähig wäre. Kann der Mensch fliegen, besitzt er ein Radar, ist er eine Lenkwaffe die sich selbständig ins Ziel lenkt. Er kann nichts von alledem.
Der Roboter hat längst einzug gehalten. In einem Flugzeug sind 99.5% roboterisiert. Die 0.5% die der Mensch noch an Entscheidungen und Leistungen beiträgt, ist lächerlich klein.

Ich seh das Problem eher so, dass es auf Staatsebene eine Demokratie sein muss, und nicht ein einzelnes Programm welches die alles entscheidende Logik beinhaltet (die gibt es nicht). Über alle zu entscheiden (grosse Tragweite), kann/sollte man nie einem einzelnen Individuum überlassen. Auch nicht einem einzelnen Programm. Aus dem gleichen Grund wieso ne Monarchie oder ein Einparteiensystem ein Blödsinn ist.

Zitat:700 Jahre sind eine Menge Zeit. So lange wird unsere technische Zivilisation in keinem Fall mehr Bestand haben. Und mit dem Ende unserer technischen Zivilisation wird auch die natürliche Auslese wieder ganz normal arbeiten und die genetischen Fehlentwicklungen der Menschen in kürzester Zeit ausmerzen.
Das seh ich nicht so düster. Wenn uns etwas kaputt macht, dann sind es die Zwänge unseres Wirtschaftssystems. Z.B. dass wir aus nationalstaatlichen Gründen nicht auf die Klimaveränderungen reagieren können. Jeder versucht seine Industrie und sein Gewerbe zu schützen und so muss es jedes Mal bis kurz vor Zwölf sein, bis endlich Vernunft einkehrt. Analogie dazu, sicher die atomare Rüstungsspirale wonach man zig mal den Planeten hätte vernichten können.

Ich denke nicht, dass da ein Compterprogramm helfen würde. Solang die beiden Blöcke nicht zusammengearbeitet haben, gab es keine sinnvolle Lösung für das Problem. Das Beste ist es, wenn sich die beiden Parteien vertragen und man die Rüstungsaufgaben auf ein sinnvolles Mass herunterfahren kann. Das Gleiche gilt für die Klimaentwicklung, solang man sich auf keinerlei Fesseln im wirtschaftlichen Wettbewerb einigen kann, wird das mit der Erwärmung so weitergehen. Ein Aussenstehender würde sagen, die Spielregeln sind einfach falsch.
Zitieren
#29
Phantom schrieb:Der Vorteil des Programmierers ist der, dass er in aller Ruhe die Ursachenketten richtig ins Programm integrieren kann, ohne Todesangst und in aller Regel mit mehr Übersicht.

Ich stelle mir gerade mal, wie es wäre, wenn ich das Tempo meiner Entwicklungen vorgeben würde, um in aller Ruhe die Ursachenketten eines Problems zu analysieren und dann den Code in dem Bereich entsprechend sauber überarbeiten (-> Refactoring) könnte. :lol: 8) Du hast nicht den leisesten Hauch einer Ahnung, vom operativen Bereich industrieller Softareentwicklung. Der Job in dem Entwickler so arbeiten könnten, wäre garnicht bezahlbar. Der Beadarf so zu arbeiten, ist dem Management garnicht vermittelbar. Die verstehen das intellektuell nicht. "Es tut doch", "Mir scheißegal. Das ist Dein Problem. Nächste Woche Dienstag ist Auslieferung." :roll: -> Bitteschööön..
Und da es allen Abteilungen so geht und diese Projekte ineinandergreifen, wirds zuweilen mal richtig spaßig. Programmierer sind chronisch überfordert, gestresst und unter enormem Leistungs- und Termindruck. Softwareentwicklung scheitert ab einem gewissen Punkt immer, da die Komplexität exponentiell zunimmt. Bei den einen geht das früher in die Hose, bei den anderen später. Das ist alles.
Zitieren
#30
Shahab3 schrieb:Ich stelle mir gerade mal, wie es wäre, wenn ich das Tempo meiner Entwicklungen vorgeben würde, um in aller Ruhe die Ursachenketten eines Problems zu analysieren und dann den Code in dem Bereich entsprechend sauber überarbeiten (-> Refactoring) könnte. :lol: 8) Du hast nicht den leisesten Hauch einer Ahnung, vom operativen Bereich industrieller Softareentwicklung.
Du kannst doch aus deiner Überforderung nicht generell auf alle schliessen.

Zitat:Der Job in dem Entwickler so arbeiten könnten, wäre garnicht bezahlbar.
Wenn der Entwickler so funktionieren würde wie du das beschreibst, würde nichts funktionieren. Es gäbe keine funktionierenden Programme, alle wären voller systemrelevanter Fehler. Die Frage ist doch nicht die ob Fehler passieren, klar passieren Fehler. Die Frage ist, ob eine Aufgabe ohne Computer/Software a) überhaupt möglich ist oder b) halt viel effizenter durch den Computereinsatz ist. Wenn ja ist die Entwicklung gerechtfertigt.

Zitat:Der Beadarf so zu arbeiten, ist dem Management garnicht vermittelbar. Die verstehen das intellektuell nicht. "Es tut doch", "Mir scheißegal. Das ist Dein Problem.
Das stimmt. So ist das nun mal, gibts aber auch in anderen Branchen, dass die oben ziemlich Nullen sind, viel mehr verdienen und es selbst niemals auf die Reihe kriegen würden. So ungerecht ist nun mal die Welt.

Zitat:Programmierer sind chronisch überfordert, gestresst und unter enormem Leistungs- und Termindruck. Softwareentwicklung scheitert ab einem gewissen Punkt immer, da die Komplexität exponentiell zunimmt. Bei den einen geht das früher in die Hose, bei den anderen später. Das ist alles.
Du Ärmster, dann such dir einen anderen Job. Schlussendlich ist es deine Aufgabe ein komplexes Problem in viele kleine lösbare Probleme zu teilen. Wenn du damit überfordert bist, hast du vielleicht auch den falschen Job gewählt.
Zitieren


Gehe zu: