Zitat von Schurmann-a...
4. Sind autonome motivierte Roboter gefährlich?
In Antwort von WolfHenk sind Argumente der 30. Jahren des 20. Jahrhundert benutzt (sogar die Horrorvorstellung von Frankenstein wird angedeutet)...
Allerdings! Aber falsch verstanden worden. Siehe mein nächster Satz.
Zitat von Schurmann-a...Das sind Phantasie Vorstellungen die mit der Wirklichkeit nichts gemeinsames haben...
Um mein Wort vom Frankenstein-Syndrom besser diskutieren zu können verweise ich mal auf http://www.sandammeer.at/rezensionen/asimov-roboter.htm, http://www.anu.edu.au/people/Roger.Clarke/SOS/Asimov.html, Drux, R. (Hrsg.): Der Frankenstein-Komplex. Kulturgeschichtliche Aspekte des Traums vom künstlichen Menschen. Frankfurt a.M. 1999 und natürlich auf Stories von Asimov selbst, der dieses Wort geprägt hat.
Zitat von Schurmann-a...Die Aktivitäten eines emotionalen, motivierten Roboters sind determiniert und tuen nur das was vorgesehen ist...
Exakt hier hake ich wieder ein: Wer bestimmt, was "vorgesehen" ist? Das ist ein Programmierer. Und wer führt das dann aus? Ein Roboter.
Also eine Maschine.
Eine Maschine die autonom arbeiten kann und die Motivation entwickeln kann?
Schurmann-a schreibt:
Zitat von Schurmann-a...Wichtig für die Bestimmung der Motivation des Roboters sind seine Bedürfnisse, die der Entwickler und Auftraggeber bestimmen...
und
Zitat von Schurmann-a...Natürlich kann man Roboter entwickeln die sich falsch verhalten (falsch funktionieren) im Sinne von Anwendbarkeit. Aber jede Maschine kann man falsch bauen - Roboter sind keine Ausnahme.
Ich vermute emotionelle autonome Roboter können auch im Militär verwendet werden...
Und genau das ist mit diesen 70 Jahre alten Überlegungen des Herrn Asimov verhindert. "Ein Roboter darf durch sein Handeln oder Nichthandeln einem Menschen keinen Schaden zufügen." Das ist absolut eindeutig und verhindert wenn man es wortgetreu implementiert jegliche dem Menschen schädliche Nutzung einer Maschine.
Ein autonomer, also frei beweglicher Robot MUSS als Erstes Ziel immer diese alte Regel befolgen.
Zitat von Schurmann-a...Solche Roboter sind jedoch keine Waffen. So wie man die Produktion von PKW nicht stoppt weil die Streitkräfte sie benutzen, so hat es auch keinen praktischen Sinn die Entwicklung von autonomen Robotern einzustellen nur weil sie im Militär angewandt werden können.
Nun, das ist auch nicht eindeutig so bestimmbar. Es kann sehr wohl militärisch genutzte Roboter geben, jedoch dürfen diese auch nur nach den drei Gesetzen funktionieren.
Zitat von Otto Heuer 1994 (deutsche Übersetzung 1999 von T. Brinkmann)...Asimovs zentrale Einsicht war, daß, wie als wir unsere Werkzeuge für den sicheren Gebrauch herstellen, wir das gleiche mit Robotern tun wurden, wenn wir erst einmal mit ihrer Herstellung begännen -- und dass die Ethik die Hauptschutzvorrichtung für ein intelligentes Wesen ist. Wir würden deshalb Ethik in unsere Roboter einbauen, um sie davon abzuhalten auf unkontrollierbare Amokläufe zu gehen.
Im gewissen Sinn sind die spezifischen Drei (Vier) Gesetze selbst ein technisches Detail, das Äquivalent der Roboter zu den Zehn Geboten. Es ist ein spezifisches ethisches System, aber nicht das einzig mögliche. In Asimovs Universum sind sie die Grundlage für die Roboter-Ethik und so absolut grundlegend für das Robothirn-Design, dass es praktisch unmöglich ist, einen Roboter ohne sie zu bauen...
Zitat von Wolfram Henkel (1999) auf wolfhenk.de...Heutige Industrieroboter werden auch schon nach diesen Gesetzen programmiert, wennauch sich kaum einer der heutigen IR-Programmierer (und der Autor dieser Site kennt viele dieser Leute) dessen so richtig bewußt ist.
Das Erste Gesetz wird durch Notaus-Kreise und Schutzzäune, Lichtschranken und Sicherheitszonen realisiert. Wenn ein Mensch den Arbeitsbereich der Maschine betritt, wird ein Nothalt ausgelöst.
Das Zweite Gesetz ist die Reaktion der Maschine auf den Werker, der den großen grünen Startknopf drückt. Klar, warum sollte die Industrie Roboter kaufen, wenn sie nichts Sinnvolles tun?
Zu guter Letzt das Dritte Gesetz. Davon bekommen die wenigsten Personen etwas mit. Der Selbstschutz der Maschine: Der wird so realisiert, daß man als Programmierer ruckartige Bewegungen vermeidet, also den Roboter fließende Bewegungen machen läßt. Dadurch werden Motoren und Getriebe geschont. Außerdem werden die Bewegungen dadurch schneller, weil nicht alle Augenblicke die Bewegung durch einen programmierten Halt unterbrochen wird. In der Industrie heißt das dann "Taktzeitoptimierung"...
und zum Schluß nocheinmal das Alter der drei Gesetze:
Zitat von Otto Heuer...Die erste Story, die die drei Gesetze enthielt was "Runaround", die erstmals 1942 im "Astounding Magazine of Science Fiction" erschien...
und damit klar ist, wovon ich rede:
Zitat von Isaac Asimov (1940)
1. Ein Roboter darf keinen Menschen verletzen oder es durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
2. Ein Roboter muss die Befehle, die ihm durch Menschen gegeben werden, ausführen außer wenn solche Befehle im Widerspruch zum Ersten Gesetz stehen.
3. Ein Roboter muss seine eigene Existenz schützen so lang dies nicht in Widerspruch zum Ersten oder Zweiten Gesetz steht.
und um auch einen p.S. zu hinterlassen:
Wenn rmac schreibt: "letzendlich handelt es sich m.E. "nur" um das "algorithmisieren" von Verhaltensprinzipien die seit dem Anbeginn des terrestrischen Lebens gelten", dann sehe ich allein schon in der Formulierung "m.E." also "meines Erachtens" das deutliche Zeichen, daß er sich dahingehend eine Meinung zum Thema gebildet hat, die er hier zum Ausdruck bringt. Das ist legitim und kein persönlicher Angriff. Vielleicht ist er von der Arbeit des Herrn Schurmann nicht überzeugt und möchte sich kritisch äußern.
Ich jedenfalls kann keinen Grund sehen, daß er das nicht so ausdrücken darf.
Ich werde mir in stillen Momenten mal die Zeit nehmen, die Logik aus Ihren Schriften zu extrahieren, Herr Schurmann, und dann werde ich mir überlegen, ob ich Ihnen darauf antworten werde.
Wir hier sind alle Profis, Leute, die davon leben, solche Sachen sicher und effektiv zu nutzen und verfügbar zu machen. Wenn wir einen falschen Knopf drücken, ein Komma falsch setzen, dann kann es ziemliche Schäden geben. Und das wollen wir nicht...