Neuer motivierter Roboter

  • Hallo alle,


    ich kann das ganze eigentlich nur als Witz auffassen. Ich habe die Patentschriften nicht gelesen und werde sie auch nicht lesen.


    Aber mir kommt es so vor, als wuerde hier ueber etwas diskutiert, was unter anderem auch von Isaak Asimov vor Jahren beschrieben wurde.
    Maschinen deren Entscheidungsmuster von komplexerer Logik bestimmt werden.
    Im Ansatz gibt es die Dinger in primitiver Form schon (Tamagotchi oder AIBO).
    Muss ich jetzt Lizenzgebuehren zahlen, wenn ich in einer Automatisierung einen nicht starren Ablauf mache?
    Eine Patentierbarkeit bestreite ich!


    Zitat

    Die Behauptung, daß andere Roboter autonom handeln stimmt nicht; sie führen nur autonom einige Bewegungsabläufe aus. Sie können nicht wirklich autonom handeln solange sie nicht realistisch unterscheiden können welche situationen und Aktivitäten gegenwärtig für sie wichtig sind.



    Herr Schurmann, Sie werfen hier Leuten vor, keine Ahnung von Ihrer Arbeit zu haben - das finde ich OK. Ein Industrieroboter macht das was er soll autonom und das muessen nicht unbedingt Bewegunge sein. Dass zeigt, dass Sie ebenfalls keine Ahnung von der Arbeit eben dieser Leute haben - was ich auch OK finde.


    MFG Stefan

  • ANZEIGE
  • Zitat von Schurmann-a

    ...
    4. Sind autonome motivierte Roboter gefährlich?
    In Antwort von WolfHenk sind Argumente der 30. Jahren des 20. Jahrhundert benutzt (sogar die Horrorvorstellung von Frankenstein wird angedeutet)...


    Allerdings! Aber falsch verstanden worden. Siehe mein nächster Satz.


    Zitat von Schurmann-a

    ...Das sind Phantasie Vorstellungen die mit der Wirklichkeit nichts gemeinsames haben...


    Um mein Wort vom Frankenstein-Syndrom besser diskutieren zu können verweise ich mal auf http://www.sandammeer.at/rezensionen/asimov-roboter.htm, http://www.anu.edu.au/people/Roger.Clarke/SOS/Asimov.html, Drux, R. (Hrsg.): Der Frankenstein-Komplex. Kulturgeschichtliche Aspekte des Traums vom künstlichen Menschen. Frankfurt a.M. 1999 und natürlich auf Stories von Asimov selbst, der dieses Wort geprägt hat.


    Zitat von Schurmann-a

    ...Die Aktivitäten eines emotionalen, motivierten Roboters sind determiniert und tuen nur das was vorgesehen ist...


    Exakt hier hake ich wieder ein: Wer bestimmt, was "vorgesehen" ist? Das ist ein Programmierer. Und wer führt das dann aus? Ein Roboter.
    Also eine Maschine.
    Eine Maschine die autonom arbeiten kann und die Motivation entwickeln kann?
    Schurmann-a schreibt:

    Zitat von Schurmann-a

    ...Wichtig für die Bestimmung der Motivation des Roboters sind seine Bedürfnisse, die der Entwickler und Auftraggeber bestimmen...


    und

    Zitat von Schurmann-a

    ...Natürlich kann man Roboter entwickeln die sich falsch verhalten (falsch funktionieren) im Sinne von Anwendbarkeit. Aber jede Maschine kann man falsch bauen - Roboter sind keine Ausnahme.
    Ich vermute emotionelle autonome Roboter können auch im Militär verwendet werden...


    Und genau das ist mit diesen 70 Jahre alten Überlegungen des Herrn Asimov verhindert. "Ein Roboter darf durch sein Handeln oder Nichthandeln einem Menschen keinen Schaden zufügen." Das ist absolut eindeutig und verhindert wenn man es wortgetreu implementiert jegliche dem Menschen schädliche Nutzung einer Maschine.
    Ein autonomer, also frei beweglicher Robot MUSS als Erstes Ziel immer diese alte Regel befolgen.


    Zitat von Schurmann-a

    ...Solche Roboter sind jedoch keine Waffen. So wie man die Produktion von PKW nicht stoppt weil die Streitkräfte sie benutzen, so hat es auch keinen praktischen Sinn die Entwicklung von autonomen Robotern einzustellen nur weil sie im Militär angewandt werden können.


    Nun, das ist auch nicht eindeutig so bestimmbar. Es kann sehr wohl militärisch genutzte Roboter geben, jedoch dürfen diese auch nur nach den drei Gesetzen funktionieren.


    Zitat von Otto Heuer 1994 (deutsche Übersetzung 1999 von T. Brinkmann)

    ...Asimovs zentrale Einsicht war, daß, wie als wir unsere Werkzeuge für den sicheren Gebrauch herstellen, wir das gleiche mit Robotern tun wurden, wenn wir erst einmal mit ihrer Herstellung begännen -- und dass die Ethik die Hauptschutzvorrichtung für ein intelligentes Wesen ist. Wir würden deshalb Ethik in unsere Roboter einbauen, um sie davon abzuhalten auf unkontrollierbare Amokläufe zu gehen.
    Im gewissen Sinn sind die spezifischen Drei (Vier) Gesetze selbst ein technisches Detail, das Äquivalent der Roboter zu den Zehn Geboten. Es ist ein spezifisches ethisches System, aber nicht das einzig mögliche. In Asimovs Universum sind sie die Grundlage für die Roboter-Ethik und so absolut grundlegend für das Robothirn-Design, dass es praktisch unmöglich ist, einen Roboter ohne sie zu bauen...


    Zitat von Wolfram Henkel (1999) auf wolfhenk.de

    ...Heutige Industrieroboter werden auch schon nach diesen Gesetzen programmiert, wennauch sich kaum einer der heutigen IR-Programmierer (und der Autor dieser Site kennt viele dieser Leute) dessen so richtig bewußt ist.
    Das Erste Gesetz wird durch Notaus-Kreise und Schutzzäune, Lichtschranken und Sicherheitszonen realisiert. Wenn ein Mensch den Arbeitsbereich der Maschine betritt, wird ein Nothalt ausgelöst.
    Das Zweite Gesetz ist die Reaktion der Maschine auf den Werker, der den großen grünen Startknopf drückt. Klar, warum sollte die Industrie Roboter kaufen, wenn sie nichts Sinnvolles tun?
    Zu guter Letzt das Dritte Gesetz. Davon bekommen die wenigsten Personen etwas mit. Der Selbstschutz der Maschine: Der wird so realisiert, daß man als Programmierer ruckartige Bewegungen vermeidet, also den Roboter fließende Bewegungen machen läßt. Dadurch werden Motoren und Getriebe geschont. Außerdem werden die Bewegungen dadurch schneller, weil nicht alle Augenblicke die Bewegung durch einen programmierten Halt unterbrochen wird. In der Industrie heißt das dann "Taktzeitoptimierung"...


    und zum Schluß nocheinmal das Alter der drei Gesetze:


    Zitat von Otto Heuer

    ...Die erste Story, die die drei Gesetze enthielt was "Runaround", die erstmals 1942 im "Astounding Magazine of Science Fiction" erschien...


    und damit klar ist, wovon ich rede:


    Zitat von Isaac Asimov (1940)


    1. Ein Roboter darf keinen Menschen verletzen oder es durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
    2. Ein Roboter muss die Befehle, die ihm durch Menschen gegeben werden, ausführen außer wenn solche Befehle im Widerspruch zum Ersten Gesetz stehen.
    3. Ein Roboter muss seine eigene Existenz schützen so lang dies nicht in Widerspruch zum Ersten oder Zweiten Gesetz steht.


    und um auch einen p.S. zu hinterlassen:
    Wenn rmac schreibt: "letzendlich handelt es sich m.E. "nur" um das "algorithmisieren" von Verhaltensprinzipien die seit dem Anbeginn des terrestrischen Lebens gelten", dann sehe ich allein schon in der Formulierung "m.E." also "meines Erachtens" das deutliche Zeichen, daß er sich dahingehend eine Meinung zum Thema gebildet hat, die er hier zum Ausdruck bringt. Das ist legitim und kein persönlicher Angriff. Vielleicht ist er von der Arbeit des Herrn Schurmann nicht überzeugt und möchte sich kritisch äußern.
    Ich jedenfalls kann keinen Grund sehen, daß er das nicht so ausdrücken darf.


    Ich werde mir in stillen Momenten mal die Zeit nehmen, die Logik aus Ihren Schriften zu extrahieren, Herr Schurmann, und dann werde ich mir überlegen, ob ich Ihnen darauf antworten werde.


    Wir hier sind alle Profis, Leute, die davon leben, solche Sachen sicher und effektiv zu nutzen und verfügbar zu machen. Wenn wir einen falschen Knopf drücken, ein Komma falsch setzen, dann kann es ziemliche Schäden geben. Und das wollen wir nicht...

    Wolfram (Cat) Henkel

    never forget Asimov's Laws at the programming of robots...

    "Safety is an integral part of function. No safety, no production. I don't buy a car without brakes."


    Messages und Mails mit Anfragen wie "Wie geht das..." werden nicht beantwortet.

    Diese Fragen und die Antworten interessieren jeden hier im Forum.


    Messages and Mails with questions like "how to do..." will not be answered.

    These questions and the answers are interesting for everyone here in the forum.

    Einmal editiert, zuletzt von WolfHenk ()

  • sehr interessante Diskussion.


    Werde erst antworten, wenn ich wieder nüchtern bin.


    Dachte nicht, dass ich mich über den DRITTENNN soooo freuen könnte.
    :waffen100:
    :fussballer:
    :flagge_d1: :flagge_d1: :fussballer:

    Menschen brauchen Roboter, aber auch Roboter brauchen Menschen.

    Roboter sichern die Arbeitsplätze und den Fortschritt der Industrieländer, da sie kostengünstig und qualitativ hochwertig produzieren.

    Ohne Automatisierung mit Robotern werden unsere Produkte in Billiglohnländern hergestellt.

    >> Abonniere meinen YouTube Roboterkanal <<

  • Hallo,


    ich denke, dass viele Mißverständnisse in dieser Diskussion daraus herleiten, dass einige der hier vom Neuling Schurmann-a verwendeten Begriffe (möglicherweise einfachheitshalber) aus der Psychologie höherer biologischer Lebewesen entlehnt und (m.E. recht sorglos) auf die Beschreibung technischer Systeme bzw. Prinzipien angewendet wurden. Möglicherweise geschah dies auch aus der Motivation heraus dem innovativen Aspekt der ganzen Angelegenheit durch ein paar griffige Schlagworte auf die Sprünge zu helfen. Ob das allerdings dem fachlichen Verstehen der besagten Arbeit besonders zuträglich ist, laße ich mal dahingestellt. Nur, bei einem unsachgemäßen Einsatz von Terminologie sollte sich der Autor dann aber nicht über die Reaktionen des Publikums wundert und dies als "ideologisch motivierte Abneigung gegenüber KI" herabstufen. Möglicherweise muß das aber auch bei Patentschriften so sein, damit eine flächendeckende, elastische Formulierung möglichst viele Lizenz-Schlupflöcher stopft. Wer weiß, wer weiß...


    Hier mal die (Wikipedia-)Definition von "Emotion":
    Eine Emotion (v. lat.: ex „heraus“ und motio „Bewegung, Erregung“) ist ein psychophysiologischer Prozess, der durch die mentale Bewertung eines Objekts oder einer Situation ausgelöst wird und mit physiologischen Veränderungen, spezifischen Kognitionen, subjektivem Gefühlserleben und einer Veränderung der Verhaltensbereitschaft einhergeht. Emotionen treten beim Menschen und bei höheren Tieren auf. [...]
    Eine Emotion ist ein komplexer Prozess, der auf verschiedenen psychischen Funktionsebenen abläuft. Davon zu unterscheiden ist der Begriff Gefühl, der nur das subjektive Erleben der Emotion bezeichnet, wie z. B. Freude, Lust, Geborgenheit, Liebe, Trauer, Ärger, Wohlbehagen. Gefühle werden gewöhnlich als verschieden von Wahrnehmungen, Empfindungen und Denken, aber auch vom Wollen angesehen, können sich jedoch mit allen anderen Erfahrungsweisen verbinden. Vielfach wird angenommen, dass Gefühle Lust- und Unlustcharakter haben und durch ihr Angenehm- oder Unangenehmsein den Erfahrungen ein Wertprofil aufprägen (vergl. Wert). [...]


    ...und hier die von "Motivation":
    Motivation (lateinisch movere = bewegen; PPP = motum; motus = die Bewegung) bezeichnet in den Humanwissenschaften sowie in der Ethologie einen Zustand des Organismus, der die Richtung und die Energetisierung des aktuellen Verhaltens beeinflusst. Mit der Richtung des Verhaltens ist insbesondere die Ausrichtung auf Ziele gemeint. Energetisierung bezeichnet die psychischen Kräfte, welche das Verhalten antreiben. Ein Synonym von „Motivation“ ist „Verhaltensbereitschaft“ [...]



    Ich denke, dass wenn man diese Definitionen/Begrifflichkeiten auf einen Roboter/eine Maschine bezieht, wohl 99,8% aller damit konfrontierten Menschen sehr skeptisch und ablehnend darauf reagieren würden. Als Folge daraus hätten somit real-existierende "emotionale" Roboter echtes Ladenhüterpotential (nur gut, dass ich kein Patent über sowas besitze). Wie schon in früheren Postings erwähnt, bin ich durchaus in der Lage den Begriff "Motivation" so weit zu abstrahieren, dass es m.E. als Begriff in der Robotik durchaus eine Berechtigung haben kann, nur bei "Emotion" ist dies nicht mehr so. Was sehr abschreckend bei beiden Begriffen wirkt, ist, dass man bei Maschinen nicht von derem "subjektivem Gefühlserleben" oder deren "Verhaltensbereitschaft" abhängig sein will; sie sollen einfach nur funktionieren.


    Ein paar klärende Worte und/oder die Präzisierung der Begrifflichkeiten zum Start dieses Themas (wie im letzten Posting des Neulings: "[...]Emotionen und Motivation eines Roboters sind in Wirklichkeit Pseudo-Emotionen und Pseudo-Motivation, und funktionieren auch anders als bei Menschen. [...] Also, Emotionen und Motivation eines Roboters darf man nicht verwechseln/gleichsetzen mit Emotionen und Motivation eines Menschen [...]") hätten sicherlich zahlreichen Mißverständnissen vorgebeugt. Ich denke die Mehrheit der Teilnehmer hier in diesem Forum sind in irgendeiner Form mit dem Programmieren von technischen Geräte (oder auch dem Verfassen von techn. Bedienungsanleitungen etc.) beschäftigt und wissen daher wie immens wichtig es ist sich möglichst unmißverständlich auszudrücken. Hier ein paar Tipps für den Neuling:
    z.B.: besser "bedürfnisorientiert", "bedürfnisgesteuert", "mit dynamischer Verhaltensanpassung" oder "mit adaptiver Priorisierung von Habitus-Regeln". Bei geschickter Wortwahl kann man damit eine Patentschrift (noch weiter) aufwerten. Schließlich würde man mit einer, dem tatsächlichen technischen Sachverhalt angepassten Terminologie, dafür sorgen, dass andere Mitmenschen (oder besser potentielle Lizenznehmer) das auch verstehen.



    Im folgenden Abschnitt möchte ich mich nun dringend auf die vom Neuling Schurmann-a gemachte "Antwort auf die Kritik von Global Moderator rmac" beziehen. Einfachheitshalber ist der Originaltext des Neulings in Fett gesetzt und meine Kommentare dazu in Kursiv :


    Die Äußerung von rmac über Angst eines Roboters ist typisch für Personen die emotionale Roboter nicht kennen. Ein emotionaler Roboter muß überhaupt keine Angst haben. (Dass er das muß, habe ich auch nicht behauptet. Ein Mensch muß auch nicht ängstlich sein, ist es aber situationsabhängig doch. Bei einem echten emotionalen System würde vermutlich ein Energiestatus von <80% die Motivation auslösen eine Energiequelle zu suchen. Bei <50% würde ES sich dann doch langsam „Sorgen machen“ und bei <10% würde ES die Suche nach Energie als Top-Prio einstufen, was man bei unsachgemäßer Wortwahl auch durchaus als PANIK bezeichnen kann. Ist alles nur eine Frage der Abstimmung von Begrifflichkeiten zw. Autor und Leser)


    Seine Motivation zu handeln basiert auf gegenwärtigen Befriedigungen seiner Bedürfnisse die anders sind als die eines Lebewesen. Wie intensiv diese Befriedigungen sein sollen bestimmen der Entwickler und der Auftraggeber des motivierten Roboters.
    (Das hätte sicherlich gut in eine erklärende Einleitung zu diesem Thema gepasst)
    [...]


    In keiner meiner Arbeiten ist das Bedürfnis nach Vergeltung und Rache als positives Reizmuster definiert ( oder als was positives Gfühl betrachtet). In meinem Patent erwähnt im Beitrag " Neuer motivierter Roboter" ist solches Bedürfnis nicht erwähnt. So wundert mich warum Global Moderator rmac solche falsche Informationen verbreitet.
    (Ich zitiere hier mal den entsprechenden Absatz aus der Patentschrift „(WO/2004/044837) DETERMINATION AND CONTROL OF THE ACTIVITIES OF AN EMOTIONAL SYSTEM“ von A.Schurmann (Zitate sind ja urheberrechtlich erlaubt):


    „Für die positiven Reizmuster eps, ups, und vns definieren wir epr wie folgt epr (aS, OSM, eps, b,., t) (Nb/N) * des (aS, b, t) * sqrt(((y-bef(as,b,t))2+cr2*(des(as,b,t)-z))* nq(b)), wenn y und des (aS, b, t) > z = 0, andernfalls wobei cr2 = 0.4 und 0.5 < 720 kann wie folgt bestimmt werden : nq(GR(G)) = 270 (GR (G)-das Bedürfnis zur Gruppe G zu gehören), = 40 (NEw(OSM) - das Neuglerbedürfnis bei Wahrneh- mung eines Objektes oder einer Situation OSM), = 50 (NEk (OSM)-das Neugierbedürfnis Eigenschaften des OSM zu erkennen), = 60 (NEz (SM) ist das wie Situation SM erreicht werden kann), = 25 (MA-das Machtbedürfnis), = 200 (SE-das Bedürfnis nach sexuellen Beziehungen), = 550 (LI(OSA)-die Liebe des aS zu OSA, d. h. zum Objekt, Situation oder zur Aktivität OSA), = 570 (AN-das Bedürfnis nach Anerkennung), nq = 120 Bedürfnisse des aS), nq (BH (OK)) = 400 OK zu helfen wenn OK die Hilfe braucht), nq(VR(PG)) = 10 Bedürfnis nach Vergeltung und Rache gegen nq (WA (Pa)) = 240 *ag(Pa) die Befehle und Wünsche der Person oder des Agenten Pa zu erfüllen), und ag (Pa) < 3 ist das Gewicht der Befugnisse die Pa über aS hat. epr (aS, OSM, ups, b,., t) (Nb/N)*cb1*p *epr (aS,OSM1, eps, wobei = 0.3 und in OSM1. Ej ist. epr OSM, vns, b,., t) (Nb/N)*p *enr(aS,OSM1,ens,b,.,t), wobei in EI ist.“
    -Zitatende-


    Ergo ist in der Patentschrift sehrwohl „das Bedürfnis nach Vergeltung und Rache“ und auch ein „Machtbedürfnis“ erwähnt. Aufgrund der unzureichenden Formatierung erschließt sich der mathematisch-technische Zusammenhang nur unzureichend. Da ich das Patent (auf der Suche nach neuen, bahnbrechenden Erkenntnissen) nur schnell überflogen hatte , habe ich auch daher in meinem ersten Posting ausdrücklich folgenden Einschränkung gemacht:“(wenn ich das richtig verstanden habe, ansonsten bitte diesen Abschnitt ignorieren).“ Aber scheinbar ist vom Neuling nur dieser einschränkende Zusatz ignoriert worden und nicht der besagte Abschnitt. Um das hier klarzustellen würde ich Neuling Schurmann-a doch bitten die o.g. Definitionen hier mal in einem vernünftigen Layout zu präsentieren und/oder ausreichend zu erläutern.



    Es ist eine Unterstellung und es ist falsch, daß der gesagte motivierte Roboter sämtliche menschliche Emotionen abbildet.
    (Das habe ich auch in dieser Form nie behauptet)


    Die Emotionen dieses Roboters funktionieren anders als bei Menschen; deswegen würden diese Roboter zuverlässiger und effizienter arbeiten und nicht so dum wie ein von Gefühlen besessener Mensch.
    (Wieder was für die Einleitung)


    Die weitere Meinung des rmac, daß mein Patent sich mit "algorithmischen" Verhaltensprinzipien die seit dem Anbeginn des terrestrischen Lebens gelten befaßt ist einfach falsch
    (Hierzu habe ich mal einige markige Sprüche aus der Einleitung des Patentes aufbereitet:
    ...das Verhalten des autonomen Systems ist durch Motivationen bestimmt, die durch Intensitäten der Befriedigungen und Verlangen, und Reizmustern in bezug auf Bedürfnisse bestimmt sind.
    ...das Verfahren behandelt dringende Situationen mit entsprechend hoher Priorität
    ...die interne Repräsentation der Welt des autonomen Systems enthält Situationsmodelle auf hohen abstrakten Ebenen.
    ...das Verfahren determiniert das Verhalten des autonomen Systems, aufgrund: der Bedürfnisse, Befriedigungen und Verlangen des autonomen Systems, seiner internen Reprä- sentation der Welt des autonomen Systems und wahrgenommenen Objekten und Situationen.


    Also wenn das nicht eine (auszugsweise) Beschreibung der Verhaltensprinzipien eines jeden mehr oder weniger intelligenten biologischen Lebewesens ist, dann weiß ich nicht mehr. Ich behaupte jetzt mal ganz frech (und das ist bestimmt auch von fast jedem durchschnittlich intelligentem Menschen gut nachzuvollziehen), dass die Evolution auf unserem Heimatplaneten dem patentinhabenden Neuling um mehrer hundert Millionen (wenn nicht sogar Milliarden) Jahre zuvor gekommen ist (wow, das gäbe eine fette Rechnung für nachzuzahlende Lizenzgebühren). Um das zu begreifen muß man kein ausgebildeter Verhaltensforscher sein.)


    und begründet, wahrscheinlich, durch große Abneigung des Globalen Moderators zu autonomen Robotern und zu künstlichen Intelligenz.
    (Nein, nicht wirklich...)


    [...]; wir brauchen keine Roboter die Lebewesen simulieren.
    (Das halte ich für eine sehr gewagte Behauptung. Ich vermute mal der Neuling meint nur gewisse negative Aspekte der biologischen Lebewesen (Krankheit, Tod, etc.). Ich denke einer der Hauptgründe für den Menschen Roboter zu erfinden war es den herkömmlichen menschlichen Arbeiter zu ersetzen; zunächst wahrscheinlich um (unter Umgehung der biologischen Schwächen) schneller, besser und schließlich billiger produzieren zu können, später (möglicherweise) auch um den menschlichen Arbeiter vor monotoner bzw. gefährlicher Arbeit zu schützen. Letzendlich simuliert der Roboter aber doch das arbeitenden Lebewesen in der ein oder anderen Form.
    Vgl. auch hierzu aus Wikipedia-Definition „Roboter“:
    Den Ausdruck „Roboter“ in seiner heutigen Bedeutung prägte der tschechische Schriftsteller Karel Čapek, der Satiren über den technischen Fortschritt schrieb, bereits 1920 in seinem Theaterstück R.U.R. (Rossum's Universal Robots)“. In dem Drama waren Roboter in Tanks als Fronarbeiter beziehungsweise Sklaven gezüchtete Menschen[...]


    Besonders der avisierte Einsatz von „emotionalen“ Roboter in der „Betreuung kranker und alter Menschen, als künstliche Diener die Haushaltsarbeiten machen, für routinemäßige Dienstleistungen für Kunden“ würde doch die Simulation nahezu aller Aspekte biologischer Lebewesen erfordern)


    [...] Die Äußerung des Globalen Moderators, daß man mein Patent als "Trivialpatent bezeichnen könnte, ist nichts anderes als einne Schimpfäußerung die der Verläumdung meiner Arbeit /Patent dienen soll.
    (Ich weiß zwar nicht genau was der Neuling unter „Schimpfäußerung“ versteht, aber meine Äußerungen dienen in erster Linie dazu meine Meinung auszudrücken, nichts mehr oder weniger. Eine Verleumdung ist das bewußte Aufstellen von Behauptungen die aber wissentlich nicht zutreffen. Dieses habe ich aber in des Neulings Angelegenheit nie getan. (der Satz gefällt mir))


    Die Behauptung, daß andere Roboter autonom handeln stimmt nicht; sie führen nur autonom einige Bewegungsabläufe aus.
    (Schon wieder eine äußerst gewagte Behauptung. Ich schätze mal, dass sich weltweit viele hunderte Menschen (wahrscheinlich eher Tausende) seit Jahrzehnten mit diesem Thema beschäftigen und in diesem Bereich auch schon Einiges auf die Beine gestellt haben. Deren Arbeit hier zu leugnen ist nicht wirklich nett.)


    Sie können nicht wirklich autonom handeln solange sie nicht realistisch unterscheiden können welche situationen und Aktivitäten gegenwärtig für sie wichtig sind.
    (Dazu müsste man erstmal definieren was unter „wirklich autonom“ bzw. „realistisch unterscheiden“ zu verstehen ist.)


    Die weiteren Fragen "wie will man das feststellen?" beweisen, daß der Globale Moderator meine Arbeit/Patent nicht kennt, [...]
    (zum Zeitpunkt der Fragestellung ging ich auch von einem echten und nicht pseudo-emotionalen System ES aus. Ich stelle dazu folgenden Behauptung auf: ein echtes ES muß zum Erlangen der Fähigkeit Emotionen zu empfinden, mindestens genauso intelligent sein wie ein Mensch bzw. ein höheres Tier, da m.E. dafür ein gewisses Maß an Selbsterkenntnis, d.h. Erkennen der eigenen Persönlichkeit, Bewußtsein über die eigene Existenz erforderlich ist. Eine derartig intelligente Maschine wäre aber höchstwahrscheinlich auch dazu in der Lage seine Motivationen, Emotionszustände etc. zu verschleiern bzw. vorzutäuschen (vgl. Lügendetektor). Das Auslesen von Statusvariablen oder Speicherbereichen würde dafür sicher nicht ausreichen. (Sehr interessant in diesem Zusammenhang: der Replikanten(Gewissens-)test bei „Blade Runner“))


    Auch die anderen Antworten auf die Eigenschaften sind sehr oberflächlich;[...]
    (...ungefähr so oberflächlich wie die aufgestellten Eigenschaften)


    Meine persönliche Schlußfolgerung: rmac hat keine Ahnung von meiner Arbeit (meinem Patent)[...]
    (1. Entweder der Inhalt des Patentes ist ziemlich genial und ich habe das bis jetzt nur nicht geschnallt. In diesem Fall wäre ich dem Autor sehr verbunden ein vernünftig formatiertes Exemplar der Patentschrift zu veröffentlichen; ich würde es gerne lesen um mich von meinem Irrtum zu überzeugen und eine Ahnung davon zu bekommen, oder
    2. ich brauche auch keine Ahnung davon zu haben weil: spätestens wenn ich mich mit dem Thema näher beschäftigen würde, würde ich (fast zwangsläufig und problemlos) zu dieser Ahnung gelangen, auch ohne ein mittelgroßes Grundlagenforscher-Team beschäftigen zu müssen)


    - Ende der Stellungnahme -


    Fazit
    Im Wesentlichen bleibe ich bei meiner Meinung. Ich möchte hier die Arbeit des Neulings weder abkanzeln noch in irgendeiner anderen Form diskreditieren. Auch die Richtigkeit der angesprochenen Arbeiten oder der darin gemachten Aussagen bestreite ich in keinster Weise. Wenn ich zufälligerweise darüber etwas gelesen hätte, hätte ich wahrscheinlich gesagt:“Ja, ein verständlicher Ansatz, leicht und natürlich nachvollziehbar...“ Ist für mich aber genauso leicht nachvollziehbar wie der Einsatz von „Fuzzy Logic“ bei unscharfen Problematiken. Allein der Zweck der Patentanmeldung bleibt mir weiterhin verborgen. Nicht das ich prinzipiell etwas gegen Patente habe, aber ich denke das sollte dann schon einen handfesten und praktischen Hintergrund haben. Z.B. ist in des Neulings Patentschrift auch von einem „Subsystem für Wahrnehmung/Erkennung von Objekten und Situationen“ die Rede. Äußerst interessiert habe ich mich dann in dem o.g. Schriftstück auf die Suche nach neuen, revolutionären Erkennungskonzepten begeben, bin dann aber einzig auf die graphentheoretisch Behandlung bzw. Verwaltung der erkannten Objekten und Situationen gestoßen. Viel mehr hätte mich aber ein bahnbrechendes Konzept zu der notwendigen aber nicht-trivialen Sensorik/Vorverarbeitung interessiert. Aber auch hier lasse ich mich gerne seriös vom Neuling eines Besseren belehren.



    Für alle an „künstlichem Leben“ Interessierte möchte ich hier noch die folgenden Links setzen:
    http://de.wikipedia.org/wiki/Artificial_Animal bzw.
    http://de.wikipedia.org/wiki/Creatures_%28Computerspiel%29
    Creatures ist ein Computerspiel, das sich mit der Erschaffung und Simulation künstlichen Lebens (KL) befasst. Ich vermute mal, dass dieses Spiel (u.a.) auch auf dynamischen Bedürfnis- und Situationsmodellen basiert, wäre auf jeden Fall sehr naheliegend es so zu programmieren. Im Übrigen erschien das Spiel bereits in der ersten Version 1996.



    Mit hoch-motiviertem Tschö
    Rainer


    PS.: Ich möchte noch darauf hinweisen, dass meine Funktion als „Globaler Moderator“ in diesem Forum für meine Meinungsäußerungen nicht von Bedeutung ist, insofern ist die „Globaler Moderator“-Anrede nicht erforderlich. Im Gegenzug würde ich dann auch auf den „Neuling“-Quatsch verzichten. :mrgreen:

  • hmm...


    Also ich habe diese Patentschrift nun auch mal so oberflächlich überflogen...


    Ich will ja nicht behaupten, daß ich mit nun etwa 22 Jahren Erfahrung an Rechnern DER Crack wäre oder DAS Programmiergenie oder so etwas, aber ich behaupte mal, daß ich nicht ganz unfähig bin.


    Kurzer Sinn dieser langen Rede:
    Das was in dieser Patentschrift wie eine lange mathematische Formel steht, ist so definitiv nicht in einer der mir bekannten Rechnersprachen darstellbar.

    Wolfram (Cat) Henkel

    never forget Asimov's Laws at the programming of robots...

    "Safety is an integral part of function. No safety, no production. I don't buy a car without brakes."


    Messages und Mails mit Anfragen wie "Wie geht das..." werden nicht beantwortet.

    Diese Fragen und die Antworten interessieren jeden hier im Forum.


    Messages and Mails with questions like "how to do..." will not be answered.

    These questions and the answers are interesting for everyone here in the forum.

  • Hallo,


    Frage von Hartmut: Gibt es einen Sourcecode in einer realen Sprache für den Abschnitt 5.3?
    Nein. Um die Prozeduren in 5.3 zu programmieren müßen auch die konkreten internen Modelle von Objekten und Situationen beschrieben werden. Die Steuerungsmethode zu implementieren ist nicht so einfach.


    Zu Aussagen von WolfHenk:
    Emotionaler motivierter Roboter ist eine Maschine die nicht Motivation entwickelt, sondern durch Motivationsprozeduren die gegenwärtige Prioritäten der Aktivitäten bestimmt.
    Asimow und seine Zeitgenossen betrachteten Roboter etwas wie ein Werkzeug des Teufels; solcher Gesichtspunkt ist Ausdruck einer beschränkten Denkweise, was für damalige Zeiten verständlich ist.
    Mein motivierter Roboter braucht keine Notauskreise, Schutzräume u.s.w.. Er hat eingebaute, von Entwickler und Auftraggeber bestimmte, Normen und Regeln - eine Ethik des Roboters, wobei einige Normen und Regeln weniger wichtig sind, andere sehr wichtig für den Roboter. Ein gut entwickelter motivierter Roboter ist viel weniger gefährlich als ein PKW.
    Ich wüste nicht warum ich mein Denken durch die altmodischen Asimow Gesetze fesseln sollte. Für mich gilt: solche Roboter bauen die vollständig kontrollierbar sind und nicht gefährlich; es ist ein falsch (fehlerhaft) entwickelter Roboter, wenn man für ihn Schutzräume und Lichtschranken bauen muß.


    Zur Antwort (Nr. 21) von rmac, vom 9.7:
    Wieder basieren Ihre Aussagen auf mangelde Kenntnissen über emotionale und/oder motivierte Roboter und Agentensysteme, und sind wie vorher weit entfernt fair zu sein.
    Die Begriffe emotionale und motivierte Roboter /Agenten hab nicht ich eingeführt. Sie wurden schon vor dem Jahr 1996 eingeführt und benutzt, und keiner erregte sich deswegen. Ich habe nur die existierende Begriffe benutzt. Der Vorwurf, daß ich unsachgemäß Terminologie eingesetzt habe beruht auf kompletter Ignoranz des Herrn rmac im Bereich emotionaler Roboter/Agenten. Die weiteren Äußerungen des Herrn rmac sind deswegen uninteressant. Nur noch zum verwendeten Bedürfnis "nach Vergeltung und Rache" in meinem Patent. Dieses Bedürfnis ist so unwichtig für einen Roboter, daß ich ihn vergessen hatte. Dennoch, die sehr nidriege Gewichtung (nq(VR(PG)) = 10) im Vergleich zu anderen Gewichtungen, ist ein Beweis daß ich dieses Bedürfnis negativ betrachtete (und nicht positiv wie rmac suggerierte).


    Zu allen Antworten:
    Eine kurze Erläuterung zum Begriff autonome Roboter/Agenten. Sogar einige bekannte Entwickler von Robotern meinen ihre Roboter handeln autonom, weil sie z.B. ein Gegenstand von A zu B transportieren oder ein Metalgegenstand wie gewünscht schleifen. Das ist ein Mißverständnis. Was man unter autonome Roboter/Agenten versteht erläutern z. B. S. Munroe & M. Luck: Agent Autonomy Through the 3M Motivational Taxonomy (S. 55-67), in M. Nickles & M. Rovatsos & G. Weiss (Ed.): Agents and Computational Autonomy, LNAI 2969, Springer-Verlag Berlin Heidelberg 2004. In der Zusammenfassung dieses Artikels meinen die international bekannten Spezialisten (aus Großbritannien): "Reale Implementierungen von Mechanismen die Agenten ermöglichen Autonomie aufzuweisen sind, jedoch, in einem frühen Stadium der Entwicklung und viel muß noch getan werden um vollständig die Ergebnisse/Möglichkeiten enthalten in der Entwicklung solcher Mechanismen zu erhalten (meine Übersetzung).


    Mit Grüßen

    Schurmann-a

  • Zitat von Schurmann-a


    Asimow und seine Zeitgenossen betrachteten Roboter etwas wie ein Werkzeug des Teufels; solcher Gesichtspunkt ist Ausdruck einer beschränkten Denkweise, was für damalige Zeiten verständlich ist.


    Oha, da haben Sie, lieber Herr Schurmann aber Asimov nicht gelesen.
    Kein Wunder, denn als er das geschrieben hat, war sowas hier als "Zukunftsroman" eher als Kinderei und Scharlatanerie abgetan und wahrscheinlich war es gefährlich so etwas zu lesen.
    Und die Leute, die in dieser Zeit studiert haben, werden kaum die Möglichkeiten gehabt haben, Asimovs Schriften zu lesen.


    Selbst die späten 50er und frühen 60er des 20.Jahrhunderts hatten für Maschinenbauer und Ingenieursstudenten kaum so etwas wie Maschinenethik vorrätig. Mein Großvater berichtet aus dieser Zeit eherdavon, daß solche Fantasten zu lesen ein Grund sein konnte, der Uni verwiesen zu werden.
    Und in einer Doktorarbeit solche Gedanken zu bringen könnte, so stelle ich mir vor, damals ein frühes Ende einer kaum begonnenen Karriere gewesen sein...


    Damals waren die Studieninhalte wohl eher den Gedankengängen eines Hans Dominik als eines Heinlein oder Asimov konform. Aber lassen wir diese Literatur mal weg...


    Asimov hat genau das beschrieben, was Sie einen Satz weiter explizit bestätigen:


    Zitat von Schurmann-a

    Mein motivierter Roboter braucht keine Notauskreise, Schutzräume u.s.w.. Er hat eingebaute, von Entwickler und Auftraggeber bestimmte, Normen und Regeln - eine Ethik des Roboters, wobei einige Normen und Regeln weniger wichtig sind, andere sehr wichtig für den Roboter. Ein gut entwickelter motivierter Roboter ist viel weniger gefährlich als ein PKW.


    Ethik. Genau das was ein ausreichend hoch entwickeltes System daran hindert andere hochentwickelte Systeme zu vernichten.
    Leider beim Homo Sapiens nicht ausreichend gut programmiert...
    Was ich auf meiner Homepage (die Notauskreise etc. betreffend) in einfachen Worten beschreibe ist die Umsetzung auf heutige Industrieroboter, also Maschinen mit der Technologie des Jahres 2000. Und es ist Teil eines längst aufgegebenen Projekts welches diese Zeit aus Sicht des 24.Jarhunderts zu beleuchten versuchte.


    Zitat von Schurmann-a


    Ich wüste nicht warum ich mein Denken durch die altmodischen Asimow Gesetze fesseln sollte.


    Natürlich gibt es dazu besser durchdachte Versionen. Und ich verweise nochmal auf den oben erwähnten Aufsatz von Otto Heuer wo es heißt: "Es ist ein spezifisches ethisches System, aber nicht das einzig mögliche."


    Nehmen wir als Beispiel folgende Regelungen:


    (wobei dann sogar

    Zitat von Schurmann-a

    = 200 (SE-das Bedürfnis nach sexuellen Beziehungen),

    ((*denk* ist das ein Joke??)) logisch verstanden also der Wunsch nach eigener Reproduktion durch "The Procreation Law" akzeptierbar ist.)


    dann sehen wir, daß es Zusätze gibt, die Deadlocks und andere Unzulänglichkeiten von Asimovs Urformen vermeiden.


    Wir sehen auch auf den ersten Blick schon eine absolut klare Priorisierung der einzelnen Gesetze.


    Auch klar ist:
    Asimov ist hier literarisch tätig gewesen. Seine Gedanken sind ein Denkanstoß.
    Allerdings sind diese Gedanken eines Mannes der 1920 (vor 86 Jahren also) geboren wurde ein sehr wichtiger und grundlegender Denkanstoß, denn er beschreibt in einfachen Worten einen hochkomplexen Zusammenhang im Zusammenleben von Mensch und Maschine, im Risikomanagement und in der Überwindung von Existenzängsten, die nachweislich im Zusammentreffen mit humaniformen Robotern auftreten.


    Ich sehe aber auch keinen Grund gerade diese einfachen Gedanken der Technikpioniere mit einem Handstreich zu verwerfen. Was wären wir ohne von Lieben oder von Ardenne, ohne Zuse oder Reis? Was ohne Ohm oder Volta?
    Warum nicht Asimov auch nennen? Pionier der Maschinenethik!

    Zitat von Schurmann-a


    Für mich gilt: solche Roboter bauen die vollständig kontrollierbar sind und nicht gefährlich; es ist ein falsch (fehlerhaft) entwickelter Roboter, wenn man für ihn Schutzräume und Lichtschranken bauen muß.


    Da stimme ich zu. Jedoch möchte ich die Adjektive "falsch" und "fehlerhaft" eher als "unzulänglich" und "unterentwickelt" lesen. Das sollte besser klingen und nicht so abwertend wirken.


    --


    Was ich immer noch nicht verstehe sind Ihre Seitenhiebe auf rmac. Das ist Troll-Verhalten und wird in Foren nicht gern gesehen. Ich möchte Sie beide bitten, diese Kindereien einzustellen.
    Gerade Sie, Herr Schurmann, der nach den Informationen, die Google über Sie hergibt doch eindeutig über eine größere Lebenserfahrung verfügen sollten, müßten doch erkennen, daß mit solchen nutzlosen Sticheleien nichts zu gewinnen ist.
    Mit einer vernünftigen Diskussion (man sieht es doch hier immer wieder) ist mehr zu gewinnen.


    Das Internet und gerade damit das Fehlen von Gestik und Körpersprache erfordert eine wesentlich klarere Ausdrucksweise und ein wesentlich verständlicheres Formulieren als das "richtige Leben".
    Nur so kann ein Forum wie dieses hier überhaupt funktionieren. Dafür benutzt man als zusätzliche Ausdrucksform für Gefühle z.B. auch die "Emoticons" also die Smileys. Damit drückt man aus, was in der rein schriftlichen Kommunikation einfach verloren geht: Ein Lächeln zum Beispiel :)


    ...


    Und nun zurück zum Thema...
    Um ehrlich zu sein: Ihre Arbeit ist so kompliziert, daß sie für einen Menschen wie mich nicht ohne eine längere Unterweisung durch Sie verständlich wird.
    Für mich gilt immer noch das Prinzip:
    "Programmiere so einfach, daß es jeder Depp verstehen kann.
    Verstecke Dein Fachwissen so tief im Programm, daß es keiner findet.
    Verschlüssele und codiere Dein Spezialwissen und gib es nur an engste Mitarbeiter weiter, jedoch nie an den Endkunden"
    Das mache ich in genau dieser Wertigkeit. Jeder kann meine Programme einfachst lesen und verstehen. Nur das, was ich nicht weiterverschenken will erscheint für den Kunden und/oder Laien als "Black-Box".


    Entschlüsseln Sie Ihren Text, damit er für Menschen verständlich wird und wenn es gut ist, werden hunderte von Leuten daran gehen und es nutzen. Nehmen Sie den RoboCup oder ähnliches. Da ist alles offen. Nur offene Systeme entwickeln sich schnell genug um erfolgreich zu sein.
    Für Rechnertechnologie gibt es tatsächlich zwei Evolutionszweige: Kommerzielle Software und freie (Open Source) Software
    Ich bin sicher, daß beide Zweige immer nebeneinanderher existieren werden. Allerdings wird kommerzielle Software nur noch ein Nischendasein führen, wenn ich in 25 Jahren meine Rente kriege.
    Software wird langfristig nicht patentierbar sein, denn sie ist nicht anderes als ein Beschreiben logischer Vorgänge in einer festgelegten Grammatik und mit einem festgelegten Vokabular.


    Ihre einführenden Worte


    schlage ich vor zu ergänzen und zu modifizieren:


    Wie wäre es mit
       0. er beachtet zwingend ethische Grundregeln zum Schutz vor Gefahren durch sein Handeln oder seine Untätigkeit,
    1. er arbeitet autonom,
    2. er ist hoch motiviert seine Arbeit zu machen,
    3. er weiß wie wichtig die Ausführung einer Aktivität ist,
    4. er kann beurteilen wie wichtig Objekte und Situationen in seiner gegenwärtigen Umgebung sind,
    5. er behandelt dringende und gefährliche Situationen mit entsprechender hohen Priorität,
    6. er unterbricht die gegenwärtige Aktivität, wenn die Ausführung einer anderen Aktivität höher priorisiert ist,
    7. er kann gegen eigene Norm oder Regel handeln, wenn dies ermöglicht gefährliche Situationen zu bewältigen und wenn diese Norm oder Regel niedriger priorisiert ist UND nicht gegen Postulat 0 verstößt,
    8. seine Aktivitäten können sehr komplex sein, wie für eine autonome Arbeit verlangt wird.


    :shock:
    Nun hol mich der Teufel, aber das ist von der Logik her kaum viel anders, als das was Asimov in den 40er und 50er Jahren in seinen Roboterstorys beschrieb. Er tat es halt als Science-Fiction Geschichten aber er entwickelte es bis zu seinem Tode weiter.


    0 ist grundlegend und Basis aller Programmierung
    1 ist bei nahezu allen asimovschen Robotern außer Univac und Multivac erfüllt.
    2 bis 8 erfüllen alle asimovschen Roboter inklusive Lt. Cmdr. Data aus der TV-Serie StarTrek, der jedoch 0 unlogischerweise nicht erfüllt... :)
    :rolleyes:


    -- und nun, da ich die Formulierung dieses Beitrags nach weit über 2 Stunden angestrengten Suchens, Verifizierens, Denkens und Abwägens für abgeschlossen halte, gehe ich in mein Bett: Morgen wartet wieder ein Arbeitstag an Maschinen, die bei Fehlbedienung Menschen erschlagen können... --


    Für Interessierte: Wikipedia -> Infos über Professor Dr. Isaac Asimov

    Wolfram (Cat) Henkel

    never forget Asimov's Laws at the programming of robots...

    "Safety is an integral part of function. No safety, no production. I don't buy a car without brakes."


    Messages und Mails mit Anfragen wie "Wie geht das..." werden nicht beantwortet.

    Diese Fragen und die Antworten interessieren jeden hier im Forum.


    Messages and Mails with questions like "how to do..." will not be answered.

    These questions and the answers are interesting for everyone here in the forum.

    Einmal editiert, zuletzt von WolfHenk ()

  • Nabend,



    [...]Zur Antwort (Nr. 21) von rmac, vom 9.7:
    Wieder basieren Ihre Aussagen auf mangelde Kenntnissen über emotionale und/oder motivierte Roboter und Agentensysteme, und sind wie vorher weit entfernt fair zu sein.
    Die Begriffe emotionale und motivierte Roboter /Agenten hab nicht ich eingeführt. Sie wurden schon vor dem Jahr 1996 eingeführt und benutzt, und keiner erregte sich deswegen. [...]

    Also langsam vergeht mir die Lust das zu erklären (aber vielleicht ist es ja auch das was Sie bezwecken):
    1. Ich glaube ich habe in meinem vorherigen Posting dargelegt was ich unter einem emotionalen Robotern verstehe bzw. was ich glaube was die Allgemeinheit m.E. darunter verstehen würde. Diesen Beschreibungsansatz zugrundegelegt, habe ich keine wesentlichen Kenntnisse von emotionalen Robotern, das stimmt.
    2. Das Sie die Begriffe "emotionale und motivierte Roboter /Agenten" eingeführt haben, habe ich auch nicht behauptet. Ich könnte mir vorstellen, dass diese Begriffe schon häufiger in diesem Zusammenhang von anderen Personen gebraucht wurden, um dieses Steuerungs-Konzept (wenn ich es mal so nennen darf) einem breiten Publikum leichtverdaulich näher zu bringen. Ich könnte mir sogar verstellen, diese Begriffe auch selbst zu benutzen um das besagte Konzept zu erklären (dann wahrscheinlich aber in einer abgeschwächten, vergleichenden Form, wie z.B.: "ähnlich wie eine menschliche Emotion", "beim Menschen würde man von Motivation sprechen" etc.) Aber ich denke in einem möglicherweise juristisch relevanten Dokument (Patentschrift) sollte man mit diese Begriffen sehr vorsichtig sein. Hier ist m.E. Präzision gefragt. Auch auf die Gefahr hin mich hier mehrfach zu wiederholen: ich habe fachlich überhaupt nichts gegen Sie oder Ihre Arbeit. Ich denke lediglich, dass einige Begriffe falsch verwendet wurden, da sie den technischen Sachverhalt nicht sachgerecht abbilden, und in einem Patent muß das nicht unbedingt sein. Und: ein falsch eingesetzter Begriff wird nicht dadurch richtig, indem man ihn oft genug wiederholt.
    3. Ich hoffe niemand hier hat sich großartig erregt. Ich jedenfalls hab nicht viel gespürt... :muede:



    [...]Ich habe nur die existierende Begriffe benutzt. Der Vorwurf, daß ich unsachgemäß Terminologie eingesetzt habe beruht auf kompletter Ignoranz des Herrn rmac im Bereich emotionaler Roboter/Agenten. Die weiteren Äußerungen des Herrn rmac sind deswegen uninteressant. [...]


    Yes, Strike.... Das ist ein Argument nach meinem Geschmack. :blumen:



    Nur noch zum verwendeten Bedürfnis "nach Vergeltung und Rache" in meinem Patent. Dieses Bedürfnis ist so unwichtig für einen Roboter, daß ich ihn vergessen hatte. Dennoch, die sehr nidriege Gewichtung (nq(VR(PG)) = 10) im Vergleich zu anderen Gewichtungen, ist ein Beweis daß ich dieses Bedürfnis negativ betrachtete (und nicht positiv wie rmac suggerierte).


    Hmmm, in der Patentschrift sind zwei Blöcke(Absätze) zur Definition von Reizmustern beschrieben. Einer für positive Reizmuster und einer für negative Reizmuster. Im Absatz für positive Reizmuster(!) steht was von "Machtbedürfnis" (mit einer Gewichtung von 20 wenn ich das richtig sehe) und was von "Bedürfnis nach Vergeltung und Rache" (mit einer niedrigen(!) Gewichtung von 10 wie uns der Autor gerade erklärt). Leider sind aufgrund der mangelnden Formatierung die genauen mathematischen Zusammenhänge nicht zweifelsfrei erkennbar, zumindest nicht für mich. Das Bedürfnis nach einer vernünftigen Darlegung dieses Sachverhaltes durch den Autor besteht weiterhin.
    Desweiteren:
    1. Ich habe nie die Höhe der Gewichtung "Bedürfnis nach Vergeltung und Rache" in Frage gestellt sondern seine Existenz (also nq(VR(PG)) = 0).
    2. Niemals würde ich suggerieren wollen das Sie persönlich das "Bedürfnis nach Vergeltung und Rache" als positiv betrachten. Ob Sie das tun oder nicht ist mir eigentlich völlig egal. Ich habe lediglich bemerkt, dass in der Berechnungsvorschrift/Definition für positive Reizmuster das "Bedürfnis nach Vergeltung und Rache" in irgendeiner Form/Gewichtung eingeht (wenn dem denn so ist). Wenn auch mit geringer Gewichtung ist es dennoch definiert und löst einen (klitzklitzekleinen) positiven Reiz aus (wenn dem denn so ist).
    3. Muß ich keine Lizenzgebühren zahlen wenn ich von der Rechenvorschrift abweiche und sowohl "Machtbedürfnis" als auch "Bedürfnis nach Vergeltung und Rache" mit 0 gewichte ? :kopfkratz:



    In diesem Sinne: BBB(rmac) = 0,001 (BBB - Bis Bald Bedürfnis)
    Rainer

  • Mein Senf dazu: Roboter gehören eingezäunt und festgedübelt! Solange sich die Technologie nicht grundlegend ändert. Roboter die Heute schon Menschen Operieren machen dies auch nicht selbstständig, sondern werden immer noch von Menschen Überwacht. Bis eine Maschine (z.B.) einen Menschen pflegen kann, sich frei bewegen darf und dabei selbst Prioritäten setzt ist es noch ein langer weg. (mal abgesehen davon hab ich keine Lust mich von einem "Eisenschwein" auf die Bettpfanne heben zu lassen).


    Werner Hampel: Wäre es nicht sinvoll einen SciFi Bereich zu erstellen? Dieses Thema wäre doch darin sicher besser aufgehoben oder sind wir schon in dem Zeitalter von "I, Robot"? :mrgreen:




    MfG
    Dennis

    MfG <br />Dennis Keipp<br /><br />Geiz macht Krank... Qualität ist Geil!

  • Recht interessante Diskussion aber leider hier völlig Fehl am Platze.


    @Schurmann. Man beachte die linkere obere Ecke dieses Forums. Da steht was von 'Industrieroboter'


    Hier geht's um die Gegenwart und nicht um - zugegeben sehr interessante - Zukunftsmusik.

    Wieder basieren Ihre Aussagen auf mangelde Kenntnissen über emotionale und/oder motivierte Roboter und Agentensysteme, und sind wie vorher weit entfernt fair zu sein.


    Diese Aussage ist eine Frechheit. Wenn Sie der Meinung sind hier der große Held der Robotik zu sein ist das ja noch erträglich weil einfach ignorierbar. Aber dieser Satz ist von einem klassischen Drehstuhlpiloten nicht anders zu erwarten. Kommen Sie mal auf den Boden der Tatsachen runter und schon werden Sie erkennen, daß man es viel lieber mit Ihnen zu tun hat, wenn Sie niemanden 'von oben herab' behandeln.


    So, genug gemeckert. Schönen Tag noch.

Erstelle ein Benutzerkonto oder melde dich an um zu kommentieren

Du musst ein Benutzerkonto haben um einen Kommentar hinterlassen zu können

Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Geht einfach!
Neues Benutzerkonto erstellen
Anmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden