RE: Träumen Roboter von elektrischen Schafen?
Ich finde die Logik des Chinesischen Zimmers nicht wirklich überzeugend. Wenn man sich überlegt, wie Sprache funktioniert, greift das Beispiel nämlich nicht wirklich.
Sprache besteht aus einem Grundsatz an definierten Regeln, die durch Rekombination angewandt werden, um sinnvolle Ergebnisse zu produzieren. Ob der Mann diese Regeln nur anwenden kann, weil er sie gerade vor sich hat oder auf internalisiertes Wissen (was im Grunde einem Algorithmus gleichkommt) zurückgreift, spielt da keine wirkliche Rolle, denn die Basis ist ohnehin dieselbe.
Kontextabhängige Tests sind da wesentlich ergiebiger, weil hier Subtexte erkannt werden müssen, was für maschinelle Algorithmen momentan noch recht schwierig ist.
Ich vermute allerdings, dass, wenn es zur Singularität kommt, sich Systeme entwickeln werden, die mit unserer Art des Verständnisses von Bewusstsein nur wenig zu tun haben werden. Wir neigen momentan sehr dazu, KI-System menschliche Attribute zu geben, mir erscheint es aber logischer, dass diese Systeme sich davon irgendwann emanzipieren und darüber hinaus entwickeln - zu eben jenem Punkt, an dem wir sie nicht mehr erfassen können und menschliche Begriffe versagen. Wir können beschreiben, wie ein Mensch mit einem IQ von 200 wohl agiert - aber bei einem IQ von 12000 wäre das schon ausgesprochen schwierig.
Den mMn besten Einstieg in die Thematik habe ich vor einigen Jahren von Tim Urban bei wait but why gelesen.
Es geht bei dem chinesischen Zimmer aber gerade darum, dass sich die menschliche Intelligenz bzw künstliche Intelligenz nicht durch das Anwenden von Sprache, sondern durch das Begreifen und das Erfassen der Bedeutung hinter den Zeichen auszeichnet. Somit ist der Bot nicht gleich intelligent nur weil er einen sinngemäßen Output gibt.
Exakt. Sehe ich 1:1 genauso :)
Vielen Dank Ego!
Aber genau darum geht es doch: Der Mann bekommt eine Frage und kann die Bedeutung dieser Frage auf Basis des Regelbuchs erkennen und dadurch beantworten. Wenn er die Frage nicht erfassen könnte, sondern nur die Zeichen erkennt, wäre ein Antwort unmöglich. Die Aussage
da is übrigens ein Tippfehler :P
trifft exakt meinen Punkt. Eine KI, die nur Symbole erkennt, ohne diese in einen Kontext setzen zu können, wäre nicht menschlich.
Das, was der Mann tut, ist, auf Basis der Regeln, bereits eine Meta-Ebene zu erkennen - und deshalb greift der Vergleich nicht, wenn man ihn als einem Menschen unterlegen ansieht.
Menschlich wäre, wenn der Mann nach dem Warum fragt oder dem Nutzen einer dieser Fragen - oder seine Tätigkeit als solche. Keine Ahnung, ob das dem Erfinder dieses Gedankenspiels nicht aufgefallen ist, an logischer Konsistenz mangelt es ihm dennoch :)
Achsoo ok also ich denke, ich habe das Gedankenexperiment nicht ausführlich genug beschrieben:
Im Regelwerk sind Regeln festgelegt wie:
Wenn in der Frage (Input) das chinesische Zeichen A und nach dem Zeichen A Zeichen B erfolgt, und nach dem Zeichen B Zeichen C kommt -> DANN antworte folgendermaßen="....." (Output)
Also das Programm wäre dann quasi:
if(a){ if(b){ if(c) print(antwort); }} else { ....}
Somit erfasst der Mann die Frage eigentlich gar nicht sondern tut tatsächlich nur das was im Buch steht
Yes! Genau so wollte ich das! :D
Sorry, ich bin bei sowas immer etwas kleinlich, aber ich vermeide eben gerne Missverständnisse :)