Selbermach Samstag 222 (21.01.2017)

Welche Themen interessieren euch, welche Studien fandet ihr besonders interessant in der Woche, welche Neuigkeiten gibt es, die interessant für eine Diskussion wären und was beschäftigt euch gerade?

Welche interessanten Artikel gibt es auf euren Blogs? (Schamlose Eigenwerbung ist gerne gesehen!)

Welche Artikel fandet ihr in anderen Blogs besonders lesenswert?

Welches Thema sollte noch im Blog diskutiert werden?

Für das Flüchtlingsthema gibt es andere Blogs

Ich erinnere auch noch mal an Alles Evolution auf Twitter und auf Facebook.

Es wäre nett, wenn ihr Artikel auf den sozialen Netzwerken verbreiten würdet.

Das chinesische Zimmer (Philosophie des Geistes)

Bei dem „Chinesischen Zimmer“ geht es um ein Gedankenexperiment des Philosophen John Searle. Es spielt in der Philosophie des Geistes eine Rolle bei der Frage, ob es für ein Bewußtsein ausreichend ist, dass man ein bestimmtes Programm, also eine Reihe von Handlungsanweisungen durchführt.

Das Gedankenexperiment lautet wie folgt:

Searle beschrieb einen geschlossenen Raum, in dem sich ein Mensch befindet. Ihm werden durch einen Schlitz in der Tür Zettel mit Geschichten auf Chinesisch zugestellt. Er selbst ist der chinesischen Sprache nicht mächtig und versteht somit weder den Sinn der einzelnen Zeichen noch den Sinn der Geschichte. Danach erhält er noch einen Zettel mit Fragen zu der Geschichte (ebenfalls in chinesischer Notation). Der Mensch findet des Weiteren einen Stapel chinesischer Skripte und ein „Handbuch“ mit Regeln in seiner Muttersprache vor. Die Skripte enthalten Zusatz- und Hintergrundinformationen zu den Geschichten (eine Art „Wissensdatenbank“).[2] Das Handbuch ermöglicht es ihm, die Symbole mit der Geschichte in Verbindung zu bringen, allerdings ausschließlich auf der Ebene der Zeichenerkennung (über die Form der Zeichen). Auch entnimmt er dem Handbuch Anweisungen, welche Zeichen er (abhängig von den Zeichen der Geschichte, der Skripte und der Fragen) auf den Antwortzettel zu übertragen hat. Er folgt also rein mechanischen Anweisungen und schiebt das Ergebnis (die „Antworten“ auf die Fragen) durch den Türschlitz, ohne die Geschichte oder die Fragen verstanden zu haben.

Vor der Tür wartet ein chinesischer Muttersprachler, welcher die Antwortzettel liest. Er kommt aufgrund des Sinngehaltes der Antworten zu dem Ergebnis, im Raum befinde sich ebenfalls ein Chinesisch sprechender Mensch, der die Geschichte verstanden hat.

Damit kritisiert Searle Überlegungen wie den Turing Test, bei der es darum geht, dass ein Computer vorgaukelt, dass er ein Mensch wäre und ein Mensch davon in einer Unterhaltung aufgrund der (über einen Bildschirm gesendeten Antworten) davon ausgeht mit einem Menschen zu reden.

Denn in der Tat reicht das Vortäuschen eines Gespräches mit einer relativ großen Datenbank und Sätzen, die auf eine Vielzahl von Situationen passen wie „Kannst du das näher ausführen?“ nicht aus um tatsächlich an den Menschen oder auch nur ein Tier heranzukommen, dazu würden wir wohl verlangen, dass jemand Inhalte des Gespräches nachvollziehen kann.

Natürlich kann der Unterschied hier durchaus fließend sein: Beispielsweise reden wir mit Hunden, die sicherlich unsere Sprache auch nicht verstehen, aber teilweise aufgrund Tonfall etc wissen, was zumindest die „emotionale Botschaft“ der Nachricht ist oder bestimmte Tonfolgen erkennen und wissen, dass sie, wenn sie dann eine bestimmte Aktion durchführen, evtl eine Belohnung oder zumindest keine Strafe erhalten.

Das Experiment wird auch gerne gegen Theorien angeführt, die das Gehirn mit einer Art von Datenverarbeitungsmaschine vergleichen, die bestimmte Algorithmen abarbeitet. Searle sagte dazu:

Syntax is not sufficient for semantics, programs cannot produce minds.

  1. Programs are purely formal (syntactic).
  2. Human minds have mental contents (semantics).
  3. Syntax by itself is neither constitutive of, nor sufficient for, semantic content.
  4. Therefore, programs by themselves are not constitutive of nor sufficient for minds.

Mir scheint das Problem ein Scheinproblem zu sein, denn natürlich kann das Gehirn eines Menschen mentale Inhalte, und damit Semantik aufnehmen. Dazu haben wir ein Gedächtnis.

Ich frage mich bei so etwas immer, wie die Leute meinen, dass das Gehirn lernen soll. Die Regeln einer Sprache beispielsweise lassen sich natürlich in einem Buch darlegen und erklären. Es sind Regeln, deren Anwendungen man erlernen muss und dazu muss man zum einen die Regeln, aber auch die Datensätze wie Vokabeln und Bedeutungen „installieren“. Zugegebenermaßen ist unser „Installationsprogramm“ für Sprachen zumindest ab einem gewissen Alter sehr aufwändig, aber dennoch nimmt der Mensch eben Syntax und Semantic der entsprechenden Sprache auf und die Verarbeitung dieser, also die Verinnerlichung der Regeln ist eben durchaus auch für einen Computer vorstellbar.

Die große Frage, die aber eigentlich mit dem chinesischen Zimmer angesprochen wird, ist, wie aus verarbeiteten Daten ein mehr entstehen kann, etwas, was man als wirkliches Bewußtsein versteht.

Der Ansatz, dass der Mensch sowohl bestimmte Regeln anwenden als auch Daten aufnehmen kann, läuft unter dem Namen „Roboter Reply“. Dazu aus der Wikipedia:

Roboter-Ansatz
„Man erschaffe einen Roboter, der nicht nur formale Symbole entgegennimmt, sondern auch (von einem Computer-‚Gehirn‘ gesteuert) mit der Umwelt interagieren kann. Dieser Computer könnte Begriffe auf einer ganz anderen Ebene verstehen und mentale Zustände haben.“

Hier lässt sich kritisieren, dass der Roboter trotz andersgearteten Outputs noch immer keine intentionalen Zustände (Zustände, die sich auf etwas in der Welt beziehen) hat, er reagiert allein aufgrund seines Programmes. Dem liegt jedoch das Missverständnis zugrunde, dass biologische kognitive Systeme diesem Dilemma nicht unterworfen wären. Tatsächlich reagieren beispielsweise Kinder zunächst auch nur auf Reize, die ihnen angeboten werden. Biologische kognitive Systeme entwickeln eigenständige, komplexe Handlungen nur aufgrund ihrer genetisch bestimmten und sozial erworbenen Information.

In der Tat beruht die Kritik an dem Computeransatz auf einer Grundannahme, die zunächst zu widerlegen wäre: Nämlich eben der Frage, inwieweit das Verhalten und Denken Menschen oder Tiere eben auf mehr beruht als bestimmten Berechnungen.

Der größte Fehler scheint mir zu sein, dass das Modell zu stark vereinfacht und von zu einfach strukturierter Software ausgeht. Die Philosophie scheint mir von sehr einfachen „Input – Verarbeitungsschritt – fester Output“ auszugehen. Tatsächlich sind bereits heutige Computer zu weitaus differenzierteren Bewertungen in der Lage, die mehr als eine Variable verwerten und Fuzzylogik anwenden können.

Ein mögliches Modell dazu hatte ich hier zitiert:

The central concept of the memory-prediction framework is that bottom-up inputs are matched in a hierarchy of recognition, and evoke a series of top-down expectations encoded as potentiations. These expectations interact with the bottom-up signals to both analyse those inputs and generate predictions of subsequent expected inputs. Each hierarchy level remembers frequently observed temporal sequences of input patterns and generates labels or ’names‘ for these sequences. When an input sequence matches a memorized sequence at a given layer of the hierarchy, a label or ’name‘ is propagated up the hierarchy – thus eliminating details at higher levels and enabling them to learn higher-order sequences. This process produces increased invariance at higher levels. Higher levels predict future input by matching partial sequences and projecting their expectations to the lower levels. However, when a mismatch between input and memorized/predicted sequences occurs, a more complete representation propagates upwards. This causes alternative ‚interpretations‘ to be activated at higher levels, which in turn generates other predictions at lower levels.

Aber auch ansonsten wäre es zumindest möglich, dass bestimmte Berechnungen durchgeführt werden und deren Endprodukt unsere Art zu denken erheblich beeinflusst, beispielsweise in dem es unsere Motivationen und Gefühle vorgibt und uns damit in eine gewisse Richtung steuert, weil uns ein bestimmtes Verhalten richtig oder lohnenswert erscheint.

Im übrigen stellt sich die Frage, was logisches Denken oder Bewußtsein sonst sein soll als eine gewisse Form eines Denkprozesses im Sinne einer Berechnung. Magie wird man wohl kaum vertreten, ebenso wenig wie einen Geist im Sinne des spirituellen. Damit bleibt letztendlich kaum etwas anderes übrig als eine Form der Kalkulation oder die Ausgabe einer „Software“ im weiteren Sinne. Das Bewußtsein könnte letztendlich so etwas sein, wie das, was ein Programm auf dem Bildschirm ausgibt, das Endprodukt unserer Berechnungen, eine Benutzeroberfläche, die eine gewisse „Bedienung“ ermöglicht, also eine Verwertung der unterbewußt angestellten Kalkulationen ohne das man diese selbst zur Kenntnis nehmen muss. Weil für uns die unterbewußten Kalkulationen nicht als solche erkennbar sind erscheint uns das Bewußtsein gerade als selbstständiger Vorgang.

vgl.