Das chinesische Zimmer (Philosophie des Geistes)

Bei dem „Chinesischen Zimmer“ geht es um ein Gedankenexperiment des Philosophen John Searle. Es spielt in der Philosophie des Geistes eine Rolle bei der Frage, ob es für ein Bewußtsein ausreichend ist, dass man ein bestimmtes Programm, also eine Reihe von Handlungsanweisungen durchführt.

Das Gedankenexperiment lautet wie folgt:

Searle beschrieb einen geschlossenen Raum, in dem sich ein Mensch befindet. Ihm werden durch einen Schlitz in der Tür Zettel mit Geschichten auf Chinesisch zugestellt. Er selbst ist der chinesischen Sprache nicht mächtig und versteht somit weder den Sinn der einzelnen Zeichen noch den Sinn der Geschichte. Danach erhält er noch einen Zettel mit Fragen zu der Geschichte (ebenfalls in chinesischer Notation). Der Mensch findet des Weiteren einen Stapel chinesischer Skripte und ein „Handbuch“ mit Regeln in seiner Muttersprache vor. Die Skripte enthalten Zusatz- und Hintergrundinformationen zu den Geschichten (eine Art „Wissensdatenbank“).[2] Das Handbuch ermöglicht es ihm, die Symbole mit der Geschichte in Verbindung zu bringen, allerdings ausschließlich auf der Ebene der Zeichenerkennung (über die Form der Zeichen). Auch entnimmt er dem Handbuch Anweisungen, welche Zeichen er (abhängig von den Zeichen der Geschichte, der Skripte und der Fragen) auf den Antwortzettel zu übertragen hat. Er folgt also rein mechanischen Anweisungen und schiebt das Ergebnis (die „Antworten“ auf die Fragen) durch den Türschlitz, ohne die Geschichte oder die Fragen verstanden zu haben.

Vor der Tür wartet ein chinesischer Muttersprachler, welcher die Antwortzettel liest. Er kommt aufgrund des Sinngehaltes der Antworten zu dem Ergebnis, im Raum befinde sich ebenfalls ein Chinesisch sprechender Mensch, der die Geschichte verstanden hat.

Damit kritisiert Searle Überlegungen wie den Turing Test, bei der es darum geht, dass ein Computer vorgaukelt, dass er ein Mensch wäre und ein Mensch davon in einer Unterhaltung aufgrund der (über einen Bildschirm gesendeten Antworten) davon ausgeht mit einem Menschen zu reden.

Denn in der Tat reicht das Vortäuschen eines Gespräches mit einer relativ großen Datenbank und Sätzen, die auf eine Vielzahl von Situationen passen wie „Kannst du das näher ausführen?“ nicht aus um tatsächlich an den Menschen oder auch nur ein Tier heranzukommen, dazu würden wir wohl verlangen, dass jemand Inhalte des Gespräches nachvollziehen kann.

Natürlich kann der Unterschied hier durchaus fließend sein: Beispielsweise reden wir mit Hunden, die sicherlich unsere Sprache auch nicht verstehen, aber teilweise aufgrund Tonfall etc wissen, was zumindest die „emotionale Botschaft“ der Nachricht ist oder bestimmte Tonfolgen erkennen und wissen, dass sie, wenn sie dann eine bestimmte Aktion durchführen, evtl eine Belohnung oder zumindest keine Strafe erhalten.

Das Experiment wird auch gerne gegen Theorien angeführt, die das Gehirn mit einer Art von Datenverarbeitungsmaschine vergleichen, die bestimmte Algorithmen abarbeitet. Searle sagte dazu:

Syntax is not sufficient for semantics, programs cannot produce minds.

  1. Programs are purely formal (syntactic).
  2. Human minds have mental contents (semantics).
  3. Syntax by itself is neither constitutive of, nor sufficient for, semantic content.
  4. Therefore, programs by themselves are not constitutive of nor sufficient for minds.

Mir scheint das Problem ein Scheinproblem zu sein, denn natürlich kann das Gehirn eines Menschen mentale Inhalte, und damit Semantik aufnehmen. Dazu haben wir ein Gedächtnis.

Ich frage mich bei so etwas immer, wie die Leute meinen, dass das Gehirn lernen soll. Die Regeln einer Sprache beispielsweise lassen sich natürlich in einem Buch darlegen und erklären. Es sind Regeln, deren Anwendungen man erlernen muss und dazu muss man zum einen die Regeln, aber auch die Datensätze wie Vokabeln und Bedeutungen „installieren“. Zugegebenermaßen ist unser „Installationsprogramm“ für Sprachen zumindest ab einem gewissen Alter sehr aufwändig, aber dennoch nimmt der Mensch eben Syntax und Semantic der entsprechenden Sprache auf und die Verarbeitung dieser, also die Verinnerlichung der Regeln ist eben durchaus auch für einen Computer vorstellbar.

Die große Frage, die aber eigentlich mit dem chinesischen Zimmer angesprochen wird, ist, wie aus verarbeiteten Daten ein mehr entstehen kann, etwas, was man als wirkliches Bewußtsein versteht.

Der Ansatz, dass der Mensch sowohl bestimmte Regeln anwenden als auch Daten aufnehmen kann, läuft unter dem Namen „Roboter Reply“. Dazu aus der Wikipedia:

Roboter-Ansatz
„Man erschaffe einen Roboter, der nicht nur formale Symbole entgegennimmt, sondern auch (von einem Computer-‚Gehirn‘ gesteuert) mit der Umwelt interagieren kann. Dieser Computer könnte Begriffe auf einer ganz anderen Ebene verstehen und mentale Zustände haben.“

Hier lässt sich kritisieren, dass der Roboter trotz andersgearteten Outputs noch immer keine intentionalen Zustände (Zustände, die sich auf etwas in der Welt beziehen) hat, er reagiert allein aufgrund seines Programmes. Dem liegt jedoch das Missverständnis zugrunde, dass biologische kognitive Systeme diesem Dilemma nicht unterworfen wären. Tatsächlich reagieren beispielsweise Kinder zunächst auch nur auf Reize, die ihnen angeboten werden. Biologische kognitive Systeme entwickeln eigenständige, komplexe Handlungen nur aufgrund ihrer genetisch bestimmten und sozial erworbenen Information.

In der Tat beruht die Kritik an dem Computeransatz auf einer Grundannahme, die zunächst zu widerlegen wäre: Nämlich eben der Frage, inwieweit das Verhalten und Denken Menschen oder Tiere eben auf mehr beruht als bestimmten Berechnungen.

Der größte Fehler scheint mir zu sein, dass das Modell zu stark vereinfacht und von zu einfach strukturierter Software ausgeht. Die Philosophie scheint mir von sehr einfachen „Input – Verarbeitungsschritt – fester Output“ auszugehen. Tatsächlich sind bereits heutige Computer zu weitaus differenzierteren Bewertungen in der Lage, die mehr als eine Variable verwerten und Fuzzylogik anwenden können.

Ein mögliches Modell dazu hatte ich hier zitiert:

The central concept of the memory-prediction framework is that bottom-up inputs are matched in a hierarchy of recognition, and evoke a series of top-down expectations encoded as potentiations. These expectations interact with the bottom-up signals to both analyse those inputs and generate predictions of subsequent expected inputs. Each hierarchy level remembers frequently observed temporal sequences of input patterns and generates labels or ’names‘ for these sequences. When an input sequence matches a memorized sequence at a given layer of the hierarchy, a label or ’name‘ is propagated up the hierarchy – thus eliminating details at higher levels and enabling them to learn higher-order sequences. This process produces increased invariance at higher levels. Higher levels predict future input by matching partial sequences and projecting their expectations to the lower levels. However, when a mismatch between input and memorized/predicted sequences occurs, a more complete representation propagates upwards. This causes alternative ‚interpretations‘ to be activated at higher levels, which in turn generates other predictions at lower levels.

Aber auch ansonsten wäre es zumindest möglich, dass bestimmte Berechnungen durchgeführt werden und deren Endprodukt unsere Art zu denken erheblich beeinflusst, beispielsweise in dem es unsere Motivationen und Gefühle vorgibt und uns damit in eine gewisse Richtung steuert, weil uns ein bestimmtes Verhalten richtig oder lohnenswert erscheint.

Im übrigen stellt sich die Frage, was logisches Denken oder Bewußtsein sonst sein soll als eine gewisse Form eines Denkprozesses im Sinne einer Berechnung. Magie wird man wohl kaum vertreten, ebenso wenig wie einen Geist im Sinne des spirituellen. Damit bleibt letztendlich kaum etwas anderes übrig als eine Form der Kalkulation oder die Ausgabe einer „Software“ im weiteren Sinne. Das Bewußtsein könnte letztendlich so etwas sein, wie das, was ein Programm auf dem Bildschirm ausgibt, das Endprodukt unserer Berechnungen, eine Benutzeroberfläche, die eine gewisse „Bedienung“ ermöglicht, also eine Verwertung der unterbewußt angestellten Kalkulationen ohne das man diese selbst zur Kenntnis nehmen muss. Weil für uns die unterbewußten Kalkulationen nicht als solche erkennbar sind erscheint uns das Bewußtsein gerade als selbstständiger Vorgang.

vgl.

163 Gedanken zu “Das chinesische Zimmer (Philosophie des Geistes)

  1. Es ist generell eine interessante Frage, wie viel von unserem Denken nur Ergebnis irgendwelcher biologischen Vorgänge ist.
    Wenn man sich dazu Menschen anschaut, die „neurologisch anders verknüpft“ sind wie z.B. Autisten, dann erkennt man viele Gemeinsamkeiten im Verhalten dieser Gruppe, in welchen sie sich aber von den übrigen Menschen unterscheiden.
    Wenn dieses Verhalten also der anderen neurologischen Zusammenhänge geschuldet ist, woher weiß man dann, dass nicht fast jedes Verhalten und Entscheidung auf solchen beruht?

    • „Es ist generell eine interessante Frage, wie viel von unserem Denken nur Ergebnis irgendwelcher biologischen Vorgänge ist.“

      Alles.

      Neutronen, Elektronen, …

      Nur weil ein Vorgang komplex ist, heißt das nicht, dass irgendetwas mystisches (d.h. nicht biologisches / chemisches / physikalisches / physisches) vorliegt.

  2. Also diesen Searle scheint man ordentlich …, natürlich haben Programme auch einen semantischen Gehalt, das ist die Logik die durch sie abgebildet wird. Wäre das anders wäre jedes syntaktisch korrekte Programm ein korrektes Programm, was natürlich Unsinn ist. Ein syntaktisch fehlerhaftes Programm würde in den kompilierten Sprachen noch nicht einmal ausgeführt werden. Dennoch gibt es Programme, die zur Laufzeit Fehler enthalten.

    Wie du schon schreibst ein wenn die Algorithmen im chinesischen Zimmer zu simpel wären, dann würden sie auch nicht den Turing Test bestehen. Wenn sie den Turing Test bestehen, könnte man zwar nicht behaupten, dass der Mann chinesisch spricht, die Algorithmen die in den Regeln, denen er sich bedient, codiert sind, verstehen hingegen sehr wohl chinesisch.

    • Ja, natürlich. Den semantischen Gehalt hat allerdings idR der Programmierer beigestellt und darüber, ob es semantisch korrekt arbeitet, befindet der Anwender.

        • Ja nun, jedes beliebige numerisch modellierbare Phänomen ist theoretisch auch auf einem Computer simulierbar und wenn man davon ausgeht, dass alles, was im Gehirn stattfindet auf biochemischen Vorgängen beruht, dann ist natürlich zwangsläufig auch die Simulation menschlicher Intelligenz theoretisch „nur eine Frage des Programmieraufwandes“. (So man ein brauchbares Modell hat)

          Das ist aber eher eine sehr triviale Binse als dass es irgendeinen Erklärungswert dafür hätte, wie ein menschliches Gehirn bzw. Bewußtsein funktioniert.

        • Klar, aber diese binse fehlt ja in der Philosophie

          Sehe ich nicht. „Therefore, programs by themselves are not constitutive of nor sufficient for minds.“

          Man kann zwar aus Stahl ein Auto bauen, aber deshalb ist Stahl weder wesentlich noch hinreichend für ein Auto.

  3. Die Regeln einer Sprache beispielsweise lassen sich natürlich in einem Buch darlegen und erklären. Es sind Regeln, deren Anwendungen man erlernen muss und dazu muss man zum einen die Regeln, aber auch die Datensätze wie Vokabeln und Bedeutungen „installieren“.

    Ein Kind, das eine Sprache gelernt hat wird aber in aller Regel diese Regeln nicht kennen. Es wird nicht wissen, ob und warum etwas Gehörtes falsch oder richtig ist. Vielmehr entwickelt es so etwas wie ein „Sprachgefühl“. Dieses Sprachgefühl lässt sich zwar in Algorithmen modellieren, was aber eben nicht bedeutet, dass ein Gehirn ebenfalls solche Algorithmen abarbeitet.

    Ein Kind wird nicht das allergeringste Problem damit haben, regelwidriges wie z.B. „das Mutter“ zu lernen. Ich denke nicht, dass es dafür erst eine Art „Ausnahmebehandlungsalgorithmus“ anlegen muss. Erst viel später in seiner Entwicklung wird es vielleicht erkennen, dass da irgend etwas mit dem Artikel inkonsistent bzw. unlogisch ist.

    Wenn ein Erwachsener eine Fremdsprache lernt sieht die Sache zwar meistens etwas anders aus, der Erwachsene lernt idR tatsächlich zunächst die formalen Regeln der Fremdsprache. Er wendet sie dann so lange bewußt an, bis er sie verinnerlicht hat. „Das Mutter“ wird ihm also sofort aufstoßen und er wird dreimal nachhaken, ob das tatsächlich richtig ist. Gegebenenfalls wird er sich Ausnahmen merken.

    Wenn der Erwachsene die neue Sprache fließend sprechen gelernt hat, wird er allerdings die Regeln getrost vergessen können. Die Regeln wurden dabei aber eher nicht – wie eine Software – „installiert“, vielmehr waren die Regeln eher nur eine Hilfe dabei, sein Gehirn zu trainieren. Dieses „Verinnerlichen“ ist eben eher ein ganz anderer Prozess als die Installation einer Software auf einem Computer.

    Im übrigen stellt sich die Frage, was logisches Denken oder Bewußtsein sonst sein soll als eine gewisse Form eines Denkprozesses im Sinne einer Berechnung.

    NmE eine falsche Dichotomie. Natürlich ist Denken oder Bewußtsein letztlich das Ergebnis theoretisch auch berechenbarer – und damit: von einem Computer rein theoretisch auch emulierbarer – biochemischer Prozesse.

    Das heißt aber nicht, dass diese Prozesse deshalb ebenso schön linear und algorithmisch ablaufen müssen wie ein Programm auf einem Computer.

    Vor allem strukturiert sich das Gehirn selbst, eine Eigenschaft, die man mit einem Computer noch nicht so gut nachbilden kann. Und wenn man das könnte, dann hatte dieses System nur noch wenig mit dem Gemein, was wir uns so unter einem Computer vorstellen. Insbesondere würde ein solcher Computer nur noch auf einer sehr tief liegenden Ebene ein Programm im herkömmlichen Sinne ausführen.

    • @nick
      „Das heißt aber nicht, dass diese Prozesse deshalb ebenso schön linear und algorithmisch ablaufen müssen wie ein Programm auf einem Computer. “

      Ja, da liegt der Denkfehler. Das ist ungefähr so, als wolle man an einem Mühlstein verstehen wie ein Auto funktioniert, denn von aussen betrachtet, sind es doch die Räder, die das Auto beweglich machen.

      Daher landet jede „künstliche Intelligenz“ bei nichts mehr ab, als einer Simulation.

    • In der Versuchsanordnung bewegten sich fahrende Roboter, die mit Kamera, Tastsensoren, Mikrofonen und Lautsprechern ausgerüstet sind, in den Büros des Instituts. Stiessen sie in eine Region vor, für die es noch keinen Namen gab, erzeugten sie eine zufällige Kombination von zwei Silben, um ihre Neuentdeckung zu bezeichnen.

      Von wegen „eigene Sprache entwickeln“. Da ist alles alles vorgegeben. Einige Grundbausteine (Silben), ein bisschen Zufall, ein paar Regeln welcher „Name“ sich durchsetzt (davon schreiben sie interessanterweise nichts…) – das wars.

        • Und genau zu diesem Punkt steht in dem Artikel gar nichts. Dort wird gesagt, dass sie „sich untereinander austauschen“, und dass sie sich „darüber [über den Namen für einen Ort] einigen“. Wie das passiert – nichts.

        • Worauf ich hinaus will: Das hier ist m.E. der „gender pay-gap effekt“: Die Schlagzeile klingt halt aufregender wenn man hinschreibt „Roboter entwickeln eigene Sprache und lernen voneinander“ als wenn man das eigentliche m.M.n. nicht sehr interessante Forschungesergebnis wiedergibt. So ist halt Journalismus. Der Punkt dabei ist, die Tatsache dass Frauen weniger verdienen stimmt ja. Nur die Schlussfolgerung daraus ist Käse. Es geht also darum, dass man genau arbeitet, sich das Problem, die Fakten, die Methoden ansieht und dann vernünftige Schlüsse daraus zieht. Beim gender pay gap bist du seit Jahren an vorderster Front dabei wenn es darum geht solche Ungenauigkeiten aufzuklären. Bitte mach hier nicht denselben Fehler wie die gender pay gap Leute.

  4. https://www.google.de/amp/s/amp.welt.de/amp/wirtschaft/webwelt/article3707868/Britische-Roboter-entwickeln-ihre-eigene-Kultur.html

    Ein breit aufgestellter Versuch dazu findet gegenwärtig an der University of the West of England in Bristol statt. Roboter sollen dort ihre eigene Kultur entwickeln. „Die Entstehung von künstlicher Kultur in Robotergesellschaften“, heißt das Forschungsprojekt. Zu diesem Zweck werden die Roboter in kleinen Gruppen zusammengefasst. Ein einprogrammierter „Überlebensinstinkt“ zwingt sie, aktiv zu werden. Dabei können sie miteinander interagieren und wechselseitig Verhalten voneinander kopieren. Da kein Roboter exakt dem anderen gleicht und ihre Sensoren zudem bewusst anfällig für kleinere Fehler sind, sollen sich bei diesem Kopieren neue Verhaltensvariationen ergeben. Sie führen schließlich zu unvorhersehbaren Resultaten. Die Forscher hoffen, dass sich auf diese Weise Verhaltensweisen herausbilden, die für sich gesehen keinen praktischen Wert haben, sondern eher symbolischer Natur sind. Das wäre dann im Sinne des Forschungsprojekts nicht durch die Programmierung oder äußere Umstände erzwungen, sondern in der Interaktion mit anderen Robotern erlernt. An dem Projekt arbeiten Ingenieure, Biologen, Philosophen, Sozialwissenschaftler, Informatiker sowie Kunsthistoriker zusammen.

    • Falsch.

      Google Übersetzungs-tool benutzt Ähnlichkeiten zwischen mehreren Sprachen, um zwischen zwei Sprachen zu übersetzen. Weil das aber auf einer deep-learning-Technologie beruht, deren Approximationsfähigkeit allein in den numerischen Gewichten der in Schichten angeordneten nicht-linearen Regressionsfunktionen beruht, ist diese kreierte Sprache IMPILZIT.

      Das bedeutet, daß sie nicht gesprochen werden kann. Sie wird nur realisiert durch ihre Übersetzungsfähigkeit und die hängt von einer Folge numerischer Werte ab, denen kein semantischer Gehalt zugeordnet werden kann. Die Folge ist, daß diese angeblich kreierte Sprache keinerlei Kompositionalität aufweist. Und das bedeutet, daß es nicht um eine Sprache handelt, deren Semantik auch nur entfernt einer Semantik einer natürlichen Sprache ähnelt.

      Das Bildzeitungsniveau dieses blosg wird immer schlimmer. Und es richtet auch immer mehr Schaden an, daß völlige Unkenntnis zu den hier angesprochenen Themen vorherrscht.

      • Google Übersetzungs-tool benutzt Ähnlichkeiten zwischen mehreren Sprachen, um zwischen zwei Sprachen zu übersetzen. Weil das aber auf einer deep-learning-Technologie beruht, deren Approximationsfähigkeit allein in den numerischen Gewichten der in Schichten angeordneten nicht-linearen Regressionsfunktionen beruht, ist diese kreierte Sprache IMPILZIT.

        Das stimmt.

        Obwohl ich den zweiten Satz mehrmals lesen musste um zu verstehen was du meinst. Ich denke es wäre sehr viel leichter für dich hier mehr Verständnis zu erzeugen, wenn du auf solche komplizierten Sätze verzichtest. Oder, als Alternative, einfachere Formulierungen verwendest.

        Dass die Parameter die ein neuronales Netz lernt „Gewichte“ genannt werden – unwichtig.
        „In Schichten angeordnet“ – unwichtig.
        „nicht-lineare Regressionsfunktion“ – unwichtig bzw. missverständlich. Weder handelt es sich um Regression, noch stecken die „Gewichte“ in der Nichtlinearität.

          • In dem Maße in dem Fachgebiete spezieller werden, entwickeln sie eine Art eigene Sprache. Damit meine ich, dass bestimmte Begriffe eine bestimmte Bedeutung haben. Ich halte es für wichtig, dass man die Begriffe auch entsprechend der Gepflogenheiten des jeweiligen Gebiets nutzt. Bezüglich der philosophischen Themen kann ich da nicht mitreden weil mir das Fachwissen fehlt, aber wenn es ähnlich ist wie hier bei NN, dann kann ich die Kritik von Christian und anderen tlw. verstehen. So etwas

            deren Approximationsfähigkeit allein in den numerischen Gewichten der in Schichten angeordneten nicht-linearen Regressionsfunktionen beruht

            würde in der NN-Community niemand sagen. Es ist nicht falsch, aber auf eine Art und Weise formuliert, die einen erst einmal am Kopf kratzen lässt.

            Man kann ein NN auch einfach und trotzdem in der für die Diskussion hier nötigen Genauigkeit erklären.
            Ein neuron in einem NN besteht aus einer nichtlinearen funktion f sowie einer linearen transformation der eingangsdaten. Der output des neurons ist f(x) = h(a.x). a.x ist die lineare transformation (mit dem parameter a), und h(.) die nichtlineare funktion. Wenn ein NN „lernt“, dann passiert nichts anderes als dass man versucht die parameter (hier: a) so zu wählen, dass der Output des Netzes dem gewünschten Ergebnis entspricht (wenn man genau sein will kann man hinzufügen, dass die Methode dazu üblicherweise gradient descent optimierung ist.)
            Die Power der NN kommt daher, dass man viele Neuronen hintereinanderschaltet. Der Output ist also f(x) = h(c.h(b.h(a.x))). Der wichtige Punkt ist hier: Die nichtlineare funktion h(.) ist immer dieselbe, aber die parameter sind immer unterschiedlich (a,b,c). Trainieren bedeutet, dass man an den parameteren (ein NN kann millionen davon haben) herumdreht, bis der Output dem gewünschten Ergebnis entspricht.

            Das heißt: Was ein NN tut bzw. kann, ist durch die Parameter bestimmt.
            Das NN ist auf Trainingsdaten (und zwar eine große Menge) zwingend angewiesen, man muss also zusammengehörige Paare (input, gewünschter output) bereitstellen. Das NN „lernt“ dann irgendwelche Strukturen in diesem riesigen Datenberg. Mit Intelligenz oder Bewußtsein hat das gar nichts zu tun.

          • Weil man die einzelnen Neuronen nicht als „Regressionsfunktionen“ bezeichnet. Ich habe das noch nie gehört. Mit dem gesamten Netzwerk kann man Regression machen, ja. Dann könnte man sagen das Gesamtnetzwerk ist eine funktion g(x,theta) mit theta = alle Netzwerkparameter und g(x) ist eine Regressionsfunktion. Aber nicht die einzelnen Neuronen. Deshalb erzeugt auch der Rest des Satzes Kopfkratzen: Die „Regressionsfunktionen sind in Schichten angeordnet“ – was heißt das? Weiters „in den Gewichten […] der Regressionsfunktionen“ – die nichtlinearen Funktionen in einem NN haben keine Gewichte/Parameter. Die Nichtlinearitäten sind fix. Die lineare Transformation (a.x+b bzw. convolution) hat Parameter, und nur diese werden gelernt.

          • @pingpong

            „Ich habe das noch nie gehört.“

            Doch, es wird lebhaft diskutiert, welche nicht-lineare Funktion für die Regression in welcher Anwendung benutzt wird. Schau mal nach rectified linear functions oder sigmoidal fuctions. Der Trick an NN ist immer „lokale Regression“, weshalb sich viele Klassifikations- und Approximationsaufgaben damit lösen lassen.

            “ was heißt das? “ Die „Topologie“ der hidden units, die Art ihrer Vernetzung spielt eine entscheidende Rolle für die Eigenschaften eines NN.

            „die nichtlinearen Funktionen in einem NN haben keine Gewichte/Parameter. “

            Ach so, ja .. das ist schlampig formuliert.
            „Mit dem gesamten Netzwerk kann man Regression machen, ja.“

            Viele Klassi

          • Doch, es wird lebhaft diskutiert, welche nicht-lineare Funktion für die Regression in welcher Anwendung benutzt wird. Schau mal nach rectified linear functions oder sigmoidal fuctions.

            Genau das meine ich mit „Es ist nicht falsch, aber auf eine Art und Weise formuliert, die einen erst einmal am Kopf kratzen lässt.“ Die Nichtlinearität einer Unit (eines Neurons) wird üblicherweise als „activation function“ oder einfach „nonlinearity“ bezeichnet, nicht als „regression function“.
            Eine einzelne Einheit hat auch gar nicht genug power für eine „regression“ deshalb bezeichnet man die nonlinearity, welche immer zu einer einzelnen Einheit gehört, auch nicht als „regression function“. Das gesamte Netzwerk kann eine regression function sein, ja.
            Eine google Suche nach „network regression function“ ergibt hits, bei denen „Regression“ auf das ganze Netzwerk bezogen wird. Eine Suche nach „network regression function relu“ ergibt hits, bei denen ReLu immer im Zusammenhang mit „activation function“ oder „nonlinearity“ (nicht: „regression“) vorkommt. Eine Suche nach „network local regression“ ergibt nichts sinnvolles.

            Wie gesagt, es ist nicht falsch, aber auf eine Art und Weise formuliert (die Ungenauigkeit bez. der Parameter macht es auch nicht leichter), sodass selbst jemand aus dem Fachgebiet Schwierigkeiten hat es zu verstehen. Für eine tendeziell eher nicht-fachliche Diskussion wie hier halte ich das für nicht optimal. Das ist schade, denn in der Sache hast du ja recht. Aber dein Argument ist aus meiner Sicht so ungewühnlich und tlw. ungenau formuliert, dass du dir viel Potential verspielst.

          • Dein Argument hier:

            Google Übersetzungs-tool benutzt Ähnlichkeiten zwischen mehreren Sprachen, um zwischen zwei Sprachen zu übersetzen. Weil das aber auf einer deep-learning-Technologie beruht, deren Approximationsfähigkeit allein in den numerischen Gewichten der in Schichten angeordneten nicht-linearen Regressionsfunktionen beruht, ist diese kreierte Sprache IMPILZIT.

            In der Sache ist das richtig, aber es ist ungewöhnlich formuliert. Deshalb diskutieren wir ja die letzten paar Beiträge nur darüber, wie welches Wort zu verstehen ist. Mit Potential meine ich, dass dein Argument gegen das „Bildzeitungs-Niveau“ der Schlagzeile „Googles Maschine lernt ihre eigene Sprache“ zutreffend ist. Diese Schlagzeile ist genauso reißerisch wie „Gender Pay Gap: Frauen verdienen noch immer 75ct für jeden Euro den Männer verdienen“. Leider verspielst du das Potential durch die m.M.n. unnötig komplizierte und ungewöhnliche Formulierung. Das erzeugt unnötige Angriffsfläche. Anstatt über den Unsinn der Schlagzeile/der Meldung zu diskutieren (diese Potential meine ich), reden wir über deine Formulierung.
            Gut, da bin ich nicht ganz unschuldig dran 😉

  5. Ach, ich finde das „Gedankenexperiment“ gar nicht so abwegig.

    Vortäuschen von Intelligenz durch Verknüpfen von Symbolen machen doch Philosophen schon von jeher..

  6. Das größte Problem ist, daß du dich immer noch an Themen ranwagst, die eindeutig über deinem intellektuellen Niveau liegen – du das aber einfach nicht einsiehst.

    Denn erstens hast du nicht kapiert, was Searle wirklich macht. Denn Searle kritisiert mit dem Argument vom chinesischen Zimmer Fodors repräsentationale Theorie des Geistes: Mentale Repräsentationen, die allein syntaktischen Regeln unterworfen sind, würden nicht ausreichen, um intentionale Zustände zu erzeugen.

    Damit will sich Searle gegen eine Möglichkeit einer starken AI wenden, einer künstlichen Intelligenz, die nicht nur simuliert ist (das machen wir im Moment), sondern kreativ.

    Was Searle aber wirklich macht, ist weniger. Er argumentiert nur für die These:

    „Keine rein syntaktische Maschine kann eine Sprache verstehen.“

    Sein Argument geht so:

    i) Computerprogramme sind rein syntaktisch bestimmt.
    ii) Intentionale Zustände haben einen semantischen Inhalt.
    iii) Syntax reicht für Semantik nicht aus.
    iv) Also: Kein System realisiert allein durch formale Regeln intentionale Zuständen und DESALB versteht es auch die Semantik einer Sprache nicht.

    Zweitens: Bei Searle muß man sich immer fragen – und zwar IMMER – welches Art von Dusseligkeit seiner These oder seinem Argument zugrunde liegt. In diesem Fall hat Searle Geschichte vom chinesischen Zimmer einfach nichts mit Fodors repräsentationalen Theorie des Geistes zu tun.

    Denn bei Fodor geht es nicht um „Semantik durch Syntax“, sondern darum, daß ein Organismus oder eine Maschine in berechenbaren (computationalen) Relationen zu mentalen Repräsentationen steht, die bereits einen semantischen Inhalt haben. Und mentale Repräsentationen sind – ebenso wie Satztoken einer natürlichen Sprache – physische Strukturen, die einen Inhalt haben, der durch einen daß-Satz ausgedrückt werden kann.

    Deshalb ist Fodor ja auch für die evolutionäre Psychologie so unersetzlich. Scheitert sein Ansatz – was ja bereits seit 25 Jahren bekannt und der Grund dafür ist, daß die gegenwärtige Wissenschaft des Geistes, seine Thesen nicht mehr diskutiert – dann scheitert auch die evolutionäre Psychologie.

    ALSO: Wenn man schon gegen das Computermodell des Geistes argumentieren will, dann muß man zeigen, daß mentale Repräsentationen NICHT NOTWENDIG sind, um intentionale Zustände zu realisieren.

    Denn das bedeutet, daß – was immer mentalen Repräsentationen sein mögen – sie nichts mit intentionalen Zuständen, wie wir sie aus der Alltagspsychologie kennen, zu tun haben. SO geht das.

    Das alles habe ich bereits ausführlich in meinem blog durchgekaut.

      • Falsch.

        Das Problem, das Searle mit dem Roboter-Ansatz hat, ist ein völlig anderes – wie man auch in THE REDISCOVERY OF MIND (1992) nachlesen kann.

        Denn Searle ist aufgefallen, was Brentano 1874 und Frege schon 1892 beschrieben haben und auf den Namen „Opakheit intentionaler Zustände“ hört:

        1. Für mentale Phänomene ist charakteristisch, daß sie sich auf einen Inhalt beziehen, auf etwas gerichtet sind: Man glaubt etwas, man befürchtet etwas, man wünscht etwas etc..

        2. Diese Merkmal der Intentionalität ist nichts Physisches. Denn man kann auch wünschen, was physikalisch unmöglich ist. z.B. „Oh möge doch vor Abscheu vor diesem Verbrechen morgen die Sonne einen Tag lang dunkel bleiben.“.

        3. Modern formuliert heißt das Intentionale Zustände haben einen propositionalen, i.e. in Sätzen ausdrückbaren Gehalt, sie sind semantisch bewertbar, sie haben Wahrheits- und Erfüllungsbedingungen, d.h. sie sind wahr bzw. erfüllt, wenn die Proposition, der Inhalt eines Aussagesatzes, die den Inhalt des intentionalen Zustandes ausmacht, wahr ist.

        4. Wenn 3. stimmt, dann sind intentionale Zustände opak. Das bedeutet, daß Zustände mitt extentionsgleichen, aber sinnverschiedenen daß-Sätzen, typverschieden sind. Beispiel: Zu glauben, daß ein der Morgenstern der Abendstern ist, ist nicht dasselbe, wie zu glauben, daß der Planet Venus der Planet Venus ist.

        5. Searle hat recht damit, daß jede Theorie des Geistes höchstens dann akzeptabel ist, wenn diese Opakheit erklären kann.

        6. Die ganze Pointe des chinesischen Zimmers liegt darin, daß Searle meint, daß Syntax allein, das nicht hinbekommt.

        7. Stattdessen meint er, daß die – biologisch bedingte – Art des Erlebens, intentionale Zustände zu haben, also das phänomenale Bewußsein ein viel besserer Kandidat wäre, diese Opakheit zu erklären. Ok? Computer können nicht verstehen, weil sie nicht leben und ergo nicht ERleben. SO läuft das Spiel nach Searle.

        Searles These unter 7. finde ich schon ziemlich skurril – und übrigens: Seine philosophische Unkenntnis ist in Fachkreisen legendär.

        Fodors Thesen sind sicherlich falsch und Dennett hat als erster überzeugend dargelegt, warum das so ist.

        Aber Searle ist in diesem Spiel nun wirklich keine Nummer. Sein Zeug ist in meinen Augen reine Zeitverschwendung.

        • @Elmar, hier ist ein schwerwiegender Denkfehler drin, der alles zunichte macht:

          „2. Diese Merkmal der Intentionalität ist nichts Physisches. Denn man kann auch wünschen, was physikalisch unmöglich ist. z.B. „Oh möge doch vor Abscheu vor diesem Verbrechen morgen die Sonne einen Tag lang dunkel bleiben.“.

          Die „Intentionalität“ *beschreibt* nur nichts „Physisches“ (auch „Reales“ zu nennen), dass sie nichts Physisches/Reales *sei* ist eine völlig unzulässige Verallgemeinerung.

          Hinter diesem Schluss steht wieder mal das „postmoderne“ Vorurteil, dass Ideen über eine Sache mit der Sache selbst identisch seien.

          Genau die gleiche Argumentation kennt man von allen Irrationalisten, die eine besondere neue Eigenschaft in ihre Diskussion schmuggeln wollen, regelmässig unter dem Vorwand es ginge ihnen um ein Aufsprengen irgendeines „Determinismus“.

          Die „intentionale Zustände“ sind ein reiner Lückenbüsser in der Tradition wie „Geist“, „Seele“, ein völlig unbestimmter und unbestimmbarer Begriff.

        • @Alex

          „dass sie nichts Physisches/Reales *sei* ist eine völlig unzulässige Verallgemeinerung.“

          Nicht so ganz: Wenn man physikalisch Unmögliches wünschen kann, dann muß in jedem Einzelfall gezeigt werden, daß die Intentionalität eine mentalen Zustandes etwas Physisches ist.

          „Hinter diesem Schluss steht wieder mal das „postmoderne“ Vorurteil, dass Ideen über eine Sache mit der Sache selbst identisch seien.“

          Erstens besagt die Postmoderne das gar nicht. Denn die Pointe der postmodernen Denker ist der Relativismus, nicht die metaphysische Annahme, daß Ideen von Sachen die wahre Realität seien.

          Und zweitens ist die These, daß Ideen über eine Sache mit der Sache selbst identisch seien eine Vorstellung der Neuzeit, die du in der Variante des Sensualismus z.B. bei Berkeley

          https://de.wikipedia.org/wiki/George_Berkeley

          nachlesen kannst oder in der idealistischen Variante bei Platon.

          „Genau die gleiche Argumentation kennt man von allen Irrationalisten, die eine besondere neue Eigenschaft in ihre Diskussion schmuggeln wollen, regelmässig unter dem Vorwand es ginge ihnen um ein Aufsprengen irgendeines „Determinismus“.“

          Äh … ja …. Alu-Hut-Zeit ist normalereweise nach 20:00. Aber wenn Sie einen Termin ausmachen möchten ….

        • @elmar
          „Nicht so ganz: Wenn man physikalisch Unmögliches wünschen kann, dann muß in jedem Einzelfall gezeigt werden, daß die Intentionalität eine mentalen Zustandes etwas Physisches ist.“

          Du hast es nicht verstanden. Es spielt keine Rolle, ob das Gedachte möglich oder unmöglich ist — was den Akt des Denkens selbst betrifft und was dahintersteht.

          Dass da ein Unterschied bestünde, ist eine völlig abenteuerliche Annahme, die bewiesen werden müsste und nicht als Selbstverständlichkeit anzunehmen ist.

          „Erstens besagt die Postmoderne das gar nicht.“

          Natürlich sagt „die Postmoderne“ das nicht, denn es gibt keine verbindliche Theorie der Postmoderne. Im Gefolge der Postmoderne ist aber die Idee sehr verbreitet worden, dass Idee und Realität eins wären. Und darüber hinaus, dass Ideen die Realität schaffen würden.

          Das ist überhaupt nichts Neues, sondern so alt wie die Menschheit, auch „magisches Denken“ genannt.

          Die Postmoderne ist nur die Ablehung der Moderne und die Regression in das alte magische Denken, das eben durch die Moderne ihr Ende fand.

          Das Ganze ist nichts anderes als eine Veranstaltung in mutwilliger Verdummung, weil das so ein tolles absolutes Herrschaftsinstrument ist. Daher kreist „postmoderne Denken“ immer nur um Macht und Machtausübung. Und ist eine Fundamentalabsage ans Denken überhaupt.

          Deshalb sind postmoderne Texte und „Narrative“ auch nicht anderes als die Aneinanderreihung unsinniger Beliebigkeiten. Und das soll dann „Denken“ sein….

        • „Diese Merkmal der Intentionalität ist nichts Physisches. Denn man kann auch wünschen, was physikalisch unmöglich ist. z.B. „Oh möge doch vor Abscheu vor diesem Verbrechen morgen die Sonne einen Tag lang dunkel bleiben.“.

          Was ist denn das für ein Argument? Die Stromspannungen eines Computers, umgesetzt in Nullen und Einsen ermöglichen als Produkt des Computers auch die Berechnung des unmöglichen. Und das Produkt der Aktivierungspotentiale von Symanpsen eben auch.

          Das scheint mir überhaupt das Hautproblem der Philosophie zu sein: sie kennt nur Materie oder Geist, Synapsenzustände als Zustand dazwischen fehlen, weswegen sie das Problem nicht lösen können.

          Ihnen fehlen eben Software und Rechenoperationen als Zwischending

        • @Christian

          Ihnen fehlen eben Software und Rechenoperationen als Zwischending

          Gib bitte mal Deine Definition von Software.

          Was ist die biologische Entsprechung von Software?

          Ist ein auf ein Stück Papier notiertes Programm
          die gleiche Software,
          wie ein in Stein gemeisseltes oder auf einem Datenträger gespeichertes?

          Kann also Software etwas vom Medium unabhängiges sein?

          • Ich muss es vielleicht anders ausdrücken: eine laufende Software, also nicht der geschriebene Code auf der Festplatte, der wäre vielleicht noch Biologie, sondern die Vorgänge des arbeitenden Programms, wo Daten mit Routinen erfasst und Betreuer bewertet und dann in andere Arbeitsvorgänge eingebunden werden.

            Der Unterschied zwischen dem Egoshooter auf der Festplatte und dem laufenden Spiel in den berechnet werden muss wie die Umwelt auf den Spieler reagiert, sehr vereinfacht ausgedrückt

        • @Christian

          Ich muss es vielleicht anders ausdrücken: eine laufende Software, also nicht der geschriebene Code auf der Festplatte, der wäre vielleicht noch Biologie, sondern die Vorgänge des arbeitenden Programms, wo Daten mit Routinen erfasst und Betreuer bewertet und dann in andere Arbeitsvorgänge eingebunden werden.

          Kann ein und dasselbe Programm (die selbe Software) durch unterschiedliche Hardware interpretiert / ausgeführt werden, mit unterschiedlichen Hardwarezuständen?

          • Das scheint mir auch eine sinnlose Diskussion zu sein.
            Was bringt es jetzt genau, ob Schmerz bei einem Luchs anderes ausfällt als bei einem Menschen?

            Sie haben gemeinsame Vorfahren, die Zustände haben sich aus der gleichen Grundlage entwickelt, aber es kann sich natürlich etwas verändert haben.

            Was genau soll da unter Berücksichtigung evolutionärer Entwicklung problematisch sein?

            Und auch wenn bestimmte Punkte bei Menschen unterschiedlich sind, dann sind das dich Details, die bei einem wachstumsplan durchaus passieren können

        • Warum sollte das ein Problem sein? Wir haben ja eine ein paar hundert Millionen Jahre andauernde strikte Selektion auf Kompatibilität

          Kompatibilität auf welchem Level? Auf Kommunikationsschicht, auf Protokollschicht, auf Hardwareschicht?

          Ein Problem ist das nicht. Es würde nur bedeuten, dass im Extremfall MRI Hirnscans eigentlich nur verlässliche Aussagen über genau ein Gehirn machen lassen.

          Meines Erachtens je „neuer“ und Software-bezogener das Hirnareal, desto weniger Aussagekraft über den Bezug von Software zu Hardware Zustand.

          • Richtig, Gehirnchirurgen sind jedesmal mit einem komplett neuen Gehirn konfrontiert, bei dem nichts wie das andere ist.

            Oder ist das so etwas wie: „wenn bei zwei Computernn das Spiel nicht auf der gleichen Stelle der Festplatte abgespeichert ist, dann kann es nicht das gleiche Spiel sein“?

        • „Richtig, Gehirnchirurgen sind jedesmal mit einem komplett neuen Gehirn konfrontiert, bei dem nichts wie das andere ist.“

          Du übersiehst, Evochris, daß Gehirnchirurgen keine mentale Zustände operieren.

          • Ich wollte darauf hinaus, dass unser Gehirn bei den Menschen recht gleich sind.

            Auch bei mentalen Zuständen berichten Menschen überall auf der Welt so ziemlich das gleiche.

            Welche großen Unterschiede gibt es denn da die so bedeutend wären?

          • Da habe ich ja gelesen. Warum sollte man das Verständnis vieler individueller Personen nicht auf die Gattung Mensch übertragen?

            Welche Fakten sprechen dafür, dass sie abweichen?

            Menschen finden sich üblicherweise in den Erzählungen anderer Menschen wieder, weil ihr Verständnis gleich ist

          • Da nennst du keine fakten. Deswegen frage ich nach

            Was du da machst ist Thesen aufstellen, die du aus anderen unbewiesenen Vermutungen herleitest. Es könnte nur alles auch vollkommen anders sein.

            Wofür weitaus mehr spricht

            Nenne doch mal etwas Konkretes, woraus sich das ergibt.

          • Oder noch mal konkreter: warum sollte es für eine vergleichbarkeit wichtig und wesentlich sein, das auch für zelebralen Zustände haargenau gleich sind (und um welche Studie mit welchen Abweichungen handelt es sich da?)

            Natürlich können bei verschiedenen Menschen zB Angstzustände je nach ihren Leben mit anderen Assoziationen und Ängsten verknüpft sein oder gleiche Ängste können in einem neutralen Netz anders abgespeichert werden. Das entwertet aber nicht die Hintergründe aus denen wir Angst empfinden, was bereits deine Einwände entkräftet.

          • „warum sollte es für eine vergleichbarkeit wichtig und wesentlich sein, das auch für zelebralen Zustände haargenau gleich sind “

            Deine Theorie beruht auf dieser unbewiesenen Annahmen und diese Annahme ist falsch, weil sie mit den empirischen Fakten der Realität nichts zu tun hat.

            Du mußt einfach mal lesen, was da steht: https://jungsundmaedchen.wordpress.com/2016/04/01/ist-intentionaler-realismus-ein-akzeptabler-nicht-reduktiver-physikalismus/

          • Meine Theorie beruht darauf, dass Leute ihr Innenleben gleich schildern. Und natürlich auf einer Vielzahl von Studien, die immer wieder deutlich machen, wie stark sich die Biologie auf das Verhalten auswirkt
            https://allesevolution.wordpress.com/about/
            Die sind mit deinem Theorien nicht in Einklang zu bringen, weswegen du sie seit wir diskutieren ausblendest und versuchst das Thema zu wechseln wenn man sie anspricht

            Du hingehen bleibst vage. Welche Studie ergibt den nun die großen Unterschiede, die die Identitätstheorie zerstören? Es muss dir doch möglich sein, dieses wesentliche Element konkret zu benennen.

            Sonst ist nämlich kein Widerspruch da

          • Du ließt weiter nicht, was in meinen posts steht. Die Beispiele auf denen meine Argumentation beruht, sind empirisch und Studien würden diese Argumente weder ändern, noch verbessern. Du vestehst einfach nicht, daß die elementwiese Vermutungen über das Gehirn auf die Alltagspsychologie überträgst, um die Alltagspsychologie zu einer Theorie des Gehirns zu machen – was sie nicht ist. Selbst die Psychologie ist eine Naturwissenschaft, die Alltagspsychologie wird seit Aristoteles entwickelt, es ist eine geisteswissenschaftliche Theorie. Darüber hinaus ist die Annahme, daß die Menschen ihr Innenleben gleich schildern, eine falsche, rationalistische Annahme, die aus der substanzdualistischen Theorie von Descartes stammt – und längst überholt ist. Ich habe dir schon vor 2 Jahren gesagt, daß du überholte Theorien aus der Philosophie benutzt, um Experiente zu deuten, aber du ignorierst weiterhin alle Fakten.

            „Welche Studie ergibt den nun die großen Unterschiede, die die Identitätstheorie zerstören?“

            Das Multirealisierbarkeitsargument.

          • *Darüber hinaus ist die Annahme, daß die Menschen ihr Innenleben gleich schildern, eine falsche, rationalistische Annahme, die aus der substanzdualistischen Theorie von Descartes stammt – und längst überholt ist“

            Bring da mal Substanz rein, inwiefern schildern den Menschen ihr Innenleben nicht gleich?
            Oder willst du nur auf Qualia hinaus und auf „wir wissen nicht, ob das Rot was a sieht auch das Rot ist welches B sieht, auch wenn sie beide sagen, dass ein Gegenstand rot ist*
            Dann würde es darum gehen, dass man nicht weiß ob sie das gleiche beschreiben, auch wenn sie gleiche Punkte anführen.

            Ansonsten sehe ich keine wesentlichen Abweichungen. Menschen schildern zB Schmerzen relativ gleich und auch andere Empfindungen wie Zorn, liebe etc

          • „Bring da mal Substanz rein, inwiefern schildern den Menschen ihr Innenleben nicht gleich?“

            Weil es 1. keine Privatsprache gibt und 2. die semantische Struktur der Terme der Alltagspsychologie zeigt, daß die Ausdrücke für intentionale Zustände keine notwendigen, sondern nur hinreichende Verwendungsbedingungen kennt, so daß sich Ideolekte bilden können und 3. sich die Ausdrücke für Qualia oder für inentionale Zustände nicht auf Ereignisse oder Zustände des Gehirns beziehen können, daß die Semantik jeder Sprache externalistisch ist. Das hat djadmoros alles schon zig mal erklärt. Und keine Sorge: Es gibt so gut wie nicht, worin wir übereinstimmen.

            Aber es ist ohnehin lächerlich zu glauben daß du irgendeinem dieser Hinweise nachgehen wirst. Schließlich muß man da selbst denken.

          • Schau mal in der Literatur. Du hast keine Anspruch auf beliebig viel von meiner Zeit und der wissenschaftliche Fortschritt wird auch nicht dadurch gemessen, daß du zustimmst.

          • Ein Widerspruch ist ein Fakt. Du hast keine Ahnung, wie eine Theorie mit Fakten konfrontiert wird und vertrittst einen logischen Positivismus, der schon von Popper 1935 überwunden wurde. Es fehlt dir an jeglicher Erfahrung mit naturwissenschaftlichen Theorien, die aber gebraucht wird, um wissenschaftliche Veröffentlichungen richtig zu vestehen. Da du aber nach 3 Semenstern Jura die Uni geschmissen hast, ist das nicht verwunderlich. Nur kannst du dann nicht erwarten, daß dich jemand ernst nimmt.

          • Ein Widerspruch muss, was ich dir schon erklärt hatte, zumindest wenn er sich auf die realität bezieht, zumindest zwei Aussagen betreffen, die sich widersprechen.
            Der Widerspruch löst sich auf, wenn eine der Aussagen schlicht falsch ist.

            Wenn man also beispielsweise die Aussagen hat, das x nur einen Wert haben kann, und dir weiteren Aussagen, das x gleich drei und x gleich 5 ist, dann ist das ein Widerspruch, der in jede Richtung auflösbar ist, wenn eine der Aussagen nicht zutrifft.
            Du behauptest bestimmte Punkte und konstruierst daraus einen Widerspruch.

            Wir wäre dieser dann wohl auszulösen?

          • „Wir wäre dieser dann wohl auszulösen?“

            Jetzt geht dieser billige rethorische Scheiss wieder los: Es wird irgendeine Luftblase erzeugt, in der nicht klar ist, wovon geredet wird und dann hoffst daß ich mich entweder verwirre oder mit einem anderen Thema beginne, so daß die Aufmerksamkeit von den kritischen Punkten verschwindet.

            Ehrlich – du bist doch weder willens noch fähig zu einer sachlichen Diskussion, und tust alles damit die die Diskussion ineffizienter wird. Weil deine Meinung zu ändern, würde ja an deinem Status kratzen …. echt, das sind Probleme, für die ich echt keine Zeit hab.

            Zeig erst mal, daß du um einen sachluce Fortschritt bemüht bist, dann sehen wir weiter.

        • @christian

          Richtig, Gehirnchirurgen sind jedesmal mit einem komplett neuen Gehirn konfrontiert, bei dem nichts wie das andere ist.

          Bei Gehirnchirurgie geht es zum größten Teil darum, das Gehirn so zu verkrüppeln, dass man eine „konsistente“ Grundlage hat.
          Der einzige Bereich, wo Gehirnchirurgie wirklich was bringt, sind eben die Bereiche, die kaum was mit Software zu tun haben.

          Oder ist das so etwas wie: „wenn bei zwei Computernn das Spiel nicht auf der gleichen Stelle der Festplatte abgespeichert ist, dann kann es nicht das gleiche Spiel sein“?

          Das hast Du gesagt. Der Hirnscan schaut auf die gleichen Bereiche und deutet Aktivitäten mit dem gleichen Spielstand.

          Sprich, selbst mit der Computer-Analogie wird noch so unsauber hantiert, dass die Aussagen nicht mal da stimmen.

          • Der gleiche Spielstand? Wie soll das denn gehen?

            Jeder Mensch hat natürlich andere Erfahrungen in seiner Datenbank und speichert sie an anderer Stelle.

            Das ist in Endeffekt so egal wie die Frage, ob ein Spiel auf MB 2000 bis 3000 oder auf MB 4000 bis 5000 gespeichert ist und ob die Spielstände anders sind, es bleibt das gleiche Spiel

        • Jeder Mensch hat natürlich andere Erfahrungen in seiner Datenbank und speichert sie an anderer Stelle.

          Das ist in Endeffekt so egal wie die Frage, ob ein Spiel auf MB 2000 bis 3000 oder auf MB 4000 bis 5000 gespeichert ist und ob die Spielstände anders sind, es bleibt das gleiche Spiel

          Ein MRI-Scan tut aber genau das: Er schaut auf die „Speicherstelle“ MB 2000-3000 und wenn sich dort etwas bestimmtes tut dann wird das als „Beweis“ für X genommen. Wenn du dein eigenes Argument „es ist egal was wo gespeichert ist“ ernst nimmst, dann sind die ganzen Hirnstudien von denen du hier schon viele zitierst hast in Extremfall nicht aussagekräftig. Im Sinne von nicht verallgemeinerbar, weil sie eben streng genommen nur für das Gehirn welches gescannt worden ist gelten. Darauf wollte gedankenwerk hinaus als er vorhin gesagt hat:

          Ein Problem ist das nicht. Es würde nur bedeuten, dass im Extremfall MRI Hirnscans eigentlich nur verlässliche Aussagen über genau ein Gehirn machen lassen.

          Meines Erachtens je „neuer“ und Software-bezogener das Hirnareal, desto weniger Aussagekraft über den Bezug von Software zu Hardware Zustand.

          • Also unter „fMRt Scans Philosophie“ findet man schon mal nichts. Da searle seine Theorien 1984 veröffentlicht hat und fMRT Verfahren bei Menschen erst ab 1991 durchgeführt worden sind, wenn Wikipedia recht hat, dann konnte er die auch noch nicht verwerten.
            Worauf hat er abgestellt?

        • inwiefern schildern den Menschen ihr Innenleben nicht gleich?

          Diese These habe ich auch schon verschiedentlich aus der Praxis behandelnder Psychologen gehört. Das ist wohl der Stand der psychologischen Forschung dazu, ohne dass ich Dir das jetzt näher belegen könnte.

          Erklärbar ist das leicht: Sprache besteht aus Symbolen. Wenn ich sage „Auto“ und dabei auf ein Auto zeige, dann verstehst Du sofort was „Auto“ meint, ohne dass dies mittels Sprache abschließend beschreibbar wäre oder sein müsste. Wenn man nun aber sprachliche Symbolik auf innere Vorgänge anwendet, dann gibt es keine Möglichkeit für den Kommunikationsempfänger das Symbol auf einen realen, mit allen Sinnen erlebbaren Gegenstand zurückzuführen. Und dann treten die Schwächen der Beschreibung mittels Symbolen dergestalt in den Vordergrund, dass die Unmöglichkeit abschließender Beschreibung mittels Sprache so dominant wird, dass eine Verständigung darüber kaum noch möglich ist.

          • „Diese These habe ich auch schon verschiedentlich aus der Praxis behandelnder Psychologen gehört. Das ist wohl der Stand der psychologischen Forschung dazu, ohne dass ich Dir das jetzt näher belegen könnte.“

            Um so interessanter sie zurück zu verfolgen. Videotext m vielleicht wäre es lediglich schlecht belegter Schwachsinn oder eine Fehlinterpretation oder eben nur Unterschiede im Detail.

            Hat da jemand einen Ursprung?

        • @elmar
          https://jungsundmaedchen.wordpress.com/2016/03/08/kann-eine-naturalisierung-des-geistes-reduktionistisch-sein/

          Ich habe da ein paar Ausschnitte überflogen.
          Positiv ist die Suche nach Argumenten, die gegen die Hypothesen sprechen.
          Negativ ist, dass da noch viel fehlt, z.B. der hier ansprechochenen „Identitätstheorie“ – hier schränkst Du die ursprüngliche These „Physische Zustände realisieren mentale Zustände“ auf einen ein-eindeutigen Zusammenhang ein. Den ein-eindeutigen Zusammenhang verneinst Du (auch mit Bezug zu Fakten).
          Allerdings folgt daraus nunmal nicht, dass die grobe These verworfen werden müsse.
          Ein anderes Beispiel, das mir auffällt ist der Abschnitt 5) Eliminativer Materialismus — hier greifst du keinerlei Fakten, d.h. Artifkate der Realität, auf; Deine Kern-Argumentation scheint mir hier zu sein, dass die (von Dir diskutierte) Hypothese ärgerlich für verschiedene Zweige der Geistes“wissenschaftler“ wäre.

          Kurz: Ich hoffe Dir ein Ansporn zu sein, zukünftig
          1) Nicht nur die Thesen die Du „bekämpfen“ kannst zu betrachten, sondern die tatsächlich genutzten; und
          2) Die Argumente an der (harten) Realität zu messen

          • @alex ii

            „Allerdings folgt daraus nunmal nicht, dass die grobe These verworfen werden müsse.“

            In dem Fall würde ich vorschlagen, daß du mal diese grobe These ausformulierst und ich dann nachprüfe, inwieweit die Argumente, die ich bereits gelistet habe, den von dir postulierten DIREKTEN Zusammenhang von intentionalen mit zerebralen Zuständen widerlegen. Denn auf diese Weise wird durchgespielt, daß die gegebenen Argument doch ausreichen.

            „Der eliminativer Materialismus — hier greifst du keinerlei Fakten auf“. Doch. Ich demonstriere, daß dem eliminativen Materialismus zu folgen unsere komplette epistemische und normative Praxis ausradieren würde – woraus folgt, daß diese Option mit der Realität nichts zu tun hat.

          • „Der eliminativer Materialismus — hier greifst du keinerlei Fakten auf“. Doch. Ich demonstriere, daß dem eliminativen Materialismus zu folgen unsere komplette epistemische und normative Praxis ausradieren würde – woraus folgt, daß diese Option mit der Realität nichts zu tun hat“

            Weil diese epistemische und moralische Praxis anderes nicht zu realisieren wäre?
            Evolutionäre Psychologie erklärt unser Verhalten weitaus besser

          • „Evolutionäre Psychologie erklärt unser Verhalten weitaus besser.“

            Das ist gelogen und du weißt das Leszek hat ausführlich davon berichtet, daß EP anthopologisch nicht in der Lage ist, das abstrakte Denken zu erklären – was mit meiner Theorie völlig kompatibel ist, daß ich die Alltagspsychologie nicht wie du für eine Naturwissenschaft, sondern für eine von Aristoteles angezettelte geisteswissenschaftliche Theorie über Personen halte.

            EP ist ohne den intentionalen Realismus von Fodor nicht möglich – und der wurde vor 25 Jahren bereits widerlegt.

            Wenn ich mal Zeit habe, beschäftige ich mich gern mal mit den anderen konkreten Problemen von EP, wie dem Verstoß der Modularitätsthese gegen den Externalismus. Aber im Moment muß ich was für die Männer tun und dich auszuschalten, reicht da nicht.

          • „Das ist gelogen und du weißt das Leszek hat ausführlich davon berichtet, daß EP anthopologisch nicht in der Lage ist, das abstrakte Denken zu erklären“

            Dann widerspreche ich Leszek da, wie in anderen Punkten auch.
            Abstraktes denken ist natürlich sehr einfach zu erklären: es ist wie beim Menschen erkennbar ist ein starker Selektionsvorteil.
            Das ist die Eigenschaft aufgrund der sich der Mensch durchgesetzt hat.

            Das war nun wirklich einfach.

            Wie erklärst du dir aber cah-Mädchen oder cloacal exstrohpy oder das gender equality paradox oder die menschlichen universalen ohne evolutionäre Psychologie?

          • „Dann widerspreche ich Leszek da, wie in anderen Punkten auch.“

            Was sagt das schon? Du hast da doch außer Labern nichts zu bieten.

            „Abstraktes denken ist natürlich sehr einfach zu erklären: es ist wie beim Menschen erkennbar ist ein starker Selektionsvorteil.“

            Das ist nur irgendeine Geschichte, die keine historische Absicherung hat. Du weißt nicht mal, welche Art von Argumenten du bringen mußt. Das geht bei Adrian übrigens auch immer schief.

            „Wie erklärst du dir aber cah-Mädchen oder cloacal exstrohpy oder das gender equality paradox oder die menschlichen universalen ohne evolutionäre Psychologie?“

            Ach, du verstehst doch diese Studien nicht mal im Ansatz. Sonst wüßtest du, daß sie nichts mit deinem Quatsch zu tun haben.

          • „Was sagt das schon? Du hast da doch außer Labern nichts zu bieten.“

            Doch, nämlich die gesamte evolutionäre Biologie und anerkannte Forscher wie Pinker, Darwin und Dawkins hinter mir, dazu unzählige von Studien.

            Du hast in Bezug auf das Geschlechterthema niemanden, auf den du dich berufen kannst.

            „Das ist nur irgendeine Geschichte, die keine historische Absicherung hat“

            Nein, wir haben nur eine kontinuierliche Entwicklung im Gehirn unserer Vorfahren aus der Archäologie und unsere nächsten Verwandten, die für intelligentesten anderen Lebewesen sind. Und Unmengen von Gehirnerforschung zB zur vererblichkeit von Intelligenz. Aber sonst wirklich nichts.

            Welche andere Theorie zur Entstehung der Intelligenz gibt es überhaupt?
            Bei dir ist es dich im wesentlichen ein „keine Ahnung“ es muss irgendwie mit was zusammenhängen, was ich noch nicht benennen kann “
            Im übrigen wäre „es ist nur eine Geschichte“ auch keine Widerlegung oder ein Ausschluss. Es bliebe als Möglichkeit selbstverständlich bestehen.
            Du versuchst schon wieder ein „Argument aus Unwissen“.
            Es bereits schon ausreicht um deinen Schluss nicht zwingend zu machen und damit bricht deine ganze Argumentation zusammen

            Ja, schon klar. Du machst meine Arbeit nicht und hast wichtigeres zu tun. Sind ja Punkte, die in Widerspruch zu deinen Theorien stehen und immer wieder in Studien repliziert werden. Wer kann da erwarten, dass du dazu was sagst.

            „Ach, du verstehst doch diese Studien nicht mal im Ansatz. Sonst wüßtest du, daß sie nichts mit deinem Quatsch zu tun haben“

            Doch, ich verstehe sie. Und die Bücher anerkannter Forscher verstehen str genauso.
            Du hast nur keine Erwiderung auf sie, weswegen du jede konkrete Ausführung dazu seit 3-4 Jahren vermeidest, wie der Teufel das Weihwasser

            Hic Rhodos hic salta: wie sind sie denn zu verstehen

            Ah

          • „Forscher wie Pinker, Darwin und Dawkins “

            Deren Ansichten sind inzwischen überholt. Auch die kin selection theory ist inzwischen beim alten Eisen und multt-level selction überall anerkannt: Gene sind nicht immer eigennützig. Manchmal sind sie es, manchmal nicht. Vor allem bei Frauen ist die Rekombination stärker, um egoistische Gene im Zaum zu halten. Das sind alles Sachen, die in dein Weltbild nicht passen.

            Die Forschung geht eben weiter. Das ist immer so, aber eben nichts, womit du rechnest.

          • Das sagst du immer wieder. Aber du kannst es nicht belegen. Ich habe dazu JS bereits erwidert und dargelegt, warum du da falsch liegst.

            Daraufhin kam wie üblich nichts.

            Butter bei die Fische: was wird heute in der Biologie von wem als führende Theorie vertreten?
            Namen, Bücher, Aufsätze bitte, irgendwas belastbares.
            Matthias und der doktorant, die beide Biologie studiert haben, haben sich mir ja bereits angeschlossen und dir mitgeteilt, dass du dich irrst

            Und dann bitte noch: schließt du dich denn angeblich neuen Theorien an?

          • Als Nicht-Biologe (so wie du es als Nicht-Akademiker auch bist), folge ich dem Stand der Forschung in der Biologe. Das ist keine Sache der Meinung.

            Es gibt selection auf allen Ebenen nicht nur auf der der Gene, wie Dawkins dachte. Es gibt diese Art von Selektion gibt natürlich auch. Die Folge ist, daß man bei jedem Merkmal, von dem man beansprucht, daß es durch Selektion zu erklären ist, darlegen muß, welcher Selektionsmechanismus vorliegt. Das aber tust du nie, du gehst immer vom eigennützigen Gen aus ohne nachzudenken.

          • Ich schließe mich in fachffremden Angelegenheit immer dem aktuellen Stand der Forschung an. Es bleibt mir ja auch gar nichts anderes übrig, wenn ich nicht so enden will wie du.

          • Dann ist Dir bewußt, dass es innerhalb der Theorien nur um die Frage einer zusätzlichen Sektionsebene geht, dort geht man von dem gleichen Einfluss der Gene aus, da Selektion immer auf die Gene wirkt.
            Sie sind also genauso biologisten wie die Theorien, die du ablehnst.
            Auch bei ihnen ist das Denken von der Biologie bestimmt
            (Abgesehen davon, dass es eine Mindermeinung ist und du dich nach deiner Aussage den von mir vertretenen Theorien anschließen musstest)

          • „dort geht man von dem gleichen Einfluss der Gene aus, da Selektion immer auf die Gene wirkt.“

            Das ist Dawkins Sicht, eine bestimmte Auffassung von Genen mit einer bestimmen Aufassing Evolution koppelte. Sein Genverständnis ist aber ebenfalls überholt und spätestens seit 2007 ist seine Auffassung – und damit deine – nicht mehr haltbar. Das wurde übrigens im DFG Projekt SCHM 2638/1-1 untersucht und der Bericht ist sehr interessant. Ich werde darüber berichten, wenn ich mal Zeit habe.

            Im Moment ist die Zwangsvaterschaftsproblematik wichtiger als dir beizubringen, was du von selbst wissen müßtest. Das verstehst du sicher. Außerdem kannst du ja dem Projekt jetzt selbst nachgehen. Vielleicht ließt du auch mal Terry Brown: Genome und Gene (2007), der ebenfalls einen modernen und damit nach-dawkinsschen Genbegriff vertritt.

          • Ich habe mehrere Bücher dazu gelesen, sowohl von Gould als auch von Gegnern

            Ich habe hier auch einen Artikel dazu, warum es nicht klappen kann: multi Level Selektion bekommt das Problem nicht in den Griff, das es immer günstiger ist die Vorteile zu nutzen statt die Kosten zu tragen. Das Problem fällt eben nur über das „egoistische gen“ weg, weil es die einzige Selektion ist, die dafür nicht anfällig ist

            Siehe hier:

            https://allesevolution.wordpress.com/2012/04/17/verwandtenselektion-gruppenselektion-selektion-des-einzelwesens-in-einer-gruppe/

          • „Ich habe mehrere Bücher dazu gelesen, sowohl von Gould als auch von Gegnern“

            Das ist ziemlich ausgeschlossen.

            Aha … Klein-EvoChris zeigt der Biologie, warum sie sich seit 40 Jahren vollkommen überflüssigerweise weiterentwickelt hat … na sicher doch … ich bin sicher, sie werden bald in Scharen zu dir pilgern und das Gold aus den Kommentaren deiner Gemeinde schaben ….

            Ich denke, man kann sagen, daß du für eine ernsthafte Diskussion erledigt bist. Das Problem an dir ist deine Sichtbarkeit, aber auch die Bildzeitung hat immer weniger Einfluß. Es gibt also noch Hoffnung.

          • Oh by the way: Eine der wenigen Sachen, die Popper richtig gemacht hat, war, zu erkennen, daß die Behauptung, daß es etwas in der Natur nicht gibt z.B. die Evochrissche These „Es gibt keine multi-level-selection“ eine metaphysische Behauptung ist, die nicht testbar, nicht falsifizierbar ist. Denn man müßte das komplette Universum absuchen, um zu beweisen, daß es wirklich nirgendwo multi-level-selection gibt.

            Und … wirklich … mit Metaphysik kannst du auf deinem blog andere langweilen, ich interessieren nur die Ausagen über die empirische Realität.

          • Dazu schrieb ich doch bereits:

            https://allesevolution.wordpress.com/2016/09/15/soziobiologie-besprechung-von-elmars-artikel-teil-2/

            in der „Nurture-Kinship“ Debatte geht es darum, ob soziale Bindungen nur über Verwandtschaft oder durch soziales Verhalten entstehen („Blut ist Dicker als Wasser“). Tatsächlich ist der „Verwandtschaftserkennungsmechanismus“ nicht in der Lage, tatsächliche Genanalysen anzustellen (wer hätte es gedacht), sondern vermutet Verwandtschaft insbesondere aufgrund von „um einen herum sein in den ersten Lebensjahren“ und weitere Faktoren wie Ähnlichkeit etc. Auch hier scheint mir einfach das Fehlverständnis von Elmar schuld daran zu sein, dass er hier einen „Dorn im Auge der Biologen“ sieht.

            Ich habe häufig bei dir das Gefühl, dass du nur etwas suchst, was oberflächlich gegen Theorien spricht, die dir nicht passen und dir das gar nicht tatsächlich anschaust.

            Dazu gehst du üblicherweise auch noch nicht einmal dagegen vor, was tatsächlich vertreten wird, sondern ein zerrbild dessen, was du meinst, was da vertreten wird. Wahrscheinlich hältst du es für unter deiner würde, dich mit so etwas überhaupt näher zu beschäftigen.

          • „Dazu schrieb ich doch bereits:“

            Das hat nichts damit zu tun Dieser Arikel referiert lediglich den stand der Dinge.

            Damit ist bewiesen, daß du nicht mal zur Kenntnis nimmst, was man dir schickt. Es wird einfach drüber hinweg gegangen, als wenn nichts wäre – einfach, weil es nicht in deine Ideologie paßt.

            Also noch mal: Die Entstehung von Sozialverhalten hat nichts mit genetischen Beziehungen zu tun. Das unterminiert deine Ideologie total, ist aber für die Wissenschaft ein Segen, daß die verschiedenen Gebiete Biologie, Soziologie und Anthropologie nun besser zusammen arbeiten können.

          • Doch klar hat es damit zu tun. Was man auch an Autisten und Psychopathen merkt.

            Nur das die Merkmale, nach denen soziale Beziehungen gemäß biologischer Vorgaben ausgebaut werden natürlich soziale Komponenten haben können.

            Da reitest du eben schon wieder einen Strohmann nieder:

            Wie soll denn genetische Verwandtschaft an sich erkannt werden von dem Baby?
            Es leuchtet ein, dass ein Baby sich ab jeden bindet, der ihn betreut. Warum sollte es auch Betreuung ablehnen?

          • @elmar

            „Dieser Arikel referiert lediglich den stand der Dinge“

            Dann sag doch mal, was für dich konkret aus deinem Einwand warum folgen soll statt Stichwörter in den Raum zu werfen.

            „Die Entstehung von Sozialverhalten hat nichts mit genetischen Beziehungen zu tun.

            Noch einmal:
            Das Mutter, VAter und Kind einen Gentest machen und danach die Bindung bewertet wird sagt ja auch keiner.
            Biologie kann nur das nutzen, was erkennbar und kontrollierbar ist. Das ist in dem Artikel auf den ich verlinkt habe recht lang und breit erklärt.

            Deswegen mögen wir beispielsweise Sex und nicht Fortpflanzung an sich, weil es mittelbar zu Fortpflanzung führt.
            Genauso ist „Bindung an den, der um einen herum ist“ der beste Weg genetische VErwandtschaft zu erkennen.

            Hier mal etwas zu den Mechanismen:

            http://www.ahaparenting.com/Ages-stages/pregnancy/oxytocin-pregnancy-birth-mother

            he latest results are fascinating. Researchers have found that women’s oxytocin levels during their first trimester of pregnancy predict their bonding behavior with their babies during the first month after birth. Additionally, mothers who had higher levels of oxytocin across the pregnancy as well as the postpartum month also reported more behaviors that create a close relationship, such as singing a special song to their baby, bathing and feeding them in a special way, or thinking about them more. Quite simply, the more oxytocin you have, the more loving and attentive you are to your baby.

            Also die Mutter wird mit Oxytocin zugeknallt, weswegen sie das Baby liebt und betreut. Das Baby hat ein genetisches Programm, dass es eine Bindung zu dem entwickelt, den es innerhalb eines bestimmten Zeitrahmens versorgt. Weil das eben meist die Mutter und die Personen sind, die mit dieser verwandt sind.
            Und üblicherweise entwickeln Väter, die meinen, dass das Kind ihr Kind ist, die eine gewisse ähnlichkeit sehen zB eine bessere Bindung an das Kind als die, die daran stark zweifeln.

          • „Dann sag doch mal, was für dich konkret aus deinem Einwand warum folgen soll“

            Und schon wieder ein neues Thema, durch das von den alten Problemen abgelenkt werden soll.

            Keiner kann verneinen, daß das Methode ist – eine Methode, die jeden Fortschritt verhindern soll.

            Und nichts schadet der Sache der Männern mehr als de Biologismus. Deshalb bist du eine Gefahr und mußt weg.

          • „Und schon wieder ein neues Thema, durch das von den alten Problemen abgelenkt werden soll“

            Du hast dieses Thema eingeführt, indem du meinst, daraus würden sich Gegenargumente ergeben

            „Und nichts schadet der Sache der Männern mehr als de Biologismus. Deshalb bist du eine Gefahr und mußt weg.“

            Auch dieser Schaden besteht nur in deiner Phantasie. Tatsächlich erlaubt evolutionare Biologie ein verständnis von Männern und Frauen und ihrem Verhalten sowie der Unterschiede ohne auf Theorien zurückzugreifen, die darauf hinauslaufen, dass Männer und Frauen stets um Macht kämpfen. Erst dadurch kann man UNterschiede tatsächlich verstehen

          • „Die Entstehung von Sozialverhalten hat nichts mit genetischen Beziehungen zu tun“

            https://allesevolution.wordpress.com/2011/06/14/die-drei-gesetze-der-verhaltensgenetik/

            First Law: All human behavioural traits are heritable.
            Second Law: The effect of being raised in the same family is smaller than the effect of the genes.
            Third Law: A substantial portion of the variation in complex human behavioural traits is not accounted for by the effects of genes or families.

            Top 10 Replicated Findings From
            Behavioral Genetics

            Klicke, um auf 2016-plomin.pdf zuzugreifen

            In the context of current concerns about replication in psychological science, we describe 10 findings from behavioral
            genetic research that have replicated robustly. These are “big” findings, both in terms of effect size and potential
            impact on psychological science, such as linearly increasing heritability of intelligence from infancy (20%) through
            adulthood (60%). Four of our top 10 findings involve the environment, discoveries that could have been found only
            with genetically sensitive research designs. We also consider reasons specific to behavioral genetics that might explain
            why these findings replicate.

            Finding 1. All psychological traits show significant and substantial genetic influence

            Psychological domains traditionally focused on individual differences are those that have been studied most frequently with genetically sensitive designs, primarily the twin method in which resemblance is compared in pairs of identical and fraternal twins: cognitive abilities and disabilities, psychopathology, personality, substance use and abuse, and health psychology. Traits in these domains have consistently shown significant genetic influence in adequately powered studies (Plomin et al., 2013), which led Turkheimer (2000) to describe it as the first law of behavioral genetics. (As will be discussed later, model-fitting analyses emphasize estimation of effect sizes and confidence intervals, which also provides evidence for statistical significance.) Although ubiquitous genetic influence is now widely accepted, this finding should not be taken for granted because it was a battleground in psychology as recently as a few decades ago (Pinker, 2002) and remains controversial in some areas such as education (Haworth & Plomin, 2011; Hayden, 2013). As an example, a review of the world’s literature on intelligence that included 10,000 pairs of twins showed identical twins to be significantly more similar than fraternal twins (twin correlations of about .85 and .60, respectively), with corroborating results from family and adoption studies, implying significant genetic influence (Bouchard & McGue, 1981, as modified by Loehlin, 1989). Although most of this research was conducted in the United States and western European countries, significant genetic influence has been found in countries such as Russia, the former East Germany, Japan, and rural and urban India (Plomin et al., 2013). Recent studies continue to report similar results, as seen, for example, in a report of 11,000 pairs of twins from six twin studies in four countries (Haworth et al., 2010). We are not aware of a single adequately powered study reporting nonsignificant heritability. An example in the domain of psychopathology is a meta-analysis of 14 twin studies of schizophrenia that showed monozygotic (MZ) concordances of about 50% and dizygotic (DZ) concordances of about 15%, suggesting significant genetic influence (Sullivan, Kendler, & Neale, 2003); this finding has been corroborated in more recent studies (Cardno et al., 2012), as well as in adoption studies (Plomin et al., 2013). Although other cognitive and psychopathological traits have not been studied as much as general intelligence and schizophrenia, investigations into specific cognitive abilities and such forms of psychopathology as autism and hyperactivity have repeatedly yielded significant genetic influence (Plomin et al., 2013). For personality, scores of twin studies over the decades have shown evidence of significant genetic influence for dozens of traits studied using self-report questionnaires (Turkheimer et  al., 2014); results have been confirmed in meta-analyses with adoption and family data as well as twin data on 24,000 pairs of twins (Loehlin, 1992). Traits such as political beliefs, religiosity, altruism, and food preferences also have shown significant genetic influence (Plomin et  al., 2013). A recent meta-analysis of data drawn from 3,000 publications on nearly 18,000 traits of 15 million twin pairs showed that this finding is not limited to psychological traits (Polderman et al., 2015). As we discuss later, a strength of behavioral genetics is its focus on estimating effect size, heritability. Not only is genetic influence found to be statistically significant, but also heritability is found to be consistently substantial, often accounting for half of the variance of psychological traits. For example, for general intelligence, heritability estimates are typically about 50% in meta-analyses of older family, twin, and adoption studies (Chipuer, Rovine, & Plomin, 1990; Devlin, Daniels, & Roeder, 1997; Loehlin, 1989) as well as newer twin studies (Haworth et al., 2010), with 95% confidence intervals on the order of between 45% and 55%. For personality, heritability estimates are usually between 30% and 50%. For example, well-being is a relative newcomer in relation to genetic analyses of personality; a meta-analytic review of 10 studies based on 56,000 individuals yielded a heritability estimate of 36% (between 34% and 38%; Bartels, 2015). It is sometimes said that the estimation of the effect size of heritability does not matter. However, surely it matters if heritability was just 5% rather than 50% or perhaps 95%. For example, a heritability of nearly 100% implies that environmental differences that exist in the population do not have an effect on a particular phenotype assessed at a particular stage in development. However, it does not imply that new environmental factors also would have no effect. This research has primarily relied on the twin design in which the resemblance of identical and fraternal twins is compared and the adoption design in which the resemblance of relatives separated by adoption is compared. Although the twin and adoption designs have been criticized separately (Plomin et al., 2013), these two designs generally converge on the same conclusion despite being based on very different assumptions, which adds strength to these conclusions. An exciting development is the first completely new genetic design in a century, genome-wide complex trait analysis (GCTA; Yang, Lee, Goddard, & Visscher, 2011). In GCTA, hundreds of thousands of DNA differences (single-nucleotide polymorphisms, SNPs, which involve a difference in a single nucleotide) across the genome are used to estimate chance genetic similarity for each pair of individuals in a large sample of conventionally unrelated individuals and to relate this chance genetic similarity to phenotypic similarity. GCTA underestimates genetic influence for several reasons and requires samples of several thousand individuals to reveal the tiny signal of chance genetic similarity from the noise of DNA differences across the genome (Vinkhuyzen, Wray, Yang, Goddard, & Visscher, 2013). Nonetheless, GCTA has consistently yielded evidence for significant genetic influence for cognitive abilities (Benyamin et al., 2014; Davies et al., 2015; St. Pourcain et  al., 2014), psychopathology (L. K. Davis et  al., 2013; Gaugler et al., 2014; Klei et al., 2012; Lubke et al., 2012, 2014; McGue et al., 2013; Ripke et al., 2013; Wray et al., 2014), personality (C. A. Rietveld, Cesarini, et  al., 2013; Verweij et al., 2012; Vinkhuyzen et al., 2012), and substance use or drug dependence (Palmer et  al., 2015; Vrieze, McGue, Miller, Hicks, & Iacono, 2013), thus supporting the results of twin and adoption studies. Significant and substantial genetic influence on individual differences in psychological traits is so widespread that we are unable to name an exception. The challenge now is to find any reliably measured behavioral trait for which genetic influence is not significantly different from zero in more than one adequately powered study

        • vielleicht wäre es lediglich schlecht belegter Schwachsinn oder eine Fehlinterpretation oder eben nur Unterschiede im Detail.

          Mir reicht die Beobachtung, dass man bei Diskussion z.B. über „inner Game“ im PUA-Zusammenhang ständig an die Grenzen sprachlicher Beschreibbarkeit stößt. Wenn Du und ich z.B. über „Liebe“ diskutieren, dann geht die Annahme, wir würden damit im Detail ähnliche innere Vorgänge bezeichnen, wahrscheinlich meistens fehl ohne dass wir eine Möglichkeit hätten, solche Missverständnisse aufzuklären. Daher kann man „das richtige inner Game“ immer nur über Umwege beschreiben und vermitteln.

          • Sicher. Aber dennoch können wir ja einheitliche Theorien entwickeln, was Frauen dabei anspricht. Und es ist damit auch nicht ausgeschlossen, dass sie es gleich empfinden.
            Dafür spricht eher, dass wir alle einen Genpool teilen.
            Die Philosophie tut immer so als könnte unser Gehirn auch vollkommen verschieden sein und es keine evolutionäre Verbindung geben

        • Wir können diese Theorien aber letztlich nur über die Beschreibung von äußeren Faktoren bilden. Ein bestimmtes Verhalten z.B., was Ausdruck einer inneren Haltung sein kann. Die innere Haltung dagegen lässt sich nur äußerst vage („nicht needy sein“) beschreiben.

          Die Gefahr für das Subjekt besteht dabei immer darin, das eigene innere Erleben unreflektiert auf den anderen zu projizieren und dadurch in solipsistische Irrtümer zu laufen. Versuch mal sicher abzugrenzen zwischen tatsächlicher Empathie, bei der man die Gefühle des Gegenüber wahrnimmt und zwischen der Projektion der eigenen Gefühle auf den anderen. Das ist sau schwer. Und deshalb entspricht eine philosophische Haltung, die im Zweifel von der Unterschiedlichkeit ausgeht, einem gesunden kritischen Denken.

          • „Und deshalb entspricht eine philosophische Haltung, die im Zweifel von der Unterschiedlichkeit ausgeht, einem gesunden kritischen Denken“

            Nicht, wenn man davon ausgeht, dass wir ein Produkt der Evolution und gleicher evolutionäre drücke sind.

            Und schon gar nicht, wenn man „aus im Zweifel“ etwas macht, was bewiesen ist und als gegenargument verwendet wird

        • Zu der Annahme „gleicher evolutionärer Drücke“ kommt man aber nur, wenn man ohnehin so sehr vom Individuum zur Masse abstrahiert, dass man die gewünschte Gleichheit bekommt. Tatsächlich aber ist jedes Individuum und jede Abstammungskette von Individuen sehr unterschiedlichen konkreten Drücken ausgesetzt.

          Du bemühst da also einen Zirkelschluss.

        • So viel berühren die sich dank räumlicher Trennung gar nicht. Wir brauchen ja schon „sexuelle Selektion“ als gewissermaßen eingebautem, abstrakten Druck um zu erklären, was wir sehen.

          Das Wesentliche Argument wäre aus meiner Sicht, dass der Umstand, daß wir sie nicht beschreiben können nicht bedeutet, dass sie verschieden sind.

          Da stimme ich Dir sogar zu. Das folgt in der Tat aus der Symbol-Überlegung. Aber damit ist noch lange nicht gesagt, dass sie gleich sind.

        • „„dort geht man von dem gleichen Einfluss der Gene aus, da Selektion immer auf die Gene wirkt.“

          Das ist Dawkins Sicht, eine bestimmte Auffassung von Genen mit einer bestimmen Aufassing Evolution koppelte.“

          Evolution wirkt letztlich immer auf die Gene, nur muss ein selektiertes Gen nicht unbedingt die individuelle Fitness erhöhen. Das ist kein Widerspruch zum egoistischen Gen, nur eine Ergänzung.

          „multi Level Selektion bekommt das Problem nicht in den Griff, das es immer günstiger ist die Vorteile zu nutzen statt die Kosten zu tragen. Das Problem fällt eben nur über das „egoistische gen“ weg, weil es die einzige Selektion ist, die dafür nicht anfällig ist“

          Multi-Level-Selektion begünstigt Gruppen (und deren Gene), die Egoisten erfolgreich unterdrücken. Gruppen, die das nicht schaffen, werden verdrängt. Das ist Evolution durch natürliche Selektion.

          • @elmar

            Mit äußerst geringen Folgen. Selbst starke VErtreter dieser Theorien schaffen es nicht überzeugende Beispiele zu bringen, wo sich das ausgewirkt haben soll.

            Goulds Hennen Beispiel hatte och schon mal wie folgt besprochen:

            https://en.wikipedia.org/wiki/Group_selection

            In 1994 David Sloan Wilson and Elliott Sober argued that the case against group selection had been overstated. They considered whether groups can have functional organization in the same way as individuals, and consequently whether groups can be „vehicles“ for selection. Groups that cooperate better might survive and reproduce more than those that did not. Resurrected in this way, Wilson & Sober’s new group selection is called multilevel selection theory.[19]

            Wilson compared the layers of competition and evolution to nested sets of Russian matryoshka dolls.[14] The lowest level is the genes, next come the cells, then the organism level and finally the groups. The different levels function cohesively to maximize fitness, or reproductive success. The theory asserts that selection for the group level, involving competition between groups, must outweigh the individual level, involving individuals competing within a group, for a group-beneficiating trait to spread.[20] MLS theory focuses on the phenotype because it looks at the levels that selection directly acts upon.[14] For humans, social norms can be argued to reduce individual level variation and competition, thus shifting selection to the group level. Wilson ties the MLS theory regarding humans to another theory, gene-culture coevolution, by acknowledging that culture seems to characterize a group-level mechanism for human groups to adapt to environmental changes.[20]

            MLS theory can be used to evaluate the balance between group selection and individual selection in specific cases.[20] An experiment by William Muir compared egg productivity in hens, showing that a hyper-aggressive strain had been produced through individual selection, leading to many fatal attacks after only six generations; by implication,it could be argued that group selection must have been acting to prevent this in real life.[21] Group selection has most often been postulated in humans and, notably, eusocial Hymenoptera that make cooperation a driving force of their adaptations over time and have a unique system of inheritance involving haplodiploidy that allows the colony to function as an individual while only the queen reproduces.[22]

            Wilson & Sober’s work revived interest in multilevel selection. In a 2005 article,[23] E. O. Wilson argued that kin selection could no longer be thought of as underlying the evolution of extreme sociality, for two reasons. First, he suggested, the argument that haplodiploid inheritance (as in the Hymenoptera) creates a strong selection pressure towards nonreproductive castes is mathematically flawed.[24] Second, eusociality no longer seems to be confined to the hymenopterans; increasing numbers of highly social taxa have been found in the years since Wilson’s foundational text on sociobiology was published in 1975,[25] including a variety of insect species, as well as two rodent species (the naked mole-rat and the Damaraland mole rat). Wilson suggests the equation for Hamilton’s rule:[26]

            rb > c
            (where b represents the benefit to the recipient of altruism, c the cost to the altruist, and r their degree of relatedness) should be replaced by the more general equation

            rbk + be > c
            in which bk is the benefit to kin (b in the original equation) and be is the benefit accruing to the group as a whole. He then argues that, in the present state of the evidence in relation to social insects, it appears that be>rbk, so that altruism needs to be explained in terms of selection at the colony level rather than at the kin level. However, kin selection and group selection are not distinct processes, and the effects of multi-level selection are already accounted for in Hamilton’s rule, rb>c,[27] provided that an expanded definition of r, not requiring Hamilton’s original assumption of direct genealogical relatedness, is used, as proposed by E. O. Wilson himself.[28]

            Das Hühner Experiment hatte mir Roslin auch mal entgegen gehalten:

            https://allesevolution.wordpress.com/2012/01/05/grundregeln-der-evolution/#comment-27751

            so ist es. Es braucht eine höhere Selektionsebene oberhalb der Individuen, um zu verhindern, dass Egoisten überhand nehmen.

            Im Übrigen gibt es etliche Laborversuche, die Gruppenselektion in ihrer Wirksamkeit belegen, etwa das Hühnerzuchtexperiment von David Muir.

            In einer Versuchslinie wählte er immer nur die Henne mit der höchsten Legeleistung aus einem Käfig mit mehreren Hennen aus und machte sie zur Urmutter der nächsten Generation.

            In einer parallelen Versuchslinie wählte er alle Hennnen aus dem Käfig mit der höchsten Legeleistung aus.

            Nach 6 Generationen war die Käfigselektion erfogreich – Legeleistung um 160 % höher als in der Ausgangspopulation.

            Im anderen Fall (Auswahl nur der besten Henne) war die Legeleistung gesunken.

            Er hatte einen Käfig voller psychopathischer Chicks vor sich, die sich gegenseitig halb zu Tode pickten und ihr bestes taten, um die Konkurrenz am Eier legen zu hindern.

            Er hatte also immer nur die egoistischste Henne ausgewählt, die ihre Mithennen am erfolgreichsten am Eier legen hatte hindern können und deren Persönlichkeitsmerkmale hochgezüchtet mit fatalem Ergebnis.

            Es zeigt sich aber, dass das ganz stinknormale Selektion nach dem „eogistischen Gen“ war und keine weiteren Ebenen beteiligt waren:

            https://allesevolution.wordpress.com/2012/01/05/grundregeln-der-evolution/#comment-27766

            @Roslin

            Da herrschten ja vollkomen verschiedene Selektionsdrücke.

            In der “Gruppengruppe” wurden die Individuen gefördert, die andere Hühner förderten. Die Interessen des egoistischen Gens waren damit identisch mit dem Legeerfolg der Gruppe. Denn das ein Huhn weniger legt als eine hochmotiverte Gruppe sollte klar sein

            In der “Egoistengruppe” war es nicht nur das Interesse des Huhn möglichst viele Eier zu legen, sondern auch noch die anderen daran zu hindern, damit es weitergeht. Demnach bestand ein Selektionsdruck dahingehend seine Legeleistung zur Verbreitung der eigenen Gene zu erhöhen und die der anderen Abzusenken.

            Demnach sagen egoistische Gene genau dieses Ergebnis voraus.

            Vielleicht könnte man Gruppenselektion so testen.

            Es werden Gruppen miteinander verglichen, es kommen aber nicht die besten weiter, sondern die mittleren 50 %. Die besten und schlechtesten Individuen der Gruppe werden also aussortiert.

            Egoistische Gene würden nun eine Zucht auf Mittelmäßigkeit ergeben, also eine Absicherung nach unten und nach oben. Man würde also leicht oberhalb der Mitte zusammenrücken.
            Bei einer Gruppenselektion hingegen würden alle als Blog stärker nach oben rücken. Der Gruppe wäre es egal, dass sich die besten opfern müssen und die schlechtesten blockieren ja eh den Gruppensieg

            Das obere Viertel wird abgeschnitten, damit ein “Gruppenopfer” vorhanden ist und eine Benachteiligung des Einzelnen, der zu hoch hinaus will. Das Untere Viertel um die Flucht in dieses Viertel zu verhindern.

            Vielleicht auch interessant. Jeder, der mehr als 10% vom Gruppenerfolg abweicht wird aus der Gruppe entfernt, dann werden Gruppen gegeneinander und gegen solche ohne Beschränkungen getestet.

            Vielleicht wäre es sogar noch interessanter, nur die 25% der besten rauszunehmen. Nach den egoistischen Genen würde man sie nahe der Eierlegunfähigkeit züchten. Bei der Gruppenselektion wäre es aber unproblematisch

            Hast du eigentlich “The Origins of Virtue” von Matt Ridley gelesen? Dort erklärt er sehr ausführlich, dass Grosszügigkeit, Kooperation und Wohlverhalten gegenüber anderen gerade in der bei uns vorliegenden Form mit dem egoistischen Gen kompatibel sind.

            Und das ist auch meist das Ergebnis dieser „Multi Level Selektion“. Auf jeder der betrachteten Ebenen findet eine Selektion des Einzelwesens nach dem Prinzip der egoistischen Gene statt. Weswegen es eine eher nichtssagende Theorie ist

        • @JCD

          „Evolution wirkt letztlich immer auf die Gene, nur muss ein selektiertes Gen nicht unbedingt die individuelle Fitness erhöhen. Das ist kein Widerspruch zum egoistischen Gen, nur eine Ergänzung.“

          Besser könne man sagen, das Gen ist der letzte Depp 😀

        • @Christian

          Die Philosophie tut immer so als könnte unser Gehirn auch vollkommen verschieden sein und es keine evolutionäre Verbindung geben

          Die Ursache dafür könnte sein, dass meist eine Version des evolutionären Ansatzes vorherrscht, die viele Aspekte des Denkens gar nicht erfasst, bzw. überhaupt keine Begriffe für das gerade dem Menschen eigene Denken zur Verfügung stellt.

          Es läuft auf einen Hokuspokus hinaus, der irgendwie alles mit Evolution begründet aber im Grunde auch nicht mehr als Exegese und Geschichtenerzählen ist, wie es sein könnte.

          Von Dennets „Conciousness explained“ wird in Fachkreisen gerne der alternative Titel „Conciousnes explained *away*“ verwendet. Weil nicht wirklich eine Erklärung gegeben wird, sondern das zu erklärende Phänomen einfach als „Illusion“ oder als nicht existent deklariert wird. Was auch Blödsinn ist.
          Der gläubige Evolutionsbiologie hält sich einfach die Augen zu und sagt: „Bewusstsein gibt es gar nicht.“ Da er keine Erklärung oder Begriffe hat, um das Problem anzugehen.
          Denn die bestehende Welt würde ebenso gut ohne bewusste Introspektion funktionieren und sähe genauso aus. Es gibt keinen evolutionären Grund warum es eine bewusste Introspektion oder ein bewusstes Erleben geben sollte, da es keinerlei „evolutionären“ Vorteil bietet.

          Evolutionäres Denken, zumindest wie es in seiner vulgären Variante betrieben wird, erklärt eben viele Sachen nicht.
          Anstatt jedoch nach einer Erweiterung der Begriffswelt zu suchen,
          muss sich eben die Realität anpassen.

          Es ist nunmal nicht alles damit zu erklären und alles durch diese Linse zu sehen erzeugt mindestens genauso viele Irrtümer wie Lösungen.
          Das gilt auch für medizinische bzw. gänzlich unphilosophische Bereiche.
          Beispiel Nahrungsmittelunverträglichkeiten. Eigentlich müsste man annehmen, dass es eine Beziehung zwischen lokal verfügbaren Nahrungsmitteln und deren Verträglichkeit gibt.
          Dennoch ist es z.B. bei Autoimmunerkrankungen, wie Zölliakie, der Fall dass die Verträglichkeit von Pflanzen, die in Europa erst „kürzlich“ als Nutzpflanzen verwendet werden (Kartoffeln, Reis) besser als ist, als die weit länger etablierten Getreide (Kulturweizen).

    • @ Christian

      „Dann widerspreche ich Leszek da, wie in anderen Punkten auch.
      Abstraktes denken ist natürlich sehr einfach zu erklären: es ist wie beim Menschen erkennbar ist ein starker Selektionsvorteil.
      Das ist die Eigenschaft aufgrund der sich der Mensch durchgesetzt hat.
      Das war nun wirklich einfach.“

      Ja, ja, irgendwelche Behauptungen aufstellen ist natürlich einfach. 🙂

      Das Problem ist nur, dass die empirische Forschung in der Kulturvergleichenden kognitiven Psychologie (wie sie mir bisher bekannt ist) gegen deine Annahme spricht und dass deine Annahme des Weiteren auch wenig plausibel ist, da sie das Spezifische prämoderner Gesellschaften – nämlich die Strukturierung dieser Gesellschaften durch Mythologien und tradierte Werte und Normen anstatt durch rationale reflektierte Philosophien und rational reflektierte Werte und Normen – nicht erklären kann, ebensowenig den Mangel an Wissenschaftsentwicklung in prämodernen Gesellschaften und insbesondere nicht die „konservative Beharrungskraft“ auch solcher Phänomene in prämodernen Gesellschaften, die aus einer formal-operationalen Perspektive als irrational und dysfunktional erkennbar sind. Auch das Spezifische von Aufklärungs- und Modernisierungsprozessen kann durch deine Hypothese nicht schlüssig erklärt werden.

      Die kulturvergleichende kognitive Entwicklungspsychologie kann das Spezifische prämoderner Gesellschaften sowie von Aufklärungs- und Modernisierungsprozessen sowohl empirisch fundiert, als auch plausibel erklären – daher ist ihre Theorie hier m.E. deiner Hypothese vorzuziehen.

      Steven Pinker hat sich im Lichte der empirischen Evidenz ja offenbar gezwungen gesehen, der Theorie der Entstehung des abstrakten Denkens als Resultat einer Exaptation anstatt als Resultat einer Adaption zuzustimmen, nur berücksichtigt er nicht ausreichend, dass dann das klassische evolutionär-psychologische Modularitätsmodell von Psyche und Geist nicht mehr haltbar ist und der Geltungsbereich der Evolutionären Psychologie sich dann deutlich einschränkt.

  7. Wieder mal die naive Gleichsetzung von Computer und Gehirn.

    Hatte ich ja schonmal hier ausgeführt dass sich das überhaupt nicht vergleichen lässt, weil Computer digital sind und Gehirne analog.
    Computer rechnen mit Bits, in Gehirnen schwingen Schwingungen.
    Sieht man schon an den Neuronen deren Output komplexe Schwingungssignale sind.
    Über analoge Schaltkreise/biologische Signalverarbeitung kann man nur sagen dass da Schwingungen aufeinander reagieren, sich verstärken oder abschwächen … mit rechnen hat das nichts zu tun, da Berechnungen eine quantisierte Abzählbarkeit brauchen, also digitale Zahlen.

    • Naja, es gibt/gab auch analoge Computer. Und Berechnungen brauchen nicht zwingend „quantisierbare Abzählbarkeiten“, was sowieso erstmal eine etwas merkwürdige Formulierung ist (eventuell war „quantifizierbar“ gemeint?), da „Berechnungen“ problemlos mit überabzählbaren Mengen wie den reellen Zahlen funktionieren.
      Nicht zu vergessen, dass Schwingungen und Überlagerungen derselben absolut etwas mit „Rechnen“ zu tun hat, da Schwinungen durch quantifizierbare Eigenschaften beschrieben werden können.
      Da gibt es sogar momentan Bemühungen, eine Art modernen Analogcomputer wieder einzuführen, von der Firma Optalysys. Da werden Interferenzeffekte ausgenutzt, um insbesondere Berechnungen, die sich durch Fouriertransformationen ausdrücken lassen, quasi optisch darzustellen und so extrem schnell zu berechnen.
      Aber eventuell habe ich auch einfach deinen Post missverstanden.

  8. @Christian Schmidt,

    „Im übrigen stellt sich die Frage, was logisches Denken oder Bewußtsein sonst sein soll als eine gewisse Form eines Denkprozesses im Sinne einer Berechnung.“

    1. Es gibt gewisse Erkenntnisse – auch wenn es recht unzugängliche sind – mathematischer Natur, die selbst nicht algorithmisch erlangbar/beweisbar sind. Als Beispiel dient üblicher Weise der relativ berühmte Gödel’sche Unvollständigkeitssatz.

    2. Es ist ja nicht ausgeschlossen, dass bei den Vorgägen im Gehirn Mechanismen eine Rolle spielen, deren theoretisch-physikalische Grundlagen nach derzeitigem Stand der Forschung nicht geklärt sind. Mit anderen Worten: Die Physik weis keineswegs alles, auch wenn Physiker gerne aus nachvollziehbaren psychologischen Gründen, einen anderen Eindruck erzeugen.

    Das habe ich mir übrigens nicht selber ausgedacht, sondern einem Buch von Roger Penrose mit dem dt. Titel „Computerdenken“ entnommen. Penrose ist ein recht hoch angesehener theoretischer Physiker, Spezialgebiet allgemeine Relativitätstheorie (eine eher kleine Nische, wegen geringer Anwendbarkeit). Sein Ansehen in der scientific community ist groß genug, um ernst genommen zu werden, wenn er über die Probleme und Paradoxien bei den physikalischen Theorien räsonniert. Im 1. Kapitel von „Computerdenken“ bespricht er auch Searls Zimmer zur Einführung in den Problemkreis, der Rest ist recht Mathe- & Physiklastig und muss auch eher als Problembeschreibung aufgefasst werden, erhebt also keineswegs den Anspruch eine Lösung gefunden zu haben.

    • zu 2: Das sind doch zwei Fragen:
      a) Was die Physik bereits erklären kann und b) Was prinzipiell durch die Physik erklärbar ist.
      Bisher gibt es nicht den Hauch eines Hinweises, dass es irgendetwas gibt, was unter nicht unter b) fällt. Insbesondere gibt es meines Wissens nicht den Hauch eines Hinweises, dass es Vorgänge im Hirn gibt, die nicht rein materiell sind, bzw. nicht durch b) gedeckt sind.

      Normalerweise haben Physiker auch keinerlei Schwierigkeiten, zu sagen, dass a) deutlich kleiner (und teilweise auch neben) der Mächtigkeit von b) liegt.

      Entsprechend scheint mir hier das Argument 2 darauf zu beruhen, dass es im Hirn Vorgänge aus Nicht-a) gibt, und dann aber zu unterstellen, dass sie deshalb auch Nicht-b) sind – dies ist meiner Meinung nach nicht schlüssig.

      zu 1: Der Gödelsche Uvollständigkeitssatz ist doch bewiesen, also kann ich nicht damit schließen, dass dieser nicht algorithmisch erlangt werden könne?
      (Natürlich folgt aus diesem, dass es nicht beweisbare Aussagen gibt)

      Meintest du eher, dass wir (Menschen) erst dann bereit sind, von einer Intelligenz zu sprechen, wenn Fehler in den „Denkprozessen-/ Algorithmen“ vorliegen?

      • @Alex,

        das verblüffende am Gödelschen Unvollständigkeitssatz, ist Folgendes. Es gibt erkennbar wahre Aussagen, bei deren Prüfung – um den EDV-Jargon zu verwenden – eine Touringmaschine niemals anhält. Wenn man das im Detail nachvollziehen will, ist die Leküre von „Computerdenken“ wirklich empfehlenswert. Ich würde daher vermuten, dass Penrose die starke KI, nämlich die Annahme, dass Bewußtsein vollständig algorithmierbar sei, für mehr oder weniger widerlegt hält.

        Searle selber hielt die Aussagen der starken KI schon durch sein „chinesisches Zimmer“ für widerlegt, aber die Fachwelt ist ihm wohl nicht gefolgt. Penrose verwendet das Gedankenexperiment eher um zu erläutern, was die starke KI behauptet.

        Es stellt sich dann aber die Frage, die auch Christian Schmidt schon gestellt hat, wie Bewußtsein ansonsten denn funktionieren soll, und Penrose spekuliert, es könnte daran liegen, dass die Gesetze der Physik noch nicht hinreichend gut verstanden sind, um dann die wirklich magischen Ungereimtheiten der heutigen Standardphysik aufzuzählen. Da er selber schon recht alt ist, versteht er es wohl als Hinweis für zukünftige Forschergenerationen. Dabei schließt er nicht aus, dass ein besseres Verständnis möglich ist, hält es aber auch für möglich dass die „wahre“ Physik zu komplex ist, um jemals von menschlichen Gehirnen verstanden zu werden.

        • Das kann ich so nicht nachvollziehen.
          Die Gödel’schen Unvollständigkeitssätze besagen (grob)
          1. Es gibt Aussagen, deren Wahrheitsgehalt bezüglich eines hinreichend komplexen Axiomensystems nicht bewiesen werden kann.
          2. Man kann nicht innerhalb eines hinreichend komplexen Axiomensystems die Widerspruchsfreiheit desselben beweisen.

          Ich sehe da nicht den Hauch eines Hinweises auf „erkennbare wahre Aussagen“ die nicht bewiesen werden können (oder auch nicht, die durch eine Maschine in endlicher Zeit nicht bewiesen werden können)

          Der Abschnitt über Penrose‘ Spekulation befindet sich irgendwo zwischen meinem 2a-2b – weitere (naturwissenschaftliche) Forschung ist natürlich immer zu begrüßen.

    • @clovis

      „Es ist ja nicht ausgeschlossen, dass bei den Vorgägen im Gehirn Mechanismen eine Rolle spielen, deren theoretisch-physikalische Grundlagen nach derzeitigem Stand der Forschung nicht geklärt sind.“

      Es ist schlicht und ergreifend gar nicht klar, wie das Ablegen von Gedächnisinhalten, geschweige denn „Denken“ zB biochemisch funktioniert. Zwar dürften die Komponten und die dabei beteiligten Mechanismen im Wesentlichen seit langem bekannt sein, aber eine Darstellung dieser Vorgänge zum Komplettbild fehlt einfach. Und nicht, weil es prinzipiell nicht möglich wäre.

      Das Ganze hier ohne solide biochemische und -physikalische Grundlage muss daher ein unfruchtbares Spekulationsgebäude bleiben. Bevor die modernen Biologen hier nicht weiter gekommen sind, wird es keinen echten Fortschritt geben.

  9. Elmar schreibt oben:

    „Das größte Problem ist, daß du dich immer noch an Themen ranwagst, die eindeutig über deinem intellektuellen Niveau liegen – du das aber einfach nicht einsiehst.“

    „Das Bildzeitungsniveau dieses blogs wird immer schlimmer. Und es richtet auch immer mehr Schaden an, daß völlige Unkenntnis zu den hier angesprochenen Themen vorherrscht.“

    Ich finde diese Äußerungen übertrieben und auch ziemlich unverschämt. Ich muß aber leider gestehen, daß ich das im Wesentlichen genau so sehe wie Elmar.

    Natürlich finde ich es großartig, wenn hier im Forum so Fragen diskutiert werden wie eben Searles Gedanken-Experiment vom Chinesischen Zimmer. Aber die Kommentare dazu sind für mich größtenteils nur schwer erträglich. Klar, es ist toll, wenn sich die Leute so ihre Gedanken machen. Und es ist auch nicht schlimm, wenn einer mal was schreibt, das vielleicht nicht so ganz „belastbar“ ist.

    Aber wenn man sich mit einem so komplexen und eben auch kontroversen Thema wie dem Searleschen Gedanken-Experiment befaßt, dann müßte man doch eigentlich auch so ein bißchen den aktuellen Stand der Sekundär-Literatur hierzu berücksichtigen. Stimmt schon, zu Searle gibt es Hunderte von Publikationen – allein zu seinem ollen Zimmer. Aber die Konsequenz daraus sollte doch nicht sein: wir ignorieren das jetzt alles mal und berufen uns einfach auf Online-Artikel wie:
    – „Googles Maschine lernt ihre eigene Sprache“
    – „Britische-Roboter-entwickeln-ihre-eigene-Kultur“
    – „Australische Wissenschaftler haben Roboter dazu veranlasst, ihre eigene Sprache zu entwickeln und sich damit […] zu verständigen“
    Daß in solchen Artikeln eine petitio vorliegt, sieht doch nun wirklich jeder!

    Und wenn ich dann noch Kommentare lese wie „Klar, aber diese binse fehlt ja in der Philosophie“, dann fällt mir dazu nur noch eine Wendung von Karl Kraus ein: „Dilettanten ohne Lampenfieber“.

    Um hier bloß mal einen kleinen positiven Wink zu geben: Um an dieser ganzen Diskussion überhaupt nur teilnehmen zu können, müßte man den Unterschied zwischen eigener („intrinsischer“) Intentionalität und bloß zugeschriebener Intentionalität kennen und auch berücksichtigen. Daß die Produkte von Maschinen, z. B. ein Manuskript, das ich auf meiner alten Schreibmaschine tippe, extrinsische Intentionalität haben (das Manuskript hat eine Bedeutung, erzählt z. B. eine Liebesgeschichte), ist unstrittig. Ob diese Produkte aber auch intrinsische Intentionalität haben ist, ist umstritten und darf nicht unkritisch vorausgesetzt werden. Das gilt erst recht, wenn man jene Gebilde betrachtet, die Computer bei ihrer „Daten-Verarbeitung“ erzeugen, verwenden, speichern.

    Weitere wesentliche Aspekte sind heuristisch:
    – ontologische Sparsamkeit: ontologische anspruchslose Beschreibungen sind besser als ontologisch anspruchsvolle Beschreibungen (sehr grob)
    – Schluß auf die beste Erklärung: einfache Erklärungen sind besser als komplexe Erklärungen – Erklärungen, die mit bereits vorhandenem Wissen harmonieren, sind besser als Erklärungen, die sich in unser vorhandenes Wissen nicht einfügen (beides wieder sehr grob).

    Dies wären nur drei Kategorien, die man bei einer sinnvollen Diskussion von Searles Gedanken-Experiment berücksichtigen und anwenden müßte. Diese Kategorien sind ergebnis-offen: Sie implizieren nichts darüber, ob Searles olle Maschine nun denkt oder nicht, Intentionalität hat oder nicht, usw.

    Searles Gedanken-Experiment wäre eine tolle Gelegenheit sich mit diesen wissenschaftstheoretischen Kategorien genauer zu befassen – aber man muß dies dann auch wirklich tun, anstatt im Nebel zu stochern und irgendwelche Sensations-Meldungen von Robotern anzuführen, die doch tatsächlich ihre ganz eigene Kultur entwickeln …

  10. 1. Prämisse: Neuronen verstehen kein Chinesisch.
    2. Prämisse: Das Gehirn besteht aus Neuronen.
    Konklusion: Das Gehirn ist unfähig, Chinesisch zu verstehen.

    1. Prämisse: Das Gehirn ist unfähig, Chinesisch zu verstehen.
    2. Prämisse: Der Mensch denkt mit seinem Gehirn.
    Konklusion: Der Mensch ist unfähig, Chinesisch zu verstehen.

    ?

      • Man kann das auch noch weiter betreiben..

        Wenn der Mensch unfähig ist, Chinesisch zu verstehen, und wenn Chinesen Chinesisch verstehen, dann sind Chinesen …

        • … ganz klar Übermenschen. Sie können nämlich alles, was normale Menschen auch können, und zusätzlich noch Chinesisch verstehen. 🙂

      • „Das würde ja nahelegen, dass die Prämissen nicht stimmen können, da die Konklusionen nicht zutreffen oder?“

        Stimmen die Prämissen 1,2 und 4 etwa nicht?

      • @chris
        „Das würde ja nahelegen, dass die Prämissen nicht stimmen können, da die Konklusionen nicht zutreffen oder?“

        Die entscheidene Prämisse, die die Konklusion schon vorgibt, steckt in dem Begriff des „Verstehens“. Hier wird von vorneherein angenommen, dass Verstehen nie versteht, bzw dass das Verstandene etwas anderes ist als das zu Verstehende.

    • Ein typischer Denkfehler der (Küchen-) Philosophie:

      1. Ein Transistor kann kein Windows* ausführen.
      2. Ein Computer besteht aus Transistoren.

      Daß es so ein ganz kleines bißchen auch darauf ankommt, wie das „besteht aus“ denn nun genau aussieht (einfach alle Transistoren in eine große Kiste werfen oder in Form von CPU, Speicher, Bussystem usw. sinnvoll anordnen, wird völlig unter den Tisch fallen gelassen. Genau wie das Thema „Software“ allgemein.

      Aber Informatik ist halt noch eine ziemlich junge Wissenschaft, deren elementarste Erkenntnisse dann in 200-300 Jahren vielleicht mal von der Philosophie zur Kenntnis genommen werden.

      (*) Hier darf jeder seine Lieblingssoftware einfügen, also nicht streiten.

      • Das Problem besteht darin, dass es eine dritte, verstecke Prämisse gibt gibt, die da lautet:
        Eine Kombination von Transistoren/Neuronen kann nicht mehr als ein einzelner/s Transistor/Neuron.
        Oder: Eine Kombination von Transistoren/Neuronen hat dieselben Eigenschaften wie ein einzelner/s Transistor/Neuron.

        Emergenz ist schon eine faszinierende Sache.

        • @jc denton

          Eben, die emergenzeffekte wie sie aus einer PRogrammierung auch bei einem Computer entstehen, der mehr kann als ein Transistor wird schlicht ausgeblendet. Auch das eine umfangreiche „programmierung“ über ein paar hundert Jahre Selektion hinter uns liegt, die „Wissen“ in das System bringt und das ein solches System lernen kann und inhalte und bedeutung aufnehmen kann geht unter

        • Dass ein Computer mehr kann als ein Transistor ist m.M.n. keine Emergenz, ebenso entsteht bei Computerprogrammierung keine Emergenz (im philosophischen Sinn). Das sind Skalierungseffekte.

          Um ein Windows auszuführen braucht man vielleicht viele Millionen Transistoren, das ändert nichts daran dass Windows grundsätzlich berechenbar ist und damit von einer Turingmaschine ausgeführt werden kann (theoretisch). Die Frage ob es tatsächlich realisierbar ist, ist dann nur mehr eine Skalierungsfrage (wie mächtig muss die Hardware sein), aber keine grundsätzliche Frage mehr.
          In diesem Sinn KANN man Windows verstehen, wenn man einen Transistor/eine Turingmaschine versteht. Es ist kompliziert, aber es geht. Die versteckte Prämisse von der jc dcenton sprach, trifft hier zu: Eine Kombination von Transistoren kann nicht mehr (abgesehen von Skalierungseffekten) als ein einzelner Transistor.

          Beim Gehirn hingegen trifft die Prämisse NICHT zu: Das Gehirn ist MEHR („mehr“ im Sinne von echter Emergenz, nicht bloßer Skalierung) als die Summe der Neuronen.

        • Nein. Dass eine heutige Workstation quantitativ mehr kann als ein C64, das ist ein Skalierungseffekt. Daß eine CPU qualitativ mehr kann als ein einzelner Transistor, würde ich schon als Emergenz bezeichnen.

      • @stormking

        Ein typischer Denkfehler der (Küchen-) Philosophie:

        1. Ein Transistor kann kein Windows* ausführen.
        2. Ein Computer besteht aus Transistoren.

        Und ein typischer Denkfehler der (Küchen-)Biologie ist es sich die Transistoren anzusehen und dann Windows (oder das Programm der Wahl) erklären zu wollen.

        • Deswegen guckt sich ja auch niemand nur das Gehirn an, sondern man betrachtet das ganze laufende System, vergleicht verschiedene Modelle und wie das Programm dort abläuft, schaut sich Modelle mit Besonderheiten an und worauf diese Besonderheiten beruhen und was sie verursachen, vergleicht mit Vorgängermodellen und Modellen au ähnlicher Geräte etc

        • @Christian

          Deswegen guckt sich ja auch niemand nur das Gehirn an, sondern man betrachtet das ganze laufende System, vergleicht verschiedene Modelle und wie das Programm dort abläuft, schaut sich Modelle mit Besonderheiten an und worauf diese Besonderheiten beruhen und was sie verursachen, vergleicht mit Vorgängermodellen und Modellen au ähnlicher Geräte etc

          Der Gaad macht das schon. Das Porsche Experiment.
          Man stellt eine Umgebung her und schaut dann nicht mal auf einen Transistor, sondern auf einen Stellparameter eines Transistors und dass sagt dann was aus?

  11. Wenn jemand nie ein Wort Chinesisch gehört hat, aber ganz gut die chinesische Schrift versteht, dann kann derjenige chinesisch lesen und schreiben, aber nicht verstehen.

    Wie z.B. ein gehörloser Chinese.

    Alternativ könnte man sich auch vorstellen, ein Deutscher bekäme eine Geschichte auf deutsch vorgelesen, aber mit Fantasiewörtern durchsetzt, wie Maftiemurg und blün.
    Ohne zu wissen, was Maftiemurg und blün ist, geht aus der Geschichte vllt. hervor, ob es blüne Maftiemurgs gibt, so dass der Deutsche eine diesbezügliche Frage beantworten kann.

    Das Beispiel widerlegt erstmal gar nichts.

  12. Pingback: Biologischer Naturalismus | Alles Evolution

Hinterlasse eine Antwort zu stormking Antwort abbrechen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..