Ist unser Gehirn eine Form von Computer?

Bei Diskussionen über die Arbeitsweise des Gehirns liegt es nahe, dass man Analogien zum Computer verwendet, weil diese die künstlichen Gebilde sind, die wohl abseits biologischer Gehirne am nächsten an einer Form von Denken herankommen.

Aus meiner Sicht ist es auch gar nicht anders vorstellbar als in dem Gehirn eine Form von Computer zu sehen, wenn auch eben mit einer gänzlich anderen Arbeitsweise.

Das hängt aber natürlich davon ab, wie eng man dies definiert. Die in der Wikipedia verwendete Definition des Computers lautet beispielsweise:

Ein Computer, auch Rechner oder Elektronische Datenverarbeitungsanlage, ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet.

Für mich liegt der wesentliche Faktor dabei darauf, dass das Gehirn natürlich Daten nach bestimmten Regeln verarbeiten muss. Wie sonst soll ein Gehirn sonst funktionieren? Alles andere muss schon Konzepte wie „Seele“ bedienen. Die Regeln mögen komplex sein und für uns gegenwärtig nicht nachvollziehbar und erst recht nicht nachbaubar, das ändert aber nichts, daran, dass Daten verarbeitet werden müssen.

In vielen Bereichen erschließt sich das auch ohne weiteres: Die meisten Menschen werden zustimmen, dass auf die Sehnerven treffendes Licht oder auf das Ohr treffende Schallwellen unproblematisch Daten sind, die nach Rechenvorschriften bearbeitet werden müssen, damit sie verwertbar sind. Das erfolgt bei uns vollkommen außerhalb des bewußten, es erscheint uns eine Selbstverständlichkeit, dass man sehen und hören kann, wir wissen aber aus den Versuchen, die Konzepte technisch nachzubauen, dass dies keineswegs trivial ist.

Die meisten Leute werden auch zustimmen, dass die Auswertung dieser Daten nach bestimmten Mustern erfolgt: Beispielsweise erkennen wir in bestimmten Mustern eher Gesichter, die Mustererkennung ist hypersensibel, vermutlich weil es unschädlicher ist, in einem Marmeladentoast Jesus zu sehen als in der Steinzeit ein verborgenes Gesicht nicht zu erkennen. Wir erkennen auch Bewegungen sehr schnell und fokussieren auf diese etc.

Es dürfte also recht unstreitig sein, dass bestimmte Teile unseres Gehirns schlicht Daten nach einem Programm verarbeiten und uns die Ergebnisse dieses Arbeitsprozesses zur weiteren Verwendung in aufgearbeiteter Form zur Verfügung stellen.

Wie dabei eine Vielzahl optischer Täuschungen und Tricks zeigen ist das Ergebnis dabei keineswegs ein Eins zu Eins Abbild der Realität, es erscheint uns aber so, weil wir es so sehen.

Genauso scheinen mir viele andere Prozesse einer Datenverarbeitung aufgearbeitet zu werden.

Hier mal ein Beispiel:

Ein Datensatz der verarbeitet wird

Ein Datensatz der verarbeitet werden muss

Wir entnehmen diesem Bild erst einmal verschiedenes

  • Es ist ein Mensch (auch wenn es eigentlich ein Bild an einem Computerbildschirm ist und zwar in der speziellen Form einer Frau (unsere Geschlechtererkennung funktioniert üblicherweise hervorragend)
  • Wir erkennen Signale für Fruchtbarkeit aus all den eintreffenden Lichtwellen, etwa die Brüste, der flasche Bauch, die großen Augen und vollen Lippen, das schöne Haar, die weibliche Stundenglasfigur, die reine Haut, die Symmetrie der Gesichtszüge.
  • Der Blick und die Mimik: der direkte Blick in die Augen deuten auf eine gewisse Fokussierung auf eine Person, das leichte Lächeln wird ebenfalls als Muster erfasst und verarbeitet werden.

Ich bezweifele, dass wir diese Datenverarbeitung tatsächlich ausschalten können. Die so erarbeiteten Daten dürften dann weiter gefiltert werden und es hängt vom Kontext ab, welche Datenverarbeitung einsetzt

  • Ein heterosexueller Mann, dem sich eine Frau in dieser Weise gegenüber an dem Stand liegt wird wohl den Blick und die ganze Ausrichtung als sexuelles Interesse deuten und es könnten Subroutinen wie „Erregung“ „Angst vor sozialer Blamage“ „und „Was kann ich machen, damit sie mich will?“ angeworfen werden
  • Ihr Liebhaber wird hingegen die Subroutine „Angst vor sozialer Blamage“ nicht mehr bemühen müssen, da in diese Richtung keine Signale mehr gesendet werden, er wird sich vielleicht ganz auf Erregung konzentrieren oder das Erregungssignal wird bereits weitaus schwächer wahrgenommen, weil die Subroutine es als bekannt erkennt und es daher eine geringere Aufmerksamkeit eingeräumt bekommt
  • Eine andere Frau, die mit ihr und einem potentiellen für beide interessanten Mann am Strand liegt wird die Signale ebenso empfangen und bei ihr gehen die Subroutinen „Konkurrenzbewertung“ und „Erlangung sozialer Dominanz oder Beschwichtungs- und Unterwerfungsgesten?“ oder „was kann ich machen um besser dazustehen und ihn für mich zu gewinnen“ oder „welche Anzeichen bestehen bei ihm dafür wie er uns bewertet?“ an.
  • eine liberale Mutter mag „Stolz“ empfinden und entsprechende Subroutinen dazu abarbeiten, eine konservative Mutter mag Routinen anwerfen, die auf „Welche Bewertungen nehmen andere Leute aufgrund der knappen Bekleidung vor und was sagt das über mich und meine Familie aus?“
  • etc

All diese Bewertungen sind erst einmal die Folge von Daten, die wir aufnehmen, verarbeiten, bei denen wir das Produkt der Bearbeitung wieder anderen Routinen zur Verfügung stellen.

Vielleicht hat die Bewertung als Konkurrentin bei der anderen Frau zB zur Folge, dass sie aufgrund der größeren Schönheit eingeschüchtert ist und ihr das Feld überlässt, vielleicht hat es zur Folge, dass sie selbst die Brust etwas rausdrückt und mehr lächelt als es sein Witz eigentlich hergibt, vielleicht schlägt sie ihm vor schwimmen zu gehen um so ein Gespräch zu verhindern. Auch all dies kann man als Rechenoperation aufgrund einer Chancenanalyse aus den Daten über die Situation darstellen, unabhängig davon, ob man einen „freien Willen“ annimmt oder ob man dabei wiederum andere Faktoren einfließen lässt.

Es müssen jedenfalls Daten verarbeitet und deren Produkte, erkannte Bewertungen und Muster wieder in neue Kalkulationen eingestellt werden, es muss also nach bestimmten Regeln eine Datenverarbeitung erfolgen.

Dabei scheint mir die „Computeranalogie“ auch unproblematisch mit einem Modell vereinbar zu sein, welches biologisch abgespeichterte evolutionär entstandene Regeln oder aber sozial erkannte und dann im Gehirn gespeicherte Regeln berücksichtigt. Denn wenn wir die obige Definition von Computer nehmen, dann ist es relativ egal, ob es sich um nicht zu bearbeitende Firmware handelt oder um computerlesbare Regeln, die einer bestimmten Programmiersprache folgend auf der Festplatte abgelegt worden sind. Es ist auch unproblematisch denkbar, dass bestimmte Regeln fest sind und durch soziale Daten verfeinert oder angepasst werden können.

Das mag man sich als Spielekonsole vorstellen, bei der bestimmte Daten gespeichert und gewisse Mods installiert werden können oder als Programm, in das bestimmte eigene Regeln eingegeben werden  können, die einen (ggfs umfassenden) Teil des Programmes modifizieren und anpassen können.

Bei meinem letzten Artikel dazu  hatte DJAdmoros noch folgendes zu dem Thema kommentiert:

Ich lasse die Frage nach der Brauchbarkeit der Computermetapher des Gehirns mal beiseite, weil die schon sehr gut kommentiert worden ist. Ich frage mich, was eigentlich das Explanandum der Argumentation ist: welche Problemstellung soll beantwortet werden?

Meinem Eindruck nach steckt das Explanandum in Formulierungen wie den folgenden:

»Eine Regel, die biologisch abgespeichert ist, kann auch über evolutionäre Vorgänge entstehen«

und

»Damit kann Biologie unser Handeln in gleicher Weise bestimmen, wie erlernte Regeln«

Anscheinend geht es um die These, biologisch verankerte Verhaltensgründe auch für denjenigen Bereich menschlichen Verhaltens plausibel zu machen, der üblicherweise als ein Produkt kultureller Steuerungs- und Selbststeuerungsprozesse gilt.

Die Computermetapher ist dem Ziel insofern dienlich, als sie es gestattet, die Arbeitsweise des Gehirns auf einen einzigen modus operandi, nämlich einen computeranalogen, zu begrenzen.

Der Haken an der Sache ist jedoch, dass nach Auskunft der Neurophysiologen (meine Referenz ist hier wieder Gerhard Roth, z. B. »Fühlen, Denken, Handeln«) das Gehirn in verschiedene funktionelle Bereiche differenziert ist, die ein unterschiedliches »evolutionäres Alter« aufweisen und die auf unterschiedliche Art und Weise arbeiten. Grob gesagt sind dies das vegetative Nervensystem (Kleinhirn), das limbisch-emotionale Gehirn und die Großhirnrinde, zu der insbesondere der assoziative Cortex gehört.

Hiervon ist das Kleinhirn »festverdrahtet«, das emotional-limbische System teilweise durch frühkindliche Erfahrungen prägbar und der assoziative Cortex, um bei der Computermetapher zu bleiben, »frei programmierbar«. Dem entsprechen Stufen der Persönlichkeitsentwicklung:

»Im strengen Sinne genetisch determiniert scheint die Persönlichkeit zu 40 bis 50 Prozent zu sein; ca. 30 bis 40 Prozent gehen auf das Konto von Prägungs- und Erlebnisprozessen im Alter zwischen 0 und 5 Jahren. Nur zu etwa 20 bis 30 Prozent scheint die Persönlichkeitsstruktur durch spätere Erlebnisse beeinflusst zu werden.« (Roth, a.a.O. S. 411)

Ich glaube, dass da nicht bedacht wird, dass die Systeme nicht vollkommen unabhängig sind, dass also quasi bestimmte Fragen allein durch „alte Gehirnbereiche“ und andere Fragen durch „neue Gehirnbereiche“ bestimmt werden. Eher halte ich das oben geschilderte Modell für realistisch, bei dem bestimmte Systeme Daten interpretieren und dann dem „Entscheidungsorgan“ vorlegen, allerdings nicht einfach zur freien Entscheidung, sondern mitunter mit einer Alarmsirene, die sich nicht einfach abschalten lässt, mit einem Hinweis „Dringend, sofortige Bearbeitung“ oder als Lagebericht, der die Entscheidung deutlich beeinflusst.

Es gibt hier das Bild von dem Elefanten und dem Reiter und in vielen Situationen ist es der Elefant schwer umzulenken:

Dort geht es unter anderem darum, ob unser logisches Denken oder unser unterbewußtes, emotionales, instinktives Denken unser Handeln beherrscht. Dazu wird die Metapher des Elefanten und seines Reiters bedient:

Der Elefant ist das unterbewußte, emotionale, instinktive Denken, der Reiter das logische Denken. Nun besteht die Möglichkeit, dass der Reiter nur auf dem großen und schweren Elefanten sitzt und all seine Bemühungen, den Elefanten in einer andere Richtung zu bewegen, egal sind, wenn der Elefant nicht in diese Richtung will oder aber der Elefant kann den Vorgaben seines Reiters willig folgen.

In dem Buch kommt Haidt zu dem Schluß, dass der Reiter einen geringen Einfluss hat, der Elefant gibt den Weg vor. Der Reiter muss sich bestimmte Schwankungen des Elefanten zu Nutze machen und ihn dann, wenn er gerade in eine bestimmte Richtung schwankt, in diese lenken. Häufig bleibe dem Reiter aber sogar nichts anderes übrig als hinterher eine Begründung dafür zu suchen, warum er ebenfalls genau in diese Richtung wollte (sprich: unser Gehirn rationalisiert nachträglich bestimmte emotionale Entscheidungen als vernünftig).

Ein anderes Interview mit einem Neurobiologen geht in eine ähnliche Richtung:

Dass es keinen freien Willen im klassischen Sinn gibt, heißt ja noch lange nicht, dass unser Gehirn so vorhersagbar ist wie ein Räderwerk. Auch die betreffenden Neurobiologen lassen etwas Freiheit und Raum für Kreativität. Nein, ich denke, das Einzige, wogegen sie zu Recht Sturm laufen, ist die dualistische Idee, derzufolge es einen von der Materie losgelösten Geist gibt, der Entscheidungen treffen kann. (…)

Die Physik weiß seit hundert Jahren, dass die Welt nicht streng deterministisch ist. In jedem System gibt es ein Hintergrundrauschen, teils durch Quanteneffekte bedingt, immer aber auch durch die thermische Bewegung. Das macht es prinzipiell unmöglich, den Lauf der Welt exakt vorauszuberechnen. Wir glauben nun, in unseren Versuchen Hinweise gefunden zu haben, dass das Gehirn dieses Hintergrundrauschen nutzt und je nach Bedarf verstärken kann. Wie das funktioniert, wissen wir bisher nicht, aber ich stelle es mir im Prinzip als eine Art Zufallsgenerator mit regelbarem Verstärker vor.(…)

Zum Zufallsgenerator kommt eine Selektionsebene hinzu. Entscheidung wäre dann ein zweistufiger Prozess: Erst werden Verhaltensoptionen generiert, dann wird mit Hilfe des Willens eine Auswahl getroffen.(…)

Studien zeigen, dass auch viele menschliche Entscheidungen hinterher vom Bewusstsein rationalisiert werden. Da wir nicht wissen, wie das Bewusstsein funktioniert, können wir auch nicht wirklich sagen, welchen Einfluss es hat. Klar ist nur, dass manches schon wegen der Laufzeiten bestimmter Nervensignale längst entschieden ist, bevor das Bewusstsein eingreifen kann. Aber hier wird nun noch mal der Unterschied von meinem Begriff und dem landläufigen Verständnis deutlich: Freier Wille nach meiner Definition ist unabhängig vom Bewusstsein!(…)

Mit der Willensfreiheit haben wir einen Begriff, der ausdrückt, dass wir Verhaltens- oder Entscheidungsoptionen haben. Andere Kollegen bezweifeln, dass das Rauschen eine zentrale Rolle spielt. Es Freiheit zu nennen, sei doch reichlich übertrieben. Ich hoffe allerdings, dass wir mit unseren Forschungen zeigen können, dass es eine zentral ins Gehirn eingebaute Funktion ist. Wenn ich neuronale Mechanismen für die Variabilitätskontrolle finde, dann wäre das ein Hinweis darauf, dass es eben kein Nebeneffekt ist, sondern ein von der Evolution selektiertes, bedeutsames Merkmal. Meine Hypothese ist sogar, dass es die Hauptaufgabe des Gehirns ist, die Balance zwischen Freiheit und Determinismus zu finden.(…)Wahrscheinlichkeiten sind äußerst selten genau null oder eins. Wie groß Ihre Chance war, hängt natürlich davon ab, ob Sie zum Beispiel schokoladensüchtig sind oder jemand mit der Pistole Sie gezwungen hat. Aber ganz auszuschalten ist die Variabilität nie.

Ich hatte es auch einem unter der Abgrenzung „Führen durch Auftrag und Führen durch Befehl“ diskutiert:

Das Führen über Befehl hat den Vorteil, dass man bestimmte Handlungen schnell erreicht und nicht davon abhängt, dass der Soldat die falschen Überlegungen anstellt. Das Führen durch Auftrag hat hingegen den Vorteil, dass der Soldat flexibler agieren kann und auf unvorhergesehene Umstände besser reagieren kann. Beide Prinzipien lassen sich auf die Steuerung durch Reflexe, Instinkte und Wünsche übertragen. Ein Reflex ist geeignet, wenn eine Reaktion möglichst schnell erfolgen soll. Nährt sich ein Objekt sehr plötzlich und schnell oder taucht ein anderer Mensch sehr plötzlich und schnell vor einem auf, dann ist es sicherer zunächst zurückzuzucken als die Lage zu analysieren. Wenn man nahezu alles frisst, was sich bewegt und die richtige Größe hat und vorbeifliegt, dann lohnt sich ein diesbezüglicher Schnappreflex. Das menschliche Leben erfordert allerdings wesentlich komplexere Entscheidungen. Dies dürfte auch daran liegen, dass die Gegenspieler intelligenter sind und daher ein verdrahtetes Verhalten zu schnell durchschauen und ausnutzen könnten. Wer immer gleich reagiert ist berechenbar, wer sich neue Wege ausdenken kann nicht. In dieser Hinsicht ist einfreier Wille sinnvoll. Allerdings ist es aus der imaginären Sicht der egoistischen Geneweiterhin wichtig, dass die Ziele “Weitergabe der Gene” erhalten bleibt.

Um so komplexer die Reaktionen des anderen und um so komplizierter die Situation um so günstiger ist die “Führung über Auftrag”. Wünsche sind daher nichts weiter als eine Auftragserteilung und die Intensität der Wünsche kann steuern, welche Priorität ein Wunsch hat. Dabei sind Maßstab für die Intensität des Wunsches – die Notwendigkeit der Wunscherfüllung – die Einfachheit der Wunscherfüllung Wer seit 2 Tagen nichts gegessen hat, der wird hungriger sein als jemand, der vor einer Stunde gegessen hat. Weil die steinzeitliche Erfahrung besagt, dass die Notwendigkeit für eine Wunscherfüllung steigt. Wer gut gegessen hat, aber etwas besonders nahrhaftes sieht, was er sich einfach nehmen kann, der mag noch einmal Hunger bekommen, weil eine solch gute Gelegenheit nicht ungenutzt bleiben sollte (vielleicht der Grund, warum Nachtische meist sehr Kalorienreich sind: Sie verführen uns so eher zum Essen trotz eigentlicher Sättigung (“etwas süßes geht immer”)). Die Vorgabe “Hunger” ermöglicht uns beliebige Wege einzuschlagen, sei es Jagd, die Suche nach Früchten etc oder das Einkaufen in einem Supermarkt. Es ermöglicht uns in der heutigen Welt unsere Planung so auszurichten, dass wir einer bestimmten Tätigkeit nachgehen, die kein Essen produziert, aber über das dafür erzielte universelle Tauschmittel Geld Lebensmittel zu erwerben. Dies wäre über einen Schnappreflex natürlich nicht möglich.

Eine andere Theorie zum Thema freien Willen stellt darauf ab, dass wir zwar meinen frei handeln zu können, aber gleichzeitig nicht auf eine Weise handeln, die wir als unlogisch ansehen.

Wenn wir auf eine bestimmte Weise handeln, dann muss uns dies zumindest logisch erscheinen oder wir müssen einen Grund, und sei es ein irrationales Gefühl, dafür erkennen können. Tatsächlich irrationales Verhalten in dem Sinne, dass wir etwas ohne Sinn machen können, kommt insofern nicht vor. Auch das würde gut dazu passen, dass wir eine Berechnungsoperation durchführen, in der wir zu einem Ergebnis auf der Grundlage bestimmter Daten gelangen, welches wir als beste Handlungsmöglichkeit bewerten.

DJAdmoros führt dann weiter aus:

Unabhängig davon, ob sich die grundsätzliche Funktionsweise neuronaler Netzwerke auf eine Computeranalogie bringen lässt oder nicht, liegt der entscheidende Unterschied in den unterschiedlichen Freiheitsgraden (in der Computermetapher: dem Grad der »Überschreibbarkeit«) der zerebralen Funktionsbereiche. Auch höhere geistige Prozesse haben ein biologisches Substrat, eine korrelierte neurophysiologische Aktivität. Aber sie unterscheiden sich von anderen neurophysiologischen Aktivität durch den Grad ihrer Offenheit für extrinsische Information, also für solche Information, die nicht von einem individuellen Gehirn, sondern von mehreren sprachlich miteinander gekoppelten, koordinierten Gehirnen erzeugt wurde.

Und Lernprozesse dieser Art haben die zusätzliche Eigenschaft, dass sie die Zeithorizonte evolutionärer Anpassung unterlaufen. Die Frage, ob diese Regeln auch durch biologische Evolution entstehen könnten, ist daher müßig und falsch gestellt. Kulturelle Regeln ermöglichen Verhaltensanpassung in Zeithorizonten, für die evolutionäre Prozesse zu langsam sind. Dieser wesentliche Unterschied wird durch eine Computermetapher des Gehirns verwischt, denn die »Software« auf dem Gehirn lässt sich nicht beliebig neu in den Speicher schreiben.

Evolutionär entstandene »Regeln« bleiben also nur in solchen Bereichen wirksam, die auch unter Bedingungen kultureller Variabilität konstant bleiben müssenund das ist primär alles, was die Fortpflanzung betrifft, denn ohne biologische Fortpflanzung stirbt notwendigerweise auch die jeweilige Kultur aus. Darüber hinaus betrifft es auch die geschlechtsspezifische Arbeitsteilung – aber eben nur genau soweit, wie diese Arbeitsteilung nicht von höheren Bildungsgütern abhängt. Je mehr eine Gesellschaft sich zu einer »Wissensgesellschaft« entwickelt, in der Wissen und Bildung strategische Ressourcen für den Wettbewerbserfolg einer Gesellschaft darstellen, desto stärker wird sich die geschlechtsspezifische Arbeitsteilung und die kulturelle »Ordnung der Geschlechter« verwischen. Ohne dass man darum – wie das im Feminismus geschehen ist – die Erwartung ihrer vollständigen Aufhebung entwickeln müsste.

Das ist aus Sicht des Evolutionsbiologen sehr unsauber formuliert und das in doppelter Hinsicht:

  1. Evolution kann nicht planen. Regeln können also nicht vor dem Hintergrund erstellt werden, dass sie demnächst vielleicht kulturell geändert werden könnten. Sie können allenfalls vor dem Hintergrund wandelbar gehalten werden, dass sie sich bereits mehrfach und immer wieder geändert haben.
    Auf erst neuerdings eintretende Änderungen – etwa die erst in der Neuzeit auftretende Entwicklung, dass Mann und Frau wesentlich unabhängiger sind und zudem Sex und Schwanger werden strikt getrennt werden kann – kann die Evolution nur dann reagieren, wenn sich daraus ein entsprechender Selektionsdruck ergibt und ein hinreichend langer Zeitraum vergangen ist. Die „Neuzeit“ dauert aber gerade einmal selbst bei optimistischer Rechnung 6 Generationen an. Evolutionär gesehen sind das Sekunden.
  2. Nahezu alles ist von Fortpflanzung betroffen – wir sind Genvehikel, deren gesamter Aufbau nur den Zweck hat, Gene in die nächste Generation zu bekommen. Die Fortpflanzung ist in Graden in unsere Kultur eingebunden, die gerne übersehen wird – Statuserlangung, Signalling, Kooperation, alles dient der Fortpflanzung. Unsere Gesellschaft kann nicht einfach so unabhängig von unserer Biologie werden, weil Bewertungsroutinen, Attraktivitätsroutinen, Routinen für das Anzeigen von hohen Status und unsere Wünsche und Begehren in gewisser Weise biologisch selbst erhaltende Systeme sind, gegen die eine Selektion kaum möglich ist. Das mag nach einer sich selbst begründenden Regel klingen, aber das ist eben bei einem Selbstläuferprozess im Rahmen der sexuellen Selektion der Fall.

Wir werden daher allenfalls dazu kommen, dass wir die biologischen Regeln neu ausgestalten können oder neue Wege finden unsere Wünsche und Bedürfnisse zu befriedigen oder Werte zu signalisieren. Was früher Seidenstoffe waren mag heute das neuste Smartphone, sein, aber Signalling mit Luxusgütern an sich bleibt bestehen.

Die Routinen, nach denen unser „Biocomputer“ Bewertungen vornimmt, werden insofern mit neuen Daten gefüttert, die Routinen bleiben aber in vielen Fällen gleich.

91 Gedanken zu “Ist unser Gehirn eine Form von Computer?

  1. Alles schön und wahr und richtig. Und doch am Kern vorbei:

    Das Hirn ist ein „gewachsenes“ Gebilde. Es existiert, ohne einem Zweck zu dienen.

    Der Rechner ist ein „gebautes“ Gebilde. Es dient einem Zweck.

    Die Tatsache, dass das Hirn zu ähnlichen Tätigkeiten wie der Computer trainierbar ist, etwa Kopfrechnen, fügt ihm einen Zweck hinzu, belässt seine Natur aber unberührt.

      • „Daten verarbeiten“ (nach deinem Verständnis) ist ein zu unscharfer Begriff, als dass er für eine weitere Klassifikation ein taugliches Kriterium darstellt. Bzw. ist der Begriff (nach deinem Verständnis) von vornherein (!) so konstruiert, dass er die Argumentation „das Gehirn ist ein Computer“ stützt.

        Ich erinnere mich an eine Diskussion mit Elmar, da habe ich ihm dasselbe vorgehalten. Der Prof in Regelungstechnik hat uns damit auch gefoppt: „Alles im Leben ist Regelungstechnik“. In der früh duschen (richtige Wärme des Wassers): Regelungstechnik. Toast machen (braun, aber nicht verbrannt): Regelungstechnik. Zur Arbeit fahren: Regelungstechnik.

        Man kann dieses Spiel mit den verschiedensten Begriffen spielen. Alles im Leben ist Optimierung. Alles im Leben ist Datenverarbeitung.

        Ich finde das ziemlich langweilig.

        • @pingpong

          Es ist dennoch die beste Analogie, die wir haben. Auch wenn sie nicht deckungsgleich sind. Und gerade wenn es darum geht, was letztendlich das Gehirn macht und wie es denken kann, sehe ich auch keine Alternative dazu, dass es ein Datenverarbeitungsprozess ist. Was soll es denn sonst sein?

          • Zur Angemessenheit der Analogie haben sich anderer Kommentatoren schon ausführlich geäußert. Ich bestreite nicht, dass im Gehirn mit den ankommenden Reizen der Sinnesorgane etwas passiert, was man wohl als „Datenverarbeitung“ beschreiben kann. Das ist einigermaßen offensichtlich. Aus meiner Sicht taugt es jedoch nicht als Antwort auf die Frage „Was ist unser Gehirn?“
            Eine solche Antwort müsste m.M.n. mindestens auch „Bewusstsein“ umfassen, und da bist du schnell bei der Philosophie (und – auch wenns dir nicht gefällt – bei der Metaphysik). Eine Erklärung die das ausblendet halte ich für grob verkürzt. Affen haben keine Kochrezepte, keine Musik, keine Gemälde, keine Kultur. Wir Menschen schon. Es gibt einen Grund dafür, und eine Erklärung des menschlichen Gehirns die diesen grundlegenden Unterschied zwischen Menschen und Affen ausblendet ist unpassend.

  2. Gibt ja da verschiedene Ansichten. U.a. Edward Frenkel sagt: Nein, Gehirn (oder der ganze Mensch) ist kein Computer.
    Vielleicht sind wir ja eine Art Quantencomputer (oder Teile eines großen Computers), mit informationeller Herkunft (Basis oder anteiliger Informationsherkunft) aus dem Hologramm, mit Avataren (Körpern) in einer holografisch projizierten Welt?

    • Auch interessant könnte in den nächsten Jahrzehnten die Frage sein und werden (Hegel und aber auch andere Interpretationen), ob unsere Computer eine Art von Gehirn sind und/oder werden. Mehr oder weniger ähnliche oder andersartige Gehirne. Es wäre vermutlich (relativ sowieso) ein großer Schritt für die Menschheit.

  3. @Christian

    Hier operierst du so, wie du es sonst Elmar vorwirfst:

    „Bei Diskussionen über die Arbeitsweise des Gehirns liegt es nahe, dass man Analogien zum Computer verwendet, weil diese die künstlichen Gebilde sind, die wohl abseits biologischer Gehirne am nächsten an einer Form von Denken herankommen.“

    „Es liegt nahe“ ist nicht zutreffend, sondern *du legst es rethorisch nahe*, weil deine Argumentation darauf angewiesen ist, diese Analogie zu verwenden, die aber einen logischen Fehler aufweist:

    „Aus meiner Sicht ist es auch gar nicht anders vorstellbar als in dem Gehirn eine Form von Computer zu sehen, wenn auch eben mit einer gänzlich anderen Arbeitsweise.“

    D.h. „die gänzlich andere Arbeitsweise“ des Gehirns gegenüber dem Computer macht es „gar nicht anders vorstellbar“ das Gehirn als eine Form von Computer zu sehen?!
    Was stellen wir uns unter einer „Analogie“ vor?
    „Zwischen zwei Dingen besteht eine Analogie, wenn sie sich durch ein Merkmal ähnlich sind, auch wenn sie sich in anderen Merkmalen unterscheiden können.“ (Wiki)

    Nachdem das verbindende Merkmal von Gehirn und Computer die Arbeitsweise eben *nicht* sein kann, vollziehst du damit den gleichen, gaaaanz großen Sprung, der sich auch in diesem Zitat wiederfindet:

    „Die Computermetapher ist dem Ziel insofern dienlich, als sie es gestattet, die Arbeitsweise des Gehirns auf einen einzigen modus operandi, nämlich einen computeranalogen, zu begrenzen.“

    Ich möchte das ins Deutsche übersetzen: Nachdem einfach *gesetzt* wird, es gäbe eine „Analogie“ (die jedoch nicht existiert), ist der Computer nun eine „Metapher“ für die Arbeitsweise des Gehirns.
    Was stellen wir uns unter einer „Metapher“ vor?
    „Eine Metapher ist ein Ausdruck, der statt des wörtlich Gemeinten etwas bezeichnet, das ähnlich ist.“ (Wiki)

    In diesem Sinne hat „Metapher“ in dieser Argumentation die gleiche Funktion wie „Analogie“ – es wird sprachhypnotisch eine „Ähnlichkeit“ permanent behauptet, aber nicht belegt oder bewiesen.
    Die nachfolgende Verzwergungen von Gehirnfunktionen auf „Informationsverarbeitung“ und „Mustererkennung“ entstehen also nicht zufällig, sondern sind direkte Folge dieses „theoretischen“ Modells.

    Somit erklärt sich, was dem „Ziel insofern dienlich“ ist – nämlich dieser Argumentation – wie folgt: die Arbeitsweise eines Computers wird als *Grundlage* verwendet, um die Arbeitsweise des Gehirns zu erklären.
    Listen and believe.

    Gruß, crumar

    • Ich glaube das wir teilweise an einander vorbei reden, weil du die Analogie zum Computer wesentlich enger siehst als ich. Mit geht es nicht darum, dass das Gehirn genau arbeitet wie ein elektronischer Computer, sondern das er zwangsweise Daten verarbeiten muss und das zwangsweise gewisse Programme erfordert, wie soll es sonst gehen?
      Jede andere Erklärung ersetzt das gegenwärtig durch eine Form von Magie.
      Wir finden dieser Routinen ja auch vor, weswegen wir gewisses verhalten „normal“ und „verständlich“ finden und anderes nicht. Wenn bestimmte Denkweisen nicht funktionieren, dann erscheint uns das verhalten teilweise eher psychopathisch oder merkwürdig

      • @Christian:

        In Kurzform: Begriffe wie »Datenverarbeitung« und »Programm« sind Metaphern, die Funktionen bezeichnen, aber keinerlei Rückschluss auf die tatsächlich zugrundeliegenden Kausalzusammenhänge gestatten.

      • @Christian

        Das empfinde ich als schlichte Ausrede.

        „Mit geht es nicht darum, dass das Gehirn genau arbeitet wie ein elektronischer Computer, sondern das er zwangsweise Daten verarbeiten muss und das zwangsweise gewisse Programme erfordert, wie soll es sonst gehen?“

        Ein Computer ist ein von Menschen geschaffenes *Werkzeug* zur Datenverarbeitung, dem du *unterstellst* – sonst handelte es sich um *keine* Analogie – als *Werkzeug* ein ABBILD *menschlicher* Datenverarbeitung zu sein.
        Ein Werkzeug ist *Produkt* einer bewussten menschlichen Tätigkeit und es fiele niemandem ein, die Funktion eines Arms durch einen Schaufelbagger zu erklären.

        Was du also im Grunde unterstellst ist, das Gehirn operiert wie eine *Maschine* und die Evolution liefere das „Programm“.
        Das ist aber nicht wirklich hilfreich und es ist auch nicht originell.

        Gruß, crumar

      • Mag ja sein das es nicht originell ist, aber ich kenne keine alternative Erklärung, die ohne metaphysische Begriffe wie „Geist“ o.ä. auskommt.

      • @Christian – „nicht darum, dass das Gehirn genau arbeitet wie ein elektronischer Computer, sondern das er zwangsweise Daten verarbeiten muss und das zwangsweise gewisse Programme erfordert“ – Lösungsvorschlag: dass das Gehirn Daten verarbeiten kann, ist eine Sekundärfunktion. Die primäre Funktion ist das archaische Leben.

        • Was das „archaische Leben“ sein soll? Ich will nicht lügen, die Antwort ist schwer. Ich greife zum Vergleich.

          Ein Flugzeug, das die Isle of Man ansteuert, ermittelt aus einer Vielzahl von Flug- und Geo-Daten die ideale Anflugkurve und landet perfekt.

          Eine Stubenfliege, die die Isle of Man ansteuert, erfährt über Sinneseindrücke von der Umgebung, reagiert via Reflex mit idealen Flug-Einstellung und landet perfekt.

          Die Frage, welche „Daten“ die Stubenfliege verarbeitet, ist die gleiche, die sich auf das menschliche Hirn im „richtigen Leben“ bezieht, und die Antwort liefere ich kraft meiner Frechheit: gar keine, sondern Sinneseindrücke.

  4. Da ich hier nicht schon wieder die Diskussion einsteigen und eventuell an mich reißen will, nur drei Hinweise:

    Man muß generell unterscheiden, ob

    a) das Gehirn wie ein Computer arbeitet
    b) der Geist wie ein Computer arbeitet
    c) aus der Annahme, daß das Gehirn wie ein Computer arbeitet, folgt, daß der Geist wie ein Computer arbeitet.

    Soweit ich sehe, geht es in dieser Hinsicht hier fröhlich durcheinander.

    Zweitens wird nicht darüber nachgedacht, ob Gehirne wie Turing-Maschinen funktionieren, oder ob sie eher komplexe, adaptive Systeme sind:

    http://en.wikipedia.org/wiki/Complex_adaptive_system

    Drittens scheint es mir inszwischen klar zu sein, daß Biologismus einmal mit dem Begriff eines essentialistischen Gen arbeitet (Dawkins, Pinkter) und auch mal ohne. Letzteres ist z.B. bei Gerhard Roth der Fall, der das Problem des Willensfreiheit angesichts der Libet-Experimente im Grunde im cartesischen Paradigma beantwortet (Substanzdualismus).

    Je mehr man versteht, desto mehr merkt man, daß Biologismis eine ähnlich glitschige Ideologie ist, wie der Feminismus: Solange keiner widerspricht, wird A behauptet. Kommt aber Widerstand, so wird behauptet, daß nicht A, sondern B behauptet wurde, A gar nicht wichtig für den eigenen Standpunkt sei und stattdessen B oder am besten noch etwas anderes total wesenlich sei.

    Das klappt natürlich besonders gut, wenn es verschiedene Varianten von Biologismus gibt: Schon in der Dawkins/Pinker-Variante wird wahlweise da nicht-reduktive Computermodell des Geistes benutzt, mal der reduktive, kausale Funktionalismus und mal der reduktive, logische Behaviorismus.

    Der Grund für diese Flexibilität liegt meiner Ansicht nach auf der Hand: Es geht darum, eine Revolution des Offensichtlichen in der Alltagspsychologie durchzuführen und für die Alltagspsychologie eine Art naturwissenschaftlicher Reformulierung zu etablieren, die – und das ist entscheidend – nicht mehr auf einer sozialen Kompetenz beruht. Dafür sind die Mittel relativ unwichtig und sie werden ganz pragmatisch angepaßt – je nachdem, auf welche Weise man eine Diskussion zu verlieren droht.

    Denn da, wo die Neurobiologie ihre größten Erfolge einfahren könnte wie z.B. bei der Frage, wie Bewußtsein entsteht oder wie das bewußte Erleben funktioniert, wie Aufmerksamkeit funktioniert und Wahrnehmung – da sind die Biologisten völlig desinteressiert. Und sie arbeiten auch nicht mit Psychologen zusammen, was ich völlig unverständlich finde.

    Das alles ist natürlich total verdächtig, denn dort würden sie alle willkommen heißen. Nur von der Alltagspsychologie sollten die Biologen die Finger lassen. Aber das tun die Biologisten nicht, das ist ihre heilige Kuh – guess why.

  5. @Christian:

    »Es ist gleichermaßen verworren, wie Young [J. Z. Young, Programs of the Brain] davon zu sprechen, dass Gehirne Wissen und Information enthalten, die im Gehirn eingeschrieben bzw. kodiert sind, ›genauso wie Wissen in Büchern oder Computern aufgezeichnet werden kann‹. Von einem Buch können wir sagen, dass es das gesamte Wissen der Lebensarbeit eines Gelehrten enthält, oder von einem Aktenschrank, dass er alles verfügbare, ordnungsgemäß katalogisierte Wissen über Julius Cäsar enthält. Das heißt, dass auf den Buchseiten oder Registerkarten im Aktenschrank Ausdrücke einer großen Zahl bekannter Wahrheiten niedergeschrieben wurden. In diesem Sinne enthält das gehirn kein Wissen, welcher Art auch immer. Es gibt keine Symbole im gehirn, die durch ihre Anordnung eine einzelne Proposition ausdrücken, geschweige denn eine als wahr aufgefasste Proposition. Selbstverständlich enthält auch ein menschliches Wesen in diesem Sinne kein Wissen. Über Wissen zu verfügen heißt nicht, Wissen zu enthalten. Eine Person kann beispielsweise ein oberflächliches Wissen über die Abholzungen des 17. Jahrhunderts haben, sie enthält aber keines; Hinds Geschichte früher Abholzungen enthält eine große Menge solchen Wissens, hat aber keines. Weder verfügt das Gehirn über irgendein Wissen, noch enthält es welches.« (Bennett/Hacker, Die philosophischen Grundlagen der Neurowissenschaften., S. 201 f.)

    »Für mich liegt der wesentliche Faktor dabei darauf, dass das Gehirn natürlich Daten nach bestimmten Regeln verarbeiten muss. Wie sonst soll ein Gehirn sonst funktionieren?«

    »Daten nach einem Programm verarbeiten« ist eine Metapher und kein aus den Daten der Neurowissenschaften resultierender Protokollsatz. Ein aktuelles Standardwerk über das Gehirn (Thompson, Das Gehirn) formuliert folgendes:

    »Während Sie gerade dieses Buch lesen, sind buchstäblich Millionen Bits von Informationen in ihrem Langzeit- oder permanenten Gedächtnis gespeichert worden. (…) Irgendwie speichert das Gehirn all diese unterschiedlichen Informationen, sodass sie leicht zugänglich und nutzbar sind. (…) Das heißt aber keineswegs, dass bestimmte Erinnerungen in bestimmten Nervenzellen abgelegt sind. Stattdessen nehmen wir an, dass das Gehirn Erinnerungen verschlüsselt und speichert, indem sich das Muster und die Erregbarkeit unzähliger synaptischer Verbindungen zwischen den Nervenzellen ändert.« (Thompson, S. 359)

    Die Rede von den »Millionen Bits von Informationen« bei Thompson ist in Bezug auf das Gehirn ebenfalls eine Metapher. Denn bereits der Informationsgehalt des Buches lässt sich nur dadurch angeben, dass man berechnet, wieviele Bytes der elektronisch abgespeicherte Text bei einer bestimmten Zeichenkodierung (z. B. ASCII, UTF-8, UTF-16) auf einem Speichermedium belegen würde. Die Bedeutung des Textes ist nichts, was sich als Informationsmaß ausdrücken ließe. Darum kann auch Thompson nicht mehr aussagen, als dass das Gehirn eine Information nach offenbar konnektionistischen Prinzipien »verschlüsselt«. Forent pingpong hat bereits darauf hingewiesen und auch einen Blogpost von Cathy O’Neil aka mathbabe verlinkt, die zusammenfassend sagt: »We have no clue about what principles allow the real machine to operate.« Und zwar haben diese Vorstellung darum nicht, weil die Computeranalogie nicht mehr als eine Metapher ist. Weil das Gehirn in der Lage ist, Lernprozesse unabhängig vom Lernkontext aufzubewahren, wählen wir die Metapher des »Speicherns« und öffnen damit die Büchse der Pandora, der immer weiter gehende technische Analogien entfleuchen – so lange, bis wir deren metaphorischen Charakter vergessen haben.

    Das ist (abgesehen vom Doppelsonst 🙂 ) auch das Problem bei der Frage: »Wie sonst soll ein Gehirn sonst funktionieren?« »Daten nach Regeln verarbeiten« ist eine Metapher zur Benennung einer beobachtbaren Funktion des Gehirns, über deren biologische »Implementierung« wir aber nur so viel wissen, dass sie irgend etwas mit neuronalen Netzwerken zu tun hat. Nun sind Metaphern nicht verboten, aber man muss sehr aufpassen, welche Begründungslasten man ihnen aufbürden will. Und genau an dieser Stelle kommt das Eigenrecht der Philosophie gegenüber den Neurowissenschaften zur Geltung, insofern eine philosophische Begriffskritik durchaus feststellen kann, wenn Neurobiologen ihre Begriffe unzulässig überlasten, denn auch Neurobiologen sind nicht ihr Gegenstand, »Gehirne«, sondern fehlbare menschliche Subjekte, die sich sprachlich überheben können, wenn sie nicht auf ihre Analogien achten.

    Also hängt die Bewertung der gewählten Metapher von der Begründungslast ab, die sie tragen soll: was sich als roter Faden durch den Blogpost hindurchzieht, ist die Metapher einer »Datenverarbeitung nach Regeln«, und hier kommt dem Begriff der »Regel« die Aufgabe zu, als domänenübergreifender Bezeichner zu operieren, und zwar gleichzeitig in den begrifflichen Domänen der Informatik, der Biologie und der Kulturanthropologie. Der wesentliche Unterschied zwischen einer biologischen und einer kulturellen Regel wird dabei aber verwischt: was immer wir biologisch als »Regel« beschreiben, kann nicht mehr sein als ein intrinsisch bestimmter Zustand eines individuellen Organismus. Eine kulturelle Regel ist aber stets ein extrinsisch bestimmter, nämlich durch sprachliche Kommunikation erzeugter, Zustand von zwei oder mehr individuellen Organismen. Die »Biologie der Kultur« (wenn man denn schon nach einer solchen sucht) besteht darin, die Zustände menschlicher Gehirne durch kommunikativ erzeugte Information zu synchronisieren. Das ist eine spezifisch menschliche Fähigkeit, die auf der Fähigkeit zur Perspektivübernahme/ beruht, auf dem, was Tomasello als geteilte, gemeinsame und kollektive Intentionalität bzw. als zweitpersonale und objektive Moral bezeichnet. Diese Information wird aber gerade in variablen, situativen Lernprozessen wirksam und relevant (insbesondere auch als Selektionskriterium kultureller Evolution), für die keine biologisch geprägten Verhaltensmuster vorliegen.

    Diese »Domänenverwechslung« sehe ich auch den beiden konkreten Einwänden gegen einen anderen Kommentar von mir:

    1. »… kann die Evolution nur dann reagieren, wenn sich daraus ein entsprechender Selektionsdruck ergibt und ein hinreichend langer Zeitraum vergangen ist.«

    Das ist kein Einwand gegen meine These, dass sich Prozesse kultureller Evolution von Prozessen biologischer Evolution abkoppeln, sondern tatsächlich nur deren Umformulierung. Gerade eben weil die kulturgeschichtliche Zeitspanne biologisch-evolutionär »nur Sekunden« umfasst, fällt die biologische Evolution nur noch unter dem Aspekt ihrer ante quem geschaffenen Bestände ins Gewicht und nicht mehr unter dem Aspekt ihrer Entwicklungsmechanismen. Im Zeitalter des Anthropozäns müssen wir sogar damit rechnen (ganz gleich, ob wir das für einen Segen oder einen Fluch halten), dass Evolution generell durch genetisches Engineering ersetzt werden wird (bereits die Domestizierung von Tieren und Pflanzen ist eine Form von am Phänotyp ansetzenden Gen-Engineering – Darwin hat den Begriff der »Zuchtwahl« von der Kultur auf die Natur rückübertragen).

    2. »wir sind Genvehikel, deren gesamter Aufbau nur den Zweck hat, Gene in die nächste Generation zu bekommen.«

    Diese These sagt bestenfalls etwas über die begrenzte Reichweite evolutionsbiologischer Theorien aus. Wenn sie zutrifft, dann ist sie für die Erklärung von Prozessen kultureller Evolution schlicht nicht zuständig. Der Versuch, ihren Grundgedanken in den kulturellen Phänomenbereich zu übertragen, hat die Gestalt der Mem-Theorie angenommen, die wir als gescheitert betrachten dürfen: sie wird allenfalls als nette Metapher rezipiert, nicht als empirisch tragfähige Aussage über tatsächliche Kausalzusammenhänge.

    Um es also ein wenig zugespitzt zu resümieren: Christians kontinuierliche Bemühungen, die Zuständigkeit der Evolutionsbiologie auf den Gegenstandsbereich der Kulturanthropologie zu überreizen, versuchen es in der neuesten Version mit einem Flankenangriff über die Informatik. 🙂

    • @djadmoros

      Diesen Beitrag von dir hatte ich leider übersehe

      „Und zwar haben diese Vorstellung darum nicht, weil die Computeranalogie nicht mehr als eine Metapher ist.“

      Das würde ich in Frage stellen; es ist eben nicht „nur“ eine Metapher sondern folgt m.E. der Überzeugung von Marvin Minsky, wonach das Gehirn nichts anderes ist als eine „meat machine“.

      D.h. in der Verwendung findet sich nicht zufällig kein Spurenelement einer *spekulativen* Verwendung von „Metaphern“, sondern die Entschuldigung, es handle sich „nur“ um „Metaphern“, verdeckt die geteilte Überzeugung, wonach das Gehirn wie eine Maschine funktioniere.
      Ironisch: »We have no clue about what principles allow the real machine to operate.«
      Aber immerhin weiß sie von der Existenz einer „real machine“. 😉

      Gruß, crumar

      • @crumar:

        Stimmt, für einige war das Computermodell wohl mehr als eine Metapher. Aber ich vermute, dass Davids Kommentar den aktuellen Stand der Diskussion angemessen wiedergibt und dass die »harte« Theorie der meat machine heute Geschichte ist.

        • @djadmoros

          Vielen Dank für den Hinweis auf davids Beitrag!

          Ich hatte eine Weile das Blue Brain/Human Brain Projekt im Auge, allein wegen der beeindruckenden Größe des Projekts:

          https://de.wikipedia.org/wiki/Blue_Brain
          https://de.wikipedia.org/wiki/Human_Brain_Project

          in dem mehrere tausend (!) Prozessoren eines Supercomputers dazu verwendet wurden, 1 Kubikmillimeter (!) Rattenhirn (!) zu simulieren, für die Kleinigkeit von mehr als einer Milliarde (!) Euro.

          Was darauf hindeutet, wie haltlos die Analogie von Computer und *menschlichem* Gehirn ist.

          Gruß, crumar

          • Das deutet nur darauf hin, das heutige Computer nicht mit die Leistung von Gehirnen bringen können, es sagt aber nicht, dass sie so verschieden sind, dass man keinen Vergleich ziehen kann.

            Die IBM 601 arbeitet auch vollkommen anders als heutige Computer. Ein Computer in 100 Jahren wird heutige Computer entsprechend aussehen lassen

        • @Christian

          Das ist nicht falsch, aber allein der Aufwand, ein massiv paralleles System wie das Gehirn zu simulieren ist bestimmt nicht ganz ohne.
          Was m.E. weniger mit der Geschwindigkeit der Prozessoren als mit der Netz-Topologie (und der prinzipiell seriellen Arbeitsweise) zu tun hat.

          Ein ganz anderer Ansatz wurde einmal hier probiert:
          https://de.wikipedia.org/wiki/Transputer

          Und findet sich auch hier:
          https://de.wikipedia.org/wiki/Cell_(Prozessor)

          D.h. was heute unter einem Computer verstanden wird ist nicht unbedingt besser geeignet zu verstehen, wie ein Gehirn funktioniert.

          Gruß, crumar

  6. Der Blogmaster hat natürlich recht. Nur will man sich das nicht eingestehen, weil der Mensch in dem Wahn lebt, sein Gehirn sei etwas metaphysisches, allumfassendes, ewig währendes. Seele und so.

    • Der Blogmaster hat nicht recht.

      Die Grenzen des Ansatzes sind in den verschiedenen Disziplinen bekannt und wurden ihm hier und auch zuvor immer wieder erklärt. (vereinfacht und verkürzt: Das Gehirn ist systemisch/organisch und prozessiert parallel und unter Einfluss von Motivation und Emotion, ein Computer seriell.)

      Die Computermetapher und der Informationsverarbeitungsansatz stammen ja aus den Zeiten der kognitiven Wende der Psychologie und hat zweifellos ihre Verdienste, hat zum Beerdigen des Behaviorismus beigetragen. Man kann sie auch nicht pauschal als „falsch“ bezeichnen.

      Dieser Ansatz trägt ein ganzes Stück weit und führte die Kognitionswissenschaft dann immer mehr vom regelbasierten Paradigma (Rips), welches noch Christians weitestgehend veraltetem Computationalismus nahe kommt, immer weiter zu mentalen Modellen (Johnson-Laird), dem Probabilismus (Chater & Oaksford), kognitiven Architekturen wie ACT-R und neuronalen Netzwerken, die mit der Arbeitsweise eines Computers nicht mehr viel zu tun haben, aber immer noch von einem solchen in der Funktion modelliert werden können.
      Die Zukunft wird zeigen, wie weit künstliche Intelligenz im Paradigma des Konnektionismus und der Kybernetik kommen kann. Sprich: der Computer muss erst noch so werden wie Menschen, um den Gebrauch Computermetapher über ihre bisherigen Grenzen hinaus zu rechtfertigen.

      Mit Metaphysik hat das aber nichts zu tun.

        • „“…Wenn sie sich nicht unterscheiden lässt, warum ist es dann wichtig?…““

          Die Frage, ob ein Bewusstsein gegeben ist oder nicht ist wichtig oder wenigstens interessant. Für mich zumindest.

          • Es ist insofern ein Spiel mit Worten weil man zum einen zum vortäuschen eines Bewusstseins ein Bewusstsein braucht und zweitens weil man eben gut vertreten kann, dass unser Gehirn genau das vortäuscht, wenn man es auf das biologische Äquivalenz von „Nullen und Einsen“ runter bricht

        • @Christian:

          »Nicht serielle Computer sind auch Computer«

          Die Parallelität von Computerprozessen ist auf den alleinigen Zweck eingeschränkt, die Verarbeitungsgeschwindigkeit zu erhöhen. Wann immer Daten zwischen parallelen Prozessen synchronisiert werden müssen, erfolgt das unter Einsatz von temporären Sperrmechanismen, die für die betreffende Operation den exklusiven Zugriff eines Threads und somit eine definierte Sequenz von Zugriffen gewährleisten.

          Es gibt bei korrekter Programmierung also stets ein wohldefiniertes Vorher und Nachher des Zugriffs auf gemeinsam verwendete Datenstrukturen, also Serialität. Ich bezweifle, dass die von David angesprochene Parallelität von Gehirnprozessen dasselbe meint.

          • „Ich bezweifle, dass die von David angesprochene Parallelität von Gehirnprozessen dasselbe meint“

            Selbst wenn das nicht der Fall ist: warum sollte sich das per se mit dem Begriff Computer beißen. Dürfte man einen neuartigen Computer, der das könnte, nicht mehr Computer nennen?

          • @djadmoros

            „Es gibt bei korrekter Programmierung also stets ein wohldefiniertes Vorher und Nachher des Zugriffs auf gemeinsam verwendete Datenstrukturen, also Serialität. Ich bezweifle, dass die von David angesprochene Parallelität von Gehirnprozessen dasselbe meint.“

            Dennoch werden in diesen Prozessen eben Daten bearbeitet. Das ist genau das, was meine Definition ausmacht

        • „“…Das bestimmte Computer seriell sind ist für die Frage ob das Gehirn eine Form der Datenverarbeitung nach regeln vornimmt vollkommen egal…““

          Welche Regeln? Erklär doch mal. Du meinst wohl, dass wo auch immer Ähnlichkeiten im Lernprozess und im Ergebnis beobachtet werden, dies ein Beweis für vordefinierte Regeln sei.

          • Was genau willst di jetzt haben? Eine Aufschlüsselung aller regeln des menschlichen Gehirns?

            Generell kann man auf die menschlichen universalen verweisen, aber auch einfache regeln der Gerechtigkeit, die erst ein mal nicht der Logik entsprechen.

            Siehe zB das Diktatorspiel.

        • @Christian:

          »Dürfte man einen neuartigen Computer, der das könnte, nicht mehr Computer nennen?«

          Das ähnelt der Frage, ob man einen Androiden, der sich nicht mehr von einem Mensch unterscheiden lässt, noch als Maschine behandeln dürfte oder nicht vielmehr wie einen Menschen behandeln müsste.

          Möglicherweise wäre es dann tatsächlich kein Computer mehr, sondern eine Form von maschinellem »Geist«. Das ist aber eine abstrakte Spekulation, weil wir die Funktion des menschlichen Gehirns zu wenig verstehen, um angeben zu können, wann ein Computer die erforderlichen Kriterien erfüllt, um mehr als ein Computer zu sein.

        • @Christian:

          P.S.: Ich habe vor mehr als zehn Jahren mal Computerdenken von Roger Penrose gelesen (engl.: »The Emperor’s New Mind«, erstmals erschienen 1989), ohne die Argumentation aber jetzt noch im Detail wiedergeben zu können. Seine These läuft aber darauf hinaus, dass wir »Geist« und »Seele« in dem Moment naturwissenschaftlich verstehen werden, in dem der physikalischen Kosmologie der Durchbruch zu einer Theorie der Quantengravitation gelingt (einer Vereinheitlichung von Quantenmechanik und Gravitationstheorie), woraufhin sich geistige Phänomene als einer »höheren Dimension« zugehörig herausstellen würden, die aber eben nicht als metaphysisch verstanden, sondern strikt naturalistisch hergeleitet werden soll.

          Damit verwirft Penrose aber auch alle Modelle einer »starken KI«, die annimmt, man müsse Computer nur weit genug entwickeln, um sie eines Tages so etwas wie Bewusstsein hervorbringen zu lassen.

          Mir fehlt die Kompetenz als Physiker, um seine Argumentation wirklich würdigen zu können, aber das Buch hat eine größere Diskussion ausgelöst, und als rationale Spekulation fand ich das Buch damals außerordentlich spannend und anregend. Den heutigen Stand der Diskussion zum Buch kenne ich aber nicht.

        • „“…Das ähnelt der Frage, ob man einen Androiden, der sich nicht mehr von einem Mensch unterscheiden lässt, noch als Maschine behandeln dürfte oder nicht vielmehr wie einen Menschen behandeln müsste…““

          Diese Frage geistert schon länger in meinem Kopf herum und ist auch schon in Science Fiction Movies thematisiert worden. Anders formuliert: Wenn sich die Simulation nicht mehr vom Original unterscheiden lässt, kann dann immer noch von einer Simulation gesprochen werden?

        • Ja, es kann von einer Simulation gesprochen werden, denn es ist eine Simulation.

          Die äußere Nichtunterscheidungsfähigkeit kann wohl kein sinnvoller Maßstab sein für eine Klassifizierung.

          Aber das sind sowieso weltfremde, intellektualistische Spielereien von Leuten mit emotionalen Defiziten. 🙂

        • „“…Aber das sind sowieso weltfremde, intellektualistische Spielereien von Leuten mit emotionalen Defiziten…““

          Du Alice Miller-Simulation, du! Ich warte noch auf einen eigenen Gedanken von dir, der nicht von A.M stammt. Los jetzt!

        • @Christian

          Lass uns doch einmal auf der Basis der Pop-Kultur verhandeln, die du gerade annimmst:

          „Und so bleibt auch das Nachdenken über die Künstliche Intelligenz bei Garland auf einem eher bescheidenen Niveau. Sein Film Ex Machina erscheint als Antwort auf die frühe Kritik an der frühen KI-Euphorie, wie sie sich bei Joseph Weizenbaum im „Künstliche Intelligenz“-Kapitel seines bahnbrechenden Klassikers „Die Macht der Computer und die Ohnmacht der Vernunft“ findet. Bestenfalls könnte man Ex Machina als Eulenspiegelei auf Weizenbaum sehen:

          „Da sich das menschliche Denken beispielsweise mit ästhetischen Problemen in Verbindung mit Fühlen, Schmecken, Sehen und Hören beschäftigt hat, wird AI Maschinen bauen müssen, die fühlen,schmecken, sehen und hören können.“

          Joseph Weizenbaum

          Hier setzt Garlands sexy Gyndroidin Ava an und sorgt mit ihren Gefühle reizenden weiblichen Kurven für Geschmacksverirrung, dass den KI-Forschern Hören und Sehen vergeht: Ava erweist sich als Sex-Roboter mit voll funktionsfähiger Vagina. Der künstliche Vamp hat Tradition im SF-Genre, schon seit Fritz Langs Metropolis.“

          Der Punkt ist aber, dass die „funktionsfähige Vagina“ nicht über einen Orgasmus bei einem Geschlechtsverkehr hinaus reicht.
          D.h. „Funktionsfähigkeit“ ist ein Reflex auf den Sexualtrieb ohne die materielle Basis der Reproduktionsfähigkeit, auf den sich der Sexualtrieb bezieht.

          Die generative POTENZ der Frau wird auf der Basis der sexuellen Anziehung verhandelt, weil das das Kriterium ist, mit der der Androide „Ava“ einer Frau ähnelt und *nicht* gleicht.
          Du wirst niemals ein Kind von diesem Androiden erwarten können.
          PUNKT.

          Weizenbaum ist NICHT radikal, ich bin es.
          Dass „menschliche(s) Denken beispielsweise mit ästhetischen Problemen in Verbindung mit Fühlen, Schmecken, Sehen und Hören“ zu tun hat ist für mich trivial.
          Nämlich passiv.
          Die andere Form der Ästhetik ist es, menschliches Denken mit ästhetischen Formen der Wahrnehmung in Verbindung zu bringen, die dieser Mensch *produziert hat*, um sie als „Fühlen, Schmecken, Sehen und Hören“ wahrzunehmen.

          Das ist jedoch ein erklecklicher Teil unserer eigenen „Schöpfungsgeschichte“.

          Androiden werden niemals selbst-reflektierend handeln, weil sie kein Selbstbewusstsein *haben*, weil zu unserem Selbstbewusstsein das Bewusstsein der eigenen Endlichkeit gehört.
          Du wirst sterben und was DICH tröstet ist die Reproduktion deiner Gene zu 50%, andere brauchen das Paradies usw. – warum nicht Androiden?
          Oder ein Mix aus all diesem Religionen.

          Have fun, crumar

          • „Androiden werden niemals selbst-reflektierend handeln, weil sie kein Selbstbewusstsein *haben*, weil zu unserem Selbstbewusstsein das Bewusstsein der eigenen Endlichkeit gehört.“

            Das ist eine These. Ich halte sie für falsch. Wenn wir durch einen medizinischen Fortschritt unsterblich werden würden, dann hätten wir nach wie vor ein Bewußtsein.

            „Du wirst sterben und was DICH tröstet ist die Reproduktion deiner Gene zu 50%, andere brauchen das Paradies usw. – warum nicht Androiden?“

            Ehrlich gesagt ist mir die Reproduktion meiner Gene vergleichsweise egal. Meine Gene sind nichts besonderes.

        • Androiden haben kein Selbstbewusstsein, das ist ein Fakt. Die Tatsache, dass für die Erkenntnis der eigenen Endlichkeit ein Selbstbewusstsein (_eigene_ Endlichkeit -> sich _selbst_ bewusst sein) Voraussetzung ist, ist eine aus meiner Sicht völlig einleuchtende Folgerung.

          Wenn wir durch einen medizinischen Fortschritt unsterblich werden würden, dann hätten wir …

          Das ist eine These.
          Ich verstehe nicht was du mit dieser Antwort aussagen willst. Dass unsterbliche Personen (These!) weiterhin ein Bewusstsein haben ist kein Widerspruch zu crumars Einwand, er hat nämlich nicht behauptet: „Nur wer sterblich ist, hat ein Bewusstsein.“

          • „Androiden haben kein Selbstbewusstsein, das ist ein Fakt“

            Es gibt keine Androiden, insofern haben sie gegenwärtig kein Selbstbewußtsein.

            „Die Tatsache, dass für die Erkenntnis der eigenen Endlichkeit ein Selbstbewusstsein (_eigene_ Endlichkeit -> sich _selbst_ bewusst sein) Voraussetzung ist, ist eine aus meiner Sicht völlig einleuchtende Folgerung.“

            Dann bau sie mal argumentativ auf. Ich werf mal eine Definition rein:

            Nach Kant[Bearbeiten | Quelltext bearbeiten]
            Selbstbewusstsein entsteht durch Beobachtung und Reflexion seiner selbst oder anders ausgedrückt: des eigenen Ich, der eigenen Persönlichkeit. Der sich selbst Betrachtende ist hierbei gleichzeitig Objekt und Subjekt. Kant: „Ich bin mir selbst ein Gegenstand der Anschauung und des Denkens’ ist ein synthetischer Satz a priori und der Grundsatz der Transzendentalphilosophie.“ (Vorlesungen über Metaphysik).
            „Der synthetische Satz: daß alles verschiedene empirisches Bewußtsein in einem Selbstbewußtsein verbunden sein müsse, ist der schlechthin erste und synthetische Grundsatz unseres Denkens überhaupt.“ (Kritik der reinen Vernunft; Abschnitt: Deduktion der reinen Verstandesbegriffe)
            Nach Hegel[Bearbeiten | Quelltext bearbeiten]
            In einer seiner bedeutendsten philosophischen Schriften, der Phänomenologie des Geistes, vor allem im berühmten Kapitel „Selbstständigkeit und Unselbstständigkeit des Selbstbewusstseins; Herrschaft und Knechtschaft“ führt Hegel aus, dass das Selbstbewusstsein als Ergebnis der Anerkennung durch den Anderen sich herausbildet, und sich in Abhängigkeit eines Gegenüberstehenden formt bzw. verwandelt. Hegel beschreibt das Selbstbewusstsein als die Summe der Erfahrung der Dialektik von Selbstständigkeit und Unselbstständigkeit, bildlich in Form eines Konflikts um Anerkennung zwischen Herr und Knecht.
            „Ich ist der Inhalt der Beziehung und das Beziehen selbst.“ und
            „In dem Bewusstsein, das auf sich selbst reflektiert, sind sich Subjekt und Objekt gleich.“ (Phänomenologie des Geistes)

            Sich selbst als Subjekt und als Objekt sehen könnte man auch, wenn man sich bewußt ist, dass man als Maschine eine andere „Endlichkeit“ hat als als Mensch. Wenn es nur das wäre, dann programmiert man dem Androiden eben ein Verfallsdatum ein.

          • @christian:

            Es gibt keine Androiden, insofern haben sie gegenwärtig kein Selbstbewußtsein.

            https://en.wikipedia.org/wiki/EveR
            https://en.wikipedia.org/wiki/Actroid

            Dann bau sie [Erkenntnis der eigenen Endlichkeit setzt Selbstbewusstsein voraus, Anm.] mal argumentativ auf.

            „Eigene Endlichkeit“ ist eine Aussage/Eigenschaft über sich selbst, erkennbar am Adjektiv „Eigene“. Um eine solche Aussage zu tätigen ist es notwendig, dass man sich seiner selbst bewusst ist, also ein Selbstbewusstsein hat.
            „Die Fähigkeit zur Selbsterkenntnis setzt die Existenz von Selbstbewusstsein voraus […]“
            Quelle: https://de.wikipedia.org/wiki/Selbsterkenntnis
            Erkenntnis der eigenen Endlichkeit ist selbstverständlich eine Form von Selbsterkenntnis.

      • „Die Computermetapher und der Informationsverarbeitungsansatz stammen ja aus den Zeiten der kognitiven Wende der Psychologie und hat zweifellos ihre Verdienste, hat zum Beerdigen des Behaviorismus beigetragen. Man kann sie auch nicht pauschal als “falsch” bezeichnen.“

        Ich glaube tatsächlich, dass aus diesem Stürzen auf den historischen Streit ein Teil des Aneinandervorbeiredens stammt. Der Behaviorismus stammt ja aus einer Zeit, in der Computer extrem simpel waren. Komplexere Punkte waren zu dem Punkt nicht umsetzbar. Die Kritik richtet sich dann gegen eine schlichtes Imput-Output-Modell (Black Box) wie im Behaviorismus, welches aber hier gar nicht gemeint ist. Und auch das Stimmulus-Response-Modell von Skinner ist in der Hinsicht eben sehr schlicht. Mit geht es gar nicht darum, den Menschen auf ein solches Modell zu reduzieren.

        Neuronale Netzwerke mögen nichts mit heutigen Computern zu tun haben, aber wie würden wir ein künstliches neuronales Netzwerk wohl unproblematisch nennen? Meine Vermutung wäre, dass wir es unproblematisch unter Computer einordnen würden.

        Aus meiner Sicht werden da zur Wahrung eines alten Streites künstliche Grenzen eingezogen die eine durchaus sinnvolle Metapher blockieren.

        • Nein das hast du falsch verstanden. Die Computermetapher berücksichtigt ja gerade, dass das Gehirn, wie der Computer, eben keine Blackbox ist (das S-R-Paradigma von Skinner IST ja der Behaviorismus, aber das wusstest du sicher 😉 )

          Es geht um die qualitativen Unterschiede auf der Prozessebene.

          Mit neuronalen Netzwerken ist ja hier KI gemeint, natürlich haben die was mit heutigen Computern zu tun. Sie simulieren ja das Gehirn.
          Das ist aber nicht so einfach, wie es sich anhört:
          https://de.wikipedia.org/wiki/K%C3%BCnstliches_neuronales_Netz#Allgemeine_Probleme

          Ich bewundere ja deinen Eifer und Ehrgeiz, dich fachfremd in alle möglichen Themen hineinzubeißen und mitreden zu wollen. Gerade was Evolution angeht macht dir wohl auch kaum ein einfacher Biologe was vor.
          Aber manchmal bin ich auch erstaunt, wie sehr du dich übernimmst, ohne dich überhaupt mit den Grundlagen und den Autoritäten auf einem Gebiet auseinanderszusetzen, bevor du deinen ersten Annahmen irgendeine Relevanz beimisst.

          Du ziehst dir das alles aus der Nase, müsstest aber eigentlich erstmal ein paar Semester Philosophie (Searle), Informatik, Kognitionswissenschaft und/oder (Neuro-)psychologie/biologie buckeln, um wirklich mitreden zu können.

          Obwohl ich einige Jahre Kognitionswissenschaft auf dem Buckel habe, stecke ich auch nicht so tief drin in dieser interdisziplinären Debatte und es strengt mich selbst an, mitzureden. Ich habe da halt eher von Profs die sich darüber seit Jahrzehnten Gedanken machen, das Autoritätswissen mitbekommen, dass die Computermetapher überholt ist. Oben habe ich es ja kurz skizziert und ich kann nur noch einmal ein paar Buzzwords in den Raum werfen, deren Nichterwähnen mir zeigt dass du nicht auf der Höhe der Debatte bist:

          diese wären:
          Kybernetik
          Autopoiese / offene Systeme
          nspace/pspace
          non-/deterministische Turingmaschine
          embodied cognition / embodiment

          • @david

            „Es geht um die qualitativen Unterschiede auf der Prozessebene.“

            Ich stell noch mal die für mich wesentliche Frage:

            Warum ist das für die Verwendung der Computeranalogie wichtig? Es bleibt immer noch die beste Analogie, dass das Gehirn anders arbeitet als heutige Rechner ist dabei relativ egal.

        • Die Frage ist falsch gestellt, sie müsste lauten wofür die Computeranalogie selbst noch wichtig ist?

          Sie mag die „beste“ sein und wie gesagt auch ein ganzes Stück weit tragen, aber wie weit und wofür? Die Grenzen dieser durchaus brauchbaren Metapher sind das, was du zur Kenntnis nehmen musst.

          Weitere buzzwords:
          definierbare Zustände
          Epiphänomen

        • Wenn du nämlich richtig feststellst, dass KI nach „abgespeicherten Regeln“ funktioniert und dies dann über KI-Eigenschaften auf das Gehirn extrapolieren willst, begibst du dich eben aufs Glatteis.

          Das Gehirn ist eben nicht einfach nur ein „leistungsstarker Biocomputer“, sondern ein autopoietisches Organ.

        • @david
          Blackbox […] das S-R-Paradigma von Skinner IST ja der Behaviorismus

          Skinner nie gelesen? (wie die meisten Kognitionspsychologen …)

          Warum bloß sind die erfolgreichsten Psychotherapien behavioristisch?

        • Ich weiß dass er den Begriff „Black Box“ abgelehnt hat (aber dennoch mentale Vorgänge als wiss. Erklärung abgelehnt hat), auch ohne Skinner im Original gelesen zu haben. Das macht heute keiner mehr.

          Und um Gottes Willen, Psychotherapien (mit Ausnahme der umstrittenen ABA für autistische Kinder) sind heute keinesfalls behavioristisch, wo hast du denn den Quatsch her?
          Wir leben im Zeitalter des biopsychosozialen Modells und des SORKC-Paradigmas, welches den Organismus und seine Dispositionen als wichtige Variable miteinschließt.

        • Die Frage ergibt keinen Sinn. Behaviorismus meint ja heute genau das was das biopsychoziale Modell nicht tut, nämlich Organismus und emotional/kognitive Reaktion ignorieren.

          Die Grundlagen sind „behavioral“ trifft es besser.

          Wobei die KVT dem Zeitalter und der Methodik des Behaviorismus natürlich entsprungen ist, klar. Nur hat man diesen überwunden.

  7. „“…Daten nach Regeln verarbeiten…““

    Ein neuronales Netz funktioniert offensichtlich nicht so. Der Lernprozess geschieht nicht nach vordefinierten Regeln. Das zeigt uns auch die Sprache, aus der sich erst nachträglich Regeln extrahieren lassen, die zudem immer wieder durchbrochen werden.

    • Selbst dann brauchst du regeln, wie man aus den Schallwellen regeln ableitest. Sprachfähigkeiten leiden anscheinend auch unter frühpostnatalen Testosteron und bei zweisprachig aufwachsenden werden die beiden sprachen anders gespeichert als beim späteren sprachen lernen (Studien sind im blog zu finden). All dies deutet aus spezielle Bearbeitung hin.
      Ich verweise zudem auf die „Universalgrammatik“, die nur durch spezielle Daten der Sprache trainiert wird.

      • „“…Selbst dann brauchst du regeln, wie man aus den Schallwellen regeln ableitest…““

        ??
        Brauch ich Kenntnisse der Akustik, um Schallwellen wahrzunehmen? Ich brauche lediglich die Wahrnehmung, also die Registrierung des Reizes. Ich versteh möglicherweise nicht, was du sagen willst.

        • Wie genau lernt ein baby denn, dass bestimmte Schallwellen Informationen/Sprache sind und andere nicht?….

          Wenn ich das genau wüsste wäre ich Professor am MIT, hätte einen Nobelpreis und müsste meine Zeit nicht mit Beiträgen in diesem Blog totschlagen.

          • Die nageliegenste Erklärung wäre eben eine Datenverarbeitung mit einen speziellen Modul, welches anhand einer Universalgrammatik die Schallwellen analysiert und die Besonderheiten der konkreten Sprache erkennt.
            Das Modul wird dann ab einen gewissen alter abgeschaltet, so dass erwachsene sprachen mühsam lernen müssen

        • @Christian

          Und das spezielle Modul heißt „Gott“ – oder jede andere Form von Mystik, die sich „Modul“ nennt, die aus nicht weiter erklärbaren Gründen auf einmal „da“ ist und später aus nicht weiter erklärbaren Gründen „abgeschaltet“ wird.

          Das ist deine „naheliegenste“ Begründung.

          Finde ich nicht überzeugend.

          Gruß, crumar

          • @crumar

            „Und das spezielle Modul heißt “Gott” – oder jede andere Form von Mystik, die sich “Modul” nennt, die aus nicht weiter erklärbaren Gründen auf einmal “da” ist und später aus nicht weiter erklärbaren Gründen “abgeschaltet” wird.“

            Warum sollte es Gott heiße?

            Das Sprachzentren im Gehirn heißt zB Broca’s area

        • @Christian: „Die nageliegenste Erklärung wäre eben eine Datenverarbeitung mit einen speziellen Modul, welches anhand einer Universalgrammatik die Schallwellen analysiert..“

          Nix für ungut, aber gerade das Hören ist ein schönes Beispiel dafür, daß „Datenverarbeitung“ eine unpassende Metapher für das ist, was beim Hören passiert. Schallwellen können schon deshalb nicht „analysiert“ werden, weil sie gar nicht mit irgendeiner Rate abgetastet und als „Daten“ gespeichert werden. An den beiden Ohren liegt zu jedem Zeitpunkt immer nur ein ganz bestimmter Druck an, der über diverse mechanische Elemente irgendwann den Hörnerv triggert, diese Signale werden dann im Gehirn noch massiv in Realzeit weiterverarbeitet (faszinierendes Thema übrigens, z.B. werden viele Echos weggefiltert, ggf. nicht vorhandene Grundtöne gehört usw.). Das ist großenteils sozusagen analoge Schaltungstechnik, allerdings mit Bauteilen, von denen man keine 100%ige Spezifikation hat, wie sie einzeln funktionieren, und erst recht im Zusammenhang. D.h. man kann zwar die Gesamtwirkung des Hörsystems einigermaßen beschreiben, kann aber die einzelnen Features nicht klar den erkennbaren „Bauteilen“ zuordnen. Vom einer Grammatik oder digitaler, algorithmischer Datenverarbeitung gar nicht erst zu reden. Auch nicht zu reden von Tinnitus u.ä. Störungen.

        • @christian: Crumar, djadmoros, david haben bereits sehr ausführliche und überzeugende Einwände geäußert. Worum geht es dir eigentlich mit dieser etwas reflexhaften Antwort „aber das ist doch genau meine Definition von Computer. Ich habe recht.“?

          Deine Definition von Computer ist uninteressant und wird den Möglichkeiten des menschlichen Gehirns nicht gerecht. Daten nach Regeln zu verarbeiten ist langweilig. Zahlen nach bestimmten Vorschriften zusammenzurechnen ist stupide und nicht interessant.

          Viele Pflanzen öffnen ihre Blüten wenn die Sonne darauf fällt. Bei manchen Pflanzen geht das so schnell, dass man mit freiem Auge zuschauen kann. Nach deiner Argumentation: Eine Pflanze empfängt Signale, diese werden nach bestimmten Regeln verarbeitet und erzeugen eine bestimmte Reaktion. Voila, es ist ein Computer!

          Die Schallwellen werden empfangen und müssen dann natürlich dem Inhalt nach erkannt werden, wie sollte man sonst Worte erkennen?

          Wie geht denn das genau? Was ist denn der „Inhalt“, aufgrunddessen (!) dann etwas als „Wort“ erkannt wird? Ist nicht ein Wort etwas was einen Inhalt trägt? Du erklärst hier einen Begriff (Wort) durch sich selbst (etwas hat einen Inhalt) und postulierst dass wenn etwas einen Inhalt hat, dann wird es als Wort erkannt. Das ist aus meiner Sicht eine Zirkeldefinition.

          Dass der Schall *irgendwie* im Gehirn „verarbeitet“ wird, sodass wir dann Worte erkennen können ist eine so triviale Erkenntnis, das ist nicht einmal uninteressant. crumar hat dich oben bereits darauf hingewiesen.

          Zu den ungelösten Fragen der Forschung gehören:

          Wie schaffen wir es, im Schall- bzw. Datenstrom einzelne Wörter zu unterscheiden?
          Wie schaffen wir es, Wörter als gleich zu erkennen, obwohl sie von verschiedenen Sprechern völlig unterschiedlich ausgesprochen werden (Stimmlage, Dialekt, Sprechgeschwindigkeit usw.)?

          https://de.wikipedia.org/wiki/Sprachwahrnehmung

          • „Viele Pflanzen öffnen ihre Blüten wenn die Sonne darauf fällt. Bei manchen Pflanzen geht das so schnell, dass man mit freiem Auge zuschauen kann. Nach deiner Argumentation: Eine Pflanze empfängt Signale, diese werden nach bestimmten Regeln verarbeitet und erzeugen eine bestimmte Reaktion. Voila, es ist ein Computer!“

            Wenn man es einem Kind anhand eines Modells mit Sensoren und einer Signalverarbeitung erklärt, dann wäre es aus meiner Sicht durchaus verständlich.

            „Wie geht denn das genau? Was ist denn der “Inhalt”, aufgrunddessen (!) dann etwas als “Wort” erkannt wird?“

            Worauf willst du hinaus? Dass zunächst weitere Informationen dazu kommen müssen, etwa das über die Zuordnung zur Person das Baby begreift, dass die Mutter mit den Schallwellen „Mutter“ zu tun hat und sein Name mit ihm?

            „Ist nicht ein Wort etwas was einen Inhalt trägt?“

            Und? Dann ist es eben ein Datenbankeintrag, in dem ein gewisses Muster, welches aus den Schallwellen abgeleitet wird, mit einem Begriff vernetzt wird. Es wird gleichzeitig mit anderen Begriffen vernetzt (Nomen, Verb etc) und dann wiederum mit erkannten Regeln zur Zeiten- oder Pluralbildung

            „Du erklärst hier einen Begriff (Wort) durch sich selbst (etwas hat einen Inhalt) und postulierst dass wenn etwas einen Inhalt hat, dann wird es als Wort erkannt. Das ist aus meiner Sicht eine Zirkeldefinition.“

            Es muss ja überhaupt erst mal erkannt werden, dass etwas eine menschliche Sprache ist und anderes nicht. Daraus müssen Worte erkannt und eine Bedeutung zugeordnet werden, zudem muss die Grammatik ermittelt werden. Das sind ja sehr komplexe Prozesse, die Babys aber problemlos meistern, während Erwachsene daran scheitern.
            Das zeigen ja auch Pidgin und Kreolsprachen: Wenn Kinder in einem Umfeld mit einer Pidginsprache aufwachsen, dann entwickeln sie eben eine Grammatik und machen daraus eine Sprache:
            https://allesevolution.wordpress.com/2012/03/01/die-biologie-der-sprache-pidgin-und-kreolsprachen/

            „Dass der Schall *irgendwie* im Gehirn “verarbeitet” wird, sodass wir dann Worte erkennen können ist eine so triviale Erkenntnis, das ist nicht einmal uninteressant. crumar hat dich oben bereits darauf hingewiesen.“

            Das ist nur trivial, weil es uns aufgrund unseres Gehirns leicht fällt. Es tatsächlich zu leisten ist keineswegs trivial. Spracherkennung zu programmieren ist eben keineswegs einfach.

            „Zu den ungelösten Fragen der Forschung gehören:
            Wie schaffen wir es, im Schall- bzw. Datenstrom einzelne Wörter zu unterscheiden?
            Wie schaffen wir es, Wörter als gleich zu erkennen, obwohl sie von verschiedenen Sprechern völlig unterschiedlich ausgesprochen werden (Stimmlage, Dialekt, Sprechgeschwindigkeit usw.)?“

            Eben. Es ist kaum vorstellbar, dass wir da keine Programme abarbeiten, sondern diese Leistung von jedem Kind neu und ohne Grundlage abgewickelt wird.

          • Wenn man es einem Kind anhand eines Modells mit Sensoren und einer Signalverarbeitung erklärt, dann wäre es aus meiner Sicht durchaus verständlich.

            Ich halte es für wichtig die Dinge als das zu bezeichnen was sie sind, alles andere führt in die Irrationalität. Die Wrklichkeit ist wie sie ist, unabhängig davon ob es uns gefällt oder nicht. Du kannst gerne für dich feststellen dass eine Pflanze ein Computer ist, ich werde dich nicht davon abhalten. Aber ich (und wohl die meisten anderen Menschen) weise dich dann darauf hin, dass es eine Pflanze kein Computer ist.

            Worauf willst du hinaus?

            Ich will darauf hinaus, dass Worte, Sprache, Inhalt eine Kulturleistung sind, und zwar eine ziemlich großartige und grundlegende. Eine die uns Menschen von allen anderen Lebewesen auf der Erde unterscheidet. Und weil Worte eine Kulturleistung sind, muss eine Erklärung über Worte (z.b. wie funktioniert das hören/verstehen von Worten) auf die ein oder andere Weise „Kultur“ beinhalten. Eine Erklärung die „Kultur“ beiseite lässt, taugt m.M.n. nicht viel.

            Das [Sprache erkennen, Anm.] ist nur trivial, weil es uns aufgrund unseres Gehirns leicht fällt. Es tatsächlich zu leisten ist keineswegs trivial. Spracherkennung zu programmieren ist eben keineswegs einfach.

            Ich habe auch keineswegs behauptet es wäre trivial. Ich habe behauptet, die Feststellung im Gehirn würde *irgendeine* Verarbeitung ablaufen, ist trivial. Natürlich werden die Reize der sinnesorgane im Gehirn „verarbeitet“. Das ist doch das was du mit deiner Computerdefinition behauptest: Daten werden aufgenommen, im Gehirn verarbeitet, dann erfolgt eine Reaktion. Diese Definition ist trivial.

            Ich habe darauf hingewiesen, dass die interessante Frage lautet: „Wie funktioniert die Verarbeitung?“ Diese Frage ist nach wie vor ungelöst (s. Link)

            Deine Antwort auf eine solche schwierige, ungelöste Frage ist: „Es wird ein Programm eabgearbeitet“. Nun ja. Das ist, ich wiederhole mich, langweilig und bringt keine neue Erkenntnis.

  8. Ich bezweifele, dass wir diese Datenverarbeitung tatsächlich ausschalten können.

    Im Unterschied zu Computern sind wir Menschen Individuen, sodaß wir alle ganz unterschiedliche Empfindungen bei dem Frauen-Bild haben, auch abhängig von der aktuellen Situation, in der wir uns befinden.

    Wir steuern unsere Individualität gar und entwickeln uns. Ja wir sterben gar und haben Angst vor dem Tod. Dies kann kein Computer so empfinden, lieber Christian. Und wir haben ein Bewußtsein von uns selbst.

    Du gehörst zu den Menschen mit einer empfindlichen Transzendenz- und Metaphysikparanoia. Ja mit einer Paranoia vor allem Geistigen und Symbolischen. Da muß man gar nicht auf die Metaphysik hinweisen.

    Damit bist du das, was ich einen pathologischen Mann nenne. Pervertierte, einseitige, verkümmerte Männlichkeit. Also beispielsweise ein weltfremder Rationalismus, ein Objektivitätsfetisch.

    Jeder kann sich denken, daß man solch merkwürdige Betrachtungen wie von Christian bei Frauen äußerst selten findet. Statt dich so sehr auf die körperliche Vereinigung mit Frauen zu fixieren, solltest du dich mehr auf die geistige Vereinigung konzentrieren. Da kannst du noch was lernen.

    Das ist mein Therapievorschlag für dich, lieber Christian.

  9. Da unser Gehirn als Datenverarbeiter wie ein technischer Rechner zumindest teilweise modular aufgebaut ist und zudem eine eingabeabhängige Programmierung besitzt, könnte man es als „Computer“ bezeichnen.

    Steven Pinker zB stimmt der Definition daher zu. Nur die Sozialkonstruktivisten seltsamerweise nicht. Wobei ein Computerprogramm ja fest eingebaut (wie das BIOS) oder frisch reingegeben (CD…) sein kann.

    Der Begriff kann also sowohl den Blöden (SKonstr) wie den Realisten dienen.

    Allerdings gibt es einen enormen Unterschied zwischen technischem Computer und Gehirn, auf den Pinker auch verweist: Transistor-Rechner sind nur intelligent, haben aber keine Motive.
    Daher sind die ganzen SciFi-Filme über mordende Roboter wie Terminator unrealistisch: Skynet würde ohne menschliche Befehle -nix!- machen. Vor allem kein Bewußtsein und keinen Mordinstinkt entwickeln.
    Hier zu lesen:

    ———————————————–

    ät Evochris: Was isn mit meinen beiden Themenvorschlägen?

    • „Allerdings gibt es einen enormen Unterschied zwischen technischem Computer und Gehirn, auf den Pinker auch verweist: Transistor-Rechner sind nur intelligent, haben aber keine Motive.
      Daher sind die ganzen SciFi-Filme über mordende Roboter wie Terminator unrealistisch: Skynet würde ohne menschliche Befehle -nix!- machen. Vor allem kein Bewußtsein und keinen Mordinstinkt entwickeln.“

      Das wäre ja auch nur eine Frage der Programmierung

      • Sicher, aber es würde ja keiner auf die Idee kommen, Skynet einzuprogrammieren, „baue Terminatoren, wirf Atombomben und venichte die Menschheit“.

        In der SciFi wird daher fantasiert, daß das irgendwie von selbst entsteht.

  10. Der effektive Hauptunterschied: das Gehirn „programmiert“ sich selber.

    Ist das Bild da übrigens computermanipuliert oder liegt es an der Perspektive, dass man ihren Bauchnabel nicht sieht?

  11. Ein Computer ist nur eine Digital-Rechenmaschine, analoge Welt-Informationen müssen erst digitalisiert, also vereinfacht werden, damit der Computer sie verarbeiten kann.
    Der Vergleich mit dem Hirn ist völlig fehl am Platz, da das Hirn analog arbeitet. Schon der Begriff „rechnen“ ist hier unpassend, weil zählen und rechnen nur auf digitaler Basis möglich ist. Die Art, wie das Hirn Informationen verarbeitet, ist dem Rechnen haushoch überlegen. Es müsste dafür eigentlich ein neues Wort erfunden werden, so bleibt uns nur das allgemeine „Verarbeiten“ als Beschreibung.

    Zitat: „Die Physik weiß seit hundert Jahren, dass die Welt nicht streng deterministisch“.

    Unsinn, das wird nur behauptet, kann aber nicht bewiesen werden. Wiki dazu:
    „Es ist in der Philosophie der Physik nach wie vor umstritten, ob die Unmöglichkeit exakter Berechnung zukünftiger Ereignisse nur einem Mangel unserer Theorien bzw. Perspektive geschuldet ist, oder dadurch zu erklären ist, dass die Wirklichkeit selbst nicht determiniert ist.“

    Wer das Kausalitätsprinzip anerkennt, und nicht an das Wunder von Wirkungen aus dem Nichts ohne Ursachen glauben will, dem bleibt nur der Schluss dass die Welt für uns nur Kino ist. Kino bei dem jeder Handgriff und jeder Gedanke vorherbestimmt ist. Und dass es unmöglich ist durch „Anstrengung“, „Leistung“ ö.ä. seine Situation zu verbessern. Die Rolle als Spitzenleister oder Total-Versager ist unverrückbar vorherbestimmt.

    Den moralischen Dilemmas, die das zur Folge hat, kann man nur entkommen indem man an Wunder glaubt, an so Wunder wie Zufall, freiem Willen, Gott u.ä.

    • Ich habe da nie ein moralisches Dilemma sehen können. Niemand kennt sich selber zu 100% und weiß schon vorher, wie er in einer bestimmten Situation reagieren wird. Ein Großteil der ablaufenden Prozesse wird eben nicht bewusst, genau wie z.B. die Verdauung, die wir auch erst wahrhnehmen, wenn sie abgeschlossen ist.

      Da nun niemand genau weiß, wie er reagieren wird (und die anderen es auch nicht wissen bzw. wissen können), macht es durchaus Sinn, ihm Motive zu bieten, in einer gegebenen Situation in bestimmter Weise zu agieren, z.B. durch Strafandrohung.

      Wo ist da das moralische Dilemma?

  12. Zitat Christian: „Die IBM 601 arbeitet auch vollkommen anders als heutige Computer. Ein Computer in 100 Jahren wird heutige Computer entsprechend aussehen lassen“.

    Du verwechselt Quantität mit Qualität.
    Grundlage aller Digital-Elektronik sind die drei sog. Grund-Gatter, das war beim 601 so, ist heute noch so und wird in 100 Jahren auch so sein.
    Die Grund-Gatter sind das UND-Gatter (am Ausgang eine 1 wenn an an allen Eingängen eine 1), Das ODER-Gatter (am Ausgang eine 1 wenn an mindestens einem Eingang eine 1) und der Inverter (dreht das Bit einfach nur um).
    Absolut alle(!) Schaltungen, Prozessoren oder sonstwas können nur aus Grundgattern nachgebildet werden! Die übrigens auch untereinander abgebildet werden können, d.h. man kann UND und ODER Gatter auch nur aus Invertern zusammenbasteln.

    Und da kann man sich anstrengen wie man will, man wird kein neues Grundgatter dazuerfinden können weil es keins gibt. Und hier liegt auch der brachiale Unterschied zum Gehirn. Man kann das behelfsmässig nur so beschreiben, dass das analoge Hirn Mega-Gatter verwendet, die keinerlei Beschränkung unterliegen, und analog alles mit allem verknüpfen können.

  13. Was ich mich frage, jeder Computer arbeitet mit Programmen, festgelegten regeln, selbst wenn diese selbstoptimierend und damit flexibel sind, so bleiben es doch regeln, Programme. Mit deren zunehmender Komplexheit können sie zunehmend flexibel reagieren und die Entscheidungssituationen immer feiner unterteilen. Wenn der Grad erreicht ist, das JEDE Einzelentscheidung wirklich eine einzigartige ist, eine eigene Kategorie, so dass es nicht zwei Reaktionen gibt, die man noch in einer übergeordneten Kategorie zusammenfassen kann, kann man dann noch von einem Programm reden ? Ich weis es nicht.
    Mein zweiter Gedanke, wenn in bestimmten Situationen immer ähnliche Entscheidungen getroffen werden, auch wenn prinzipiell möglich wäre willkürlich jedes mal anders zu entscheiden, zu reagieren, warum ?
    Bei Lebewesen ganz offensichtlich darum, weil bestimmte Bedürfnisse befriedigt werden müssen, damit es weiter existiert, oder die es eben befriedigt haben will. Diese sind ganz tief verankert im Stammhirn.
    Wir haben also scheinbar mehrere Ebenen zu betrachten. Einen Teil mit relativ einfacher Programmierung, wenn man es so nennen will, und einen freien Teil, der aber um frei zu sein sich bewusst gegen die Programmierung entscheiden muss oder kann (Meditation?)
    Wenn man noch tiefer geht ist das Programm, die Kontrollinstanz letztendlich nicht das Gehirn, sondern der Körper in dem es wohnt, dieser zwingt es auf bestimmte Reize mit bestimmten Antworten zu reagieren. Primitives Beispiel Hunger ? Fressen suchen ! Ein anders entscheidendes Gehirn würde wohl „abgeschaltet“ werden. Aber prinzipiell ist ja ein Hungerstreik möglich.
    Scheint mir alles doch recht kompliziert.
    Wie sagte mal jemand zum Thema Problemlösung:
    Ihm ist kein noch so kompliziertes Problem bekannt, das nicht bei intensiven Nachdenken darüber und beim Erforschen nicht noch komplizierter geworden wäre.

  14. Pingback: Wie unser Denken um Besitz durch evolutionäre Regeln beeinflusst wird | Alles Evolution

  15. Pingback: Das chinesische Zimmer (Philosophie des Geistes) | Alles Evolution

Hinterlasse eine Antwort zu Wolf-Dieter Antwort abbrechen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..