Vor Zurück Inhalt3. Fremde GehirneSeit es Computer gibt, gibt es auch Versuche, Prozesse des menschlichen Denkens darauf zu simulieren. Die Fähigkeit einer elektronischen Maschine, Informationen in hoher Geschwindigkeit einzulesen, zu manipulieren und wieder auszugeben, verleitete von Anfang an Forscher zu Spekulationen über die Äquivalenz von Computern und Gehirnen. Solche Spekulationen fanden auch bald Eingang in die Psychologie. Insbesondere die Möglichkeit von Rechenmaschinen, Informationen parallel zu verarbeiten, entsprach Ansätzen in der Psychologie, die das Gehirn vorwiegend als parallel processing system betrachteten. Computer wurden vor diesem Hintergrund als eine Möglichkeit betrachtet, noch unerforschte Phänomene des menschlichen Geistes durch Modellierung aufzuklären. Ein gutes Beispiel dafür ist das Pandemonium-Modell von Oliver Selfridge (Selfridge, 1959). Pandemonium ist ein Modell zur visuellen Mustererkennung. Es besteht aus einer Vielzahl von parallel arbeitenden demons, von denen jeder auf das Erkennen eines bestimmten visuellen Reizes spezialisiert ist, zum Beispiel eines Querbalkens in der Mitte des präsentierten Reizes oder einer Krümmung in der rechten oberen Ecke. Wenn ein Dämon "seinen" Stimulus erkennt, ruft er dem zentralen master-demon eine entsprechende Mitteilung zu. Dieser Zuruf ist um so lauter, je höher der Dämon die Wahrscheinlichkeit eines richtigen Erkennens einschätzt. Alle Dämonen arbeiten unabhängig voneinander; keiner wird von seinen Nachbarn beeinflußt. Auf der Grundlage der eingegangenen Informationen entscheidet der master-demon dann, welches Muster den Reiz konstituiert. In einer Weiterentwicklung des Modells wurden die Dämonen hierarchisch organisiert, um den master-demon zu entlasten. Zwischen diesen spezialisierten Dämonen in Selfridges Modell und den tatsächlich vorhandenen feature detector-Zellen im visuellen Kortex besteht eine verblüffende Ähnlichkeit. Und in der Tat waren es das Modell von Selfridge und die darin formulierten Annahmen über Wahrnehmungsprozesse, die erstmals des Gedanken nahelegten, daß solche feature detectors beim Menschen existieren könnten. Das Modell war in diesem Fall der Anlaß für die Neurophysiologen, nach entsprechenden Zellen zu suchen. Damit ist Pandemonium ein gutes Beispiel dafür, wie Computermodelle die psychologische Forschung voranbringen können. Auf der anderen Seite soll aber nicht verschwiegen werden, daß ein System wie Pandemonium unfähig ist, tatsächlich zu "sehen". Und daran knüpft die Kritik an, die der Computermodellierung zwar einen eingeschränkten heuristischen Nutzen einräumt, ansonsten aber jegliche Äquivalenz zwischen Mensch und Maschine verneint. Auch und gerade bei der Entwicklung emotionaler Computer ist natürlich eine der grundlegenden Fragen die nach der Äquivalenz der Systeme "Mensch" und "Computer". Sowohl die AI-Forschung als auch die bisherigen Ansätze zur Entwicklung emotionaler Systeme gehen ohne weitere Nachfrage davon aus, daß "Intelligenz" und "Emotion" bei einem Computer nicht fundamental verschieden sind von Intelligenz und Emotion beim Menschen. Bei dieser Annahme wird weitgehend von der jeweils spezifischen Hardware abstrahiert; auch "Emotion" wird als reine Software-Implementation begriffen. Dabei ist es durchaus fraglich, ob die beiden Systeme gleichen Entwicklungsgesetzen gehorchen. Ein Computer ist ein diskretes System, das zunächst nichts anderes kennt als nur zwei voneinander unterschiedliche Zustände. Durch die Kombination mehrerer solcher Elemente lassen sich zwar "Zwischenzustände" hervorrufen; dies allerdings erst in einer gewissen Abstraktionsebene von der zugrundeliegenden Hardware. Im Gegensatz dazu stellt die Physiologie des emotionalen und kognitiven Systems beim Menschen keineswegs eine vergleichbare Mechanik dar, sondern besteht, auch auf der untersten Ebene, aus einer Vielzahl von Mechanismen, von denen einige mehr nach digitalen, andere dagegen mehr nach analogen Prinzipien arbeiten. Selbst einer der am besten untersuchten Mechanismen, die Funktion der Neuronen, ist nicht ausschließlich ein An/Aus-Mechanismus, sondern besteht aus einer Vielzahl differenzierter Teilmechaniken - und das, wie gesagt, auf der Ebene der Hardware. Die Simulation solcher Mechanismen ist beim Computer derzeit nur als Software möglich. Zwar lassen sich einfache neuronale Schaltmuster auch durch Parallelrechner bis zu einer gewissen Stufe hardwaremäßig modellieren; eine solche Modellierung ist allerdings nur für einen eng begrenzten Bereich möglich und läßt zudem chemische Prozesse völlig außer acht, die beim Menschen ebenfalls eine bedeutende Rolle spielen. Picard (1997) versucht, das Problem dadurch zu lösen, daß sie vom Unterschied zwischen Hard- und Software abstrahiert und unter "Computer" stets beides versteht. Sie begründet diese Position damit, daß in einer "emotionsfreien" Hardware durchaus emotionale Softwareagenten existieren können. Eine ähnliche Diskussion wird auch über die Vergleichbarkeit von Emotionen bei Menschen und Tieren geführt (siehe dazu Dawkins, 1993). Hier liegt zumindest eine Hardware aus identischen Elementen zugrunde, wenn auch in unterschiedlícher Komplexität. Auch in diesem Fall gilt es wissenschaftlich als noch nicht entschieden, ob eine Emotion wie "Trauer" bei Mensch und Tier deckungsgleich ist. Erschwert wird die Angelegenheit zusätzlich noch durch die Frage, ob es sich bei einem Computer prinzipiell um eine Lebensform handeln kann. Dieser Frage ist in der "Artificial Life"-Diskussion der letzten Jahre einige Beachtung geschenkt worden. So vertritt der Evolutionsbiologe Richard Dawkins (Dawkins, 1988) die Meinung, bereits die Fähigkeit zur Reproduktion würde ausreichen, um vom Leben im biologischen Sinn sprechen zu können. Andere erweitern die Definition um die Komponenten "Selbstorganisation" und "Autonomie". Wenn man die vorwiegend unter ethischen und philosophischen Gesichtspunkten geführte Diskussion um "Leben" außer acht läßt und sich auf die Aspekte "Selbstorganisation" und "Autonomie" konzentriert, dann ist es durchaus realistisch, Computern bzw. Software diese Eigenschaften zuzuschreiben. Selbstorganisation im Sinne von Adaption ist zum Beispiel nachweislich vorhanden bei neuronalen Netzen, die mit genetischen Algorithmen (siehe z.B. Holland, 1998) operieren. Autonomie im eingeschränkten Sinn ist nachgewiesen bei Robotern bzw. ansatzweise bei autonom operierenden Programmen, zum Beispiel Agenten für das Internet. Solche Programme besitzen zudem auch die Fähigkeit zur Reproduktion, womit auch die dritte Bedingung erfüllt wäre. Der Schwerpunkt der AI- und AL-Forschung gilt derzeit der Weiterentwicklung solcher autonomer, selbstorganisierender Systeme. Die dabei verwendeten Modelle sind zwar teilweise angelehnt an Funktionsmodelle des menschlichen Gehirns; dies sollte aber dennoch nicht vorschnell dazu verleiten, ihre Funktionsweise mit der des menschlichen Gehirns gleichzusetzen. So ist gerade bei Optimierungsprozessen von Software durch genetische Algorithmen den menschlichen Beobachtern häufig nicht bekannt, welche Selbstorganisationsprozesse eine Software anwendet, um das Optimierungsziel zu erreichen. Abgesehen von solchen komplexen Softwareprozessen ist es unter Umständen aber auch beim Ablauf einfacher Programme sinnvoll, einem Computer mentale Fähigkeiten zuzuschreiben. So führt John McCarthy, einer der Pioniere der Künstlichen Intelligenz, aus: Die Zuschreibung mentaler Informationen gemäß dieser Ausführungen besitzt lediglich eine funktionale Natur: Sie dient dazu, Informationen über den Zustand einer Maschine zu einem gegebenen Zeitpunkt auszudrücken, die ansonsten nur über langwierige und komplexe Detailbeschreibungen ausdrückbar wären. McCarthy benennt eine Reihe von mentalen Eigenschaften, die unter diesen Aspekten Computern zugeschrieben werden können: Introspektion und Selbstwissen, Bewußtsein und Selbstbewußtsein, Sprache und Denken, Intentionen, freier Wille, Verstehen und Kreativität. Zugleich warnt er aber auch davor, solche zugeschriebenen mentalen Qualitäten gleichzusetzen mit menschlichen Eigenschaften: Inzwischen wissen wir, daß der letzte Satz nicht notwendigerweise stimmen muß. Denn es gibt erste Beispiele für sich selbst organisierende und optimierende Hardware (Harvey und Thompson, 1997), deren Funktionsweisen ihrem menschlichen Designer nicht bekannt sind. Und die aktuellen Ansätze beim Design emotionaler Computer gehen weit über die Modellbildung hinaus und versuchen tatsächlich, Computer zu entwickeln, deren mentale Qualitäten nicht vom Designer vorgegeben sind, sondern selbständig entstehen sollen. Obwohl natürlich immer noch gewisse Grundannahmen der Designer in solche Vorhaben einfließen, ist diese Vorgehensweise doch fundamental verschieden von der klassischen Modellbildung, die bislang in der Kognitionswissenschaft zu beobachten ist. Die Frage ist allerdings, ob die Vorgänge in einem Computer, der aufgrund dieser Herangehensweise tatsächlich eines Tages vielleicht mentale Qualitäten entwickelt, identisch sind mit den Prozessen im menschlichen Körper und Gehirn. Kritiker solcher Ansätze führen denn auch gern ins Feld, daß Emotionen nicht vergleichbar seien mit rein kognitiven Prozessen, da sie von einer Reihe von zusätzlichen Faktoren beeinflußt seien (z.B. Hormone) und zudem ein Subjekt erforderten. Die Modellierung dieser Prozesse sei in einem Computer, einem rein kognitiven Gebilde, daher nicht möglich, vor allem, weil einer Maschine das subjektive Element fehle, eine Emotion, deren wesentlicher Bestandteil ein Gefühl sei, auch zu empfinden. Auf dieses Argument gibt es mehrere Antworten. Zum einen ist es nicht prinzipiell ausgeschlossen, daß ein Computer ein subjektives Empfinden haben kann. Computer sind ein evolutionsgeschichtlich extrem junges Phänomen und haben in dieser kurzen Zeit eine erstaunliche Entwicklung durchlaufen. Es gibt heute Rechner mit hunderten von parallel arbeitenden Prozessoren; weltweit wird an der Entwicklung von weitaus leistungsfähigeren Bio- und Quantencomputern gearbeitet. Von daher ist es nur noch eine Frage der Zeit, bis ein Computer auch hardwaremäßig eine ähnliche Komplexität aufweisen kann wie das menschliche Gehirn. Mit der wachsenden Komplexität wächst zugleich auch die Wahrscheinlichkeit, daß sich ein solches System auf einer höheren Ebene selbst organisieren wird. Was heute als "Monitor-Instanz" noch mühsam einprogrammiert wird, kann sich in absehbarer Zeit durchaus zu etwas entwickeln, was man als das "Ich" eines Computers bezeichnen könnte. Zum zweiten wäre es anthropozentrisch, einem intelligenten System, das nicht über einen menschlichen Hormonhaushalt verfügt, deshalb die Fähigkeit zur Emotion abzusprechen. In einem Computer gehen zahlreiche "physiologische" Prozesse vor, die er, mit einer entsprechenden Propriozeption ausgestattet, durchaus als "Körpergefühl" wahrnehmen könnte. Wenn er zudem ein lernfähiger und mobiler Computer ist, wäre es durchaus denkbar, daß er auf bestimmte Situationen mit einer spürbaren Veränderung solcher Prozesse reagiert, die für ihn denselben Stellenwert haben wie physiologische Veränderungen in unserem Körper. Ein emotionaler Computer muß Emotionen nicht zwangsläufig wie ein Mensch empfinden, ebensowenig wie ein Besucher von Zeta Epsilon. Dennoch können seine Emotionen für ihn so echt sein wie für uns - und sein Denken und Handeln ebenso beeinflussen wie bei uns. Wir können also nicht a priori davon ausgehen, daß "Emotionen", die sich in einem Computer entwickeln, vergleichbar sind mit menschlichen Emotionen. Es ist aber durchaus plausibel, daß die Emotionen eines Computers für ihn dieselben Funktionen erfüllen wie bei uns Menschen. Wenn das so ist, wäre die Computermodellierung von Emotionen nicht nur ein Schritt, mehr über die Bedeutung von Emotionen für uns zu erfahren, sondern zugleich auch die Grundlage zu schaffen für eine Zeit, in der intelligente Systeme unterschiedlicher "Bauart" miteinander kooperieren werden. Vor Zurück Inhalt |