Von Menschen und Maschinen

Selten hat ein Forschungszweig der Wissenschaft so zwischen enthusiastischer Anerkennung seiner Befürworter und Anhänger einerseits und spöttisch-beißender, total ablehnender Kritik der Gegner andererseits gestanden wie die ‘Künstliche Intelligenz' (KI), US-amerikanisch: ‘Artificial Intelligence’. Dabei ist die Frage nach der bedingungslosen Schärfe der Kritik leicht zu beantworten. Bislang hatte jede Wissenschaftsrichtung die Möglichkeiten des Menschen erweitert, ihm ideelle und technische Werkzeuge an die Hand gegeben, mit der er die Welt besser erkennen und beherrschen konnte, nun aber schien mit der KI die Zeit angebrochen, in welcher das höchste Gut des Menschen, das sich ja in der Wissenschaft selbst verkörpert, nämlich der Intellekt, seine Einzigartigkeit und Spitzenstellung im Reich des Lebendigen verlöre, eben durch den Einsatz denkender Maschinen mitsamt ihren Programmen. Kurz: Der Mensch würde von wirklich intelligenten Maschinen überflügelt, die ihn dann, wie er es zuvor mit den restlichen Lebewesen auf der Erde getan hatte, auf eine tiefere Ebene evolutionärer Entwicklung zurückstuften.

Verständlich, daß in Kritik und Widerspruch tiefe Emotionen mitschwingen, schließlich geht es nicht um irgendeine neue technische Weiterentwicklung, sondern die Aussagen der KI betreffen jeden Kritiker persönlich, insbesondere dann, wenn er sich in seinem Menschsein an den bestehenden Maschinen oder Programmen messen lassen soll. Schon ein Taschenrechner ist ihm, bezogen auf die Rechenschnelligkeit, überlegen, aber kann man es einem Kritiker verübeln, jeden Vergleich mit einer einfachen Rechenmaschine als absurd abzutun? Und noch eine Demütigung muß der Kritiker ertragen: Sein freier Wille wird ihm abgesprochen. Die Entwicklung des Geistes über den Menschen hinaus zeigt überaus deutlich, so argumentieren die Befürworter der KI, daß der scheinbar freie Wille nur ein Hirngespinst des sich überhöhenden Menschenbewußtseins ist, in Wahrheit sind alle Abläufe in der Natur determiniert, nach Regeln, die man in den Naturgesetzen und der mathematischen Logik findet, auch das Chaos besitzt Systemeigenschaften. Die angeblich freien Entscheidungen erfolgen immer auf der Basis eines festgelegten Regelsatzes.

Worin nun aber liegt die Faszination der KI begründet? Nur im ersten Moment gut verborgen hinter einer oberflächlichen Kaltschnäuzigkeit, mit der KI-Apologeten ihre Forschungsergebnisse bis zum Zerreißen überstrapazieren, wenn sie Denken auf Gehirn und die Gehimfunktionen auf einen Satz logischer Regeln reduzieren. Denn, steckt dahinter nicht das Verlangen derjenigen, die diese Regeln kennen und sie anwenden, auch das zukünftige Denken beeinflussen zu wollen? Ist hier nicht der uralte Wunschtraum nach einer vernunftgeregelten Welt zu entdecken und auch zu verstehen? Handelt man also durchaus im Einklang mit der Evolution, die ja im Sinne eines Fortschreitens zum Vollkommenen den Menschen und mit ihm eine höhere Form des Denkens und der Intelligenz hervorgebracht hat und nun über diese, uns allen bewußte, mangelhafte Ausstattung hinaus, zu einer noch höheren Stufe führen wird, zu einer emotionsfreien, kristallinen Maschinenintelligenz?

Doch der Reihe nach. Jede, auch die scheinbar originär in einem Geistesblitz geborene Idee oder Tat (ebenso als spontan, emergent, fulgurativ oder kreativ bezeichnet) bezieht ihre Grundlagen aus anderen vorausgegangenen Ideen oder Taten. Eine eindringliche Metapher stammt von Arthur Koestler, der eine Neuschöpfung mit “reculer pour mieux sauter” (zurückweichen, um besser springen zu können) umschreibt, d.h., um über ein vorliegendes Problem hinaus Neuland zu erreichen, muß man auf Bewährtes zurückgreifen, quasi Anlauf nehmen. Die KI hat Anlauf genommen aus der materialistischen Position im Meinungskampf des jahrhundertealten sogenannten ‘Leib-Seele-Konflikts’. Hierin versammeln sich auf dem einen Pol die Verteidiger der idealistischen Position, die letztendlich an das Primat des Geistes glauben, an eine immaterielle Kraft, die allen biologischen Prozessen zugrunde liegt, während die Anhänger des anderen Extrems in letzter Instanz alles Geschehen auf die Gesetze der Materie zurückführen. Von einem ihrer frühen Vertreter, dem französischen Philosophen Julien Offray de Lamettrie (1709-1751), wurde ein für diese Anschauung bis heute gültiges Bild geprägt: “L’homme machine” (der Mensch als Maschine).

Mechanistische Sprache

Was lag näher, als den umgekehrten Weg zu gehen, eben eine menschenähnliche Maschine zu bauen? Versuche gab und gibt es genug, man denke nur an die beweglichen Figuren von Vaucanson aus Grenoble, den Descartschen Automaten, den ‘mechanischen Schachspieler’ des Baron von Kempelen, den ‘künstlichen Menschen’ von Frederic Ireland und schließlich die ‘intelligenten’ Maschinen der KI. Gar nicht lange ist es her, daß die ersten Modelle der KI auf einfachen kybernetischen Regelkreisen beruhten. Man übersetzte Begriffe aus der Philosophie oder Psychologie direkt in die Sprache der Technik. Bewußtsein wurde so zum ‘Adaptiven Monitoring’, Denken zu ‘Rechnen’, Reflexion zu ‘Rückkopplung’, Begreifen zu ‘Sortieren’ oder ‘Adressieren’ usw. Ein anschauliches Beispiel liefert Salomon Klaczko-Ryndziun, indem er einen Text aus Kants ‘‘Kritik der reinen Vernunft” in die Sprache der Datenverarbeitung übersetzt:

Kant: “Ohne eine zugrunde liegende Anschauung kann die Kategorie allein mir keinen Begriff von einem Gegenstände verschaffen, denn nur durch Anschauung wird der Gegenstand gegeben, der hernach der Kategorie gemäß gedacht wird”

Klaczko-Ryndziun: “Ohne eine zugrunde liegende Eingangsinformation können die Algorithmen allein mir keine Blockadresse zum Klassifizieren des zugehörigen Gegenstandes verschaffen; denn nur durch die Eingangsinformation wird der Gegenstand beschrieben, der hernach dem Algorithmus gemäß beschrieben wird.” [Klaczko-Ryndziun, S. 13 f.]

Diese Art, Erkenntnisprobleme mit einer angeblich vom Nebel des Idealismus gereinigten, materialistisch klaren Sprache zu beschreiben und mathematisch-technisch zu lösen, durchzieht die gesamte Entwicklung der KI, von ihren geschichtlichen Vorläufern bis zu den gegenwärtigen Varianten. Schon George Boole erhob seine algebraische Logik zu “Gesetzen des Denkens” (“Laws of Thought” lautet der Titel seines mathematisch-logischen Hauptwerkes); Wilhelm Gottfried Leibniz wollte die Verständnisschwierigkeiten zwischen Wissenschaftlern durch die Sprache der Mathematik lösen; im Einklang mit dem Logiker Alonzo Church hielt Alan M. Turing alles, was berechenbar ist, auch für berechenbar mit Hilfe seiner nach ihm benannten Maschine, dem Urmodell aller Computer; Douglas R. Hofstadter wandelt halb im Scherz, halb im Emst das Descartsche Credo “Cogito, ergo sum” (Ich denke, also bin ich) um in “Ich denke, also sum(miere) ich” [Hofstadter, S. 363]; und der Computerwissenschaftler Martin H. Schulz fordert gar die Abschaffung der experimentellen Wissenschaften zugunsten von Computersimulationen.

Alles-oder-Nichts-Prinzip und Von-Neumann-Rechner

Denken als Folge von elementaren Summierungen, neurologisch und mathematisch beschreibbar, diese Vorstellung hat die KI bis in die letzten Jahre hinein geprägt. Ausgangspunkt waren die Forschungen von Warren S. McCulloch und Walter H. Pitts. In ihrem Neuronenmodell wird Information in einem Alles-Oder-Nichts-Prinzip weitergeleitet, entweder eine Nervenzelle feuert oder sie schweigt. Neben Nervenerregungen entdeckte man auch Hemmprozesse, beide zusammen, summiert zu unzähligen Nervenimpulsen, hieß es, bilden jede Information ab, auch hochkomplexe. Wenn man also die Grundbedingungen neuraler Informationsübertragung erkannt hat, dann lassen sich Gehirnfunktionen, damit Denkvorgänge und Bewußtseinsprozesse etc. beschreiben und in die Sprache einer Maschine übersetzen. Mit McCullochs Worten:

“Wie von Neumann zeigte, könnten wir eine Maschine bauen, die mit Informationen alles tun wird, was Gehirne mit Informationen tun: Probleme lösen, Gefühle empfinden, Halluzinationen beim Fehlen sinnlicher Wahrnehmungen entwickeln, was sie nur wollen; vorausgesetzt, wir können in einer endlichen und eindeutigen Form das beschreiben, was (das Gehirn) unserer Meinung nach tut.” [Klaczko-Ryndziun, S. 276]

Endlich und eindeutig muß die Beschreibung sein, und, was implizit mitschwingt, sie muß in sich einen Algorithmus bergen, einen Ablaufplan, der das Funktionswerk der zu konstruierenden Maschine der Vorgabe entsprechend steuern kann. Nur, was in aller Welt ist eindeutig und endlich? Nicht einmal die Grundlagen der Mathematik, der Veste aller Wissenschaften, sind prinzipiell endlich erklärbar (wie uns der Mathematiker Kurt Gödel eindrücklich gezeigt hat), allenfalls axiomatisch festzulegen und zu begrenzen, und das bislang Beständigste, das Ganze, unser Universum entpuppt sich schon als nebensächliche Abteilung innerhalb eines unübersehbaren Polyversums.

Bis zum Aufkommen der Parallelrechner beruhten informationsverarbeitende Maschinen, von einigen Ausnahmen abgesehen, auf dem Von-Neumann-Prinzip (benannt nach dem Mathematiker John von Neumann). Eine solche Rechnerarchitektur setzt logisch und räumlich zerlegbare Funktionseinheiten wie einen Prozessor, Speicher, Ein- und Ausgabeeinheiten etc. voraus. Erst ein Programm, bestehend aus einer Reihe aufeinanderfolgender Befehle, abgelegt in Speicherzellen, macht die Maschine arbeitsfähig. Der Prozessor, die Zentraleinheit des Rechners, hat die Anweisungen entsprechend dem im Programm festgelegten Ablaufplan Schritt für Schritt auszuführen.

Natürlich leistet eine derartig konstruierte Maschine Rechenarbeit, die bis dato nur dem menschlichen Intellekt zugetraut wurde, aber daraus zu schließen, unser Gehirn müsse ähnlich funktionieren, das grenzt entweder an Einfalt oder an gewollte Ignoranz. Wo findet man im Gehirn die scharfe Trennung zwischen Prozessor und Speicher, wo überhaupt Speicherzellen? Das ganze Gehirn, und das wissen wir aus zahlreichen Untersuchungen, ist Gedächtnis. Auf keiner Stufe stimmt der Vergleich zwischen Maschine und Gehirn, weder bei den Basisstoffen (Silizium versus Kohlenstoff) noch bei den Arbeitseinheiten noch bei der Programmlogik insgesamt. Warum sollten im Gehirn Informationen binär kodiert werden, nur weil man ein Alles-Oder-Nichts-Prinzip postuliert hatte? Ein heute längst überholtes Postulat: Nervenimpulse pflanzen sich nicht allein digital fort, allerorten findet man fließende Übergänge zwischen diskret und stetig. Nervennetze arbeiten sowohl sequentiell als auch parallel, sowohl digital als auch analog, sowohl zeitlich als auch räumlich, sowohl elektronisch als auch chemisch.

Biocomputer

Wie gerufen zeichnet sich am Forschungshorizont schemenhaft das Gespenst einer Verschmelzung künstlicher Schaltung mit Biomaterie ab. Silizium, auf der Erde ausreichend vorhanden, läßt sich 1. in solch hoher Präzision herstellen, daß nicht mehr als ein oder zwei fremde Atome in einer Milliarde Siliziumatomen zu finden sind und 2. in ein beinahe ideales Kristallgitter rastern und erlaubt damit, eine riesige Zahl von Funktionselementen auf kleinstem Raum zu speichern.

Ein VLSI-Chip (Very Large Scale Integration) vereint auf einer Fläche von kaum einem Quadratzentimeter eine Million Schaltelemente. Beim Fortdauern der Geschwindigkeit zunehmender Miniaturisierung jedoch würden in absehbarer Zeit physikalische Grenzen erreicht; um sie zu überschreiten, wäre ein immenser technischer Aufwand nötig, der in keinem Verhältnis zum Ergebnis stehen würde. Das Interesse zukünftiger Forschung könnte sich deshalb dem Gebiet der Bio-Elektronik zuwenden. Geeignete Biomoleküle erreichten bei möglicher Realisierung durch tausendfach kleinere Strukturen und Ausnutzung von dreidimensionaler Anordnung der Moleküle eine Leistung von Millionen oder mehr Chips gleicher Größe. Der englische Begriff ‘Molecular Electronic Devices’ faßt präziser, um was es geht: nicht um die Produktion lebender (Bio-) Chips, sondern um die Nutzung organischen Materials als binäre Schalter bzw. Speicherelemente.

Wir könnten eine Maschine bauen, die alles tun wird, was Gehirne mit Informationen tun: Probleme lösen, Gefühle empfinden, Halluzinationen beim Fehlen sinnlicher Wahrnehmungen entwickeln, was sie nur wollen; vorausgesetzt, wir können eindeutig beschreiben, was das Gehirn tut.

Bestimmte organische Moleküle, Eiweißketten oder Enzyme, können zwei elektrisch unterscheidbare Zustände annehmen, somit einen binären Wert abbilden. Aufgrund dessen sehen, noch phantastische, tief in die Zukunft gerichtete Ideen vor, Proteine als Schaltelemente auf binärer Basis zu konstruieren und als Bauplan eines Biocomputers in die DNS (Desoxyribonukleinsäure, der stoffliche Träger der Erbinformation) von Bakterien einzubauen. Ein solch geschaffener Kern eines Biocomputers könnte sich nach den eingepflanzten Plänen selbst konstruieren. Den technischen Schwierigkeiten zur Realisierung dieses Unternehmens gesellen sich auch zukünftig noch weitgehende Unkenntnis über die semantischen (die Bedeutung betreffenden) Funktionen des genetischen Kodes zu, abgesehen von den ethisch-moralischen Fragen, die an erster Stelle beantwortet werden müssen.

Anwendungsreif ist die Forschung im Bereich der Biosensoren. Aus chemischen Reaktionen von Enzymen (sie steuern im Organismus den Stoffwechsel) oder Mikroben zieht man elektrische Potentiale, verstärkt und digitalisiert sie. Das Resultat sind hochfeine Meßgeräte, die in der Pharmaindustrie als Penicillin-Sensoren eingesetzt werden oder in der Fermentation und bei der Nahrungsmittelherstellung Gärungsprozesse überwachen. [s. Ebeling, S. 144 f.]

Konnektionisten

Nicht selten gehören ‘Abtrünnige’ zu den schärfsten Kritikern ihrer alten Glaubenslehre. Auch gegenwärtig kommt massive Kritik an der klassischen KI von Wissenschaftlern, die sich von ihr ab- und den sogenannten ‘Neuro-Computern’ zugewandt haben. Konnte in der Frühzeit der KI einer ihrer Begründer, John McCarthy, bereits einem Einfachst-Automaten, wie zum Beispiel einem Thermostaten, Überzeugungen zubilligen oder noch zu Beginn der 80er Jahre Geoff Simons vom digitalen, bedingte Sprünge ausführenden Computer als einem Lebewesen mit selbständigen Willensentscheidungen sprechen, so hört man heute aus den Reihen der KI-Avantgarde (‘Konnektionisten’ wie Daniel W. Hillis, Terrence J. Sejnowsky, James L. McClelland u. a.), natürlich funktioniere ein Gehirn nicht wie ein sequentieller Computer, nahezu alles an den herkömmlichen Vergleichen sei falsch.

Man müsse endlich der Natur folgen, heißt es, ihre Erfolgsprinzipien übernehmen, und jene seien nun mal durch parallel laufende Prozesse gekennzeichnet. Vergleichen wir: Auch der leistungsfähigste, auf sequentieller Basis gebaute Superrechner braucht noch mehrere Jahrzehnte, wenn nicht gar ein ganzes Jahrhundert, um die normale Funktion der menschlichen Retina nachzuahmen, die diese in einer einzigen Sekunde ausführt. Zwangsläufig also müsse der Parallel Verarbeitung die Zukunft gehören. Erste Schritte sind bereits getan, angefangen von Vektorrechnern über Transputersysteme bis hin zu Daniel Hillis’ ‘Connection Machine’, einer Zusammenschaltung von rund 65.000 Prozessoren, jeder mit seinem eigenen Speicher ausgerüstet.

Connection Machine

Was ist neu an den neuen Konzepten? Zumindest die Hardware-Ausstattung. Nehmen wir als Beispiel die Connection Machine. Sie besteht aus acht miteinander verbundenen, würfelförmigen Kästen mit einer Gesamtlänge von 1,5 Metern. Jeder Würfel enthält 16 vertikal angeordnete Karten, auf denen sich 32 Chips befinden. Jeder Chip wird auf einer Seite des Würfels durch einen Lichtpunkt gekennzeichnet, über den sein Status abzulesen ist. In einem Chip sind 16 Prozessoren eingearbeitet mit je einer kleinen Speichereinheit von 512 Bytes. Insgesamt bilden also 65.536 Prozessoren die Basis der Connection Machine. Alle Prozessoren miteinander zu verknüpfen, ist praktisch unmöglich. Nach dem Modell eines 12-dimensionalen Würfels mit 212 (4096) Ecken hat man die Einheiten so zusammengeschaltet, daß in höchstens 12 Schritten eine Botschaft (zwischen zwei beliebigen Ecken) ihr Ziel erreichen kann. Sollte eine Route gerade belegt sein, hält der Rechner ohne Verzögerung eine Ausweichstrecke parat. Die Connection Machine zählt zu den schnellsten Rechnern der Welt, mehrere Milliarden Instruktionen lassen sich in ihr pro Sekunde bearbeiten.

Zur zukunftsweisenden Hardware gehört eine ebensolche Software. Im konnektionistischen Zweig der KI glaubt man seit längerem nicht mehr an die alleinige Erkenntniskraft algorithmischer Verfahren, ihrer Grenzen wurde man allenthalben gewahr. Zu neuen Ufern, in noch unerschlossene Bereiche künstlicher Intelligenz will man nun mit Hilfe von der Natur nachempfundenen, sich selbst organisierenden Systemen gelangen. Fieberhaft wird in der Echtzeit-Bildverarbeitung und der Spracherkennung mit den neuen Modellen gearbeitet.

Assoziationen

Assoziation heißt das Zauberwort. Spätestens seit den Experimenten des Neurologen Karl Pribram, der zeigen konnte, daß Gedächtnisinhalte aus den verschiedensten Teilen des Gehirns reproduzierbar sind, weiß man, daß Informationen im Gehirn nicht in einzelnen Symbolen abgespeichert werden. Das Symbol ‘Großmutter’ wird eben nicht in irgendeiner Nervenzelle abgelagert, aus der man es gezielt jederzeit zurückholen kann; im Gegenteil, tausendfache multimedial miteinander verknüpfte Eindrücke, Bilder, Gefühle, Worte in einer sich ständig variierenden Umgebung formen den Eindruck eines Symbols. Und schon wenige Anteile dieses Assoziationskomplexes können lange Erinnerungssequenzen abrufen. Ein jeder kennt die Erfahrung, wenn ein längst vergessen geglaubter Duft nach vielen Jahren in einer gänzlich anderen Situation als die erinnerte, unversehens uralte Bilder aus den Tiefen des Gedächtnisses hervorholt.

Warum sollten dann nicht per Software erzeugte assoziative Felder, in denen man Daten so miteinander verknüpft, daß bei der Suche bereits Teilinformationen zum Gesamtbild führen, ähnliche Funktion erfüllen wie das natürliche Gedächtnis? 1st doch der Grad des Unterschiedes vermeintlich nur ein quantitativer, eine Diskrepanz, die mit fortschreitender Verbesserung der Rechenleistung und Einbeziehung immer zahlreicherer Computer in das Rechennetzwerk irgendwann aufgehoben werden kann und die sich danach sogar zugunsten der Maschinen verschieben wird. Die mathematischen Formeln jedenfalls kennt man bereits.

Das erinnert an die Raumfahrt. Seit Jahrzehnten schon füllen ab und an schön gezeichnete Bilder von riesigen Städten im Weltraum die Magazinseiten, werden bemannte Raumfahrtprojekte vorgestellt, die tief hinein in unbekannte Femen des Alls führen sollen, doch in der Realität hat es nicht weiter als bis zum Mond gereicht. Und bei der KI? David Levy, selbst ein exzellenter Schachcomputerentwickler, hat seine berühmte Wette mangels Gegner eingestellt, nämlich mehr als 100.000 Dollar demjenigen zu zahlen, dessen Schachcomputer den amtierenden Weltmeister schlägt. Hatte man nicht in der Anfangszeit der KI prophezeit, bald unschlagbare Schachautomaten zu bauen, sprachverständige Maschinen zu konstruieren, mit denen automatische Sprachübersetzung möglich würde, neue Gesetze der Mathematik durch logikgestützte Programme zu entdecken, die Psychologie auf die Theorie von Computerprogrammen zurückzuführen und die internationale Politik mittels heuristischer Verfahren zu regeln?

Erkenntnis

Verfrühte Euphorie, sagt man heute und betont im gleichen Atemzug, daß mit dem Einsatz sogenannter Neuro-Computer eine umwälzende Entwicklung zur Erklärung des Gehirns einsetzen werde. "Der Computer erkennt mein Gesicht”, begeistert sich der Synergetiker Hermann Haken [bild der Wissenschaft, 1988/8, Titelseite]. Natürlich erkennt der Computer kein Gesicht, vielmehr rastert ein Programm eine Photovorlage ab und kann diese aufgrund von Teilstücken reproduzieren. Ein Computerprogramm erkennt nichts, genauso wenig wie ein Schachprogramm etwas vom Schachspiel versteht oder die Regeln kennt. Der Computer versteht das, schreibt der Linguistiker John Searle, “was das Auto und die Rechenmaschine verstehen, nämlich haargenau nichts. Das Verstehen des Computers ist nicht bloß bruchstückhaft oder unvollständig; es ist gleich null." [Hofstadter u. Dennett, S. 342]. Im gleichen Sinne kann die Frage, ob die starr verschalteten Kleinstrechner von Hillis mit einer in den Anfängen steckenden Software ein angemessenes Modell des Gehirns und des neuralen Geschehens - einer “dynamischen Komplexität, die unermeßlich größer ist als irgendetwas, das jemals im Universum entdeckt worden oder in der Computertechnologie geschaffen worden ist" [Sir John C. Eccles, in: Popper und Eccles, S. 301] - liefern, nach allem bisherigen Wissen über das Gehirn mit Entschiedenheit verneint werden.

Ohne eine zugrunde liegende Anschauung (Eingangsinformation) kann die Kategorie (Algorithmus) allein °mir keinen Begriff (Blockadresse zum Klassifizieren) von einem Gegenstände verschaffen, denn nur durch die Anschauung (Eingangsinformation) wird der Gegenstand gegeben, der hernach der Kategorie (dem Algorithmus) gemäß gedacht wird.

Ein winziges im Vergleich zur Komplexität des Gehirns geradezu unbedeutendes Virus namens AIDS bereitet Spitzenforschem schon seit Jahren bislang unüberwindbare Schwierigkeiten, aber die Funktionen des Gehirns wird man bald im Griff haben. Gemessen an ihren Ansprüchen und dem Aufwand, mit dem geforscht wurde, hat die KI seit ihrem Bestehen so gut wie nichts erreicht. Die wenigen brauchbaren Expertensysteme oder die Maschinenübersetzung, die allesamt der überprüfenden Hand des Menschen bedürfen, hätte man sicher auch ohne KI programmieren können. Wie lange also wollen wir noch auf die künstliche Intelligenz warten?

Dr.Adolf Ebeling

Literatur:

Ebeling, A., Gehirn, Sprache und Computer, Heise, 1988.

Hofstadter, D. R., Gödel, Escher, Bach, Klett-Cotta, 1985.

Hofstadter, D. R.; Dennett, D. C., Einsicht ins Ich, Klett-Cotta, 1986.

Klaczko-Ryndziun, S., Systemanalyse der Selbstreflexion, Birkhäuser, 1975.

Popper, K. R.; Eccles, J. C., Das Ich und sein Gehirn, Piper, 1985.



Aus: ST-Computer 02 / 1989, Seite 52

Links

Copyright-Bestimmungen: siehe Über diese Seite