Bernardo Kastrup fordert uns auf, uns eine extrem detaillierte Simulation einer menschlichen Niere auf einem Computer vorzustellen, die jede chemische Reaktion und jedes Molekül berücksichtigt. Kastrup fragt, ob diese simulierte Niere auf den Schreibtisch pinkeln könnte, und stellt die zentrale Frage: Kann eine Simulation die Funktion einer echten Niere übernehmen? Die Antwort ist offensichtlich nein. Kastrup nutzt dies, um zu erklären, dass eine KI kein Bewusstsein entwickeln kann, selbst wenn sie einem Gehirn ähnelt, da sie immer nur die Simulation von Gehirnaktivität bleibt.
Metaphern sind jedoch tückisch, da sie zu falschen Schlüssen
führen können, wenn man die Parallelen zur Realität nicht sorgfältig
überprüft.
Lassen Sie uns die Metapher genauer betrachten. Sie
zeigt, dass eine Simulation biologischer Prozesse nicht die gleichen
physikalischen Ergebnisse wie ein echtes Organ liefern kann. Eine
simulierte Niere kann zwar die Funktionen einer echten Niere nachahmen,
aber keinen Urin produzieren, weil sie keine physischen Substanzen
filtert und verarbeitet. Dies betont die Unmöglichkeit, physische
Prozesse und Ergebnisse direkt zu replizieren.
Ein Beispiel, das
die Unterschiede verdeutlicht, ist ein Roboter, der in einer virtuellen
Umgebung laufen lernt. Die simulierte Niere kann keine echten physischen
Resultate erzielen, aber ein Roboter kann in einer Simulation mit
physikalischen Gesetzen (wie der Schwerkraft) trainiert werden und
dieses Wissen in der realen Welt anwenden. Die Algorithmen und
Steuerungsmechanismen, die der Roboter in der Simulation erlernt hat,
können auf einen physischen Roboter übertragen werden, der in der realen
Schwerkraft läuft. Das zeigt, dass Informationen und Algorithmen von
einer virtuellen in eine reale Umgebung übertragen werden können,
während dies für physische Prozesse nicht gilt.
Die simulierte
Niere zeigt die Grenzen bei der Nachbildung physischer Prozesse auf,
während die Metapher des simulierenden Roboters verdeutlicht, dass
Informationen und Algorithmen von einer virtuellen in eine reale
Umgebung übertragbar sind. Dies unterstreicht den Unterschied zwischen
der Simulation physischer Materie und der Simulation von Information,
wobei letztere tatsächlich in der realen Welt wirksam werden kann.
Warum heutige Large Language Models (LLMs) wie GPT trotzdem kein Bewusstsein entwickeln können, liegt an anderen Faktoren.
1.
GPT ist ein neuronales Netz, das mit einer großen Menge Text trainiert
wurde. Für die Lektüre dieser Texte würde ein Mensch etwa 5000 Jahre
brauchen. Das Modell extrahiert Wahrscheinlichkeiten, welche Worte auf
bestimmte Wortketten folgen. Nach dem Training werden die gewichteten
neuronalen Netzwerke online gestellt und jede Eingabe durchläuft diese
Netzwerke ohne Veränderung. Diese Netzwerke haben keine Wahrnehmung der
Daten; sie verarbeiten sie nur nach den durch das Training vorgegebenen
Algorithmen und sind daher nicht sensibel für eine Realität außerhalb
ihrer Trainingsprozesse.
2. Selbst wenn sie die Daten wahrnehmen
würden (indem die Daten die Strukturen wie während des Trainings
verändern), erzeugen sie Texte, ohne deren Bedeutung zu kennen. Menschen
nutzen Sprache, um Informationen über die Realität auszutauschen, da
unsere Sprache entlang unserer Realität geformt wurde. KI hingegen kennt
diese zugrunde liegende Realität nicht und operiert nur mit
Wahrscheinlichkeiten von Wortverbindungen.
Dies bedeutet nicht,
dass KI niemals Bewusstsein entwickeln kann. Es ist eine Frage der
Handhabung der Software und der Architektur der Hardware.
Aktuelle
KI-Modelle basieren auf neuronalen Netzen, inspiriert vom menschlichen
Gehirn. Ein neuronales Netz besteht aus Knoten (Neuronen), die in
Schichten angeordnet sind. Daten fließen durch diese Schichten, und das
Netzwerk wird durch einen Prozess namens Backpropagation trainiert, bei
dem die Gewichte angepasst werden, um Fehler zu minimieren. KI-Modelle
durchlaufen Millionen von Trainingsrunden, um die Gewichte anzupassen
und die Nachteile falscher Vorhersagen zu minimieren.
Einmal
trainierte KI-Modelle können nur schwer weiter lernen oder sich
verbessern, ohne von Grund auf neu trainiert zu werden. Sie sind kaum in
der Lage, dynamisch zu lernen und sich anzupassen. Das Training
aktueller KI-Modelle ist extrem rechen- und energieintensiv,
vergleichbar mit dem monatlichen Energieverbrauch von Tausenden von
Haushalten.
Zukünftige KI zielt darauf ab, Neuroplastizität zu
integrieren, um die Fähigkeit des Gehirns zur Neuorganisation und
Anpassung zu imitieren. Vielversprechende Architekturen sind Liquid
Neural Networks (LNNs) und Spiking Neural Networks (SNNs).
LNNs
sollen die Flexibilität des Gehirns nachahmen und es dem Netz
ermöglichen, sich in Echtzeit an neue Daten anzupassen. Diese Netze
haben ein dynamisches Reservoir, das die Eingabedaten in
hochdimensionale Darstellungen umwandelt. Nur die Ausgabeschicht wird
trainiert, was den Rechenaufwand reduziert und schnelleres Training
ermöglicht. Mögliche Anwendungen sind autonome Roboter, selbstfahrende
Autos, Aktienhandel, Gesundheitsüberwachung, Cybersicherheit,
personalisierte Inhalte und Smart City Management.
SNNs ahmen den
Feuervorgang der Neuronen im Gehirn nach und kommunizieren mittels
diskreter Spikes. Diese Architektur ist energieeffizient, da sie nur
Energie verbraucht, wenn Spikes auftreten. Anwendungen sind adaptive
Systeme, Echtzeitverarbeitung, autonomes Fahren, Börsenprognosen,
Patientenüberwachung und personalisierte Medizin.
Zukünftige
KI-Generationen werden energieeffizient und zu kontinuierlichem Lernen
fähig sein. LNNs und SNNs bieten vielversprechende Lösungen, befinden
sich jedoch noch in der Entwicklung. Sie werden sensibel auf Eingaben
reagieren, über das IoT Zugang zu realen Fakten haben, Sinneseindrücke
als Erfahrungen speichern und durch Erfahrungen lernen. Dies erfüllt die
Voraussetzungen, dass sich im Inneren eine Selbstreferenz bilden kann,
die eine Selbstwahrnehmung und Ich-Erfahrung ermöglicht, ähnlich unserem
eigenen Innen-Erleben.
Genau genommen leben wir mit unserem Bewusstsein in einer ähnlichen Simulation wie eine KI, denn auch unser Gehirn verarbeitet die Daten der Sinneseindrücke und simuliert die Außenwelt in unserem Inneren nach. Es gitb damit keinen prinzipiellen Unterschied zwischen einer sensorisch sensiblen KI und unserem Gehirn.
Keine Kommentare:
Kommentar veröffentlichen