Manfred Spitzer beschreibt die grundlegenden Mechanismen der Informationsverarbeitung im Gehirn und hebt hervor, warum es sich grundlegend von einem klassischen Computer unterscheidet.
Neuronen und Synapsen: Die Grundbausteine
Das Gehirn besteht aus Neuronen, hochspezialisierten Zellen, die elektrisch erregbar sind. Sie erzeugen Impulse, die über Ausläufer, die sogenannten Axone, an andere Nervenzellen weitergeleitet werden. Die Verbindungspunkte zwischen diesen Zellen heißen Synapsen. Dort werden chemische Botenstoffe - Neurotransmitter - ausgeschüttet, die das Signal an die nächste Nervenzelle übertragen.
Das Geheimnis des Lernens
Synapsen verändern ihre Stärke durch Benutzung. Wenn zwei Neuronen häufig gleichzeitig aktiv sind, wird die Verbindung verstärkt - das berühmte Prinzip: "neurons that fire together wire together". So entstehen stabile Muster, die es ermöglichen, Reize wiederzuerkennen. Ein einzelnes Neuron kann dadurch zum Beispiel für das Erkennen eines bestimmten Gesichts zuständig sein - etwa ein "Abraham-Lincoln-Neuron".
Parallelverarbeitung statt serieller Abarbeitung
Obwohl einzelne Nervenzellen sehr langsam arbeiten - nur etwa 200 Signale pro Sekunde -, ist das Gehirn insgesamt extrem leistungsfähig. Der Grund liegt in der Parallelverarbeitung : Milliarden Neuronen arbeiten gleichzeitig und verarbeiten Informationen parallel. So kann das Gehirn Gesichter, Buchstaben oder andere Muster innerhalb von Millisekunden erkennen, während ein Computer nacheinander Schritt für Schritt arbeitet.
Module: Spezialisierte Gehirnbereiche
Das Gehirn besteht aus hochspezialisierten Bereichen. Ein klassisches Beispiel ist das Sehzentrum im Hinterkopf: Wird es beschädigt, kann ein Mensch trotz funktionierender Augen nichts mehr sehen. Ähnliches gilt für die Sprache:
- Broca-Areal: Zuständig für die Sprachproduktion
- Wernicke-Areal: Zuständig für das Sprachverständnis
- Fusiformes Gesichtsareal: Spezialisiert auf die Erkennung von Gesichtern