Werkzeugmodul: Chomskys Universalgrammatik
In der ersten Hälfte des 20. Jahrhunderts haben Linguisten, die über die menschliche Fähigkeit zu sprechen theoretisierten, dies aus der damals vorherrschenden behavioristischen Perspektive getan. Sie vertraten daher die Ansicht, dass der Spracherwerb, wie jede andere Art des Lernens auch, durch eine Abfolge von Versuchen, Fehlern und Belohnungen für den Erfolg erklärt werden kann. Mit anderen Worten: Kinder lernten ihre Muttersprache durch einfache Nachahmung, durch Zuhören und Wiederholen dessen, was Erwachsene sagten.
Diese Ansicht wurde jedoch durch den amerikanischen Linguisten Noam Chomsky radikal in Frage gestellt. Für Chomsky lässt sich der Spracherwerb nicht darauf reduzieren, einfach ein Inventar von Reaktionen auf Reize zu entwickeln, weil jeder Satz, den jemand produziert, eine völlig neue Kombination von Wörtern sein kann. Wenn wir sprechen, kombinieren wir eine endliche Anzahl von Elementen – die Wörter unserer Sprache – um eine unendliche Anzahl größerer Strukturen – Sätze – zu bilden. Darüber hinaus unterliegt die Sprache einer Vielzahl von Regeln und Prinzipien, insbesondere denen der Syntax, die die Reihenfolge der Wörter in den Sätzen bestimmen. Der Begriff „generative Grammatik“ bezieht sich auf das Regelwerk, das es uns ermöglicht, Sätze zu verstehen, dessen wir uns aber meist gar nicht bewusst sind. Es ist der generativen Grammatik zu verdanken, dass man „so sagt man“ und nicht „so sagt man“ sagt, oder dass die Wörter „Bob“ und „er“ in dem Satz „Bob liebt ihn.“ nicht dieselbe Person meinen können, wohl aber in „Bob weiß, dass sein Vater ihn liebt.“ (Am Rande sei bemerkt, dass die generative Grammatik nichts mit Grammatiklehrbüchern zu tun hat, deren Zweck es lediglich ist, zu erklären, was in einer bestimmten Sprache grammatikalisch richtig und falsch ist). Sogar vor dem fünften Lebensjahr können Kinder, ohne formellen Unterricht gehabt zu haben, konsistent Sätze produzieren und interpretieren, denen sie nie zuvor begegnet sind. Es ist diese außergewöhnliche Fähigkeit, Sprache zu benutzen, obwohl sie nur sehr partiell mit den zulässigen syntaktischen Varianten in Berührung gekommen sind, die Chomsky dazu veranlasste, sein „Armut des Stimulus“-Argument zu formulieren, das die Grundlage für den neuen Ansatz bildete, den er in den frühen 1960er Jahren vorschlug. |
Nach Chomskys Ansicht, ist der Grund dafür, dass Kinder die komplexen Operationen der Sprache so leicht meistern, dass sie ein angeborenes Wissen über bestimmte Prinzipien haben, die sie bei der Entwicklung der Grammatik ihrer Sprache leiten. Mit anderen Worten: Chomskys Theorie besagt, dass das Erlernen von Sprache durch eine Veranlagung erleichtert wird, die unser Gehirn für bestimmte Strukturen der Sprache hat.
Aber welche Sprache? Damit Chomskys Theorie zutrifft, müssen alle Sprachen der Welt bestimmte strukturelle Eigenschaften teilen. Und tatsächlich haben Chomsky und andere generative Linguisten wie er gezeigt, dass die 5000 bis 6000 Sprachen der Welt, trotz ihrer sehr unterschiedlichen Grammatiken, eine Reihe von syntaktischen Regeln und Prinzipien gemeinsam haben. Diese Linguisten glauben, dass diese „Universalgrammatik“ angeboren ist und irgendwo in den neuronalen Schaltkreisen des menschlichen Gehirns eingebettet ist. Und das wäre der Grund, warum Kinder aus allen Sätzen, die ihnen in den Sinn kommen, nur diejenigen auswählen können, die einer „Tiefenstruktur“ entsprechen, die in den Schaltkreisen des Gehirns kodiert ist.
Universelle Grammatik
Die universelle Grammatik besteht also aus einer Reihe von unbewussten Einschränkungen, die uns entscheiden lassen, ob ein Satz korrekt gebildet ist. Diese mentale Grammatik ist nicht unbedingt für alle Sprachen gleich. Aber nach den Theoretikern von Chomsky ist der Prozess, durch den in einer gegebenen Sprache bestimmte Sätze als korrekt wahrgenommen werden, während andere nicht korrekt sind, universell und unabhängig von der Bedeutung.
Damit erkennen wir sofort, dass der Satz „Robert liest das Buch“ kein korrektes Englisch ist, obwohl wir eine ziemlich gute Vorstellung davon haben, was er bedeutet. Umgekehrt erkennen wir, dass ein Satz wie „Farblose grüne Ideen schlafen wütend.“ grammatikalisch korrektes Englisch ist, obwohl er Unsinn ist.
Ein Paar Würfel bietet eine nützliche Metapher, um zu erklären, was Chomsky meint, wenn er sich auf die universelle Grammatik als eine „Menge von Beschränkungen“ bezieht. Bevor wir das Paar Würfel werfen, wissen wir, dass das Ergebnis eine Zahl zwischen 2 und 12 sein wird, aber niemand würde darauf wetten, dass es 3,143 ist. In ähnlicher Weise hat ein neugeborenes Baby das Potenzial, eine beliebige Sprache zu sprechen, je nachdem, in welchem Land es geboren wird, aber es wird sie nicht einfach so sprechen, wie es will: Es wird bestimmte bevorzugte, angeborene Strukturen annehmen. Eine Möglichkeit, diese Strukturen zu beschreiben, wäre, dass es sich nicht um Dinge handelt, die Babys und Kinder lernen, sondern um Dinge, die ihnen passieren. So wie Babys im Mutterleib von Natur aus Arme und keine Flügel entwickeln, so lernen sie, sobald sie geboren sind, von Natur aus zu sprechen und nicht zu zwitschern oder zu wiehern.
Beobachtungen, die die Chomsky’sche Sichtweise der Sprache unterstützen
Bis Chomsky in den 1960er Jahren seine Theorie der universellen Grammatik vorstellte, war die empiristische Schule, die das Denken über Sprache seit der Aufklärung dominiert hatte, der Ansicht, dass Kinder, wenn sie auf die Welt kommen, einen weißen Fleck im Kopf haben. Chomskys Theorie hatte die Wirkung eines großen Felsens, der in diesen zuvor ruhigen, ungestörten Teich des Empirismus geworfen wurde.
Nachfolgende Forschungen in den Kognitionswissenschaften, die die Werkzeuge der Psychologie, Linguistik, Informatik und Philosophie kombinierten, gaben der Theorie der Universalgrammatik bald weitere Unterstützung. So fanden Forscher heraus, dass bereits wenige Tage alte Babys die Phoneme jeder Sprache unterscheiden konnten und über einen angeborenen Mechanismus zur Verarbeitung der Laute der menschlichen Stimme zu verfügen schienen.
Kinder scheinen also von Geburt an über bestimmte sprachliche Fähigkeiten zu verfügen, die sie dazu prädisponieren, sich nicht nur eine komplexe Sprache anzueignen, sondern sogar eine aus dem Vollen zu schöpfen, wenn es die Situation erfordert. Ein Beispiel für eine solche Situation stammt aus der Zeit der Plantagen und der Sklaverei. Auf vielen Plantagen kamen die Sklaven aus vielen verschiedenen Orten und hatten daher unterschiedliche Muttersprachen. Sie entwickelten daher so genannte Pidgin-Sprachen, um sich untereinander zu verständigen. Pidgin-Sprachen sind keine Sprachen im eigentlichen Sinne, weil sie Wörter so chaotisch verwenden – es gibt eine enorme Variation in der Wortfolge und sehr wenig Grammatik. Aber diese Sklavenkinder, obwohl sie diesen Pidgins in dem Alter ausgesetzt waren, in dem Kinder normalerweise ihre erste Sprache erwerben, begnügten sich nicht damit, sie einfach zu imitieren. Stattdessen führten die Kinder spontan grammatikalische Komplexität in ihre Sprache ein und schufen so innerhalb einer Generation neue Sprachen, die als Kreolen bekannt sind.
Chomsky und die Evolution der Sprache
Viele Autoren, die den Ansatz der Evolutionspsychologie verfolgen, glauben, dass die Sprache durch natürliche Selektion geformt wurde. Ihrer Ansicht nach wurden also bestimmte zufällige genetische Mutationen über viele Jahrtausende hinweg so ausgewählt, dass sie bestimmten Individuen einen entscheidenden adaptiven Vorteil verschafften. Ob der Vorteil, den die Sprache verschaffte, in der Koordination von Jagdgesellschaften, der Warnung vor Gefahren oder der Kommunikation mit Sexualpartnern lag, bleibt jedoch ungewiss.
Chomsky wiederum sieht unsere sprachlichen Fähigkeiten nicht durch einen bestimmten Selektionsdruck entstanden, sondern eher als eine Art zufälligen Zufall. Er stützt diese Ansicht unter anderem auf Studien, die herausgefunden haben, dass Rekursivität – die Fähigkeit, einen Satz in einen anderen einzubetten, wie in „die Person, die gestern gesungen hat, hatte eine schöne Stimme“ – die einzige spezifisch menschliche Komponente der Sprache sein könnte. Den Autoren dieser Studien zufolge entwickelte sich die Rekursivität ursprünglich nicht, um uns bei der Kommunikation zu helfen, sondern um uns bei der Lösung anderer Probleme zu helfen, die beispielsweise mit numerischer Quantifizierung oder sozialen Beziehungen zusammenhängen, und der Mensch wurde erst dann zu komplexer Sprache fähig, als die Rekursivität mit den anderen motorischen und perzeptiven Fähigkeiten verbunden wurde, die für diesen Zweck benötigt werden. (Damit würde Rekursivität die von Stephen Jay Gould angebotene Definition eines Zwickels erfüllen.) Laut Chomsky und seinen Kollegen deutet nichts darauf hin, dass diese Verknüpfung durch natürliche Selektion erreicht wurde. Sie glauben, dass sie einfach das Ergebnis einer anderen Art von neuronaler Reorganisation sein könnte.
Das minimalistische Programm
In den 1990er Jahren konzentrierte sich Chomskys Forschung auf das, was er das „minimalistische Programm“ nannte, das zu zeigen versuchte, dass die Sprachfähigkeiten des Gehirns die minimalen Fähigkeiten sind, die man angesichts bestimmter äußerer Bedingungen, die uns unabhängig auferlegt werden, erwarten kann. Mit anderen Worten: Chomsky begann, weniger Wert auf so etwas wie eine universelle, im menschlichen Gehirn eingebettete Grammatik zu legen, sondern mehr auf eine große Anzahl von plastischen zerebralen Schaltkreisen. Und zusammen mit dieser Plastizität würde eine unendliche Anzahl von Konzepten entstehen. Das Gehirn würde dann damit fortfahren, Laute und Konzepte zu assoziieren, und die Regeln der Grammatik, die wir beobachten, wären in Wirklichkeit nur die Folgen oder Nebeneffekte der Art und Weise, wie die Sprache funktioniert. Analog dazu können wir zum Beispiel Regeln verwenden, um die Funktionsweise eines Muskels zu beschreiben, aber diese Regeln erklären nur, was im Muskel passiert; sie erklären nicht die Mechanismen, die das Gehirn verwendet, um diese Regeln zu erzeugen.
Kritik an Chomskys Theorien
Chomsky glaubt also weiterhin, dass Sprache auf die eine oder andere Weise in der neuronalen Struktur des menschlichen Gehirns „vororganisiert“ ist, und dass die Umwelt nur die Konturen dieses Netzwerks zu einer bestimmten Sprache formt. Damit steht sein Ansatz im radikalen Gegensatz zu dem von Skinner oder Piaget, für die Sprache allein durch einfache Interaktion mit der Umwelt konstruiert wird. Dieses letztere, behavioristische Modell, in dem der Spracherwerb nur ein Nebenprodukt der allgemeinen kognitiven Entwicklung auf der Basis sensomotorischer Interaktion mit der Welt ist, scheint durch Chomskys Theorien aufgegeben worden zu sein.
Seit Chomsky diese Theorien zum ersten Mal vorbrachte, haben Evolutionsbiologen sie jedoch mit der Behauptung unterminiert, dass möglicherweise nur die allgemeinen Fähigkeiten des Gehirns „vororganisiert“ sind. Diese Biologen sind der Meinung, dass wir, wenn wir versuchen wollen, Sprache zu verstehen, uns ihr nicht vom Standpunkt der Syntax aus nähern müssen, sondern von dem der Evolution und der biologischen Strukturen, die sich aus ihr ergeben haben. Nach Philip Lieberman zum Beispiel ist Sprache kein Instinkt, der in den kortikalen Netzwerken eines „Sprachorgans“ kodiert ist, sondern eine erlernte Fähigkeit, die auf einem „funktionalen Sprachsystem“ basiert, das über zahlreiche kortikale und subkortikale Strukturen verteilt ist.
Auch wenn Lieberman anerkennt, dass die menschliche Sprache die bei weitem anspruchsvollste Form der tierischen Kommunikation ist, glaubt er nicht, dass sie eine qualitativ andere Form ist, wie Chomsky behauptet. Lieberman sieht keine Notwendigkeit, einen Quantensprung in der Evolution oder einen bestimmten Bereich des Gehirns zu postulieren, der der Sitz dieser Innovation gewesen wäre. Im Gegenteil, er sagt, dass Sprache als ein neurologisches System beschrieben werden kann, das aus mehreren separaten funktionellen Fähigkeiten besteht.
Für Lieberman und andere Autoren, wie z.B. Terrence Deacon, sind es die neuronalen Schaltkreise dieses Systems, und nicht irgendein „Sprachorgan“, die ein genetisch vorgegebenes Set bilden, das die möglichen Eigenschaften einer Sprache begrenzt. Mit anderen Worten: Diese Autoren glauben, dass unsere Vorfahren Kommunikationsformen erfunden haben, die mit den natürlichen Fähigkeiten des Gehirns kompatibel waren. Und die Beschränkungen, die diesen natürlichen Fähigkeiten innewohnen, hätten sich dann in den universellen Strukturen der Sprache manifestiert.
Ein anderer Ansatz, der eine Alternative zu Chomskys Universalgrammatik bietet, ist die generative Semantik, die der Linguist George Lakoff von der University of California in Berkeley entwickelt hat. Im Gegensatz zu Chomsky, für den die Syntax unabhängig von Dingen wie Bedeutung, Kontext, Wissen und Gedächtnis ist, zeigt Lakoff, dass Semantik, Kontext und andere Faktoren bei den Regeln, die die Syntax bestimmen, ins Spiel kommen können. Darüber hinaus wird die Metapher, die frühere Autoren als ein einfaches sprachliches Mittel ansahen, für Lakoff zu einem konzeptionellen Konstrukt, das für die Entwicklung des Denkens wesentlich und zentral ist.
Schließlich gibt es selbst unter jenen Autoren, die Chomskys Universalgrammatik annehmen, verschiedene widersprüchliche Positionen, insbesondere darüber, wie diese Universalgrammatik entstanden sein könnte. Steven Pinker z.B. vertritt eine adaptionistische Position, die von der Exaptationsthese Chomskys erheblich abweicht.