Module outil : La grammaire universelle de Chomsky
Durant la première moitié du XXe siècle, les linguistes qui ont théorisé sur la capacité humaine à parler l’ont fait dans la perspective béhavioriste qui prévalait à l’époque. Ils considéraient donc que l’apprentissage des langues, comme tout autre type d’apprentissage, pouvait s’expliquer par une succession d’essais, d’erreurs et de récompenses en cas de réussite. En d’autres termes, les enfants apprenaient leur langue maternelle par simple imitation, en écoutant et en répétant ce que les adultes disaient.
Cette vision a cependant été radicalement remise en cause par le linguiste américain Noam Chomsky. Pour Chomsky, l’acquisition du langage ne peut être réduite au simple développement d’un inventaire de réponses à des stimuli, car chaque phrase produite par quiconque peut être une combinaison totalement nouvelle de mots. Lorsque nous parlons, nous combinons un nombre fini d’éléments – les mots de notre langue – pour créer un nombre infini de structures plus grandes – les phrases. De plus, la langue est régie par un grand nombre de règles et de principes, notamment ceux de la syntaxe, qui déterminent l’ordre des mots dans les phrases. Le terme « grammaire générative » désigne l’ensemble des règles qui nous permettent de comprendre les phrases, mais dont nous sommes généralement totalement inconscients. C’est à cause de la grammaire générative que tout le monde dit « c’est comme ça que tu le dis » plutôt que « c’est comme ça que tu le dis », ou que les mots « Bob » et « lui » ne peuvent pas signifier la même personne dans la phrase « Bob l’aime » mais peuvent le faire dans « Bob sait que son père l’aime ». (Notez au passage que la grammaire générative n’a rien à voir avec les manuels de grammaire, dont le but est simplement d’expliquer ce qui est grammaticalement correct et incorrect dans une langue donnée). Même avant l’âge de 5 ans, les enfants peuvent, sans avoir reçu aucune instruction formelle, produire et interpréter de manière cohérente des phrases qu’ils n’ont jamais rencontrées auparavant. C’est cette extraordinaire capacité à utiliser le langage malgré une exposition très partielle aux variantes syntaxiques autorisées qui a conduit Chomsky à formuler son argument de la « pauvreté du stimulus », fondement de la nouvelle approche qu’il a proposée au début des années 1960. |
D’après Chomsky , la raison pour laquelle les enfants maîtrisent si facilement les opérations complexes du langage est qu’ils ont une connaissance innée de certains principes qui les guident dans le développement de la grammaire de leur langue. En d’autres termes, selon la théorie de Chomsky, l’apprentissage du langage est facilité par une prédisposition que notre cerveau a pour certaines structures du langage.
Mais quel langage ? Pour que la théorie de Chomsky se vérifie, toutes les langues du monde doivent partager certaines propriétés structurelles. Et effectivement, Chomsky et d’autres linguistes génératifs comme lui ont montré que les 5000 à 6000 langues du monde, malgré leurs grammaires très différentes, partagent bien un ensemble de règles et de principes syntaxiques. Ces linguistes pensent que cette « grammaire universelle » est innée et qu’elle est intégrée quelque part dans les circuits neuronaux du cerveau humain. Et ce serait la raison pour laquelle les enfants peuvent sélectionner, parmi toutes les phrases qui leur viennent à l’esprit, uniquement celles qui sont conformes à une « structure profonde » encodée dans les circuits du cerveau.
Grammaire universelle
La grammaire universelle consiste donc en un ensemble de contraintes inconscientes qui nous permettent de décider si une phrase est correctement formée. Cette grammaire mentale n’est pas nécessairement la même pour toutes les langues. Mais selon les théoriciens chomskyens, le processus par lequel, dans une langue donnée, certaines phrases sont perçues comme correctes alors que d’autres ne le sont pas, est universel et indépendant du sens.
Ainsi, nous percevons immédiatement que la phrase « Robert book reads the » n’est pas un anglais correct, même si nous avons une assez bonne idée de ce qu’elle signifie. À l’inverse, nous reconnaissons qu’une phrase telle que « Les idées vertes incolores dorment furieusement. » est un anglais grammaticalement correct, même si elle n’a aucun sens.
Une paire de dés offre une métaphore utile pour expliquer ce que Chomsky veut dire lorsqu’il parle de la grammaire universelle comme d’un « ensemble de contraintes ». Avant de lancer la paire de dés, nous savons que le résultat sera un nombre compris entre 2 et 12, mais personne ne prendrait un pari sur le fait qu’il soit 3,143. De même, un nouveau-né a le potentiel de parler n’importe quelle langue, selon le pays où il est né, mais il ne les parlera pas n’importe comment : il adoptera certaines structures préférées, innées. Une façon de décrire ces structures serait de dire qu’elles ne sont pas des choses que les bébés et les enfants apprennent, mais plutôt des choses qui leur arrivent. Tout comme les bébés développent naturellement des bras et non des ailes lorsqu’ils sont encore dans l’utérus, une fois nés, ils apprennent naturellement à parler, et non à gazouiller ou à hennir.
Observations qui soutiennent la vision chomskyenne du langage
Jusqu’à ce que Chomsky propulse sa théorie de la grammaire universelle dans les années 1960, l’école empiriste qui avait dominé la réflexion sur le langage depuis les Lumières soutenait que lorsque les enfants venaient au monde, leur esprit était comme une ardoise vierge. La théorie de Chomsky a eu l’impact d’un gros rocher jeté dans cet étang jusque-là tranquille et non perturbé de l’empirisme.
Les recherches ultérieures en sciences cognitives, qui combinaient les outils de la psychologie, de la linguistique, de l’informatique et de la philosophie, ont rapidement apporté un soutien supplémentaire à la théorie de la grammaire universelle. Par exemple, les chercheurs ont découvert que des bébés âgés de quelques jours seulement pouvaient distinguer les phonèmes de n’importe quelle langue et semblaient disposer d’un mécanisme inné pour traiter les sons de la voix humaine.
Dès la naissance, les enfants sembleraient donc posséder certaines capacités linguistiques qui les prédisposent non seulement à acquérir une langue complexe, mais même à en créer une de toutes pièces si la situation l’exige. Un exemple d’une telle situation remonte à l’époque des plantations et de l’esclavage. Dans de nombreuses plantations, les esclaves venaient d’endroits très différents et avaient donc des langues maternelles différentes. Ils ont donc développé ce que l’on appelle des langues pidgin pour communiquer entre eux. Les langues pidgin ne sont pas des langues au sens propre, car elles emploient les mots de manière très chaotique – l’ordre des mots varie énormément et la grammaire est très peu développée. Mais les enfants de ces esclaves, bien qu’exposés à ces pidgins à l’âge où les enfants acquièrent normalement leur première langue, ne se contentaient pas de les imiter. Au contraire, les enfants ont spontanément introduit une complexité grammaticale dans leur discours, créant ainsi en l’espace d’une génération de nouvelles langues, appelées créoles.
Chomsky et l’évolution du langage
De nombreux auteurs, adoptant l’approche de la psychologie évolutionniste, estiment que le langage a été façonné par la sélection naturelle. Selon eux, certaines mutations génétiques aléatoires ont ainsi été sélectionnées pendant plusieurs milliers d’années pour procurer à certains individus un avantage adaptatif décisif. Il n’est toutefois pas certain que l’avantage procuré par le langage ait été de coordonner des parties de chasse, d’avertir d’un danger ou de communiquer avec des partenaires sexuels.
Chomsky, pour sa part, ne considère pas que nos facultés linguistiques soient issues d’une pression sélective particulière, mais plutôt d’une sorte d’accident fortuit. Il fonde cette opinion, entre autres, sur des études qui ont constaté que la récursivité – la capacité d’enchâsser une clause dans une autre, comme dans « la personne qui chantait hier avait une belle voix » – pourrait être la seule composante spécifiquement humaine du langage. Selon les auteurs de ces études, la récursivité s’est développée à l’origine non pas pour nous aider à communiquer, mais plutôt pour nous aider à résoudre d’autres problèmes liés, par exemple, à la quantification numérique ou aux relations sociales, et les humains ne sont devenus capables de langage complexe que lorsque la récursivité a été associée aux autres capacités motrices et perceptives nécessaires à cet effet. (Ainsi, la récursivité répondrait à la définition d’un spandrel proposée par Stephen Jay Gould). Selon Chomsky et ses collègues, rien n’indique que ce lien ait été obtenu par sélection naturelle. Ils pensent qu’il pourrait simplement être le résultat d’un autre type de réorganisation neuronale.
Le programme minimaliste
Dans les années 1990, les recherches de Chomsky se sont concentrées sur ce qu’il a appelé le « programme minimaliste », qui a tenté de démontrer que les facultés langagières du cerveau sont les facultés minimales auxquelles on peut s’attendre, compte tenu de certaines conditions externes qui nous sont imposées indépendamment. En d’autres termes, Chomsky a commencé à accorder moins d’importance à quelque chose comme une grammaire universelle intégrée dans le cerveau humain, et plus d’importance à un grand nombre de circuits cérébraux plastiques. Et cette plasticité s’accompagnerait d’un nombre infini de concepts. Le cerveau procéderait alors à l’association des sons et des concepts, et les règles de grammaire que nous observons ne seraient en fait que les conséquences, ou les effets secondaires, de la façon dont le langage fonctionne. De manière analogue, nous pouvons, par exemple, utiliser des règles pour décrire le fonctionnement d’un muscle, mais ces règles ne font qu’expliquer ce qui se passe dans le muscle ; elles n’expliquent pas les mécanismes que le cerveau utilise pour générer ces règles.
Critiques des théories de Chomsky
Chomsky continue donc de croire que le langage est « pré-organisé » d’une manière ou d’une autre dans la structure neuronale du cerveau humain, et que l’environnement ne fait que façonner les contours de ce réseau en une langue particulière. Son approche reste donc radicalement opposée à celle de Skinner ou de Piaget, pour qui le langage se construit uniquement par simple interaction avec l’environnement. Ce dernier modèle, béhavioriste, dans lequel l’acquisition du langage n’est qu’un sous-produit du développement cognitif général basé sur l’interaction sensorimotrice avec le monde, semblerait avoir été abandonné à la suite des théories de Chomsky.
Depuis que Chomsky a avancé ces théories, cependant, les biologistes évolutionnistes les ont sapées en proposant que ce ne sont peut-être que les capacités générales du cerveau qui sont « préorganisées ». Ces biologistes estiment que pour essayer de comprendre le langage, il faut l’aborder non pas du point de vue de la syntaxe, mais plutôt de celui de l’évolution et des structures biologiques qui en sont issues. Selon Philip Lieberman, par exemple, le langage n’est pas un instinct codé dans les réseaux corticaux d’un « organe du langage », mais plutôt une compétence apprise basée sur un « système fonctionnel du langage » distribué dans de nombreuses structures corticales et sous-corticales.
Bien que Lieberman reconnaisse que le langage humain est de loin la forme la plus sophistiquée de communication animale, il ne croit pas qu’il s’agisse d’une forme qualitativement différente, comme le prétend Chomsky. Lieberman ne voit pas la nécessité de postuler un saut quantique dans l’évolution ou une zone spécifique du cerveau qui aurait été le siège de cette innovation. Au contraire, il affirme que le langage peut être décrit comme un système neurologique composé de plusieurs capacités fonctionnelles distinctes.
Pour Lieberman et d’autres auteurs, comme Terrence Deacon, ce sont les circuits neuronaux de ce système, et non un quelconque « organe du langage », qui constituent un ensemble génétiquement prédéterminé qui limite les caractéristiques possibles d’une langue. En d’autres termes, ces auteurs estiment que nos ancêtres ont inventé des modes de communication compatibles avec les capacités naturelles du cerveau. Et les contraintes inhérentes à ces capacités naturelles se seraient alors manifestées dans les structures universelles du langage.
Une autre approche qui offre une alternative à la grammaire universelle de Chomsky est la sémantique générative, développée par le linguiste George Lakoff de l’Université de Californie à Berkeley. Contrairement à Chomsky, pour qui la syntaxe est indépendante d’éléments tels que le sens, le contexte, la connaissance et la mémoire, Lakoff montre que la sémantique, le contexte et d’autres facteurs peuvent entrer en jeu dans les règles qui régissent la syntaxe. En outre, la métaphore, que les auteurs antérieurs voyaient comme un simple dispositif linguistique, devient pour Lakoff une construction conceptuelle essentielle et centrale au développement de la pensée.
Enfin, même parmi les auteurs qui adhèrent à la grammaire universelle de Chomsky, il existe diverses positions contradictoires, notamment sur la manière dont cette grammaire universelle a pu émerger. Steven Pinker, par exemple, adopte une position adaptationniste qui s’écarte considérablement de la thèse de l’exaptation proposée par Chomsky.
.