Pour une rection idiophonologique dans l'acte de décodage.
L'influence de la langue maternelle sur l'articulation d'une autre langue est démontrée largement dans la littérature. Christophe Pallier (1994) a donné pour exemple le cas de l'épenthèse d'une voyelle [u] entre deux consonnes chez les Japonais dans la prononciation de pseudo-mots, la langue japonaise interdisant une suite de consonnes. Ce fait linguistique est probablement valable lorsqu'un apprenti-lecteur décode un mot : son bagage phonologique maternel entre en interférence et influence le décodage d'un autre système, celui de l'écriture de sa propre langue.
Anecdote : la prédominance du phonologique sur le visuel peut se constater dans la phrase suivante "FINISHED FILES ARE THE RESULT OF YEARS OF SCIENTIFIC STUDY COMBINED WITH THE EXPERIENCE OF YEARS". Si l'on compte le nombre de F, on en trouve... (petit problème anonyme trouvé sur Internet). La prononciation de F est parfois [v] ! J'ai fait le test à un enfant non anglophone de cinq ans : la réponse fut juste. Aux adultes bilingues, la réponse est fausse. Les erreurs de reconnaissance ne seraient pas d'ordre visuel, mais phonologique. Il y a prédominance de l'auditif (même subvocalisé) sur le visuel. Une conséquence pour l'enseignement sera de privilégier les environnements phonologiques au détriment d'exercices répétitifs portant sur des lettres sorties de leur contexte. Il faudra réaliser des tests de ce type, en français, pour repérer les phonèmes les plus influençables.
Les fréquences des séquences consonantiques sont intégrées au système phonologique de l'enfant, à partir du moment où il parle sa langue. En conséquence, il est concevable que ces fréquences deviennent une contrainte probable. Par exemple, après [s] on attendra davantage une voyelle ou une consonne habituelle (p, t, l, etc.), qu'une consonne peu probable (comme r). Cela peut donc entraîner une production d'erreur chez l'enfant. De même, quatre-vingt pour cent des syllabes du français sont ouvertes (attaque + rime, sans coda). Le décodage dans un mot entraînera donc une hypercorrection : "fort" (attaque + rime + coda) sera lu "fro" (attaque + rime).
Les contraintes phonotactiques de l'oral s'appliquent probablement au décodage, selon des facteurs internes à la phonologie de la langue : le décodeur choisira une réponse déterminée par ces contraintes. Le temps de traitement nécessaire au décodage étant celui du temps de fixation de l'oeil entre deux saccades, dès que la réponse (sub)vocalisée s'exprime l'oeil peut être libéré pour chercher la suite. Il peut aussi faire des régressions (par exemple lors d'une double difficulté : attaque branchante + digramme dans "fraîche" lu d'abord "far..." puis "fèr", puis "frèch". La suite f + r est plus difficile que f + a, il y a élision de "r", mais le digramme avec accent circonflexe posant problème, le "a" est dissocié de "aî" et l'oeil retourne lire le "r", puis décode enfin "aî", récupère le "r", et finalement réussit la suite C+C+V+C ). Chaque graphème subvocalisé est ainsi un stimulus inconditionnel qui entraînera un autre phonème, même si ce dernier ne correspond pas au graphème décodé.
Le décodage oralisé ou subvocalisé engendre les mêmes contraintes que l'acte de parler. Des articulations successives peuvent engendrer des oppositions articulatoires qui nécessitent des efforts que le décodeur va tâcher de minimiser : ainsi le pseudo-mot "bapa" est lu d'abord "baba" puis rectifié en "bapa" (et non "papa"), en raison du voisement habituel d'une consonne sourde placée entre deux voyelles. Le décodage correct du premier graphème montre bien que "b" est connu et différencié de "p" au niveau visuel. Quand il y a confusion visuelle (en attaque de syllabe isolée), il peut y avoir une implication phonologique dans le décodage, selon l'environnement (voir le cas de "bidon").
La TCSR (théorie des contraintes et de stratégies de réparation, de Carole Paradis) : ces contraintes et réparations peuvent s'appliquer aux processus de décodage. Je parlerai de rections idiophonologiques, dues aux imprégnations phonologiques de chaque enfant. Tant que la perception des phonèmes (c'est-à-dire le décodage subvocalisé) porte sur des suites prévisibles, l'erreur est rare. Lorsqu'il y a promiscuité phonétique, l'interférence ‘phonème prévu' vs ‘phonème phonologiquement induit' intervient et provoque l'erreur de décodage.
J'ai observé également : "don" lu correctement, mais "bi" lu [di], et, lorsque le mot complet fut présenté en entier et dans le bon ordre ("bidon"), le décodeur produisit [dibon]. Le "don" a été transformé en "bon", la suite d + b étant plus économique au niveau articulatoire, alors que "don" avait dans un premier temps été bien décodé. L'utilisation de coupes syllabiques permettrait de vérifier si, connaissant les lettres présentées en attaque de syllabes isolées, le décodeur ferait quand même une erreur pour les mêmes attaques, mais dans un mot plurisyllabique. Cela confirmerait l'hypothèse d'une rection idiophonologique.
Détecter chez l'enfant quel niveau de conscience phonique il utilise pour décoder : la conscience syllabique, ou la conscience phonémique. La rection idiophonologique sera différente, car le décodeur n'aura pas la même contrainte et donc une production autre (par exemple, pour une conscience syllabique, le déplacement d'un phonème peut être entraîné par une nécessité de coupe syllabique acceptable phonologiquement).
Test à élaborer pour vérifier mon hypothèse : établir deux listes de pseudo-mots, l'une où ils sont coupés de façon non conforme à la phonologie, et l'autre où ils sont écrits selon les règles phonologiques du français (exemples : t*rottoire vs tro*ttoire ; att*raper vs a*ttraper ; chap*eau vs cha*peau). Si les pseudo-mots mal coupés sont lus plus difficilement, alors l'influence phonologique sur le décodage est à retenir. Dans les deux premiers exemples, le principe de l'attaque maximale ( : entre deux voyelles séparées par des consonnes la frontière syllabique est celle qui déplace le nombre de consonnes dans l'attaque de la seconde syllabe, à condition que ce digramme consonantique soit acceptable) doit entraîner la structure branchante suivie d'une voyelle "tr + V".
En français, les traits distinctifs minimaux (phèmes) voisé vs non-voisé ont un rendement élevé dans des paires minimales (poule vs boule ; file vs ville ; quand vs gant). L'erreur de décodage consiste en une commutation (p pour b, f pour v, etc.). Il semble que plus ce rendement est phonologiquement élevé, plus la commutation est fréquente. Plus il est faible, plus elle est rare. Si cela était possible, il faudrait trouver des locuteurs ne connaissant pas certains mots (même à l'oral, par exemple grâce à des questions du type "comment s'appelle...."), et leur faire lire le mot qu'il ne connaissent pas dans la paire minimale. Dans un premier temps, relever les éventuelles erreurs. Dans un second temps, rendre familier le mot inconnu, le faire lire dans des listes, puis comparer les taux d'erreurs dans les deux cas. Si les résultats sont proches, on pourra en conclure que l'erreur est essentiellement d'ordre phonologique. Dans le cas contraire, il s'agirait d'erreurs dues à une amorce orthographique (ce cas devrait se trouver chez les décrypteurs).
Autre facteur d'erreur : le phénomène d'enchaînement ("leur_ami") et non le phénomène de liaison ("les_amis") pourrait perturber la conscience syllabique et provoquer des non-mots ("leura...mi"), ce qui pourrait être à l'origine de la non compréhension. Le désordre dans la coupe syllabique entraînerait un désordre dans le décodage puisque la distribution graphémique ( : au niveau visuel) s'accompagne par conséquent d'une nouvelle donne phonétique ( : au niveau de la subvocalisation).
Dans le cas de bilingualité, rédiger un texte-test à faire lire à deux populations d'enfants : a) francophones exclusifs ; b) francophones de langue maternelle différente. Si le décodage est effectivement touché par des facteurs idiophonologiques, les erreurs de décodage seront identiques pour tous les a), identiques pour tous les b), et différentes entre a) et b), chaque population ayant des contraintes phonotactiques différentes.
Si mon hypothèse est juste, les erreurs produites par les enfants sourds débutants lecteurs ne doivent pas être identiques à celles des enfants entendants, puisque leur répertoire phonologique est incomplet et déformé. Voir les études de Laurence Paire-Ficout et Nathalie Bedoin sur le code phonologique précoce chez le lecteur sourd. Il devrait y avoir par exemple une plus grande réalisation de consonnes labialisées que chez le décodeur entendant. Il faudrait analyser le système phonologique d'un enfant sourd, pour être en mesure de comparer ses erreurs de décodage à celles d'un enfant entendant.
Des tests devront être mesurés (temps de réponse) pour savoir si (et dans ce cas comment) la mémoire de travail entre en jeu dans le décodage, dans la mesure où, définie dans la littérature comme l'ensemble des processus permettant d'éviter un débordement de traitement, elle engendre un choix de décodage à partir d'un seuil limite d'empan visuel. On devrait alors trouver des modifications de traitement dans le décodage, dues à l'abandon d'un graphème non décodé d'une part, et à un saut visuel sur un autre graphème. Cela devrait se confirmer dans des mots à écriture inconnue. Par exemple pour le prénom Valérie , à un stade où le décodeur ignore la lettre " é ", on obtient [vali ]. Le " é " est littéralement supprimé, le décodeur cherche la structure CV ("l" + V ?) et va chercher le " i ". Le retour, fréquent lors des hésitations importantes (il y a balayage en essuie-glace pendant l'aporie verbale), associe le "r" préposé, auquel s'ajoute un schwa (habituel en français oral hésitant).
À l'oral existe le stade holophrastique où l'enfant s'exprime par des groupes de deux ou trois mots. Dans mon étude, je parlerai de stade "hologrammique" pour signifier l'enfant qui décode deux ou trois lettres à la fois.
Les erreurs purement visuelles dans les environnements polygrammiques (par exemple les deux valeurs de "a" dans "ans" et "années", ou bien l'inversion de e+n+i dans "chenille" lu d'abord "chan" puis "chien" et enfin "che...ni..." complexifient le décodage et s'additionnent aux erreurs audiophonologiques. Dans ces cas, le facteur idiophonologique pourra être conflictuel. Par exemple, "oi" se décodera d'abord en "o + i" (et non [wa] ), et le mot "coiffeur" a été lu [kof ] : élision du "i" car digramme difficile, puis refus de syllabe fermée avec suppression de "eu". Au lieu d'avoir une structure C+(C+V)+C+V+C [kw f ], on a [C+V+C+C+V], c'est-à-dire une banale suite "attaque+rime+coda (coda constituée d'une branchante et d'une voyelle finale, le schwa, en vertu du principe de sonorité). Une sorte de retour à un confort articulatoire. Il faudra avoir suffisamment de faits observés pour en déduire des règles prédictibles.
Pour vérifier si un phonème considéré est bien la cause d'une erreur observée, il faudra constituer une liste de mots placés de façon aléatoire. Pour certains de ces mots, on remplacera le gramme (ou le polygramme) par un symbole auquel l'observateur associera explicitement le phonème correspondant (par exemple un losange pour le [m]). Ces mêmes mots seront réécrits entièrement (sans le symbole). Toutes les erreurs engendrées par la présence de [m] devraient exister aussi dans les mots avec symbole, ce qui montrerait que le décodage serait lié aux contraintes idiophonologiques, et non (ou peu) aux représentations visuo-symboliques, et encore moins au hasard. Pour vérifier si mon hypothèse est viable, il faut s'assurer que le décodeur est bien en situation d'aporie verbale (ce qui signifie qu'il cherche à décoder) et non en situation piégée par l'environnement visuel. Il est donc nécessaire d'établir des pseudo-mots où l'analogie graphique est forte mais sans qu'il y ait d'analogie phonologique (p et d par exemple, proches visuellement mais éloignés phonétiquement). De cette façon, on devra s'attendre à des erreurs plus nombreuses par contrainte idiophonologique que par confusion visuelle, à chaque fois que le premier phonème est lu correctement (puisque en conséquence il va activer le processus phonotactique, et ignorer le rapprochement visuel des graphies proches). Le choix des graphèmes pour piéger le décodeur se fera sur des indices oculaires de surface (tels que la hauteur relative, la symétrie horizontale ou verticale, l'empâtement, etc.) et devra tenir compte des fréquences des graphèmes en français.
Établir une corrélation entre les erreurs banales de décodage et les erreurs que l'on rencontre chez l'enfant dyslexique (confusion de lettres de formes voisines, élisions et inversions de lettres, mais aussi dévoisement, passage des constrictives aux occlusives). Les performances que l'on peut attendre devraient être contradictoires, ce qui pourrait montrer que les causes d'erreur ayant une source différente, les erreurs prédictibles du décodeur non dyslexique seraient véritablement dues à son système idiophonologique, alors que le décodeur dyslexique a (selon la littérature) des causes neuropsychologiques (prédominance de l'hémisphère droit sur le gauche).
À l'habituelle représentation de la lecture en décodage puis sens, je proposerai un triptyque : 1) déchiffrage (i.e. grapho-phonétisme puis conscience phonologique) ; 2) décodage (i.e. conscience phonologique puis hologrammisme) ; 3) décryptage (i.e. décodage puis sémantisation).
Une typologie des erreurs de décodage, si elle est suffisamment fonctionnelle, pourra servir à étudier les cas de dyslexie et proposer, peut-être, des applications pratiques pour les enseignants du Primaire et les orthophonistes.
Utilité à court, moyen, et long terme : a) au niveau linguistique, une compréhension plus affinée des processus de décodage ; b) au niveau didactique, une mise en oeuvre de protocoles cliniques pour des orthophonistes ; c) au niveau pédagogique, une contribution à la constitution de manuels de lecture ; d) au niveau social, une contribution à la lutte contre l'illettrisme.
Jean-marc Muroni, 15/06/2001