SRPP: L’évaluation de la prononciation dans une L2 : peut-on ne pas se référer à un modèle de L1 ?


L’évaluation de la prononciation dans une L2 est une tache problématique, qu’elle soit effectuée par des humains ou par des machines. On peut évaluer la prononciation des apprenants par sa ressemblance à la prononciation des natifs (nativelikeness, ou authenticité de la prononciation), ou par le degré d’intelligibilité / compréhensibilité. Evidemment, l’évaluation de la prononciation en termes d’authenticité implique que l’on se réfère à un modèle natif censé représenter la cible des apprenants (par exemple, l’anglais RP ou GA, le français parisien, etc.) ; cela est discutable dans le cas des cours de langue dans un pays étranger, et encore plus dans le contexte de l’ELF (English as a Lingua Franca) et de l’International English. Dans cette présentation, nous explorons la possibilité d’évaluer la prononciation d’une L2 sans faire référence à un modèle natif (c’est-à-dire, intrinsèquement), dans l’esprit d’intelligibilité et de compréhensibilité. Nous testons s’il est possible d’évaluer la prononciation d’une L2 en mesurant la distance entre réalisations phonétiques de catégories phonologiques dans la L2, en supposant qu’une plus grande distance entraîne une meilleure intelligibilité et compréhensibilité. Cette idée se base sur des méthodologies récentes issues de la sociophonétique mesurant le degré de superposition entre réalisations de différentes catégories de voyelles. Nous présentons les résultats obtenus sur plusieurs corpus oraux d’apprenants d’anglais L2 et français L2, et nous les comparons avec les résultats de tests de compréhensibilité réalisés avec des auditeurs natifs, ainsi qu’avec des approches traditionnelles s’appuyant sur un modèle natif.