Corneille Molière
Controverse sur l'utilisation d'algorithmes pour déterminer la paternité d'une oeuvre

« The Evolution of Stylometry in Humanities Scholarship »

« The Evolution of Stylometry in Humanitier Scolarshig » retrace l’histoire anglophone de la stylométrie avec ses périodes sombres, ses applications plus ou moins reconnues ainsi que les débats soulevés par son récent développement (permis pas les nouvelles capacités des ordinateurs).

 

Table des matières :

1) Introduction

2) Les origines prématurées

3) Faire son entrée sur le devant de la scène

4) La lutte de la stylométrie

5) Les problèmes à variables multiples

6) La controverse des « cusum chart »

7) Stylométrie et intelligence artificielle

8) Se tourner vers le futur

 

 

 

1) Introduction

Dans la dernière décennie, le recours de plus en plus fréquent aux études stylométriques dans les affaires juridiques et autres controverses (telles que la paternité des œuvres) a retenu l’attention des médias. Mais toutes les critiques parues ne furent pas positives. Ainsi certains mirent en lumière les défauts de la principale technique de stylométrie actuelle, et Stanley Wells, spécialiste des oeuvres Shakespearienne, argumenta sur son inaccessibilité.
La stylométrie a pour application principale la détermination de la paternité et de la datation d’une œuvre. Mais elle ne prétend pas remplacer les travaux de recherche des experts littéraires et des historiens, seulement leurs apporter des arguments complémentaires pour déterminer la paternité d’un écrit. La stylométrie prend pour axiome que dans un écrit se traduit une partie inconsciente incontrôlable et quasi involutive propre à son auteur qui peut être reconnue lors de comparaisons d’œuvres d’un même genre littéraire.
Cependant, pour que la stylométrie soit acceptée, il faudrait ériger un consensus quant à la méthode à appliquer car Rudman souligna le fait qu’à l’heure actuelle toutes les méthodes présentent des failles (jusqu’à présent les paramètres discriminatoires lexicaux restent prédominants). L’histoire de la stylométrie se résume au choix des méthodes appliquées, des paramètres considérés, aussi nous allons la retracer.

 

2) Les origines prématurées

 

La stylométrie est née d’une conjecture du logicien Anglais Auguste de Morgan selon laquelle comparer les fréquences d’apparition des mots d’une longueur déterminée d’un texte, permettrait d’en reconnaître l’auteur. Thomas Mendenhall, en 1887, appliqua cette théorie : ses travaux en montrèrent l’infiabilité (bien qu’il eut comparé Marlow et Shakespeare auteurs, toujours pensés, apocryphes).
Il fallut attendre 30 ans , pour que les statisticiens G.Zips et U.Yule reprennent le flambeau et démontrent, en 1932, une relation linéaire entre la fréquence d’apparition des mots de longueur r (où r est un entier naturel) et r, connue sous le nom de « Zipf’s law ». Yule en déduisit, en 1944, que la probabilité d’apparition d’un mot donné peut être modélisé par une loi de poisson : « Yule’s characteristic K ». Mais une fois de plus ces deux caractères ne suffisaient pas à déterminer fiablement la paternité d’une œuvre.
Quelques années auparavant, Yule avait écarté la longueur des phrases, des paramètres discriminatoires, dans l’application de la stylométrie. Mais Williams, en 1940, découvrit qu’en fait le logarithme de la fréquence d’apparition des phrases dont le nombre de mots est fixé, était un paramètre acceptable qu’utilisera Wake dans ses études en 1957.

 

3) Faire son entrée sur le devant de la scène

 

La première utilisation notable de stylométrie fut menée par Cox et Brandwood pour déterminer l’ordre dans lequel Platon avait écrit ses pièces.
L’émancipation de la stylométrie s’est faîte grâce au succès de deux statisticiens américains, Mosteller et Wallace, qui, en 1964, surent évaluer les probabilités de paternité de chacun des auteurs présumés pour chaque article du recueil « The Federalist Paper », en comparant la fréquence d’apparition de mots clés. Si la paternité de la plupart des 85 articles était déjà connu, Madison et Hamilton s’en disputaient 12, que la précédente étude attribua à Madison. Il en issue un accord avec les historiens spécialisés selon lequel ces 12 articles disputés furent attribués à Madison. La résolution de ce problème s’est alors imposée comme l’épreuve étalon de toute nouvelle méthode de stylométrie.

 

4) La lutte de la stylométrie

 

Durant les dernières décennies, les statisticiens se sont livrés à une course pour déterminer les paramètres quantifiables les plus fiables dans la comparaison d’écrits.
Mais la technique, la plus controversée fut celle de Morton. En 1978, ce dernier proposa de comparer la position des mots dans les phrases, leurs juxtapositions ainsi que leurs associations. Une méthode que Meriam, entre 1979 et 1982, mit en application dans trois études impliquant Shakespeare. Étude immédiatement contestée par Smith (1985) qui en condamna le manque de rigueur et statua, après d’âpres discussions avec Morton, que cette méthode n’était pas fiable.
Cette dispute qui continue à faire rage ( Merriam, 1997) fut particulièrement néfaste pour la stylométrie et le peu de crédit qu’elle avait.
Pendant ce temps, dans le milieu des années 1970, les statisticiens B.Efron et R.Thisted, réutilisèrent le principe d’une méthode statistique inventée par Sir R.Fisher , afin de vérifier la paternité d’un poème anonyme. Ainsi la controverse dériva sur l’identification de la paternité des œuvres des dramaturges Élisabéthains.
En effet, B.Efron et R.Thisted, attribuèrent à Shakespeare le poème inconnu commençant par « Shall I die ». Aussi pour la première fois, les résultats d’une étude stylométrique franchit les barrières du monde académique. Ils parurent dans un article de R.Valenza qui émit de sérieux doutes quant à ces résultats, pointant du doigt la longueur insuffisante du corpus des poèmes de Shakespeare dans l’application des méthodes des deux statisticiens.

 

5) Les problèmes à varibles multiples

 

Entre la fin des années 1980 et le début des années 1990, John Burrows redonna dans une série d’articles ses lettres de noblesses à la stylomérie ainsi que son autorité dans l’attribution des œuvres littéraires. Burrows a comparé la fréquence d’apparition des soixante-quinze mots outils les plus fréquents ce qui n’est pas sans rappeler les travaux de Mollester et Wallace.
Les principes de la Méthode de Burrows semblent s’inspirer de l’analyse en composante principale qui permet de réduire autant que voulu, mais en dépit de l’exactitude des solutions, le nombre de variables d’un problème statistique, n’en gardant que les plus « parlantes ».
Il appliqua sa méthode à un large éventail de corpus de textes et obtint de remarquables résultats quant à la différenciation des auteurs. Aussi la méthode de Burrows s’imposa comme modèle du genre. Quand bien même, une autre méthode stylométrique est employée, il est rare qu’elle ne repose pas sur la résolution de problèmes à plusieurs variables (analyse discriminante, analyse en correspondances, etc…).
Des analyses qui par leur cohérence surent ériger la stylométrie au statut de discipline académique.

 

6) La controverse des « cusum chart »

 

Dans le début des années 1990, Morton utilisa les histogrammes cumulés dits « cusum » chart afin de quantifier ce qu’il supposait être des habitudes linguistiques indéfectibles et propres à un auteur. Ces habitudes ressortiraient particulièrement dans les mots courts et/ou commençants par une voyelle.
Aussi, pour comparer un texte à un corpus, on compare la superposition des représentations graphiques des histogrammes cumulés relatifs aux mots clés précédemment décrits, et aux longueurs des phrases.
Rapidement, la technique de Morton intrigua les avocats qui voulaient semer le doute dans les déclarations prétendument confessionnelles, et fut utilisée dans ce but entre 1991 et 1992.
Mais, très vite, la technique fut mise à mal, bien qu’un groupe de statisticiens aient mis en avant des preuves par l’exemple, un consensus général décréta la méthode trop fébrile et subjective pour avoir une valeur légale.
Malgré la rude critique de Hardcastle selon laquelle la technique des « cusum chart » ne peut prétendre au titre d’expertise, la plupart des tribunaux de la planète accorde une certaine importance à ce genre d’analyse. En 1997, Hardcastle en conclut que les statisticiens devraient se tourner vers de nouvelles techniques.

 

7)Stylométrie et intelligence artificielle

 

La controverse sur la technique des « cusum charts » n’a pas détourné la stylométrie de son évolution parallèle à celle de l’informatique. Désormais, elle est envisagée sous la forme d’un problème de reconnaissance de structures ceux que les réseaux neuronaux artificiels semblent à même de résoudre.
En effets les systèmes neuronaux artificiels sont inspirés de leurs homonymes biologiques : c’est un amalgame de connexions, de calculateurs et d’autres jonctions. On s’est aperçu qu’ils possèdent une capacité d’apprentissage dans le domaine de la reconnaissance.
Matthews et Merriam furent les premiers à utiliser les réseaux neuronaux artificiels dans des applications stylométriques. Ils publièrent deux papiers (1993 et 1994). Dans leur première application ils entrainèrent leur réseau à différencier les travaux de Shakespeare et ceux de Fletcher afin d’apporter leur contribution quant à la détermination de la paternité de « The Two Noble Kinsmen ». Ils se rangèrent à la thèse des experts littéraires selon laquelle il s’agirait d’une collaboration des deux auteurs.
De même leur seconde expérience se pencha sur la différenciation des écrits de Shakespeare et de Marlowe. Ils conclurent que « Edward III » avait dû être écrit pas Shakespeare sous la grande influence de Marlowe.
Les deux études précédentes utilisent des réseaux dits à perception multi-couches qui différencient des textes par calculs et approximations affines.
En 1995, Lowe et Matthews préférèrent utiliser des réseaux de fonctions à base radiales qui permettent des approximations quadratiques. Si leurs résultats sur les travaux de Fletcher et de Shakespeare furent similaires à ceux de Merriam et Mathews, ils conclurent que cette interprétation probabiliste des prédictions était plus riche et gérait mieux les « bruits » dans les données.
Mais les travaux avec des réseaux neuronaux ne se prétendent pas infaillibles. Aussi, en 1994, Kjell, qui s’attaqua au problème des « the Federalist Papers » en prenant pour paramètre discriminatoire des chaînes de deux à trois lettres, se heurta à des résultats, selon ses termes, capricieux. Tandis que, sur le même problème, « Tweedie et al », en 1996, obtint, avec des réseaux neuronaux, des résultats similaires à ceux de Mosteller et Wallace utilisant presque trois fois moins de paramètres discriminants.
En 1995, Holmes et Forsyth préférèrent une nouvelle approche : un apprentissage par génération d’un grand nombre de loi syntaxiquement correcte. Avec seulement huit de ces règles (contre trente et un paramètres pour Mosteller et Wallace), il surent résoudre le problème des « the Federalist papers » mais ne purent attribuer les textes disputés par Hamilton et Madison.
Les réseaux neuronaux semblent donc être un outil efficace dans les affaires de paternités d’œuvres disputées mais ne peuvent être utilisés que si les corpus (données nécessaires à l’apprentissage) des auteurs en conflit sont suffisamment étoffés. Quoiqu’il en soit ils laissent espérer de grand progrès dans l’avenir.

 

8) Se tourner vers le futur

 

Du fait de la constante progression des capacités des ordinateurs, on peut espérer que les machines seront bientôt à même de chercher automatiquement les meilleurs paramètres discriminants.
L’analyse du contenu (ou tabuler la fréquence des mots d’un texte) s’est récemment imposé comme nouvelle outil stylométrique. Il permettrait de dégager les connotations d’un texte. Martindale et McKenzie, en 1995, l’utilisèrent pour résoudre le problème des « the Federalist Papers ». Ils obtinrent de bons résultats bien qu’inférieurs à ceux des méthodes prenant pour paramètres discriminants les mots outils.
De plus les analyses syntaxiques, qui semblent grandement améliorer la précision des méthodes stylométriques selon les études de « Bayen et al », sont désormais permises. Mais ces analyses requièrent des corpus annotés qui représente un gros investissement en temps. Ces besoins pourraient freiner l’utilisation de cette technique.
Ce qu’il est important de retenir de l’histoire de la stylométrie est qu’elle n’est en aucun cas une menace pesant sur l’expertise littéraire mais bien une approche complémentaire qui devraient être prise en compte dans les cas troubles d’attribution de paternité. Même si les méthodes de stylométries ne sont toujours pas parfaitement fiables, les statisticiens se rapprochent peu à peu de la perfection.
Nous retiendrons la citation de Burrows:
« Literary theorists […] are not entitled to deny that literary works are marked by the particular stylistic habits and, by a not unreasonable inference, the intellectual propensities of their authors. »