On peut supposer sans grand risque d'erreur que l'apparition simultanée ou consécutive, de façon répétée, de deux évènements déterminés est un fait qui a retenu très tôt l'attention des hommes. Ce sont en effet de telles observations qui permettent l'acquisition de démarches adaptatives élémentaires (conditionnement) ou plus évoluées (apprentissages techniques). C'est pourquoi on peut s'étonner que la description et l'analyse des faits de ce genre par les statisticiens soient aussi récentes. Il est remarquable aussi que cette étude, une fois entreprise, ait inventé l'essentiel des notions fondamentales qu'elle utilise encore en une période aussi brève.On peut attribuer à Francis Galton le mérite d'avoir introduit la notion de corrélation et d'avoir imaginé les premières techniques de mesure des corrélations. La dénomination du coefficient de corrélation le plus employé de nos jours (surtout chez les auteurs de langue française), " r de Bravais-Pearson ", paraît cependant renvoyer à deux autres auteurs.En ce qui concerne Auguste Bravais (1811-1863), on peut suivre l'analyse de sa contribution qu'en fait Karl Pearson dans un article de 1920 intitulé " Notes on the history of correlation ". Auguste Bravais a publié en 1846 une étude intitulée: " Sur les probabilités des erreurs de situation d'un point ". Elle traite des problèmes posés en géodésie par l'estimation des trois coordonnées d'un point de l'espace en utilisant des mesures observées à partir d'autres points (angles de visée, distance entre les points d'observation). Ces mesures observées sont nécessairement entachées d'erreurs. Les coordonnées estimées (variables " dépendantes " dit Bravais) sont des fonctions des mesures observées (variables " indépendantes "). Les mêmes erreurs d'observation interviennent ainsi dans l'estimation des trois coordonnées. Bravais montre qu'il en résulte une relation entre les trois estimations. On trouve dans la formulation mathématique qu'il donne de cette relation une expression qui se retrouvera dans la formule du coefficient de corrélation proposée par K.Pearson. Celui-ci avait d'ailleurs, en 1895, reconnu l'antériorité de Bravais en ce qui concerne les théorèmes fondamentaux sur la corrélation. Dans son article de 1920, il déclare s'être trompé, ce qui revient à revendiquer la priorité pour ses propres travaux sur le sujet. Il s'agit là d'un problème de priorité entre mathématiciens qui ne présente qu'un intérêt limité. Mais ce problème ne concerne que le coefficient de corrélation. Il est plus significatif de constater que la notion de corrélation que Galton ébauche en 1877 et formule pleinement en 1888 est tout à fait nouvelle par rapport à la notion introduite par Bravais. Chez celui-ci, ce sont seulement des estimations différentes à partir des mêmes observations entachées d'erreurs qui sont en relation. Galton va découvrir et mesurer artisanalement des relations entre les observations elles-mêmes. Ces relations existent dans la Nature, et ne sont pas suscitées seulement par les techniques du géomètre. De telles relations ne pouvaient sans doute pas apparaître dans le domaine, la géodésie, sur lequel Bravais avait travaillé. Elles posent des problèmes d'une tout autre portée scientifique, dont la nature paraît avoir complètement échappé à Bravais. Nous retrouverons Karl Pearson plus loin et dans le second article. On peut dire qu'il a effectivement apporté des améliorations importantes aux techniques mathématiques d'évaluation des corrélations. Mais en ce qui concerne la notion que ses coefficients permettaient d'estimer, son positivisme le conduit à une conception de la corrélation tout à fait différente de celle de Galton, à une conception qui s'est révélée stérile. Les maladresses techniques de Galton ne retirent rien, par contre, à la fécondité de ses idées.Francis Galton disposa toute sa vie des moyens de consacrer tout son temps à cultiver ses intérêts, que l'on peut qualifier de scientifiques en un sens large. C'était en effet un esprit rationnel, n'étant satisfait que par l'expérimentation (pratiquée éventuellement sur lui-même) ou plus souvent par une observation utilisant des moyens objectifs de mesure, de classement ou de dénombrement permettant d'obtenir des séries nombreuses pouvant être traitées statistiquement. Galton n'avait pas poursuivi les études médicales qu'il n'avait entreprises qu'à l'instigation de son père: il jugeait trop floues les connaissances médicales. Il n'avait pas prolongé non plus un début d'études mathématiques. C'est en dilettante qu'il s'intéressa à des domaines étonnamment variés, souvent de façon originale et brillante mais en laissant presque toujours à d'autres le soin de les cultiver durablement. Parmi ses travaux, certains ne relèvent plus aujourd'hui que de l'anecdote. Un thème qui nous concerne davantage est le suivant. Il imagine de soumettre les caractéristiques psychologiques individuelles (les " powers ") à des études statistiques analogues à celles qu'il pratiquait sur les mesures anthropométriques à la suite d'Adolphe Quetelet (1796-1874). Pour cela, il propose des épreuves à notation objective, les premiers tests, adaptées en partie du matériel des laboratoires de psychologie expérimentale. Elles portent surtout sur les capacités sensorielles (considérées, dans une perspective empiriste, comme de bonnes mesures de l'intelligence), sur les temps de réaction, sur la ténacité musculaire. Il rédige aussi avec beaucoup de soin un questionnaire sur les images mentales. Toutes ces épreuves sont conçues pour permettre une application relativement rapide sur des séries nombreuses. Galton sut aussi employer des moyens appropriés pour obtenir la collaboration d'un grand nombre de sujets. Il ouvrit un " Laboratoire anthropométrique " dans une Exposition internationale de la Santé en 1884 et ce laboratoire fonctionna ensuite jusqu'en 1891. Il permit de rassembler à la fois des données anthropométriques et des données psychologiques et Galton s'émerveilla de constater que la distribution de celles-ci suivait la même loi que Quetelet avait déjà découverte sur celles-là : la loi binomiale ou " loi des erreurs ", qui deviendra avec Karl Pearson la loi " normale ". Pour susciter l'intérêt des visiteurs à l'égard de ces mesures, Galton leur offrait en 1885 des tables permettant à chacun de savoir quel pourcentage de la population dépassait - ou n'atteignait pas - sa performance personnelle dans chaque épreuve. Il s'agit des " percentile grades " ou " centesimal grades " que nous utilisons encore sous le nom de percentiles. Ce type d'échelle, fournissant des degrés comparables d'une épreuve à une autre, allait ultérieurement permettre à Galton de passer de la régression à la corrélation. Il utilise aussi dès 1869 des échelles en classes ordonnées dont il définit l'égalité en assignant à chacune des classes la proportion d'observations qu'elle recevrait dans une distribution bimodale. On reconnaît là une autre technique d'étalonnage "normalisé" toujours utilisée elle aussi.Ces enquêtes anthropométriques et psychométriques se rattachent à un domaine de recherche que Galton cultiva de façon assidue, surtout dans les dernières décennies de sa vie: l'étude de l'hérédité et de son rôle dans l'évolution. Cette question était dans l'air du temps et pouvait d'autant moins échapper à l'attention de Galton qu'il était le demi-cousin de Charles Darwin avec qui il correspondait régulièrement. C'est d'abord pour les besoins de cette étude qu'il créa les premières formes des outils statistiques sur lesquels porte cet article, créations qui constituent probablement son principal titre de gloire scientifique. Ce mérite méthodologique doit lui être reconnu indépendamment du jugement que l'on peut porter aujourd'hui sur sa conviction que l'essentiel des différences individuelles est attribuable à l'hérédité, et sur les conséquences qu'il en tire.
On peut considérer que Galton a apporté trois contributions à l'étude statistique des relations entre variables. Deux d'entre elles, essentielles, concernent la régression et la corrélation. Elles sont étroitement liées, même si Galton a mis treize ans (de 1875 à 1888) pour passer de l'une à l'autre. La troisième, beaucoup moins importante, est relative à la description d'une distribution binomiale bivariée. Antérieure de peu (1886) à la corrélation, elle a, dans l'esprit de Galton et à juste titre, une signification différente. C'est pourquoi, sans respecter l'ordre chronologique, nous ne la mentionnerons qu'en dernier lieu.
En dépouillant les carnets d'expérience laissés par Galton et sa correspondance avec Charles Darwin, Karl Pearson (1930) a retrouvé la recherche au cours de laquelle la notion de régression et la mesure de la régression d'une variable sur une autre sont apparues. Ne pouvant à cette époque obtenir des données anthropométriques suffisantes sur l'homme, Galton utilise en 1875 des mesures pratiquées sur deux générations successives de graines de pois. Il constitue d'abord sept groupes de chacun cent graines qui vont jouer le rôle de graines-mères. Toutes ces graines ont le même diamètre à l'intérieur de chaque groupe, et ce diamètre croît d'un groupe au suivant. Ces graines sont plantées et Galton recueille la saison suivante, pour chacun des sept groupes, les graines-filles issues des premières. Il les mesure et obtient ainsi sept distributions sur lesquelles il fait les constatations suivantes. La variabilité est la même dans les sept distributions. Les graines-mères les plus grosses ont donné naissance à des graines-filles dont le médian est plus élevé, mais les sept médians des graines-filles se dispersent moins que ne se dispersaient les tailles des graines-mères (" réversion " ou régression). Les médians des graines-filles, portés en ordonnées, se situent au voisinage d'une droite lorsque les sept groupes de graines-mères sont rangés en abscisses en fonction de leur taille. Galton mesure la pente de cette droite et désigne cette mesure par le symbole r, comme " réversion ". r est appelé pendant un temps le " coefficient de Galton " avant de devenir le coefficient de " régression ", le même symbole étant utilisé plus tard (après w ) pour le coefficient de corrélation.Nous dirions aujourd'hui que ces constatations portent sur l'homoscédasticité et sur la linéarité d'une distribution binomiale bivariée. Galton ne s'interroge pas d'abord sur ce qui, dans ces constatations, est dû aux métriques, aux dispersions et à la distribution des données qu'il lui est advenu d'obtenir dans son expérience. Il ne faut pas oublier que, à la suite de A. Quetelet, il postulait que toutes les mesures pratiquées dans la nature obéissaient à la " loi des erreurs " ou loi binomiale. Le caractère causal de la relation qu'il mesure est rendu évident par l'organisation même de l'expérience : il est évident que les différences observées sur les tailles des filles ne peuvent provenir que des différences introduites par l'expérimentateur dans la taille des mères, les conditions de culture étant identiques pour toutes. Plus subtilement, Galton propose aussi d'expliquer par l'influence d'une cause biologique le fait que les médians des classes de la variable dépendante " régressent " vers le médian global de cette variable, si l'on compare leur dispersion à celle des médians de la variable indépendante. On sait aujourd'hui qu'il en est nécessairement ainsi pour toute distribution dans laquelle r < 1.00. Galton, lui, voit dans ce phénomène de " réversion " l'effet d'un processus qui, à chaque génération, corrigerait en la " renversant " la tendance à une dispersion que l'on pourrait croire sans cesse croissante puisque les descendants de chaque parent sont de tailles différentes. Ce processus de " réversion " serait nécessaire pour que l'espèce soit sans cesse ramenée à ses caractères ancestraux typiques.Mais Galton prit vite conscience, semble-t-il, que la pente de la droite de régression, et donc la valeur de son coefficient, dépendaient non seulement de la relation causale entre les deux variables mais aussi du rapport entre leurs variabilités. Ce second facteur de variation étant le plus souvent dépourvu d'intérêt en ce qui concerne le calcul de la régression, il en était réduit à ne calculer son coefficient qu'entre des variables ayant la même (ou à peu près la même) variabilité, comme c'était le cas pour les graines de pois ou, un peu plus tard, pour la taille des parents et celle de leurs enfants mesurée à l'âge adulte. Galton se heurta clairement à cette difficulté à propos d'un problème n'ayant rien à voir avec l'hérédité : celui de l'identification des criminels ou " problème de Bertillon ". Le Français Alphonse Bertillon (1853-1914) avait proposé en 1879 une méthode d'identification consistant à prendre sur la personne à identifier douze mesures anthropométriques qu'il considérait comme indépendantes. Il y aurait eu alors très peu de chances pour que deux personnes différentes présentent douze mensurations identiques. Galton pense que des relations doivent exister en fait entre ces mensurations. Par exemple, deux personnes ayant la même taille ont plus de chances que deux personnes de tailles différentes d'avoir les avant-bras droits de même longueur. Le procédé d'identification proposé par Bertillon serait alors moins sûr qu'il ne semble. Pour étayer son intuition, Galton cherche un moyen de calculer la relation statistique entre les mesures utilisées. Il a bien conscience que le problème ressemble techniquement à celui qu'il a résolu avec le coefficient de régression, bien que l'explication causale ne puisse avoir la même forme. Mais ici les variabilités peuvent être très différentes et par conséquent le coefficient de régression n'est plus seulement une évaluation du degré de liaison entre les variables. Il ne découvre la solution de la difficulté technique qu'en 1888 : il suffisait de mesurer chaque variable en termes de sa propre échelle de variabilité. Or Galton avait déjà trouvé, à d'autres fins, des échelles gardant un même sens pour des séries de mesures de variabilités différentes. C'est notamment le cas pour son échelle en percentiles sur laquelle il définit maintenant l'unité d'écart qu'il va pouvoir utiliser de façon comparable sur des variables de variabilités différentes : la demi-différence entre le 75ème centile (troisième quartile) et le 25ème (premier quartile), écart " semi-interquartiles " qu'il appelle Q . Le coefficient de régression mesuré sur un graphique utilisant Q pour exprimer les écarts au médian dans chacune des deux variables devenait l' " index de co-relation ". Très conscient de l'importance de son invention, Galton la présente immédiatement à la Royal Society of London. On peut citer un extrait de son texte (1888) qui éclaire la relation que Galton, allant au-delà de la solution technique au problème posé par les différences de variabilité, établissait entre la notion de cause, entendue au sens fort, et la corrélation.
" Il est facile de voir que la co-relation doit être la conséquence du fait que les variations des deux organes sont dues en partie à des causes communes. Si elles étaient dues entièrement à des causes communes, la co-relation serait parfaite, comme c'est approximativement le cas avec des parties du corps symétriques. Si elles n'étaient dues en rien à des causes communes, la co-relation serait nulle. Entre ces deux extrêmes, il existe un nombre infini de cas intermédiaires, et l'on va montrer comment l'étroitesse de la co-relation dans n'importe quel cas particulier peut être exprimée par un simple nombre. " (1888)Entre 1875 (coefficient de régression) et 1888 (coefficient de co-relation), Galton a continué à s'intéresser, entre autres choses, à l'étude de l'hérédité. Il a recueilli de nombreuses données anthropométriques et psychologiques dans son Laboratoire anthropométrique (qui fonctionne, nous l'avons vu, de 1884 à 1891) et aussi en organisant des enquêtes qui offrent une rémunération aux familles fournissant des mesures sur deux générations successives au moins. Galton peut ainsi répéter sur des données humaines les études qu'il avait commencées sur les graines de pois. Il les publie en 1885 et 1886. Pendant cette période, il ne dispose pas encore du coefficient de corrélation. Il cherche une formule qui lui fournirait le moyen de décrire en une seule expression tous les aspects d'une table de régression déterminée. En observant une telle table (qui concernait la régression de la taille des enfants sur la taille moyenne de leurs deux parents), il s'aperçoit que les cases du tableau qui présentent des fréquences égales paraissent s'arranger en ellipses concentriques semblables. Les sections parallèles aux axes des coordonnées paraissent dessiner des distributions binomiales ayant toutes la même dispersion, une dispersion plus faible que celle des variables observées. Ne trouvant pas la formule unique qui décrirait l'ensemble de ces particularités, ainsi que les angles formés par les deux axes des ellipses et les axes des coordonnées, et la pente de la ligne de régression, il s'adresse à un mathématicien, J.D. Hamilton Dickson, qui lui fournit sans difficulté l'équation de la surface d'une distribution normale bivariée. Dickson obtient par le calcul, en utilisant cette équation, des valeurs théoriques très proches des valeurs que Galton avait observées directement sur les données. Galton considère que cet accord est tout à fait remarquable (F. Galton, 1889, 1908; K. Pearson, 1920).
Il est clair que l'admiration dont témoigne Galton à cette occasion pour le pouvoir des mathématiques tient surtout à son manque d'information dans cette discipline. Gauss et Bravais avaient déjà utilisé la formule que lui fournit Dickson. Sans originalité mathématique, cette contribution de Galton est loin de présenter l'intérêt méthodologique qui, en 1886, s'attache déjà au coefficient de régression et qui va bientôt se manifester pleinement avec le coefficient de corrélation. Dans ces deux cas, différents l'un de l'autre, l'observateur est doté de moyens lui permettant d'évaluer de façon spécifique des relations causales au sens fort du terme. L'équation d'une distribution normale bivariée ne privilégie pas cet aspect essentiel des données, dont elle offre seulement une description d'ensemble. Cette contribution de Galton marque un bref engagement de cet auteur dans une voie purement descriptive qui n'est pas généralement la sienne, mais qui va être celle de K. Pearson et qui conduira plus tard, et jusqu'à nos jours, d'autres auteurs (H. Hotelling, J.P. Benzécri), à des malentendus sur l'interprétation causale des " axes principaux " ou " composantes principales ". En 1889, Galton publie Natural Inheritance, ouvrage dans lequel il présente ses contributions statistiques récentes à l'étude de l'hérédité et, plus généralement, à la quantification par la corrélation des liens de causalité. L'ouvrage paraît avoir attiré l'attention de certains jeunes scientifiques. K. Pearson (1920) écrit que ce livre fournit à Galton trois " recrues " : F.Y. Edgeworth, W.F.R. Weldon et lui-même. En fait, les liens des trois hommes avec Galton, leurs âges, leurs contributions scientifiques, sont très différents.
On dispose sur la vie et l'oeuvre de Francis Galton d'une importante documentation. Outre ses nombreux articles et livres, dont certains sont autobiographiques (Memories of my Life, 1908), on peut consulter notamment l'imposant ouvrage (quatre tomes en trois volumes in quarto) que lui a consacré son disciple et successeur, Karl Pearson (The Life, Letters and Labours of Francis Galton, 1914, 1924, 1930). On y trouvera de nombreuses informations puisées dans les souvenirs de l'auteur et dans la correspondance et les carnets d'expérience de Galton, des extraits de ses publications et d'abondantes bibliographie et iconographie.
" C'est un problème épistémologique. Même s'il est possible qu'un ensemble de corrélations soit décrit en termes d'un facteur unique, il est possible, si vous le voulez, de décrire les mêmes corrélations en termes de deux, trois ou dix ou tout autre nombre de facteurs. La confusion naît ici du fait que les interlocuteurs parlent comme si les facteurs jouissaient d'une certaine réalité, comme si les facteurs devaient être recherchés et étiquetés lorsqu'on les a trouvés, mais c'est la même illusion trompeuse qui apparaît ailleurs dans la science. " (p. ii)
Thurstone ne se borne pas à signaler la portée épistémologique du problème. Il fournit plusieurs méthodes permettant de passer d'une solution factorielle à une autre ayant les mêmes propriétés à l'égard des corrélations observées. Ce sont ses méthodes de "rotation" des facteurs.
Le passage d'un système de facteurs à un autre jouissant des mêmes propriétés à l'égard des corrélations observées se pratique plus aisément si l'on utilise une représentation géométrique des facteurs et des variables. L'idée de cette représentation a été émise d'abord par J.C.M. Garnett, collaborateur de Spearman, en 1919. Son utilisation pour la localisation des facteurs était déjà pratiquée par cet auteur. Peut-être trop en avance sur son temps, ce travail n'a pas eu de prolongements directs. C'est bien plus tard, en 1931, que Thurstone va lui aussi imaginer et utiliser une représentation géométrique, de façon indépendante semble-t-il, et en tout cas sous une forme plus générale qui a prévalu. Les variables observées sont représentées par un ensemble de vecteurs issus d'une même origine, les corrélations observées entre ces variables déterminant de façon fixe les angles qu'ils forment. Les facteurs sont représentés par des axes qui peuvent tourner autour de l'origine au gré de l'analyste. Les saturations des variables dans ces facteurs sont déduites des projections des vecteurs sur les axes. Pour passer d'une structure factorielle à une autre, il suffit de mettre les axes dans la position choisie et de mesurer les projections des vecteurs sur eux. Thurstone décrit sa première technique de rotation (il en proposera d'autres) en 1933, dans The Theory of Multiple Factors. Il l'utilise alors pour passer d'une position arbitraire des axes (déterminée seulement par les facilités de calcul qu'elle présente) aux axes principaux de la distribution des variables observées. Mais il condamnera bientôt la confusion entre axes principaux et facteurs.
La structure factorielle considérée dans sa totalité ne peut être représentée sur un graphique unique que si elle ne comporte que deux dimensions. Puisque Thurstone, à la suite de Kelley, souhaitait utiliser un nombre plus élevé de facteurs, la représentation géométrique plane de la structure n'était plus possible en général. Thurstone apporte à ce problème en 1934 une solution technique qui fut très largement utilisée : l'emploi du calcul matriciel. Les rotations se font alors par des calculs portant sur des tableaux de nombres (matrices). Si les facteurs sont représentés par les colonnes d'un tel tableau et les variables par ses lignes, il suffit d'ajouter des colonnes pour augmenter le nombre des facteurs. La généralisation de l'emploi des ordinateurs a bien entendu complètement modifié la technique des rotations. Plusieurs programmes existent depuis le milieu des années 50, qui exécutent automatiquement le travail de calcul. Mais le choix d'un critère permettant de déterminer une structure factorielle parmi le nombre illimité des structures possibles reste de la responsabilité de l'analyste, même si l'usage d'un programme automatique éventuellement capable de faire à sa place – et parfois à son insu - des choix "par défaut" peut lui laisser croire qu'il s'en trouve déchargé.
Dans la période que l'on peut approximativement situer entre 1935 et 1955, les rotations s'exécutaient "à la main", sur plusieurs représentations graphiques de sous-espaces définis chacun par deux des axes utilisés. Ces axes étaient redessinés dans une position nouvelle, les projections mesurées et les calculs recommencés, au cours de plusieurs rotations partielles successives. C'était un long travail au cours duquel l'analyste pouvait parfois voir apparaître progressivement sur ses graphiques la structure qu'il attendait … et d'autres fois devait constater progressivement qu'elle n'était vraiment pas compatible avec les corrélations observées. Ces journées de tension ont été remplacés par un clic de souris !
L'adoption d'un certain critère est nécessaire, quelle que soit la méthode utilisée, pour déterminer une structure factorielle parmi le nombre illimité de celles qui peuvent reconstruire les corrélations observées. Cette nécessité s'impose aussi bien pour formuler et mettre à l'épreuve une certaine hypothèse que pour décrire les observations sous une forme que l'on espère heuristique. On peut distinguer deux catégories de critères. Les uns sont formels et concernent l'analyse factorielle en général. Les autres sont spécifiques au contenu du domaine dans lequel elle est d'abord utilisée : la " structure de l'esprit" des premiers auteurs.
Au plan formel général, on peut sélectionner les structures factorielles qui sont "économiques" ou sélectionner celles qui sont "simples". Les guillemets rappellent que ces deux termes ne sont pas univoques, qu'ils doivent recevoir des définitions formelles.
Plusieurs auteurs ont choisi de considérer que la façon la plus économique de décrire un ensemble d'observations en corrélation était celle qui utilisait le moins d'axes de référence. Ces axes ont pu être assimilés à des facteurs. Dans le cas d'une distribution normale multivariée, ils ont une définition mathématique précise : ce sont les axes principaux de la distribution.
On se souvient que Galton, peu avant d'inventer le coefficient de corrélation, avait utilisé un moment, avec l'aide d'un mathématicien, l'équation de la loi normale bivariée pour décrire commodément la distribution des tailles d'enfants en relation avec les tailles de leurs parents. Karl Pearson ayant adopté un positivisme strict et donc une méthodologie purement descriptive était évidemment intéressé par ce type de méthodes. Il publiera en effet en 1901 un article dans lequel il souligne que les axes principaux successifs (définissant les " composantes principales ") des ellipsoïdes dessinés par les points-observations sont les lignes fournissant chacune à son tour le meilleur ajustement possible à ces points (" lines of closest fit "). A la même époque W.R. MacDonell propose au " problème de Bertillon " la solution consistant à remplacer les mesures anthropométriques pratiquées sur les délinquants par les premières des composantes principales de leur distribution. Ces composantes, orthogonales par construction, ne présentent plus l'inconvénient d'être en corrélations entre elles comme le sont les mesures initiales (W.R. MacDonell 1901).
Un autre auteur va proposer une méthode très proche de celle de Pearson en ignorant, semble-t-il, les travaux de son prédécesseur. Il s'agit d'Harold Hotelling qui publie en 1933 une méthode de calcul des composantes principales, c'est à dire des projections des points-observations sur les axes principaux des ellipsoïdes. L'idée nouvelle qui apparaît dans le texte d'Hotelling consiste à considérer que ces composantes principales, parce qu'elles sont des variables descriptives "économiques" (chacune à son tour est le meilleur résumé possible de la distribution et elles sont orthogonales) sont nécessairement des variables explicatives. Il propose dans son article d'interpréter les composantes principales comme un " ensemble plus fondamental de variables indépendantes, peut-être en moins grand nombre que les x, qui déterminent les valeurs que les x prendront. "
Il interprète effectivement en termes d'aptitudes les résultats de l'analyse qu'il effectue à titre d'illustration sur des données scolaires : l'" aptitude générale " est invoquée pour la première composante ; la seconde composante oppose, pense-t-il, aptitude verbale et aptitude numérique ; la troisième lui paraît correspondre à une opposition entre vitesse et réflexion. L.L. Thurstone dénoncera dès 1937, et maintes fois par la suite, cette confusion entre description et explication : une description peut être " économique " sans pour autant suggérer une explication valide. De plus, fait remarquer Thurstone, la position des axes principaux dans le nuage des points-observations, et donc le poids de chaque région de ce nuage sur chacune des composantes principales, dépend de la composition de la série de variables analysées. Les rotations thurstoniennes peuvent s'affranchir de cette détermination mécanique et tenir compte, si l'analyste a une raison de le faire (comme la découverte ou la vérification d'une ébauche d'explication), de la nature des variables choisies pour déterminer la position de chaque axe.
On retrouve la même confusion à une date plus récente dans l'interprétation des résultats fournis par la méthode d'" analyse des correspondances " de Jean-Paul Benzécri (1973). Son orientation à cet égard rappelle celle de K. Pearson, dont il se déclare proche (1976, n°2, p.118). Il écrit notamment :
"Si on exige des données homogénéité et (à l'échantillonnage près) exhaustivité, c'est dans l'espoir de découvrir les axes propres à un équilibre existant réellement dans la nature …" (1973, II, p.48).
"En nous appliquant à instruire des statisticiens philosophes, nous espérons au moins servir ceux qui saisissent l'outil pour dégager de la gangue des données le pur diamant de la véridique nature. " (1976, p.144)
Un second critère général utilisé pour déterminer une structure factorielle est celui de la "simplicité". La simplicité a été souvent définie, en analyse factorielle, par la notion de "structure simple" de Thurstone. Il présente ce modèle en 1935. Perfectionné au cours du temps, il sera très largement utilisé et continuera à être employé par les successeurs de son inventeur. On peut dire que ce modèle revient à orienter les facteurs de telle sorte que chacun ne contribue qu'à certaines des variables de l'ensemble de variables analysé, dans la mesure bien entendu où la structure de leurs corrélations le permet. On voit qu'il s'agit d'une attitude exactement opposée à celle de Spearman qui s'intéresse surtout au(x) facteur(s) concernant au contraire l'ensemble de ces variables. On ne s'étonnera pas de trouver dans la littérature de cette époque des échanges quelque peu polémiques (voir par exemple Spearman 1939b) entre les deux hommes.
On voit que le modèle de la structure simple n'est utilisable que si les vecteurs représentant les variables permettent de placer chaque axe représentant un facteur dans une position où il ne contribue qu'à certaine de ces variables. Le cas le plus favorable est celui où les vecteurs s'arrangent en " groupes " (clusters), chacun des facteurs de la structure saturant substantiellement les variables de l'un de ces groupes et de celui-là seulement . L'interprétation du facteur est alors claire : il peut être considéré comme représentant la (ou les) variable(s) causale(s) sous-jacente(s) ayant suscité ce regroupement des observations.
La détection de groupes de variables revêt donc une grande importance. L'hypothèse qui a régi l'expérience dont on analyse les résultats conduit souvent à attendre la présence de tels ou tels groupes : on introduit dans le matériel utilisé plusieurs variables qui, selon l'hypothèse, devraient être placées sous la dépendance des mêmes causes de variation, et d'autres variables qui, selon la même hypothèse, devraient ne pas en dépendre. L'analyse permet de savoir si cette attente se vérifie ou non.
Pour détecter d'éventuels " clusters ", il n'est pas indispensable de calculer des composantes principales ou des facteurs. Au prix d'une certaine perte d'information, on peut simplifier beaucoup le travail d'analyse. A la fin des années 30, en l'absence d'ordinateurs, c'était là pour beaucoup de chercheurs un avantage important. Il incita Robert Choate Tryon ( ? – 1967) à mettre au point, à l'issue d'une année sabbatique passée à apprendre de Thurstone, à Chicago, l'analyse factorielle, une première méthode d'analyse en groupes de variables (" cluster analysis "), conçue d'abord comme une " analyse factorielle du pauvre " (R.C. Tryon, 1939 ; R.C. Tryon à titre posthume et D.E. Bailey, 1970). Elle était fondée sur l'observation, pour chacune de l'ensemble de variables à analyser, du " profil " de ses corrélations avec les autres variables de l'ensemble. Le degré de ressemblance de deux profils était mesuré par leur corrélation. On plaçait dans un même groupe les variables présentant des profils jugés suffisamment ressemblant. Par la suite, et même après la généralisation de l'emploi des ordinateurs, de nombreuses autres méthodes d'analyse en clusters ont été proposées (notamment par R.B. Cattell). Elles diffèrent essentiellement par le critère utilisé pour définir et évaluer la " proximité " relative de deux variables considérées au sein d'un certain ensemble.
Le choix de la structure factorielle qu'on va mettre à l'épreuve par l'analyse ne dépend pas seulement de critères formels généraux comme l'"économie" ou la "simplicité". Il dépend aussi, dans un domaine de recherche donné, d'hypothèses spécifiques relatives au contenu de ce domaine (hypothèses "substantielles"). Une grande différence distingue les critères formels et les critères fondés sur des hypothèses substantielles. Les premiers dépendent entièrement des définitions que l'on convient de donner aux mots "économie" ou "simplicité", définitions qui sont aussi arbitraires que le sont toutes les définitions lexicales. Les seconds se trouvent en accord ou en désaccord (à un seuil d'approximation donné) avec les faits observés. Les hypothèses sur lesquelles ils se fondent sont ainsi amenées à évoluer au cours d'expériences répétées. On peut donc voir des critères substantiels d'abord différents converger vers une forme commune sous la pression des faits, une telle évolution ne pouvant se produire pour deux définitions différentes d'un mot comme "économie" ou "simplicité". Du point de vue qui est ici le nôtre, on peut se demander quels ont été, dans l'histoire de l'analyse factorielle, les aspects méthodologiques de l'introduction de tels critères substantiels, notamment chez Spearman, Burt et Thurstone.
Les hypothèses substantielles vont dicter d'abord le choix des variables observées qui seront soumises à l'analyse: il faut que ce choix rende possible l'émergence dans les observations de la structure traduisant l'hypothèse, tout en laissant courir un risque de réfutation raisonnable à cette hypothèse. Cette situation est évidemment la même dans la recherche expérimentale.
Spearman, en 1904, présente ses premiers résultats comme des découvertes, sans évoquer d'hypothèse préalable qui aurait orienté sa recherche. En fait, le choix de ses observations, aussi variées que possible au laboratoire comme dans la "vie réelle", laisse penser qu'il envisageait de mettre à l'épreuve les "doctrines" "monarchique", "oligarchique" et "anarchique" qu'il oppose en introduction de son livre de 1927. Mais en écartant l'usage de plusieurs épreuves susceptibles de mettre en Åuvre la même aptitude, il rendait difficile, voire impossible, l'apparition de facteurs de groupe. Il supprimait ainsi, en fait sinon en intention, tout risque de réfutation pour le modèle n'utilisant qu'un seul facteur commun à toutes les épreuves, qu'il devait privilégier constamment par la suite. Lorsque les arguments de Thurstone le forcent à admettre qu'un modèle comportant plusieurs facteurs peut rendre compte d'une table de corrélations explicable aussi par un seul facteur général, il continue à privilégier le facteur unique sur la base de deux arguments, l'un formel et l'autre substantiel : statistiquement, dit-il, il est d'une extrême simplicité ; psychologiquement, il offre d'après lui la seule base à "des concepts aussi utiles que ceux d'"aptitude générale" ou de "QI"". (1939b, p.79). En fait, Spearman n' a pas pu faire l'économie de facteurs de groupe communs à plusieurs variables mais non à toutes. Il les mentionne dès 1927, comme on l'a vu. Dans un ouvrage qu'il co-signe à titre posthume avec L.L.W. Jones (1950), ouvrage présenté comme une "suite" de celui de 1927, les auteurs vont plus loin et planifient une expérience en vue de montrer que la même opération cognitive caractéristique de g peut être effectuée sur le mode verbal ou sur le mode non-verbal. Ce modèle, dont l'expérience montre qu'il est compatible avec les corrélations observées, est évidemment très proche d'une hiérarchie comportant un facteur général et deux facteurs de groupe, hiérarchie couramment utilisée par des psychologues se réclamant de Burt plutôt que de Spearman (comme P.E. Vernon dans son livre de 1950).
Une longue polémique a opposé, à partir de 1916, Spearman à Godfrey Thomson (1881-1955). C'est, comme Spearman et Thurstone, un psychologue à vocation tardive : il commence l'étude de la psychologie à plus de trente ans, après avoir étudié et enseigné les sciences physiques. Leur discussion ne concerne que marginalement l'histoire des méthodes car elle porte essentiellement sur l'interprétation de l'analyse spearmanienne. Thomson montre en effet qu'une table de corrélations susceptible d'être expliquée par un facteur général, comme le fait Spearman, peut être construite artificiellement par jets de dés. Par conséquent, l'interprétation psychologique choisie par Spearman (depuis 1912, c'est "l'énergie mentale") ne s'impose pas. Lui-même propose à partir de 1919 d'interpréter les facteurs par une "théorie de l'échantillonnage" selon laquelle chaque test ferait appel à un échantillon des liaisons que l'esprit peut former. Il ne voit cependant dans les facteurs qu'un langage permettant éventuellement de décrire le fonctionnement de l'esprit et leur dénie toute réalité propre (G. Thomson, 1939).
Les contributions de Thomson relèvent davantage de l'histoire de la notion d'intelligence que de l'histoire des méthodes. La même remarque s'applique pour une part aux contributions de C. Burt.
Cyril Burt (1883-1971) étudia la philosophie et la psychologie à Oxford, puis travailla à Wurzbourg avec les psychologues expérimentalistes allemands. Après des activités concernant notamment la psychologie scolaire, Burt devint en 1931 professeur de psychologie au University College de Londres. Il devait soutenir des thèses très favorables à l'hérédité de l'intelligence, allant jusqu'à publier à la fin de sa vie, en faveur de cette thèse, des données dont l'authenticité scientifique fut contestée (voir L.S. Hearnshaw, 1979). Burt fonda en 1947, avec G. Thomson, le British Journal of Statistical Psychology. Il y publia de nombreux articles concernant l'analyse factorielle, à laquelle il avait déjà consacré un ouvrage en 1940. Dans ce domaine, il avait été l'élève de Spearman, mais renia toute dette à l'égard de son maître après la mort de celui-ci, prétendant de façon assez peu vraisemblable être un héritier direct de K. Pearson.
Au point de vue méthodologique, Burt a anticipé, sous le nom de "méthode de sommation simple", une méthode que Thurstone retrouvera indépendamment sous le nom de "méthode centroïde". Cette méthode, qui présentait l'intérêt de n'exiger que des calculs relativement simples, n'est plus utilisée depuis que l'emploi des ordinateurs s'est généralisé. Les autres contributions méthodologiques de Burt concernent en général la mise à l'épreuve de structures factorielles par des techniques arithmétiques. Les méthodes géométriques de Thurstone ont légitimement prévalu jusqu'à ce qu'intervienne, là aussi, la révolution informatique, et plus rien ne reste, à l'heure actuelle, des nombreux travaux méthodologiques de ce niveau publiés par Burt.
On peut par contre le créditer de l'importance qu'il a attachée au modèle factoriel "hiérarchique". Dans le domaine de l'intelligence, ce modèle comporte un facteur général associé à plusieurs facteurs de groupe qui lui sont subordonnés en ce sens qu'ils portent seulement sur la part de la variance commune des observations dont le facteur général n'a pas rendu compte. Ces facteurs de groupe peuvent, au moins en principe, s'ordonner eux-mêmes en plusieurs niveaux. En travaillant avec Spearman, Burt a nécessairement été confronté à des analyses au cours desquelles le facteur général seul ne suffisait pas à rendre compte de données qui suggéraient l'existence de facteurs de groupe. Spearman lui-même, nous l'avons dit, avait dû reconnaître le fait. Mais Burt affirme plus tard qu'il a privilégié l'usage de ce modèle pour des raisons philosophiques : il dit l'avoir emprunté à Herbert Spencer (1820-1903) qui en faisait un modèle très général du développement et de l'organisation des activités humaines. Un neurologue disciple de Spencer, Hughlings Jackson (1835-1911) pensait l'avoir retrouvé dans le développement et le fonctionnement du système nerveux, et Burt y voyait une raison de plus pour l'adopter en psychologie.
C'est par un autre cheminement méthodologique que Thurstone va être amené à reconnaître la compatibilité de sa structure simple avec la structure hiérarchique. Il avait utilisé d'abord des facteurs sans corrélation formant des structures "orthogonales". Le critère de structure simple, supposant idéalement que chaque facteur ait des projections aussi élevées que possible sur un certain groupe de tests et aussi faibles que possible sur tous les autres va lui imposer de localiser ses facteurs en fonction de la position qu'occupent les groupes de tests les uns par rapport aux autres. En procédant ainsi, il est amené à utiliser des facteurs "obliques", c'est à dire présentant entre eux des corrélations non nulles. Il avait envisagé l'emploi de tels facteurs dès 1935 mais, dit-il dans son autobiographie (1952), n'avait pas osé le faire, craignant les objections que ne manquerait pas de rencontrer l'usage d'axes de référence obliques. En 1938, ses structures simples sont encore orthogonales. En 1941, les Factorial Studies of Intelligence utilisent des structures simples obliques. Les corrélations entre facteurs "primaires" peuvent alors être expliquées par un facteur "de second ordre" sur lequel tous les tests se projettent. Ce g de second ordre ressemble fort au g que Spearman obtenait par d'autres moyens (en sélectionnant les variables analysées de façon à rendre impossible l'apparition de facteurs de groupe). Thurstone en convient, tout en se demandant ironiquement si Spearman va accepter l'argument qu'il lui apporte. L'ironie n'était pas de mise : Spearman n'a jamais fait état du g de second ordre. Il n'en reste pas moins que Thurstone est fondé à considérer l'analyse de second ordre comme un "essai d'unification du travail de Spearman avec le travail multifactoriel postérieur". (1948).
En fait, la convergence des travaux de Spearman et de Thurstone se fait sur le modèle hiérarchique que Burt privilégie en s'inspirant, dit-il, de Spencer et de Jackson. Encore faudrait-il que Spearman et Thurstone soient moins réticents à employer ce modèle. Spearman ne reconnaît que "du bout des lèvres" la légitimité de facteurs de groupe venant ajouter leurs effets à celui du facteur général. A partir d'une analyse thurstonienne de second ordre, on peut retrouver la hiérarchie en considérant les projections des tests sur les facteurs spécifiques de second ordre correspondant aux facteurs de groupe de premier ordre. Thurstone signale cette méthode en passant (1947, Ch. XVIII, p.425), mais ne l'utilise guère dans ses travaux. Etendue au troisième ordre, elle a permis de retrouver une hiérarchie de facteurs précédemment mise en évidence par une méthode de Burt. (M. Reuchlin, 1955).
La modélisation structurale
Il est difficile de préciser une date à laquelle serait apparu l'usage des modèles structuraux. L'expression peut en effet s'appliquer à différentes méthodes, à commencer par l'analyse factorielle de Spearman, si l'on considère avec F. Bacher (1987) qu'"un modèle structural consiste en une formalisation mathématique traduisant un certain nombre d'hypothèses relatives aux éléments essentiels d'un phénomène et aux lois qui le régissent".
On pourrait même croire, en examinant les méthodes de modélisation structurale, qu'elles ont constitué historiquement des développements directs - si importants soient-ils - de l'analyse factorielle.
Les modèles structuraux reprennent bien en effet l'idée que Spearman lançait en 1904 : former une équation (ici un système d'équations) dans laquelle figurent des variables observées (ou "manifestes" ou "mesurables") et des facteurs hypothétiques (variables "latentes"), de façon telle que les paramètres des variables latentes et les valeurs qu'elles prennent puissent être calculés à partir des relations entre variables observées. Ces relations entre variables observées étaient en analyse factorielle des corrélations ne traduisant qu'une simple association. Elles peuvent devenir aussi, dans les modèles structuraux, des relations causales à sens unique ("récurrentes") ou à double sens ("non récurrentes"), une variable observée pouvant être supposée contribuer causalement aux variations d'une autre variable observée ou même d'une variable latente (ce qui était exclu en analyse factorielle), concurremment aux effets supposés d'une ou plusieurs autres variables observées ou latentes. Thurstone avait admis que ses variables latentes (facteurs) puissent présenter des corrélations théoriquement explicables par des facteurs d'ordre supérieur. La hiérarchie de facteurs ainsi envisagée constituait déjà une organisation structurale de variables latentes. Dans les modèles structuraux, n'importe quel système de relations entre variables latentes peut être formalisé.
Le choix des hypothèses à vérifier se traduisait surtout en analyse factorielle par le choix des variables observées introduites dans l'analyse : on attendait un certain regroupement de ces variables par rapport aux facteurs hypothétiques. Dans les modèles structuraux, la formalisation de l'hypothèse peut conduire, dans l'écriture même du modèle, non seulement à postuler entre variables observées et variables latentes n'importe quel système de liaisons, mais encore à fixer la valeur de certains paramètres ou à imposer l'égalité de deux paramètres sans préciser leur valeur commune.
En analyse factorielle, on pouvait obtenir par "rotation" des axes un nombre illimité de solutions pertinentes à partir de l'une d'elles. Il fallait imposer à la solution recherchée des conditions supplémentaires (structure simple, composantes principales, etc.) pour la "déterminer". Dans les modèles structuraux, la valeur obtenue pour les paramètres n'est pas non plus toujours déterminée et des problèmes ayant la même signification sous des formes différentes peuvent se poser.
On voit par ces indications sommaires que les modèles structuraux pourraient être compris comme un développement de l'analyse factorielle certes très important, mais sans rupture d'une continuité fondamentale,. Certains auteurs ont cependant cru apercevoir une telle rupture, considérant que l'analyse factorielle était seulement "exploratoire" alors que les modèles structuraux seuls seraient "confirmatoires". Nous ne souscrivons pas à ce point de vue.
Nous avons donné plus haut des citations de pionniers de l'analyse factorielle assignant sans ambiguïté à cette méthode la fonction de vérifier une hypothèse ( T.L. Kelley, 1928 ; L.L. Thurstone, 1938). Beaucoup plus tard, un traité d'analyse factorielle consacrait 160 pages sur 407 à celle de ses parties intitulée : "L'épreuve d'hypothèse" (M. Reuchlin, 1964). On ne connaît pas d'auteur ayant soumis à une analyse factorielle un ensemble hétéroclite de variables rassemblées au hasard dans l'espoir que l'"exploration" de ces données permettrait de voir émerger des calculs quelque notion psychologique inconnue jusque là . Il en est de même pour les modèles structuraux. Le choix de la structure qu'un tel modèle va mettre en Åuvre, le caractère causal attribué à certaines de ses variables ne font que formaliser des hypothèses "substantielles" (psychologiques en ce qui nous concerne) afin que l'on puisse constater que ces hypothèses sont compatibles ou non avec les observations. Il faut souligner en particulier que les modèles structuraux ne sont des "modèles causaux", comme on les appelle parfois (notamment chez lez sociologues vers 1960), que dans la mesure où est causale l'hypothèse substantielle qu'ils mettent à l'épreuve. Les modèles structuraux peuvent par ailleurs assumer un certain rôle "exploratoire" lorsque, un modèle s'étant révélé incompatible avec les observations, l'utilisateur en essaie un autre ou plusieurs autres successivement (avec les problèmes de contre-validation que pose cette démarche).
Historiquement, les choses ne se sont cependant pas passées comme une analyse méthodologique actuelle pourrait ainsi conduire à le supposer. Si la psychométrie a apporté une contribution à l'édification des modèles structuraux, ces modèles sont plus directement issus de la biométrie et de l'économétrie, et ils ont été employés d'abord et surtout en sociologie.
S'il fallait dans un premier temps schématiser à grands traits cette histoire complexe, on pourrait dire que le principal initiateur de la modélisation structurale fut le biométricien Sewall Wright (1889-1998), inventeur des "pistes causales" au début des années 20. Cette orientation méthodologique inspira certains chercheurs en sociologie à partir des années 60, en particulier ceux qui s'intéressaient aux causes des inégalités éducatives et socio-économiques. La sociologie, sur ces thèmes, offrait un terrain de rencontre aux pistes causales des biométriciens et aux "équations simultanées" utilisées de longue date en économétrie. Quelques utilisations de ces méthodes apparaissent en psychologie au début des années 70. Elles avaient hérité de l'analyse factorielle l'emploi de variables latentes. Ces variables latentes se sont introduites dans les pistes causales et dans les équations simultanées qui n'utilisaient d'abord que des variables observées. K.G. Jöreskog joua le principal rôle dans l'édification d'un modèle intégrant les contributions d'origines différentes qui ont constitué la modélisation structurale actuelle et dans la mise au point d'un logiciel, LISREL (Linear Structural RELations), permettant de l'utiliser.
On peut ajouter quelques précisions à ce schéma. Les premiers travaux qui devaient conduire S. Wright à proposer le modèle et la méthode de l'"analyse de parcours" ou "analyse en pistes causales" (path analysis) ont été publiés par lui en 1918. Ils portent sur les composantes de mensurations osseuses et retrouvent indépendamment des formulations de Spearman (K.A. Bollen, 1989). Wright donne en 1934 une version complète de sa méthode, sur laquelle il devait publier pendant près de cinquante ans, jusqu'en 1983 !
Dans les années 60, les analyses statistiques "causales" ont éveillé un grand intérêt (et parfois peut-être quelques erreurs d'interprétation) en sociologie, discipline dans laquelle la recherche causale par contrôle expérimental est généralement impossible. L'usage de ces modèles en sociologie a conduit à y associer l'emploi de variables latentes; il a facilité l'introduction de relations non-récurrentes, en particulier entre variables observées et variables latentes. On trouve dans W.T. Bielby et R.M. Hauser (1977) des références sur l'introduction des modèles structuraux en sociologie. H.M. Blalock a joué un rôle important dans cette évolution, notamment par son ouvrage de 1964, Causal Inferences in Nonexperimental Research. Le sociologue français Raymond Boudon a proposé en 1965 dans ce contexte une méthode d'"analyse de dépendance" (R. Boudon, 1965a, 1965b).
L'utilisation de l'analyse de parcours en psychologie est envisagée à cette époque dans des domaines de recherche que la psychologie partage avec la sociologie : l'éducation et les inégalités qui s'y manifestent. C.E. Werts et R.L. Linn (1970) publient un article illustrant d'exemples psychologiques la présentation de l'analyse de parcours. Mais l'usage de la méthode ne s'étend pas dans notre discipline. Il est vrai que son utilisation suppose alors un degré élevé de qualification, chaque type de données pouvant exiger un modèle adapté. La difficulté - qui n'est pas ressentie seulement en psychologie - va être levée dans une large mesure par l'édification d'un modèle général et bientôt d'un logiciel facilitant sa mise en Åuvre. Ces progrès vont être dus en grande partie aux recherches d'un statisticien d'origine suédoise, K.G. Jöreskog, qui a travaillé avec des psychologues à l'Educational Testing Service de Princeton. Il a notamment proposé une généralisation de l'analyse factorielle de second ordre de Thurstone, un sujet ayant quelques rapports avec les modèles structuraux puisqu'il s'agit dans les deux cas de formaliser des relations entre variables latentes. Il publie avec Werts et Linn, en 1971, un article sur l'analyse de parcours avec des variables non-mesurées. L'analyse factorielle va fournir le "modèle de mesure" permettant d'introduire dans les équations structurales de l'analyse de parcours des variables non-mesurées construites à partir des variables observées.
Le modèle général intégrant l'analyse factorielle de la psychométrie, les équations simultanées de l'économie et les pistes causales de la biométrie est "dans l'air" vers 1971. Trois auteurs publient presque simultanément des propositions à son sujet : W. Keesling en 1972, K.G. Jöreskog en 1973 et D.E. Wiley en 1973. Elles sont suffisamment voisines pour que l'on en vienne à parler des modèles "J K W", d'après les initiales des trois auteurs. Cette dénomination est bientôt remplacée dans l'usage courant par la désignation du logiciel permettant une utilisation relativement aisée de ce modèle : LISREL. Une première version de ce logiciel a été présentée d'abord par K.G. Jöreskog et M. Van Thillo en 1973 dans un rapport de recherche du département de statistique de l'université d'Uppsala. Il a été développé par K.G. Jöreskog et D. Sörbom à partir de 1977. Plusieurs versions successives ont été commercialisées par ces auteurs, LISREL 8 datant de 1999. Plusieurs autres auteurs ont publié des logiciels simplifiés ou généralisés permettant l'usage de modèles structuraux, mais aucun ne paraît connaître à l'heure actuelle la diffusion de LISREL.
En France, Françoise Bacher a attiré l'attention des psychologues sur ces méthodes dans plusieurs articles (1984, 1987, 1989, 1999), est intervenue dans plusieurs séminaires à leur sujet et a assuré la direction de travaux les utilisant ; ce qui est aussi le cas de Paul Dickes qui a développé des enseignements de différents niveaux à leur sujet. Les possibilités ainsi offertes aux psychologues français n'ont cependant suscité jusqu'ici qu'un nombre très limité d'utilisations, que l'on peut estimer à quelques unités par an.
Le contraste est saisissant avec l'intérêt manifesté à l'égard des modèles structuraux par nos collègues américains. Dès 1986, P.M. Bentler n'hésite pas à parler dans Psychometrika du "développement explosif" de la modélisation structurale. P.F. Tremblay et R.C. Gardner (1996) ont recensé le nombre des articles portant sur les modèles structuraux dans les journaux psychologiques entre 1987 et 1994. Le nombre de ces articles passe de 82 en 1987 à 187 en 1994. L'intérêt à l'égard des modèles structuraux toutes disciplines confondues est aussi très vif. Plusieurs ouvrages substantiels ont été publiés en langue anglaise sur le sujet dans le cours des vingt dernières années. Un journal entièrement consacré à la modélisation structurale paraît régulièrement depuis 1994 chez Lawrence Erlbaum : Structural Equation Modeling. A Multidisciplinary Journal. J.T. Austin et R.F. Calderon avaient publié en 1991 une bibliographie portant sur 300 publications théoriques et techniques relatives à la modélisation structurale. Les mêmes auteurs peuvent, en 1996, publier dans le journal cité une mise à jour portant sur 320 publications nouvelles.
On peut se demander à quoi peut tenir cet énorme décalage entre l'usage des modèles structuraux aux Etats-Unis et en France. En l'absence d'une enquête de motivation qui pourrait être faite à ce sujet auprès des chercheurs, je me hasarderai à une hypothèse (qui se rattache aux considérations plus générales présentées dans M. Reuchlin, 1995).
La psychologie scientifique française paraît s'être définie de façon à peu près exclusive par l'emploi d'une méthode expérimentale visant à mettre en évidence l'effet isolé de chacune des causes possibles d'un comportement, les autres étant tenues constantes ou aléatorisées. Il est évident que cette démarche ne peut être adoptée pour l'étude des conduites qui se manifestent dans les conditions habituelles de vie, étude qui dès lors tend à être rejetée hors du domaine de la psychologie scientifique . Les méthodes statistiques susceptibles de traiter des données d'observation recueillies dans des conditions au moins voisines des conditions habituelles de vie ne peuvent alors présenter d'intérêt pour une psychologie scientifique ainsi délimitée. L'étude de ces données impose en effet une forme d'explication toute différente, conçue comme la description du fonctionnement, chez le vivant, d'une structure de variables agissant et interagissant les unes sur les autres. C'est ce mode d'explication que les modèles structuraux permettent de formaliser de façon plus ou moins approchée, mais il est en général ignoré ou rejeté par les psychologues expérimentalistes. Les statisticiens travaillant avec eux ont par suite, en France, consacré la totalité de leurs travaux à l'étude des méthodes relatives à l'organisation des expériences et au traitement analytique de leurs résultats , dans la tradition fondée par Ronald Fisher. Leurs ouvrages, leurs enseignements, leur assistance technique aux chercheurs se sont orientés exclusivement dans cette direction. Bien peu de psychologues français ont pu, en autodidactes, s'ouvrir à l'orientation épistémologique et acquérir les connaissances techniques que suppose la mise en Åuvre de la modélisation structurale.
On examinera dans un second article les origines et le développement de cette tradition fisherienne qui a si étroitement orienté les travaux des psycho-statisticiens français.
2007-08-08 11:42:18
·
answer #5
·
answered by ian curtis 6
·
2⤊
3⤋