3.2.3 - Utiliser les statistiques pour comparer les échantillons

CONSEIL

Les tests statistiques permettent essentiellement d’évaluer les répartitions obtenues pour savoir si elles sont dûes au hasard ou si elles recèlent des informations intéressantes.

 

Il est nécessaire de disposer de méthodes permettant de définir les  variations, les évolutions, les ressemblances ou les différences entre années, entre catégories, entre sites. Après saisie et organisation en tableau des données, et si les représentations graphiques n’apportent pas suffisamment d’éléments, des tests statistiques plus complexes pourront être utilisés.

3.2.3.1 Choisir un test statistique

Les objectifs principaux auxquels peuvent répondre les tests statistiques sont :

  • l’évaluation de la représentativité des répartitions observées par rapport aux valeurs connues pour l’ensemble de la population,
  • la mesure de la significativité de la différence constatée sur les observations de deux groupes d’individus ou d’un même groupe pour deux variables observées,
  • l’existence et l’intensité d’une liaison entre deux variables.

Ce type de test est utile dans les espaces naturels lorsque l'on veut par exemple établir si deux types de gestion sont différents ou si l’un est "meilleur" que l'autre. Dans tous les cas, le groupe qui a subi le traitement (un mode de gestion par exemple) est comparé à celui qui n'en a pas subi, ou qui a subi un traitement différent.
Le choix d’un test statistique s’avère tellement lié à celui du plan d’échantillonnage qu’il est souvent difficile de déterminer quel choix précède l’autre. En effet, beaucoup d’analyses factorielles nécessitent une collecte très particulière des données.
Il existe une multitude de tests utilisés pour comparer les échantillons entre eux, mesurer la ressemblance entre les échantillons et vérifier les hypothèses. On distingue deux grandes catégories de tests : les tests paramétriques et les tests non paramétriques (voir encadré ci-dessous). On choisira les tests appropriés en fonction du type de mesure, de la forme de la distribution de fréquences et du nombre d'échantillons dont on dispose.

Tests paramétriques et non paramétriques (avantages et inconvénients)

TEST PARAMÉTRIQUE
Un test paramétrique s’applique aux analyses qui mettent en jeu des variables dont l’évolution est susceptible de suivre une loi statistique dont les paramètres sont «connus» ou du moins «estimables». En général, ces tests ne peuvent s’appliquer qu’aux variables numériques. Quand leurs conditions sont remplies, ils sont plus puissants que les tests non paramétriques.

TEST NON PARAMÉTRIQUE
Les tests non paramétriques s’appliquent quant à eux, à la fois aux variables numériques et qualitatives.

Un test non paramétrique est un test dont le modèle ne précise pas les conditions que doivent remplir les paramètres de la population dont a été extrait l’échantillon. Cependant certaines conditions d’application doivent être vérifiées. Les échantillons considérés doivent être aléatoires (lorsque tous les individus ont la même probabilité de faire partie de l’échantillon) et simples (tous les individus qui doivent former l’échantillon sont prélevés indépendamment les uns des autres), et éventuellement indépendants les uns des autres (emploi de tables de nombres aléatoires).
Ces tests ne font pas référence à une répartition particulière de la populationmère.

Ils peuvent donc s’appliquer à des petits échantillons. Les tests nonparamétriques sont utilisés dès que l'effectif «N» d'un échantillon est inférieur à 30, même pour des échantillons de taille très faible jusqu’à N=6.
S’ils sont théoriquement moins puissants que les tests paramétriques, on peut quand même considérer qu’ils sont plus adaptés aux problématiques d’enquêtes. Des études ont d’ailleurs prouvé que leur exactitude sur des grands échantillons n’est que légèrement inférieure à celle des tests paramétriques, alors qu’ils sont infiniment plus exacts sur des petits échantillons.

Ils sont plus faciles à apprendre et à appliquer que les tests paramétriques.

Leur relative simplicité résulte souvent du remplacement des valeurs observées soit par des variables alternatives, indiquant l'appartenance à l'une ou à l'autre classe d'observation, soit par les rangs, c'est-à-dire les numéros d'ordre des valeurs observées rangées par ordre croissant. C'est ainsi que la médiane est généralement préférée à la moyenne, comme paramètre de position.


L'assistance de logiciels statistiques permet d'effectuer rapidement et avec une bonne fiabilité les calculs nécessaires à l'authentification des tests et à obtenir les paramètres nécessaires pour accepter ou rejeter les hypothèses.

3.2.3.2 Quelques exemple de tests de comparaison d’échantillons

Nous nous limiterons ici à énoncer les tests et démarches usuelles utilisés sans les détailler. Le but n’est pas de présenter l’intégralité des notions mais d’éclairer le gestionnaire. Pour en savoir plus le gestionnaire se référera à la bibliographie.

Le cas des échantillons isolés :

Pour savoir si la distribution des réponses de deux variables qualitatives est due au hasard ou si elle révèle une liaison entre elles, on utilise généralement le test du Khi2 dit «Khi-deux». Celui-ci mesure l’écart entre les valeurs observées et les valeurs théoriques attendues si l’hypothèse était bien vérifiée (l’association des espèces). Le Khi2 s’obtient grâce à un tableau croisé dit «tableau de contingence» (voir page 80). L'inconvénient de ce test consiste en une perte d'informations par la transformation d'une variable quantitative en variable qualitative. Il est donc à déconseiller dans les cas où l'on peut utiliser une variable quantitative. Ce test est disponible en standard dans EXCEL.

Lorsque l’on cherche à déterminer si deux variables numériques sont liées, on parle de corrélation. Les trois tests de corrélation les plus utilisés sont ceux de Spearman, Kendall et Pearson. Les deux premiers sont des tests nonparamétriques. Ces deux tests commencent par classer les valeurs observées pour chaque individu à chacune des deux variables. Ainsi, si on cherche à évaluer la corrélation entre l’âge et le le poids d’un individu, la première étape du calcul évalue pour l’individu 1 puis 2, puis n, son classement en fonction de l’âge et celui en fonction du poids. Le test de Spearman se base sur la différence des rangs pour chaque individu, pour donner, à partir d’une formule particulière, la valeur du test (R de Spearman). Plus cette valeur est proche de 0 plus les 2 variables sont indépendantes. A l’inverse, plus il est proche de 1, plus elles sont corrélées.

Le cas de deux échantillons indépendants :

Les échantillons indépendants peuvent être extraits au hasard dans deux populations ou proviennent de l'assignation au hasard de deux traitements (deux modes de gestion par exemple) aux membres d'un échantillon. Lorsque l’on compare deux échantillons indépendants, ces deux échantillons ne doivent pas avoir nécessairement la même taille. Il est possible de faire des comparaisons de moyenne. Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles. Afin de déterminer si les échantillons proviennent de la même population ou de deux populations différentes, il est plutôt conseillé d’utiliser des tests non paramétriques : le test de Mann-Whitney ou le test de Kolmogorov-Smirnov.

Test U de
Mann et
Whitney
Comme ce dernier, il s’applique essentiellement sur une variable numérique (ou qualitative ordinale). Il commence par mettre ensemble les réponses des 2 groupes X et Y et à les classer. Le calcul porte ensuite sur le nombre de fois où un individu du groupe X précède un individu du groupe Y.
La somme de ces éléments permet d’obtenir la valeur du test à comparer à la valeur critique dans la table de Mann-Whitney.
Test de
Kolmogorov
-Smirnov
Il recherche la plus grande déviation existante entre deux distributions cumulatives. Il faut réaliser la distribution cumulative de fréquence pour chaque échantillon, avec les mêmes intervalles pour les deux distributions. Pour chaque intervalle on calcule la différence entre les deux distributions et on recherche la plus forte de ces déviations.


Le cas de deux échantillons appariés :

Le test de Wilcoxon signé est aussi une alternative non paramétrique au test «T» de Student pour données appariées. Là aussi, les deux variables à tester doivent être numériques (ou assimilées). Les échantillons étant appariés, ils doivent nécessairement comporter le même nombre d'individus. On forme pour chaque paire d'observations la différence puis on classe ces observations en valeurs absolues croissantes, en mentionnant pour chacune si elle est positive ou négative (les différences nulles sont éliminées).

Le cas de plus de deux échantillons appariés :

Il existe un autre test non paramétrique permettant de comparer plus de 2 échantillons et qui est en fait la généralisation du test de Mann-Whitney. Il s’agit du test de Kruskal-Wallis. Ce test, très utile, permet d'analyser la liaison entre un caractère quantitatif et un caractère qualitatif à k classes (k >2). Ce test permet notamment d'effectuer des comparaisons multiples en testant ce que l'on appelle les rangs moyens. Il s’agit de la procédure la plus utilisée dans les tests non paramétriques.

Table des matières