🔬 Introduction aux Tests Statistiques avec Hypothèses (Exemples en SVTE)
Les tests statistiques permettent de vérifier si les données observées confirment ou réfutent une hypothèse scientifique. Ils sont essentiels pour analyser les résultats expérimentaux en biologie, écologie, géologie, et d’autres disciplines des sciences de la vie et de la Terre.
On émet une hypothèse pour expliquer un phénomène.
Cette hypothèse est ensuite mise à l’épreuve en comparant les prédictions qu’elle génère avec de nouvelles observations.
Les tests statistiques nous aident à déterminer objectivement si les nouvelles observations confirment ou non les prédictions.
Chaque test statistique se base sur deux hypothèses fondamentales :
H0 : L’hypothèse nulle, qui suppose qu’il n’y a pas de différence ou d’effet significatif.
H1 : L’hypothèse alternative, qui indique qu’il existe une différence ou un effet significatif.
Exemple Biologique :
Le Poids Moyen d’une Population :
On s’intéresse au poids moyen d’une population (par exemple, des animaux).
Hypothèse de départ (H0) : Le poids moyen de cette population est de 250 g.
On prélève un échantillon de cette population et on mesure le poids des individus.
Si l’échantillon a un poids moyen très différent de 250 g, cela remet en question l’hypothèse de départ.
Le Principe Général d’un Test Statistique
Formulation d’une hypothèse (H0) : C’est une affirmation que l’on veut tester. On commence souvent par supposer qu’il n’y a pas d’effet ou pas de différence.
Collecte de données (observations) : On réalise des mesures ou des observations.
Analyse des données : On compare les données observées avec ce que l’on s’attendrait à observer si l’hypothèse de départ était vraie.
Prise de décision : On décide si les données observées sont suffisamment différentes de ce que l’on attendait pour rejeter l’hypothèse de départ.
Les Deux Types d’Erreurs Possibles
Lorsqu’on prend une décision, il y a toujours un risque de se tromper. On distingue deux types d’erreurs :
Erreur de type I (Faux positif) : Rejeter l’hypothèse de départ (H0) alors qu’elle est en réalité vraie.
Exemple : Conclure que la pièce n’est pas honnête alors qu’elle l’est.
La probabilité de commettre cette erreur est notée α (alpha), souvent fixée à 5%.
Erreur de type II (Faux négatif) : Accepter l’hypothèse de départ (H0) alors qu’elle est en réalité fausse.
Exemple : Conclure que la pièce est honnête alors qu’elle est truquée.
La probabilité de commettre cette erreur est notée β (bêta), plus difficile à quantifier.
Le Seuil de Signification (α)
Le seuil de signification (α), généralement fixé à 5% (ou 0.05), représente la probabilité que nous sommes prêts à accepter de commettre une erreur de type I.
Si la probabilité d’obtenir les résultats observés (ou des résultats encore plus extrêmes) sous l’hypothèse de départ est inférieure à α, on rejette H0.
Interprétation des Résultats d’un Test
* Le résultat d’un test statistique (la décision prise) n’est pas une preuve absolue de quoi que ce soit.
* Il est toujours pris avec un certain risque d’erreur (quantifié par α).
* Rejeter H0 ne signifie pas que H1 (l’hypothèse alternative) est forcément vraie, mais simplement que les données observées sont peu probables si H0 était vraie.
* Accepter H0 ne prouve pas que H0 est vraie, mais simplement que les données observées sont compatibles avec H0.
Le Compromis entre les Erreurs
Réduire le risque de commettre une erreur de type I (diminuer α) augmente généralement le risque de commettre une erreur de type II (augmenter β).
Il faut donc trouver un équilibre en fonction du contexte et des conséquences de chaque type d’erreur.
Conclusion
* Les tests statistiques sont des outils essentiels pour prendre des décisions objectives basées sur des données.
* Ils reposent sur la comparaison entre des observations et des attentes théoriques.
* Il est crucial de comprendre les risques d’erreurs associés à toute décision prise à partir d’un test statistique.
Exercice : Efficacité d’un Nouveau Traitement
Une entreprise pharmaceutique a développé un nouveau traitement pour une maladie courante. Elle affirme que ce nouveau traitement permet une guérison complète en moyenne en moins de 10 jours. Pour tester cette affirmation, une étude a été menée sur un échantillon de 40 patients atteints de cette maladie. Les résultats montrent que la durée moyenne de guérison pour cet échantillon est de 9.5 jours, avec un écart-type de 2.8 jours.
Question : En utilisant un test d’hypothèse au seuil de signification α = 0.05, peut-on conclure que le nouveau traitement permet une guérison complète en moyenne en moins de 10 jours ?
Étape 1 : Comprendre le Problème et Formuler les Hypothèses
Ce que l’on veut savoir : Si le nouveau traitement est efficace, la durée moyenne de guérison devrait être inférieure à 10 jours.
Hypothèse Nulle (H₀) : C’est l’hypothèse de base, souvent l’opposé de ce que l’on veut prouver. Dans ce cas, on va supposer que le traitement n’est pas plus efficace que l’ancien (ou qu’il n’est pas inférieur à 10 jours en moyenne).
H₀ : μ ≥ 10 jours (La durée moyenne de guérison est supérieure ou égale à 10 jours).
Hypothèse Alternative (H₁) : C’est ce que l’entreprise pharmaceutique affirme. H₁ : μ < 10 jours (La durée moyenne de guérison est inférieure à 10 jours).
Étape 2 : Choisir le Test Statistique
Nous comparons la moyenne d’un échantillon (9.5 jours) à une valeur supposée pour la moyenne de la population (10 jours).
Nous connaissons l’écart-type de l’échantillon (s = 2.8 jours) et la taille de l’échantillon (n = 40).
La taille de l’échantillon est supérieure à 30 (n > 30), ce qui nous permet d’utiliser un test Z.
La formule de la statistique de test Z est :
Z = (X̄ – μ₀) / (σ / √n)
Où :
X̄ est la moyenne de l’échantillon (9.5 jours).
μ₀ est la moyenne supposée sous l’hypothèse nulle (10 jours).
σ est l’écart-type de la population. On l’estime par l’écart-type de l’échantillon (s = 2.8 jours).n est la taille de l’échantillon (40).
Étape 3 : Calculer la Statistique de Test
Calculons la valeur de Z :
Z = (9.5 – 10) / (2.8 / √40)
Z = -0.5 / (2.8 / 6.32)
Z = -0.5 / 0.443
Z ≈ -1.13
Étape 5 : Prendre une Décision et Conclure
Type de test : Puisque l’hypothèse alternative est μ < 10 jours, il s’agit d’un test unilatéral à gauche.
Valeur critique : Pour un test unilatéral à gauche avec α = 0.05, on cherche la valeur critique Zα telle que la probabilité d’obtenir une valeur de Z inférieure à cette valeur soit de 0.05. En consultant une table de la loi normale standard, on trouve que la valeur critique est approximativement Zα = -1.645.
Règle de décision : On rejette l’hypothèse nulle (H₀) si la valeur calculée de Z est inférieure à la valeur critique (-1.645).
Notre Z calculé : Z ≈ -1.13
Décision : Puisque -1.13 est supérieur à -1.645 (-1.13 > -1.645), la valeur de Z observée ne se situe pas dans la région de rejet.
Conclusion : Nous ne rejetons pas l’hypothèse nulle (H₀).
Les données de l’échantillon ne fournissent pas suffisamment de preuves pour conclure que la durée moyenne de guérison avec le nouveau traitement est inférieure à 10 jours au seuil de signification de 5%.
Points Clés à Souligner :
Ne pas rejeter H₀ ne prouve pas que H₀ est vraie. Cela signifie simplement que nos données ne sont pas suffisamment convaincantes pour rejeter l’hypothèse initiale.
Le seuil de signification (α) est important. Si on avait utilisé un seuil plus élevé (par exemple, α = 0.10), la valeur critique serait moins négative, et on pourrait potentiellement rejeter H₀.
Le contexte est crucial. Dans ce cas, il s’agit d’une décision concernant l’efficacité d’un traitement médical, donc il est important d’être prudent avant de conclure.
Règle de Décision Générale : Comparaison de la p-valeur avec α
La méthode la plus courante et fondamentale pour prendre une décision est de comparer la p-valeur (la probabilité d’obtenir des résultats aussi extrêmes que ceux observés si H₀ est vraie) avec le seuil de signification α.
- Si la p-valeur ≤ α : On rejette H₀. Les données observées sont suffisamment improbables sous l’hypothèse nulle pour la rejeter.
- Si la p-valeur > α : On ne rejette pas H₀. Les données observées sont compatibles avec l’hypothèse nulle.
Règle de Décision Alternative : Comparaison de la Statistique de Test avec une Valeur Critique
Une autre approche, qui est équivalente à la comparaison des p-valeurs avec α, consiste à comparer la statistique de test calculée (par exemple, la valeur de Z ou de t) avec une valeur critique déterminée par le seuil de signification α et la distribution de la statistique de test. C’est ici que les notions de “inférieur“, “supérieur” ou “entre deux valeurs” entrent en jeu, en fonction du type de test.
1. Test Unilatéral à Gauche (H₁ : μ < valeur)
- Valeur Critique : On recherche une valeur critique dans la queue gauche de la distribution (Zα ou tα avec un signe négatif).
- Règle de Décision : On rejette H₀ si la statistique de test calculée est inférieure ou égale à la valeur critique négative.
- Exemple avec Z : Si α = 0.05, la valeur critique Zα est environ -1.645. On rejettera H₀ si la valeur de Z calculée est ≤ -1.645.
2. Test Unilatéral à Droite (H₁ : μ > valeur)
- Valeur Critique : On recherche une valeur critique dans la queue droite de la distribution (Z₁-α ou t₁-α).
- Règle de Décision : On rejette H₀ si la statistique de test calculée est supérieure ou égale à la valeur critique positive.
- Exemple avec Z : Si α = 0.05, la valeur critique Z₁-α est environ 1.645. On rejettera H₀ si la valeur de Z calculée est ≥ 1.645.
3. Test Bilatéral (H₁ : μ ≠ valeur)
- Valeurs Critiques : On divise le seuil de signification α en deux, plaçant α/2 dans chaque queue de la distribution. On a donc deux valeurs critiques : une négative (-Zα/2 ou -tα/2) et une positive (Zα/2 ou tα/2).
- Règle de Décision : On rejette H₀ si la statistique de test calculée est soit inférieure ou égale à la valeur critique négative, soit supérieure ou égale à la valeur critique positive. En d’autres termes, la statistique de test doit tomber dans l’une des deux régions de rejet situées dans les queues de la distribution.
- Exemple avec Z : Si α = 0.05, α/2 = 0.025. Les valeurs critiques Zα/2 sont environ -1.96 et 1.96. On rejettera H₀ si la valeur absolue de Z calculée (|Z|) est ≥ 1.96 (ce qui équivaut à Z ≤ -1.96 ou Z ≥ 1.96).
Concernant l’utilisation de la valeur absolue |Z| :
On utilise souvent la valeur absolue de la statistique de test (comme |Z| ou |t|) dans le contexte des tests bilatéraux lorsqu’on compare directement la statistique de test à une seule valeur critique positive.
- Pour un test bilatéral avec un seuil α, on trouve la valeur critique correspondant à α/2 dans la queue droite (par exemple, Zα/2).
- On rejette H₀ si la valeur absolue de la statistique de test calculée est supérieure ou égale à cette valeur critique positive.
- Exemple : Pour un test bilatéral avec α = 0.05, Zα/2 ≈ 1.96. On rejettera H₀ si |Z| ≥ 1.96. Cela simplifie la comparaison en une seule étape, car si |Z| est grand, cela signifie que Z est soit très positif (dans la queue droite), soit très négatif (dans la queue gauche), ce qui est ce que l’on recherche dans un test bilatéral.
En résumé :
- La décision de rejet dépend du type de test (unilatéral ou bilatéral).
- Pour les tests unilatéraux, on compare la statistique de test à une seule valeur critique (inférieure pour un test à gauche, supérieure pour un test à droite).
- Pour les tests bilatéraux, on compare la statistique de test à deux valeurs critiques (une négative et une positive), ou de manière équivalente, on compare la valeur absolue de la statistique de test à une seule valeur critique positive.
- La méthode de la p-valeur est une alternative qui simplifie la décision en comparant directement une probabilité (la p-valeur) au seuil de signification α.
Comprendre le type d’hypothèse alternative (H₁) est essentiel pour déterminer si le test est unilatéral ou bilatéral et donc comment appliquer correctement la règle de décision.
🔑 Qu’est-ce que la valeur p ?
La valeur p est la probabilité d’obtenir un résultat aussi extrême (ou plus extrême) que celui observé, si l’hypothèse nulle H0 est vraie.
- Une valeur p faible (généralement < 0.05) signifie que les résultats observés sont peu probables sous H0. Dans ce cas, on rejette H0 et on considère que l’effet est statistiquement significatif.
- Une valeur p élevée (≥ 0.05) indique que les données sont compatibles avec H0, et donc, on ne rejette pas H0.
📏 Exemple : Si tu compares la taille moyenne de deux espèces de plantes et que tu trouves une valeur p de 0.02 :
➡️ Il y a seulement 2 % de chances d’observer une telle différence si les deux espèces ont réellement la même taille moyenne.
➡️ Conclusion : On rejette H0 et on considère qu’il y a une différence significative de taille entre les deux espèces.
Les tests peuvent être classés en deux grandes catégories :
1️⃣ Tests Paramétriques → Nécessitent que les données suivent une distribution normale.
2️⃣ Tests Non Paramétriques → Utilisés lorsque les données ne suivent pas de distribution spécifique.
Ce guide explique comment choisir le bon test et interpréter les résultats à travers des exemples adaptés aux sciences de la vie, de la Terre et de l’environnement.
🔍 1. Tests Paramétriques
Ces tests supposent que les données suivent une distribution spécifique, généralement une loi normale (courbe en cloche).
✅ Test T de Student (ou T² de Hotelling pour des données multivariées)
➡️ Utilisé pour comparer les moyennes de deux groupes.
- H0 : Les moyennes des deux groupes sont égales.
- H1 : Les moyennes des deux groupes sont différentes.
📏 Exemple : Comparer la taille moyenne de deux espèces de plantes.
🔴 Rejet de H0 si la valeur p < 0.05 → Il y a une différence significative entre les deux moyennes.
✅ ANOVA (Analyse de Variance)
➡️ Pour comparer les moyennes entre plus de deux groupes.
- H0 : Toutes les moyennes des groupes sont égales.
- H1 : Au moins une moyenne diffère des autres.
📏 Exemple : Comparer la croissance de trois types d’algues sous différentes intensités lumineuses.
🔴 Rejet de H0 si p < 0.05 → Il existe au moins une différence significative entre les groupes.
✅ Régression linéaire
➡️ Analyse la relation entre deux variables continues.
- H0 : Il n’y a pas de relation linéaire entre les deux variables.
- H1 : Il existe une relation linéaire significative.
📏 Exemple : Étudier la corrélation entre la température et la vitesse de décomposition des feuilles.
🔴 Rejet de H0 si p < 0.05 → Une relation linéaire significative est présente.
📊 2. Tests Non Paramétriques
Aucun prérequis sur la distribution des données. Ces tests sont plus robustes pour des données qui ne suivent pas la loi normale.
✅ Test du Chi² (Chi-carré)
➡️ Vérifie si les fréquences observées diffèrent des fréquences attendues.
- H0 : Les fréquences observées correspondent aux fréquences attendues.
- H1 : Les fréquences observées diffèrent significativement des fréquences attendues.
📏 Exemple : Tester si la distribution des couleurs de fleurs suit un modèle mendélien.
🔴 Rejet de H0 si p < 0.05 → La distribution observée diffère de la distribution attendue.
✅ Test de Poisson
➡️ Utilisé pour des événements rares dans un espace ou un temps donné.
- H0 : Le nombre d’événements suit une distribution de Poisson.
- H1 : Le nombre d’événements ne suit pas une distribution de Poisson.
📏 Exemple : Analyser la répartition des espèces rares dans une parcelle forestière.
🔴 Rejet de H0 si p < 0.05 → La distribution ne suit pas un modèle de Poisson.
✅ Test de Mann-Whitney
➡️ Alternative non paramétrique au test T de Student.
- H0 : Les deux groupes ont des distributions similaires.
- H1 : Les deux groupes ont des distributions différentes.
📏 Exemple : Comparer la taille de deux populations d’insectes sans supposer une distribution normale.
🔴 Rejet de H0 si p < 0.05 → Il y a une différence significative entre les deux distributions.
✅ TEST DE KRUSKAL-WALLIS
➡️ Alternative non paramétrique à l’ANOVA pour comparer plus de deux groupes.
H0 : Les distributions des groupes sont similaires.
H1 : Au moins un groupe a une distribution significativement différente des autres.
📏 Exemple : Comparer la croissance de trois types de champignons sous différents niveaux d’humidité sans supposer de distribution normale.
🔴 Rejet de H0 si p < 0.05 → Il existe au moins une différence significative entre les groupes.
🔢 3. Tests de Normalité
Avant de choisir entre un test paramétrique ou non paramétrique, il faut vérifier si les données suivent une loi normale.
✅ Test de Shapiro-Wilk
➡️ Vérifie la normalité des données.
- H0 : Les données suivent une loi normale.
- H1 : Les données ne suivent pas une loi normale.
📏 Exemple : Tester si les données de pH d’un lac suivent une distribution normale.
🔴 Rejet de H0 si p < 0.05 → Les données ne suivent pas une distribution normale.
✅ Test de Kolmogorov-Smirnov
➡️ Compare une distribution observée avec une distribution théorique.
- H0 : La distribution observée correspond à la distribution théorique.
- H1 : La distribution observée diffère de la distribution théorique.
📏 Exemple : Vérifier si la distribution des tailles de poissons correspond à une loi normale.
🔴 Rejet de H0 si p < 0.05 → La distribution des données diffère de celle attendue.
✅ Comment Choisir le Bon Test ?
1️⃣ Les données suivent-elles une loi normale ?
➡️ Oui → Utiliser un test paramétrique
➡️ Non → Utiliser un test non paramétrique
2️⃣ Combien de groupes dois-je comparer ?
➡️ 2 groupes → Test T (paramétrique) ou Mann-Whitney (non paramétrique)
➡️ Plus de 2 groupes → ANOVA (paramétrique) ou Kruskal-Wallis (non paramétrique)
3️⃣ Les données sont-elles des fréquences ?
➡️ Oui → Test du Chi²
4️⃣ Quand rejeter H0 ?
➡️ Si la valeur p < 0.05 (ou un seuil choisi, par ex. 0.01) → On rejette H0
➡️ Si la valeur p ≥ 0.05 → On ne rejette pas H0 (les résultats ne sont pas significatifs)