Test T dans R: Excellente Référence - Datanovia (2024)

Test T dans R

20 mins

Comparaison de Deux Moyennes dans R

312725333027361718

Le test t est utilisé pour comparer deux moyennes.

Ce chapitre décrit les différents types de tests t, notamment:

  • tests t pour échantillon unique,
  • t-test pour échantillons indépendants : Test t de Student et test t de Welch
  • T test pour échantillons appariés.

Vous apprendrez à:

  • Calculez les différents t-tests dans R. La fonction t_test() [paquet rstatix], qui est compatible avec les pipes, sera utilisée.
  • Vérifier les hypothèses du test t
  • Calculez et rapportez la taille de l’effet du test t en utilisant le d de Cohen. La statistique “d” redéfinit la différence de moyennes comme le nombre d’écarts-types qui sépare ces moyennes. Les tailles d’effet conventionnelles des tests T, proposées par Cohen, sont : 0,2 (petit effet), 0,5 (effet modéré) et 0,8 (effet important) (Cohen 1998).


Sommaire:

  • Prérequis
  • Tests t pour échantillon unique
    • Données de démonstration
    • Statistiques descriptives
    • Visualisation
    • Hypothèses et tests préliminaires
    • Calculs
    • Taille de l’effet
    • Rapporter
  • T-test pour échantillons indépendants
    • Données de démonstration
    • Statistiques descriptives
    • Visualisation
    • Hypothèses et tests préliminaires
    • Calculs
    • Taille de l’effet
    • Rapporter
  • T-test pour échantillons appariés
    • Données de démonstration
    • Statistiques descriptives
    • Visualisation
    • Hypothèses et tests préliminaires
    • Calculs
    • Taille de l’effet
    • Rapporter
  • Résumé
  • References

Livre Apparenté

Pratique des Statistiques dans R II - Comparaison de Groupes: Variables Numériques

Prérequis

Assurez-vous d’avoir installé les paquets R suivants:

  • tidyverse pour la manipulation et la visualisation des données
  • ggpubr pour créer facilement des graphiques prêts à la publication
  • rstatix offre des fonctions R conviviales pour des analyses statistiques faciles à réaliser.
  • datarium: contient les jeux de données requis pour ce chapitre.

Commencez par charger les packages requis suivants:

library(tidyverse)library(ggpubr)library(rstatix)

Tests t pour échantillon unique

Le test t pour échantillon unique, également connu sous le nom de test t pour une seule moyenne , est utilisé pour comparer la moyenne d’un échantillon à une moyenne standard connue (ou théorique / hypothétique).

Généralement, la moyenne théorique provient de:

  • une expérience précédente. Par exemple, en comparant si le poids moyen des souris diffère de 200 mg, une valeur déterminée dans une étude précédente.
  • ou d’une expérience où vous avez des conditions contrôles et de traitements. Si vous exprimez vos données en “pourcentage de contrôle”, vous pouvez tester si la valeur moyenne de la condition de traitement diffère significativement de 100.

Données de démonstration

Jeu de données de démonstration : mice [package datarium]. Contient le poids de 10 souris:

# Charger et inspecter les donnéesdata(mice, package = "datarium")head(mice, 3)
## # A tibble: 3 x 2## name weight## <chr> <dbl>## 1 M_1 18.9## 2 M_2 19.5## 3 M_3 23.1

Statistiques descriptives

Calculer quelques statistiques sommaires : nombre de sujets, moyenne et sd (écart-type)

mice %>% get_summary_stats(weight, type = "mean_sd")
## # A tibble: 1 x 4## variable n mean sd## <chr> <dbl> <dbl> <dbl>## 1 weight 10 20.1 1.90

Visualisation

Créer un boxplot pour visualiser la distribution du poids des souris. Ajoutez également des points jitter pour montrer les observations individuelles. Le gros point représente le point moyen.

bxp <- ggboxplot( mice$weight, width = 0.5, add = c("mean", "jitter"), ylab = "Weight (g)", xlab = FALSE )bxp

Test T dans R: Excellente Référence - Datanovia (1)

Hypothèses et tests préliminaires

Le test t pour échantillon unique suppose les caractéristiques suivantes au sujet des données:

  • Aucune valeur aberrante significative dans les données
  • Normalité. les données devraient être distribuées approximativement normalement

Dans cette section, nous effectuerons quelques tests préliminaires pour vérifier si ces hypothèses sont respectées.

Identifier les valeurs aberrantes

Les valeurs aberrantes peuvent être facilement identifiées à l’aide des méthodes boxplot, implémentées dans la fonction R identify_outliers()[paquet rstatix].

mice %>% identify_outliers(weight)
## [1] name weight is.outlier is.extreme## <0 rows> (or 0-length row.names)

Il n’y avait pas de valeurs extrêmes aberrantes.

Notez que, dans le cas où vous avez des valeurs extrêmes aberrantes, cela peut être dû à : 1) erreurs de saisie de données, erreurs de mesure ou valeurs inhabituelles.

Dans ce cas, vous pourriez envisager d’exécuter le test de Wilcoxon non paramétrique.

Vérifier l’hypothèse de normalité

L’hypothèse de normalité peut être vérifiée en calculant le test Shapiro-Wilk. Si les données sont normalement distribuées, la p-value doit être supérieure à 0,05.

mice %>% shapiro_test(weight)
## # A tibble: 1 x 3## variable statistic p## <chr> <dbl> <dbl>## 1 weight 0.923 0.382

Selon le résultat, la p-value est supérieure au niveau de significativité 0,05 indiquant que la distribution des données n’est pas significativement différente de la distribution normale. En d’autres termes, nous pouvons supposer que la normalité.

Vous pouvez également créer un QQ plot des données de weight. Le graphique QQ plot dessine la corrélation entre une donnée définie et la distribution normale.

ggqqplot(mice, x = "weight")

Test T dans R: Excellente Référence - Datanovia (2)

Tous les points se situent approximativement le long de la ligne de référence (45 degrés), pour chaque groupe. Nous pouvons donc supposer la normalité des données.

Notez que, si la taille de votre échantillon est supérieure à 50, le graphique de normalité QQ plot est préféré parce qu’avec des échantillons de plus grande taille, le test de Shapiro-Wilk devient très sensible même à un écart mineur par rapport à la normale.

Si les données ne sont pas normalement distribuées, il est recommandé d’utiliser un test non paramétrique tel que le test de Wilcoxon à échantillon unique. Ce test est semblable au test t pour échantillon unique, mais il est axé sur la médiane plutôt que sur la moyenne.

Calculs

Nous voulons savoir si le poids moyen des souris diffère du 25g (test bilatéral) ?

stat.test <- mice %>% t_test(weight ~ 1, mu = 25)stat.test
## # A tibble: 1 x 7## .y. group1 group2 n statistic df p## * <chr> <chr> <chr> <int> <dbl> <dbl> <dbl>## 1 weight 1 null model 10 -8.10 9 0.00002

Les résultats ci-dessus montrent les composantes suivantes:

  • .y.: la variable-réponse utilisée dans le test.
  • group1,group2: en général, les groupes comparés dans les tests par paires. Ici, nous avons le modèle nul (test pour échantillon unique).
  • statistic: statistique du test (valeur t) utilisée pour calculer la p-value.
  • df: degrés de liberté.
  • p: p-value.

Vous pouvez obtenir un résultat détaillé en spécifiant l’option detailed = TRUE dans la fonction t_test().

Taille de l’effet

Pour calculer la taille de l’effet, appelée d de Cohen, du test t pour échantillon unique, vous devez diviser la différence moyenne par l’écart type de la différence, comme indiqué ci-dessous. Notez que, ici: sd(x-mu) = sd(x).

La formule du d de Cohen:

d = abs(mean(x) - mu)/sd(x), où:

  • x est un vecteur numérique contenant les données.
  • mu est la moyenne contre laquelle la moyenne de x est comparée (la valeur par défaut est mu = 0).

Calculs:

mice %>% cohens_d(weight ~ 1, mu = 25)
## # A tibble: 1 x 6## .y. group1 group2 effsize n magnitude## * <chr> <chr> <chr> <dbl> <int> <ord> ## 1 weight 1 null model 10.6 10 large

Rappelons que les taille de l’effet conventionnelles du test t, proposé par Cohen J. (1998), sont : 0,2 (petit effet), 0,5 (effet modéré) et 0,8 (effet important) (Cohen 1998). Comme la taille de l’effet, d, est de 2,56, vous pouvez conclure qu’il y a un effet important.

Rapporter

Nous pourrions rapporter le résultat comme suit:

Un test t pour échantillon unique a été calculé pour déterminer si le poids moyen des souris incluses était différent du poids moyen normal de la population (25 g).

La valeur du poids des souris était normalement distribuée, telle qu’évaluée par le test de Shapiro-Wilk (p > 0,05) et il n’y avait pas de valeurs extrêmes aberrantes dans les données, telles qu’évaluées par la méthode boxplot.

Le poids moyen mesuré des souris (20,14 +/- 1,94) était statistiquement significativement inférieur au poids moyen normal de la population 25 (t(9) = -8,1, p < 0,0001, d = 2,56) ; où t(9) est une notation courte pour une statistique t qui a 9 degrés de liberté.

Créer un box plot avec p-value:

bxp + labs( subtitle = get_test_label(stat.test, detailed = TRUE) )

Test T dans R: Excellente Référence - Datanovia (3)

Créer un graphe de densité avec p-value:

  • La ligne rouge correspond à la moyenne observée
  • La ligne bleue correspond à la moyenne théorique
ggdensity(mice, x = "weight", rug = TRUE, fill = "lightgray") + scale_x_continuous(limits = c(15, 27)) + stat_central_tendency(type = "mean", color = "red", linetype = "dashed") + geom_vline(xintercept = 25, color = "blue", linetype = "dashed") + labs(subtitle = get_test_label(stat.test, detailed = TRUE))

Test T dans R: Excellente Référence - Datanovia (4)

T-test pour échantillons indépendants

Le test t pour échantillons indépendants (ou le test t pour échantillons non appariés) est utilisé pour comparer la moyenne de deux groupes indépendants.

Par exemple, vous pourriez vouloir comparer les poids moyens des individus regroupés par sexe : les groupes d’hommes et de femmes, qui sont deux groupes non apparentés ou indépendants.

Le t-test pour échantillons indépendants se présente sous deux formes différentes:

  • le test t standard de Student, qui suppose que la variance des deux groupes est égale.
  • le test t de Welch, qui est moins restrictif que le test original de Student. Il s’agit du test où vous ne présumez pas que la variance est la même dans les deux groupes, ce qui donne les degrés de liberté fractionnaires suivants.

Par défaut, R calcule le test t de Weltch, qui est le plus prudent. Les deux méthodes donnent des résultats très semblables, à moins que la taille des groupes et les écarts-types ne soient très différents.

Données de démonstration

Jeu de données de démonstration : genderweight [package datarium] contenant le poids de 40 individus (20 femmes et 20 hommes).

Charger les données et afficher quelques lignes aléatoires par groupes:

# Charger les donnéesdata("genderweight", package = "datarium")# Afficher un échantillon des données par groupeset.seed(123)genderweight %>% sample_n_by(group, size = 2)
## # A tibble: 4 x 3## id group weight## <fct> <fct> <dbl>## 1 6 F 65.0## 2 15 F 65.9## 3 29 M 88.9## 4 37 M 77.0

Statistiques descriptives

Calculer quelques statistiques descriptives par groupe : moyenne et sd (écart-type)

genderweight %>% group_by(group) %>% get_summary_stats(weight, type = "mean_sd")
## # A tibble: 2 x 5## group variable n mean sd## <fct> <chr> <dbl> <dbl> <dbl>## 1 F weight 20 63.5 2.03## 2 M weight 20 85.8 4.35

Visualisation

Visualiser les données à l’aide de box plots. Graphique du poids par groupes.

bxp <- ggboxplot( genderweight, x = "group", y = "weight", ylab = "Weight", xlab = "Groups", add = "jitter" )bxp

Test T dans R: Excellente Référence - Datanovia (5)

Hypothèses et tests préliminaires

Le test t pour échantillons indépendant assume les caractéristiques suivantes au sujet des données:

  • Indépendance des observations. Chaque sujet ne doit appartenir qu’à un seul groupe. Il n’y a aucun lien entre les observations de chaque groupe.
  • Aucune valeur aberrante significative dans les deux groupes
  • Normalité. les données pour chaque groupe devraient être distribuées approximativement normalement.
  • hom*ogénéité des variances. la variance de la variable-réponse devrait être égale dans chaque groupe.

Dans cette section, nous effectuerons quelques tests préliminaires pour vérifier si ces hypothèses sont respectées.

Identifier les valeurs aberrantes par groupe

genderweight %>% group_by(group) %>% identify_outliers(weight)
## # A tibble: 2 x 5## group id weight is.outlier is.extreme## <fct> <fct> <dbl> <lgl> <lgl> ## 1 F 20 68.8 TRUE FALSE ## 2 M 31 95.1 TRUE FALSE

Il n’y avait pas de valeurs extrêmes aberrantes.

Vérifier la normalité par groupes

# Calculer le test d de Shapiro-Wilk par groupesdata(genderweight, package = "datarium")genderweight %>% group_by(group) %>% shapiro_test(weight)
## # A tibble: 2 x 4## group variable statistic p## <fct> <chr> <dbl> <dbl>## 1 F weight 0.938 0.224## 2 M weight 0.986 0.989
# Dessiner un qq plot par groupeggqqplot(genderweight, x = "weight", facet.by = "group")

Test T dans R: Excellente Référence - Datanovia (6)

D’après les résultats ci-dessus, nous pouvons conclure que les données des deux groupes sont normalement distribuées.

Vérifier l’égalité des variances

Ceci peut être fait à l’aide du test de Levene. Si les variances des groupes sont égales, la p-value doit être supérieure à 0,05.

genderweight %>% levene_test(weight ~ group)
## # A tibble: 1 x 4## df1 df2 statistic p## <int> <int> <dbl> <dbl>## 1 1 38 6.12 0.0180

La p-value du test de Levene est significative, ce qui suggère qu’il existe une différence significative entre les variances des deux groupes. Par conséquent, nous utiliserons le test t de Weltch, qui ne suppose pas l’égalité des deux variances.



Calculs

Nous voulons savoir si les poids moyens sont différents d’un groupe à l’autre.

Rappelons que, par défaut, R calcule le test t de Weltch, qui est le plus prudent:

stat.test <- genderweight %>% t_test(weight ~ group) %>% add_significance()stat.test
## # A tibble: 1 x 9## .y. group1 group2 n1 n2 statistic df p p.signif## <chr> <chr> <chr> <int> <int> <dbl> <dbl> <dbl> <chr> ## 1 weight F M 20 20 -20.8 26.9 4.30e-18 ****

Si vous voulez supposer l’égalité des variances (test t de Student), spécifiez l’option var.equal = TRUE:

stat.test2 <- genderweight %>% t_test(weight ~ group, var.equal = TRUE) %>% add_significance()stat.test2

Le résultat est similaire au résultat d’un test pour échantillon unique. Rappelons que plus de détails peuvent être obtenus en spécifiant l’option detailed = TRUE in the function t_test(). La p-value de la comparaison est significative (p < 0,0001).

Taille de l’effet

d de Cohen pour le test t de Student

Cette valeur de l’effet est calculée en divisant la différence moyenne entre les groupes par l’écart-type regroupé.

La formule du d de Cohen:

d = (mean1 - mean2)/pooled.sd, où:

  • pooled.sd est l’écart-type commun des deux groupes. pooled.sd = sqrt([var1*(n1-1) + var2*(n2-1)]/[n1 + n2 -2]);
  • var1 et var2 sont les variances (écart-type au carré) du groupe 1 et du groupe 2, respectivement.
  • n1 et n2 sont les nombres d’échantillons pour les groupes 1 et 2, respectivement.
  • mean1 et mean2 sont les moyennes de chaque groupe, respectivement.

Calculs:

genderweight %>% cohens_d(weight ~ group, var.equal = TRUE)
## # A tibble: 1 x 7## .y. group1 group2 effsize n1 n2 magnitude## * <chr> <chr> <chr> <dbl> <int> <int> <ord> ## 1 weight F M 6.57 20 20 large

L’ampleur de l’effet est importante, d = 6,57.

Le d de Cohen pour le test t de Welch

Le test de Welch est une variante du test t utilisé lorsque l’égalité de variance ne peut être présumée. La valeur de l’effet peut être calculée en divisant la différence moyenne entre les groupes par l’écart type “moyen”.

La formule du d de Cohen:

d = (mean1 - mean2)/sqrt((var1 + var2)/2), où:

  • mean1 et mean2 sont les moyennes de chaque groupe, respectivement
  • var1 et var2 sont la variance des deux groupes.

Calculs:

genderweight %>% cohens_d(weight ~ group, var.equal = FALSE)
## # A tibble: 1 x 7## .y. group1 group2 effsize n1 n2 magnitude## * <chr> <chr> <chr> <dbl> <int> <int> <ord> ## 1 weight F M 6.57 20 20 large

Notez que, lorsque la taille des groupes est égale et que les variances des groupes sont hom*ogènes, le d de Cohen pour les tests t standard de Student et de Welch sont identiques.

Rapporter

Nous pourrions rapporter le résultat comme suit:

Le poids moyen dans le groupe des femmes était de 63,5 (SD = 2,03), alors que la moyenne dans le groupe des hommes était de 85,8 (SD = 4,3). Le test t de Welch a montré que la différence était statistiquement significative, t(26.9) = -20.8, p < 0.0001, d = 6.57 ; où, t(26.9) est une notation abrégée pour une statistique t de Welch qui a 26.9 degrés de liberté.

stat.test <- stat.test %>% add_xy_position(x = "group")bxp + stat_pvalue_manual(stat.test, tip.length = 0) + labs(subtitle = get_test_label(stat.test, detailed = TRUE))

Test T dans R: Excellente Référence - Datanovia (7)

T-test pour échantillons appariés

Le test t pour échantillons appariés est utilisé pour comparer les moyennes de deux groupes d’échantillons appariés. En d’autres termes, il est utilisé dans une situation où vous avez deux paires de valeurs mesurées pour les mêmes échantillons.

Par exemple, vous pouvez comparer le poids moyen de 20 souris avant et après le traitement. Les données contiennent 20 ensembles de valeurs avant traitement et 20 ensembles de valeurs après traitement provenant de la double mesure du poids d’une même souris. Dans de telles situations, le test t-test par paires peut être utilisé pour comparer les poids moyens avant et après le traitement.

Données de démonstration

Ici, nous utiliserons un jeu de données de démonstration mice2 [package datarium], qui contient le poids de 10 souris avant et après le traitement.

# Format largedata("mice2", package = "datarium")head(mice2, 3)
## id before after## 1 1 187 430## 2 2 194 404## 3 3 232 406
# Transformez en données longues : # rassembler les valeurs de `before` (avant) et `after` (après) dans la même colonnemice2.long <- mice2 %>% gather(key = "group", value = "weight", before, after)head(mice2.long, 3)
## id group weight## 1 1 before 187## 2 2 before 194## 3 3 before 232

Statistiques descriptives

Calculer quelques statistiques descriptives (moyenne et sd) par groupe:

mice2.long %>% group_by(group) %>% get_summary_stats(weight, type = "mean_sd")
## # A tibble: 2 x 5## group variable n mean sd## <chr> <chr> <dbl> <dbl> <dbl>## 1 after weight 10 400. 30.1## 2 before weight 10 201. 20.0

Visualisation

bxp <- ggpaired(mice2.long, x = "group", y = "weight", order = c("before", "after"), ylab = "Weight", xlab = "Groups")bxp

Test T dans R: Excellente Référence - Datanovia (8)

Hypothèses et tests préliminaires

Le test t des échantillons appariés suppose les caractéristiques suivantes au sujet des données:

  • les deux groupes sont appariés. Dans notre exemple, c’est le cas puisque les données ont été recueillies en mesurant deux fois le poids des mêmes souris.
  • Aucune valeur aberrante significative dans la différence entre les deux groupes appariés
  • Normalité. la différence des paires suit une distribution normale.

Dans cette section, nous effectuerons quelques tests préliminaires pour vérifier si ces hypothèses sont respectées.

Tout d’abord, commencez par calculer la différence entre les groupes:

mice2 <- mice2 %>% mutate(differences = before - after)head(mice2, 3)
## id before after differences## 1 1 187 430 -242## 2 2 194 404 -210## 3 3 232 406 -174

Identifier les valeurs aberrantes

mice2 %>% identify_outliers(differences)
## [1] id before after differences is.outlier is.extreme ## <0 rows> (or 0-length row.names)

Il n’y avait pas de valeurs extrêmes aberrantes.

Vérifier l’hypothèse de normalité

# Test de normalité de Shapiro-Wilk test pour les différencesmice2 %>% shapiro_test(differences) 
## # A tibble: 1 x 3## variable statistic p## <chr> <dbl> <dbl>## 1 differences 0.968 0.867
# QQ plot de la différenceggqqplot(mice2, "differences")

Test T dans R: Excellente Référence - Datanovia (9)

D’après les données de sortie ci-dessus, on peut supposer que les différences sont normalement distribuées.

Calculs

Nous voulons savoir s’il y a une différence significative dans les poids moyens après le traitement ?

stat.test <- mice2.long %>% t_test(weight ~ group, paired = TRUE) %>% add_significance()stat.test
## # A tibble: 1 x 9## .y. group1 group2 n1 n2 statistic df p p.signif## <chr> <chr> <chr> <int> <int> <dbl> <dbl> <dbl> <chr> ## 1 weight after before 10 10 25.5 9 0.00000000104 ****

Le résultat est similaire à celui d’un test t pour échantillon unique. Encore une fois, plus de détails peuvent être obtenus en spécifiant l’option detailed = TRUE dans la fonction t_test().

Taille de l’effet

La taille de l’effet d’un test t pour échantillons appariés peut être calculée en divisant la différence moyenne par l’écart-type de la différence, comme indiqué ci-dessous.

La formule de Cohen:

d = mean(D)/sd(D), où D est la différence entre les valeurs des échantillons appariés.

Calculs:

mice2.long %>% cohens_d(weight ~ group, paired = TRUE)
## # A tibble: 1 x 7## .y. group1 group2 effsize n1 n2 magnitude## * <chr> <chr> <chr> <dbl> <int> <int> <ord> ## 1 weight after before 8.08 10 10 large

La taille de l’effet est importante, d de Cohen = 8,07.

Rapporter

Nous pourrions rapporter les résultats comme suit : Le poids moyen des souris a augmenté de façon significative après le traitement, t(9) = 25,5, p < 0,0001, d = 8,07.

stat.test <- stat.test %>% add_xy_position(x = "group")bxp + stat_pvalue_manual(stat.test, tip.length = 0) + labs(subtitle = get_test_label(stat.test, detailed= TRUE))

Test T dans R: Excellente Référence - Datanovia (10)

Résumé

Ce chapitre décrit comment comparer deux moyennes dans R en utilisant le test t. Les codes R à démarrage rapide, pour calculer les différents t-tests, sont les suivants:

# Test t pour échantillon uniquemice %>% t_test(weight ~ 1, mu = 25)# T-test pour échantillons indépendantsgenderweight %>% t_test(weight ~ group)# T-test pour échantillons appariésmice2.long %>% t_test(weight ~ group, paired = TRUE)

Notez que, pour calculer des t-tests unilatéraux, vous pouvez spécifier l’option alternative, dont les valeurs possibles peuvent être “greater”, “less” ou “two.sided”.

Nous expliquons également les hypothèses faites par le test t et fournissons des exemples pratiques de codes R pour vérifier si les hypothèses du test sont respectées.

Les hypothèses du test t peuvent être résumées comme suit:

  • Test t pour échantillon unique:
    • Aucune valeur aberrante significative dans les données
    • les données doivent être normalement distribuées.
  • T-test pour échantillon indépendant:
    • Aucune valeur aberrante significative dans les groupes
    • les deux groupes d’échantillons (A et B) comparés doivent être distribués normalement.
    • les variances des deux groupes ne devraient pas être significativement différentes. Cette hypothèse n’est faite que par le test t originel de Student. Elle est relaxée dans le test t du Welch.
  • T-test pour échantillons appariés:
    • Aucune valeur aberrante significative dans les différences entre les groupes
    • la différence des paires doit suivre une distribution normale.

Évaluer la normalité. Avec des échantillons suffisamment grands (n > 30), la violation de l’hypothèse de normalité ne devrait pas poser de problèmes majeurs (selon le théorème central limite). Cela implique que nous pouvons ignorer la distribution des données et utiliser des tests paramétriques. Cependant, par souci de logique, le test de Shapiro-Wilk peut être utilisé pour déterminer si les données montrent ou non un écart important par rapport à la normalité (voir Chapitre @ref(normalité-test-in-r)).

Évaluer l’égalité des variances. L’hom*ogénéité des variances peut être vérifiée à l’aide du test de Levene. Notez que, par défaut, la fonction t_test() n’assume pas l’égalité des variances ; au lieu du test t standard de Student, elle utilise le test t de Welch par défaut, qui est le plus prudent. Pour utiliser le test t de Student, définissez var.equal = TRUE. Les deux méthodes donnent des résultats très semblables, à moins que la taille des groupes et les écarts-types ne soient très différents.

Dans les cas où les hypothèses ne sont pas respectées, des tests non paramétriques, comme le test de Wilcoxon, sont recommandés.

References

Cohen, J. 1998. Statistical Power Analysis for the Behavioral Sciences. 2nd ed. Hillsdale, NJ: Lawrence Erlbaum Associates.



Version: English

(Next Lesson) Test de Wilcoxon dans R

Back to Comparaison de Deux Moyennes dans R

No Comments

Give a comment

Course Curriculum

  • Test T dans R

    20 mins

  • Test de Wilcoxon dans R

    20 mins

  • Test des Signes dans R

    10 mins

Teacher

Test T dans R: Excellente Référence - Datanovia (12)

Alboukadel Kassambara
Role : Fondateur de Datanovia
  • Website : https://www.datanovia.com/en
  • Experience : >10 years
  • Specialist in : Bioinformatiques et Biologie du Cancer

Read More

Test T dans R: Excellente Référence - Datanovia (2024)

References

Top Articles
Latest Posts
Article information

Author: Msgr. Refugio Daniel

Last Updated:

Views: 5812

Rating: 4.3 / 5 (54 voted)

Reviews: 93% of readers found this page helpful

Author information

Name: Msgr. Refugio Daniel

Birthday: 1999-09-15

Address: 8416 Beatty Center, Derekfort, VA 72092-0500

Phone: +6838967160603

Job: Mining Executive

Hobby: Woodworking, Knitting, Fishing, Coffee roasting, Kayaking, Horseback riding, Kite flying

Introduction: My name is Msgr. Refugio Daniel, I am a fine, precious, encouraging, calm, glamorous, vivacious, friendly person who loves writing and wants to share my knowledge and understanding with you.