JustToThePoint English Website Version
JustToThePoint en español
JustToThePoint in Thai

Estadística II. Prueba de Chi-Cuadrado, ANOVA

Todo el mundo sabe que fumar es una mala idea. La pregunta que intentaremos abordar en este artículo es la siguiente: ¿Los hábitos de fumar difieren entre mujeres y hombres? Vamos a utilizar unos datos de Centers for Disease Control. Prueba de independencia de Chi-cuadrado

Define a los fumadores cotidianos o empedernidos como aquellas personas que fuman todos los días; los fumadores ocasionales son aquellos que fuman algunos días. Los exfumadores son los que han fumado, al menos, cien cigarrillos en su vida, pero actualmente han dejado el tabaco.

sexSmoke<-rbind(c(13771, 4987, 30803), c(11722, 3674, 24184)) # La función rbind() se utiliza para unir o combinar vectores por filas.

dimnames(sexSmoke)<-list(c("Male", "Female"), c("Every-day smoker", "Some-day smoker", "Former smoker")) # La orden **dimnames()** establece los nombres de fila y columna de una matriz

> sexSmoke
           Every-day smoker Some-day smoker Former smoker
Male              13771            4987         30803      
Female            11722            3674         24184      
> chisq.test(sexSmoke)

	Pearson's Chi-squared test

data:  sexSmoke
X-squared = 43.479, df = 2, p-value = 3.62e-10

La prueba de independencia de Chi-cuadrado se utiliza para determinar si existe una diferencia estadísticamente significativa entre las frecuencias esperadas y las observadas en una o más categorías de una tabla de contingencia.

Hipótesis nula (H0): las variables de fila y columna de la tabla de contingencia son independientes. El estadístico calculado a partir de las observaciones sigue una distribución de frecuencia χ2. La hipótesis nula del supuesto de independencia debe rechazarse si el valor p del estadístico de Chi cuadrado es menor que un nivel crítico, nivel de significación o p-valor α (= 0.05).

Hipótesis alternativa (H1): las variables de fila y columna de la tabla de contingencia son dependientes.

En nuestro ejemplo, el valor p del estadístico de Chi-cuadrado es 3.62e-10 < 0.05, es decir, las variables de fila y columna están relacionadas estadísticamente de manera significativa. En otras palabras, los hábitos de fumar difieren significativamente entre mujeres y hombres.

Distribución Chi-cuadrado

La mayoría de la gente se detendrá aquí, pero los más aventureros intentamos comprender mejor la prueba de chi-cuadrado.

sexSmoke
           Every-day smoker Some-day smoker Former smoker
Male              13771            4987         30803      49561
Female            11722            3674         24184      39580
                  25493            8661         54987      89141

Suponiendo la independencia bajo la hipótesis nula, deberíamos “esperar” que el número de hombres fumadores diarios fuera = 25493 * 4956189141 = 14173.7087648.

> chisq<-chisq.test(sexSmoke)
> round(chisq$expected, 2) # Extraemos las observaciones esperadas del resultado de la prueba y redondeamos los valores 
       Every-day smoker Some-day smoker Former smoker
Male           14173.71         4815.38      30571.91
Female         11319.29         3845.62      24415.09

¿Cuál es la diferencia entre los resultados esperados y los observados? La diferencia en la celda “hombre fumador diario” es (observed-expected)2expected = (13771-14173.71)214173.71 = 11.4419826637.

\> (chisq$observed-chisq$expected)^2/(chisq$expected)
# Podemos extraer las observaciones esperadas y las observadas del resultado de la prueba y calcular las diferencias
       Every-day smoker Some-day smoker Former smoker
Male           11.44191        6.116505      1.746773
Female         14.32725        7.658922      2.187262

La suma de estas cantidades en todas las celdas es el estadístico chi-cuadrado; en este caso, χ2 = ∑(observed-expected)2expected = 43.47863.

> m= (chisq$observed-chisq$expected)^2/(chisq$expected)
sum(m)
[1] 43.47863

Bajo la hipótesis nula, esta suma tiene aproximadamente una distribución chi-cuadrado con n = (número de filas-1) (número de columnas-1) = (2 - 1) (3 - 1) = 2 grados de libertad.

El estadístico de prueba es improbablemente grande de acuerdo con esa distribución chi-cuadrado, por lo que deberíamos rechazar la hipótesis nula de independencia.

Prueba ANOVA o análisis de la varianza con un factor en R

El análisis de varianza (ANOVA) de un factor se utiliza para determinar si existen diferencias estadísticamente significativas entre las medias de tres o más grupos. Los datos se organizan en varios grupos basados ​​en una sola variable de agrupación (factor o variable independiente), por lo que hay una variable independiente categórica y una variable dependiente cuantitativa.

Imagina que deseas probar el efecto de tres mezclas de fertilizantes diferentes sobre el rendimiento de los cultivos o el efecto de tres medicamentos sobre el dolor. Puedes usar un ANOVA de un factor para averiguar si hay una diferencia en los rendimientos de los cultivos o una diferencia en el dolor entre los tres grupos. La variable independiente es el tipo de fertilizante o fármaco. Otro ejemplo sería cuando una empresa farmacéutica realiza un experimento para probar el efecto de su nuevo fármaco. La empresa selecciona algunos sujetos y cada sujeto se asigna aleatoriamente a uno de los tres grupos de tratamiento donde se aplican diferentes dosis. La dosis suministrada del fármaco sería la variable independiente y la variable dependiente puede ser el dolor, tiempo de recuperación, etc.

Hipótesis de la prueba ANOVA:

H0, hipótesis nula: μ0 = μ1 = μ2 = … =μk, donde μ = media del grupo y k = número de grupos. En otras palabras, las medias de los diferentes grupos son idénticas. Ha, hipótesis alternativa: al menos la media de un grupo es diferente.

Evaluemos la relación entre las horas de sueño autoinformadas y el consumo de Coca-Cola (demasiado, normal y nada en absoluto). Los datos se organizan en varios grupos basados ​​en una sola variable de agrupación o factor “Consumo de Coca-Cola” y una variable dependiente cuantitativa, a saber, “horas de sueño”.

CokeSleeping.txt

Coke Sleeping
toomuch 4
toomuch 3
toomuch 3
toomuch 5
toomuch 7
toomuch 5
normal 7
normal 8
normal 6
normal 8
normal 7
normal 7
normal 8
normal 8
nothing 7
nothing 8
nothing 7
nothing 8
nothing 8
nothing 9

Prueba ANOVA

            Df  Sum Sq Mean Sq  F value  Pr(>F)    
Coke         2  40.34  20.171   18.83 4.88e-05 ***
Residuals   17  18.21   1.071                     
---
Signif. codes:  0***0.001**0.01*0.05.’ 0.1 ‘ ’ 1

La salida incluye el valor del estadístico F 18.83 y su p-valor 4.88e-05 ***. La idea detrás de una prueba ANOVA se basa en estimar la varianza de la población de dos maneras diferentes: 1) a través de la varianza común, la media de las varianzas muestrales, que se denomina varianza dentro de los grupos o varianza residual y se denota S2within, y 2) a través de la varianza entre los grupos, es decir, entre las medias de los grupos y se denota S2between.

El estadístico F es la relación entre la varianza entre las medias de los grupos y la varianza dentro de los grupos: S2between/S2within. Cuando las medias no sean significativamente diferentes, la varianza entre las medias de los grupos será pequeña, en relación con la media de las varianzas muestrales. Cuando al menos una media es significativamente diferente de las otras, la varianza entre las medias de los grupos será mayor, en relación con la media de las varianzas muestrales. Cuanto mayor sea el valor F, más probable es que la variación causada por la variable independiente sea significativa y no se deba al azar.

Como el p-valor es menor que el nivel crítico 0.05, existen diferencias significativas entre los grupos (se resalta con un asterisco “*” en el resumen del modelo). En otras palabras, el consumo de CocaCola tiene un impacto real en el sueño.

summary(cocaSleep) 
Coke              Sleeping   
 Length:20          Min.   :3.00  
 Class :character   1st Qu.:5.75  
 Mode  :character   Median :7.00  
                    Mean   :6.65  
                    3rd Qu.:8.00  
                    Max.   :9.00
> tapply(Sleeping, Coke, mean) # calcula la media de cada categoría del factor o variable independiente (Coke, CocaCola) en Sleeping, sueño
  normal  nothing  toomuch 
7.375000 7.833333 4.500000 
> tapply(Sleeping, Coke, sd) # calcula la desviación típica de cada categoría del factor o variable independiente (Coke, CocaCola) en Sleeping, sueño
   normal   nothing   toomuch 
0.7440238 0.7527727 1.5165751

Coke Sleeping Meantoomuch
toomuch 4 4.5
toomuch 3 4.5
toomuch 3 4.5
toomuch 5 4.5
toomuch 7 4.5
toomuch 5 4.5

SSwithin = “Suma de cuadrados dentro de grupos” = (4-4.5)2 +(3-4.5)2 +(3-4.5)2 +(5-4.5)2 +(7-4.5)2 +(5-4.5)2 + (7-7.375)2 + (8-7.375)2 + (6-7.375)2 +(8-7.375)2 + (7-7.3753)2 +(7-7.375)2 +(8-7.375)2 +(8-7.375)2 + (7-7.83)2 +(8-7.83)2 + (7-7.83)2 + (8-7.83)2 + (8-7.83)2 + (9-7.83)2 = 18.21. MSwithin = SSwithin⁄dfwithin = 18.2117 = 1.07. dfwithin = n - m = (8+6+6 sujetos) - (3 grupos del factor) = 20 - 3 = 17. Finalmente, F = MSbetween⁄MSwithin = 20.1711.07 = 18.83.

library("ggpubr")
ggboxplot(cocaSleep, x = "Coke", y = "Sleeping", 
          color = "Coke", palette = c("blue", "red", "yellow"),
          ylab = "Sleeping", xlab = "Coke")

Anova de un factor

TukeyHSD(anova)
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = Sleeping ~ Coke)

$Coke
                      diff        lwr       upr     p adj
nothing-normal   0.4583333 -0.9755105  1.892177 0.6960429
toomuch-normal  -2.8750000 -4.3088438 -1.441156 0.0002279
toomuch-nothing -3.3333333 -4.8661769 -1.800490 0.0000940

Se puede ver en los resultados (diff es la diferencia entre las medias de los dos grupos; lwr y upr son los límites inferior y superior del intervalo de confianza; y p adj, valor p ajustado de las comparaciones múltiples) que existe una diferencia significativa entre beber demasiada Coca-Cola y beber una cantidad normal, y entre beber demasiada Coca-Cola y no ingerir nada del refresco americano.

Anova de un factor

Como podemos ver en el gráfico anterior, parece bastante aleatorio, no hay relaciones evidentes entre los residuos y los valores ajustados (la media de cada grupo). En consecuencia, podemos asumir la homogeneidad de las varianzas en los diferentes grupos. La prueba de Levene también está disponible para verificar la homogeneidad de varianzas.

library(car)
leveneTest(Sleeping~Coke)

Levene's Test for Homogeneity of Variance (center = median)
      Df F value Pr(>F)
group  2  2.2956 0.1311
      17            

“La prueba de Levene es una prueba estadística inferencial que se utiliza para evaluar la igualdad de varianzas para una variable calculada para dos o más grupos. Si el valor p resultante de la prueba de Levene es menor que cierto nivel de significación (típicamente 0.05), es poco probable que las diferencias obtenidas en las variaciones de la muestra se hayan producido sobre la base de un muestreo aleatorio de una población con varianzas iguales. Por lo tanto, la hipótesis nula de igualdad de varianzas se rechaza y se concluye que hay una diferencia entre las variaciones en la población”, Wiki, prueba de Levene.

A partir de nuestro resultado, el valor p es 0,1311> 0,05, por lo que no hay evidencia que sugiera que la diferencia de varianza entre los grupos sea estadísticamente significativa. En otras palabras, podemos asumir la homogeneidad de las varianzas en los diferentes grupos.

ANOVA de dos factores en R

Se utiliza un ANOVA de dos factores para estimar cómo cambia la media de una variable cuantitativa de acuerdo con los niveles de dos variables categóricas. No solo tiene como objetivo evaluar el efecto individual de cada variable independiente, sino también si existe alguna interacción entre ambas variables independientes que afecte a la variable dependiente.

Hipótesis: H0, hipótesis nula: las medias de la variable dependiente para cada grupo en la primera variable independiente son iguales Ha, hipótesis alternativa: las medias de la variable dependiente para cada grupo en la primera variable independiente no son iguales Se consideran hipótesis similares para la otra variable independiente y para la interacción entre ambas variables independientes.

Queremos estudiar si hay una diferencia estadísticamente significativa en las “horas de sueño” según el consumo de Coca-Cola (demasiada, normal, nada) y el género. Los datos están organizados en base a dos variables independientes de agrupación “Consumo de Coca-Cola” y “Género”, y una variable dependiente cuantitativa “Horas de sueño”. CokeSleeping.txt

Gender Coke Sleeping

f toomuch 5 m toomuch 5
m toomuch 4 f toomuch 5
f toomuch 4 f toomuch 6
m toomuch 4 f toomuch 5
f toomuch 6 f toomuch 6
m toomuch 6 f toomuch 6
f normal 6 f normal 7
m normal 5 f normal 8
m normal 4 m normal 5
m normal 5 m normal 4
f normal 8 f normal 6
f normal 7 f normal 7
m normal 6 m nothing 6
f nothing 8 m nothing 6
f nothing 8 f nothing 7
m nothing 8 f nothing 6
m nothing 8 \

ANOVA de dos factores en R

    Gender              Coke              Sleeping   
 Length:33          Length:33          Min.   :4.00  
 Class :character   Class :character   1st Qu.:5.00  
 Mode  :character   Mode  :character   Median :6.00  
                                       Mean   :5.97  
                                       3rd Qu.:7.00  
                                       Max.   :8.00
            Df Sum Sq Mean Sq F value   Pr(>F)    
Gender       1  7.120   7.120   9.513  0.00467 ** 
Coke         2 21.948  10.974  14.662 4.89e-05 ***
Gender:Coke  2  5.693   2.847   3.803  0.03505 *  
Residuals   27 20.208   0.748                     
---
Signif. codes:  0***0.001**0.01*0.05.’ 0.1 ‘ ’ 1

De la tabla ANOVA anterior, podemos concluir que los efectos sobre la variable dependiente (“Sueño”) de ambas variables independientes (“Consumo de Coca-Cola” y “Género”) son estadísticamente significativos, así como, su interacción. Además, el consumo de Coca-Cola es el factor más significativo.

library("ggpubr")
ggboxplot(cocaSleep, x = "Coke", y = "Sleeping", color = "Gender",
          palette = c("red", "blue"))

Dibuja un diagrama de caja: x = “Coke” es el nombre de la variable x, y = “Sleeping” es el nombre de la variable y, utilizamos diferentes colores por género (color = “Gender”) y una paleta de colores personalizada (palette = c(“red”, “blue”)).

ANOVA de dos factores en R

> tapply(Sleeping, list(Gender, Coke), mean) # calcula la media de cada categoría de nuestros dos factores (Género y Coca-Cola) en Durmiendo
   normal nothing toomuch
f 7.000000    7.25   5.375
m 4.833333    7.00   4.750
> tapply(Sleeping, list(Gender, Coke), sd) # calcula la desviación típica de cada categoría de nuestros dos factores (Género y Coca-Cola) en Durmiendo
     normal   nothing   toomuch
f 0.8164966 0.9574271 0.7440238
m 0.7527727 1.1547005 0.9574271

La cafeína puede tener un efecto negativo en el sueño. Los refrescos están “cargados de cafeína y mucha azúcar. La cafeína puede dificultar el que puedas conciliar el sueño y el azúcar puede afectar tu capacidad para permanecer dormido”, sleepeducation.org. Nuestros datos confirman lo que suponíamos, pero también indican que el género juega un papel; básicamente, es peor en los hombres.

> TukeyHSD(anova, which = "Coke")
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = Sleeping ~ Gender * Coke)

$Coke
                      diff        lwr         upr     p adj
nothing-normal   1.1611481  0.1972612  2.12503488 0.0158381
toomuch-normal  -0.9538269 -1.8125255 -0.09512825 0.0272046
toomuch-nothing -2.1149749 -3.0940420 -1.13590787 0.0000340

Como podemos ver en el resultado que nos devuelve R, todas las comparaciones por pares son significativas con un valor p ajustado <0.05. Sin embargo, también se nos muestra una diferencia más significativa entre beber demasiada Coca-Cola y no beber nada.

plot(anova, 1) # Un "gráfico de residuos versus valores ajustados" es un gráfico de dispersión de residuos en el eje "y" y valores ajustados (la media de cada grupo) en el eje x. Se utiliza para detectar no linealidad, variaciones de error desiguales y valores atípicos
library(car)
leveneTest(Sleeping~Gender*Coke)
> leveneTest(Sleeping~Gender*Coke)
Levene's Test for Homogeneity of Variance (center = median)
      Df F value Pr(>F)
group  5  0.7188 0.6149
      27  

Gráfico de residuos versus valores ajustados

Los residuos rebotan aleatoriamente alrededor de la línea 0. Los puntos 5 (f too much 5), 11 (f too much 6) y 32 (m nothing 8) se detectan como valores atípicos, es posible que debas considerar eliminarlos de tu estudio. Además, podemos ver que el valor p de Levene (0,6149) es mayor que el nivel de significación de 0,05. En consecuencia, no hay evidencia que sugiera que la varianza entre los grupos sea significativamente diferente y podemos asumir la homogeneidad de las varianzas en los diferentes grupos.

> plot (anova, 2)

Un “gráfico de probabilidad normal de los Residuos” es una forma de estudiar si los residuos están distribuidos normalmente. Si los datos siguen una distribución normal, entonces un gráfico de los percentiles teóricos de la distribución normal versus los percentiles de la muestra observados (los percentiles de los residuos) debe ser aproximadamente lineal.

> # Extrae los residuos
> my_residuals <- residuals(object = anova)
> # Ejecutar la prueba de Shapiro-Wilk
> shapiro.test(x = my_residuals ) # La prueba de Shapiro-Wilk es una prueba de normalidad en estadística. W = 0.93722, p-value = 0.05641 indica que no se viola la normalidad.

	Shapiro-Wilk normality test

data:  my_residuals
W = 0.93722, p-value = 0.05641

Gráfico de probabilidad normal de los Residuos

ANOVA de medidas repetidas de un factor en R

Un ANOVA de medidas repetidas de un factor o un ANOVA intra sujetos de un factor es el equivalente del ANOVA de un factor, pero para grupos relacionados, no independientes. Requiere una variable categórica independiente y una variable dependiente. Se utiliza para comparar tres o más medias de grupo en las que los participantes son los mismos en cada grupo.

Por ejemplo, vamos a utilizar un ANOVA de medidas repetidas para estudiar si existe una diferencia en la retención o memoria (los sujetos reciben una lista de palabras que necesitan memorizar para una prueba) a lo largo del tiempo (media hora, una hora y al día siguiente). En este ejemplo, “memoria” es la variable dependiente (el número de palabras que recuerdan nuestros sujetos), mientras que la variable independiente es “tiempo”, es decir, definiremos tres grupos relacionados, donde cada uno de los tres puntos de tiempo definirá un “grupo relacionado”. Evaluaremos el efecto del factor tiempo sobre la variable dependiente memoria en tres puntos de tiempo para todos los participantes del experimento.

memory.text

Subject Time Memory
Peter HalfHour 32
Peter Hour 30
Peter NextDay 12
Paul HalfHour 30
Paul Hour 28
Paul NextDay 10
Martha HalfHour 34
Martha Hour 32
Martha NextDay 16
John HalfHour 28
John Hour 24
John NextDay 8
Esther HalfHour 28
Esther Hour 20
Esther NextDay 4
Bew HalfHour 38
Bew Hour 34
Bew NextDay 22
Robert HalfHour 32
Robert Hour 30
Robert NextDay 12 \

myData <- timeMemory %>% group_by(Time) # group_by() toma un data frame o marco de datos existente y lo convierte en uno agrupado (el tiempo es la variable de agrupación) donde las operaciones y análisis sobre los datos se realizarán "por grupo" 
get_summary_stats(myData, type = "mean_sd") # get_summary_stats calcula estadísticas para myData. type es el tipo de resumen de las estadísticas, por ejemplo, "full (completo)", "common (común)", "mean_sd", etc.

ANOVA de medidas repetidas de un factor en R

ANOVA de medidas repetidas de un factor en R

Evidentemente, el paso del tiempo tiene un efecto negativo en la memoria. Cuanto más tiempo transcurra entre el aprendizaje y la prueba, se recordará menos material (número de palabras).

library(rstatix)
identify_outliers(myData, Memory) # toma un data frame o marco de datos y extrae filas sospechosas de ser atípicas 

Valores atípicos

No hay valores atípicos extremos, pero Bew NextDay 22 se detecta como un valor atípico. 22 parecen ser demasiadas palabras que Bew recuerda después de veinticuatro horas en comparación con los resultados de otros sujetos.

shapiro_test(myData, Memory)

La prueba de Shapiro-Wilk es una prueba estadística para comprobar la normalidad. La memoria se distribuye normalmente en cada punto de tiempo (media hora, hora y día siguiente), como lo demuestra la prueba de Shapiro-Wilk porque todas las probabilidades son mayores que 0.05 (p> 0.05) y, por consiguiente, no rechazamos la hipótesis nula de normalidad. Prueba de Shapiro-Wilk

ggqqplot(myData, "Memory", facet.by = "Time", color="Time")

Dibujamos un gráfico Q-Q (cuantil-cuantil) para verificar visualmente el supuesto de normalidad usando ggqqplot: myData (el marco de datos); “Memory”, la variable dependiente; facet.by: especifica la variable de agrupación, “Tiempo”; y color, el color será diferente en cada punto de tiempo. Se compara los cuantiles de nuestros datos (sample quantiles) con los cuantiles teóricos (theoretical quantiles) de la distribución normal estándar, N(0, 1). Si los datos se distribuyen normalmente, los puntos de la gráfica se encontrarán en la diagonal. Gráfico Q-Q, cuantil-cuantil

ANOVA Table (type III tests)

$ANOVA
  Effect DFn DFd   F        p p<.05   ges
1   Time   2  12 302 5.47e-11     * 0.789
$\`Mauchly's Test for Sphericity\`
  Effect     W     p p<.05
1   Time 0.976 0.942 

La suposición de esfericidad se verifica automáticamente durante la prueba ANOVA. La hipótesis nula es que las varianzas de las diferencias entre los grupos son iguales. Por lo tanto, un valor p significativo indica que las varianzas de las diferencias entre todos los pares de medidas repetidas no son iguales, y un valor p no significativo (p = 0,942> 0,05) indica que podemos asumir la esfericidad.

La memoria es significativamente diferente en los diferentes momentos: F (2, 12) = 302, p = 5.47e-11 <.05.

ANOVA de medidas repetidas de un factor en R

Considerando el valor p ajustado de Bonferroni (p.adj), se puede ver que el efecto del tiempo en la memoria es estadísticamente significativo en cada momento. Es menos significativo, estadísticamente hablando, después de tan solo media hora, lo que tiene bastante sentido, ya que media hora no es mucho tiempo.

ANOVA de dos factores con medidas repetidas

Los modelos de análisis de varianza (ANOVA) con medidas repetidas sirven para estudiar el efecto de uno o más factores cuando al menos uno de ellos es un factor intra sujetos. En este caso, hay dos factores en el experimento y los mismos sujetos participan en todas las condiciones del experimento. Evaluamos simultáneamente el efecto de dos factores intra-sujetos y su interacción sobre una variable dependiente.

Supongamos que tenemos un experimento ligeramente diferente al previamente planteado en el que hay dos variables independientes: el tiempo o momento en la que se evalúa a los sujetos (con tres niveles: media hora, una hora y al día siguiente) y la reacción emocional a las palabras (con dos niveles: positivo y negativo). Los sujetos reciben una prueba de memoria bajo todas las permutaciones de estas dos variables. Un ANOVA bidireccional de medidas repetidas es una prueba apropiada en estas circunstancias.

memoryEmotion.text

Subject Time Emotion Memory
Peter HalfHour Positive 34 | Peter HalfHour Negative 32
Peter Hour Positive 30 | Peter Hour Negative 27
Peter NextDay Positive 14 | Peter NextDay Negative 11
Paul HalfHour Positive 31 | Paul HalfHour Negative 27
Paul Hour Positive 28 | Paul Hour Negative 25
Paul NextDay Positive 14 | Paul NextDay Negative 9
Martha HalfHour Positive 34 | Martha HalfHour Negative 31
Martha Hour Positive 32 | Martha Hour Negative 31
Martha NextDay Positive 16 | Martha NextDay Negative 9
John HalfHour Positive 29 | John HalfHour Negative 27
John Hour Positive 24 | John Hour Negative 21
John NextDay Positive 12 | John NextDay Negative 7
Esther HalfHour Positive 28 | Esther HalfHour Negative 27
Esther Hour Positive 20 | Esther Hour Negative 19
Esther NextDay Positive 10 | Esther NextDay Negative 7
Bew HalfHour Positive 38 | Bew HalfHour Negative 37
Bew Hour Positive 34 | Bew Hour Negative 32
Bew NextDay Positive 22 | Bew NextDay Negative 12
Robert HalfHour Positive 32 | Robert HalfHour Negative 31
Robert Hour Positive 30 | Robert Hour Negative 28
Robert NextDay Positive 15 | Robert NextDay Negative 9

myData <- timeMemory %>% group_by(Time, Emotion)
# group_by() toma un data frame o marco de datos existente y lo convierte en uno agrupado (el tiempo y la respuesta emocional son las variables de agrupación) donde las operaciones y análisis sobre los datos se realizarán "por grupo" 
get_summary_stats(myData, type = "mean_sd")
# _get_summary_stats_ calcula estadísticas para myData. type es el tipo de resumen para las estadísticas, por ejemplo, "full (completo)", "common (común)", "mean_sd", etc.

ANOVA de dos factores con medidas repetidas

Evidentemente, el paso del tiempo tiene un efecto negativo en la memoria. Cuanto más tiempo transcurra entre el aprendizaje y la prueba, se recordará menos material (número de palabras). Además, las palabras que generan emociones positivas generalmente se procesan y recuerdan de manera más precisa y eficiente que las palabras neutrales o negativas.

library(rstatix)
identify_outliers(myData, Memory)
# toma un data frame o marco de datos y extrae filas sospechosas de contener valores atípicos 

Valores atípicos

No hay valores atípicos extremos, pero Bew Positive NextDay 22 se detecta como un valor atípico. 22 parecen ser demasiadas palabras positivas que Bew recuerda después de veinticuatro horas en comparación con otros sujetos del estudio.

La memoria se distribuye normalmente en ambas condiciones de respuesta emocional y en los distintos periodos de tiempo que el estudio analiza (media hora, hora y día siguiente), como lo demuestra la prueba de Shapiro-Wilk pues todas las probabilidades son mayores que 0.05 (p> 0.05) y, por consiguiente, no podemos rechazar la hipótesis nula de normalidad. Prueba de Shapiro-Wilk

ggqqplot(myData, "Memory", color="Time") + facet_grid("Time ~ Emotion")

Dibujamos un gráfico Q-Q (cuantil-cuantil) para comprobar visualmente el supuesto de normalidad usando ggqqplot: myData (el marco de datos), “Memory”, la variable dependiente, y color (el color será diferente en cada punto de tiempo).

Con face_grid podemos dividir nuestro gráfico en múltiples subgráficos. Su sintaxis es la siguiente: facet_grid (variable_fila ~ variable_columna). Se compara los cuantiles de nuestros datos (sample quantiles) con los cuantiles teóricos (theoretical quantiles) de la distribución normal estándar, N(0, 1). Si los datos se distribuyen normalmente, los puntos de la gráfica se encontrarán en la diagonal.

Gáfico Q-Q (cuantil-cuantil)

ANOVA Table (type III tests)

$ANOVA
        Effect DFn DFd       F        p p<.05   ges
1         Time   2  12 324.037 3.61e-11     * 0.844
2      Emotion   1   6  91.263 7.51e-05     * 0.170
3 Time:Emotion   2  12  10.073 3.00e-03     * 0.051

La Memoria es significativamente diferente en los diferentes momentos analizados (F (2, 12) = 324.037, p <0.05) y bajo ambas condiciones de respuesta emocional (F (1, 6) = 91.263, p <0,05). También, hay una interacción estadísticamente significativa entre el tiempo y la respuesta emocional (F (2, 12) = 10.073, p <0.05). En otras palabras, el impacto que tiene un factor (por ejemplo, el tiempo) sobre el resultado o la variable dependiente (Memoria) depende o está condicionado también por el otro factor (respuesta emocional) y viceversa.

Prueba de comparación múltiple por pares

Considerando el valor p ajustado de Bonferroni (p.adj), se puede ver que el efecto del tiempo en la memoria es estadísticamente significativo en cada punto temporal analizado por el estudio.

Pruebas de hipótesis estadística

“La distribución binomial con parámetros n y p es una distribución de probabilidad discreta que describe o cuenta el número de éxitos en una secuencia de n experimentos independientes entre sí con una probabilidad fija p de ocurrencia de éxito entre los experimentos,” (Wikipedia, Distribución binomial).

Una prueba binomial compara una proporción muestral con una proporción hipotética. La prueba tiene las siguientes hipótesis nulas y alternativas: H0: π = p, la proporción o probabilidad de la población π es igual a algún valor p. Ha: π ≠ p, la proporción o probabilidad de la población π es diferente a cierto valor p.

Las pruebas binomiales se utilizan en situaciones en las que un investigador quiere determinar si un sujeto solo está adivinando o si realmente es capaz de discriminar cierta información o realizar alguna tarea. Por ejemplo, a un mono se le muestran dos imágenes de puntos simultáneamente. A continuación, se le enseñan dos imágenes más: los puntos anteriores sumados y un número diferente. Supongamos que el experimento se repite 100 veces y el mono termina seleccionando la respuesta correcta en 68 de los intentos. Prueba binomial

binom.test (68, 100, 0.5, alternative=‘greater’) realiza una prueba de una hipótesis nula simple sobre la probabilidad de éxito en un experimento de Bernoulli donde: x = 68 es el número de éxitos; n = 100 es el número de ensayos; p = 0,5 es la probabilidad de éxito hipotética (es decir, el mono está simplemente adivinando); y alternative=‘greater’ indica la hipótesis alternativa.

La prueba binomial nos da información sobre lo que podría haber pasado aleatoriamente al lanzar una moneda (p = 0.5). Establece que el proceso binomial, lanzar una moneda p = 1/2, es capaz de producir 65/100 o más con una probabilidad muy pequeña (0,0002044). Por lo tanto, el mono no es realmente “un fiera” en matemáticas (lo siento, no pude evitar el chiste fácil), pero es muy improbable que el 68% de respuestas correctas se pueda explicar por pura casualidad, por lo que no estaba adivinando. ¡Contratemos al puto mono!

Dicho de otro modo, el valor p es menor que 0.05. Indica una fuerte evidencia en contra de la hipótesis nula. Por lo tanto, rechazamos la hipótesis nula y aceptamos la hipótesis alternativa: la verdadera probabilidad de éxito es mayor que 0,5.

¿Cómo saber si un dado está trucado? binom.test (14, 60, 1/6) especifica que x = 14 es el número de éxitos de un resultado, por ejemplo, obtenemos un seis 14 veces de 60; n = 60 es el número de ensayos; y p = 1/6 es la probabilidad hipotética de éxito (un dado normal).

Obtenemos p = 0,1664 que es superior a 0,05 (> 0,05), por lo que no es estadísticamente significativo. Indica una fuerte evidencia a favor de la hipótesis nula. Esto significa que mantenemos la hipótesis nula, p = 1/6, el dado no está trucado.

binom.test (30, 60, 1/6), es decir, x = 30, el dado ha aterrizado con un seis 30 veces; n = 60 es el número de ensayos; y p = 1/6 es la probabilidad hipotética de éxito (un dado normal).

p-value = 2.785e-09, es menor que 0.05 (> 0.05), por lo que es estadísticamente significativo. Indica una fuerte evidencia en contra de la hipótesis nula. Esto significa que los dados están cargados o trucados. En otras palabras, es realmente muy improbable que un dado normal caiga en seis (o, obviamente, en cualquier otra cara) 30 veces de 60.

Prueba binomial

Bitcoin donation

JustToThePoint Copyright © 2011 - 2024 Anawim. ALL RIGHTS RESERVED. Bilingual e-books, articles, and videos to help your child and your entire family succeed, develop a healthy lifestyle, and have a lot of fun. Social Issues, Join us.

Esta web utiliza 'cookies' propias y de terceros para ofrecerte una mejor experiencia y servicio.
Al navegar o utilizar nuestros servicios, estas aceptando nuestra Política de Cookies, así como, nuestros Términos y condiciones de uso.