Ejercicio tomado de: MONTGOMERY D. C. Design and analysis of Experiments. 2013. Octava edición. John Wiley Sons, Inc. Capítulo 6, ejercicio 6.37. Pág. 301
Nota aclaratoria: La solución presentada a continuación es una propuesta de respuesta al ejercicio en mención y no representa la respuesta oficial del autor del ejercicio. Esta solución se proporciona con fines académicos y se recomienda su uso como referencia o punto de partida según las necesidades específicas del lector.
6.37. Continuación del problema 6.36. Supongamos que el experimentador también hubiera corrido cuatro puntos centrales junto con las 16 en el Problema 6.36. Las medidas de resistividad en los puntos centrales son 8,15, 7,63, 8,95 y 6,48. Analice de nuevo el experimento incorporando los puntos centrales. ¿Qué conclusiones puede determinar?
Problema 6.36. - En la resistividad de una lámina de silicio influyen varios factores. Los resultados de un experimento factorial 24 realizado durante un paso crítico de procesamiento se muestra en la siguiente tabla:
> ### MODELO
> MOD1<-aov(RTA~FACT_A*FACT_B, data = datos)
> summary(MOD1)
Df Sum Sq Mean Sq F value Pr(>F)
FACT_A 1 1107.2 1107.2 185.25 0.0000000117 ***
FACT_B 1 227.3 227.3 38.02 0.0000482629 ***
FACT_A:FACT_B 1 303.6 303.6 50.80 0.0000120108 ***
Residuals 12 71.7 6.0
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
>
> ### Estimación de efectos
> MOD2<-lm(RTA~FACT_A*FACT_B, data = datos)
TRAT FACT_A FACT_B FACT_C FACT_D RTA
TRAT_1 -1 -1 -1 -1 1,92
TRAT_2 1 -1 -1 -1 11,28
TRAT_3 -1 1 -1 -1 1,09
TRAT_4 1 1 -1 -1 5,75
TRAT_5 -1 -1 1 -1 2,13
TRAT_6 1 -1 1 -1 9,53
TRAT_7 -1 1 1 -1 1,03
TRAT_8 1 1 1 -1 5,35
TRAT_9 -1 -1 -1 1 1,6
TRAT_10 1 -1 -1 1 11,73
TRAT_11 -1 1 -1 1 1,16
TRAT_12 1 1 -1 1 4,68
TRAT_13 -1 -1 1 1 2,16
TRAT_14 1 -1 1 1 9,11
TRAT_15 -1 1 1 1 1,07
TRAT_16 1 1 1 1 5,3
A continuación, se plantea el análisis del experimento sin la inclusión de puntos centrales y se estiman los efectos y la significancia de cada factor:
A:D 1 0.05 0.05
B:D 1 0.04 0.04
C:D 1 0.01 0.01
A:B:C 1 1.90 1.90
A:B:D 1 0.15 0.15
A:C:D 1 0.00 0.00
B:C:D 1 0.14 0.14
A:B:C:D 1 0.32 0.32
> LinearModel.1 <- lm(RTA1 ~ A*B*C*D, data=Design.6.36R1)
> summary(LinearModel.1)
Call:
lm.default(formula = RTA1 ~ A * B * C * D, data = Design.6.36R1)
Residuals:
ALL 16 residuals are 0: no residual degrees of freedom!
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4.68062 NaN NaN NaN
A1 3.16062 NaN NaN NaN
B1 -1.50187 NaN NaN NaN
C1 -0.22062 NaN NaN NaN
D1 -0.07937 NaN NaN NaN
A1:B1 -1.06938 NaN NaN NaN
A1:C1 -0.29812 NaN NaN NaN
B1:C1 0.22937 NaN NaN NaN
A1:D1 -0.05687 NaN NaN NaN
B1:D1 -0.04688 NaN NaN NaN
C1:D1 0.02937 NaN NaN NaN
A1:B1:C1 0.34437 NaN NaN NaN
A1:B1:D1 -0.09688 NaN NaN NaN
A1:C1:D1 -0.01063 NaN NaN NaN
B1:C1:D1 0.09438 NaN NaN NaN
A1:B1:C1:D1 0.14188 NaN NaN NaN
Residual standard error: NaN on 0 degrees of freedom
Multiple R-squared: 1, Adjusted R-squared: NaN
F-statistic: NaN on 15 and 0 DF, p-value: NA
Debido a la falta de grados de libertad en el error, solo se pueden estimar los efectos de cada factor, pero no la significancia de cada uno. Por eso es necesario la inclusión de puntos centrales que incrementen los grados de libertad en el error. A continuación, se plantea el análisis del experimento con la inclusión de puntos centrales (azul) y se estiman los efectos y la significancia de cada factor:
> Design.6.36.withcenterpts <- add.center( Design.6.36, ncenter= 4, distribute= 2)
RTA2<-c(8.15,7.63,1.92,11.28,1.09,5.75,2.13,9.53,1.03,5.35,1.60,11.73,1.16,4.68,2.16,9.11,1.07,5.30,8.95,6.48)
>Design.6.36R2 <- add.response(Design.6.36.withcenterpts,RTA2, replace=FALSE)
> Design.6.36R2
A B C D RTA2
1 0 0 0 0 8.15
2 0 0 0 0 7.63
3 -1 -1 -1 -1 1.92
4 1 -1 -1 -1 11.28
5 -1 1 -1 -1 1.09
6 1 1 -1 -1 5.75
7 -1 -1 1 -1 2.13
8 1 -1 1 -1 9.53
9 -1 1 1 -1 1.03
10 1 1 1 -1 5.35
11 -1 -1 -1 1 1.60
12 1 -1 -1 1 11.73
13 -1 1 -1 1 1.16
14 1 1 -1 1 4.68
15 -1 -1 1 1 2.16
16 1 -1 1 1 9.11
17 -1 1 1 1 1.07
18 1 1 1 1 5.30
19 0 0 0 0 8.95
20 0 0 0 0 6.48
class=design, type= full factorial.center
> anova2<-aov(RTA2 ~ A*B*C*D, data=Design.6.36R2)
> summary(anova2)
Df Sum Sq Mean Sq F value Pr(>F)
A 1 159.83 159.83 18.583 0.0125 *
B 1 36.09 36.09 4.196 0.1099
C 1 0.78 0.78 0.091 0.7785
D 1 0.10 0.10 0.012 0.9190
A:B 1 18.30 18.30 2.127 0.2184
A:C 1 1.42 1.42 0.165 0.7051
B:C 1 0.84 0.84 0.098 0.7700
A:D 1 0.05 0.05 0.006 0.9419
B:D 1 0.04 0.04 0.004 0.9521
C:D 1 0.01 0.01 0.002 0.9700
A:B:C 1 1.90 1.90 0.221 0.6630
A:B:D 1 0.15 0.15 0.017 0.9013
A:C:D 1 0.00 0.00 0.000 0.9891
B:C:D 1 0.14 0.14 0.017 0.9038
A:B:C:D 1 0.32 0.32 0.037 0.8560
Residuals 4 34.40 8.60
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
> LinearModel.2 <- lm(RTA2 ~ A*B*C*D, data=Design.6.36R2)
> summary(LinearModel.2)
Call:
lm.default(formula = RTA2 ~ A * B * C * D, data = Design.6.36R2)
Residuals:
1 2 3 4 5 6 7 8 9 10
2.8450 2.3250 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244
11 12 13 14 15 16 17 18 19 20
-0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 3.6450 1.1750
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 5.30500 0.65578 8.090 0.00127 **
A 3.16062 0.73318 4.311 0.01254 *
B -1.50187 0.73318 -2.048 0.10989
C -0.22062 0.73318 -0.301 0.77847
D -0.07937 0.73318 -0.108 0.91900
A:B -1.06938 0.73318 -1.459 0.21845
A:C -0.29813 0.73318 -0.407 0.70511
B:C 0.22938 0.73318 0.313 0.77003
A:D -0.05687 0.73318 -0.078 0.94189
B:D -0.04688 0.73318 -0.064 0.95209
C:D 0.02938 0.73318 0.040 0.96996
A:B:C 0.34438 0.73318 0.470 0.66303
A:B:D -0.09688 0.73318 -0.132 0.90126
A:C:D -0.01062 0.73318 -0.014 0.98913
B:C:D 0.09438 0.73318 0.129 0.90379
A:B:C:D 0.14188 0.73318 0.194 0.85599
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 2.933 on 4 degrees of freedom
Multiple R-squared: 0.8648, Adjusted R-squared: 0.3576
F-statistic: 1.705 on 15 and 4 DF, p-value: 0.3226
Se confirma que el único factor que presenta un efecto estadísticamente significativo en la variable respuesta es el factor A.
Verificación de supuestos para los residuales:
Histograma de los residuales estandarizados:
En general, para todas las gráficas realizadas, si se observa un comportamiento extraño en los residuales, indicando que probablemente no cumpla la verificación de supuestos. Para confirmar el cumplimiento de los supuestos, se realizan las respectivas pruebas estadísticas, obteniendo los siguientes resultados:
Shapiro-Wilk normality test W = 0.52089, p-value = 0.000000494
Anderson-Darling normality test A = 4.9312, p-value = 1.052e-12
Lilliefors (Kolmogorov-Smirnov) normality test D = 0.48563, p-value = 5.396e-14
Cramer-von Mises normality test W = 0.99624, p-value = 0.000000001282
De acuerdo con los test realizados, los residuales estandarizados no presentan una distribución normal, ni tampoco homocedasticidad. Por lo tanto, si se puede confiar en los resultados encontrados en el ANOVA.
Referencias:
(1) MONTGOMERY D. C. Design and analysis of Experiments. 2013. Octava edición. John Wiley Sons, Inc. Capítulo 6, ejercicio 6.5. Pág. 292.