Farmacia y estadística
  • Inicio
  • Metodología
  • Cursos y consultoría
    • Muestreo - Módulo I
    • Muestreo - Módulo II
    • Muestreo - Módulo III
    • Validación de metodologías analíticas
    • Diseño de Experimentos – Modulo I
    • Estadística básica enfocada en la industria farmacéutica
    • Diseño de Experimentos – Modulo II
    • Cartas de control y capacidad de proceso enfocado en procesos no normales
  • Cursos y consultoría
  • Tutoriales y ejercicios
    • Conceptos básicos
      • Distribuciones continuas
      • Definiciones
      • Distribuciones discretas
    • Análisis descriptivo
      • Medidas de forma
      • Medidas de tendencia central
      • Medidas de dispersión
      • Medidas de localización
    • Análisis gráfico
      • Gráficos estadísticos
      • Análisis de componentes principales
      • Datos relacionales
    • Inferencia
      • Conceptos básicos de inferencia
      • Muestreo Aleatorio Simple (MAS)
      • Muestreo Sistemático
      • Muestreo estratificado
      • Muestreo por conglomerado
      • Distribuciones muestrales
    • Muestreo de aceptación
      • ¿Qué es el muestreo de aceptación?
      • Curvas de operación
      • Muestreo de aceptación simple por atributos
      • Sistemas de muestreo
  • Contacto
  • Aula virtual
© 2022 Farmacia y estadística. Todos los derechos reservados

Ejercicios - MONTGOMERY D. C.

  • 23 de Julio de 2023
  • Design and analysis of Experiments. 2013. Octava edición. John Wiley Sons, Inc. Capítulo 6, ejercicio 6.37. Pág. 301
VOLVER ATRÁS

Ejercicio tomado de: MONTGOMERY D. C. Design and analysis of Experiments. 2013. Octava edición. John Wiley Sons, Inc. Capítulo 6, ejercicio 6.37. Pág. 301

Nota aclaratoria: La solución presentada a continuación es una propuesta de respuesta al ejercicio en mención y no representa la respuesta oficial del autor del ejercicio. Esta solución se proporciona con fines académicos y se recomienda su uso como referencia o punto de partida según las necesidades específicas del lector.

6.37. Continuación del problema 6.36. Supongamos que el experimentador también hubiera corrido cuatro puntos centrales junto con las 16 en el Problema 6.36. Las medidas de resistividad en los puntos centrales son 8,15, 7,63, 8,95 y 6,48. Analice de nuevo el experimento incorporando los puntos centrales. ¿Qué conclusiones puede determinar?

Problema 6.36. - En la resistividad de una lámina de silicio influyen varios factores. Los resultados de un experimento factorial 24 realizado durante un paso crítico de procesamiento se muestra en la siguiente tabla:

> ### MODELO
> MOD1<-aov(RTA~FACT_A*FACT_B, data = datos)
> summary(MOD1)

              Df Sum Sq Mean Sq F value       Pr(>F)   
FACT_A         1 1107.2  1107.2  185.25 0.0000000117 ***
FACT_B         1  227.3   227.3   38.02 0.0000482629 ***
FACT_A:FACT_B  1  303.6   303.6   50.80 0.0000120108 ***
Residuals     12   71.7     6.0                        
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
>
> ### Estimación de efectos
> MOD2<-lm(RTA~FACT_A*FACT_B, data = datos)

TRAT    FACT_A    FACT_B    FACT_C    FACT_D    RTA
TRAT_1    -1       -1        -1        -1       1,92
TRAT_2     1       -1        -1        -1      11,28
TRAT_3    -1        1        -1        -1       1,09
TRAT_4     1        1        -1        -1       5,75
TRAT_5    -1       -1         1        -1       2,13
TRAT_6     1       -1         1        -1       9,53
TRAT_7    -1        1         1        -1       1,03
TRAT_8     1        1         1        -1       5,35
TRAT_9    -1       -1        -1         1       1,6
TRAT_10    1       -1        -1         1      11,73
TRAT_11   -1        1        -1         1       1,16
TRAT_12    1        1        -1         1       4,68
TRAT_13   -1       -1         1         1       2,16
TRAT_14    1       -1         1         1       9,11
TRAT_15   -1        1         1         1       1,07
TRAT_16    1        1         1         1       5,3

A continuación, se plantea el análisis del experimento sin la inclusión de puntos centrales y se estiman los efectos y la significancia de cada factor:

A:D          1   0.05    0.05
B:D          1   0.04    0.04
C:D          1   0.01    0.01
A:B:C        1   1.90    1.90
A:B:D        1   0.15    0.15
A:C:D        1   0.00    0.00
B:C:D        1   0.14    0.14
A:B:C:D      1   0.32    0.32
> LinearModel.1 <- lm(RTA1 ~ A*B*C*D, data=Design.6.36R1)
> summary(LinearModel.1)

Call:
lm.default(formula = RTA1 ~ A * B * C * D, data = Design.6.36R1)

Residuals:
ALL 16 residuals are 0: no residual degrees of freedom!

Coefficients:
            Estimate Std. Error t value Pr(>|t|)
(Intercept)  4.68062        NaN     NaN      NaN
A1           3.16062        NaN     NaN      NaN
B1          -1.50187        NaN     NaN      NaN
C1          -0.22062        NaN     NaN      NaN
D1          -0.07937        NaN     NaN      NaN
A1:B1       -1.06938        NaN     NaN      NaN
A1:C1       -0.29812        NaN     NaN      NaN
B1:C1        0.22937        NaN     NaN      NaN
A1:D1       -0.05687        NaN     NaN      NaN
B1:D1       -0.04688        NaN     NaN      NaN
C1:D1        0.02937        NaN     NaN      NaN
A1:B1:C1     0.34437        NaN     NaN      NaN
A1:B1:D1    -0.09688        NaN     NaN      NaN
A1:C1:D1    -0.01063        NaN     NaN      NaN
B1:C1:D1     0.09438        NaN     NaN      NaN
A1:B1:C1:D1  0.14188        NaN     NaN      NaN

Residual standard error: NaN on 0 degrees of freedom
Multiple R-squared:      1,    Adjusted R-squared:    NaN 
F-statistic:   NaN on 15 and 0 DF,  p-value: NA

Debido a la falta de grados de libertad en el error, solo se pueden estimar los efectos de cada factor, pero no la significancia de cada uno. Por eso es necesario la inclusión de puntos centrales que incrementen los grados de libertad en el error. A continuación, se plantea el análisis del experimento con la inclusión de puntos centrales (azul) y se estiman los efectos y la significancia de cada factor:

> Design.6.36.withcenterpts <- add.center( Design.6.36, ncenter= 4, distribute= 2)

RTA2<-c(8.15,7.63,1.92,11.28,1.09,5.75,2.13,9.53,1.03,5.35,1.60,11.73,1.16,4.68,2.16,9.11,1.07,5.30,8.95,6.48)

>Design.6.36R2 <- add.response(Design.6.36.withcenterpts,RTA2, replace=FALSE)
> Design.6.36R2
    A  B  C  D  RTA2
1   0  0  0  0  8.15
2   0  0  0  0  7.63
3  -1 -1 -1 -1  1.92
4   1 -1 -1 -1 11.28
5  -1  1 -1 -1  1.09
6   1  1 -1 -1  5.75
7  -1 -1  1 -1  2.13
8   1 -1  1 -1  9.53
9  -1  1  1 -1  1.03
10  1  1  1 -1  5.35
11 -1 -1 -1  1  1.60
12  1 -1 -1  1 11.73
13 -1  1 -1  1  1.16
14  1  1 -1  1  4.68
15 -1 -1  1  1  2.16
16  1 -1  1  1  9.11
17 -1  1  1  1  1.07
18  1  1  1  1  5.30
19  0  0  0  0  8.95
20  0  0  0  0  6.48
class=design, type= full factorial.center

> anova2<-aov(RTA2 ~ A*B*C*D, data=Design.6.36R2)
> summary(anova2)

            Df Sum Sq Mean Sq F value Pr(>F) 
A            1 159.83  159.83  18.583 0.0125 *
B            1  36.09   36.09   4.196 0.1099 
C            1   0.78    0.78   0.091 0.7785 
D            1   0.10    0.10   0.012 0.9190 
A:B          1  18.30   18.30   2.127 0.2184 
A:C          1   1.42    1.42   0.165 0.7051 
B:C          1   0.84    0.84   0.098 0.7700 
A:D          1   0.05    0.05   0.006 0.9419 
B:D          1   0.04    0.04   0.004 0.9521 
C:D          1   0.01    0.01   0.002 0.9700 
A:B:C        1   1.90    1.90   0.221 0.6630 
A:B:D        1   0.15    0.15   0.017 0.9013 
A:C:D        1   0.00    0.00   0.000 0.9891 
B:C:D        1   0.14    0.14   0.017 0.9038 
A:B:C:D      1   0.32    0.32   0.037 0.8560 
Residuals    4  34.40    8.60                
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

> LinearModel.2 <- lm(RTA2 ~ A*B*C*D, data=Design.6.36R2)
> summary(LinearModel.2)

Call:
lm.default(formula = RTA2 ~ A * B * C * D, data = Design.6.36R2)

Residuals:
      1       2       3       4       5       6       7       8       9      10
 2.8450  2.3250 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244

     11      12      13      14      15      16      17      18      19      20
-0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244 -0.6244  3.6450  1.1750

Coefficients:
            Estimate Std. Error t value Pr(>|t|)  
(Intercept)  5.30500    0.65578   8.090  0.00127 **
A            3.16062    0.73318   4.311  0.01254 *
B           -1.50187    0.73318  -2.048  0.10989  
C           -0.22062    0.73318  -0.301  0.77847  
D           -0.07937    0.73318  -0.108  0.91900  
A:B         -1.06938    0.73318  -1.459  0.21845  
A:C         -0.29813    0.73318  -0.407  0.70511  
B:C          0.22938    0.73318   0.313  0.77003  
A:D         -0.05687    0.73318  -0.078  0.94189  
B:D         -0.04688    0.73318  -0.064  0.95209  
C:D          0.02938    0.73318   0.040  0.96996  
A:B:C        0.34438    0.73318   0.470  0.66303  
A:B:D       -0.09688    0.73318  -0.132  0.90126  
A:C:D       -0.01062    0.73318  -0.014  0.98913  
B:C:D        0.09438    0.73318   0.129  0.90379  
A:B:C:D      0.14188    0.73318   0.194  0.85599  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 2.933 on 4 degrees of freedom
Multiple R-squared:  0.8648,   Adjusted R-squared:  0.3576
F-statistic: 1.705 on 15 and 4 DF,  p-value: 0.3226

Se confirma que el único factor que presenta un efecto estadísticamente significativo en la variable respuesta es el factor A.

Verificación de supuestos para los residuales:

Histograma de los residuales estandarizados:

En general, para todas las gráficas realizadas, si se observa un comportamiento extraño en los residuales, indicando que probablemente no cumpla la verificación de supuestos. Para confirmar el cumplimiento de los supuestos, se realizan las respectivas pruebas estadísticas, obteniendo los siguientes resultados:

Shapiro-Wilk normality test                                          W = 0.52089, p-value = 0.000000494

Anderson-Darling normality test                                   A = 4.9312, p-value = 1.052e-12

Lilliefors (Kolmogorov-Smirnov) normality test             D = 0.48563, p-value = 5.396e-14

Cramer-von Mises normality test                                 W = 0.99624, p-value = 0.000000001282

De acuerdo con los test realizados, los residuales estandarizados no presentan una distribución normal, ni tampoco homocedasticidad. Por lo tanto, si se puede confiar en los resultados encontrados en el ANOVA.

Referencias:

(1) MONTGOMERY D. C. Design and analysis of Experiments. 2013. Octava edición. John Wiley Sons, Inc. Capítulo 6, ejercicio 6.5. Pág. 292.

¿Tienes dudas o preguntas?
¿Necesitas un curso específico para tu empresa?

¡Contáctanos!

 

Metodología
© 2025 Farmacia y estadística.
Desarrollo: K diseño digital
Farmacia y estadística
Encuéntranos en