martes, 18 de octubre de 2016
viernes, 30 de septiembre de 2016
Tamaño de muestra - MAS
### Determinación del tamaño de muestra para un MAS
### Ingreso de datos
dat=c(2,2.5,4,3.8,7.2,10,5.6,4.9,3.3,4,3.5,5.7,10,8.1,4.4,6.6,7.3,8,9,3.9,7.1,4.9,2.3,3.9,11.1,7.3,6.5,5.8,4,3)
alfa<-0.05
N<-10000 #Población
s2<-6,0590 #Varianza estimada. Recordar que debería estimarse
E<-0.20 #Error absoluto
### Cálculos
var(dat) #Recordar que esta es la var.muestral (n-1)
sd(dat) #Recordar que esta es la var.muestral (n-1)
z<-qnorm(1-(alfa/2))
n<-((z^2*s2)/(E^2))/(((1/N)*((z^2*s2)/(E^2)))+1)
n
()página 86
### Ingreso de datos
dat=c(2,2.5,4,3.8,7.2,10,5.6,4.9,3.3,4,3.5,5.7,10,8.1,4.4,6.6,7.3,8,9,3.9,7.1,4.9,2.3,3.9,11.1,7.3,6.5,5.8,4,3)
alfa<-0.05
N<-10000 #Población
s2<-6,0590 #Varianza estimada. Recordar que debería estimarse
E<-0.20 #Error absoluto
### Cálculos
var(dat) #Recordar que esta es la var.muestral (n-1)
sd(dat) #Recordar que esta es la var.muestral (n-1)
z<-qnorm(1-(alfa/2))
n<-((z^2*s2)/(E^2))/(((1/N)*((z^2*s2)/(E^2)))+1)
n
()página 86
jueves, 29 de septiembre de 2016
Análisis Multivariado - Análisis descriptivo
### Análisis descriptivo - Análisis multivariado
# En este caso se requieren las siguientes librerias: (car),(MVN) y (ellipse)
espe<-c(2.26, 2.28, 2.27, 2.39, 2.22, 2.29, 2.30, 2.39, 2.35, 2.30, 2.31, 2.31, 2.32, 2.32, 2.28, 2.27, 2.27, 2.33, 2.30, 2.26, 2.22, 2.38, 2.20, 2.42, 2.25)
diame<-c(4.22, 4.21, 4.24, 4.24, 4.21, 4.22, 4.25, 4.24, 4.21, 4.29, 4.23, 4.26, 4.23, 4.23, 4.20, 4.23, 4.25, 4.27, 4.25, 4.23, 4.24, 4.24, 4.23, 4.25, 4.23)
vecmed
varcovar<-var(matrix)
n<-nrow(matrix)
p<-ncol(matrix)
a1<-0.01
Ftab<-qf((1-a1),p,(n-p))
Ftab
vec.a<-c(1,0)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a<-c(0,1)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
shapiro.test(x)
shapiro.test(y)
mardiaTest(matrix)
hzTest(matrix, qqplot = TRUE)
# En este caso se requieren las siguientes librerias: (car),(MVN) y (ellipse)
espe<-c(2.26, 2.28, 2.27, 2.39, 2.22, 2.29, 2.30, 2.39, 2.35, 2.30, 2.31, 2.31, 2.32, 2.32, 2.28, 2.27, 2.27, 2.33, 2.30, 2.26, 2.22, 2.38, 2.20, 2.42, 2.25)
diame<-c(4.22, 4.21, 4.24, 4.24, 4.21, 4.22, 4.25, 4.24, 4.21, 4.29, 4.23, 4.26, 4.23, 4.23, 4.20, 4.23, 4.25, 4.27, 4.25, 4.23, 4.24, 4.24, 4.23, 4.25, 4.23)
matrix<-as.data.frame(cbind(x,y))
vecmed<-c(sapply(matrix,mean))vecmed
varcovar<-var(matrix)
n<-nrow(matrix)
p<-ncol(matrix)
a1<-0.01
Ftab<-qf((1-a1),p,(n-p))
Ftab
vec.a<-c(1,0)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a<-c(0,1)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
shapiro.test(x)
shapiro.test(y)
mardiaTest(matrix)
hzTest(matrix, qqplot = TRUE)
Análisis Multivariado - Análisis descriptivo
### Análisis descriptivo - Análisis multivariado
# En este caso se requieren las siguientes librerias: (car),(MVN) y (ellipse)
espe<-c(2.26, 2.28, 2.27, 2.39, 2.22, 2.29, 2.30, 2.39, 2.35, 2.30, 2.31, 2.31, 2.32, 2.32, 2.28, 2.27, 2.27, 2.33, 2.30, 2.26, 2.22, 2.38, 2.20, 2.42, 2.25)
diame<-c(4.22, 4.21, 4.24, 4.24, 4.21, 4.22, 4.25, 4.24, 4.21, 4.29, 4.23, 4.26, 4.23, 4.23, 4.20, 4.23, 4.25, 4.27, 4.25, 4.23, 4.24, 4.24, 4.23, 4.25, 4.23)
vecmed
varcovar<-var(matrix)
n<-nrow(matrix)
p<-ncol(matrix)
a1<-0.01
Ftab<-qf((1-a1),p,(n-p))
Ftab
vec.a<-c(1,0)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a<-c(0,1)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
shapiro.test(x)
shapiro.test(y)
mardiaTest(matrix)
hzTest(matrix, qqplot = TRUE)
# En este caso se requieren las siguientes librerias: (car),(MVN) y (ellipse)
espe<-c(2.26, 2.28, 2.27, 2.39, 2.22, 2.29, 2.30, 2.39, 2.35, 2.30, 2.31, 2.31, 2.32, 2.32, 2.28, 2.27, 2.27, 2.33, 2.30, 2.26, 2.22, 2.38, 2.20, 2.42, 2.25)
diame<-c(4.22, 4.21, 4.24, 4.24, 4.21, 4.22, 4.25, 4.24, 4.21, 4.29, 4.23, 4.26, 4.23, 4.23, 4.20, 4.23, 4.25, 4.27, 4.25, 4.23, 4.24, 4.24, 4.23, 4.25, 4.23)
matrix<-as.data.frame(cbind(x,y))
vecmed<-c(sapply(matrix,mean))vecmed
varcovar<-var(matrix)
n<-nrow(matrix)
p<-ncol(matrix)
a1<-0.01
Ftab<-qf((1-a1),p,(n-p))
Ftab
vec.a<-c(1,0)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a<-c(0,1)
vec.a%*%vecmed-sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
vec.a%*%vecmed+sqrt(((n-1)*p)/(n-p)*Ftab*((t(vec.a)%*%varcovar%*%vec.a)/n))
shapiro.test(x)
shapiro.test(y)
mardiaTest(matrix)
hzTest(matrix, qqplot = TRUE)
domingo, 25 de septiembre de 2016
Comandos generales - Gráficas
# Permite que se abra otra ventana
x11()
# Divide la ventana de acuerdo a las filas y columnas indicadas. En este ejemplo, 2 filas, 3 columnas:
par(mfrow=c(2,3))
x11()
# Divide la ventana de acuerdo a las filas y columnas indicadas. En este ejemplo, 2 filas, 3 columnas:
par(mfrow=c(2,3))
Análisis mutivariado - Pruebas de hipótesis
# Con un α=0.10, verificar si el vector de medias x de la muestra
# indicada en la tabla, corresponde x =(7,11)
# VAR1 VAR2
# 2 12
# 8 9
# 6 9
# 8 10
# Primero, se debe determinar el vector de medias x, de acuerdo con los datos,
#el cual sería: x =(6,10)
vecmed<-c(6,10)
# Planteamiento de hipótesis:
# Ho: El vector de medias x es igual a x=(7,11)
# Ha: El vector de medias x no es igual a x=(7,11)
Ho<-c(7,11)
# Ingreso de datos, como una matriz de nxp dimensiones:
matrix<-matrix(c(2,8,6,8,12,9,9,10),4,2)
#donde,
n<-4
p<-2
#Cálculo de la matriz de varianza y covarianza:
varcovar<-var(matrix) #matriz de var y covar, dividida por n-1
#Cálculo de la matriz inversa de la matriz de varianza y covarianza:
solve(varcovar)
#Estadístico calculado
n*(vecmed-Ho)%*%solve(varcovar)%*%(vecmed-Ho)
#Estadístico de comparación
a1<-0.10
Ftab<-qf((1-a1),p,(n-p))
Ftab
(n-1)/(n-p)*p*Ftab
# Conclusión:
#Como el estadístico es menor que el estadístico de comparación (13,63<27),
#se rechaza la hipótesis nula
# indicada en la tabla, corresponde x =(7,11)
# VAR1 VAR2
# 2 12
# 8 9
# 6 9
# 8 10
# Primero, se debe determinar el vector de medias x, de acuerdo con los datos,
#el cual sería: x =(6,10)
vecmed<-c(6,10)
# Planteamiento de hipótesis:
# Ho: El vector de medias x es igual a x=(7,11)
Ho<-c(7,11)
# Ingreso de datos, como una matriz de nxp dimensiones:
matrix<-matrix(c(2,8,6,8,12,9,9,10),4,2)
#donde,
n<-4
p<-2
#Cálculo de la matriz de varianza y covarianza:
varcovar<-var(matrix) #matriz de var y covar, dividida por n-1
#Cálculo de la matriz inversa de la matriz de varianza y covarianza:
solve(varcovar)
#Estadístico calculado
n*(vecmed-Ho)%*%solve(varcovar)%*%(vecmed-Ho)
#Estadístico de comparación
a1<-0.10
Ftab<-qf((1-a1),p,(n-p))
Ftab
(n-1)/(n-p)*p*Ftab
# Conclusión:
#Como el estadístico es menor que el estadístico de comparación (13,63<27),
#se rechaza la hipótesis nula
lunes, 6 de junio de 2016
domingo, 5 de junio de 2016
Verificación de normalidad univariado
### Verificación de normalidad - univariado
# Gráfica qq-plot
set.seed(555)
dat<-as.vector((rnorm(100,0,1)))
datos<-sort(datos)
head(datos)
n<-length(datos)
largo<-1:n
pi<-c((1:n)-0.5)/n
qn<-qnorm(pi)
tabla<-cbind(datos,pi,qn)
tabla
par(mfrow=c(1,2))
plot(qn,datos, main="qqplot-manual")
qqnorm(datos, main="qqplot-fórmula")
# Gráfica qq-plot
set.seed(555)
dat<-as.vector((rnorm(100,0,1)))
datos<-sort(datos)
head(datos)
n<-length(datos)
largo<-1:n
pi<-c((1:n)-0.5)/n
qn<-qnorm(pi)
tabla<-cbind(datos,pi,qn)
tabla
par(mfrow=c(1,2))
plot(qn,datos, main="qqplot-manual")
qqnorm(datos, main="qqplot-fórmula")
Promedio
También se conoce como: Media, media aritmética, esperanza, valor esperado, primer momento, mean.
La media de n números es una medida de tendencia central, que
se define como la suma de los mismos dividida entre n.
|
|
|
sábado, 14 de mayo de 2016
Verificación de supuestos
### Verificación de supuestos ###
resi<-residuals(MOD)
stdresid<-rstandard(MOD)
#par(mfrow=c(2,2))
#plot(MOD)
#shapiro:Para normalidad
#Ho:Hay normalidad
#Ha:No hay normalidad
#shapiro.test(rnorm(100,0,1))
shapiro.test(resi) #Si son normales los residuos
#Kolmogorov-Smirnov: Para normalidad
#Ho:Hay normalidad (No hay diferencia significativa entre la distribucion evaluada y una distribucion normal)
#Ha:No hay normalidad (Si hay diferencia significativa entre la distribucion evaluada y una distribucion normal)
#prueba<-rnorm(100,0,1)
#ks.test(prueba,"pnorm",mean=mean(prueba), sd=sd(prueba))
ks.test(resi,"pnorm",mean=0, sd=sd(resi))
#Barlett: Para homogeneidad de varianzas
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
bartlett.test(ESP_NUC_PROC ~ LOTE, data=tabla)
#Aca necesariamente toca poner la variable que
#se esta analizando y los grupos, tal cual como esta escrito
#en el modelo arriba
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
leveneTest(ESP_NUC_PROC ~ LOTE, data=tabla, center="median")
#En el test de Levene, se puede centrar por mediana o por promedio
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
leveneTest(ESP_NUC_PROC ~ LOTE, data=tabla, center="mean")
### Falta el test de aleatoriedad - No-paramétrico
bartlett.test(resi~MOD)
resi<-residuals(MOD)
stdresid<-rstandard(MOD)
#par(mfrow=c(2,2))
#plot(MOD)
#shapiro:Para normalidad
#Ho:Hay normalidad
#Ha:No hay normalidad
#shapiro.test(rnorm(100,0,1))
shapiro.test(resi) #Si son normales los residuos
#Kolmogorov-Smirnov: Para normalidad
#Ho:Hay normalidad (No hay diferencia significativa entre la distribucion evaluada y una distribucion normal)
#Ha:No hay normalidad (Si hay diferencia significativa entre la distribucion evaluada y una distribucion normal)
#prueba<-rnorm(100,0,1)
#ks.test(prueba,"pnorm",mean=mean(prueba), sd=sd(prueba))
ks.test(resi,"pnorm",mean=0, sd=sd(resi))
#Barlett: Para homogeneidad de varianzas
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
bartlett.test(ESP_NUC_PROC ~ LOTE, data=tabla)
#Aca necesariamente toca poner la variable que
#se esta analizando y los grupos, tal cual como esta escrito
#en el modelo arriba
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
leveneTest(ESP_NUC_PROC ~ LOTE, data=tabla, center="median")
#En el test de Levene, se puede centrar por mediana o por promedio
with(tabla, tapply(ESP_NUC_PROC, LOTE, var, na.rm=TRUE))
leveneTest(ESP_NUC_PROC ~ LOTE, data=tabla, center="mean")
### Falta el test de aleatoriedad - No-paramétrico
bartlett.test(resi~MOD)
jueves, 12 de mayo de 2016
Ingreso de datos
### Ingreso de datos ###
# 1. Se puede ingresar los datos directamente, así:
x=c(499.3361, 500.3681, 501.2236, 498.3309, 499.0955, 501.4942, 500.3857, 499.7793, 499.7361, 502.3487, 499.6574, 500.1297, 500.2847, 498.2438, 498.8386, 499.5641, 498.9991, 499.7621, 500.6080, 499.1800, 500.2351, 499.6674, 499.2542, 500.6901, 500.8001, 499.7816, 500.0355, 500.6031, 501.2470)
# 2. Se puede ingresar los datos, tomados directamente de archivos de excel, así:
# En este caso se requieren las siguientes librerias: (xlsx), (rJava),(xlsxjars)
setwd("C:/Users/admin/Desktop/prueba")
datos<-read.xlsx("datos.xlsx","datos", header=TRUE)
# 1. Se puede ingresar directamente del enlace de internet, así:
datos<-read.table ("http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data",sep=",")
Análisis descriptivo
### Análisis descriptivo ###
#Una vez se ha ingresado la variable de interés como "x" (Ver: ### Ingreso de datos ###), seguir el siguiente script
#n
length(x)
#Promedio
mean(x)
#Mediana
median(x)
#Varianza muestral (dividida por n-1)
var(x)
#Varianza poblacional:
var(x)*(n-1)/n #donde n=número de datos
#Desviación estándar muestral (dividida por n-1)
sd(x)
#Coeficiente de variación
(sd(x)/mean(x))*100
#Rango
max(x)-min(x)
#Moda
estimate_mode <- function(x)
{
d <- density(x)
d$x[which.max(d$y)]
}
estimate_mode(x)
#Una vez se ha ingresado la variable de interés como "x" (Ver: ### Ingreso de datos ###), seguir el siguiente script
#n
length(x)
#Promedio
mean(x)
#Mediana
median(x)
#Varianza muestral (dividida por n-1)
var(x)
#Varianza poblacional:
var(x)*(n-1)/n #donde n=número de datos
#Desviación estándar muestral (dividida por n-1)
sd(x)
#Coeficiente de variación
(sd(x)/mean(x))*100
#Rango
max(x)-min(x)
#Moda
estimate_mode <- function(x)
{
d <- density(x)
d$x[which.max(d$y)]
}
estimate_mode(x)
sábado, 23 de abril de 2016
Pruebas t - prueba pareada
Caso de estudio: Se desea evaluar si hay diferencias estadísticamente
significativas en el conteo de Unidades Formadoras de Colonia (UFC) antes y después de aplicar un
gel antibacterial en las manos:
Individuo
|
UFC
|
UFC
|
(T
= 0min)
|
(T
= 10min)
|
|
1
|
6
|
2
|
2
|
1
|
0
|
3
|
11
|
9
|
4
|
0
|
0
|
5
|
2
|
1
|
6
|
0
|
1
|
7
|
1
|
3
|
8
|
0
|
0
|
9
|
4
|
0
|
10
|
0
|
0
|
1. Planteamiento de hipótesis (Ver Pruebas de hipótesis):
Ho :
|
No hay diferencia estadísticamente significativa entre el número de UFC, antes y después de la aplicación del gel antibacterial.
|
Ha :
|
El número de UFC es menor después de la aplicación del gel antibacterial
|
2. Elección de la prueba: prueba t para datos pareados a una cola.
3. Ejecución de la prueba:
5. Conclusión: Se rechaza la Ha, concluyendo que no hay diferencia estadísticamente significativa entre el número de UFC, antes y después de la aplicación del gel antibacterial.
Nota: Se observa que si hay disminución entre el número de UFC antes y después de la aplicación del gel, sin embargo, ésta no es estadísticamente significativa como para afirmar que si hay una diferencia.
Pruebas t
Caso de estudio: Se
desea evaluar si hay diferencias estadísticamente significativas entre dos
metodologías analíticas frente a la valoración de un principio activo:
No.
Muestra
|
Met.
1
|
Met.
2
|
1
|
2,30
|
2,07
|
2
|
1,61
|
1,73
|
3
|
2,65
|
2,88
|
4
|
1,38
|
1,15
|
5
|
2,42
|
2,30
|
6
|
1,73
|
1,50
|
7
|
2,76
|
2,65
|
8
|
2,30
|
2,42
|
9
|
2,19
|
1,96
|
1. Evaluación de igualdad de varianzas a través de una prueba F:
Se obtiene un p = 0,6677, indicando que las varianzas son iguales
2. Planteamiento de hipótesis (Ver Pruebas de hipótesis):
Ho :
|
No hay diferencia estadísticamente
significativa entre la metodología 1 y la metodología 2.
|
Ha :
|
No hay diferencia estadísticamente significativa entre la
metodología 1 y la metodología 2.
|
3. Elección de la prueba: prueba t para datos independientes a dos colas.
4. Ejecución de la prueba:
Se obtiene un p = 0,7603
5. Conclusión: Se rechaza la Ha, concluyendo que no hay diferencia estadísticamente significativa entre la metodología 1 y la metodología 2.
5. Conclusión: Se rechaza la Ha, concluyendo que no hay diferencia estadísticamente significativa entre la metodología 1 y la metodología 2.
ANOVA - Ejercicios prácticos
Alcance máximo:
Conceptos:
Cuanto mayor sea la velocidad inicial, más grande será el alcance. ¿Pero qué ángulo de proyección da el alcance máximo para una rapidez inicial determinada? El alcance de un proyectil está dado por:
Así pues, para
conseguir el alcance máximo, un proyectil deberá ser disparado en un ángulo de
45°.
Fuente: Wilson J. D., pag. 94
Conceptos:
Cuanto mayor sea la velocidad inicial, más grande será el alcance. ¿Pero qué ángulo de proyección da el alcance máximo para una rapidez inicial determinada? El alcance de un proyectil está dado por:
Por consiguiente, x es máxima
cuando se obtiene el mayor valor de la función seno, lo cual ocurre cuando:
Fuente: Wilson J. D., pag. 94
domingo, 17 de abril de 2016
Artículos
(1)
FERNANDEZ N., y otros. Diseños de experimentos
en tecnología y control de los medicamentos. Revista Mexicana de Ciencias
Farmacéuticas (ISSN: 1870-0195). Vol 39. Num 2, abril-junio. 2008. pp.28
Libros
(1) GUTIERREZ H. P., y SALAZAR R. Análisis y diseño de experimentos. Mc Graw Hill. Tercera edición.
(2) CORZO J. A., Notas de clase. Estadística no paramétrica. Métodos basados en rangos. Universidad Nacional de Colombia. Primera edición.
(3) WILSON J. D. y otros. Física con aplicaciones. Mc Graw Hill. Segunda edición.
(2) CORZO J. A., Notas de clase. Estadística no paramétrica. Métodos basados en rangos. Universidad Nacional de Colombia. Primera edición.
(3) WILSON J. D. y otros. Física con aplicaciones. Mc Graw Hill. Segunda edición.
Suscribirse a:
Entradas (Atom)