Cuestionario
Confiabilidad y validez
Dr. Alfonso Cano Robles:
alfonso.cano@correo.buap.mx
1
Definición
Confiabilidad: La aplicación repetida del mismo instrumento a muestras equivalentes tiende a producir resultados similares.
Mayor profundidad en la discusión:
Validez: ¿El instrumento mide lo que se pretende medir?
2
Descarga desde aquí “Confiabilidad en la medición. Investigación en educación médica”: Download
Calcular
Alpha de Cronbach
3
Vídeo: Alpha de Cronbach con “psych()”
4
Descarga desde aquí el manual del paquete psych: Download
Descarga desde aquí el script de R: Download
Aproximaciones para medir confiabilidad
5
6
Definición del Alfa de Cronbach
El Alfa de Cronbach es una prueba de fiabilidad usada comúnmente con escalas Likert y orientada a observar variables o dimensiones latentes, especialmente en instrumentos psicométricos. Por lo que se recomienda utilizar sólo con una dimensión a la vez (unidimensionalidad). (Andale, 2017)
En consecuencia, no se recomienda utilizar de manera general en todo el instrumento si se presume la existencia de más de una dimensión. Por lo cual, en estos casos se debe descomponer el análisis en varios pasos.
De igual manera, se recomienda correr un análisis factorial exploratorio (AFE) para identificar las «dimensiones latentes» si se desconoce su existencia.
Este coeficiente toma valores de 0 a 1, cuya interpretación se realiza de acuerdo a niveles cuya gradación va de inaceptable (0.5>α) a excelente (α≥0.9).
A pesar de ello, Tavakol & Dennick (2011), nos advierten que valores superiores a .95 deben ser tratados con cautela puesto que pueden indicar redundancia en las preguntas aplicadas. De la misma forma, mayor número de variables incrementa el valor de alfa. Igualmente nos advierte que la presencia de un alfa bajo no es necesariamente indicador de una fiabilidad inaceptable puesto que puede deberse a la existencia de más de una dimensión o bien, a que hay muy pocos reactivos para medirla adecuadamente.
Donde:
N = el número de ítems;
c̄ = es la media de la covariancia entre parejas de ítems, y;
v̄ = varianza promedio.
Fórmula del Alfa de Cronbach
Fuentes: Andale (2017) y Goforth (2015).
Intervalos para la interpretación del Coeficiente Alfa | |
Valor de Alfa de Cronbach | Nivel de consistencia Interna |
α≥0.9 | Excelente |
0.9>α≥0.8 | Buena |
0.8>α≥0.7 | Aceptable |
0.7>α≥0.6 | Cuestionable |
0.6>α≥0.5 | Pobre |
0.5>α | Inaceptable |
Fuente: Andale (2017) | |
Consideraciones para reportar Alpha de Cronbach
7
Referencias bibliográficas
8
Confiabilidad con ...
9
Alfa de Cronbach (⍺est)
Parameters
Sun Nov 14 08:54:14 2021
Ítems: 5
Unidades de muestra: 200
alpha: 0.47 (standardized)
| value |
All Items | 0.46 |
Excluding A1 | 0.73 |
Excluding A2 | 0.34 |
Excluding A3 | 0.17 |
Excluding A4 | 0.30 |
Excluding A5 | 0.22 |
Efectos en la alpha si se eliminan los items:
95% Intervalo de confianza:
2.5% | 97.5% |
0.36 | 0.56 |
Vídeo: Confiabilidad (⍺est) y validez con RKWard (AFE)
10
Análisis Factorial Exploratorio y Confirmatorio
11
ANÁLISIS FACTORIAL vs COMPONENTES PRINCIPALES (continúa)
12
Fuente: Discriminante. (27-03-2014). Recuperado el 13 de noviembre de 2021, de https://www.uv.es/ceaces/multivari/factorial/versus.htm
ANÁLISIS FACTORIAL vs COMPONENTES PRINCIPALES (continuación)
13
Fuente: Discriminante. (27-03-2014). Recuperado el 13 de noviembre de 2021, de https://www.uv.es/ceaces/multivari/factorial/versus.htm
Validación: análisis exploratorio y confirmatorio
Expresar p variables observables como una combinación lineal de m variables hipotéticas o latentes, denominadas factores.
14
Fuente: Vectores coplanarios.png. (2021, July 21). Wikimedia Commons, the free media repository. Retrieved 14:32, November 13, 2021 from https://commons.wikimedia.org/w/index.php?title=File:Vectores_coplanarios.png&oldid=576173249.
En otras palabras: la variabilidad de las variables observables (concretas) se puede resumir mediante variables (abstractas) que se encuentran latentes y se identifican como factores.
Requisitos
Al menos 100 observaciones.
Suposiciones:
Los factores se encuentran centrados.
Las covarianzas de los factores son independientes.
Los factores y los errores son independientes.
Y los factores se encuentran distribuidos aleatoriamente.
15
Términos
Comunalidades (communality): valores de cero a uno y a veces se toma como una medida similar a R² (en los modelos de regresión lineal).
Patrones (pattern): son pesos, y se parece a los coeficientes en los modelos de regresión.
Cargas (loadings): Son básicamente los coeficientes de correlación entre la variable y el factor.
Puntuaciones (scores): Se calculan con base en las cargas después de aplicar un método de optimización, P.E.: “Regression”, “Bartlett”, “Anderson-Rubin”.
16
Rotación
17
SPSS parece hacer una normalización de Kaiser antes de hacer Promax, esto se hace aquí mediante la llamada a "promax" que hace la normalización antes de llamar a Promax en GPArotation.
Puntuaciones
El valor predeterminado = "regresión" encuentra las puntuaciones de los factores mediante la regresión.
Las alternativas para estimar las puntuaciones de los factores incluyen regresión simple ("Thurstone"), preservación de correlación ("tenBerge"), así como "Anderson" y "Bartlett" utilizando los algoritmos apropiados (factor.scores).
Aunque probablemente se prefiera score = "tenBerge" para la mayoría de las soluciones, esto dará lugar a problemas con algunas matrices de correlación inadecuadas.
18
Método de factorización
fm = "minres" hará un residuo mínimo al igual que fm = "uls". Ambos utilizan una primera derivada. fm = "ols" difiere muy levemente de "minres" en que minimiza toda la matriz residual usando un procedimiento OLS (en inglés Ordinary Least Squares o en español Mínimos cuadrados ordinarios MCO) pero usa la primera derivada empírica. Esto será más lento.
fm = "wls" hará una solución de mínimos cuadrados ponderados (WLS), fm = "gls" hace una solución de mínimos cuadrados ponderados generalizados (GLS),
fm = "pa" hará la solución del factor principal.
fm = "ml" servirá un análisis factorial de máxima verosimilitud.
fm = "minchi" minimizará el chi cuadrado ponderado por el tamaño de la muestra al tratar las correlaciones por pares con diferentes números de sujetos por par.
fm = "minrank" hará un análisis de factor de rango mínimo. "old.min" tendrá un residuo mínimo de la forma en que se hizo antes de abril de 2017 (consulte la discusión a continuación).
fm = "alpha" hará un análisis de factor alfa como se describe en Kaiser y Coffey (1965)
19
La interpretación es subjetiva, pero sigue ciertas pautas.
Los factores deben contener dimensiones diferentes.
Los factores no pueden contener dimensiones antagónicas, P.E.: Felicidad en un factor contra Tristeza en otro factor.
Dos factores no pueden contener variables similares. P.E.: Felicidad en un factor y Alegría en otro.
Comunalidad (h2): el porcentaje de la varianza que es explicada por los factores.
u2 = 1-h2: el porcentaje de varianza que no es explicado por las cargas de los factores por variables.
La variable que es mejor explicada por los factores se observa por la comunalidad más alta.
Si u2 es muy alta (cercana a 1) debería quitarse del modelo de análisis factorial.
com: Complejidad, debe ser cercano a un, el número de factores que contribuyen a la variable específica. Si es dos o más significa que no se puede determinar a qué factor pertenece, dadas las opciones seleccionadas.
20
Bayesian information criterion (BIC)
Es un criterio para la selección de modelos entre un conjunto finito de modelos; Por lo general, se prefieren los modelos con un BIC más bajo. Se basa, en parte, en la función de probabilidad y está estrechamente relacionado con el Criterio de Información de Akaike (AIC).
BIC: Asume teoría de la normalidad. Basado en chi ^ 2 con el supuesto de teoría normal y usando el chi ^ 2 encontrado usando la función objetiva. Esto es solo chi ^ 2 - 2 df (grados de libertad).
eBIC: Cuando no se cumple el criterio de normalidad. Cuando falla la teoría normal (por ejemplo, en el caso de matrices definidas no positivas), es útil examinar el eBIC derivado empíricamente basado en el chi ^ 2 - 2 df empírico.
21
Pasos para realizarlo
en R y RKWard
22
Vídeo: Análisis factorial con “psych()”, “polycor()” y “ggcorrplot()”
23
Descarga desde aquí el manual del paquete psych: Download
Descarga desde aquí el script de R: Download
Pasos para efectuar un análisis factorial
24
Paso 1:Calcular matriz de correlación, correlación policórica, prueba de Esfericidad de Bartlett y KMO
25
RKWard->Gráficos->Factor analysis
Matriz de correlación policórica
La correlación policórica ha sido usada principalmente en psicología, sociología o econometría, para constructos abstractos, como la preferencia o la satisfacción, la afinidad política, etc. Sin embargo, no necesariamente nos limitamos a estos casos, cualquier pareja de variables ordinales podría ser analizada de esta manera.
Prueba de esfericidad de Bartlett, ¿Existe la suficiente correlación entre las variables para efectuar el análisis factorial?
26
Criterio de Kaiser-Meyer-Olkin (KMO)
Como referencia, Kaiser puso los siguientes valores en los resultados:
27
Paso 2: Escoger un método para extraer los factores
28
Paso 3: Determinar el número de factores
29
Paso 3: Determinar el número de factores
30
Paso 4: Rotar la matriz
31
Métodos de rotación
32
Standardized loadings (pattern matrix) basado en correlation matrix
33
Call: fa(r = bfi_s, nfactors = 5, rotate = "varimax", scores = "Bartlett", fm = "pa")
| ML1 | ML2 | ML4 | ML3 | ML5 | h2 | u2 | com |
A1 | 0.15 | 0.08 | -0.42 | -0.06 | -0.09 | 0.22 | 0.78 | 1.5 |
A2 | 0.13 | -0.01 | 0.62 | 0.16 | 0.12 | 0.44 | 0.56 | 1.3 |
A3 | 0.21 | 0.08 | 0.73 | 0.04 | 0.16 | 0.61 | 0.39 | 1.3 |
A4 | 0.13 | -0.07 | 0.41 | 0.18 | -0.17 | 0.25 | 0.75 | 2.1 |
A5 | 0.33 | -0.15 | 0.71 | -0.02 | 0.09 | 0.65 | 0.35 | 1.6 |
C1 | 0.01 | 0.09 | 0.1 | 0.64 | 0.27 | 0.5 | 0.5 | 1.4 |
C2 | 0.02 | 0.16 | 0.1 | 0.68 | 0.08 | 0.5 | 0.5 | 1.2 |
C3 | 0.02 | 0 | 0.08 | 0.67 | -0.01 | 0.46 | 0.54 | 1 |
C4 | -0.09 | 0.09 | -0.1 | -0.52 | -0.09 | 0.3 | 0.7 | 1.3 |
C5 | -0.28 | 0.22 | -0.03 | -0.42 | 0 | 0.31 | 0.69 | 2.3 |
E1 | -0.7 | -0.04 | -0.07 | -0.06 | -0.04 | 0.51 | 0.49 | 1 |
E2 | -0.75 | 0.3 | -0.13 | -0.12 | -0.04 | 0.68 | 0.32 | 1.4 |
E3 | 0.51 | 0.01 | 0.18 | -0.03 | 0.25 | 0.36 | 0.64 | 1.7 |
E4 | 0.51 | 0 | 0.42 | 0.15 | 0.06 | 0.47 | 0.53 | 2.2 |
E5 | 0.58 | 0.03 | 0.17 | 0.3 | 0.17 | 0.48 | 0.52 | 1.9 |
N1 | 0.12 | 0.83 | -0.15 | -0.08 | -0.09 | 0.74 | 0.26 | 1.2 |
N2 | 0.09 | 0.83 | -0.13 | -0.05 | 0 | 0.71 | 0.29 | 1.1 |
N3 | -0.19 | 0.7 | 0.02 | 0.03 | -0.07 | 0.53 | 0.47 | 1.2 |
N4 | -0.54 | 0.44 | 0 | 0.01 | 0.03 | 0.48 | 0.52 | 1.9 |
N5 | -0.3 | 0.54 | 0.04 | 0.11 | -0.07 | 0.41 | 0.59 | 1.7 |
O1 | 0.19 | -0.07 | 0.16 | 0.06 | 0.55 | 0.38 | 0.62 | 1.5 |
O2 | -0.11 | 0.11 | 0.11 | -0.17 | -0.3 | 0.16 | 0.84 | 2.7 |
O3 | 0.3 | -0.12 | 0.02 | 0.05 | 0.72 | 0.62 | 0.38 | 1.4 |
O4 | -0.26 | 0.14 | 0.15 | 0.13 | 0.55 | 0.43 | 0.57 | 1.9 |
O5 | -0.02 | 0.04 | -0.09 | -0.06 | -0.61 | 0.38 | 0.62 | 1.1 |
Salida del Análisis Factorial
34
Degrees of freedom | Fit | Fit (off diag) |
185 | 0.838 | 0.965 |
Parameters
Sun Nov 14 07:50:37 2021
Loadings
| Factor.1 | Factor.2 | Factor.3 | Factor.4 | Factor.5 | communality | uniqueness |
A1 | 0.147 | 0.084 | -0.419 | -0.062 | -0.095 | 0.217 | 0.783 |
A2 | 0.135 | -0.011 | 0.618 | 0.160 | 0.122 | 0.440 | 0.560 |
A3 | 0.215 | 0.082 | 0.730 | 0.041 | 0.163 | 0.614 | 0.386 |
A4 | 0.132 | -0.070 | 0.405 | 0.175 | -0.174 | 0.247 | 0.753 |
A5 | 0.334 | -0.149 | 0.712 | -0.019 | 0.092 | 0.649 | 0.351 |
C1 | 0.009 | 0.094 | 0.095 | 0.644 | 0.267 | 0.504 | 0.496 |
C2 | 0.020 | 0.162 | 0.101 | 0.680 | 0.075 | 0.505 | 0.495 |
C3 | 0.015 | -0.002 | 0.081 | 0.671 | -0.009 | 0.458 | 0.542 |
C4 | -0.087 | 0.090 | -0.100 | -0.519 | -0.087 | 0.302 | 0.698 |
C5 | -0.283 | 0.218 | -0.030 | -0.423 | -0.001 | 0.307 | 0.693 |
E1 | -0.703 | -0.039 | -0.071 | -0.056 | -0.040 | 0.505 | 0.495 |
E2 | -0.750 | 0.297 | -0.129 | -0.125 | -0.041 | 0.684 | 0.316 |
E3 | 0.515 | 0.007 | 0.181 | -0.033 | 0.247 | 0.360 | 0.640 |
E4 | 0.510 | -0.001 | 0.422 | 0.155 | 0.061 | 0.466 | 0.534 |
E5 | 0.578 | 0.029 | 0.167 | 0.296 | 0.175 | 0.481 | 0.519 |
N1 | 0.120 | 0.830 | -0.153 | -0.082 | -0.085 | 0.740 | 0.260 |
N2 | 0.088 | 0.829 | -0.132 | -0.047 | -0.004 | 0.714 | 0.286 |
N3 | -0.195 | 0.700 | 0.021 | 0.034 | -0.066 | 0.534 | 0.466 |
N4 | -0.539 | 0.437 | -0.004 | 0.013 | 0.029 | 0.482 | 0.518 |
N5 | -0.301 | 0.544 | 0.039 | 0.112 | -0.066 | 0.405 | 0.595 |
O1 | 0.192 | -0.071 | 0.158 | 0.061 | 0.552 | 0.375 | 0.625 |
O2 | -0.112 | 0.113 | 0.113 | -0.172 | -0.296 | 0.155 | 0.845 |
O3 | 0.301 | -0.121 | 0.020 | 0.045 | 0.716 | 0.620 | 0.380 |
O4 | -0.263 | 0.140 | 0.154 | 0.133 | 0.549 | 0.432 | 0.568 |
O5 | -0.019 | 0.036 | -0.095 | -0.058 | -0.605 | 0.381 | 0.619 |
Sum of squared loadings | 2.869 | 2.628 | 2.171 | 2.048 | 1.862 | 11.578 | |
Variance explained (%) | 11.476 | 10.513 | 8.685 | 8.191 | 7.446 | | |
Variance explained (cum %) | 11.476 | 21.989 | 30.674 | 38.865 | 46.311 | | |
Measures of factor score adequacy
| Factor 1 | Factor 2 | Factor 3 | Factor 4 | Factor 5 |
Correlation of scores with factors | 0.915 | 0.937 | 0.889 | 0.877 | 0.870 |
Multiple R square of scores with factors | 0.836 | 0.879 | 0.790 | 0.769 | 0.757 |
Minimum correlation of possible factor scores | 0.673 | 0.757 | 0.580 | 0.539 | 0.513 |
Gráficos con matrices rotadas: sin rotar y varimax
35
Gráficos con matrices rotadas: quartimax y Promax
36
Paso 5: La interpretación
37
Esta es la parte más difícil del análisis factorial para ayudar a la interpretación se puede hacer un gráfico de árbol.
Los factores pueden ser interpretados como:
Referencias bibliográficas
Bolaños, L. (2020, marzo 10). RPubs—Análisis Factorial. https://rpubs.com/luis_bolanos/FA
Spencer Pao. (2021, febrero 28). Understanding and Applying Factor Analysis in R. https://www.youtube.com/watch?v=kbJMz0KzMnI
38