1 of 38

Cuestionario

Confiabilidad y validez

Dr. Alfonso Cano Robles:

alfonso.cano@correo.buap.mx

1

2 of 38

Definición

Confiabilidad: La aplicación repetida del mismo instrumento a muestras equivalentes tiende a producir resultados similares.

Mayor profundidad en la discusión:

  • Reidl-Martínez, L. M. (2013). Confiabilidad en la medición. Investigación en educación médica, 2(6), 107–111.

Validez: ¿El instrumento mide lo que se pretende medir?

2

Descarga desde aquí “Confiabilidad en la medición. Investigación en educación médica”: Download

3 of 38

Calcular

Alpha de Cronbach

3

4 of 38

Vídeo: Alpha de Cronbach con “psych()”

4

Descarga desde aquí el manual del paquete psych: Download

Descarga desde aquí el script de R: Download

5 of 38

Aproximaciones para medir confiabilidad

  • “Quizás porque es tan fácil de calcular y está disponible en la mayoría de los programas comerciales, alfa es sin duda la medida de fiabilidad de la consistencia interna reportada con más frecuencia.” (Revelle, 2019. p.20)
  • “Los coeficientes β (beta de Revelle) y ωh (omega_hierarchical de McDonald’s: estimación de la saturación del factor general de una prueba) son más apropiados estimaciones de la saturación general del factor. ωt (omega_total de McDonald) es una mejor estimación de la confiabilidad de la prueba total (...)” (Revelle, 2019. p.20) debido a que se basa en análisis factorial.
  • Alfa es una generalización de una estimación anterior de confiabilidad para pruebas con ítems dicotómicos desarrollado por Kuder y Richardson, conocido como KR20, y una aproximación de atajo a la prueba KR21.

5

6 of 38

6

Definición del Alfa de Cronbach

El Alfa de Cronbach es una prueba de fiabilidad usada comúnmente con escalas Likert y orientada a observar variables o dimensiones latentes, especialmente en instrumentos psicométricos. Por lo que se recomienda utilizar sólo con una dimensión a la vez (unidimensionalidad). (Andale, 2017)

En consecuencia, no se recomienda utilizar de manera general en todo el instrumento si se presume la existencia de más de una dimensión. Por lo cual, en estos casos se debe descomponer el análisis en varios pasos.

De igual manera, se recomienda correr un análisis factorial exploratorio (AFE) para identificar las «dimensiones latentes» si se desconoce su existencia.

Este coeficiente toma valores de 0 a 1, cuya interpretación se realiza de acuerdo a niveles cuya gradación va de inaceptable (0.5>α) a excelente (α≥0.9).

A pesar de ello, Tavakol & Dennick (2011), nos advierten que valores superiores a .95 deben ser tratados con cautela puesto que pueden indicar redundancia en las preguntas aplicadas. De la misma forma, mayor número de variables incrementa el valor de alfa. Igualmente nos advierte que la presencia de un alfa bajo no es necesariamente indicador de una fiabilidad inaceptable puesto que puede deberse a la existencia de más de una dimensión o bien, a que hay muy pocos reactivos para medirla adecuadamente.

Donde:

N = el número de ítems;

c̄ = es la media de la covariancia entre parejas de ítems, y;

v̄ = varianza promedio.

Fórmula del Alfa de Cronbach

Fuentes: Andale (2017) y Goforth (2015).

Intervalos para la interpretación del Coeficiente Alfa

Valor de Alfa de Cronbach

Nivel de consistencia Interna

α≥0.9

Excelente

0.9>α≥0.8

Buena

0.8>α≥0.7

Aceptable

0.7>α≥0.6

Cuestionable

0.6>α≥0.5

Pobre

0.5>α

Inaceptable

Fuente: Andale (2017)

7 of 38

Consideraciones para reportar Alpha de Cronbach

  • Por dimensiones
    • Como se observa en la tabla en la que se desglosa el Alfa de Cronbach por dimensiones: ...
  • Ajuste de los elementos para elevar el alpha.
    • Al eliminar (n) elementos de la dimensión se elevó el Alfa de Cronbach de (0.[X]) a (0.[X’]) por lo que se ha conseguido un nivel de consistencia (Nivel de consistencia) . Los elementos eliminados fueron: (...)

7

8 of 38

Referencias bibliográficas

8

  • Andale. (2017, marzo 23). Cronbach’s Alpha: Simple Definition, Use and Interpretation [Andale]. Recuperado el 27 de junio de 2017, a partir de http://www.statisticshowto.com/cronbachs-alpha-spss/
  • Goforth, C. (2015, noviembre 16). Using and Interpreting Cronbach’s Alpha [University of Virginia Library]. Recuperado el 9 de noviembre de 2016, a partir de http://data.library.virginia.edu/using-and-interpreting-cronbachs-alpha/
  • Revelle, W. (2019). Procedures for Psychological, sychometric, and Personality Research: Package ‘psych’ (https://personality-project.org/r/psych; 1.8.12) [R; R Statistics]. North Western. https://cran.r-project.org/web/packages/psych/psych.pdf
  • Tavakol, M., & Dennick, R. (2011). Making sense of Cronbach’s alpha. International Journal of Medical Education, 2, 53–55. https://doi.org/10.5116/ijme.4dfb.8dfd

9 of 38

Confiabilidad con ...

9

Alfa de Cronbach (est)

Parameters

  • Conjunto de datos: bfi_s
  • Subconjunto: A1, A2, A3, A4, A5

Sun Nov 14 08:54:14 2021

Ítems: 5

Unidades de muestra: 200

alpha: 0.47 (standardized)

value

All Items

0.46

Excluding A1

0.73

Excluding A2

0.34

Excluding A3

0.17

Excluding A4

0.30

Excluding A5

0.22

Efectos en la alpha si se eliminan los items:

95% Intervalo de confianza:

2.5%

97.5%

0.36

0.56

10 of 38

Vídeo: Confiabilidad (est) y validez con RKWard (AFE)

10

11 of 38

Análisis Factorial Exploratorio y Confirmatorio

11

12 of 38

ANÁLISIS FACTORIAL vs COMPONENTES PRINCIPALES (continúa)

  • El Análisis Factorial y el Análisis de Componentes Principales están muy relacionados. Algunos autores consideran el segundo como una etapa del primero y otros los consideran como técnicas diferentes.
  • El Análisis de Componentes Principales trata de hallar componentes (factores) que sucesivamente expliquen la mayor parte de la varianza total. Por su parte el Análisis Factorial busca factores que expliquen la mayor parte de la varianza común.
  • En el Análisis Factorial se distingue entre varianza común y varianza única. La varianza común es la parte de la variación de la variable que es compartida con las otras variables. La varianza única es la parte de la variación de la variable que es propia de esa variable.

12

Fuente: Discriminante. (27-03-2014). Recuperado el 13 de noviembre de 2021, de https://www.uv.es/ceaces/multivari/factorial/versus.htm

13 of 38

ANÁLISIS FACTORIAL vs COMPONENTES PRINCIPALES (continuación)

  • El Análisis de Componentes Principales no hace esa distinción entre los dos tipos de varianza, se centra en la varianza total. Mientras que el Análisis de Componentes Principales busca hallar combinaciones lineales de las variables originales que expliquen la mayor parte de la variación total, el Análisis Factorial pretende hallar un nuevo conjunto de variables, menor en número que las variables originales, que exprese lo que es común a esas variables.
  • El Análisis Factorial supone que existe un factor común subyacente a todas las variables, el Análisis de Componentes Principales no hace tal asunción.
  • En el Análisis de Componentes Principales, el primer factor o componente sería aquel que explica una mayor parte de la varianza total, el segundo factor sería aquel que explica la mayor parte de la varianza restante, es decir, de la que no explicaba el primero y así sucesivamente. De este modo sería posible obtener tantos componentes como variables originales aunque esto en la práctica no tiene sentido.

13

Fuente: Discriminante. (27-03-2014). Recuperado el 13 de noviembre de 2021, de https://www.uv.es/ceaces/multivari/factorial/versus.htm

14 of 38

Validación: análisis exploratorio y confirmatorio

Expresar p variables observables como una combinación lineal de m variables hipotéticas o latentes, denominadas factores.

14

  • Hipotéticas: Confirmatorio.
  • Latentes: Exploratorio.

Fuente: Vectores coplanarios.png. (2021, July 21). Wikimedia Commons, the free media repository. Retrieved 14:32, November 13, 2021 from https://commons.wikimedia.org/w/index.php?title=File:Vectores_coplanarios.png&oldid=576173249.

En otras palabras: la variabilidad de las variables observables (concretas) se puede resumir mediante variables (abstractas) que se encuentran latentes y se identifican como factores.

15 of 38

Requisitos

Al menos 100 observaciones.

Suposiciones:

Los factores se encuentran centrados.

Las covarianzas de los factores son independientes.

Los factores y los errores son independientes.

Y los factores se encuentran distribuidos aleatoriamente.

15

16 of 38

Términos

Comunalidades (communality): valores de cero a uno y a veces se toma como una medida similar a R² (en los modelos de regresión lineal).

Patrones (pattern): son pesos, y se parece a los coeficientes en los modelos de regresión.

Cargas (loadings): Son básicamente los coeficientes de correlación entre la variable y el factor.

Puntuaciones (scores): Se calculan con base en las cargas después de aplicar un método de optimización, P.E.: “Regression”, “Bartlett”, “Anderson-Rubin”.

16

17 of 38

Rotación

  • No cambia las medidas de distancia.
  • Cambia la distribución de los datos para tener una mejor perspectiva, mientras se mantiene la varianza.
  • Opciones de rotación disponibles en el paquete psych:
  • Rotaciones ortogonales: "none", "varimax", "quartimax", "bentlerT", "equamax", "varimin", "geominT" y "bifactor".
  • Posibles transformaciones oblicuas de la solución: "Promax", "promax", "oblimin", "simplimax", "bentlerQ," geominQ" y "biquartimin" y " cluster".
  • El valor predeterminado es hacer una transformación oblimin, aunque las versiones anteriores a 2009 predeterminado en varimax.

17

SPSS parece hacer una normalización de Kaiser antes de hacer Promax, esto se hace aquí mediante la llamada a "promax" que hace la normalización antes de llamar a Promax en GPArotation.

18 of 38

Puntuaciones

El valor predeterminado = "regresión" encuentra las puntuaciones de los factores mediante la regresión.

Las alternativas para estimar las puntuaciones de los factores incluyen regresión simple ("Thurstone"), preservación de correlación ("tenBerge"), así como "Anderson" y "Bartlett" utilizando los algoritmos apropiados (factor.scores).

Aunque probablemente se prefiera score = "tenBerge" para la mayoría de las soluciones, esto dará lugar a problemas con algunas matrices de correlación inadecuadas.

18

19 of 38

Método de factorización

fm = "minres" hará un residuo mínimo al igual que fm = "uls". Ambos utilizan una primera derivada. fm = "ols" difiere muy levemente de "minres" en que minimiza toda la matriz residual usando un procedimiento OLS (en inglés Ordinary Least Squares o en español Mínimos cuadrados ordinarios MCO) pero usa la primera derivada empírica. Esto será más lento.

fm = "wls" hará una solución de mínimos cuadrados ponderados (WLS), fm = "gls" hace una solución de mínimos cuadrados ponderados generalizados (GLS),

fm = "pa" hará la solución del factor principal.

fm = "ml" servirá un análisis factorial de máxima verosimilitud.

fm = "minchi" minimizará el chi cuadrado ponderado por el tamaño de la muestra al tratar las correlaciones por pares con diferentes números de sujetos por par.

fm = "minrank" hará un análisis de factor de rango mínimo. "old.min" tendrá un residuo mínimo de la forma en que se hizo antes de abril de 2017 (consulte la discusión a continuación).

fm = "alpha" hará un análisis de factor alfa como se describe en Kaiser y Coffey (1965)

19

20 of 38

La interpretación es subjetiva, pero sigue ciertas pautas.

Los factores deben contener dimensiones diferentes.

Los factores no pueden contener dimensiones antagónicas, P.E.: Felicidad en un factor contra Tristeza en otro factor.

Dos factores no pueden contener variables similares. P.E.: Felicidad en un factor y Alegría en otro.

Comunalidad (h2): el porcentaje de la varianza que es explicada por los factores.

u2 = 1-h2: el porcentaje de varianza que no es explicado por las cargas de los factores por variables.

La variable que es mejor explicada por los factores se observa por la comunalidad más alta.

Si u2 es muy alta (cercana a 1) debería quitarse del modelo de análisis factorial.

com: Complejidad, debe ser cercano a un, el número de factores que contribuyen a la variable específica. Si es dos o más significa que no se puede determinar a qué factor pertenece, dadas las opciones seleccionadas.

20

21 of 38

Bayesian information criterion (BIC)

Es un criterio para la selección de modelos entre un conjunto finito de modelos; Por lo general, se prefieren los modelos con un BIC más bajo. Se basa, en parte, en la función de probabilidad y está estrechamente relacionado con el Criterio de Información de Akaike (AIC).

BIC: Asume teoría de la normalidad. Basado en chi ^ 2 con el supuesto de teoría normal y usando el chi ^ 2 encontrado usando la función objetiva. Esto es solo chi ^ 2 - 2 df (grados de libertad).

eBIC: Cuando no se cumple el criterio de normalidad. Cuando falla la teoría normal (por ejemplo, en el caso de matrices definidas no positivas), es útil examinar el eBIC derivado empíricamente basado en el chi ^ 2 - 2 df empírico.

21

22 of 38

Pasos para realizarlo

en R y RKWard

22

23 of 38

Vídeo: Análisis factorial con “psych()”, “polycor()” y “ggcorrplot()”

23

Descarga desde aquí el manual del paquete psych: Download

Descarga desde aquí el script de R: Download

24 of 38

Pasos para efectuar un análisis factorial

  1. Verificar que la matriz de datos sea factorizable
  2. Extraer los Factores
  3. Determinar el número correcto de factores
  4. Rotar los factores
  5. Interpretar los resultados

24

25 of 38

Paso 1:Calcular matriz de correlación, correlación policórica, prueba de Esfericidad de Bartlett y KMO

25

RKWard->Gráficos->Factor analysis

26 of 38

Matriz de correlación policórica

La correlación policórica ha sido usada principalmente en psicología, sociología o econometría, para constructos abstractos, como la preferencia o la satisfacción, la afinidad política, etc. Sin embargo, no necesariamente nos limitamos a estos casos, cualquier pareja de variables ordinales podría ser analizada de esta manera.

Prueba de esfericidad de Bartlett, ¿Existe la suficiente correlación entre las variables para efectuar el análisis factorial?

  • Ho: Las variables no están correlacionadas en la población.
    • ## [1] 5.931663e-60

26

27 of 38

Criterio de Kaiser-Meyer-Olkin (KMO)

  • KMO es una medida de qué tan adecuados son sus datos para el análisis factorial.
  • Mide la adecuación del muestreo para cada variable en el modelo y para el modelo completo.
  • La estadística es una medida de la proporción de varianza entre variables que podrían ser varianza común.

Como referencia, Kaiser puso los siguientes valores en los resultados:

  • 0.00 a 0.49 inaceptable.
  • 0.50 a 0.59 miserable.
  • 0,60 a 0,69 mediocre.
  • 0.70 a 0.79 medio.
  • 0,80 a 0,89 meritorio.
  • 0.90 a 1.00 maravilloso.

27

28 of 38

Paso 2: Escoger un método para extraer los factores

  • Análisis de componentes principales.
  • Mínimos cuadrados no ponderados,
  • Mínimos cuadrados generalizados,
  • Máxima verosimilitud,
  • factorización de Ejes principales,
  • factorización Alfa y
  • factorización Imagen.
  • minres: mínimo residuo
  • mle: maxima verosimilitud
  • paf: método de ejes principales
  • alpah: alfa
  • minchi: mínimos cuadrados
  • minrak : rango mínimo

28

29 of 38

Paso 3: Determinar el número de factores

  • Kaiser Criterion (Guttman, 1954): esta regla sugiere que se deben retener todos los factores que tengan un eigenvalue de 1.0 o mayor; con el razonamiento de que un factor no debe explicar menos que la varianza equivalente que hubiera explicado una sola de las variables incluidas en el análisis. La regla sin embargo no es estricta y debe analizarse en conjunto con otros criterios.
  • Análisis del Scree Plot (Cattell, 1966): este método complementa al anterior y se basa también el análisis de la magnitud de los eigenvalues pero a partir de la tendencia que se observa en el Scree Plot. Se procuran seleccionar un grupo reducido de factores que tengan eigenvalues significativamente superiores a los demás, para lo cual se identifica el punto de inflexión en la curva del scree plot (también referido como el codo por su semejanza con un brazo) a partir del cual la curva se transforma a una línea “plana” o relativamente recta. En el ejemplo que se presenta hay un claro punto de inflexión después de dos factores.

29

30 of 38

Paso 3: Determinar el número de factores

  • Análisis paralelo (Horn, 1965): Esta regla suele complementar las anteriores cuando el número de variables iniciales y factores resultantes es elevado. El procedimiento es basado en el principio de que los factores a extraer deben dar cuenta de más varianza que la que es esperada de manera aleatoria. El procedimiento reordena las observaciones de manera aleatoria entre cada variable y los eigenvalues son recalculados a partir de esta nueva base de datos aleatoriamente ordenada. Los factores con eigenvalues mayores a los valores aleatorios son retenidos para interpretación.

30

31 of 38

Paso 4: Rotar la matriz

  • La obtención de la matriz factorial, no es más que el primer paso del AF.
  • Normalmente la matriz obtenida no define unos factores interpretables, Se han propuesto diferentes versiones sobre cómo transformar la matriz factorial a fin de obtener una estructura simple de los factores.
  • Esencialmente se trata de conseguir que unas saturaciones sean altas a costa de otras, que serán bajas, para así destacar la influencia de los factores comunes sobre las variables observables.
  • Existen dos formas básicas de realizar la Rotación de Factores , oblicuas y ortogonales. Se elige uno u otro procedimiento según que los factores rotados sigan siendo ortogonales o no.
  • Señalar que en ambas rotaciones la comunalidad de cada variable no se modifica, esto es, la rotación no afecta a la bondad del ajuste de la solución factorial: aunque cambie la matriz factorial, las especificidades no cambian y, en consecuencia, las comunidades permanecen invariantes.
  • Sin embargo, cambia la varianza explicada por cada factor, por tanto, los nuevos factores no están ordenados de acuerdo con la información que contienen, cuantificada mediante su varianza.

31

32 of 38

Métodos de rotación

  • Varimax: Método de rotación ortogonal que minimiza el número de variables que tienen saturaciones altas en cada factor. Simplifica la interpretación de los factores.
  • Criterio Oblimin directo: Método para la rotación oblicua (no ortogonal). El método necesita un valor delta que servirá para ajustar los ejes en función de las saturaciones buscan una mejor aproximación, pero considerando que la varianza se distribuirá entre todos los factores.
  • Método quartimax: Método de rotación que minimiza el número de factores necesarios para explicar cada variable.
  • Método equamax: Método de rotación que es combinación del método varimax, que simplifica los factores, y el método quartimax, que simplifica las variables. Se minimiza tanto el número de variables que saturan alto en un factor como el número de factores necesarios para explicar una variable.
  • Rotación Promax: Rotación oblicua que permite que los factores estén correlacionados. Esta rotación se puede calcular más rápidamente que una rotación oblimin directa, por lo que es útil para conjuntos de datos grandes.

32

33 of 38

Standardized loadings (pattern matrix) basado en correlation matrix

  • Los factores deben contener dimensiones diferentes.
  • Los factores no pueden contener dimensiones antagónicas, P.E.: Felicidad en un factor contra Tristeza en otro factor.
  • Dos factores no pueden contener variables similares. P.E.: Felicidad en un factor y Alegría en otro.
  • Comunalidad (h2): el porcentaje de la varianza que es explicada por los factores.
  • u2 = 1-h2: el porcentaje de varianza que no es explicado por las cargas de los factores por variables.
  • La variable que es mejor explicada por los factores se observa por la comunalidad más alta.
  • Si u2 es muy alta (cercana a 1) debería quitarse del modelo de análisis factorial.
  • com: Complejidad, debe ser cercano a un, el número de factores que contribuyen a la variable específica. Si es dos o más significa que no se puede determinar a qué factor pertenece, dadas las opciones seleccionadas.

33

Call: fa(r = bfi_s, nfactors = 5, rotate = "varimax", scores = "Bartlett", fm = "pa")

ML1

ML2

ML4

ML3

ML5

h2

u2

com

A1

0.15

0.08

-0.42

-0.06

-0.09

0.22

0.78

1.5

A2

0.13

-0.01

0.62

0.16

0.12

0.44

0.56

1.3

A3

0.21

0.08

0.73

0.04

0.16

0.61

0.39

1.3

A4

0.13

-0.07

0.41

0.18

-0.17

0.25

0.75

2.1

A5

0.33

-0.15

0.71

-0.02

0.09

0.65

0.35

1.6

C1

0.01

0.09

0.1

0.64

0.27

0.5

0.5

1.4

C2

0.02

0.16

0.1

0.68

0.08

0.5

0.5

1.2

C3

0.02

0

0.08

0.67

-0.01

0.46

0.54

1

C4

-0.09

0.09

-0.1

-0.52

-0.09

0.3

0.7

1.3

C5

-0.28

0.22

-0.03

-0.42

0

0.31

0.69

2.3

E1

-0.7

-0.04

-0.07

-0.06

-0.04

0.51

0.49

1

E2

-0.75

0.3

-0.13

-0.12

-0.04

0.68

0.32

1.4

E3

0.51

0.01

0.18

-0.03

0.25

0.36

0.64

1.7

E4

0.51

0

0.42

0.15

0.06

0.47

0.53

2.2

E5

0.58

0.03

0.17

0.3

0.17

0.48

0.52

1.9

N1

0.12

0.83

-0.15

-0.08

-0.09

0.74

0.26

1.2

N2

0.09

0.83

-0.13

-0.05

0

0.71

0.29

1.1

N3

-0.19

0.7

0.02

0.03

-0.07

0.53

0.47

1.2

N4

-0.54

0.44

0

0.01

0.03

0.48

0.52

1.9

N5

-0.3

0.54

0.04

0.11

-0.07

0.41

0.59

1.7

O1

0.19

-0.07

0.16

0.06

0.55

0.38

0.62

1.5

O2

-0.11

0.11

0.11

-0.17

-0.3

0.16

0.84

2.7

O3

0.3

-0.12

0.02

0.05

0.72

0.62

0.38

1.4

O4

-0.26

0.14

0.15

0.13

0.55

0.43

0.57

1.9

O5

-0.02

0.04

-0.09

-0.06

-0.61

0.38

0.62

1.1

34 of 38

Salida del Análisis Factorial

34

Degrees of freedom

Fit

Fit (off diag)

185

0.838

0.965

Parameters

  • Number of factors: 5
  • Factoring method: ml
  • Rotation: varimax

Sun Nov 14 07:50:37 2021

Loadings

Factor.1

Factor.2

Factor.3

Factor.4

Factor.5

communality

uniqueness

A1

0.147

0.084

-0.419

-0.062

-0.095

0.217

0.783

A2

0.135

-0.011

0.618

0.160

0.122

0.440

0.560

A3

0.215

0.082

0.730

0.041

0.163

0.614

0.386

A4

0.132

-0.070

0.405

0.175

-0.174

0.247

0.753

A5

0.334

-0.149

0.712

-0.019

0.092

0.649

0.351

C1

0.009

0.094

0.095

0.644

0.267

0.504

0.496

C2

0.020

0.162

0.101

0.680

0.075

0.505

0.495

C3

0.015

-0.002

0.081

0.671

-0.009

0.458

0.542

C4

-0.087

0.090

-0.100

-0.519

-0.087

0.302

0.698

C5

-0.283

0.218

-0.030

-0.423

-0.001

0.307

0.693

E1

-0.703

-0.039

-0.071

-0.056

-0.040

0.505

0.495

E2

-0.750

0.297

-0.129

-0.125

-0.041

0.684

0.316

E3

0.515

0.007

0.181

-0.033

0.247

0.360

0.640

E4

0.510

-0.001

0.422

0.155

0.061

0.466

0.534

E5

0.578

0.029

0.167

0.296

0.175

0.481

0.519

N1

0.120

0.830

-0.153

-0.082

-0.085

0.740

0.260

N2

0.088

0.829

-0.132

-0.047

-0.004

0.714

0.286

N3

-0.195

0.700

0.021

0.034

-0.066

0.534

0.466

N4

-0.539

0.437

-0.004

0.013

0.029

0.482

0.518

N5

-0.301

0.544

0.039

0.112

-0.066

0.405

0.595

O1

0.192

-0.071

0.158

0.061

0.552

0.375

0.625

O2

-0.112

0.113

0.113

-0.172

-0.296

0.155

0.845

O3

0.301

-0.121

0.020

0.045

0.716

0.620

0.380

O4

-0.263

0.140

0.154

0.133

0.549

0.432

0.568

O5

-0.019

0.036

-0.095

-0.058

-0.605

0.381

0.619

Sum of squared loadings

2.869

2.628

2.171

2.048

1.862

11.578

Variance explained (%)

11.476

10.513

8.685

8.191

7.446

Variance explained (cum %)

11.476

21.989

30.674

38.865

46.311

Measures of factor score adequacy

Factor 1

Factor 2

Factor 3

Factor 4

Factor 5

Correlation of scores with factors

0.915

0.937

0.889

0.877

0.870

Multiple R square of scores with factors

0.836

0.879

0.790

0.769

0.757

Minimum correlation of possible factor scores

0.673

0.757

0.580

0.539

0.513

35 of 38

Gráficos con matrices rotadas: sin rotar y varimax

35

36 of 38

Gráficos con matrices rotadas: quartimax y Promax

36

37 of 38

Paso 5: La interpretación

37

Esta es la parte más difícil del análisis factorial para ayudar a la interpretación se puede hacer un gráfico de árbol.

Los factores pueden ser interpretados como:

  • MR4: Agradable (A1, A2, A3, A4, A5)
  • MR3: Conciencia (C1, C2, C3, C4, C5)
  • MR1: Extraversión (E1, E2, E3, E4, E5)
  • MR2: Neuroticismo (N1, N2, N3, N4,N5)
  • MR5: Apertura ( O1, O2, O3, O4, O5)

38 of 38

Referencias bibliográficas

Bolaños, L. (2020, marzo 10). RPubs—Análisis Factorial. https://rpubs.com/luis_bolanos/FA

Spencer Pao. (2021, febrero 28). Understanding and Applying Factor Analysis in R. https://www.youtube.com/watch?v=kbJMz0KzMnI

38