# install.packages("pacman")
library(pacman)
::p_load(tidyverse, #Conjunto de paquetes, sobre todo dplyr y ggplot2
pacman#Para recodificar
car,
haven,#Para descriptivos
summarytools
)
options(scipen = 999) # para desactivar notacion cientifica
rm(list = ls()) # para limpiar el entorno de trabajo
Práctico 8. Índices y Escalas
Metodología I - Magíster en Ciencias Sociales
Objetivos de la práctica
Los objetivos de este ejercicio práctico son:
Comprender y estimar el proceso de construcción de índices ponderados y no ponderados en R.
Comprender y estimar el proceso de construcción y validación de escalas en R.
Índices
Presentación
El Programa de las Naciones Unidas para el Desarrollo (PNUD) es la agencia de la Organización de las Naciones Unidas encargada de promover el desarrollo sostenible a nivel mundial, y uno de sus enfoques es la erradicación de la pobreza. En este contexto, el PNUD reconoce la importancia de abordar la pobreza multidimensional para lograr un desarrollo sostenible y mejorar el bienestar de las personas en todas las dimensiones de sus vidas.
Desde el año 2016 Chile cuenta con la medida actual de pobreza multidimensional. El propósito de esta medida es complementar la medición de la pobreza basada en ingresos con un indicador que refleje las condiciones de vida de la población en aspectos relevantes para el bienestar social y una vida digna. Desde su creación, se ha buscado obtener un diagnóstico más completo de la pobreza y contar con una herramienta útil para el diseño, implementación, monitoreo y evaluación de políticas públicas.
Inicialmente, la medida de pobreza multidimensional incluyó 4 dimensiones (Educación, Salud, Trabajo y Seguridad Social, y Vivienda) con tres indicadores por dimensión (12 indicadores en total), cada uno con igual ponderación (8,3%), por lo tanto, con dimensiones cuyo peso representan el 25% de la medida.Posteriormente, con los resultados de la encuesta Casen 2015 se incorpora una quinta dimensión de Redes y Cohesión Social y se amplía la dimensión de Vivienda para incluir el concepto de Entorno. Desde entonces, la medida ha estado compuesta por 5 dimensiones (Educación, Salud, Trabajo y Seguridad Social, Vivienda y Entorno, y Redes y Cohesión Social), manteniendo la definición de 3 indicadores por dimensión, de modo que la medida queda compuesta por 15 indicadores. Respecto del peso de las dimensiones, con el fin de favorecer cierta estabilidad de la medida, la dimensión de Redes y Cohesión Social se incorpora con un peso de 10% y se mantiene la igualdad de ponderación entre las demás dimensiones, ahora con una ponderación de 22,5%.
Librerías
Cargamos las librerías necesarias:
Datos y variables
La base de datos a utilizar es la CASEN 2022 (Encuesta de Caracterización Socioeconómica Nacional). La base de datos está disponible en este link y el cuestionario en este link.
Sin embargo, para realizar este ejercicio práctico utilizaremos una muestra aleatoria de esta base de datos para simplificar el proceso de construcción de índices. El código que crea este subset está disponible acá
Cargar base de datos
load(url("https://github.com/cursos-metodos-facso/investigacion-cuantitativa/raw/main/files/data/casen2022.RData")) #Cargar base de datos
Descripción de variables
view(dfSummary(casen2022, headings=FALSE, graph.col = FALSE))
No | Variable | Label | Stats / Values | Freqs (% of Valid) | Valid | Missing | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1 | asistencia [haven_labelled, vctrs_vctr, double] | Hogar carente en asistencia |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
2 | rezago [haven_labelled, vctrs_vctr, double] | Hogar carente en rezago escolar |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
3 | escolaridad [haven_labelled, vctrs_vctr, double] | Hogar carente en escolaridad |
|
|
9990 (99.9%) | 10 (0.1%) | |||||||||||||||
4 | malnutricion [haven_labelled, vctrs_vctr, double] | Hogar carente en malnutrición en niños/as |
|
|
9995 (100.0%) | 5 (0.0%) | |||||||||||||||
5 | sist_salud [haven_labelled, vctrs_vctr, double] | Hogar carente en adscripción a sistema de salud |
|
|
9982 (99.8%) | 18 (0.2%) | |||||||||||||||
6 | atencion [haven_labelled, vctrs_vctr, double] | Hogar carente en atención |
|
|
9997 (100.0%) | 3 (0.0%) | |||||||||||||||
7 | ocupacion [haven_labelled, vctrs_vctr, double] | Hogar carente en ocupación |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
8 | seg_social [haven_labelled, vctrs_vctr, double] | Hogar carente en seguridad social |
|
|
9945 (99.4%) | 55 (0.5%) | |||||||||||||||
9 | jubilacion [haven_labelled, vctrs_vctr, double] | Hogar carente en jubilaciones |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
10 | habitabilidad [haven_labelled, vctrs_vctr, double] | Hogar carente en habitabilidad |
|
|
9992 (99.9%) | 8 (0.1%) | |||||||||||||||
11 | hacinamiento [haven_labelled, vctrs_vctr, double] | Hogar carente en hacinamiento |
|
|
9991 (99.9%) | 9 (0.1%) | |||||||||||||||
12 | vivienda [haven_labelled, vctrs_vctr, double] | Hogar carente en estado de la vivienda |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
13 | serv_basicos [haven_labelled, vctrs_vctr, double] | Hogar carente en servicios básicos |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
14 | entorno [haven_labelled, vctrs_vctr, double] | Hogar carente en entorno |
|
|
9963 (99.6%) | 37 (0.4%) | |||||||||||||||
15 | ap_part_social [haven_labelled, vctrs_vctr, double] | Hogar carente en apoyo y participación social |
|
|
9967 (99.7%) | 33 (0.3%) | |||||||||||||||
16 | trato [haven_labelled, vctrs_vctr, double] | Hogar carente en trato igualitario |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
17 | seguridad [haven_labelled, vctrs_vctr, double] | Hogar carente en seguridad |
|
|
10000 (100.0%) | 0 (0.0%) | |||||||||||||||
18 | region [haven_labelled, vctrs_vctr, double] | Región |
|
16 distinct values | 10000 (100.0%) | 0 (0.0%) | |||||||||||||||
19 | area [haven_labelled, vctrs_vctr, double] | Área |
|
|
10000 (100.0%) | 0 (0.0%) |
Generated by summarytools 1.0.1 (R version 4.3.2)
2024-06-28
En esta base de datos, las variables de interés que están presentes (ej. asistencia, rezago, escolaridad) son variables dummy, es decir, variables que tienen como valores posibles 0 y 1. Donde 0 implica la ausencia de un atributo y 1 la presencia del mismo atributo.
Para medir pobreza multidimensional, 1 indica la carencia de un servicio o cualidad, por ejemplo, se considera que un hogar es carente en escolaridad si al menos uno de sus integrantes mayores de 18 años ha alcanzado menos años de escolaridad que los establecidos por ley, de acuerdo a su edad. Por lo tanto, en la variable escolaridad 1) indica un hogar carente en escolaridad, que según nuestra base de datos corresponde a 3065 hogares (30.7% de nuestra sub-muestra).
Medición de pobreza multidimensional en cuatro dimensiones (hasta 2014)
Seleccionamos solo los indicadores que eran utilizados hasta 2014
<- casen2022 %>% select(asistencia,
indicadores2014
rezago,
escolaridad,
malnutricion,
sist_salud,
atencion,
ocupacion,
seg_social,
jubilacion,
hacinamiento, estado_vivienda=vivienda,
%>%
serv_basicos) na.omit() %>% # Eliminar Na's
mutate_all(~(as.numeric(.))) # Convertimos todas las variables a numéricas
Con la función mutate creamos una nueva variable para cada dimensión, que contenga el promedio simple de los tres indicadores correspondientes.
= indicadores2014 %>%
indicadores2014 rowwise() %>%
mutate(educ = mean(c(asistencia, rezago, escolaridad)),
salud = mean(c(malnutricion, sist_salud, atencion)),
trabajo= mean(c(ocupacion, seg_social, jubilacion)),
vivienda= mean(c(hacinamiento, estado_vivienda, serv_basicos))) %>%
ungroup()
Luego, como la pobreza multidimensional consideraba cuatro dimensiones equivalentes (sin ponderar), es posible obtener el índice de pobreza multidimensional a partir del promedio de las cuatro dimensiones.
= indicadores2014 %>%
indicadores2014 rowwise() %>%
mutate(pobreza = mean(c(educ, salud, trabajo, vivienda))) %>%
ungroup()
Lo que nos da este resultado:
%>% select(pobreza) %>% head(10) # Primeros 10 casos indicadores2014
# A tibble: 10 × 1
pobreza
<dbl>
1 0.167
2 0.25
3 0
4 0.167
5 0.167
6 0.167
7 0
8 0.167
9 0
10 0.0833
summary(indicadores2014$pobreza) # Resumen
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.00000 0.00000 0.08333 0.10142 0.16667 0.66667
¿Cómo podemos conocer el porcentaje total de pobreza multidimensional del país?
El PNUD considera como límite para el índice de cuatro dimensiones un 25% de pobreza multidimensional (lo que equivale a tener carencia en los tres indicadores de una dimensión). Por lo tanto, podemos utilizar un condicional que indique “si” existe pobreza muldimensional cuando nuestra variable “pobreza” sea mayor o igual a 0.25 y que indique que “no” existe pobreza multidimensional cuando la variable “pobreza” sea menor a 0.25. case_when viene en dplyr.
<- indicadores2014 %>% mutate(pobreza = case_when(pobreza>=0.25~"si",
indicadores2014 <0.25~"no")
pobreza
)prop.table(table(indicadores2014$pobreza))*100
no si
87.03161 12.96839
Según el análisis realizado con la submuestra aleatoria de la CASEN, considerando las cuatro dimensiones que se utilizaban hasta el 2014, existe un 12.97% de pobreza multidimensional en Chile
Medición de pobreza multidimensional en cinco dimensiones (desde 2016)
Veamos ahora el mismo proceso, pero considerando la quinta dimensión que fue agregada en 2016 sobre Redes y Cohesión Social.
En esta operacionalización del índice de pobreza multidimensional las cuatro dimensiones originales equivalen a un 22.5% cada una, mientras que la nueva dimensión de redes y cohesión social equivale a un 10%.
Seleccionemos solo los indicadores que son utilizados desde 2016.
<- casen2022 %>% select(asistencia,
indicadores2016
rezago,
escolaridad,
malnutricion,
sist_salud,
atencion,
ocupacion,
seg_social,
jubilacion,
habitabilidad,
serv_basicos,
entorno,
ap_part_social,
trato,
seguridad,
area,%>%
region) na.omit() %>% # Eliminar Na's
mutate_all(~(as.numeric(.))) # Convertimos todas las variables a numéricas
Seguimos los mismos pasos que con el índice anterior, estimando un promedio simple para cada una de las dimensiones.
= indicadores2016 %>%
indicadores2016 rowwise() %>%
mutate(educ = mean(c(asistencia, rezago, escolaridad)),
salud = mean(c(malnutricion, sist_salud, atencion)),
trabajo= mean(c(ocupacion, seg_social, jubilacion)),
vivienda= mean(c(habitabilidad, serv_basicos, entorno)),
redes_cohesion= mean(c(ap_part_social, trato, seguridad))) %>%
ungroup()
Sin embargo, como en esta ocasión se trata de un índice ponderado (con dimensiones con distinto peso cada una), multiplicamos cada dimensión por su peso correspondiente y las sumamos.
= indicadores2016 %>%
indicadores2016 rowwise() %>%
mutate(pobreza_pond = (educ*22.5) + (salud*22.5) + (trabajo*22.5) + (vivienda*22.5) + (redes_cohesion*10)) %>%
ungroup()
Lo que nos da este resultado:
%>% select(pobreza_pond) %>% head(10) # Primeros 10 casos indicadores2016
# A tibble: 10 × 1
pobreza_pond
<dbl>
1 18.3
2 22.5
3 3.33
4 22.5
5 15
6 15
7 0
8 15
9 0
10 18.3
summary(indicadores2016$pobreza_pond) # Resumen
Min. 1st Qu. Median Mean 3rd Qu. Max.
0.000 3.333 7.500 10.988 15.000 62.500
¿Cómo podemos conocer el porcentaje total de pobreza multidimensional del país?
El PNUD considera como límite para el índice de cinco dimensiones un 22.5% de pobreza multidimensional (lo que equivale a tener carencia en los tres indicadores de una dimensión). Por lo tanto, podemos utilizar un condicional que indique “si” existe pobreza muldimensional cuando nuestra variable “pobreza” sea mayor o igual a 22.5 y que indique que “no” existe pobreza multidimensional cuando la variable “pobreza” sea menor a 22.5.
<- indicadores2016 %>% mutate(pobreza = case_when(pobreza_pond>=22.5~"si",
indicadores2016 <22.5~"no")
pobreza_pond
)
prop.table(table(indicadores2016$pobreza))*100
no si
84.18912 15.81088
Según el análisis realizado con la submuestra aleatoria de la CASEN, considerando las cinco dimensiones que se comenzaron a utilizar en 2016, existe un 15.73% de pobreza multidimensional en Chile.
Otros
Podemos utilizar otras variables de la CASEN para poder conocer cómo se distribuye la pobreza multidimensional en Chile. Por ejemplo, porcentaje de pobreza multidimensional por región:
prop.table(table(indicadores2016$region, indicadores2016$pobreza), margin = 1)
no si
1 0.7965261 0.2034739
2 0.7975000 0.2025000
3 0.8097345 0.1902655
4 0.8484108 0.1515892
5 0.8487230 0.1512770
6 0.8826025 0.1173975
7 0.8703170 0.1296830
8 0.8543689 0.1456311
9 0.8083736 0.1916264
10 0.7571702 0.2428298
11 0.8910891 0.1089109
12 0.9531250 0.0468750
13 0.8496241 0.1503759
14 0.8079096 0.1920904
15 0.8575198 0.1424802
16 0.8536585 0.1463415
o pobreza multidimensional por zona geográfica 1) urbano 2) rural
prop.table(table(indicadores2016$area, indicadores2016$pobreza), margin = 1)
no si
1 0.8735691 0.1264309
2 0.7223301 0.2776699
Escalas
Presentación
Para el taller práctico de hoy utilizaremos la base de datos del estudio de Martin et al. (2003). Individual differences in uses of humor and and their relation to psychological well-being. Development of the Humor Styles Questionnaire.
En este artículo se describe el desarrollo y la validación inicial del Cuestionario de Estilos de Humor, que evalúa cuatro dimensiones relacionadas con las diferencias individuales en el uso del humor. Estas son: usos relativamente benignos del humor para mejorar uno mismo (Autofortalecedor) y para mejorar las relaciones con otros (Afiliativo), uso del humor para mejorar uno mismo a expensas de los demás (Agresivo) y uso del humor para mejorar las relaciones a expensas de uno mismo (Autodestructivo).
Librerías
Las librerías que utilizaremos esta sesión son las siguientes:
# install.packages("pacman") # Cargar sólo si no la tenemos instalada
# library(pacman)
::p_load(tidyverse, # conjunto de paquetes, sobre todo dplyr y ggplot2
pacman# para recodificar
car, # para Alfa de Chronbach
psych, # para descriptivos
sjmisc, # para instalar paquete jogRu
remotes, # para cargararchivo csv
readr)
options(scipen = 999) # para desactivar notacion cientifica
rm(list = ls()) # para limpiar el entorno de trabajo
Además, instalaremos la librería jogRu
desde github, que nos permitirá calcular el alfa de Chronbach para variables ordinales.
::install_github("jogrue/jogRu", force = T) remotes
yaml (2.3.7 -> 2.3.8 ) [CRAN]
xfun (0.43 -> 0.45 ) [CRAN]
highr (0.10 -> 0.11 ) [CRAN]
evaluate (0.23 -> 0.24.0 ) [CRAN]
fs (1.6.3 -> 1.6.4 ) [CRAN]
glue (1.6.2 -> 1.7.0 ) [CRAN]
cli (3.6.1 -> 3.6.3 ) [CRAN]
digest (0.6.33 -> 0.6.36 ) [CRAN]
sass (0.4.8 -> 0.4.9 ) [CRAN]
rlang (1.1.2 -> 1.1.4 ) [CRAN]
fastmap (1.1.1 -> 1.2.0 ) [CRAN]
cachem (1.0.8 -> 1.1.0 ) [CRAN]
tinytex (0.49 -> 0.51 ) [CRAN]
knitr (1.45 -> 1.47 ) [CRAN]
jsonlite (1.8.7 -> 1.8.8 ) [CRAN]
htmltools (0.5.7 -> 0.5.8.1 ) [CRAN]
bslib (0.6.1 -> 0.7.0 ) [CRAN]
fansi (1.0.5 -> 1.0.6 ) [CRAN]
munsell (0.5.0 -> 0.5.1 ) [CRAN]
farver (2.1.1 -> 2.1.2 ) [CRAN]
vctrs (0.6.4 -> 0.6.5 ) [CRAN]
gtable (0.3.4 -> 0.3.5 ) [CRAN]
ggplot2 (3.4.4 -> 3.5.1 ) [CRAN]
stringi (1.8.2 -> 1.8.4 ) [CRAN]
rmarkdown (2.26 -> 2.27 ) [CRAN]
backports (1.4.1 -> 1.5.0 ) [CRAN]
rstudioapi (0.15.0 -> 0.16.0 ) [CRAN]
data.table (1.15.2 -> 1.15.4 ) [CRAN]
Hmisc (5.1-1 -> 5.1-3 ) [CRAN]
psych (2.3.9 -> 2.4.6.26) [CRAN]
package 'yaml' successfully unpacked and MD5 sums checked
package 'xfun' successfully unpacked and MD5 sums checked
package 'highr' successfully unpacked and MD5 sums checked
package 'evaluate' successfully unpacked and MD5 sums checked
package 'fs' successfully unpacked and MD5 sums checked
package 'glue' successfully unpacked and MD5 sums checked
package 'cli' successfully unpacked and MD5 sums checked
package 'digest' successfully unpacked and MD5 sums checked
package 'sass' successfully unpacked and MD5 sums checked
package 'rlang' successfully unpacked and MD5 sums checked
package 'fastmap' successfully unpacked and MD5 sums checked
package 'cachem' successfully unpacked and MD5 sums checked
package 'tinytex' successfully unpacked and MD5 sums checked
package 'jsonlite' successfully unpacked and MD5 sums checked
package 'htmltools' successfully unpacked and MD5 sums checked
package 'bslib' successfully unpacked and MD5 sums checked
package 'fansi' successfully unpacked and MD5 sums checked
package 'munsell' successfully unpacked and MD5 sums checked
package 'farver' successfully unpacked and MD5 sums checked
package 'vctrs' successfully unpacked and MD5 sums checked
package 'gtable' successfully unpacked and MD5 sums checked
package 'stringi' successfully unpacked and MD5 sums checked
package 'backports' successfully unpacked and MD5 sums checked
package 'rstudioapi' successfully unpacked and MD5 sums checked
package 'data.table' successfully unpacked and MD5 sums checked
package 'Hmisc' successfully unpacked and MD5 sums checked
The downloaded binary packages are in
C:\Users\kevin\AppData\Local\Temp\Rtmp4Wel75\downloaded_packages
── R CMD build ─────────────────────────────────────────────────────────────────
* checking for file 'C:\Users\kevin\AppData\Local\Temp\Rtmp4Wel75\remotes24a0584a41c7\jogrue-jogRu-c659fcd/DESCRIPTION' ... OK
* preparing 'jogRu':
* checking DESCRIPTION meta-information ... OK
* checking for LF line-endings in source and make files and shell scripts
* checking for empty or unneeded directories
Omitted 'LazyData' from DESCRIPTION
* building 'jogRu_2.0.tar.gz'
Si pregunta These packages have more recent versions available. It is recommended to update all of them.Which would you like to update? SIEMPRE PONER 3: None.
Datos y variables
Como mencionamos, utilizaremos la base de datos del estudio Martin et al. (2003). Individual differences in uses of humor and and their relation to psychological well-being. Development of the Humor Styles Questionnaire.
En estos datos podemos ver una serie de ítems que corresponden a diferentes dimensiones de la escala, donde cada ítem tiene valores entre 1 y 5. De acuerdo con el paper, los ítems se ordenan de esta forma de acuerdo con los tipos de humor:
- afiliativo : Q1, Q5, Q9 , Q13, Q17, Q21, Q25, Q29
- autofortalecedor : Q2, Q6, Q10, Q14, Q18, Q22, Q26, Q30
- agresivo : Q3, Q7, Q11, Q15, Q19, Q23, Q27, Q31
- autodestructivo : Q4, Q8, Q12, Q16, Q20, Q24, Q28, Q32
Cargar base de datos
<- read.csv(url("https://github.com/cursos-metodos-facso/investigacion-cuantitativa/raw/main/files/data/data.csv")) data
Visualización de datos
head(data)
Q1 Q2 Q3 Q4 Q5 Q6 Q7 Q8 Q9 Q10 Q11 Q12 Q13 Q14 Q15 Q16 Q17 Q18 Q19 Q20 Q21
1 2 2 3 1 4 5 4 3 4 3 3 1 5 4 4 4 2 3 3 1 4
2 2 3 2 2 4 4 4 3 4 3 4 3 3 4 5 4 2 2 3 2 3
3 3 4 3 3 4 4 3 1 2 4 3 2 4 4 3 3 2 4 2 1 4
4 3 3 3 4 3 5 4 3 -1 4 2 4 4 5 4 3 3 3 3 3 4
5 1 4 2 2 3 5 4 1 4 4 2 2 5 4 4 4 2 3 2 1 5
6 3 3 3 2 3 3 4 2 2 1 3 3 4 4 4 3 2 1 4 2 4
Q22 Q23 Q24 Q25 Q26 Q27 Q28 Q29 Q30 Q31 Q32 affiliative selfenhancing
1 4 3 2 1 3 2 4 2 4 2 2 4.0 3.5
2 3 4 2 2 5 1 2 4 4 3 1 3.3 3.5
3 2 4 3 2 4 3 3 2 5 4 2 3.9 3.9
4 3 2 4 2 4 2 2 4 5 3 3 3.6 4.0
5 3 3 1 1 5 2 3 2 5 4 2 4.1 4.1
6 4 4 2 2 3 2 4 3 4 3 3 3.6 2.9
agressive selfdefeating age gender accuracy
1 3.0 2.3 25 2 100
2 3.3 2.4 44 2 90
3 3.1 2.3 50 1 75
4 2.9 3.3 30 2 85
5 2.9 2.0 52 1 80
6 3.4 2.6 30 2 60
str(data)
'data.frame': 1071 obs. of 39 variables:
$ Q1 : int 2 2 3 3 1 3 4 2 2 4 ...
$ Q2 : int 2 3 4 3 4 3 1 4 2 2 ...
$ Q3 : int 3 2 3 3 2 3 2 4 1 4 ...
$ Q4 : int 1 2 3 4 2 2 4 1 1 1 ...
$ Q5 : int 4 4 4 3 3 3 2 5 3 3 ...
$ Q6 : int 5 4 4 5 5 3 3 5 4 5 ...
$ Q7 : int 4 4 3 4 4 4 3 4 3 4 ...
$ Q8 : int 3 3 1 3 1 2 3 3 1 2 ...
$ Q9 : int 4 4 2 -1 4 2 4 2 3 3 ...
$ Q10 : int 3 3 4 4 4 1 4 4 3 1 ...
$ Q11 : int 3 4 3 2 2 3 4 3 2 5 ...
$ Q12 : int 1 3 2 4 2 3 1 3 2 3 ...
$ Q13 : int 5 3 4 4 5 4 2 5 5 1 ...
$ Q14 : int 4 4 4 5 4 4 1 4 3 3 ...
$ Q15 : int 4 5 3 4 4 4 2 3 3 1 ...
$ Q16 : int 4 4 3 3 4 3 4 3 4 5 ...
$ Q17 : int 2 2 2 3 2 2 4 3 2 5 ...
$ Q18 : int 3 2 4 3 3 1 1 4 2 1 ...
$ Q19 : int 3 3 2 3 2 4 3 5 4 3 ...
$ Q20 : int 1 2 1 3 1 2 1 3 1 1 ...
$ Q21 : int 4 3 4 4 5 4 3 4 4 2 ...
$ Q22 : int 4 3 2 3 3 4 2 3 4 1 ...
$ Q23 : int 3 4 4 2 3 4 2 3 4 5 ...
$ Q24 : int 2 2 3 4 1 2 3 1 2 2 ...
$ Q25 : int 1 2 2 2 1 2 4 1 1 4 ...
$ Q26 : int 3 5 4 4 5 3 3 4 3 5 ...
$ Q27 : int 2 1 3 2 2 2 2 2 4 5 ...
$ Q28 : int 4 2 3 2 3 4 2 4 4 2 ...
$ Q29 : int 2 4 2 4 2 3 3 1 1 1 ...
$ Q30 : int 4 4 5 5 5 4 3 5 5 5 ...
$ Q31 : int 2 3 4 3 4 3 4 2 2 3 ...
$ Q32 : int 2 1 2 3 2 3 4 2 1 2 ...
$ affiliative : num 4 3.3 3.9 3.6 4.1 3.6 2.3 4.4 4.1 2.4 ...
$ selfenhancing: num 3.5 3.5 3.9 4 4.1 2.9 2.3 4.1 3.3 2.9 ...
$ agressive : num 3 3.3 3.1 2.9 2.9 3.4 2.8 3.3 2.9 3.8 ...
$ selfdefeating: num 2.3 2.4 2.3 3.3 2 2.6 2.8 2.5 2 2.3 ...
$ age : int 25 44 50 30 52 30 27 34 30 18 ...
$ gender : int 2 2 1 2 1 2 1 1 2 1 ...
$ accuracy : int 100 90 75 85 80 60 60 88 95 85 ...
Procesamiento
Recodificar
Para que todas las escalas queden en el mismo orden jerárquico, es necesario invertir algunos ítems.
= data %>%
data mutate_at(vars(Q1, Q9, Q17, Q25, Q29, # afiliativo
# autofortalecedor
Q22, # agresivo
Q7, Q15, Q23, Q31, ~(6-.)) %>% # autodestructivo
Q16), mutate(gender = car::recode(.$gender, "0 = NA;
1 = 'Hombre'; 2 = 'Mujer'; 3 = 'Otro'")) %>%
mutate_at(vars(1:32), ~(ifelse(. < 1 | . > 5, NA, .))) %>%
na.omit()
Crear objetos para dimensiones de la escala
Creamos cuatro objetos que contienen los ítems de cada dimensión de la escala.
<- data %>% select(Q1, Q5, Q9 , Q13, Q17, Q21, Q25, Q29)
afiliativo <- data %>% select(Q2, Q6, Q10, Q14, Q18, Q22, Q26, Q30)
autofortalecedor <- data %>% select(Q3, Q7, Q11, Q15, Q19, Q23, Q27, Q31)
agresivo <- data %>% select(Q4, Q8, Q12, Q16, Q20, Q24, Q28, Q32) autodestructivo
Explorar datos
Descriptivos
# Medias para cada dimensión
%>%
data summarise(Afiliativo = mean(affiliative),
Autofortalecedor = mean(selfenhancing),
Agresivo = mean(agressive),
Autodestructivo = mean(selfdefeating))
Afiliativo Autofortalecedor Agresivo Autodestructivo
1 4.010628 3.392308 2.968219 2.767308
# Frecuencias por género
table(data$gender)
Hombre Mujer Otro
537 443 8
# Medias para cada dimensión por género
%>% group_by(gender) %>%
data summarise(Afiliativo = mean(affiliative),
Autofortalecedor = mean(selfenhancing),
Agresivo = mean(agressive),
Autodestructivo = mean(selfdefeating))
# A tibble: 3 × 5
gender Afiliativo Autofortalecedor Agresivo Autodestructivo
<chr> <dbl> <dbl> <dbl> <dbl>
1 Hombre 4.05 3.38 2.95 2.82
2 Mujer 3.97 3.40 2.99 2.70
3 Otro 3.52 3.45 2.89 2.6
Análisis
Estimar correlación
Se debe estimar la correlación de cada dimensión de la escala por separado.
# Afiliativo
cor(afiliativo)
Q1 Q5 Q9 Q13 Q17 Q21 Q25
Q1 1.0000000 0.4219343 0.3171529 0.4266762 0.5290245 0.4568504 0.4618863
Q5 0.4219343 1.0000000 0.3719656 0.3715378 0.4780982 0.4521887 0.3411674
Q9 0.3171529 0.3719656 1.0000000 0.2707130 0.4179284 0.3144385 0.3202277
Q13 0.4266762 0.3715378 0.2707130 1.0000000 0.4546202 0.4517790 0.6102194
Q17 0.5290245 0.4780982 0.4179284 0.4546202 1.0000000 0.5817920 0.5061191
Q21 0.4568504 0.4521887 0.3144385 0.4517790 0.5817920 1.0000000 0.4455769
Q25 0.4618863 0.3411674 0.3202277 0.6102194 0.5061191 0.4455769 1.0000000
Q29 0.3706320 0.4804055 0.3019961 0.2697704 0.3851621 0.3156306 0.3451300
Q29
Q1 0.3706320
Q5 0.4804055
Q9 0.3019961
Q13 0.2697704
Q17 0.3851621
Q21 0.3156306
Q25 0.3451300
Q29 1.0000000
# Autofortalecedor
cor(autofortalecedor)
Q2 Q6 Q10 Q14 Q18 Q22 Q26
Q2 1.0000000 0.2741238 0.4379514 0.4405901 0.4886435 0.3370991 0.4080850
Q6 0.2741238 1.0000000 0.2979399 0.3707698 0.2519714 0.1492299 0.3772628
Q10 0.4379514 0.2979399 1.0000000 0.4806244 0.6198183 0.2680397 0.5483005
Q14 0.4405901 0.3707698 0.4806244 1.0000000 0.4837968 0.3347620 0.5288270
Q18 0.4886435 0.2519714 0.6198183 0.4837968 1.0000000 0.2669016 0.4605230
Q22 0.3370991 0.1492299 0.2680397 0.3347620 0.2669016 1.0000000 0.2640024
Q26 0.4080850 0.3772628 0.5483005 0.5288270 0.4605230 0.2640024 1.0000000
Q30 0.2449183 0.4615775 0.2744784 0.3193377 0.2713470 0.1709110 0.2913439
Q30
Q2 0.2449183
Q6 0.4615775
Q10 0.2744784
Q14 0.3193377
Q18 0.2713470
Q22 0.1709110
Q26 0.2913439
Q30 1.0000000
# Agresivo
cor(agresivo)
Q3 Q7 Q11 Q15 Q19 Q23 Q27
Q3 1.0000000 0.2839415 0.2631534 0.3945511 0.2853576 0.3608919 0.3484064
Q7 0.2839415 1.0000000 0.3208911 0.3963730 0.2809997 0.2102096 0.2953999
Q11 0.2631534 0.3208911 1.0000000 0.3051340 0.3479591 0.1701522 0.2974286
Q15 0.3945511 0.3963730 0.3051340 1.0000000 0.2506681 0.4130468 0.3897974
Q19 0.2853576 0.2809997 0.3479591 0.2506681 1.0000000 0.1999011 0.2452251
Q23 0.3608919 0.2102096 0.1701522 0.4130468 0.1999011 1.0000000 0.2566352
Q27 0.3484064 0.2953999 0.2974286 0.3897974 0.2452251 0.2566352 1.0000000
Q31 0.3299510 0.4019467 0.3671049 0.4480359 0.3804564 0.3925590 0.2855325
Q31
Q3 0.3299510
Q7 0.4019467
Q11 0.3671049
Q15 0.4480359
Q19 0.3804564
Q23 0.3925590
Q27 0.2855325
Q31 1.0000000
# Autodestructivo
cor(autodestructivo)
Q4 Q8 Q12 Q16 Q20 Q24 Q28
Q4 1.0000000 0.4659424 0.4125085 0.3313143 0.4417460 0.3942768 0.2305862
Q8 0.4659424 1.0000000 0.4461332 0.4485728 0.6668889 0.3049158 0.2667078
Q12 0.4125085 0.4461332 1.0000000 0.4302414 0.4807727 0.2612307 0.2578115
Q16 0.3313143 0.4485728 0.4302414 1.0000000 0.4550186 0.2174461 0.1671081
Q20 0.4417460 0.6668889 0.4807727 0.4550186 1.0000000 0.2981969 0.2213669
Q24 0.3942768 0.3049158 0.2612307 0.2174461 0.2981969 1.0000000 0.1520322
Q28 0.2305862 0.2667078 0.2578115 0.1671081 0.2213669 0.1520322 1.0000000
Q32 0.4663633 0.5203096 0.4561579 0.4193331 0.4643564 0.3624751 0.2355325
Q32
Q4 0.4663633
Q8 0.5203096
Q12 0.4561579
Q16 0.4193331
Q20 0.4643564
Q24 0.3624751
Q28 0.2355325
Q32 1.0000000
Podemos observar que todas las correlaciones son positivas, por lo que no quedaron ítems invertidos.
Estimar consistencia interna
Alfa de Chronbach
Primero, estimaremos la consistencia interna de cada dimensión con un alfa de Chronbach. El alfa de Chronbach, es un estadístico que permite estimar la fiabilidad de un test por consistencia interna. Su ventaja es que es fácil de estimar. Sus desventajas, sin embargo, son que:
- Puede aumentarse artificialmente incorporando ítems parecidos;
- Asume que el constructo es unidimensional;
- Es afectado por número de ítems, el número de alternativas de respuesta y la varianza del test (Domínguez-Lara & Merino-Soto, 2015).
Para interpretarlo hay que considerar:
- Mínimo para investigación básica exploratoria: > .7
- Mínimo para investigación asociativa: > .8
- Investigación con decisiones muy importantes: > .9 (Nunnally & Bernstein, 1994).
A mayor valor, más consistente es la escala:
- Consideraremos el 0.6 como punto de corte.
ADVERTENCIA: el alfa de Chronbarch es para variables con nivel de medición intervalar. Lo óptimo para variables ordinales es Alfa Ordinal u Omega (Ventura-León & Caycho-Rodríguez, 2017).
Asimismo, esperamos que la correlación de cada ítem respecto del total sea al menos de .4 (media) y, ojalá, de al menos .6 (alta). Ítems con correlaciones muy bajas podrían eliminarse, especialmente si el alfa de Chronbach aumenta en caso de que el ítem sea eliminado.
::alpha(afiliativo) psych
Reliability analysis
Call: psych::alpha(x = afiliativo)
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd median_r
0.84 0.85 0.84 0.41 5.6 0.0077 4 0.7 0.42
95% confidence boundaries
lower alpha upper
Feldt 0.82 0.84 0.85
Duhachek 0.82 0.84 0.85
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r med.r
Q1 0.82 0.83 0.82 0.40 4.7 0.0089 0.0092 0.39
Q5 0.82 0.83 0.82 0.41 4.8 0.0089 0.0097 0.42
Q9 0.84 0.84 0.84 0.44 5.4 0.0078 0.0071 0.45
Q13 0.82 0.83 0.82 0.41 4.9 0.0086 0.0065 0.42
Q17 0.80 0.82 0.81 0.39 4.4 0.0095 0.0071 0.37
Q21 0.82 0.83 0.82 0.40 4.7 0.0088 0.0079 0.39
Q25 0.82 0.82 0.81 0.40 4.7 0.0088 0.0071 0.42
Q29 0.83 0.84 0.83 0.43 5.3 0.0081 0.0078 0.45
Item statistics
n raw.r std.r r.cor r.drop mean sd
Q1 988 0.72 0.72 0.66 0.60 4.0 1.06
Q5 988 0.71 0.70 0.65 0.60 3.6 1.03
Q9 988 0.62 0.60 0.50 0.46 3.4 1.21
Q13 988 0.66 0.69 0.64 0.56 4.5 0.84
Q17 988 0.79 0.78 0.76 0.69 4.1 1.10
Q21 988 0.70 0.72 0.67 0.61 4.4 0.85
Q25 988 0.70 0.72 0.69 0.61 4.4 0.84
Q29 988 0.65 0.62 0.54 0.50 3.7 1.18
Non missing response frequency for each item
1 2 3 4 5 miss
Q1 0.03 0.08 0.16 0.35 0.37 0
Q5 0.04 0.10 0.27 0.38 0.20 0
Q9 0.09 0.16 0.20 0.37 0.18 0
Q13 0.01 0.03 0.07 0.27 0.62 0
Q17 0.04 0.07 0.14 0.30 0.45 0
Q21 0.01 0.03 0.09 0.29 0.58 0
Q25 0.01 0.03 0.06 0.29 0.60 0
Q29 0.06 0.11 0.20 0.34 0.28 0
::alpha(autofortalecedor) psych
Reliability analysis
Call: psych::alpha(x = autofortalecedor)
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd median_r
0.82 0.82 0.82 0.36 4.5 0.0085 3.4 0.75 0.34
95% confidence boundaries
lower alpha upper
Feldt 0.8 0.82 0.84
Duhachek 0.8 0.82 0.84
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r med.r
Q2 0.80 0.80 0.79 0.36 3.9 0.0098 0.016 0.32
Q6 0.81 0.81 0.80 0.38 4.3 0.0091 0.015 0.34
Q10 0.79 0.78 0.78 0.34 3.6 0.0103 0.011 0.33
Q14 0.78 0.78 0.78 0.34 3.6 0.0104 0.015 0.29
Q18 0.79 0.79 0.78 0.35 3.7 0.0102 0.012 0.33
Q22 0.82 0.82 0.82 0.40 4.6 0.0084 0.012 0.41
Q26 0.79 0.79 0.78 0.34 3.7 0.0102 0.014 0.32
Q30 0.82 0.81 0.81 0.39 4.4 0.0088 0.014 0.38
Item statistics
n raw.r std.r r.cor r.drop mean sd
Q2 988 0.68 0.68 0.62 0.57 3.3 1.09
Q6 988 0.57 0.60 0.52 0.45 4.2 0.94
Q10 988 0.75 0.74 0.71 0.64 2.9 1.18
Q14 988 0.76 0.74 0.70 0.64 3.3 1.24
Q18 988 0.73 0.72 0.69 0.62 2.8 1.17
Q22 988 0.54 0.53 0.41 0.37 3.0 1.19
Q26 988 0.73 0.73 0.69 0.62 3.6 1.13
Q30 988 0.55 0.57 0.48 0.41 4.0 1.05
Non missing response frequency for each item
1 2 3 4 5 miss
Q2 0.06 0.16 0.30 0.33 0.15 0
Q6 0.01 0.05 0.13 0.35 0.45 0
Q10 0.14 0.25 0.29 0.23 0.09 0
Q14 0.09 0.19 0.25 0.27 0.20 0
Q18 0.16 0.28 0.28 0.21 0.07 0
Q22 0.12 0.26 0.27 0.24 0.11 0
Q26 0.06 0.12 0.26 0.35 0.22 0
Q30 0.02 0.09 0.16 0.35 0.39 0
::alpha(agresivo) psych
Reliability analysis
Call: psych::alpha(x = agresivo)
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd median_r
0.79 0.79 0.78 0.32 3.7 0.01 2.9 0.78 0.31
95% confidence boundaries
lower alpha upper
Feldt 0.77 0.79 0.81
Duhachek 0.77 0.79 0.81
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r med.r
Q3 0.77 0.76 0.75 0.32 3.2 0.011 0.0061 0.31
Q7 0.77 0.77 0.75 0.32 3.3 0.011 0.0054 0.33
Q11 0.77 0.77 0.75 0.33 3.4 0.011 0.0053 0.33
Q15 0.75 0.75 0.73 0.30 3.0 0.012 0.0041 0.30
Q19 0.78 0.78 0.76 0.33 3.4 0.011 0.0051 0.33
Q23 0.77 0.77 0.75 0.33 3.4 0.011 0.0033 0.32
Q27 0.77 0.77 0.75 0.32 3.4 0.011 0.0059 0.33
Q31 0.75 0.75 0.73 0.30 3.0 0.012 0.0046 0.30
Item statistics
n raw.r std.r r.cor r.drop mean sd
Q3 988 0.64 0.64 0.57 0.50 3.1 1.2
Q7 988 0.61 0.63 0.55 0.49 2.7 1.1
Q11 988 0.61 0.60 0.52 0.46 2.7 1.2
Q15 988 0.72 0.71 0.66 0.58 2.6 1.3
Q19 988 0.59 0.59 0.49 0.44 3.2 1.2
Q23 988 0.59 0.59 0.51 0.44 3.2 1.2
Q27 988 0.62 0.61 0.53 0.47 2.3 1.3
Q31 988 0.71 0.71 0.66 0.59 3.2 1.3
Non missing response frequency for each item
1 2 3 4 5 miss
Q3 0.10 0.21 0.30 0.27 0.11 0
Q7 0.13 0.33 0.32 0.16 0.07 0
Q11 0.17 0.32 0.19 0.22 0.09 0
Q15 0.30 0.22 0.20 0.19 0.10 0
Q19 0.10 0.19 0.24 0.30 0.17 0
Q23 0.09 0.21 0.28 0.28 0.15 0
Q27 0.36 0.28 0.15 0.13 0.07 0
Q31 0.10 0.22 0.24 0.22 0.20 0
::alpha(autodestructivo) psych
Reliability analysis
Call: psych::alpha(x = autodestructivo)
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd median_r
0.82 0.82 0.82 0.37 4.6 0.0086 2.7 0.79 0.4
95% confidence boundaries
lower alpha upper
Feldt 0.8 0.82 0.84
Duhachek 0.8 0.82 0.84
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r med.r
Q4 0.79 0.80 0.79 0.36 3.9 0.0100 0.0179 0.36
Q8 0.78 0.78 0.77 0.34 3.6 0.0107 0.0122 0.36
Q12 0.79 0.80 0.79 0.36 3.9 0.0100 0.0175 0.36
Q16 0.80 0.81 0.80 0.37 4.1 0.0096 0.0161 0.39
Q20 0.78 0.79 0.77 0.35 3.7 0.0104 0.0123 0.36
Q24 0.82 0.82 0.81 0.39 4.6 0.0089 0.0151 0.44
Q28 0.83 0.83 0.82 0.42 5.0 0.0081 0.0096 0.44
Q32 0.79 0.79 0.78 0.35 3.8 0.0104 0.0166 0.33
Item statistics
n raw.r std.r r.cor r.drop mean sd
Q4 988 0.70 0.70 0.64 0.58 2.8 1.2
Q8 988 0.77 0.77 0.76 0.67 2.5 1.2
Q12 988 0.70 0.70 0.64 0.58 3.0 1.2
Q16 988 0.65 0.65 0.57 0.52 2.9 1.2
Q20 988 0.75 0.75 0.73 0.65 2.1 1.1
Q24 988 0.55 0.56 0.45 0.41 2.4 1.1
Q28 988 0.49 0.47 0.34 0.31 3.2 1.3
Q32 988 0.74 0.73 0.69 0.63 2.8 1.2
Non missing response frequency for each item
1 2 3 4 5 miss
Q4 0.14 0.28 0.29 0.21 0.08 0
Q8 0.23 0.31 0.22 0.19 0.06 0
Q12 0.14 0.23 0.27 0.26 0.10 0
Q16 0.14 0.28 0.25 0.24 0.09 0
Q20 0.37 0.34 0.16 0.10 0.03 0
Q24 0.21 0.36 0.25 0.12 0.06 0
Q28 0.13 0.18 0.22 0.28 0.19 0
Q32 0.18 0.22 0.29 0.23 0.09 0
# Para toda la escala
::alpha(data %>% select(1:32)) psych
Reliability analysis
Call: psych::alpha(x = data %>% select(1:32))
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd median_r
0.86 0.87 0.9 0.17 6.4 0.0063 3.2 0.5 0.14
95% confidence boundaries
lower alpha upper
Feldt 0.85 0.86 0.87
Duhachek 0.85 0.86 0.87
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r med.r
Q1 0.86 0.86 0.9 0.17 6.1 0.0066 0.019 0.14
Q2 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q3 0.86 0.86 0.9 0.17 6.2 0.0066 0.020 0.13
Q4 0.86 0.86 0.9 0.17 6.3 0.0065 0.019 0.15
Q5 0.86 0.86 0.9 0.16 6.1 0.0066 0.019 0.13
Q6 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q7 0.86 0.87 0.9 0.17 6.4 0.0063 0.019 0.15
Q8 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q9 0.86 0.86 0.9 0.17 6.2 0.0065 0.020 0.13
Q10 0.86 0.86 0.9 0.17 6.1 0.0066 0.019 0.13
Q11 0.86 0.87 0.9 0.17 6.4 0.0063 0.019 0.15
Q12 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q13 0.86 0.86 0.9 0.17 6.1 0.0065 0.019 0.14
Q14 0.86 0.86 0.9 0.16 6.1 0.0066 0.019 0.13
Q15 0.86 0.86 0.9 0.17 6.3 0.0065 0.019 0.14
Q16 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q17 0.86 0.86 0.9 0.16 6.1 0.0066 0.018 0.13
Q18 0.86 0.86 0.9 0.17 6.2 0.0065 0.019 0.14
Q19 0.86 0.86 0.9 0.16 6.1 0.0066 0.020 0.13
Q20 0.86 0.86 0.9 0.17 6.2 0.0065 0.018 0.14
Q21 0.86 0.86 0.9 0.17 6.2 0.0065 0.018 0.13
Q22 0.86 0.86 0.9 0.17 6.3 0.0064 0.020 0.14
Q23 0.86 0.86 0.9 0.17 6.3 0.0064 0.019 0.15
Q24 0.86 0.87 0.9 0.17 6.5 0.0063 0.018 0.15
Q25 0.86 0.86 0.9 0.17 6.2 0.0065 0.018 0.14
Q26 0.86 0.86 0.9 0.16 6.1 0.0066 0.019 0.13
Q27 0.86 0.86 0.9 0.17 6.4 0.0064 0.019 0.15
Q28 0.86 0.86 0.9 0.17 6.2 0.0065 0.020 0.13
Q29 0.86 0.86 0.9 0.17 6.3 0.0064 0.019 0.14
Q30 0.86 0.87 0.9 0.17 6.4 0.0063 0.019 0.15
Q31 0.86 0.86 0.9 0.17 6.3 0.0064 0.019 0.15
Q32 0.86 0.86 0.9 0.17 6.2 0.0066 0.019 0.13
Item statistics
n raw.r std.r r.cor r.drop mean sd
Q1 988 0.49 0.51 0.49 0.44 4.0 1.06
Q2 988 0.47 0.47 0.45 0.41 3.3 1.09
Q3 988 0.49 0.48 0.45 0.43 3.1 1.16
Q4 988 0.43 0.42 0.39 0.36 2.8 1.16
Q5 988 0.52 0.53 0.52 0.47 3.6 1.03
Q6 988 0.45 0.48 0.45 0.41 4.2 0.94
Q7 988 0.30 0.28 0.24 0.23 2.7 1.09
Q8 988 0.49 0.48 0.47 0.43 2.5 1.19
Q9 988 0.44 0.45 0.42 0.38 3.4 1.21
Q10 988 0.51 0.51 0.50 0.45 2.9 1.18
Q11 988 0.31 0.29 0.25 0.24 2.7 1.24
Q12 988 0.45 0.45 0.43 0.39 3.0 1.21
Q13 988 0.48 0.51 0.50 0.44 4.5 0.84
Q14 988 0.52 0.53 0.52 0.46 3.3 1.24
Q15 988 0.44 0.41 0.39 0.36 2.6 1.34
Q16 988 0.45 0.44 0.42 0.39 2.9 1.19
Q17 988 0.54 0.56 0.56 0.49 4.1 1.10
Q18 988 0.45 0.45 0.44 0.39 2.8 1.17
Q19 988 0.54 0.54 0.52 0.49 3.2 1.23
Q20 988 0.45 0.44 0.43 0.40 2.1 1.09
Q21 988 0.46 0.49 0.48 0.42 4.4 0.85
Q22 988 0.38 0.38 0.34 0.31 3.0 1.19
Q23 988 0.37 0.36 0.32 0.30 3.2 1.18
Q24 988 0.23 0.22 0.18 0.16 2.4 1.12
Q25 988 0.46 0.49 0.48 0.42 4.4 0.84
Q26 988 0.52 0.52 0.51 0.46 3.6 1.13
Q27 988 0.35 0.33 0.29 0.28 2.3 1.27
Q28 988 0.49 0.48 0.45 0.42 3.2 1.30
Q29 988 0.38 0.39 0.36 0.31 3.7 1.18
Q30 988 0.29 0.30 0.26 0.22 4.0 1.05
Q31 988 0.40 0.38 0.36 0.33 3.2 1.28
Q32 988 0.50 0.49 0.47 0.44 2.8 1.22
Non missing response frequency for each item
1 2 3 4 5 miss
Q1 0.03 0.08 0.16 0.35 0.37 0
Q2 0.06 0.16 0.30 0.33 0.15 0
Q3 0.10 0.21 0.30 0.27 0.11 0
Q4 0.14 0.28 0.29 0.21 0.08 0
Q5 0.04 0.10 0.27 0.38 0.20 0
Q6 0.01 0.05 0.13 0.35 0.45 0
Q7 0.13 0.33 0.32 0.16 0.07 0
Q8 0.23 0.31 0.22 0.19 0.06 0
Q9 0.09 0.16 0.20 0.37 0.18 0
Q10 0.14 0.25 0.29 0.23 0.09 0
Q11 0.17 0.32 0.19 0.22 0.09 0
Q12 0.14 0.23 0.27 0.26 0.10 0
Q13 0.01 0.03 0.07 0.27 0.62 0
Q14 0.09 0.19 0.25 0.27 0.20 0
Q15 0.30 0.22 0.20 0.19 0.10 0
Q16 0.14 0.28 0.25 0.24 0.09 0
Q17 0.04 0.07 0.14 0.30 0.45 0
Q18 0.16 0.28 0.28 0.21 0.07 0
Q19 0.10 0.19 0.24 0.30 0.17 0
Q20 0.37 0.34 0.16 0.10 0.03 0
Q21 0.01 0.03 0.09 0.29 0.58 0
Q22 0.12 0.26 0.27 0.24 0.11 0
Q23 0.09 0.21 0.28 0.28 0.15 0
Q24 0.21 0.36 0.25 0.12 0.06 0
Q25 0.01 0.03 0.06 0.29 0.60 0
Q26 0.06 0.12 0.26 0.35 0.22 0
Q27 0.36 0.28 0.15 0.13 0.07 0
Q28 0.13 0.18 0.22 0.28 0.19 0
Q29 0.06 0.11 0.20 0.34 0.28 0
Q30 0.02 0.09 0.16 0.35 0.39 0
Q31 0.10 0.22 0.24 0.22 0.20 0
Q32 0.18 0.22 0.29 0.23 0.09 0
Alfa Ordinal
Como se señaló, el alfa de Chronbach está diseñado para variables continuas. Por ello, podemos calcular el alfa ordinal para las puntuaciones de cada ítem. Para esto, utilizaremos la función ordinal_alpha()
de jogRu
, que estima el alfa ordinal a partir de correlación policórica (según lo propuesto por Zumbo et al.(2007)).
::ordinal_alpha(afiliativo) jogRu
Reliability analysis
Call: psych::alpha(x = psych::polychoric(x)$rho)
raw_alpha std.alpha G6(smc) average_r S/N median_r
0.89 0.89 0.89 0.5 8 0.49
95% confidence boundaries
lower alpha upper
Feldt 0.71 0.89 0.97
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N var.r med.r
Q1 0.87 0.87 0.87 0.49 6.8 0.0120 0.47
Q5 0.88 0.88 0.87 0.50 7.0 0.0133 0.49
Q9 0.89 0.89 0.89 0.53 7.9 0.0090 0.55
Q13 0.87 0.87 0.87 0.50 6.9 0.0085 0.49
Q17 0.86 0.86 0.86 0.48 6.3 0.0100 0.45
Q21 0.87 0.87 0.87 0.49 6.7 0.0104 0.47
Q25 0.87 0.87 0.86 0.48 6.5 0.0086 0.49
Q29 0.88 0.88 0.88 0.52 7.7 0.0106 0.55
Item statistics
r r.cor r.drop
Q1 0.77 0.72 0.68
Q5 0.74 0.69 0.65
Q9 0.63 0.55 0.52
Q13 0.76 0.73 0.67
Q17 0.83 0.81 0.77
Q21 0.79 0.76 0.71
Q25 0.81 0.79 0.73
Q29 0.67 0.60 0.56
::ordinal_alpha(autofortalecedor) jogRu
Reliability analysis
Call: psych::alpha(x = psych::polychoric(x)$rho)
raw_alpha std.alpha G6(smc) average_r S/N median_r
0.85 0.85 0.85 0.41 5.5 0.37
95% confidence boundaries
lower alpha upper
Feldt 0.6 0.85 0.96
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N var.r med.r
Q2 0.83 0.83 0.83 0.40 4.7 0.019 0.37
Q6 0.84 0.84 0.83 0.42 5.1 0.016 0.37
Q10 0.82 0.82 0.81 0.39 4.4 0.014 0.37
Q14 0.81 0.81 0.82 0.38 4.4 0.018 0.34
Q18 0.82 0.82 0.81 0.39 4.5 0.014 0.37
Q22 0.85 0.85 0.85 0.45 5.6 0.013 0.45
Q26 0.82 0.82 0.82 0.39 4.4 0.016 0.37
Q30 0.84 0.84 0.84 0.43 5.3 0.016 0.43
Item statistics
r r.cor r.drop
Q2 0.71 0.65 0.60
Q6 0.64 0.57 0.51
Q10 0.77 0.74 0.67
Q14 0.77 0.74 0.68
Q18 0.75 0.72 0.65
Q22 0.54 0.43 0.40
Q26 0.76 0.73 0.67
Q30 0.61 0.53 0.47
::ordinal_alpha(agresivo) jogRu
Reliability analysis
Call: psych::alpha(x = psych::polychoric(x)$rho)
raw_alpha std.alpha G6(smc) average_r S/N median_r
0.82 0.82 0.81 0.36 4.5 0.35
95% confidence boundaries
lower alpha upper
Feldt 0.53 0.82 0.96
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N var.r med.r
Q3 0.80 0.80 0.78 0.36 3.9 0.0078 0.35
Q7 0.80 0.80 0.79 0.36 4.0 0.0068 0.37
Q11 0.80 0.80 0.79 0.37 4.0 0.0067 0.37
Q15 0.78 0.78 0.77 0.34 3.6 0.0051 0.34
Q19 0.81 0.81 0.79 0.37 4.1 0.0065 0.37
Q23 0.81 0.81 0.79 0.37 4.1 0.0040 0.36
Q27 0.80 0.80 0.79 0.36 4.0 0.0076 0.37
Q31 0.78 0.78 0.77 0.34 3.6 0.0062 0.34
Item statistics
r r.cor r.drop
Q3 0.67 0.60 0.54
Q7 0.65 0.58 0.52
Q11 0.63 0.55 0.49
Q15 0.74 0.71 0.64
Q19 0.61 0.52 0.47
Q23 0.61 0.53 0.47
Q27 0.65 0.57 0.52
Q31 0.74 0.70 0.63
::ordinal_alpha(autodestructivo) jogRu
Reliability analysis
Call: psych::alpha(x = psych::polychoric(x)$rho)
raw_alpha std.alpha G6(smc) average_r S/N median_r
0.85 0.85 0.85 0.41 5.6 0.45
95% confidence boundaries
lower alpha upper
Feldt 0.61 0.85 0.96
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N var.r med.r
Q4 0.83 0.83 0.82 0.40 4.8 0.022 0.42
Q8 0.81 0.81 0.80 0.38 4.4 0.015 0.42
Q12 0.83 0.83 0.82 0.40 4.8 0.022 0.42
Q16 0.83 0.83 0.83 0.42 5.0 0.020 0.44
Q20 0.81 0.81 0.80 0.39 4.4 0.015 0.42
Q24 0.85 0.85 0.84 0.44 5.5 0.019 0.50
Q28 0.86 0.86 0.85 0.47 6.2 0.011 0.50
Q32 0.82 0.82 0.82 0.39 4.6 0.021 0.37
Item statistics
r r.cor r.drop
Q4 0.73 0.68 0.62
Q8 0.80 0.80 0.73
Q12 0.73 0.68 0.63
Q16 0.68 0.61 0.56
Q20 0.80 0.79 0.72
Q24 0.59 0.49 0.45
Q28 0.49 0.36 0.33
Q32 0.77 0.73 0.67
# Para toda la escala
::ordinal_alpha(data %>% select(1:32)) jogRu
Reliability analysis
Call: psych::alpha(x = psych::polychoric(x)$rho)
raw_alpha std.alpha G6(smc) average_r S/N median_r
0.88 0.88 0.93 0.19 7.7 0.16
95% confidence boundaries
lower alpha upper
Feldt 0.82 0.88 0.94
Reliability if an item is dropped:
raw_alpha std.alpha G6(smc) average_r S/N var.r med.r
Q1 0.88 0.88 0.92 0.19 7.3 0.025 0.16
Q2 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Q3 0.88 0.88 0.92 0.19 7.4 0.027 0.16
Q4 0.88 0.88 0.92 0.19 7.5 0.026 0.17
Q5 0.88 0.88 0.92 0.19 7.3 0.026 0.16
Q6 0.88 0.88 0.92 0.19 7.3 0.026 0.16
Q7 0.89 0.89 0.93 0.20 7.7 0.025 0.17
Q8 0.88 0.88 0.92 0.19 7.4 0.025 0.16
Q9 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Q10 0.88 0.88 0.92 0.19 7.3 0.026 0.16
Q11 0.88 0.88 0.93 0.20 7.7 0.026 0.17
Q12 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Q13 0.88 0.88 0.92 0.19 7.2 0.025 0.16
Q14 0.88 0.88 0.92 0.19 7.3 0.025 0.16
Q15 0.88 0.88 0.92 0.19 7.5 0.026 0.17
Q16 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Q17 0.88 0.88 0.92 0.19 7.2 0.025 0.16
Q18 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Q19 0.88 0.88 0.92 0.19 7.3 0.027 0.15
Q20 0.88 0.88 0.92 0.19 7.4 0.025 0.17
Q21 0.88 0.88 0.92 0.19 7.3 0.025 0.16
Q22 0.88 0.88 0.93 0.20 7.5 0.027 0.17
Q23 0.88 0.88 0.92 0.20 7.6 0.026 0.17
Q24 0.89 0.89 0.93 0.20 7.8 0.025 0.17
Q25 0.88 0.88 0.92 0.19 7.3 0.024 0.16
Q26 0.88 0.88 0.92 0.19 7.3 0.026 0.16
Q27 0.88 0.88 0.93 0.20 7.6 0.026 0.17
Q28 0.88 0.88 0.92 0.19 7.4 0.027 0.16
Q29 0.88 0.88 0.92 0.19 7.5 0.025 0.16
Q30 0.88 0.88 0.92 0.20 7.6 0.026 0.17
Q31 0.88 0.88 0.92 0.20 7.5 0.026 0.17
Q32 0.88 0.88 0.92 0.19 7.4 0.026 0.16
Item statistics
r r.cor r.drop
Q1 0.56 0.55 0.51
Q2 0.49 0.47 0.44
Q3 0.51 0.49 0.46
Q4 0.43 0.41 0.38
Q5 0.56 0.55 0.51
Q6 0.52 0.51 0.47
Q7 0.29 0.25 0.22
Q8 0.50 0.49 0.45
Q9 0.48 0.45 0.43
Q10 0.53 0.52 0.48
Q11 0.31 0.28 0.25
Q12 0.46 0.44 0.41
Q13 0.58 0.58 0.53
Q14 0.56 0.55 0.51
Q15 0.43 0.41 0.37
Q16 0.46 0.44 0.40
Q17 0.62 0.62 0.58
Q18 0.47 0.46 0.42
Q19 0.57 0.55 0.52
Q20 0.46 0.45 0.40
Q21 0.56 0.56 0.51
Q22 0.39 0.36 0.33
Q23 0.37 0.34 0.31
Q24 0.22 0.19 0.16
Q25 0.57 0.58 0.53
Q26 0.55 0.54 0.50
Q27 0.34 0.31 0.28
Q28 0.50 0.47 0.45
Q29 0.42 0.39 0.36
Q30 0.32 0.29 0.26
Q31 0.40 0.38 0.34
Q32 0.51 0.50 0.46