Sr. Editor:
La valoración de la satisfacción del usuario puede brindar información útil tanto para optimizar los servicios brindados, como para realizar ajustes al mismo a fin de aumentar sus indicadores de aprobación. Por ello, un paso preliminar de suma importancia es la construcción de un instrumento que permita evaluar apropiadamente la satisfacción, es decir, que provea puntuaciones confiables y que estas permitan hacer inferencias válidas, tomando como base evidencias relacionadas con la validez.
En el proceso de construcción de instrumentos de auto informe, el uso del análisis factorial (AF) es frecuente debido a su capacidad para proveer resultados robustos con relación a su estructura interna. Sin embargo, dentro del marco del AF, existen procedimientos que actualmente son cuestionados porque tienden a brindar resultados que podrían ser imprecisos con relación al constructo evaluado.
Uno de ellos es el Little Jiffy (LJ) compuesto por: análisis de componentes principales (ACP), la regla de Kaiser (RK; Valores propios > 1), y la rotación varimax (RV). Pese a que en diversos espacios han sido discutidas sus limitaciones1, aún es de uso frecuente. Esto traer como consecuencia directa interpretaciones poco consistentes de las soluciones factoriales obtenidas.
Recientemente, Werlinger y colaboradores2 evaluaron la satisfacción usuaria en urgencia oftalmológica mediante un instrumento de auto informe, analizando su estructura interna con el LJ. Aunque debido a sus características intrínsecas el ACP puede mostrar una mayor varianza explicada (y, por ende, cargas más elevadas), lo cierto es que, al no separar la varianza específica de la producida por el factor, el error en la interpretación es casi inevitable; pero quizás la sobre extracción de componentes a la que se somete el instrumento a causa de la RK sería lo que conduce a una mala interpretación de su estructura interna, y ello será objeto de análisis en la presente carta.
Uno de los métodos para hacer frente a la sobre extracción de componentes es el análisis paralelo (AP), y aunque es aconsejado por la literatura1, existen algunos autores que recomiendan un uso prudente, ya que bajo ciertas condiciones podría infra estimar la cantidad de componentes a extraer3. Con todo, su utilización no es lo suficientemente difundida.
Para la aplicación del AP fue utilizada la información del manuscrito2 para generar VP aleatorios mediante el programa FACTOR4, considerando el mismo tamaño muestral (n = 138) y número de ítems (13). Pese a que el método de Horn no es la opción más precisa, para efectos de ejecución del re-análisis no pudo ser implementada la opción más reciente del AP5 que necesita la base de datos completa (Tabla 1).
VPa | VP aleatoriosb | VP aleatoriosc | |
---|---|---|---|
VP 1 | 5,75 | 1.547 | 1.680 |
VP 2 | 1,43 | 1.400 | 1.501 |
VP 3 | 1,26 | 1.293 | 1.365 |
VP 4 | 1,19 | 1.202 | 1.273 |
Nota: VP: Valor propio;
abasado en Werlinger y colaboradores;
bbasado en la media de los VE;
cbasado en el Pc 95 de los VE.
La lógica del procedimiento indica que los VP reales (obtenidos con los datos) deben ser mayores a los VP aleatorios, y si esto no ocurre, deben considerarse solo aquellos componentes que cumplan esa condición. En tal sentido, los resultados obtenidos por el AP indican que sería suficiente con uno o dos componentes para explicar apropiadamente la variabilidad de los ítems, y no cuatro como se plantea en el manuscrito2.
La razón este resultado divergente se debe al método de AP con el cual son analizados los VP: con la versión del método basada en la media, el segundo VP aleatorio es menor que VP real, por tanto, se sugieren dos componentes; pero con otra versión basada en el Pc95, el segundo VP aleatorio es más alto que VP real, lo que indica la pertinencia de un solo componente. Evidentemente, la elección del método depende de los objetivos del investigador.
Si bien esta conclusión parcial puede estar abierta a discusión por las limitaciones propias del método3, sería recomendable brindar los valores de todas las cargas de cada uno de los ítems tanto del componente principal como de los componentes secundarios, y no solo las más relevantes (λ ≥ 0,40).
Esto es importante porque si bien gran parte de la varianza la retiene el primer componente, luego de realizar la rotación la varianza es distribuida entre los ítems, y es necesario precisar este último aspecto. Con esa información se podría determinar el grado de complejidad de los ítems6 y si este es alto, podría concluirse a favor de la solución más parsimoniosa: es suficiente uno o dos componentes.
Cabe precisar que no se hace referencia a los productos del ACP como factores, ya que la lógica subyacente del ACP no es obtener factores, es decir, la presencia de un constructo que explica la variabilidad de los ítems; sino, determinar medidas sumativas denominadas componentes, cuya naturaleza dista significativamente de un factor1.
En este panorama, las conclusiones a las que llegan los autores podrían estar sesgadas por el procedimiento empleado (LJ), y aunado al uso del ACP, quizás no reflejen apropiadamente la dimensionalidad del constructo evaluado con la encuesta de satisfacción construida.
Cabe precisar que no fueron reportados y analizados algunos indicadores descriptivos como el promedio del ítem, ni el porcentaje de personas que respondieron las opciones más altas o más bajas (efecto techo y piso, respectivamente), ya que eso podría ser un aspecto relevante a la configuración factorial por la presencia de factores de dificultad. Esta situación suele aparecer en cuestionarios como el construido, ya que por lo general en instrumentos que evalúan variables ligadas a la psicología positiva (bienestar, satisfacción, etc.) es más probable encontrar que el promedio del ítem sea cercano al límite superior de la escala Likert, es decir, que en la mayoría de los ítems predominen las respuestas altas. Además, al estar conformado por ítems escalados de forma ordinal (muy bueno, bueno, malo, y muy malo), sería conveniente implementar correlaciones policóricas.
Para terminar, es conveniente utilizar criterios vigentes en el análisis de auto informes, sobre todo en un área tan vasta y compleja como el AF, y con mayor razón si la información derivada de las puntuaciones de dicho instrumento tendrá implicancias prácticas directas sobre alguna organización.