2. VALIDEZ Y CONFIABILIDAD
Procesos y tipos de conocimiento y aplicación Coherencia en la Investigación:
VALIDEZ
Definición.
Evidencias Relacionadas.
CONFIABILIDAD
Definición.
Tipos .
Técnicas para su Cálculo.
Factores que Pueden Afectar la Validez y Confiabilidad de un Instrumento.
¿Cómo saber si un instrumento es confiable y válido? .
3. Validez
Introducción:
Los instrumentos de medición requieren de estudios
científicos que determinen si éstos pueden generar
inferencias válidas y demostrar un nivel aceptable
de estabilidad.
Las pruebas, escalas e inventarios requieren para
probar si funcionan o no de estudios de validez y
confiabilidad.
Ningún instrumento puede demostrar su
efectividad si dichos estudios no se llevan a cabo.
4. ¿Porqué Es Necesario Certificar La Validez
de Los Datos?
Toda investigación busca establecer un
conjunto de Procedimientos técnicos que
garanticen que los datos Construidos
(investigación cualitativa) Recogidos
(investigación cuantitativa)
Y las interpretaciones o descripciones se
aproximen A la realidad social.
La calidad de los resultados se definen a
través de los criterios de validez,
diferenciándose según el paradigma.
5. CARACTERÍSTICAS DE VALIDEZ
1. El criterio de validez del instrumento tiene que ver con
el contenido y su construcción.
2. La validez establece relación del instrumento con las
variables que pretende medir .
3. Relaciona los ítems del cuestionario; con los
basamentos teóricos y los Objetivos de la investigación
(consistencia y coherencia técnica).
4. Ese proceso de validación se vincula a las variables
entre si y la hipótesis de la investigación.
5. Determinar la validez del instrumento implica
someterlo a un proceso de evaluación previa.
6. VALIDEZ DEFINICIÓN SEGÚN
DIVERSOS AUTORES:
Grado en que un instrumento
realmente mide la variable que
pretende medir. Hernández
Sampieri.
Grado en que un instrumento
realmente mide lo que el
investigador pretende
Thorndike .
7. EVIDENCIA RELACIONADAS CON LA
VALIDEZ
Validez
Contenido
Criterio
Constructo
Establece la validez de un
instrumento de medición
comparándola con Criterio
algún externo.
Contenido Constructo Entre
más se relacionen los
resultados del Validez
instrumento con el criterio,
mayor será su validez
8.
9. EVIDENCIA RELACIONADA CON EL
CONSTRUCTO
La validez de un constructo
incluye tres (03) etapas:
Relación Teórica entre los
conceptos.
Correlación de Conceptos y
análisis.
Interpretación de la evidencia
empírica de acuerdo con el nivel
en que clarifica la validez de un
constructo de una medición en
particular.
10. FACTORES QUE AFECTAN LA
VALIDEZ Y LA CONFIABILIDAD
Improvisación.
Instrumentos no contextualizados.
Instrumentos inadecuados a la
persona que los realiza.
Condiciones en que se aplica el
instrumento .
11. MÉTODOS PARA VERIFICAR LA VALIDEZ
Validez de Contenido: Grado de
representación y dominio del
contenido de las variables que se
desean medir en la investigación.
Validez de Criterio: Se compara el
criterio con uno externo. Ese criterio
juzga el instrumento.
Validez del Constructo: Grado en que
una medición se relaciona con las
hipótesis que están siendo
investigadas.
12. MÉTODOS PARA VERIFICAR LA
VALIDEZ:
Medida de estabilidad: El mismo
instrumento se aplica varias veces
al mismo grupo.
Método de formas alternativas:
Analiza 2 o mas versiones de los
instrumentos arrojando medidas
similares al aplicarse.
Métodos de mitades partidas:
Requiere solo una aplicación de la
medición.
El conjunto de ítems es dividido a
la mitad y se revisan los
resultados
13. MÉTODOS PARA VERIFICAR LA VALIDEZ
Validez Según paradigma:
En la investigación Cualitativa, se preocupa por la validez en
la fase de análisis e interpretación de datos, no tanto por la
validez en la recolección de datos.
Se piensa que se está tan cerca de la realidad que no hay
preocupación por la validez en esta fase..
En la investigación Cuantitativa, la validez se encuentra en
la fase de recolección de datos, ya que se piensa que los
datos cuantitativos respecto a los procedimientos estadísticos
no representan mayor problema.
14. MÉTODOS PARA VERIFICAR LA VALIDEZ
Triangulación: Es la combinación de dos o
más teorías, fuentes de datos, métodos
de investigación, en el estudio de un
fenómeno singular.
Triangulación entre investigadores
Triangulación entre teorías
Triangulación entre datos
Triangulación metodológica
15. MÉTODOS PARA VERIFICAR LA
VALIDEZ.
Triangulación Entre Investigadores
Son los equipos en Educación
multidisciplinarios.
Consiste en la participación de
investigadores de diferentes
disciplinas, experiencias en una
misma investigación, respetándose
las diferentes aproximaciones que
éstos realizan al Investigador en
problema.
16. MÉTODOS PARA VERIFICAR LA VALIDEZ
TRIANGULACIÓN DENTRO DE DATOS
Se obtienen datos desde diferentes
fuentes de información claves, sobre un
problema.
La Triangulación consiste en la
concordancia o discrepancia de los datos.
17. CÁLCULOS DE LA VALIDEZ
Validez de Contenido: Juicio de
expertos.
Validez de Criterio: Correlacionar
la medición con el criterio para
obtener el coeficiente de validez.
Validez de Constructo: Suele
determinarse un procedimiento
estadístico denominado “Análisis de
Factores”´.
18. CONFIABILIDAD
* Es el grado de consistencia que posee el
instrumento de medición.
Ningún instrumento de investigación
puede ser de gran valor hasta que se
pruebe su consistencia o confiabilidad.
Mientras más reactivos uno tiene en el
instrumento, mayor debe ser la
confiabilidad.
Existe un momento donde no importa
cuántos reactivos uno tenga, la
confiabilidad del instrumento se va a
mantener estable.
19. •
Confiabilidad a través del
tiempo:
Prueba-reprueba
Formas Alternas O
Equivalentes.
Consistencia interna:
Alfa De Cronbach.
División En Mitades.
La Fórmula Spearman Brown
Confiabilidad entre evaluadores
TÉCNICAS PARA OBTENER
LA CONFIABILIDAD
20. Prueba – Reprueba Formas Alternas Equivalentes
Confiabilidad A través Del Tiempo
Se utiliza un grupo, donde se le va a administrar el
instrumento en dos tiempos diferentes.
El tiempo entre la primera y la segunda administración
es un factor que hay que tomar en consideración.
Mientras más tiempo pase entre la primera y la
segunda administración, menor puede ser el coeficiente
de confiabilidad.
21. Prueba – Reprueba
Formas Alternas Equivalentes
Se le administra el instrumento a
un grupo de personas, se deja pasar
un tiempo y luego se administra el
mismo instrumento al mismo grupo.
Se correlacionan los pares de
puntuaciones.
22. Se le administra la forma A del instrumento a un grupo
de personas, se deja pasar un tiempo y luego se
administra la forma B del instrumento al mismo grupo.
ALFA DE CRONBACH
Forma B
en tiempo
2
23. Alfa De Cronbach
División En Mitades:
Fórmula Spearman Brown
Confiabilidad De Consistencia Interna
Nos ayuda a determinar el grado de interrelación que existe
entre de los elementos de un instrumento.
La consistencia interna no interna, contempla los elementos
que afectan a la confiabilidad a través del tiempo, por lo
que ambas técnicas son complementarias.
Trata de indagar sobre el grado de homogeneidad de las
respuestas.
24. Establece una relación entre
los reactivos y la puntuación
total del instrumento.
Se usa mucho cuando hay
escalas de medición tipo
Likert.
Puntuación
Total
Puntuación
Total
Puntuación
Total
Puntuación
Total
5
REACTIVOS
25. Requiere de un solo instrumento,
produciendo valores entre 0 y 1:
-1 a 0: No es confiable
0,01 a 0,49: Baja Confiabilidad
0,50 a 0,75: Confiabilidad Moderada
0,76 a 0,89: Confiabilidad Fuerte
0,90 a 1,00: Confiabilidad Alta
26. Se divide la prueba en dos mitades
colocando los ítems impares a un lado y los
pares al otro.
Se correlacionan ambas mitades.
Se usa la fórmula de corrección Spearman
Brown.
El coeficiente de correlación debe ser de
.60 en adelante.
1, 3, 5, 7, 9
PARES
2, 4, 6, 8, 10
NONES
27. Unos expertos en el contenido del
instrumento entre contestan el instrumento.
Se supone que las puntuaciones sean
similares.
Se calcula un índice de concordancia.
A mayor concordancia, más confiable
resultará ser el instrumento.
28. UN GRUPO DE EXPERTOS REVISA EL
INSTRUMENTO Y SE APLICA EL
SIGUIENTE PROCEDIMIENTO:
1. Elaboración del Objetivo.
2. Selección de los expertos.
3. Elaboración del cuestionario .
4. Elección de la metodología .
5. Ejecución de la metodología .
6. Procesamiento de la información.