2. DEFINICIONES
Evaluación: ● El concepto de evaluación no está bien definido,
algunas de estas hablan de cómo y para que se
realiza
● Para algunos autores entienden la evaluación como
un instrumento de control para el éxito o fracaso de
programas,proyectos o instituciones, para conseguir y
medir los resultados obtenidos
● Para otros la conciben como un medidor para tomar
decisiones y mejorar los procesos.
Por lo tanto la evalauciòn es un proceso para medir eficacia, eficiencia y
relevancia a los procesos que realiza una institución, un programa, una
persona o un proyecto, con el fin de mejorar dichos procesos.
3. INVESTIGACIÓN EVALUATIVA
Evaluación Institucional
Evaluación de Conductas
La investigación evaluativa debe entenderse como un proceso riguroso,
controlado y sistemático de recogida y análisis de información válida y fiable
para tomar decisiones acerca del programa educativo; y así aumentar la
racionalidad de las decisiones acerca de la puesta en marcha, sobre su
desarrollo y evaluación evitando la excesiva dependencia de las decisiones
políticas (Tejedor, García- Varcárcel y Rodríguez, 1994).
SIGNIFICADO
6. TIPOS DE EVALUACIÓN
Existen tres tipos
LAS PSEUDOEVALUACIONES, CUASIEVALUACIONES Y
VERDADERAS EVALUACIONES
PSEUDOEVALUACIONES
las investigaciones
encubiertas o
evaluación
políticamente
controlada
Los estudios basados en las relaciones públicas.
las investigaciones encubiertas
● Se hace de forma oculta para provocar puntos de vista
● Los problemas que plantea son los que interesan al cliente y a
ciertos grupos que comparten sus intereses.
● En este tipo de evaluación se dan dos preguntas principales:
¿qué información puede resultar provechosa en un conflicto
potencial? y ¿qué datos pueden ser de utilidad en una
confrontación?
7. Estudios basados en las
relaciones públicas
● utilizado para satisfacer propósitos que tengan que ver con
las relaciones públicas.
● La intención del estudio es ayudar al cliente a crear una
imagen positiva de una institución, un programa, un
sistema, un proyecto formativo y similar.
TIPOS DE EVALUACIÓN
8. CUASIEVALUACIONES
● Pueden ser utilizados para enjuiciar el valor o el mérito de un
objeto
● Pertenecen a este tipo de estudios los basados en objetivos
● Lo más importante es que estos estudios empiezan con un
problema concreto y luego buscan la metodología apropiada para
solucionar ese problema
Existen dos tipos
Estudios basados en objetivos:
Estudios basados en la
experimentación:
TIPOS DE EVALUACIÓN
9. Estudios basados en objetivos:
● El propósito más común es determinar si los objetivos
han sido alcanzados
● Los métodos utilizados en los estudios basados en
objetivos incluyen, esencialmente, la recopilación y el
análisis de los datos sobre el trabajo en cuestión
● El modelo de estudio es la investigación experimental
● Proporcionan métodos sólidos para la determinación de
relaciones causales
Estudios basados en la
experimentación:
TIPOS DE EVALUACIÓN
10. VERDADERAS
EVALUACIONES
● El caso opuesto de las pseudoevaluaciones, subrayan la necesidad de
evitar los estudios tendenciosos
● La evaluación debe ser utilizada tanto para el perfeccionamiento de un
programa formativo, como para enjuiciar su valor
● Básicamente la intención de estos estudios es proporcionar
conocimientos y bases valorativas para tomar y justificar decisiones
● En su forma de investigación, la evaluación establece criterios claros y
específicos que garanticen el éxito del proceso, reúne
sistemáticamente información, pruebas y testimonios de una muestra
representativa que hacen parte del programa u objeto para evaluar,
TIPOS DE EVALUACIÓN
11. ●BASADO EN OBJETIVOS (TYLER).
●MODELO SIN METAS (SCRIVEN).
●MODELO CIPP (STUFFLEBEAM).
●MODELO RESPONDIENTE (STAKE)
MODELOS DE EVALUACIÓN
12. BASADO EN OBJETIVOS (TYLER)
Comparación entre objetivos del programa y los resultados.
Paradigma empirico -analitico.
Identificar
objetivos
operativos
del programa
Seleccionar
o elaborar
instrumentos
para medir el
logro de los
objetivos
Aplicar los
instrumentos al
finalizar el
programa.
Comparar
los objetivos
con los logros
Realmente
obtenidos
13. MODELO SIN METAS (SCRIVEN)
.
Se centra en la
valoración de
efectos y
necesidades.
Paradigma
Interpretativo
Prescinde de los
objetivos del
programa.
Se preocupa por la
función formativa..
17. EVALUACIÓN PARTICIPATIVA
ACTITUD REFLEXIVA
Y TRANSFORMADORA
Apropiación del proyecto
cohesión del grupo
capacidad de autorreflexión
cambio independencia
autonomía.
respecto a asesores
externos.
Mejorar grupos e instituciones.
EL EVALUADOR SE
CONVIERTE EN
FACILITADOR DEL
APRENDIZAJE
18. EVALUACIÓN EMPOWERMENT
RESULTADOS QUE SE
ESPERAN DEL
PROGRAMA
Mejora y autodeterminación de los participantes.
IDENTIFICAR Y
PRIORIZAR LAS
ACTIVIDADES
PLANIFICAR UNA
MEJORA PARA EL
FUTURO
19. CARACTERÍSTICAS
● todo el proceso de investigación evaluativa, requiere juicios de valor sobre el
programa
● Los estudios evaluativos pertenecen a la investigaciones explicativas
contestando la pregunta del ¿Por qué?
● La investigación aplicada a la evaluación busca la relaciones entre la
variable independiente (métodos, programas, etc) con la dependiente
(resultados)
● La recolección de datos depende de la viabilidad del proceso
● El evaluador no toma las decisiones de qué hacer con el programa.
● Cuando se evalúa un programa se hace un proceso en la tomar decisiones
de problemas prácticos.
● El muestreo no puede ser aleatorio
20. Fases de la investigación Evaluativa
objetivos
Organización
administrativa
Medios Aplicación Resultados
Retroalimentación
la evaluación consiste en hacer Comparaciones entre efectos
del programa y la metas a alcanzar
21. Los Objetivos
Para crear los objetivos o metas de un programa debe pasar por distintas etapas, las cuales
permiten tener un punto de partida para iniciar la ubicación de las variables, estas etapas son: l
Diagnóstico
Justificación
Estimación de resultados
● A la hora de redactar un objetivo es necesario pensar y plasmar en el documento
¿Que se desea lograr?
● El fracaso de un programa puede darse porque los objetivos específicos no conduce al
resultado esperado.
● La creación de objetivos debe orientar y permitir la selección de indicadores, con el fin de
hacer las mediciones de los resultados.
22. Los medios y estructura administrativa
la estructura administrativa es la organización de un programa.
Es la coordinación entre las instancias con los objetivos, la
instancias son los medios instrumentales, la estructura
administrativa de un programa y la aplicación del programa.
El uno obedece a las metas a seguir y el otro a las acciones
para conseguir esas metas
Los medios son los elementos técnicos, académicos,
didácticos, entre otros que se usan en un programa académico
23. Diseños de evaluación
Diseño Experimental clásico
● Compone dos grupos Uno experiemntal y uno control
● Los sujetos son al azar
● Exigen una medición antes y una después
Diseño Con más de un grupo control
● Se emplea tres grupos (dos control y una experimental)
● Al tercer grupo no se le hace medion antes
Diseño Con un grupo control sin medición antes
● Se usa dos grupos pero a ninguno se le realiza medion
antes
Diseño
experimental
24. Diseños de evaluación
Diseño de serie de tiempo
● Se hace mediciones a las variables dependientes antes y después de la
intervención de la variable independiente
● Se puede hacer con o sin u grupo control
Con grupo de control No equivalente
● Se utiliza un grupo control que no necesariamente proviene del grupo
experimental- No hay selecciona al azar
● En ambos grupos se hace mediciones antes y después
Con grupo de control equivalente y medición después
● No dispone de mediciones antes realizas en el grupo experimental
● Se usan preguntas retroespectivas
Diseño
Cuasiexperimental:
25. Medición de los resultados
La evaluación de los resultados tiene que resolver los problemass
planteados y la elección de los criterios del programa.
Tipos de criterios
Logros
Eficiencia
Calidad
Persistencia
Impacto
26. Logros y eficiencia
● Los logros es entendido como: Medición de los
efecto producidos por el programa o las metas
propuestas para el programa
Ejemplo
Profesores capacitados
Dinero que se invierte para dotaciones
● la eficiencia es entendida como: la productividad
del programa
● Hay una relación entre los insumos y esfuerzos
con los resultados obtenidos
27. Calidad y Persistencia
● La calidad es una de los aspectos más complicados de
evaluar de forma cuantitativa.
● un instrumento más optimo para la medición de la calidad
es la percepción de los usuarios y para ello se logra a
través de entrevista.
● La persistencia: se evidencia cuando los programas
están orientados a cambios de actitud y
● Se hace un diseño longitudinal, con el fin de hacer
evaluaciones en distintas instancias.
● los resultados nunca son a corto plazo.
28. Impacto y explicación de resultados
● El impacto: Es la comparación entre las necesidades
y la importancia de los resultados obtenidos.
● Un programa puede tener éxito en los diferentes
criterios pero el impacto limitado
● Como evaluación final de un programa es necesario realizar una evaluación
externa
● No siempre cumplir con los objetivos garantiza el éxito de un programa
● Se realiza comparación con otros programas
● El evaluador debe conseguir factores que expliquen los resultados obtenidos