Weitere ähnliche Inhalte Ähnlich wie Metodología de la investigación (20) Mehr von Lizzy Komnia (9) Kürzlich hochgeladen (20) Metodología de la investigación1. Metodología General de la Investigación - Resumen
Capítulo 1: Tres aproximaciones a la ciencia. Marradi
Galileo y el método experimental
Muchos filósofos opinan que la ciencia moderna empieza a fines del siglo XVI con
Galileo. Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de
cada especie de objeto del conocimiento, separando lo que es esencial y fijó (la sustancia)
de lo que es accidental y variable.
Para Galileo la tarea de la ciencia es formular, controlar y decidir aserciones acerca de
relaciones entre las propiedades de los objetos. El científico tiene que hallar la forma
matemática que estas relaciones tienen en la naturaleza. El científico debe saber interrogar
hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó las bases del método
experimental.
En su forma ideal, un experimento se obtiene solo cuando se observan los efectos de
variaciones controladas de una propiedad llamada “operativa” en otras propiedades
llamadas “experimentales” mientras se mantienen constantes todas las otras propiedades
que podrían influir sobre la segunda. La sabiduría consiste no solo en elegir la propiedad
operativa más apropiada sino también en producir cambios perfectamente controlados en
ésta, y en bloquear todas las variaciones en las otras propiedades que se sabe o se supone
puedan influir sobre la experimental, manteniéndose efectivamente constantes.
Los objetos de muchas ciencias físicas poseen una característica que no tienen los
objetos de las ciencias sociales: son fungibles (intercambiables). Es decir, se puede dar por
sentado que los objetos del mismo tipo siempre reaccionan de la misma manera bajo las
mismas condiciones.
Límites del modo experimental
Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que
otras propiedades, no incluidas en el modelo, influyan en la propiedad experimental. Debido
a la presencia de estas innumerables propiedades, el modelo nunca se puede dar por
“cerrado”.
Los límites prácticos consisten en que no siempre es técnicamente posible controlar a la
perfección las variaciones de la propiedad operativa, y todavía es menos posible neutralizar
perfectamente la influencia de las propiedades que se deberían mantener efectivamente
constantes.
El método experimental es adecuado para investigar relaciones monocausales,
típicamente diacrónicas. No es adecuado investigar relaciones funcionales, típicamente
sincrónicas. Tampoco es adecuado para investigar sistemas complejos de relaciones
causales, cuando hay una tupida de red de interacciones entre muchas propiedades que
ejercen influencias diferentes en diferentes combinaciones.
Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no
se pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se
puede pensar que los objetos son fungibles y que se pueda estudiar un individuo y
extrapolar el resultado al resto de la sociedad.
La matriz de datos y el supuesto atomista
Es una herramienta elaborada por matemáticos del siglo XVI formado por un cruce entre
un haz de vectores paralelos horizontales y otros verticales. Tiene usos en variadas
disciplinas.
1
2. Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de
análisis estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p
propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de
propiedades.
El método de la asociación
Se podría llamar método de asociación este que sustituye al método experimental en las
ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.
El enfoque que se contrapone a la visión estándar
En la aproximación comúnmente llamada “cualitativa” conviven formas de investigación
muy diferenciadas: el único rasgo seguramente común a todas es un rasgo negativo, y es la
no adopción de que en la mayoría de los casos es un rechazo a adoptar los supuestos
fundamentales de la visión estándar de la ciencia. Más allá del rechazo, estos
investigadores muy a menudo comparten un valor en positivo: la sensibilidad hacia el aporte
cognoscitivo y los derechos humanos de los sujetos conocidos, una sensibilidad que a
veces se constituye en una verdadera “epistemología del sujeto conocido”
Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los
caminos no estándar de investigación:
a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran
atención por problemas de significado y una actitud de escucha frente a la realidad en vez
de una rígida limitación a modelos a priori.
b) fuerte dependencia del contexto
c) preferencia por los problemas micro
d) orientación marcadamente ideográfica, descriptiva e inductiva
e) preferencia por la comprensión global de “provincias delimitadas de significado”
f) el hecho de que la causación, si es contemplada, es considerada un proceso que se
reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre
instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo momento
g) gran importancia de las cualidades y capacidades del investigador y de sus
colaboradores
h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en lo
gratuito, anecdótico, etc.
____________________________________________________________________
Capítulo 2: Los debates metodológicos contemporáneos. Marradi
Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.
Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido
para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada
en el sujeto por un lado, y otra centrada en la estructura social.
La diversidad de estos enfoques y sus desacuerdos dieron lugar a debates
epistemológicos sobre el estatus científico de las ciencias sociales, y metodológicos sobre
los modelos de producir y validar el conocimiento científico en estas disciplinas.
Al calor de estas controversias se definieron dos bandos: uno bajo la mediación como
mejor medio para asegurar la cientificidad de las prácticas de investigación de las ciencias
sociales, y otro comprometido con el rechazo radical de cualquier intento de cuantificación
de la realidad social.
2
3. Estos debates cobraron actualizada en la década del 60 cuando terminaron de
popularizarse las antinomias cualitativo vs cuantitativo; explicación vs comprensión,
objetividad vs subjetividad, neutralidad vs participación; en definitiva, descripción de la
sociedad “tal cual es” vs crítica y transformación de la sociedad actual.
A partir de los 80 esta controversia epistemológica comenzó a perder fuerza. Se fue
imponiendo lo que se llamó “argumento técnico”: los métodos cuantitativos y cualitativos son
apropiados para alcanzar distintos objetivos y tratar problemas de índole diferente, y la tarea
del investigador no es apegarse estrictamente a un modelo, sino tomar decisiones
pertinentes en base al problema que se va a investigar. También es posible pensar un
problema cuyo abordaje requiere la combinación de métodos, que fue llamado
“triangulación metodológica”.
El debate intra positivista
La perspectiva generalista encontró su versión metodológica más acabada con el
positivismo. Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía
entre el objeto de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad
de tratar metodológicamente al primero igual que a la segunda. Esto venía de la mano de
un monismo metodológico, o sea, que existe un único modelo válido para todas las ciencias.
La propuesta de tomar como modelo a la física suponía que la realidad social también
estaba regida por leyes universales, susceptibles de ser descubiertas a partir de ese mismo
método científico.
Se pretendía cuantificar aspectos de la realidad social para luego poder establecer
sistemáticamente relaciones entre ellos, con el objetivo final de postular leyes generales
sobre el funcionamiento de la sociedad y de los fenómenos sociales.
A la idea de generalización se sumaban las de objetividad y externalidad: el carácter
externo y autónomo de la realidad exigía la objetividad como requisito para alcanzar
conocimiento válido.
El carácter empírico de la actividad científica, basada en la medición y el manejo de
datos como sustento de la explicación adquirió un carácter predominante a través de la
técnica de sondeo.
Popper propone una alternativa a lo antes planteado llamado falsacionismo. El habla de
un criterio de demarcación que distingue el conocimiento científico. No se interesaba tanto
en la distinción de ciencia y metafísica, su objetivo primordial era el de diferenciar la ciencia
de la pseudociencia. La pseudociencia, para Popper, es el conocimiento que se presenta
como científico pero que en realidad tiene que ver con los mitos primitivos. La ciencia sigue
un camino hipotéticodeductivo, y la característica singular del conocimiento científico es
que esta conjetura debe ser pasible de falsación, es decir, debe poder ser demostrada falsa.
La consagración del método hipotéticodeductivo como única vía válida para la
producción de conocimiento científico revitalizó la idea del monismo metodológico. Para
Popper, la ciencia se ocupa de explicaciones conformadas por sistemas de hipótesis que
han resistido las pruebas de falsación, y estas pruebas solo pueden hacerse a través de un
único y mismo método.
Estas ideas fueron tomadas como base epistemológica por parte de la sociología
académica de la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias
sociales. Las propuestas de Popper pasaron a formar parte de los manuales de
metodología de la investigación social, en donde se presentaba “el” método científico.
3
4. Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un
proceso histórico, no se trata de un producto lógicoracional que se produce en el vacío sino
de un conjunto de prácticas sociales que tienen lugar en el seno de una comunidad
científica. Su concepto clave es el paradigma. Kuhn distingue entre una etapa
preparadigmática (no hay acuerdos sobre el objeto de estudio y proliferan corrientes) y otra
etapa paradigmática (cuando un paradigma logra imponerse). Ocurrirán “crisis” (producto de
anomalías) donde la ciencia puede volver a una situación preparadigmática y
eventualmente desembocar en una revolución científica, donde se conformará un nuevo
paradigma. Kuhn (y otros) han planteado que las ciencias sociales nunca han pasado de la
etapa preparadigmática.
Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se
conoce como programa de investigación. Estos programas de investigación incluyen un
núcleo duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por
hipótesis auxiliares).
Las críticas al positivismo y los enfoques no estándar
El término hermenéutica significa interpretación, y en su sentido moderno hace
referencia a una interpretación profunda que involucra la relación compleja entre sujeto
interpretador y objeto interpretado.
La tradición hermenéutica adquiere relevancia metodológica y epistemológica para las
ciencias sociales en la medida que destacó la especificidad de su objeto de estudio, y la
consecuente necesidad de métodos propios para abordarlo, ligándose al problema de la
interpretación.
Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos
fenómenos estaban gobernados por aspectos imponderables.
Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el
cual las hermenéuticas no negaban los principios y metodologías generalizadoras de corte
positiva, y el conocimiento de los fenómenos espirituales (humanos) que requerían una
interpretación profunda y que no podían ser reducidos a leyes universales. Apareció la
distinción entre aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen
por objeto la postulación de las leyes generales basadas en procesos causales uniformes, y
aproximaciones idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de
los fenómenos cambiantes que deben ser interpretados contextualmente.
Esta tradición maduró en las ciencias sociales empíricas de Weber, un antecedente de la
perspectiva no estándar. Weber define a la sociología como una ciencia que pretende
entender la acción social, interpretándose. Pero dado que para él la acción es un
comportamiento subjetivamente significativo, promueve la comprensión como el método
adecuado para investigarla.
Desde un punto de vista instrumental y operativo, los denominados métodos cualitativos
de investigación, enmarcados en la corriente interpretativa weberiana, abrevan el método
etnográfico de la antropología clásica. Todo esto también se enmarca en la investigación
social no estándar.
Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los
casos son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso
ilumina aspectos de una teoría general). La inducción analítica pasará a ser considerada
como intrínsecamente etnográfica.
4
5. Con los trabajos de Park y Burgess la etnografía se reorienta hacia la propia sociedad.
Su mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las
otredades urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender
toda situación social desde la visión e interpretación del propio actor en interacción. El
método consiste en asumir el papel del actor y ver su mundo desde su punto de vista.
A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la
investigación no estándar. Se resignifican algunas prácticas metodológicas de la
antropología clásica y de la sociología, dándoles un fundamento teóricoepistemológico de
corte interpretativista que aparentemente no habían tenido en sus orígenes. Aquí jugaron un
papel importante los aportes de la hermenéutica, el constructivismo, la fenomenología, la
teoría crítica y otros.
La traducción interpretativa intenta dilucidar los procesos de construcción de sentido.
Schutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de
experiencia. El focaliza sus estudios sobre los procesos a través de los cuales los sujetos
producen interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las
ciencias sociales están conformadas por constructos de segundo orden, que le dan sentido
a los constructos de primer orden de los actores en la vida cotidiana.
Heredera de la fenomenología de Schutz es la etnometodología de Garfinkel. La
preocupación de este autor se orienta a la producción, legitimación, cuestionamiento y
reproducción del orden social por las actividades interpretativas de los sujetos. Desde esta
perspectiva la conducta es descrita y explicada por su referencia a consensos socialmente
compartidos. En análisis se focaliza de otorgamiento de sentido a partir de normas sociales
que dan como resultado los criterios de normalidad.
La corriente constructivista predica también la imposibilidad del conocimiento objetivo,
fundamentado en la existencia de múltiples realidades, construidas desde diferentes
perspectivas.
Desde la antropología interpretativa se propone la interpretación como alternativa a las
explicaciones causales de la cultura. Para LeviStrauss, la conducta era explicada a partir
de la estructura social y el significado era indagado en las reglas constitutivas del sistema
organizador de las acciones. Considera que la descripción densa constituye la forma
adecuada para dar cuenta del proceso de formación de sentido del sujeto.
Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método
para generar teoría a partir de los datos empíricos. La relación entre teoría y datos se
invierte: estos pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría.
Promueve una metodología fundada en la inducción, en la que un muestreo estadístico es
suplantado por el muestreo teórico. Las unidades de observación se seleccionan según
criterios formulados desde la perspectiva del investigador, y el tamaño de la muestra se
alcanza por saturación, es decir, cuando ninguna observación adicional agrega nada
relevante.
Vinculada a la escuela de Frankfurt nace la teoría crítica, donde se incorpora la
valoración política entre los elementos del proceso investigativo. Cuestionan la objetividad
del pensamiento moderno y lo interpretan en términos de su consecuencia política.
Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único,
como es la crítica epistemológica y metodológica feminista, donde se cuestiona el
esencialismo, en la medida en que este apunta a la legitimación de las relaciones de
5
6. dominación entre los géneros anclados en la biología. Esto dio lugar a nuevas categorías de
análisis como el “género”.
La reactivación del interés por la investigación cualitativa a partir de la década del 60
también implicó que gran parte del debate metodológico se traslada desde la oposición
cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4
ejes en el debate de lo intra cualitativo:
a) Criterios y objetividad, centrado en cuál es el fundamento de las interpretaciones
b) El alcance crítico o compromiso político, que lleva a una distinción ente teórica
descriptiva y prescriptiva
c) La autoridad del investigador a partir de la legitimidad de la interpretación
d) Confusión de las demandas psicológicas y epistemológicas.
Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta
de rigor y precisión, así como su incapacidad para generalizar los resultados. A partir de
esto, se instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y
criterios alternativos que fueran más adecuados para juzgar sus procedimientos y sus
productos. A pesar de todo esto, no se ha establecido un consenso en los criterios de
calidad en los estudios cualitativos. Tal vez esto se deba a que en los 90 coexisten una
multiplicidad de concepciones que tienen en común la perspectiva del sujeto, lo cual
responde a una realidad de un mundo posmoderno, múltiple y fragmentado, donde no es
posible ninguna generalización y donde coexisten diversas perspectivas. Se da el contexto
donde los límites entre los estilos cualitativos y cuantitativos se han vuelto imprecisos.
Pierre Bourdieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad
promueve la superación de las típicas antinomias epistemológicas y metodológicas de las
ciencias sociales: explicación/comprensión, subjetivo/objetivo, micro/macro, etc. Bourdieu
buscó integrar prácticas habitualmente conocidas como cualitativas con otras cuantitativas.
En los últimos años se han propuesto diversas formas de articulación o integración entre las
diferentes perspectivas metodológicas, se conoce como triangulación metodológica.
Las propuestas de superación del debate cualitativocuantitativo: la triangulación
metodológica y sus límites
Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea de
que ambos métodos son válidos y compatibles.
Denzin fue uno de los primeros responsables de la difusión de la idea de triangulación,
distinguiendo cuatro formas: de datos, de investigadores, teórica y metodológica. A su vez,
promueve una diferenciación entre triangulación intra método e inter método.
Los principales objetivos de la triangulación en las ciencias sociales son la convergencia
y la completitud, como medio de validación convergente o como modo de alcanzar una
comprensión más acabada de un mismo fenómeno, desde distintos ángulos. Por supuesto,
la idea de la triangulación también ha sido objetada.
De todos los tipos de triangulación, la metodología es probablemente la que ha adquirido
mayor difusión y popularidad, al punto de que se han acuñado nuevas expresiones para dar
cuenta de ella. Esta implica el uso conjunto de dos o más métodos para abordar un mismo
problema o problemas diferentes pero estrechamente relacionados. El principal argumento
a su favor es que de este modo se aumenta la confianza en los resultados.
____________________________________________________________________
6
7. Capítulo 3: Método, metodología, técnicas. Marradi
Al término método se le atribuyen significados diferentes. Una de ellas es que el método es
el camino para conseguir un fin. En el lenguaje científico encontramos método como
procedimiento, técnica.
La visión científica del método
Descartes proclama el papel central del método en la actividad intelectual, señalado
también por Francis Bacon.
La idea de un programa que establece con anticipación una serie no modificable de
operaciones que, de ser practicadas, garantizan el conocimiento científico sobre cualquier
argumento, es todavía hoy uno de los significados que prevalece a la expresión “método
científico”.
Una descripción puntual del método hipotético deductivo es la siguiente:
1. Se define el problema
2. El problema se formula en los términos de un particular cuadro teórico
3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados
4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la
hipótesis
5. Se recolectan los datos
6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada
Críticas a la visión clásica
No todos están de acuerdo. Dalton presume que el método científico es la única vía
hacia el conocimiento; sin embargo Becker se pregunta si el método afronta realmente todo
el espectro de cuestiones metodológicas relevantes. Mokrzycki sostiene que el método
científico está fuera de la sociología. Las diferentes reacciones están relacionadas con un
período, en donde la orientación científica dominaba en las ciencias sociales: se sostenía no
solo que la ciencia tiene un solo método, sino que se trata de un método santificado por los
éxitos de las ciencias físicas. En los años siguientes, esta idea de unidad del método ha
sido criticada.
Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,
identificada como el método científico, se ratifique y se vuelva un fin en si. SI el criterio es el
respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación
científica.
Son muchos los que se refieren al método como una elección. Es en la toma de
decisiones donde consiste la investigación científica. El método es, por lo tanto, mucho más
complejo que una simple secuencia unidimensional de pasos.
Método y metodología
El uso de método/métodos en el sentido de técnica/técnicas ha sido y es endémico en
las disciplinas más orientadas a la investigación empírica, que están más frecuentemente
en contacto con instrumentos operativos. Los métodos son “más nobles y generales” que
las técnicas.
Se ha hablado de la indebida expansión semántica del término método, pero un abuso
todavía más grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el
sentido de “discurso sobre”, por lo tanto, metodología debería ser el discurso, estudio,
reflexión sobre el método. En la investigación social norteamericana se ha generado la
costumbre de llamar “methodology” a la técnica.
7
8. Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva.
La contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los
dos significados que el término metodología tiene en el lenguaje corriente de la
investigación social, significado que corresponde a los dos roles del metodólogo profesional.
Cuando estudia y enseña, un metodólogo debe tener una orientación descriptiva, es decir,
debe estar abierto a aprender de las experiencias de otros investigadores evaluándose sin
preconceptos, y dispuesto a referir en modo sistemático y sintético aquello que ha
aprendido. Cuanto utiliza sus propias competencias, capacidad y experiencia al servicio de
una investigación, suya o de otros, el metodólogo no puede ser otra cosa que prescriptivo,
en cuanto que debe elegir los instrumentos a utilizar y como utilizarlos.
Las técnicas
También deriva del griego. Designa una capacidad artística, no aquella individual e
irrepetible, sino aquella más doméstica del artesano, transmisible de padre a hijo. En un
segundo significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre
la realidad para modificar algunos aspectos de ésta. En un tercer significado, es una ciencia
la que se sirve de técnicas para conocer mejor algún aspecto de su objeto
Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de
diversas ciencias. Son los procedimientos específicos empleados en una ciencia, o por un
particular género de investigación. El adiestramiento científico tiene que ver en gran medida
con la adquisición del dominio de las técnicas.
La tarea del investigador/metodólogo consiste en escoger el camino, teniendo en cuenta
la naturaleza de los senderos presentes en el terreno, el tiempo y los recursos disponibles.
Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a
aplicar, en la capacidad de modificar técnicas existentes, adaptándolas a los problemas
propios y de imaginar técnicas nuevas. Una vez que un procedimiento nuevo, o una
modificación de un procedimiento, han sido ideados y son codificados y difundidos, estos se
ratifican y se convierten en una técnica a disposición de la comunidad de investigadores: no
ya en una capacidad privada sino en un objeto público.
Los resultados de una investigación dependen de las elecciones que el
investigador/metodólogo ha realizado. Es por este motivo que el informe de investigación
debe tener dedicada una amplia sección para comentar las elecciones realizadas,
evaluando sus impactos sobre los resultados (lo cual generalmente no ocurre). Como
determinantes de esta situación, convergen varios factores:
● El objetivismo del investigador
● El hecho de que buena parte del público se comporta como si estuviera leyendo una
novela y no se interesan por los detalles de la investigación
● Las casas editoriales también se comportan como los lectores del punto anterior.
Los autores confinan el informe metodológico a un apéndice.
Epistemología y gnoseología
En lo que respecta a la relación entre metodología (y método) y epistemología, existe un
consenso general sobre el hecho de que la metodología ocupa la porción central de un
continuum analítico crítico entre el análisis de los postulados epistemológicos que hacen
posible el conocimiento social y la elaboración de técnicas de investigación. Ocuparse de
metodología es encontrarse en una continua tensión dialéctica entre los polos de este
continuum, porque si la metodología abandona su lado epistemológico se reduce a una
8
9. tecnología o una práctica que ya no controla intelectualmente. Si abandona el lado técnico,
se transforma en una pura reflexión filosófica sobre las ciencias sociales, incapaz de incidir
sobre las actividades de investigación.
Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino
también la gnoseología, la cual reflexiona sobre los fines, condiciones y límites del
conocimiento. Esta gnoseología es frecuentemente olvidada, las razones pueden ser dos:
una lingüística y otra sustancial. El término “gnoseology” no existe en inglés, así que no
aparece en la literatura anglosajona, aquí se usa “epistemology” para designar la filosofía
del conocimiento (gnoseología) y “philosophy of science” para lo que nosotros llamamos
epistemología.
El segundo motivo puede derivar de que todos los intentos de dar un fundamento de
certeza al conocimiento científico ha fracaso frente a la constatación, inevitable en
gnoseología, de que no puede haber nexos rígidos entre la esfera de los referentes (la
realidad), la esfera del pensamiento y la esfera del lenguaje.
____________________________________________________________________
Capítulo 5: el diseño de la investigación. Marradi
Introducción
Vamos a utilizar el término de investigación en un sentido realmente amplio. La
investigación es un proceso sistemático y organizado por medio del cual se busca descubrir,
interpretar o revisar ciertos hechos, y cuyo producto es un mayor conocimiento de éstos.
En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y
con distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en
particular al conjunto de decisiones y actividades orientadas a establecer relaciones
causales entre distintos aspectos de la realidad bajo estudio o, al menos, al control empírico
(e impersonal) de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto
tipo de relación entre determinados aspectos de ésta. La investigación es un proceso que
involucra conjunto de decisiones y prácticas por los cuales conocemos algunas situaciones
de interés, cuya definición y delimitación forma parte de las decisiones apenas aludidas.
Debe quedar claro que hablamos de investigaciones empíricas, o sea, aquellas que tienen
algún tipo de relación observacional con la situación de interés.
La relación observacional puede reducirse únicamente al empleo de una técnica de
observación en particular. Entre las muchas decisiones que se toman en una investigación,
también está la de definir cuáles son las mejores herramientas técnicas (por ejemplo, de
observación) de acuerdo con los objetivos cognitivos que se hayan planteado.
Que el proceso este atravesado por decisiones y operaciones que dependen en gran
medida del conocimiento tácito no significa que sea totalmente caótico, desordenado o
imprevisible. Por el contrario, este proceso puede ser diseñado y planificado y, entre otras
cosas, esto será un modo de hacerlo más controlable en la medida que exigirá un esfuerzo
por explicitar de modo anticipado las distintas decisiones involucradas en el mismo. Según
el diccionario, un diseño es una descripción o bosquejo, un proyecto o plan.
Características del diseño de la investigación
El diseño es una representación modélica y abstracta de cómo será, es esquemático. En
la investigación empírica, esta anticipación en abstracto de las decisiones que se van a
tomar durante su curso también puede variar, y tal variación se dará en función del grado de
9
10. detalle y explicitación que las decisiones teóricas y metodológicas adquieran antes de
establecer algún tipo de contacto observacional con los fenómenos de interés.
Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por
definición no es posible una actividad de investigación no diseñada; lo que pueden existir
son dos actividades de investigación con distintos grados o niveles de diseño. La segunda
es que desde el punto de vista del grado de detalle del diseño de la investigación no se
puede pensar en tipos cerrados sino en un continuum de diseños posibles.
Podemos identificar dos polos en una investigación: por un lado una que está
absolutamente planificada de antemano y otro totalmente opuesto donde no está nada
planificado. Estos dos polos son los llamados “tipos ideales”, pero en la práctica se dan las
situaciones entre esos dos polos, lo que se plantea la idea del “diseño flexible”, los cuales
pueden ser más o menos estructurados según el grado de detalle que adquiera la
planificación previa. Se asume que existe un conjunto de decisiones en cualquier tipo de
investigación, este “mínimo” de diseño implica decisiones que se pueden agrupar en cuatro
grandes conjuntos:
● Relativas a la construcción del objeto
● Decisiones relativas a la selección
● Relativas a la recolección
● Relativas al análisis
Si bien todas están presentes de un modo u otro en el diseño de la investigación,
adquieren diferentes características en cada caso particular.
Por lo general, las investigaciones llamadas cuantitativas requieren de diseños más
estructurados, mientras que las cualitativas se prestan a diseños más flexibles.
La elección de un tema, delimitaciones del problema y su operativización
La primera y fundamental cuestión en un diseño de investigación es la delimitación de un
problema de investigación. Valles dice que la formulación del problema es un proceso de
elaboración que va desde la idea (propia o ajena) hasta la conversión de dicha idea en un
problema investigable. Esas ideas iniciales pueden concebirse como temas de investigación
que se relacionan con determinados recortes de la realidad propios de la estructura y del
estado de desarrollo de la disciplina científica dentro de la cual se inscribe el investigador
y/o de lo que habitualmente se conoce como “agenda de investigación”.
Hay grandes temas que no son directamente investigables, entre otras cosas por su
grado de abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a
convertirse en un problema de investigación, o sea, dar lugar a preguntas específicas que
se puedan abordar empíricamente. Un problema se define y construye a partir de un tema
más amplio. Esta definición implica fundamentalmente un movimiento progresivo desde lo
abstracto y general del tema hacia lo concreto y específico del problema. Pero el problema
no surge espontáneamente. El proceso de construcción, en cambio, puede ser
extremadamente complejo y no lineal, e implica la puesta en juego tanto de saberes tácitos
como de la experiencia; no hay una técnica para la formulación de problemas de
investigación. Este proceso es posible a partir de un conjunto de prácticas que se conocen
como indagaciones preliminares. Con esta expresión se suele aludir a las lecturas más bien
generales que permiten ir conquistando familiaridad con un tema, pero también se podría
pensar en otras modalidades de indagación como por ejemplo entrevistas con referentes en
la materia. Al plantearlas, se empieza a dar forma al problema de investigación. Pero las
10
11. indagaciones en torno de este no cesan, sino que son cada vez más focalizadas,
constituyendo lo que se define como estado de la cuestión.
El investigador debe hacer un análisis de los antecedentes, generando un estado de
conocimiento sobre el problema en cuestión. No solo se deben conocer las investigaciones
previas que puedan existir, sino además generar un diálogo crítico hacia ellas.
La delimitación de un problema conlleva a la formulación de objetivos de la investigación.
Entre el problema y los objetivos existe una relación lógica de mutua implicación; solo que si
los problemas se plantean en una forma de interrogantes, los objetivos se expresan en
cambio por medio de proposiciones. Los objetivos son aquellos objetivos “cognitivos”, o sea,
aquellos orientados a acrecentar un conocimiento. Los objetivos se clasifican como
generales y específicos, siendo los últimos aquellos que se derivan lógicamente de los
primeros y cuyo cumplimiento concurre al logro de ellos.
Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los
objetivos, resulta necesario desentrañar el problema de investigación y analizar todas sus
consecuencias en términos de una posible respuesta empíricamente construida. Desde
cierto punto de vista, se puede afirmar que siempre existirá algún tipo de supuesto acerca
de lo que se investiga, son inherentes al planteo de la pregunta. Estos supuesto no siempre
adquieren un grado de articulación tal de poder plantearse como hipótesis. Autores afirman
que las hipótesis pueden ser el resultado de una investigación más que su disparador
inicial. En otras ocasiones, ellas no se hacen explícitas desde un principio e igualmente
guían. Sin embargo, cuando el objetivo del estudio implique la contratación de hipótesis,
estas deberían estar precisamente formuladas, especulando sobre la naturaleza y la forma
de una relación. Hay autores que sostienen que los modos más comunes en que aparecen
las hipótesis en el trabajo científico son cuatro:
1) Declaraciones condicionales
2) Funciones matemáticas
3) Declaraciones continuas
4) Declaraciones diferenciales
Independientemente del grado de formulación de la hipótesis, se otorga al problema el lugar
central y la función rectora de la investigación. No podemos no contar con preguntas.
Para hacer operativo un problema de investigación, se lo puede pensar como la
explicitación del interés del investigador por conocer algo de alguien. Ese “algo” o “que” que
se quiere conocer se expresa a través de las propiedades conceptuales (y sus relaciones)
cristalizadas verbalmente en las preguntas que guían la investigación. Por otra parte, ese
“algo” se refiere siempre a “alguien”, un “quién” que está temporal y espacialmente situado y
que técnicamente se denomina unidad de análisis.
Con respecto al “algo” de interés deberemos comenzar por su conceptualización. Se
trata de dar definiciones precisas de qué se entiende en el contexto de la investigación por
aquellos términos clave que se expresan verbalmente en el foco de nuestra atención,
definiciones que en su conjunto conformarán un marco conceptual.
Habitualmente, las definiciones conceptuales son muy abstractas, las cuales se deberán
seleccionar a través de un proceso de operativización, o sea, debemos llevar al plano de lo
observable ese “algo” abstracto y luego elegir las herramientas adecuadas para observar.
Estas operaciones se basaran en un conjunto de decisiones que hemos denominado “de
recolección”.
11
12. También se deberá operativizar la unidad de análisis, el “alguien” de interés. En primer
lugar, dando una definición conceptual clara, esto implica dar criterios de inclusión y
exclusión, estos criterios serán categoriales, temporales y especiales (por ejemplo, si
estudiamos adolescentes, una definición de unidad de análisis podría determinar los límites
de edad para considerar una persona adolescente, etc.). Parte del diseño de investigación
consistirá en la construcción de una muestra, que según el tipo de estudio va a seguir
distintos criterios y asumirá diferentes características. Es crucial esta elección.
Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo
de campo.
Formalización del diseño: el proyecto de investigación
Como sostiene Samaja, el objetivo central de la fase formativa es construir
escrituralmente el objeto su versión global. Esta versión escrita y formal deberá seguir las
pautas implicadas en el proceso orientado a su gestión y control.
____________________________________________________________________
La Construcción del Objeto. Bourdieu
El hecho se construye: las reformas de la renuncia empirista
“El punto de vista crea el objeto” dice Saussure. Es decir, una ciencia no podría definirse
por un sector de lo real que le corresponda como propio. El todo, tal como aparece en la
mente, es un producto de ella misma que piensa y se apropia del mundo. El sujeto, antes
como después, mantiene su autonomía fuera de la mente.
La ciencia se organiza en torno a objetos constituidos que nada tienen en común con
aquellas unidades delimitadas de la percepción ingenua. La epistemología empirista
concibe las relaciones entre ciencias vecinas, como psicología y sociología, como conflictos
de límites, porque se imagina la división científica del trabajo como división real de lo real. El
posible ver en el principio Durkheimiano según el cual “hay que considerar los hechos
sociales como cosas” el equivalente a lo que dijo Galileo que habla de la física moderna
como sistema de relaciones cuantificables.
Hay una importante distinción entre objeto “real” preconstruido por la percepción y
objeto científico, como sistema de relaciones expresamente construido. Según lo ya dicho,
si se abandona la investigación científica, o solo se multiplican los criterios tomados de la
experiencia común, entonces el objeto permanece como “objeto común” y no adquiere la
dignidad de “objeto científico”.
Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y
construido sino en función de una problemática teórica que permita someter a un
sistemático examen todos los aspectos de la realidad puestos en relación por los problemas
que le son planteados.
Las abdicaciones del empirismo
Se puede definir al proceso científico como diálogo entre hipótesis y experiencia, donde
ambos socios asumirán roles simétricos e intercambiables, sin olvidarse que lo real nunca
tiene la iniciativa sino hasta cuando se lo interroga. Bachelard sostiene que el “vector
epistemológico” va de lo racional a lo real y no a la inversa. La teoría domina al trabajo
experimental, desde la partida hasta las últimas concepciones del laboratorio. Sin teoría no
seríamos capaz de realizar ningún tipo de comprobación.
12
13. La vigilancia epistemológica exige una explicitación metódica de las problemáticas y
principios de construcción del objeto que están comprendidas tanto en el material como en
el nuevo tratamiento que se le aplica. Si no se tiene en cuenta esos preliminares
epistemológicos, se está expuesto a considerar de modo diferente lo idéntico y a la inversa,
a comparar lo incomparable, etc.
Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando
la frase de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de
sus informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las
prenociones de los informantes. Obligarse a mantener aquellos elementos creados en
realidad por una indagación que se desconoce, es la manera más sencilla de negar que la
comprobación supone construcción.
Hipótesis o supuestos
Cualquier práctica científica responde a supuestos teóricos, siempre con miras a una
prueba experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como las
prenociones.
Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal
empirista del registro sin supuestos, aunque más no fuera por el hecho de que utiliza
instrumentos y técnicas de registro. La medida y los instrumentos de medición, y en general
todas las operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad
de procedimientos de construcción, conscientes o inconscientes, de los hechos y de las
relaciones entre los hechos.
La falsa neutralidad de las técnicas: objeto construido o artefacto
La ilusión de que las operaciones axiológicamente neutras son también
epistemológicamente neutras limita la crítica del trabajo. Esta discusión sobre neutralidad
sustituye la discusión epistemológica sobre la “neutralidad metodológica” de las técnicas, y
por esta razón, proporciona una nueva garantía de la ilusión óptica positivista.
Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las
propias interrogantes no permitirá hacer un análisis verdaderamente neutral de las
respuestas que provoca.
El cuestionario más cerrado no garantiza la unicidad de las respuestas solo por el hecho
de que se someta todos los sujetos a preguntas formalmente idénticas. Suponer que una
misma pregunta tiene sentido para sujetos sociales distanciados por diferencias de cultura
pero unidos por pertenecer a una clase, es desconocer que las diferentes lenguas no
difieren solo por la extensión de su léxico o su grado de abstracción sino por la temática y
problemática que transmiten.
La analogía y la construcción de la hipótesis
Para poder construir un objeto, hay que ser consciente de que todo objeto científico se
construye deliberadamente y metódicamente y es preciso saber todo ello para preguntarse
sobre las técnicas de construcción de problemas planteados al objeto. Una metodología que
no se plantee el problema de la construcción de las hipótesis que se deben demostrar no
puede dar ideas nuevas y fecundas.
Contra el positivismo que pretende conducir a una formulación automática de hipótesis,
una hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado
teórico que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no
podía legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y
a las imágenes ingenuas o cultas de los hechos.
13
14. Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los
hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura
especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los
condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba
explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que
todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado
más que si se utiliza con conocimiento de causa. El tipo ideal como “guía para la
construcción de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y
la acción es comparada y medida”, una construcción concebida para confrontarse con lo
real. El tipo ideal permite medir la realidad porque se mide con ella y se determina al
determinar la distancia que lo separa de lo real.
El razonamiento como pasaje de los límites constituye una técnica irremplazable le de
construcción de hipótesis. El arte de la búsqueda debe limitarse a proporcionar las técnicas
de pensamiento que permitan conducir el trabajo de construcción de la hipótesis al mismo
tiempo que disminuir los problemas inherentes
Modelo y teoría
Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las
relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden
provocar nuevas analogías, nuevos principios de construcción de objeto. Es este el
procedimiento que le confiere su fecundidad, es decir, su poder de generalización.
____________________________________________________________________
Capítulo 6: Conceptos de objeto y unidad de análisis. Población y muestra.
Marradi
Objeto y unidad de análisis
La matriz tiene una gran importancia en el “método de la asociación”, son las llamadas
“matrices de datos”, que es un cruce entre vectores horizontales y verticales, donde los
horizontales son objetos y los verticales son propiedades de estos objetos.
El término se entiende en un sentido gnoseológico, como posible objeto del pensamiento
(cualquier cosa en la que se piense). Los objetos en una matriz de datos pueden ser los
individuos.
El tipo de objeto acerca del cual se buscan informaciones en una investigación se llama
“unidad de análisis”. En una investigación se debe definir no solo la unidad, sino también el
ámbito espaciotemporal que interese.
Población y muestra
Una vez determinada la unidad de análisis y el ámbito espaciotemporal, el conjunto de
los ejemplares de esa unidad que se encuentran en dicho ámbito es llamado población.
Cada ejemplar de esta población puede devenir en un caso. Esto es una fila de la matriz.
Se presenta el problema de elegir un pequeño subconjunto de esta población para
investigarlos, esto se aborda con una herramienta clásica de las ciencias sociales: el
muestreo.
Un amuestra es cualquier subconjunto de miembros de una población que se investiga
con el fin de extender a toda la población las conclusiones resultantes del análisis de las
informaciones relativas al subconjunto. Esta extrapolación (de los resultados del análisis) de
14
15. la muestra a la población entera es llamada “inferencia estadística” y tiene reglas precisas
que veremos pronto.
Muestras aleatorias y no aleatorias
Una muestra se dice aleatoria cuando todos los miembros de la población tienen la
misma posibilidad de ser extraídos y entrar en la muestra. La naturaleza aleatoria de una
muestra depende integralmente del procedimiento de extracción y no tiene nada que ver
con el resultado.
Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una
población tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando
cada miembro de la población tiene la misma probabilidad conocida y no nula de ser
extraído. Pero esta distinción ofrende una cobertura científica a procedimientos que tienen
poco que ver con la ciencia y mucho con los presupuestos de quien hace el sondeo.
Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar
su obvia consecuencia (subrepresentación de todas las áreas periféricas) con otro
procedimiento discutible: la ponderación.
Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o
se niegan a ser entrevistados, esto también afecta el concepto de extracción aleatoria,
haciendo que una muestra perfectamente aleatoria se vuelva casi siempre no aleatoria, por
ejemplo, seguro atenderán más el teléfono las amas de casa, los desempleados y los
jóvenes que otro tipo de sujetos.
¿Representativo de qué?
Para juzgar si una muestra es representativa debemos mirar el resultado,
independientemente del procedimiento con el que haya sido extraída.
Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma
probabilidad de entrar en la muestra para todos los miembros de la población), para juzgar
si es representativa debemos recurrir a consideraciones difusas y subjetivas. La difusión y
subjetividad caracterizan todo el campo semántico de la representatividad.
1. La representatividad tiene que ser controlada y eventualmente afirmada por cada
propiedad por separado
2. Debido a que la representatividad se evalúa comparando la distribución de una propiedad
en la muestra con la distribución de la misma propiedad en la población, únicamente se
puede evaluar para las propiedades cuya distribución en la población es conocida, es decir,
solo para las propiedades que se relevan con un censo poblacional
3. La frase “esta muestra es representativa” no tiene sentido si no se le agrega “en lo que
concierne a las propiedades x, y z”.
Se puede afirmar que la extracción aleatoria no da ninguna garantía absoluta de que la
distribución de una propiedad cualquiera en la muestra sea representativa de la distribución
de la misma propiedad en la población. Solo da:
● Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas dos
distribuciones) no sean introducidos por el investigador, sino producidos al azar.
● Una garantía razonable de que estos sesgos sean de magnitud limitada.
Como garantizar una (limitada) representatividad de una muestra aleatoria
¿No hay ninguna manera de asegurar algo más que esta garantía negativa con una
muestra aleatoria? Si la hay, pero con respecto a un número limitado de propiedades, bajo
algunas condiciones, y solo con un tipo particular de extracción dominada sistemática.
15
16. ____________________________________________________________________
Capítulo 7: Conceptos de propiedades. Variables, fidelidad y fiabilidad
La definición operativa
En las columnas de una matriz de datos se encuentran las variables. Una variable es un
vector de signos que representan los estados de los casos en las propiedades que
interesan. Habitualmente, pero no necesariamente, estos signos son números.
Solo se puede hablar de una matriz de datos si todos los números (y más generalmente,
los signos) que se ven son interpretativos, es decir, son datos.
Para poner información en celdas necesitamos una convención que relacione “algo” con
un número. Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de
estudio, un plan de codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria,
3 licenciada, etc.
El plan de codificación es parte de un conjunto de reglas y convenciones que permiten
convenir una propiedad de los objetos o sujetos en la realidad en una variable en la matriz
de datos. Este conjunto se llama “definición operativa” y las partes que lo integran varían
según la naturaleza de la propiedad. La variación más considerable está vinculada al tipo de
unidad de análisis, y por consiguiente al tipo de técnica de recolección.
Si queremos recoger información del título de estudio, la definición operativa incluye
a) El texto de la pregunta relativa (¿Cuál es su título de estudio?)
b) Un plan de codificación como el ya visto
c) El hecho de que este plan sea directamente planteado al entrevistado pidiendo que elija
una respuesta, o solo sea empleado como una lista de voces a las cuales atribuir las
respuestas espontáneas de cada entrevistado a la pregunta relativa.
d) La indicación del vectorcolumna en que se deben poner las informaciones acerca del
título de cada entrevistadoinformaciones que se convirtieron en datos representando cada
una de ellas con el correspondiente número del plan de codificación.
e) Insertar un procedimiento con el que se controlará la sinceridad de las declaraciones de
los entrevistados.
Una definición operativa es el conjunto de todas las operaciones, intelectuales y
materiales, que permitan pasar de estados reales a números que representan esos estados
en la matriz, debemos concluir que, junto con las reglas y convenciones específicas de la
propiedad en cuestión, una definición operativa incluye las reglas y convenciones más
generales y comunes a todas las propiedades que se indaguen en esa investigación
específica y en todas aquellas análogas.
La fidelidad de los datos
Un dato tiene escasa fidelidad si no representa correctamente el correspondiente estado
en la propiedad según las convenciones de la definición operativa. Una causa de esto, por
ejemplo, son declaraciones mentirosas.
Los investigadores saben que los entrevistados tienden a declarar como propias las
opiniones que creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido
como “deseabilidad social”, y es tan difundido que hace poco fiables los resultados de
encuestas sobre opiniones realizadas con preguntas sencillas y directas, ya que es fácil
para el entrevistado imaginar cual sea la respuesta convencional, y por lo tanto, socialmente
deseable.
Además pueden dar involuntariamente informaciones que generan datos no fidedignos.
Por ejemplo que no entiendan bien la pregunta, mala memoria, etc.
16
17. El entrevistado no es la única fuente no fidedigna de un sondeo. El entrevistador, por
ejemplo, puede leer mal alguna pregunta, o alguna respuesta del plan de codificación
pueden influir en las respuestas del entrevistado. Pueden haber faltas en la trascripción de
lo que se dijo por el entrevistado, etc.
Para controlar la fidelidad
Dada que la escasez de fidelidad empeora la calidad y reduce la credibilidad de una
investigación, se debería dedicar mucha más atención al control de la fidelidad.
El más simple es una inspección de las distribuciones de frecuencia de cada variable, o
sea, cuántos datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto
nos permite tomar contacto con los datos que hemos recogido, además, nos permite
descubrir si algunos datos tienen códigos que no estaban previstos en la codificación.
Este análisis de distribuciones se llama “control de códigos locos”.
Otro dato es corroborar si las combinaciones de categorías son social o jurídicamente
imposibles en una sociedad dada. Esto se llama control de coherencia.
Todas las otras formas de control se aplican confrontando los datos con informaciones
que se encuentran fuera de la matriz.
Los coeficientes de fiabilidad: una crítica
Se describe el detalle de su aplicación
a) Para medir la fiabilidad de un test se aplica en una cierto día a una muestra de sujetos
b) Se registran las respuestas a las preguntas y se le atribuye un puntaje a cada respuesta
c) A cada sujeto se le atribuye la suma o el promedio de sus puntajes, y esa cifra, siendo el
resultado global de cada individuo en el test, se pone en un vectorcolumna
d) Después de algún tiempo se repite la fase a con los mismos sujetos, mismas preguntas.
e) Se repite la atribución de puntaje y se ponen las cifras en otro vectorcolumna
f) Se calcula el coeficiente de correlación entre ambos vectores
g) Esta cifra es llamada “coeficiente de correlación testretest”. Se considera una medida de
fiabilidad
Muchos psicólogos han expresado varias críticas a esto
a) En el intervalo de tiempo entre test y retest, el estado de algunos sujetos en la propiedad
investigada puede cambiar, o cambiar la conducta del investigador al aplicar el test b) La
primera suministración puede cambiar artificialmente el estado del sujeto en la propiedad, y
esto en varias formas
a) El sujeto puede recordar las respuesta que dio antes y repetirlas para ser coherente
b) Si el test concierne a cualquier forma de habilidad, la primera suministración puede
actuar como entrenamiento, entonces la prestación de algunos sujetos mejora en el retest.
c) La primera puede acrecentar el interés de algunos sujetos hacia los problemas
investigados y eso los hace investigar, reflexionar, etc.
d) Pueden haber otros efectos como acostumbramiento, desencanto, etc.
Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería
determinante si ambos resultados cambian.
Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas
o pruebas, formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos
vectores deseados se producían sumando ambos puntajes. SI la correlación resultaba alta,
eso confirmaba el supuesto de equivalencia de los dos tests y simultáneamente la fiabilidad
de uno con el otro.
17
18. Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores
deseados simplemente sumando por separado los puntajes conseguidos por un sujeto en
las preguntas que tienen un número par en la secuencia del test y en los que tienen un
número impar. El coeficiente de correlación así producido fue bautizado “subdivisión a la
mitad”
Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar
con las respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por
quitarse un peso de encima. Esto se conoce como “respuesta self”.
Un progreso técnico se produjo a finales de los 30 que se propuso el “coeficiente alfa”
aplicable a toda batería.
Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está
vinculada a los test en sus laboratorios, es decir, baterías de preguntas o pruebas de
formato igual. No es aplicable a ninguna de las otras herramientas que se usan en un
sondeo. Además, asignar un coeficiente de fiabilidad de un test como si fuera un atributo
permanente lleva a una falla de conceptos y además roza un problema de generalizabilidad.
No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones.
Esto parece obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un
grupo son transferidos a todos los otros grupos sin cuestionamiento.
La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le
aplica el test para calcular su coeficiente de fiabilidad:
a) Cada sujeto tiene una manera particular de reaccionar ante las preguntas
b) Cada pregunta o prueba tiene su particular nivel de inteligencia, agrado y aceptabilidad
c) La reacción de cada sujeto no es estable, puede variar con cada situación
Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se
siguen volviendo más técnicos con los años y más alejados de la realidad.
¿Las definiciones operativas registran o manipulan opiniones y actitudes?
Hemos visto que limitándose al análisis de datos de la matriz y olvidando mirar afuera, se
pueden lograr coeficientes de fiabilidad tranquilizadores que, sin embargo, no tienen
ninguna relación con las situaciones reales.
Esta manera de proceder no es problema de la matriz, sino de quienes la usan. La matriz
es un instrumento neutro, que se puede usar para descubrir indicaciones significativas
sobre situaciones reales.
____________________________________________________________________
Capítulo 8: clasificación, conteo, medición, construcción de escalas. Marradi
Algunas propiedades, sean de objetos o de personas, tienen un número finito de
estados, claramente distintos y distinguibles uno del otro, en una palabra, son discretos.
Discretas se le llaman a las propiedades que tienen estos estados discretos. Las
propiedades que tienen un número infinito de estados son llamadas “continuas”.
La distinción entre discreto y continuo es lo más importante al momento de recolectar
información y transformarla en datos por medio de una definición operativa.
Las discretas se dividen en tres clases según el tipo de relación que hay entre sus
estados.
● Categoriales: si los estados son solo diferentes, pero no hay ningún tipo de relación
cuantitativa entre ellos.
18
19. ● Ordinales: si los estados tienen relaciones ordinales (de mayor y menor) se pueden
ordenar a lo largo de una escala.
● Cardinales: si tienen relaciones cardinales, en el sentido de que se puede
legítimamente establecer un cociente entre ellos.
Las continuas se dividen en dos clases:
● Mensurables: si sus estados se pueden registrar sin intervención activa del individuo
cuyo estado se está registrando
● Continuas no mensurables: si la intervención debe ser activa
Propiedades y variables categoriales
En la realidad hay una gran variedad de estados en las propiedades, se debe decidir qué
estados se convertirán en categorías de la variable que va a representar la propiedad de la
matriz. Se necesitará intervención de expertos para resolver estas situaciones, inclusive
cuando la transformación de estados en categorías parece simple y automática.
Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los
principios de una operación intelectual (la clasificación). Esta operación se puede llevar a
cabo en abstracto, considerando las diversas formas que puede tomar un objeto o evento
(por ejemplo, los múltiples estados que puede concebir una propiedad).
El criterio que se sigue para dividir la intensión de un concepto o para agrupar
ejemplares tiene el nombre de “fundamentum divisionis”. Un ejemplo es dividir un grupo por
el color del pelo (morocho, rubio, etc).
Si se adoptan 2 o más criterios (morochos hombres o mujeres, rubios hombres o
mujeres) la operación se llama “tipología”.
Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la
mutua exclusividad vale tanto para tipologías como para clasificaciones.
Otro requisito de la clasificación es la exhaustividad de las categorías: todos los estados
posibles deben estar asignados a una categoría. Como esto no es posible, muchas veces
se prevé la categoría “otro” donde finalizan todos los estados no previstos. Que nada tiene
que ver con una categoría de “no contesta” o “no sabe”.
Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que
han sido formuladas con un lenguaje lejano al del entrevistado. Una cuota demasiado alta
de “no contesta” puede significar que algunas preguntas tocan temas delicados o privados.
Una cuota muy alta de “otro” significa que la clasificación puede haber sido realizada de
manera superficial.
Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es
decir, sometiendo preliminarmente el cuestionario a algunos miembros de la población a
examinar. Reflexionando sobre estos resultados, se pueden obtener mejoras. Estas
pruebas piloto a veces se ejecutan solo como “ritual” y antes del sondeo, donde no hay
tiempo para analizar nada.
Otro problema es la división de fundamentum divisionis, o sea, la forma en que se
establecen las categorías (que debe ser relevante para nuestros intereses). Se aconseja
siempre el máximo detalle cada vez que las informaciones sean recogidas sin interacción
oral con un sujeto. Un detalle mucho menor (pocas categorías y claramente distintas) si el
sujeto tiene que escuchar las alternativas y elegir una sin poder apoyarse en un texto
escrito. SI la entrevista es telefónica, se aconseja limitarse a dicotomías (si/no) o a
propiedades sencillas.
19
20. Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más
importante en la transformación de la propiedad categorial en una variable categorial. Aquí
hay que evitar el problema de algunos traten estos aparentes números de las categorías en
sentido estricto y los analicen.
Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este
siendo analizado con técnicas estadísticas, una categoría cambia de nombre y se llama
“modalidad”. Con la expresión “frecuencia de una modalidad” se entiende el número de
datos a los cuales se atribuyó aquella modalidad. La modalidad con la frecuencia más alta
se llama “moda” (o modo) y esto en todos los tipos de variables.
El primer paso de análisis de una variable categorial es la producción de su distribución
de frecuencia, es decir, una tabla que tiene habitualmente tres columnas: código, nombre de
la categoría/modalidad, frecuencia (absoluta) y en la última el porcentaje correspondiente
(frecuencia relativa).
La inspección visual de sus distribuciones de frecuencia es la forma preliminar de
análisis de variables categoriales. Ella permite tomar contacto con los datos recolectados.
Puede señalar la presencia de errores en la codificación, si en la distribución aparecen
códigos que no se habían visto previstos en nuestro plan. Ella señala también el
desequilibrio en las frecuencias (modalidades con un número demasiado alto o bajo), que
pueden también indicar errores en la codificación y que de todas formas provocan
problemas en algunos tipos de análisis estadísticos.
Una vez realizado este paso preliminar, una variable categorial está casi lista para ser
puesta en relación con otras variables categoriales u ordinales mediante una tabla
bivariable, o con variables cardinales mediante el análisis de la varianza. Se dijo “casi lista”
porque si se quiere investigar de manera eficiente las relaciones de las variables
categoriales con otras variables, hay que someter casi todas a una especie de “maquillaje”
que constituye una verdadera fase intermedia entre recolección y análisis. Esta es una fase
descuidada generalmente.
Cuando se quieren analizar las relaciones de una variable categorial con otra variable,
cabe decir que el mismo nivel de detalle que es positivo en la recolección y análisis
univariado (detalle y sensibilidad), se convierte en negativo. El grado de negatividad
depende de la otra variable con la cual establecemos relación: si es un cardinal, el problema
no es grave, si es un ordinal, este resulta mayor, pero aún no tan grave; si es un categorial,
un alto nivel de detalles (muchas categorías) puede producir dificultades importantes. Esto
es porque la herramienta con la que se analizan las relaciones entre dos variables, la tabla
bivariable, el número de las celdas equivale al producto de las modalidades de las dos
variables que forman la tabla. Con dos variables de diez modalidades, el número es cien,
etc. Esto crea dos problemas, uno numérico y otro semántico.
Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más
frecuente que otra, siempre estando algunas celdas vacías y otras no. De celdas vacías o
casi vacías no se pueden sacar conclusiones, o sea, una matriz vacía o semi vacía no sirve
para mucho análisis.
Para hablar del problema numérico, es necesario hablar del concepto de autonomía
semántica. Una categoría tiene plena autonomía semántica si puede ser interpretada sin
hacer referencia al significado de la propiedad o de las otras categorías. Por su naturaleza,
las categorías de las variables categoriales tienen plena autonomía semántica. Lo que
20
21. significa que cada combinación de las categorías de dos variables categoriales tiene su
sentido y necesita atención y concentración para enfocar su pleno significado.
El investigador experto prefiere enfocar su atención en pocas tablas elegidas con
cuidado y hacerlas manejables, reduciendo al mínimo las celdas vacías o casi vacías, de
manera de poder aprehender todo lo que indica la tabla en un tiempo razonable. Para lograr
este objetivo habrá que reducir el número de las categorías en ambas variables.
Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos
criterios: uno medular es la proximidad semántica entre las categorías que se desea unir;
otro criterio es el equilibrio entre las frecuencias en las distintas modalidades. El metodólogo
experto trata de evitar la presencia de modalidades, y por lo tanto celdas, con frecuencia
demasiado altas o bajas, ya que ambas perjudican la interpretabilidad de una tabla.
Las consecuencias de graves desequilibrios son conocidas: categorías con baja
frecuencia producen inevitablemente celdas vacías o casi vacías, dando conclusiones no
confiables. A veces para dar una distribución más equilibrada no basta agrupar categorías
semánticamente parecidas y con escasa frecuencia, se debería también disgregar una
categoría que resultó tener un porcentaje excesivo.
Propiedades y variables ordinales
Son ordinales las propiedades en las que se pueden ordenar todos los estados a lo largo
de una escala según un criterio semánticamente vinculado a la naturaleza de la propiedad,
de forma que hay un estado mayor que otros, uno menor, etc. El tratamiento de las
propiedades ordinales tiene mucho en común con el tratamiento de las propiedades
categoriales
1. Se adopta un fundamentum divisionis adecuado a nuestros intereses cognoscitivos
2. Si los estados son muchos, se debe decidir cuáles se convertirán en categorías de la
variable que va a representar la propiedad en la matriz
3. Las categorías se crean y/o delimitan siguiendo los principios de la clasificación.
4. Se establecen límites entre las categorías de modo que sea mutuamente exclusivas
5. Se procura que el complejo de las categorías sea exhaustivo
En este caso, los estados están ordenados en la realidad, o se puede imaginar un
criterio intersubjetivo para ordenarlos. La serie de códigos debe tener una relación
monotónica directa con el orden de los estados en la realidad: al crecer la posición ordinal
del estado, hay que acrecentar también el código numérico asignado a la modalidad
correspondiente.
El problema de unir categorías semánticamente parecidas con otras variables, pierde su
importancia. Y eso no solo porque las categorías de una propiedad ordinal habitualmente no
son muchas, sino también porque ellas pierden parte de su autonomía semántica, en cuanto
al interés semántico pasa de las categorías individualmente consideradas al orden de las
categorías. Por lo tanto, en una tabla bivariable que incluye una o dos variables ordinales se
tiende a mirar la tendencia global más que las celdas singulares.
Una importante consecuencia directa de la reducción de autonomía semántica por parte
de las categorías ordenadas es que en las tablas que presentan la distribución de los
porcentajes relativos a cada modalidad singular deben ser reemplazados, o acompañados,
por porcentajes acumulados, lo cual se calcula teniendo en cuenta no solo la frecuencia de
aquella modalidad sino también las frecuencias de las modalidades que la preceden en el
orden. A veces puede ser útil presentar porcentajes retro acumulados, que suman la
frecuencia de aquella modalidad con los de las modalidades que siguen en el orden.
21
22. Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite
detectar inmediatamente la categoría mediana de una distribución. En una secuencia de
cifras, la mediana es la cifra que divide la serie en dos partes iguales.
Propiedades discretas cardinales y variables cardinales naturales
La expresión “variable continua” es una contradictio en adieto (el adjetivo contradice al
sustantivo), así como la expresión “variable discreta” es redundante. Ya que una variable
cardinal también se deriva de una propiedad continua mensurable a través de medición,
para distinguir las cardinales que se originan a partir de una propiedad discreta se agrega el
adjetivo “naturales”, en el sentido de que en estas variables ya sea el punto cero (ausencia
de la propiedad) ya se la unidad de cómputo (el número 1) son naturales y no radican en
una decisión del investigador o de la comunidad científica.
Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y
variables cardinales métricas (las que derivan de una medición) pierda toda su importancia,
y se puede hablar de variables cardinales sin más.
Como se decía acerca de las variables categoriales, el criterio que rige la recolección de
informaciones no es para nada el mismo que rige la presentación de los datos y su análisis.
En el caso de las variables categoriales, la razón principal para agrupar categorías se
presenta en la fase de análisis, y radica en la necesidad de reducir el número de celdas en
las tablas cuando se analicen sus relaciones con otras categorías y ordinales, pero la
posibilidad de reagrupamiento tiene un límite en el hecho de que cada categoría tiene plena
autonomía semántica, y por lo tanto solo se pueden agrupar categorías semánticamente
parecidas.
En el caso de las variables cardinales, la razón para agrupar categorías cuando se
presentan los datos es otra y concierne únicamente a ésta fase.
Se agrupa categorías en clases de amplitud variable conforme a los objetivos de la
investigación. Obviamente, se agrupan las categorías numéricamente más cercanas.
Al agruparse categorías no hay otro problema que plantearse más que el número: la
proximidad semántica no es un problema porque las categorías de una variable cardinal
tienen una autonomía semántica muy reducida, que va poco más allá del aspecto
meramente numérico. Por otro lado, esta escasa autonomía semántica no se puede
descuidar.
En término metodológicos, esto significa que en muchas propiedades discretas
cardinales, las categorías más cercanas al cero tienen una mayor autonomía semántica que
otras. Como consecuencia, las clases iniciales de las variables cardinales tienen
habitualmente una amplitud reducida.
Ya que las modalidades de las variables cardinales son números en sentido estricto, se
las puede someter a todas las operaciones matemáticas.
De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que
habitualmente se representa mediante la dispersión de sus datos respecto a este promedio.
Dado que los códigos de una variable cardinal son números, no hay dificultad para calcular
un valor que sintetice la dispersión de sus datos en una muestra o en una población, donde,
de forma sencilla, podemos calcular una desviación de X respecto a un promedio. Esa
desviación podrá ser positiva o negativa.
A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza,
varianza, desviación típica y coeficiente de variación, los cuales son valores globales, en el
sentido que se refieren a distribuciones enteras y no a casos singulares. El procedimiento
22
23. que permite saberlo se llama estandarización. La estandarización sirve también para
construir índices aditivos que sumen variables cardinales con una extensión de escala
diferente.
Propiedades mensurables y variables cardinales métricas.
Las propiedades llamadas continuas tienen un número infinito de estados
imperceptiblemente diferentes el uno del otro. La mayoría de estas propiedades pertenecen
al mundo físico. Otras propiedades continuas pertenecen al mundo psíquico (como puede
ser una opinión), estas propiedades psíquicas no se pueden medir, no tenemos estados en
estas propiedades. Aquí ocurre un problema de inferencia en realidad, entre lo que se ve o
se escucha, y los estados reales, inclusive, dando un problema grande de fidelidad porque
la información se obtiene a partir de una declaración donde el entrevistado dice lo que tiene
ganas
La propiedad debe ser continua siempre, si no lo es, no se mide: se clasifica o se cuenta.
Es lo que ocurre cuando hace una entrevista un sociólogo, el no puede garantizar la
respuesta, ni demostrarlo. Además, con anterioridad debe haber sido establecida y
reconocida una unidad de medida.
Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la
unidad de medida y el estado en la propiedad que se está midiendo. Cuando se miden
propiedades de objetos inanimados o de ser humanos a las que se tiene acceso desde el
exterior, este cotejo lo hace el que mide. Pero cuando este acceso directo no se puede
lograr, el investigador puede recorrer tres caminos:
a) Observar conductas e inferir su estado
b) Solicitar al sujeto, con preguntas o pruebas que declare algo que permita hacer la
comparación requerida, con un proceso puramente inferencial
c) Solicitar, con preguntas o pruebas, que el sujeto coopere haciendo el mismo la
comparación
Descuidando todos estos puntos, muchos investigadores usan libremente los términos
medir, medida, medición, etc., para cualquier procedimiento de registro de estados. Este
abuso no tiene otro propósito que le anhelo de legitimación científica.
Algo que no se puede considerar una condición de medición, pero que nunca falta, es el
criterio para redondear.
Propiedades continuas no mensurables y variables ordinales o cuasi cardinales
Los psicólogos comenzaron a plantearse el problema de medir ciertas propiedades
(como las actitudes) donde Rensis Likert introdujo las siguientes simplificaciones:
1. Se propuso dividir el continuum en un número pequeño de intervalos, marcados por siete,
y después por cinco fases.
2. Se renunció a declarar iguales estos estados, limitándose a garantizar el orden de las
frases que los dividían
3. Para garantizar que todos los sujetos compartan este orden, redujo drásticamente la
autonomía semántica de lo que se ubicaba en el continuum como un mojón: en lugar de
plantear frases con pleno sentido esperando que los sujetos las ubiquen en el continuum,
siguió planteando frases, pero pidiendo a los sujetos reaccionar frente a cada frase con uno
de varios grados diferentes de (desaprobación (apruebo plenamente, apruebo parcialmente,
indeciso, desapruebo parcialmente, desapruebo totalmente). La técnica ubica en el
continuum estas cortas expresiones, que tienen una autonomía semántica tan reducida que
cualquier sujeto no puede más que compartir su orden.
23
24. En su versión simplificada la “escala de Likert”, simple y rápida, es la técnica de registro
de opiniones más conocida y usada. Se le hacen varias observaciones.
La primera observación es que reintroduce por la ventana la misma cardinalidad que
declara haber echado por la puerta; lo hace desde el título (valoraciones sumadas). Las
valoraciones que se suman son los números naturales que se atribuyen a los 5 niveles de
desacuerdo (o acuerdo) y que se suman para asignarle a cada sujeto un puntaje total en la
escala, que expresa su supuesto estado en la propiedad que se intenta medir.
Un segundo problema que presenta es el hecho de que una afirmación puede ser
desaprobada por motivos opuestos. Lo que conlleva a que se asigne los mismos puntajes a
opiniones ubicadas en posiciones muy diferentes a lo largo del continuum. Esto se conoce
como “curvilinealidad”, porque asignar la misma puntuacion a respuestas que tienen
motivos opuestos equivale a doblar el continuum transformándolo en una herradura.
Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió
que un entrevistado no reacciona al sentido de la oración entera, sino a un solo término,
más precisamente, al objeto/sujeto designado por este término. Esto fue bautizado como
“reacción al objeto”.
El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez,
por otro reduce la fidelidad de los datos producidos. Esto es porque una vez aprendido el
fácil esquema según el cual deben contestar, tienden a considerar todas las frases
restantes como una única afirmación, que aprueban sin más, por eso podríamos encontrar
columnas enteras con la misma respuesta marcada. Esto se conoce como los “response
set” (conjunto de respuestas). Se pueden identificar cuatro motivos
1. El alto número de frases que componen cada batería, y el hecho de que en un
cuestionario se encuentran muchas baterías, haciendo que se someta al mismo
entrevistado a centeneras de frases con un mismo esquema de respuesta prefabricada.
2. Muchos investigadores no se dan cuenta de que a menudo los acervos de conocimiento y
las esferas de intereses de los entrevistados no coinciden con los suyos. La consecuencia
es que muchos entrevistados, no teniendo conocimiento sobre los temas que se presentan,
aprueban cualquier oración porque esto es lo que los compromete menos.
3. En muchos casos el entrevistador se presenta como enviado por un instituto, por lo tanto
los entrevistados no desdicen y contradicen nada de esos cuestionarios para no contradecir
la sabiduría académica
4. Algunos entrevistados proporcionan su contribución a hacer los response sets.
Generalmente los entrevistados son personas mal pagadas, se les entrena poco, y tienen
que hacer mucho en poco tiempo. Esto baja la calidad de los cuestionarios.
El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la
misma batería afirmaciones de orientación opuestas, de forma que el entrevistado no pueda
declararse razonablemente de acuerdo con todas. Igual, para que esto funcione, los
entrevistadores deben ser entrenados para actuar apenas el fenómeno del response set se
manifieste, llamando la atención del entrevistado avisándole que dos cosas que ha
contestado se contradicen.
Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar
frases individuales, pedirles elegir entre dos frases de orientación opuestas y planteadas
juntas, una frente a la otra. De esta forma es forzado a abandonar su condición pasiva y
reflexionar sobre el significado de ambas frases. Esto se llama elección forzada.
24