Sei sulla pagina 1di 26

UNIVERSIDAD YACAMBÚVICERECTORADO DE INVESTIGACIÓN Y

POSTGRADOINSTITUTO DE INVESTIGACIÓN Y POSTGRADODOCTORADO EN GERENCIA


Seminario Avanzado Diseños de Investigación en Gerencia I

LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOS

MS. c, Riera Lyzdany

2013

CABIMAS, MARZO
UNIVERSIDAD YACAMBÚ
VICERECTORADO DE INVESTIGACIÓN Y POSTGRADO
INSTITUTO DE INVESTIGACIÓN Y POSTGRADO
DOCTORADO EN GERENCIA
Seminario Avanzado Diseños de Investigación en Gerencia I

LA RECOLECCION Y ANALISIS DE DATOS CUANTITATIVOS

Participantes:
Riera, Lyzdany

Barquisimeto, Marzo 2013


INTRODUCCIÒN

La investigación es un proceso implacable, metódico y sistematizado en


el que se busca solventar problemas, bien sea de ocioso de conocimiento
(investigación científica) o de gerencia, pero en uno y otro casos es organizado
y garantiza la producción de conocimiento o de opciones de solución viables.

El objetivo de cualquier ciencia es obtener conocimientos y la elección


del método adecuado que nos permita conocer la realidad es por tanto
fundamental. El problema surge al aceptar como ciertos los conocimientos
erróneos o viceversa. Los métodos inductivos y deductivos tienen objetivos
diferentes y podrían ser resumidos como desarrollo de la teoría y análisis de la
teoría respectivamente. Los métodos inductivos están generalmente asociados
con la investigación cualitativa mientras que el método deductivo está asociado
frecuentemente con la investigación cuantitativa.

Los científicos sociales en salud que utilizan abordajes cualitativos


enfrentan en la actualidad problemas epistemológicos y metodológicos que
tienen que ver con el poder y la ética en la generación de datos así como con la
validez externa de los mismos.

La investigación cuantitativa es aquella en la que se recogen y analizan


datos cuantitativos sobre variables. La investigación cualitativa evita la
cuantificación. Los investigadores cualitativos hacen registros narrativos de los
fenómenos que son estudiados mediante técnicas como la observación
participante y las entrevistas no estructuradas La diferencia fundamental entre
ambas metodologías es que la cuantitativa estudia la asociación o relación
entre variables cuantificadas y la cualitativa lo hace en contextos estructurales
y situacionales
En el presente escrito crítico es necesario aclarar que nuestro objeto de
estudio es la recolección y análisis de datos cuantitativos., que es parte de la
investigación científica, la que es definida como "… un proceso metódico y
sistemático dirigido a la solución de problemas o preguntas científicas,
mediante la producción de nuevos conocimientos, los cuales constituyen la
solución o respuesta a tales interrogantes.

A partir de esto es posible hacer una reflexión acerca del enfoque que de
allí se desprende: Si estamos tratando la investigación científica, es posible
desarrollar dos enfoques importantes : el cualitativo y el cuantitativo, en el
primero se entiende que la cantidad es parte de la cualidad, además de darse
mayor atención a lo profundo de los resultados y no de su generalización;
mientras que en el enfoque cuantitativo, lo importante es la generalización o
universalización de los resultados de la investigación.

Por tanto, en una investigación no es conveniente hablar, ni de


Paradigma Cualitativo, Metodología Cualitativa o Investigación Cualitativa;
puesto que lo cualitativo o cuantitativo son enfoques de la investigación
científica, y ambos pueden ser usados en una misma investigación,
interaccionando sus metodologías. Las diferencias no se dan a nivel del tipo de
problema que se pretende investigar, sino a nivel de los métodos e
instrumentos que cada cual aplica y la forma en que tratan los resultados.
ESCRITO CRITICO

Técnicas de recolección de datos

La Recolección de Datos, consiste en la recopilación de información; se


lleva a cabo por medio de entrevistas, cuestionarios y observación; donde el
analista obtiene y desarrolla los sistemas de información logrando sus metas y
objetivos.

El analista debe de demostrar y desarrollar las destrezas de sus


conocimientos manifestando su honestidad, imparcialidad, habilidad,
objetividad, control, comunicación, comprensión y cortesía para lograr la
búsqueda de información a través de las herramientas antes mencionada.

La entrevista, se lleva a cabo en todos los niveles de operación desde el


Presidente o el Jefe de Operaciones. Utilizando procedimientos que pueden
varar desde muy formales hasta los casuales.

El cuestionario, es otra de las utensilios que usa el analista con el fin de


lograr un consenso, siendo un canal de comunicación poco limitado, el analista
debe determinar lo que desea saber, estructurar preguntas que pueden dar las
respuestas y formular el cuestionario.

La observación, se emplea para verificar los resultados de una entrevista


y tiene una aceptación científica.

El diagrama de flujo, es el proceso para plantear un problema y


determinar un resultado en una empresa.

El diccionario de datos, se aplica para la exploración de los diagramas


de flujos de datos y a su vez registra detalles adicionales dentro del flujo de un
sistema. Examen
La Estadística Descriptiva: Puede definirse como aquellos métodos que
incluyen la recolección, presentación y caracterización de un conjunto de datos
con el fin de describir apropiadamente las diversas características de ese
conjunto.

La Estadística Inferencia: Puede definirse como aquellos métodos que


hacen posible la estimación de una característica de una población o la toma
de una decisión referente a una población basándose sólo en los resultados de
una muestra.

Para aclara este concepto se necesitan de las siguientes definiciones:

Población: es la totalidad de elementos o cosas bajo


consideración.
Muestra: Es la porción de la población que se selecciona
para su análisis.
Parámetro: Es una medida de resumen que se calcula para
describir una característica de toda una población.
Estadística: Es una medida que se calcula para describir
una característica de una sola muestra de la población.

Podemos encontrar dos tipos de estudios estadísticos que se


emprenden: los estudios enumerativos y los estudios analíticos.

Los estudios enumerativos involucran la toma de decisiones respecto a


una población y/o sus características. Los estudios analíticos involucran
realizar alguna actividad sobre un proceso para mejorar el desempeño en el
futuro. La atención de un estudio analítico está puesta sobre la predicción del
comportamiento futuro de un proceso y sobre la comprensión y
perfeccionamiento de ese proceso. En un estudio analítico no existe un
universo identificable, como sucede en un estudio enumerativo y en
consecuencia tampoco hay un marco.
Son los más conocidos. En muchos casos, cuando se requieren
técnicas estadísticas muy complejas es conveniente solicitar el apoyo de
especialistas (que pueden conocer mejor las técnicas, en particular sus
alcances y limitaciones)

Existen dos niveles de análisis cuantitativos.


1. Análisis descriptivos
2. Análisis ligados a las hipótesis

Análisis descriptivos
Consiste en asignar un atributo a cada una de las variables del modelo
teórico.
Los atributos pueden ser estadísticos descriptivos como la media, la
mediana, la moda o la varianza, sobre cuyas propiedades existe gran
conocimiento, experiencia y consenso, por lo que no es necesario realizar
análisis de validez y fiabilidad. Pero en estadísticos menos conocidos (como
por ejemplo la covarianza) puede ser necesario realizar este tipo de análisis.
Es necesario tener definidos los criterios a seguir en caso de porcentajes
elevados de no respuesta y los eventuales sesgos que esto pueda representar.
El análisis descriptivo suele realizarse mediante la utilización de software
estadístico como el SPSS, Systat, etc.

Análisis ligado a las hipótesis


Cada una de las hipótesis planteadas en el estudio debe ser objeto de
una verificación. Cuando los datos recolectados son de naturaleza cuantitativa,
esta verificación se realiza con la ayuda de herramientas estadísticas que se
definen sobre la base de 3 aspectos principales:
Las hipótesis que se desea verificar
Los diseños de investigación (experimental, cuasi
experimental, experimental invocado...)
Distribución estadística de las variables
Confiabilidad y validez de los instrumentos

La confiabilidad y la validez son cualidades esenciales que deben estar


presentes en todos los instrumentos de carácter científico para la recogida de
datos. En palabras de Pérez (1998:71), si el instrumento o instrumentos reúnen
estos requisitos habrá cierta garantía de los resultados obtenidos en un
determinado estudio y, por lo tanto, las conclusiones pueden ser creíbles y
merecedoras de una mayor confianza.
Uno de los mayores problemas que se debe evitar, es que la información
obtenida no le permita responder a los objetivos de la investigación. Si los
instrumentos no son validados, podrá encontrar una variada información pero
sin ninguna articulación con los propósitos y compromisos asumidos en la
investigación.
Expertos (Fendel, Kurt, Taylomir, Wintther) aseguran que la
información insuficiente obtenida en las investigaciones está vinculada a la
elaboración incoherente e inconsistente de los instrumentos de recopilación de
datos. Muy probablemente, no fueron diseñados con agudeza y pensando en
todo momento en los objetivos y propósitos de la investigación
Ante tal situación, deberá realizar nuevos instrumentos de
recolección de datos que responda a sus objetivos, y la información que ya
tiene de su primer esfuerzo no se pierde y con seguridad serán un apoyo o
refuerzo.
Un buen instrumento de recolección de datos o medición debe
tener las siguientes cualidades: confiabilidad y validez.
La confiabilidad se refiere al nivel de exactitud y consistencia de
los resultados obtenidos al aplicar el instrumento por segunda vez en
condiciones tan parecida como sea posible.
Bernal (2000:218) afirma que la pregunta clave para determinar la
confiabilidad de un instrumento de medición es:
Si se miden fenómenos o eventos una y otra vez con el
mismo instrumento de medición, ¿Se obtienen los mismos resultados u
otros muy similares? Si la respuesta es afirmativa, se puede decir que el
instrumento es confiable.
Es importante lograr la elaboración de un instrumento que
sea confiable. Para ello, existen muchas vías para lograrlo. Si se tratara
de un cuestionario, se puede aplicar dos veces a la misma persona en
un corto período de tiempo, y seguidamente se utiliza el índice de
Bellack:

Indice:  de los acuerdos x 100___


 (acuerdos + desacuerdos)

Se considera que el instrumento es confiable si el índice de Bellack


resultante es superior al umbral arbitrario de 80. Pourtois, J., Desmet,
H.(1992:187)

Esta prueba se aplica a cualquier tipo de variable o dimensión objeto de


estudio.

Otra manera para poder determinar si un instrumento es confiable es a


través del cálculo de la medida de estabilidad por la vía del test-retest. En este
procedimiento un mismo instrumento es aplicado en dos oportunidades o más
a un mismo grupo de personas, después de cierto período de tiempo. Si la
correlación entre los resultados de las diferentes aplicaciones es altamente
positiva, el instrumento se considera confiable. El valor de la correlación es un
valor ubicado entre el –1 y 1.

muy baja (0) baja regular aceptable elevado(1)

No hay confiabilidad 100% de confiabilidad


El cálculo de este coeficiente se utiliza para mediciones de variables o
dimensiones que responden a una escala de medición de intervalo o razón.
Es importante que para la aplicación de esta prueba, se tome un lapso
de tiempo lo suficientemente largo para que los sujetos se olviden de lo que
contestaron y, por el otro, no tanto que se produzcan cambios importantes.
(Pérez 1998:72). Este tipo de medición se utiliza en investigaciones
cuantitativas.

También el Coeficiente alfa de Cronbach permite determinar la


confiabilidad; utilizando la fórmula si el resultado es 0.80 o más se considera
aceptable el instrumento.
p*
1+p* (N-1)

en donde N es el número de items y p* el promedio de las correlaciones


entre ítems.

Para el cálculo de p*, deberá aplicar:

P*= P
NP

En donde, P es la sumatoria de las correlaciones y NP el número de


correlaciones no repetidas o no excluidas.

El cálculo del coeficiente de confiabilidad Alfa de Cronbach se utiliza


para mediciones de variables o dimensiones que responden a una escala de
medición de intervalo o razón.
La confiabilidad también se puede calcular mediante la aplicación de las
ecuaciones de Rulon, Guttman, Sperman-Brown, Kuder-Richardson (KD20)
para elementeos dicotómicos y (KD21) en el caso de elementos con dificultad
similar.

Adicionalmente a la confiabilidad de un instrumento, se debe buscar la


validez del mismo. En este sentido, el investigador realizará un esfuerzo
dirigido a la elaboración de un instrumento que mida lo que se desea medir.
Salkind (1998:126); Hernández (1998:242) clasifican la validez en:
validez de contenido, validez de criterio y la validez de constructo.

Este término hace alusión al grado en el que un instrumento produce


resultados consistentes y coherentes. Es decir, si el instrumento tiene
aplicación repetida al mismo sujeto u objeto produce resultados iguales. El
cálculo de la confiabilidad está sustentado en fórmulas que producen
coeficiente de confiabilidad, oscilando entre 0 (nula confiabilidad) y 100 %
(confiabilidad total). Cuánto más se acerque el coeficiente a cero (0), mayor
error habrá en la medición. La determinación de la confiabilidad se realiza de la
manera siguiente Aplicación de un instrumento de medición dos o más veces a
grupo de personas u objetos en cierto periodo. Si la correlación entre los
resultados de las diferentes aplicaciones es altamente positiva, el instrumento
se considera confiable. Al administrar dos o más versiones equivalentes al
instrumento de medición ocupado (en nuestro caso el método Vítora, y luegosu
semejante el método Lugones).
Las versiones son similares en contenido, instrucciones, duración y otras
características. El instrumento es confiable si la correlación entre los resultados
de ambas administraciones es positiva de manera significativa. Aplicación de
un conjunto total de Item, las cuales se divide en dos mitades equivalente y se
comparan las puntuaciones, o los resultados de ambas. Si el instrumento es
confiable, las puntuaciones de las dos mitades deben estar muy
correlacionadas. Un individuo de baja puntuación en una mitad tenderá a
mostrar también una baja puntuación en la otra mitad. Finalmente, a través del
cálculo de coeficiente de confiabilidad, como por ejemplo, a) el alfa de
Cronbach (desarrollado por J. L. Cronbach) y b) el coeficiente KR-20 y KR-21
de Kuder y Richardson (1937) Concíbase como Instrumento de medición aquel
recurso que registra información o datos sobre las variables que tiene en
mente.
En términos cuantitativo: capturar verdaderamente la realidad que se
desea capturar. La función de la medición es establecer una correspondencia
entre el mundo real y el mundo conceptual. El primero provee evidencia
empírica, el segundo proporciona modelos teóricos para encontrar sentido a
ese segmento del mundo real que estamos tratando de describir.
La validez de contenido está representada por el grado en que una
prueba representa el universo de estudio. Por tal motivo, deberán
seleccionarse los indicadores e items de tal manera que estos respondan a las
características peculiares del objeto de estudio.
La palabra engloba el grado en el que un instrumento en verdad mide la
variable que se busca. El cálculo de la validez se realiza de la manera
siguiente: Revisión de cómo ha sido medida la variable por otros
investigadores, de los cuales resultarán ítems para medir las variables y sus
dimensiones Consulta a investigadores familiarizados con la variable para ver
si el conjunto de ítem es verdaderamente exhaustivo. Se administra los ítems,
se correlacionan las puntuaciones de éstos entre sí (tienen que haber
correlaciones altas, en especial entre ítems que miden una misma dimensión).

Validez de criterio
Se estima al correlacionar la medición con el criterio externo
(puntuaciones de un
Instrumento frente a las puntuaciones en el criterio), y este coeficiente se
toma como coeficiente de validez. Concíbase la Validez de Criteriocomo validar
un instrumento de medición al compararlo con algún criterio externo que
pretende medir lo mismo.
La validez de criterio, llamada también validez concurrente es más fácil
de estimar, lo único que se debe hacer es correlacionar su medición con el
criterio, y este coeficiente se toma como coeficiente de validez. La validez de
criterio es una medida del grado en que una prueba está relacionada con algún
criterio. Es de suponer que el criterio con el que se está comparando la prueba
tiene un valor intrínseco como medida de algún rasgo o característica.

Validez de constructo
Suele determinarse mediante procedimiento de análisis estadísticos
multivariados (“análisis de factores”, “análisis discriminantes”,“regresiones
múltiples”). Concíbase la Validez de Constructo como explicar el modelo
teórico-empírico que subyace a la variable de interés
La validez de constructo determina a través del procedimiento de
análisis de factores en qué medida los resultados de una prueba se relacionan
con constructos. Un constructo es un atributo para explicar un fenómeno.
En el análisis de factores se generan “variables artificiales”,
denominadas factores que representan constructos, los factores se obtienen de
las variables originales y deben ser interpretadas de acuerdo con éstas. Se
trata, de una técnica para explicar un fenómeno completo complejo en atención
de unas cuantas variables.
Todos los instrumentos de recolección de datos (cuestionarios, test,
escalas, guías de observación, pruebas de conocimiento, etc.) debe precisar de
la validez de contenido, y ésta consiste en hacer una revisión profunda de cada
ítem que estructuran el instrumento.
Para Aroca, A. (1999: 29), la validez de contenido, denominada
también “lógica” o de “muestreo”. Se refiere básicamente al contenido del
instrumento, al hecho de que el instrumento contenga en sus elementos o ítem
todos y sólo los aspectos que, de acuerdo a los objetivos de la investigación,
sea necesario (sic) averiguar para el logro de los mismos. Este procedimiento
de carácter -racional es determinante en la configuración del instrumento, pues
a través del mismo se desechan ítem o aspectos irrelevantes que de una u otra
manera restan sentido razonado a la intención concreta de búsqueda de datos;
por otra parte, la validez de contenido permite redimensionar aquellos ítem que
en su primera versión se consideran confuso o presentan errores de sintaxis
y/o semántica y que, una vez corregidos las disyuntivas a las que diera lugar,
permitan obtener los datos e informaciones que se encuentran especificada en
cada uno de los propósitos de la investigación.
De esta manera, la validez de contenido es un procedimiento al que no
puede obviarse cuando se tiene el objetivo certero de realizar una investigación
de gran envergadura, y en el caso muy particular de la Gerencia de Recursos
Humanos, los instrumentos de recolección de datos han de condensar
suficientes ítem como para poder apreciar de una manera totalizadora los
aspectos, factores y variables que se conjugan para estructurar el fenómeno
objeto de estudio.
Debe tenerse siempre presente que el investigador del área de Recursos
Humanos tiene ante su mirada de inquisidor científico un universo de sujetos
cuyas actuaciones se corresponden con representaciones subjetivas y las
mismas son objetivadas en actos y redes de actos los cuales se constituyen en
los posibles escenarios susceptibles de ser captados a través de medios
instrumentales diseñados para fines bien definidos.
Así, de lo que se trata es de advertir que los fenómenos sociales son de
una complejidad tal que todo investigador que se aventure a su aprehensión
debe disponer de instrumentos de recolección de datos bien construidos, y es
por ello que la validez de contenido está destinada a darle coherencia y
sistematicidad a los ítems que conforman el instrumento diseñado.
Al decir de Aroca, A. (1999: 269), El método que más se utiliza para
estimar la validez de contenido es el denominado Juicio de Expertos, el cual
consiste en seleccionar un número impar (3 o 5) de jueces (personas expertas
o muy conocedoras del problema o asunto que se investiga). quienes tienen la
labor de leer, evaluar y corregir cada uno de los ítems del instrumento so
pretexto de que los mismos se adecuen directamente con cada uno de los
objetivos de la investigación propuestos.
De acuerdo con las reflexiones de la autora antes citada, se consideran
expertos o jueces aquellos sujetos que reúnan las siguientes consideraciones:

a.- Formación académica en el área y rama del quehacer


científico al que diera lugar;
b.- Comprobada trayectoria experiencial de investigaciones
realizadas en institutos y centros destinados para fines bien definidos;
c.- Desarrollo de una línea (o líneas) de investigación relacionada
a intereses académicos;
d.- Poseer una amplia concepción epistemológica de la ciencia y
de la investigación; y,
e.- Demostrar pleno dominio de la lengua castellana, pues la
sintaxis, la semántica y la sindéresis son aspectos determinantes para
dar forma interna y externa al instrumento.

Tomando como base estas características que se consideran las más


deseables que debe tener un experto encargado de validar los instrumentos de
recolección de datos, se hace saber que la validez de contenido permite al
sujeto investigador lograr la aprehensión lo más objetiva posible de la esencia
de los hechos y fenómenos que estudia, es decir, se establece un perfecto
relacionamiento entre los propósitos de la investigación y el alcance en el
campo real donde se experimentan los acontecimientos.
Ahora bien, ¿de qué manera procede un experto para validar los
instrumentos de recolección de datos?
Una vez que se diseña el instrumento de recolección de datos a partir
del desglosamiento de los objetivos específicos en su factor, definición,
dimensiones e indicadores, el producto materializado en dicha herramienta se
corresponde con lo que muy bien puede llamarse una primera versión, pues
como se ha especificado antes debe procederse con la “calibración” donde el
juicio de experto se corresponde con una de ellas.
En manos del experto, la primera versión del instrumento sufrirá cambios
superficiales o profundos, los cuales son importantes que sean considerados
por el investigador so pretexto de que el instrumento de recolección de datos
alcance la configuración y calidad deseada. Dichos cambios pueden ser de
índole de contenido, de redacción-semántica, sindéresis, correspondencia con
los objetivos planteados, pertinencia con el tipo de investigación, relación
estrecha con una realidad concreta.
Para proceder a la validación por juicio de expertos, es importante tener
a la mano un instrumento / formato diseñado exclusivamente para servir de
guía operativa a los especialistas, quienes lo emplearán para evaluar y valorar
la primera versión del instrumento de recolección de datos.
Los autores de la presente obra sugieren tomar en cuenta los siguientes
aspectos a los fines de realizar el formato guía para validación por parte del
experto:

1.- Elaborar una carta dirigida al experto, a continuación un


ejemplo:

Respetado experto, a continuación se le está proporcionando un


instrumento cuyo propósito consiste en que Usted lea, evalúe y corrija cada
ítem que conforma el instrumento de recolección de datos. Dichas
correcciones son de vital importancia para dar la configuración y calidad
definitiva al mismo antes de su aplicación a la muestra de sujetos
seleccionados para los fines específicos de la investigación.
Sin más a que hacer referencia, y confiados en que sus
observaciones serán de gran utilidad, se suscriben de Usted,
2.- Solicitar datos del experto, a continuación un ejemplo:

Nombre y Apellido
Cédula de Identidad
Institución donde trabaja
Título (s) de Pregrado
Título (s) de Postgrado
Publicaciones

3.- Suministrar al experto los datos básicos de la investigación, a


saber:

Título de la Investigación
Objetivo General
Objetivos Específicos
Variables o dimensiones que se pretenden medir
Tipo de Investigación
Población objeto de Estudio

4.- Especificar los aspectos a considerar para la valoración de


cada Ítem:

Redacción
Pertinencia con los objetivos
Pertinencia con el tipo de investigación

5.- Retroalimentación del Experto:

Solicitar al experto que por escrito, emita sus opiniones en


torno aquellos aspectos que se deben mantener y los que sugiere
modificar y/o incorporar, indicando lugar y fecha de realización.
Anteriormente se explicó que el investigador que pretender validar el
instrumento a través de Juicio de Experto debe proceder con 3 o 5 jueces. Una
vez que los jueces proceden a examinar y evaluar cada ítem, se comparan los
resultados; realizado este procedimiento, se integran las correcciones y
sugerencias a través de las cuales se determina el instrumento definitivo el cual
se aplicará a la muestra de sujetos seleccionados.

Para quienes elaboran instrumento, Thomas Kuhn (1971:73) señala que


el hombre que construye un instrumento para determinar las longitudes de
ondas ópticas no deberá estar satisfecho con un equipo que se limite a atribuir
números determinados a líneas espectrales particulares. No es solo un
explorador o un medidor, sino que por el contrario, mediante el análisis de su
aparato, deberá mostrar en términos del cuerpo establecido de teoría óptica,
que los números que muestra su instrumento son los que corresponden en la
teoría como los de longitud de ondas.

En Ciencias Sociales, la investigación de carácter cualitativo ha


adquirido una gran relevancia desde la mitad del siglo XX, y son muchos los
investigadores sociales que se suman por esta vía de acercamiento a la
realidad, por considerarla una mejor opción para la compresión de la realidad.
La aceptación de la investigación cualitativa, ha tenido acogida por su
carácter flexible, adaptativo y de apertura a los cambios conforme se avanza
en la investigación.
No obstante, esta investigación tiene planteado un conjunto de
interrogantes, entre ellos la confiabilidad y la validez. Estos problemas pueden
que estén muy arraigados en la mente de muchos investigadores por la
mentalidad positiva de la que ha sido difícil desprenderse.
Ambos enfoques son validos y rigurosos; se puede optar por un
determinado paradigma o por la complementariedad de ambos. Lo preciso es
que con independencia de la elección hay que acometerla con rigor.
En el caso de las investigaciones cualitativas, se pueden utilizar diversas
técnicas para obtener la convergencia de tipo metodológico, sin embargo, exige
también sistematización y rigor metodológico.
La confiabilidad en una investigación cualitativa depende
fundamentalmente de la estandarización de los registros, en los que se debe
partir de una categorización ya elaborada. Kirk y Miller (1986:7) señalan que
existen tres tipos de confiabilidad en la investigación cualitativa: confiabilidad
quijostesca, confiabilidad diacrónica y confiabilidad sincrónica.
Pérez (1998:78) al referirse a la clasificación de Kirk y Miller (1986) las
define de la siguiente manera:

Confiabilidad quijotesca: se refiere a las circunstancias en


las que un único método de observación da lugar de forma continuada a
una medida invariable. La originan al convertir en rituales determinadas
frases y hechos.

Confiabilidad diacrónica: consiste en la estabilidad de una


observación a través del tiempo que puede comprobarse al repetir las
medidas, pero teniendo en cuenta que sólo tendría utilidad en aspectos
inalterable de un determinado período.

Confiabilidad sincrónica: implica la semejanza de las


observaciones dentro del mismo período de tiempo. Raramente implica
observaciones identificas, sino el hecho de que sean consistentes
respecto a rasgos relevantes. La investigación cualitativa, para lograr
altos índices de confiabilidad, exige la elaboración de registros
descriptivos que, sin caer en la estandarización, ayudan a regular los
procesos.

En torno a la validez, esta exige, según Hansen (1979): Estimación de la


medida en que las conclusiones representan tan efectivamente la realidad
empírica y estimación de si los constructos diseñados representan o miden
categorías reales de la experiencia humana.
En la investigación cualitativa tal estimación, en opinión de Aguilera
(1986) se logra a través de la triangulación, saturación y el contraste con otros
colegas.
La triangulación implica reunir una variedad de datos y métodos, para
referirlos al mismo tema o problema, implica que los datos de recojan desde
puntos de vista distintos y realizar comparaciones múltiples de un fenómeno
único, de un grupo utilizando perspectivas diversas y múltiples procedimiento.
Denzin (1979:281), define la triangulación como la combinación de
metodologías en el estudio de un mismo fenómeno, Denzin (1979:281) destaca
en la triangulación el control cruzado entre diferentes fuentes de datos:
personas, instrumentos, documentos o la combinación de éstos, y Elliott (1990)
indica que el principio básico subyacente en la idea de triangulación es el de
recoger observaciones y apreciaciones de una situación o algún aspecto de
ella desde una variedad de ángulos o perspectivas.
Para recoger la información el registro de observaciones en
fundamental, y ello según lo expresa Delgado y Polanco (1996:21) es un
cuerpo de notas que permite ir identificando debilidades, fortalezas,
inquietudes, confusiones y/o irregularidades.
Como muy bien lo plantea Le Boterf (1981), en esta etapa se trata de
pasar de un conocimiento cotidiano a un conocimiento científico y crítico, razón
por la cual después de obtener la información registrada en el cuerpo de notas,
se debe proceder a agrupar las distintas opiniones, comentarios, expresiones y
los elementos concretos de la situación vivida, según las dimensiones
categoriales definidas.
Se trata de un esfuerzo dirigido a facilitar las reflexiones, descubrir
relaciones, buscar constantes y estructuras esenciales del fenómeno objeto de
estudio.
En este proceso de búsqueda de información, existe consenso entre los
investigadores en reconocer las bondades de las técnicas triangulares, en tanto
ellas intentan señalar o explicar más concretamente la riqueza y complejidad
del comportamiento humano con el fin de estudiarlo desde diferentes
perspectivas, haciendo uso de datos cualitativos y cuantitativos.
La triangulación implica un acercamiento a un problema a través de
distintos medios, a continuación las de mayor uso según Pérez (1998:82):
Triangulación de tiempo: intenta considerar el factor de cambio y el
proceso mediante la utilización de diseño de cortes a través de secciones y
mediante diseños longitudinales para analizar tendencias a lo largo del tiempo.
Triangulación de espacio: con técnicas transculturales, trata de vencer el
parroquialismo de estudios efectuando en el mismo país o dentro de la misma
subcultura, utilizando técnicas a través de varias culturas.
Triangulación por niveles de combinación: emplea más de un nivel de
análisis de los tres principales utilizados en las ciencias sociales, es decir, el
nivel individual, el nivel interactivo (grupos) y el nivel de colectividades y
organizacional, cultural o social.
Triangulación teórica: se basa en la preferencia de teorías alternativas o
competitivas sobre la utilización de un solo punto de vista. Se emplean
diferentes perspectivas coincidentes de un mismo objetivo.
Triangulación de investigador: cuando existen varios investigadores para
realizar una misma investigación. A este tipo de triangulación también se le ha
denominado como verificación intersubjetiva. Esta verificación se lleva a cabo
por medio del contraste de la información, pues en la investigación cualitativa
un grupo o equipo suele participar en todo el proceso de investigación; por lo
tanto, a través del debate, el análisis de los datos y el contraste y discusión
sobre los mismos, se logra un cierto grado de credibilidad de la información
obtenida. Por consiguiente, el nivel de objetividad logrado será muy superior al
que caracterizaría un investigador aislado.

Triangulación de metodología: utiliza el mismo método en diferentes


ocasiones o bien diferentes métodos sobre un mismo objeto de estudio. La
triangulación metodológica se realiza dentro de una colección de instrumentos
o entre métodos.

Relación entre la confiabilidad y la Validez


Un instrumento de medición puede ser confiable, pero no
necesariamente válido. De no ser así, los resultados de la investigación no
deben tomarse en serio. Supongamos que vamos a probar un arma con tres
tiradores. Cada uno debe realizar tres disparos, entonces:

El tirador 1.
Sus disparos no impactan en el centro del blanco y se encuentran
diseminados por todo el blanco.

El tirador 2
Tampoco impacta en el centro del blanco, aunque sus disparos se
encuentran cercanos entre sí, fue consistente, mantuvo un patrón.

El tirador 3.
Los disparos se encuentran cercanos entre sí e impactaron en el centro
del blanco.
CONCLUSIÓN
Los fundamentos de la metodología cuantitativa podemos encontrarlos
en el positivismo que surge en el primer tercio del siglo XIX como una reacción
ante el empirismo que se dedicaba a almacenar datos sin introducir los
conocimientos más allá del campo de la observación. Alguno de los científicos
de este tiempo dedicados a temas afines con las ciencias de la salud son
Pasteur y Claude Bernard, siendo este último el que propuso la
experimentación en medicina.

A principios del siglo XX, surge el neopositivismo o positivismo lógico


siendo una de las aportaciones más importantes la inducción probabilística. La
clave del positivismo lógico reside en contrastar hipótesis probabilísticamente y
en caso de ser admitidas y demostradas en circunstancias diferentes, a partir
de ellas elaborar teorías generales. La estadística dispone de instrumentos
cuantitativos para contrastar estas hipótesis y poder aceptarlas o rechazarlas
con una seguridad determinada. Por tanto el método científico, tras una
observación, genera una hipótesis que contrasta y emite posteriormente unas
conclusiones derivadas de dicho contraste de hipótesis.

El diferenciar una hipótesis repetidamente verificada no da absoluta


garantía de su generalización ya que, como señala Karl Popper, no se dispone
de ningún método capaz de garantizar que la generalización de una hipótesis
sea válida. Con el ejemplo de los cisnes, K. Popper rebatía las tesis
neopositivistas sobre la generalización de las hipótesis... "todos los cisnes de
Austria eran blancos... no se dispone de datos sobre el color de los cisnes
fuera de Austria..., todos los cisnes son blancos...". En el momento actual no
hay ningún método que garantice que la generalización de una hipótesis sea
válida, pero sí se puede rebatir una hipótesis con una sola evidencia en contra
de ella. Es por ello que la ciencia, como señala K. Popper "busca explicaciones
cada vez mejores.
La validez: es la eficacia con que un instrumento realmente mide "la
variable" que se desea medir. Existen tres tipos de validez (la de contenido, la
de constructo y la de criterio)
Validez--->Objetivos, Variables o Hipótesis planteadas--->a través de --
>Items ó preguntas dicotómicas (si-no) o de varias alternativas (casi siempre,
siempre, casi nunca, nunca, etc), ejemplo: la escala de liker..
Aquí, también, se recurre a al "juicio de un experto", es decir, una persona
capacitada en el área que estás trabajando para que te asesore y te evalué el
instrumento antes de ser aplicado... Y la confiabilidad, consistencia en lo
resultados que produce un instrumento. Existen varios formas para estimar la
confiabilidad (la de consistencia interna, la de estabilidad, y la de
equivalencia)..y cada una de ellas tiene su técnica correspondiente...
Confiabilidad --->Consistencia Interna---> Alfa Cronbach
Este es un resumen, la validez, lo que nos indica es si realmente estamos
midiendo, la variable que queremos medir y por otro lado la confiabilidad nos
dice que tan "fiable" (muy baja, baja, alta, muy alta o moderada) es ese
instrumento que aplicamos, según los resultados obtenidos...
De acuerdo a todos los textos leídos, mi conclusión personal es que:
Todos los temas se relacionan entre si, a su vez con la labor policial, esto se
debe a que cuando se comete un delito, el testigo, memoriza o utiliza su
memoria, para lo que se ve, luego cuando declara vuelca toda esta información
necesaria para llevar a cabo una investigación efectiva. La memoria y los
métodos técnicos que se utilizan son la retención, es decir, una persona a
través de la visual retiene todo tipo de información, ya sea por una vestimenta o
hasta por un lugar donde se cometió un hecho.

En el mismo orden de idea podemos concluís que existe un grupo de


científicos que piensan que si bien en otros tiempos era posible hablar de un
método científico, actualmente el campo total de la ciencia es tan complejo y
heterogéneo que ya no es posible identificar un método común a todas ellas.
Si bien la investigación cualitativa es utilizada mayormente en el campo
social, Enfermería como ciencia dedicada al cuidado, y por el carácter
humanista de esta, ha incursionado en explorar nuevas alternativas de
investigación dando paso al paradigma cualitativo.

Tanto en el paradigma cuantitativo como cualitativo una vez que se tiene


claro los objetivos de la investigación, se procede a seleccionar el método de
recolección de datos acorde con la investigación.

Independientemente del paradigma investigativo utilizado, el investigar lo


que busca es solucionar una situación planteada.
BIBLIOGRAFIAS

Bernal, C.A. (2000). Metodología de la investigación. Colombia: Prentice


Hall .

Delgado de Smith, Yamile, Colombo Leyda y Rosmel Orfila


(2002). Conduciendo la Investigación. Editorial Comala. Caracas.

Hernández, R, C. Fernández y P. Baptista. (2010). Metodología


de la investigación.

Hurtado de B, Y (2000). Investigación Holística. Caracas:


Fundación SYPAL

Kvale, Steinar. (1.996) Las entrevistas, Una Introducción a la


Investigación Cualitativa. Thousand Oaks- California.

Rodríguez Gómez, Gregorio y Col (1.999) Metodología de la


Investigación Cualitativa. Editorial Aljibe. Málaga-España.

Obando, T. (2,009). Modelación geomecánica y temporal de la


licuefacción en suelos de minas no metálicas. Estudio Caso: Ciudad de
Managua (Nicaragua). Tesis Doctoral. Editorial Universidad
Internacional de Andalucía UNÍA (Huelva, España). Huelva. 900pág.

Tamayo y Tamayo, Mario. (1.998). El Proceso de la


Investigación Científica. 3era Edición. Editorial Limusa S.A. México- D.
F.
Trujillo, M. (1990). Diseño de encuesta. Caracas: Ediciones JMT.

Potrebbero piacerti anche