sábado, 7 de marzo de 2015

La Informática en el Análisis de La Investigación Cualitativa Y Cuantitativa



REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD NACIONAL EXPERIMENTAL
DE LOS LLANOS CENTRALES
“RÓMULO GALLEGOS”
ÁREA DE POSTGRADO






LA INFORMÁTICA EN EL ANÁLISIS DE LA INVESTIGACIÓN
CUALITATIVA Y CUANTITATIVA






Dr. Pedro Gutierrez.                                                              Participantes
                                                                                                 Benavidez, Nalyibe
                                                                                                 Maestre,Maria
                                                                                                 Perdomo,Rosa                      
                 
                                                                    INTRODUCIÒN
Las tecnologías de la información han experimentado crecimientos espectaculares desde los años 50, a un ritmo en el que la potencia de la informática crece exponencialmente todos los años. A este crecimiento natural de la informática le ha acompañado el de la información, cuyos volúmenes está haciendo que sea indescifrable por sí sola. Esto ha obligado a los especialistas de esta rama a recurrir a sistemas de análisis para sacar su máximo valor.
           Las empresas y entidades de información se dedicaban hasta hace poco más bien al almacenamiento de información para que los usuarios las utilizaran cuando y como pudieran. Ahora, con una visión más “agresiva”, los especialistas de información brindan no sólo datos o grandes volúmenes de información, sino que entregan informes, producto de análisis, con los cuáles les ayudan a convertir tantos datos en información sintetizada y confiable. Estos análisis de información ayudan a la toma de decisiones, que es una tarea que se hace cada vez más dinámica y requiere de un basamento informativo bien sustentado. El objetivo del análisis de información es obtener ideas relevantes, de las distintas fuentes de información, lo cual permite expresar el contenido sin ambigüedades, con el propósito de almacenar y recuperar la información contenida.
           Analizando el planteamiento anterior, se puede entender que el análisis de información sólo se produce para tener informes o resultados guardados. Pero hay que agregar que esta disciplina parte de analizar fuentes, en base a las necesidades de los usuarios, que deben estar en consonancia con los objetivos estratégicos de la institución a la que pertenezcan. Además, en un análisis de este tipo se deben validar las fuentes a utilizar, pues resulta muy importante que la información a presentar sea confiable y actualizada; para que los resultados obtenidos puedan ser utilizados adecuadamente en la toma de decisiones pero que además ofrezca a los usuarios alternativas de decisión. Un estudio con estas características genera además confianza en el analista.
           El análisis de información forma parte del proceso de adquisición y apropiación de los conocimientos latentes acumulados en distintas fuentes de información. El análisis busca identificar la información “útil'', es decir, aquella que interesa al usuario, a partir de una gran cantidad de datos. Las nuevas tecnologías de la información y la comunicación (NTIC) han creado nuevos ambientes de aprendizajes y socialización en constante transformación. Estas nuevas realidades no pueden alcanzarse o abarcarse con las conceptualizaciones existentes y requieren la construcción de nuevas redes categoriales o conceptuales que sirvan, al menos, como punto de partida, hacia una comprensión de esas nuevas realidades, su análisis crítico y la posibilidad de aportar criterios pedagógicos alternativos.
           Los programas informáticos para la ayuda del análisis cualitativo y cuantitativo son herramientas que nos facilitan la larga tarea de reducir los datos obtenidos en el proceso de investigación dentro de un determinado paradigma. Debemos conocer previamente el catálogo de programas existentes en el mercado así como qué característica definitoria de la propia investigación queremos llevar a cabo y así decidir qué programa o grupo de programas van a ser nuestros facilitadores en dicha tarea.
          
La informática en el análisis de la investigación Cualitativa
           La investigación cualitativa está en un período de cambios tecnológicos que influyen en su carácter esencial, y aunque la mayoría de los programas informáticos se utilizan para analizar datos, hay también otros pasos en el proceso de investigación en los que se utilizan los ordenadores, entre los que se destacan (Flick, 2004):
1. Tomar notas de campo.
2. Pasar a limpio y transcripción de notas de campo. Editar, ampliar y corregir.
3. Codificar: agregar palabras clave o etiquetación de segmentos de texto para su posterior recuperación.
4. Almacenamiento: mantención de texto en una base de datos organizada.
5. Búsqueda y Recuperación: localización de segmentos relevantes de textos y hacer que estén disponibles para su inspección.
6. Enlazar datos: conexión de segmentos relevantes de datos, formando categorías, grupos o redes de información.
 7. Elaboración de Memorandos: escribir comentarios reflexivos sobre algunos aspectos de los datos como base para análisis de mayor profundidad.
8. Análisis de contenido: contar frecuencias, sucesión o localizaciones de palabras y frases.
9. Exposición de datos: colocar los datos seleccionados o reducidos en un formato condensado, organizados en forma de matriz o red.
10. Extracción de conclusiones y verificación: ayuda al analista en la interpretación de los datos expuestos y a someter a prueba para confirmar los hallazgos.
11. Construcción teórica: desarrollo de explicaciones sistemáticas coherentes conceptualmente de los hallazgos, exanimación de hipótesis.
12. Creación de informes: provisionales y finales
           Por la naturaleza existen dos tipologías de software. La naturaleza de su creación supone características distintas, así como limitaciones y ventajas diferentes para metodologías cualitativas. Por una parte están el software genérico y en otro, el software específico. Los de tipos genéricos son programas no diseñados específicamente para la investigación cualitativa. Sin embargo son los más utilizados no sólo en investigación, sino en cualquier tarea de recopilación o escritura. Los programas más conocidos son los procesadores de texto. La importancia que tienen en relación a la investigación cualitativa es su cualidad de realizar búsquedas textuales. Distinguimos tres tipos de programas genéricos:
. Procesadores de texto.
. Recuperadores de texto.
 . Organizadores de texto (textbase managers).
Con respecto a los procesadores de texto, la amplitud de recursos que ofrecen las versiones actuales de los principales procesadores de texto existentes en el mercado (Microsoft Word, WordPro, Corel WordPerfect, etc.) permite que haya un conjunto de actividades de organización y de manejo de datos cualitativos que se pueden realizar con este tipo de soportes, actividades como las siguientes: la producción y revisión de los textos; la realización de búsquedas con diferentes niveles de complejidad; la realización de conexiones hipertextuales, o la generación de macros para automatizar rutinas de búsquedas y recuperaciones.
 El segundo tipo de programas genéricos son los que hemos denominado como recuperadores de texto. Se trata de programas de búsqueda textual muy sofisticados, especializados en la localización de todo tipo de secuencias de caracteres, de combinaciones de caracteres, y todo ello realizado en uno o en varios documentos a la vez. En algunos programas de recuperación textual también es posible realizar determinados tipos de análisis de contenido: contar apariciones de elementos en el texto, mostrar palabras en contexto, crear listas de palabras y concordancias, etc.
 El tercer tipo de programas genéricos son los organizadores de texto (denominados originalmente en inglés textbase managers). Aunque se asemejan a los recuperadores de texto en las actividades que realizan y en las utilidades principales que albergan, estos programas presentan una organización del material cualitativo en formato de base de datos. Este hecho permite que sean muy adecuados para profundizar en la organización, ordenación y formalización de distintos subconjuntos de textos.
            Por su parte los específicos son programas diseñados para el análisis de datos cualitativos. Entre ellos podemos nombrar a:
1. Sistemas de codificación y recuperación (Ethnograph): El Ethnograph es un programa específico para el análisis descriptivo-interpretativo de textos, creado por John Seidel. Este programa, diseñado alrededor de conceptos de descontextualización y recontextualización, realiza una serie de funciones entre las que destacan:
*Búsqueda selectiva: compila segmentos codificados en carpetas con características específicas.
*Frecuencias: Cuenta las ocurrencias de un código determinado. Un tipo de contexto de información puede ser usado para identificar hablantes en una conversación de grupo. Después el programa puede contar el número de veces que el hablante particular ha hablado.
*Búsqueda de códigos múltiples: el texto de un segmento es codificado con dos o más categorías simultáneamente.
           Este programa permite al investigador incorporar y codificar segmentos de texto en una base de datos, con el fin de poder ser recuperados y consultados todos los segmentos identificados.
2. Sistemas basados en reglas para la construcción de teorías (HyperResearch): Realiza búsquedas textuales con auto-codificación de los resultados, lo que permite recuperarlos como datos primarios para operar sobre ellos de nuevo.
3. Sistemas basados en la Lógica (AQUAD): Posee buenas técnicas para recuperar texto basado en patrones, denominados estructuras de hipótesis. La característica especial de AQUAD es su habilidad, no sólo para categorizar y organizar después los datos para cada categoría, sino también el permitir al investigador extraer conclusiones al relacionar las categorías entre ellas, explorando, por ejemplo, la aparición de ciertas configuraciones típicas y repetitivas en la representación de los datos. Una vez que dichas repeticiones son intuidas, el investigador puede querer confirmar todo el conjunto analizando sistemáticamente los datos o bien, como señalan Miles y Huberman (1994), Shelly y Sibert (1985) y Shelly (1986), "comprobando las hipótesis". Un resultado positivo (como el hecho de que la aparición, de manera sistemática, de ciertas combinaciones particulares de aseveraciones en los textos resulta ser "verdadera") validaría la conclusión.
 4. Aproximación basada en índices (NUD-DIST): son las siglas de "Non-numerical Unstructured Data * Indexing Searching and Theorizing" (una posible traducción en castellano sería: Datos No estructurados y no numéricos * Indexar, registrar y teorizar). Es uno de los más utilizados como herramienta informática para la investigación cualitativa, diseñada para soportar una amplia variedad de investigaciones. Almacena la información en nudos, favoreciendo la elaboración de tipologías basadas en ideas.  
5. MAXQDA
MAXqda es el nuevo programa de los desarrolladores de winMAX, es una potente herramienta para el análisis de texto basado en datos cualitativos.
Los métodos utilizados en MAXqda se basan en la metodología de la investigación social, sobre todo:
- Teoría Fundamentada.
- Análisis cualitativo del contenido.
- Métodos de investigación de campo.
- Métodos etnográficos.
- Modelos de la investigación socio-económica.
MAXqda es un programa creado para científicos que en un momento determinado necesitan un sistema eficaz que facilite el análisis de los datos.
MAXqda analiza los siguientes tipos de textos:
- Transcripciones de entrevistas abiertas, p. ej., entrevistas en profundidad, semiestructuradas y de expertos.
- Preguntas abiertas de entrevistas semiestandarizadas.
- Observaciones, estudios sobre el terreno, p. ej. protocolos de observación.
- Debates de grupo, "focus groups".
- Discursos y documentos, p. ej. cartas, redacciones, programas de estudios etc.
- Textos procedentes de la red.
- Textos especiales, p. ej. discursos políticos, charlas terapéuticas, entrevistas para anamnesias.
6. Sistemas de redes conceptuales (ATLAS.TI): Crear gráficas llamados diagramas conceptuales, lo que favorece la interpretación de la información. El procesador no será quién realiza el análisis, pues la lectura e interpretación de los datos es una tarea reservada siempre para el investigador cualitativo.
Antes de desarrollar el análisis del documento asistido por computador, es aconsejable seguir este orden (Varguillas, 2006):
 A. Contacto primario con los documentos (organización, clasificación, lecturas iniciales)
B. Preparación de documentos
C. Análisis: construcción, denominación y definición de categorías primarias y secundarias (unidades de análisis seleccionadas, asignar códigos, relación de estos), creación de redes conceptuales
D. Interpretación analítica: Describir e interpretar hallazgos.
 Software Atlas.ti
           El software Atlas.ti (de Thomas Mühr, Universidad de Berlín, 2010) es probablemente uno de las herramientas más potentes con respecto a las posibilidades de análisis cualitativo. El paquete informático tiene como objetivo facilitar el análisis de grandes volúmenes de datos textuales, gráficos o de audio.
           Una de las peculiaridades es la procedencia de este software en términos teóricos de la Teoría Fundamentada o Grounded Theory (Glaser y Strauss, 1967) que es una metodología de análisis unida íntimamente a la recogida de datos, y que utiliza un conjunto de métodos, sistemáticamente aplicados para la generación de una teoría inductiva sobre un área sustantiva, constituyendo como producto de investigación final la formulación teórica, o un conjunto integrado de hipótesis conceptuales sobre el área que es objeto de estudio (Glaser, 1992). El programa un instrumento tecnológico que permite realizar búsquedas y recuperaciones de datos en forma intuitiva, lo que facilita la labor en la investigación cualitativa. Sus características lo convierten en una herramienta de soporte de gran utilidad. Dentro de sus características generales podemos indicar que:
 1. codifica y recupera texto,
2. efectuando búsquedas de cadenas de caracteres y patrones textuales,
3. permitiendo el diseño de memos que pueden ser codificados y recuperados,
4. permitiendo agrupar los códigos en familias.
           Para iniciar una investigación utilizando el programa Atlas.Ti, implicará por parte del investigador la creación de unidad hermenéutica (hermeneutic unit) y sus componentes son:
§   Documentos Primarios – Primary Docs (P.DOCS): Ellos son base del análisis y son nuestros datos sin analizar. Estos son archivos de texto, imágenes, videos, entre otros.

§  Citas – Quotations: Fragmentos de los Documentos Primarios que tienen significado para el investigador.

§  Códigos – Codes: Son regularmente las unidades básicas de análisis, y este se basará en ellos. Se componen de palabras claves que integran conceptos significativos que fueron estudiados en la investigación.

§  Anotaciones - Memos: son todas aquellas anotaciones que realiza el investigador/analista durante el proceso de análisis y que van desde simples notas recordatorias, hasta hipótesis de trabajo, entre otras, realizadas a lo largo de la investigación. Su uso es una característica fundamental de la grounded theory (teoría fundamentada).

§  Familias: Así como los Códigos pueden ser vistos como agrupaciones de Citas (quotations), el programa nos permite agrupar en Familias otros componentes principales (documentos, códigos y anotaciones), lo que se pueden convertir en un primer paso en el análisis conceptual.

§  Redes-Networks: Este elemento nos permite representar información compleja de forma intuitiva mediante representaciones gráficas de diferentes componentes y de las relaciones que se establezcan entre ellos. Esto facilita la investigación cualitativa. Es uno de los componentes más interesantes y característicos del Atlas. Ti.

§  Unidad Hermenéutica – Hermeneutic Unit: La Unidad Hermenéutica (U.H.) es el archivo que contiene a todos los elementos presentados, partiendo desde los Documentos Primarios hasta las Networks.
           Es necesario indicar que uno de los principios fundamentales que Tomas Muhr (2001, 2004, citado por Andreu, García-Nieto y Pérez Corbacho, 2007) indica como los principios VISE (V: Visualización; I: Integración; S: Suerte; E: Exploración) Con respecto a ellos podemos indicar:
§  Visualización: El programa ofrece una serie de herramientas que ofrecen la posibilidad de percibir visualmente y de forma fácil las diversas relaciones que se establecen entre los diversos elementos que conforman el programa, pues una de las formas que tienen los seres humanos para poder entender y percatarse de diversas cuestiones.
§   Integración: Al ofrecerse la Unidad Hermenéutica como base de trabajo, se nos permite trabajar con infinitos archivos dentro de un archivo general, no perdiendo nunca el sentido general de nuestra investigación.
§  Suerte: El software considera el elemento suerte como uno de los principios de toda investigación, dado que el enfoque intuitivo de los datos presenta un recurso de oportunidad, que será  utilizado de mayor o menor medida según la sensibilidad del investigador.
§  Exploración: Se enfatiza la construcción teórica derivada del análisis de documentos, centrada en el método de comparación constante, sustentada en un enfoque analítico exploratorio que se orienta al descubrimiento y generación de teoría. Una de las estructuras para realizar el análisis a considerar dentro del análisis cualitativo con el programa Atlas.ti implica considerar 4 etapas:
             1- Codificación de los datos
             2- Categorización de los datos
            3- Estructuración y/o creación de una o más redes de relaciones entre las categorías                 (diagramas de flujo, mapas mentales o mapas conceptuales)
            4- Estructuración de hallazgos y/o teorización (cuando sea necesario)
La informática en el análisis de la investigación Cuantitativa
           El procesamiento de la información requiere no solo de un proceso de planeación sino también de un plan adecuado de manipulación de los datos lo que determinará unos resultados que realmente sirvan para los objetivos del estudio. Existe una gran variedad de estos programas que difieren entre sí, por ejemplo, en los aspectos de capacidad –número de datos y variables-, variedad de cálculos que pueden realizar y facilidad de su uso.
           En la mayoría de las investigaciones cuantitativas se usan paquetes de programas estadísticos los cuales son frecuentemente actualizados, con los que el tratamiento de la información se hace más fácil, sobre todo cuando se trata de un numero amplio de datos, ya que, como señala Briones (1997), salvo situaciones en las cuales la cantidad de datos a analizar es pequeña y se usan calculadoras manuales, el manejo de la información puede convertirse en un dilema para el investigador.
           El manejo de dichos software requiere una preparación previa y, desde luego, un conocimiento básico en estadística. Entre los paquetes estadísticos más usados en investigaciones que manejan datos numéricos se encuentran el SAS, SPSS, BMDP, MINITAB, entre otros, que ofrecen distintas posibilidades de tratamiento de la información:
           -Paquete estadístico para las ciencias sociales o SPSS, desarrollado en la Universidad de Chicago, es uno de los más difundidos. Posee versiones para Windows, Macintosh y Unix, en inglés y español, aunque debe usarse en computadores que posean la capacidad necesaria para correr el programa. Contiene dos partes: “a) vista de variables (para definiciones de las variables y consecuentemente, de los datos) y b) vista de los datos (matriz de datos). La cual contiene comandos para operar en la parte superior”. El programa SPSS trabaja de una manera sencilla y practica: el investigador usuario ingresa los datos recolectados en la matriz de datos, tal como se hace en otros programas, selecciona las opciones que considere necesarias, de acuerdo a los propósitos de su investigación, ya sea correlacionar dos o más variables, realizar una regresión, un análisis bivariado, etc. El programa posee además distintas herramientas para elaborar los gráficos estadísticos básicos.
-El MINITAB es un paquete conocido por su relativamente bajo costo. Incluye considerable número de pruebas estadísticas, y cuenta con un tutorial para aprender a utilizarlo y practicar; además, es muy sencillo de manejar. Al igual que el SPSS, el MINITAB posee una matriz u hoja de trabajo donde se ingresan los datos, se asignan criterios para los componentes de las variables como nombre, formato (numérico, texto o fecha), el tamaño de las celdas y se define el tipo de escala (nominal, ordinal, de intervalo o de razón). Los análisis realizados aparecen en la parte superior de la pantalla, mientras que -los gráficos se reproducen en recuadros-.
-El SAS o sistema de análisis estadístico, es otro programa frecuentemente usado en el tratamiento de la información recogida en investigaciones cuantitativas. Diseñado en la Universidad de Carolina del Norte, es un paquete muy completo que posee una amplia variedad de pruebas estadísticas, incluye además ejercicios para que el usuario pueda practicar y comprender las pruebas básicas.
-R es un paquete de software de código interpretado, esto es, tienes que ingresar el código y en la misma ventana el programa emite los resultados. En ello reside también su fortaleza, porque puedes construir tu propio código para análisis con base en funciones de análisis contruidas por la comunidad que soporta R. Para los que no pueden vivir sin apretar botones, siempre está la posibilidad de usar R Commander, una librería extra que permite tener una interfaz de análisis más amigable. El poder de R está en su versatilidad y en que posee una enorme cantidad de rutinas que pueden ser agregadas a su “módulo base”. La mayor desventaja es que requiere de mucho estudio, la curva de aprendizaje es muy larga.








                                                                CONCLUSION

    En el análisis de información, así como de los métodos de investigación cuantitativa y cualitativa poseen ventajas y desventajas que los pueden hacer débiles en el desarrollo de una investigación y en los resultados de la misma. Un análisis de información, para que resulte confiable, debe combinar la investigación cuantitativa y la cualitativa, desde el inicio del mismo.
   La globalización del conocimiento exige en los actuales momentos nuevas formas de abordar, científicamente, un problema de investigación. Es así, como  la universidad, como ente rectora del saber humano debe de estar a la vanguardia con el impacto y el vertiginoso ingreso de las tecnologías de la información y la comunicación, como recurso indispensable  para el proceso de enseñanza aprendizaje, y para la resolución de aspectos básicos y claves de la calidad de vida del colectivo















                                                  REFERENCIAS


Andreu, J., García-Nieto, A. y Pérez Corbacho, A. (2007). Evolución de la teoría        fundamentada como técnica de análisis cualitativo. Madrid: CIS.
Flick, U. (2004). Introducción a la investigación cualitativa. Madrid: Morata
ATLAS. TI. (2010). http://www.atlasti.com. Recuperado el 17 de Abril de 2009 a las 13:24
Taylor, S.J. y Bogdan, R. (1984). Introducción a los métodos cualitativos de investigación. Barcelona: Paidós.

No hay comentarios:

Publicar un comentario