Resumen segundo parcial. Estrategias.
Semana 5: Instrumentos de recolección de datos. Instrumentos de recolección
de datos en la investigación cualitativa y cuantitativa.
A la hora de recolectar la información que necesitamos para nuestra
investigación tenemos una amplia variedad de instrumentos para elegir. Todos
ellos tienen sus ventajas, desventajas, múltiples alcances y formas que se asocien a la
estructura y objetivo de la investigación. A veces se utilizan más de uno.
Lo primero que debemos hacer es definir, según nuestro problema y objetivos, qué
instrumentos utilizar. Hay algunos instrumentos que son exclusivamente de la
metodología cualitativa o cuantitativa. También hay instrumentos, como la
observación, cuestionarios, que pueden ser utilizados en ambos enfoques. Esto va a
depender de cuan estructurados sean los mismos, mientras más estructurados son los
instrumentos más aplicables son a la investigación cuantitativa, y cuanto más abiertos
más aplicados a investigación cualitativa.
Los instrumentos que son más abiertos requieren siempre de mayor pericia por
parte de los investigadores, como por ejemplo las entrevistas o historias de vida.
No es lo mismo que realizar una encuesta que ya posee las preguntas establecidas.
En cambio, para desarrollar entrevistas, el entrevistador tiene que manejar bien el
tema conceptual, las herramientas, etc.
También, dentro de los primeros pasos antes de la elección del instrumento, se debe
delimitar qué material se va a necesitar. Los instrumentos más abiertos, tienen la
ventaja de que nos ofrece información más profunda, y que esa información proviene
de los propios involucrados. En cambio, en los más estructurados, las respuestas con
más acotadas y son las opciones de respuesta preestablecidas. Sin embargo, los
instrumentos más abiertos poseen la desventaja de que son más difíciles de analizar,
se necesitan desgravar, tipear la información, releerlo y analizar de manera cualitativa.
En cambio, los instrumentos más estandarizados ofrecen datos que son más
fáciles de analizar, cuantificables. Los instrumentos abiertos suelen ser más
costosos en tiempo que implica, los recursos que tengamos van a determinar el tipo de
instrumento. Por esto mismo del costo, los instrumentos estandarizados pueden
poseer muestras más amplias que los instrumentos abiertos.
- Los datos que proporcionan los instrumentos más abiertos se denominan: datos
textuales. Son palabras, narrativas.
- Los datos que proporcionan los instrumentos estandarizados se denominan: datos
numéricos, datos codificables en una matriz de datos.
En el caso de los métodos mixtos, en distintas etapas se pueden usar distintos
instrumentos (cuanti o cuali) o que de manera simultánea se administren ambos tipos.
Las fuentes de información:
Instrumentos mayormente estructurados:
- fuentes documentales, se revisan documentos escritos, audios, o audiovisuales,
son trabajaos bibliográficos. Son documentos existentes. La fuente es simplemente la
revisión documental. Se utiliza mucho en investigación cualitativa
- cuestionarios: instrumentos estandarizados, que poseen un conjunto de preguntas,
estas pueden ser de distintos tipos. En los cuestionarios, generalmente, se utilizan
preguntas de tipo cerradas (fijas). Se brindan opciones de respuestas. En algunos
casos se dejan preguntas abiertas, no ofrece opciones de respuesta. Las preguntas
abiertas son útiles cuando no tenemos información sobre las posibles respuestas, sin
embargo, son más difíciles de codificar. La codificación de las respuestas en
cuestionarios se le deben asignar símbolos o valores numéricos a las respuestas con
el fin de poder codificarlas si son preguntas cerradas, o pre codificar las respuestas. Si
las preguntas son abiertas la codificación es posterior, donde se clasifican las
tendencias de respuestas.
- escalas de medición de actitudes: Intentan ser un instrumento unitario de
medición. Arrojan una puntuación total acerca de la intensidad y dirección de la actitud.
Se conforman por un conjunto de ítems en forma de afirmaciones de orientación
positiva y negativa
- escala Likert: una de las más conocidas, se caracteriza por tener ítems como
afirmaciones y las personas deben contestar si están: Totalmente de acuerdo, de
acuerdo, ni de acuerdo ni en desacuerdo, en desacuerdo o totalmente en desacuerdo
con la información. Se mezclan ítems de orientación positiva con ítems de orientación
negativa. Cada posible opción tiene un valor, en los ítems de orientación positiva el
valor va de 5 (totalmente de acuerdo) a 1 (totalmente en desacuerdo), en los ítems de
orientación negativa el valor es de 5 (totalmente en desacuerdo) a 1 (totalmente de
acuerdo). La puntuación total de la escala es sumando el valor total de los ítems y
dividiéndolo por la cantidad de los mismos.
- escala de Thurstone: A cada afirmación, si la persona responde su acuerdo, se le
adjudica una puntuación determinada que está dada por la fortaleza de ese reactivo
(valor escalar). El valor escalar surge del promedio de las puntuaciones brindadas (de
1 a 11) entre distintos jueces que valoran desde lo más positivo a lo más negativo a
cada uno de los ítems
- escala de diferencial semántico: Consiste en una serie de adjetivos extremos
(bipolares) que califican al objeto de actitud, ante los cuales se solicita la reacción del
sujeto. Es decir, entre cada par de adjetivos se presentan varias opciones y el sujeto
selecciona aquella que refleje su actitud en mayor medida.
- observación: instrumento que se puede también usar como estructurados. Se
obtienen descripciones textuales y observaciones textuales si es de tipo abierto. Si
observamos estructuradamente, se observa controladamente, se realizan grillas de
observación, se codifica. La observación requiere: definir las conductas a observar,
definir las unidades de observación, definir tiempo y lugar, definir las categorías y
subcategorías de observación. Tipos de observación: estructurada o no estructurada
(según los instrumentos), participante o no participante (según el papel de
observador), encubierta o no encubierta (según el conocimiento de los observados),
naturalista o controlada (según el lugar).
- entrevistas: comunicación interpersonal entre investigador y el sujeto de estudio, a
fin de obtener respuestas verbales a las preguntas planteadas. Permite obtener
conocimiento directo desde el punto de vista real. Supone una relación social. En la
entrevista es muy importante: la importancia del contacto inicial, explicitación de los
objetivos, garantizar anonimato, valorar la participación, lograr un buen clima, su
administración requiere pericia y experiencia. Tipos de entrevista: no directiva
(abierta), informal (no hay preguntas estructuradas sí hay tema de indagación), semi-
estructurada (esquema de guía de temas), estructurada pero abierta (preguntas
estandarizadas respuestas abiertas) y completamente estructurada (preguntas
cerradas, respuestas fijas). Se debe grabar y mantener un guion.
- historia de vida: permite recoger información de enorme profundidad, se presentan
experiencias vividas por una persona, grupo u organización, permite recoger
costumbres, creencias, modos de sentir y vivir propios de una época. Puede ser
escrita o verbalizada. Se debe mantener un guion de la historia de vida. Se pueden
llevar a cabo en varios encuentros pactados con la/s persona/s en cuestión.
- grupos focales: Se reúne a un grupo de individuos se conduce como una entrevista
colectiva. Se requiere un mínimo de 6 y máximo 15 personas, requiere una cuidadosa
selección de los participantes, estos no deben conocerse entre sí. Posee una
planificación previa. Este tipo de instrumento permite recoger la pluralidad de
opiniones e interacciones, se coordina con un moderador que propone los temas
incluidos en un guion previamente elaborados estimulando la participación y libre
expresión. Los integrantes debaten acerca de temas o problemas en objeto de
indagación.
-las pruebas proyectivas: son un tipo de obtención de información sobre la
personalidad, afectividad y/o cogniciones de un sujeto a través de su respuesta no
estructurada. Son no estructurada y evita la predisposición de las personas a adivinar
las intenciones del investigador.
- pruebas e inventarios estandarizados: tests desarrollados para medir variables
específicas. Estas pruebas tienen su propio procedimiento de aplicación, codificación,
e interpretación.
- pruebas psicométricas: instrumentos de medición técnicamente estandarizados.
Implica el establecimiento de normas de medición para la población para la cual se
diseña la prueba. Se utilizan en casos en que las oportunidades de las personas
pueden verse afectadas por los resultados.
En toda administración debe solicitarse el consentimiento informado del participante,
informándole los objetivos y características del estudio, aclarándole que su
participación es voluntaria, anónima, que se garantiza la confidencialidad de los
datos y que el consentimiento puede ser revocado sin ningún tipo de perjuicio para el
participante.
Semana 6: Análisis de datos. Estadística descriptiva.
Análisis cuantitativo.
El análisis cuantitativo trata sobre la estadística fundamentalmente, los
instrumentos que producen datos numéricos son los que se analizan de manera
estadística.
El uso de la estadística es una herramienta, incluye una serie de recursos con los
cuales podemos recolectar, organizar, resumir, presentar y analizar datos numéricos
que nos permiten extraer conclusiones válidas. Para analizar los datos de una manera
más organizada se cargan en la estadística, más específicamente en la matriz de
datos.
La estadística tiene dos grandes capítulos:
- La estadística descriptiva: permite presentar y, fundamentalmente, caracterizar un
conjunto de datos con el fin de describir apropiadamente las diversas características
de ese conjunto. Se utiliza cuando se quiere describir, contar sobre una serie de
características de una muestra determinada. Se describe la situación de una muestra
variable por variable. Ej: en x muestra 320 eran mujeres 210 eran hombres.
- La estadística interferencial: permite obtener conclusiones o generalizaciones que
sobrepasan los límites de los conocimientos aportados por un conjunto de datos.
Busca obtener información sobre la población basándose en el estudio de los datos de
una muestra tomada. Se refiere fundamentalmente, a un conjunto de técnicas que
permiten probar hipótesis, realizar estimaciones para una población.
Previo a conocer cómo se analizan los datos tenemos que hacer un repaso sobre los
tipos de variables, porque de estas dependen el tipo de análisis que elijamos.
- Variables cualitativas o categóricas: no se pueden medir numéricamente (ej:
nacionalidad, sexo, ocupación)
- Variables cuantitativas: tienen valor numérico (ej. Edad, precio de x producto,
ingresos anuales, etc.). Estas pueden ser:
Discretas: no hay valores entre dos consecutivos (ej. Numero de hijos: 1, 2 o 3)
Continuas: entre un valor y otro, se pueden tomar infinitos valores (ej. La
velocidad de un vehículo 90.4 km/h, 90,70, etc.)
Los niveles de medición, la elección de la técnica que vamos a utilizar para el
análisis de los datos depende del nivel de medición de las variables. Todos los niveles
de medición van incorporando los aspectos del anterior e incorporando algo nuevo.
La medición de las variables puede realizarse por medio de cuatro escalas de
medición:
- Nominal: establece diferencias entre un valor y otro. Establece categorías distintivas
que no implican un orden especifico. Se pueden asignar números para identificarlos.
Posibilita el conteo y la clasificación. Es la escala de medición que asigna un número,
nombre, un símbolo o una categoría a un fenómeno sin que exista relación de orden,
grado, jerarquía o proporción entre los diversos elementos de la escalada. Se puede
luego clasificar.
- Ordinal: Se establecen diferencias y establece un orden jerárquico. Permite ordenar
a los eventos en función de la mayor o menor posesión de un atributo o característica.
Estas escalas admiten la asignación de números en función de un orden prescrito.
Además de decir que es diferente, tiene un nivel de organización.
- De intervalo: Además de establecer diferencias y ordenar, se puede conocer la
distancia que hay entre un valor y otro. Este nivel posee un 0 (cero) arbitrario, no
implica ausencia de la propiedad que estamos midiendo.
- De razón: Incluye las características de los tres anteriores. Determian la distancia
exacta entre los intervalos de una categoría, sin embargo, este nivel sí posee un 0
(cero) absoluto, la unidad de análisis que corresponda un 0 tiene ausencia de esa
propiedad.
Lo primero que se realiza para comenzar el análisis de los datos es ordenarlos, la
manera en que se ordenan universalmente es organizándolos dentro de la matriz de
datos.
La matriz de datos es una forma de ordenar los datos de manera que sea visible su
estructura tripartita: casos, variables y valores. Cada fila corresponde a la unidad de
análisis (habrá tantas filas como unidades de análisis), cada columna a las variables, y
en las celdas figuran los valores.
La generación de una matriz de datos supone la codificación previa de las
observaciones, la introducción de los datos en archivos informáticos, la depuración
de los datos ya grabados, es decir, detección y tratamiento de los errores y grabación
de los valores faltantes, y la realización de transformaciones y tratamiento de ficheros
que faciliten su posterior tratamiento estadístico.
Proceso de codificación
- se codifican los valores de las variables con números ej. Hombre (1) mujer (2)
- a esos números hay que asignarles etiquetas
- esa variables aunque tenga números no será cuantitativa, ese valor es un código, la
variable sigue siendo categórica.
- se deben asignar códigos a respuestas, que son especiales.
- se consideran criterios de exhaustividad, es decir, que todas las UA son posibles
de ubicarse en alguno de los valores que estoy ofreciendo, y mutua exclusión, no se
puede ubicar en 2 valores.
Ej de codificación: nivel socioeconómico bajo (1), medio (2), alto (3).
Proceso de introducción.
se realiza el ingreso de los datos de diferentes maneras
- de manera directa
- copiando
- importando
los formatos son compatibles con la mayoría de las bases de datos. Se debe explorar
la matriz de datos.
Procesos de depuración.
detección y tratamiento de los errores y grabación de los valores faltantes, y la
realización de transformaciones y tratamiento de ficheros que faciliten su posterior
tratamiento estadístico
ANÁLISIS DESCRIPTIVOS.
Objetivo: resumir los datos y representarlos de una manera informativa e inteligible.
Incluye:
- distribuciones de frecuencias, porcentajes, proporciones.
- tendencia central y variabilidad
- posición no central
- evaluación de distribuciones: índices de forma
- representaciones gráficas y análisis visual de datos.
Lo primero que se realiza, lo más básico, es generar distribuciones de frecuencia,
distribuciones de porcentajes y distribuciones proporcionales. Siempre nuestro insumo
va a ser la matriz de datos, entonces de la misma podemos generar la distribución de
frecuencias. La distribución de frecuencia es decir cuántos casos hubo en cada
uno de los valores que tenía la variable (ej. Cuántos “sí” hubo y cuántos “no” hubo).
Cuando queremos saber cantidad, son frecuencias, cuando esta cantidad la
expresamos en proporción o porcentaje ya son distribuciones de proporción o de
porcentaje. El total de las UA es el total de los números de frecuencia sumados, a
partir de ahora se llama n.
La proporción se calcula cuando hacemos una parte (f) sobre el todo (n), ej. Si
queremos saber la proporción de mujeres que hubo en nuestra muestra total, tenemos
que calcular la frecuencia de mujeres sobre la muestra total (hombres + mujeres).
Para qué se utiliza la proporción para poder comparar con la misma base las
distribuciones de diferente n. Al sumar la distribución de las proporciones me debe dar
1. Intento averiguar qué parte de un entero ocupa x valor de la variable, permite
comparar con la misma base de distribuciones con diferente cantidad de casos.
Formula.
El porcentaje se calcula igual que la proporción y luego se multiplica por 100. Sería f
sobre n por 100. En el porcentaje se pone el decimal.
Formula:
EJEMPLO:
Estadística descriptiva.
Medidas de tendencia central
Las medidas de tendencia central realizan un resumen de la información, ej. si yo
tengo 1000 encuestas con la edad de 1000 sujetos, puedo realizar un promedio. En
estadísticas el promedio es una media aritmética, una medida que sintetiza.
Las medidas de tendencia central son 3:
- Modo: Es el valor de variable que más se repite, el que tiene la frecuencia más
alta. Se puede calcular en todos los niveles de medición (nominal, ordinal, intervalar)
- Mediana: Es un valor que divide a la distribución en dos partes iguales, dejando
la mitad por debajo y la mitad por encima. Esto implica orden, si no puedo ordenar los
datos, no puedo dejar por debajo o por encima. Se averigua cual es el valor que cae
justo al medio de la distribución. Para calcular la mediana se averigua la posición de la
mediana, la fórmula Se debe hacer la frecuencia acumulada, se acumulan las
frecuencias, en la columna de las frecuencias acumuladas debemos identificar la
posición de la mediana (seria n+1 sobre 2.) . Ej. Se puede calcular en
el ordinal, intervalar y el de razón. No se calcula en el nivel nominal.
- Media: Para calcular la media utilizamos esta fórmula: Solo se calcula
en el intervalar y el de razón. No se calcula en el nominal ni ordinal. La sumatoria de
todos los valores, x es los valores, la E es sumatoria, sobre n. Para calcular la media
se suman todos los valores, en el ejemplo eso me daría 30, eso se divide por 14, me
da 2,1 y esa es mi media. Se suma todos los valores por cada vez q se repiten. Ej:
.
Al aplicar una medida de tendencia central se debe considerar:
- el nivel de medición, además se deben considerar las características de la
distribución.
- se deben considerar si hay valores extremos o no, si hay valore extremos vamos a
elegir la mediana, porque la media es sensible a valores extremos.
Medidas de variabilidad.
Buscan responder a cuánto se separan las medidas de tendencia central, es decir
los valores. Para ello tenemos medidas de variabilidad que complementan a cada
una de las medidas de tendencia central, cada una de ellas se aplica para
determinados niveles de medición. Siempre a un número mayor en la medida de
variabilidad, significa que es mayor el número de dispersión.
- Rango: El rango es la diferencia entre el valor observado más alto y el más bajo. Ej.:
+ Alto: 80, + Bajo: 10. Mi rango es 80-10: 70. Nivel nominal. Complementario del modo
- Antimodo: Complementario del modo. Porcentaje por fuera del modo, los que no
corresponden al modo, mientras más amplio menos homogénea es esa distribución.
Nivel ordinal e intervalar. Fórmula: la frecuencia del
modo y el n. Ej: 1 – 5 dividido 14, y a ese resultado lo multiplicamos x 100. Primero
hago la división, a eso le resto 1 y luego multiplico.
- Desviación semi-intercuartil: se calcula como la mitad de la diferencia entre el
cuartil 3 y 1, no vimos aun cuartiles. Mientras más chica es esta mitad es más
homogéneo. Nivel ordinal e intervalar
- Varianza: Corresponde a la media. Primero hacemos la media. S al cuadrado es la
simbolización de la varianza, sumatoria (la E) de desvío, los valores menos la media,
se suma los valores que hay, menos la media, y ese resultado se hace al cuadrado.
Después, ese resultado lo dividimos x n. Entonces, 1. Cada valor menos la media al
cuadrado. Ej: (2-6) ² + (2-6) ²… 2. Se suman todos esos resultados. Ej: 16+4+4… = 44.
3. Divido ese resultado por n, en este caso 44 dividido 10. Ese resultado es 4,4, esa es
mi varianza. Fórmula: Nivel de razón e intervalos
- Desvío estándar: El desvío es la misma fórmula que la varianza, se realiza el mismo
procedimiento, pero se le agrega la raíz cuadrada del valor de la varianza. Ej: 4,4, le
aplico la raíz cuadrada a ese resultado de la varianza, me da 2,1. Ese es mi desvío.
Fórmula: Nivel de razón e intervalos
Resumen:
Semana 7: Análisis de datos. Estadística descriptiva. Medidas de posición
Medidas de posición y representaciones gráficas.
Las medidas de posición se denominan medidas no centrales, ya que se distribuyen
a lo largo de toda la matriz, no es como las medidas de tendencia central que se
ubican en una zona central. Hay otras medidas de posición no central, nosotros vamos
a ver los cuartiles y los percentiles.
Los cuartiles son valores que dividen una muestra de datos en cuatro partes iguales
(25%), tenemos tres cuartiles:
Cuartil 1 (Q1): Deja por debajo al 25% de los casos. Por encima de ello está el 75%
restante.
Q2: Deja por debajo al 50% de los casos, coincide con la mediana.
Q3: Deja por debajo al 75% y por encima al 25%
Primero debemos realizar una fórmula: la C corresponde a los cuartiles
(1, 2 o 3), multiplicado por n divido 4, en paréntesis esto último. De este modo
averiguamos la posición, y luego nos fijamos en la frecuencia acumulada (fa).
Ejemplo: Q1: 1 x (14/4), primero hago la división del paréntesis = 3.5, entonces ahí
hago 1x (3.5) = 3,5 Luego debo fijarme cuál es el valor que primero contiene el 3,5
en sus casos, en este caso es el 1.
Los percentiles es una medida de posición que indica, una vez ordenado los datos de
menor a mayor, el valor de las variables por debajo del cual se encuentra un
porcentaje dado de observaciones en un grupo. Los percentiles van del primero
percentil (1% de los casos por debajo) hasta el percentil 100 (100% de los casos por
debajo).
La manera de calcularlo es mediante una fórmula La p pequeña
representa el numero de percentil es decir del 1 al 100. Primero debemos sacar la
división de n sobre 100, y luego multiplicarla por p, que es el numero de percentil
que deseemos calcular. Luego de obtener los resultados, buscamos en la frecuencia
acumulada la posición obtenida. EJEMPLO:
Representaciones gráficas: visualización de los datos.
Un gráfico se utiliza cuando uno quiere mostrar algo y el grafico permite visibilizarlo.
- Gráficos para representar una variable cualitativa o cuantitativa discreta apelamos al
gráfico de barras simples, están separadas por variables, se levanta en frecuencias,
porcentajes o proporciones correspondientes en el eje. También se utilizan gráficos
sectoriales, o grafico de torta, en el que se representa la cantidad de casos en forma
porcentual.
- Gráfico para representar una variable cuantitativa continua: podemos utilizar los
polígonos de frecuencias, son gráficos lineales se suben y se bajan de acuerdo a la
frecuencia, porcentaje o proporción y subiendo, para cada uno de los valores, tantos
casos como frecuencias tenga. También se pueden usar histogramas, es como un
gráfico de barras, pero la diferencia es que son continuos, están en una recta
numérica. También el gráfico de porcentajes acumulas de Ojiva, se van a
acumulando, como frecuencias acumuladas o según porcentajes acumulados, es un
gráfico que sí o sí sube, se va realizan según la Fa para cada valor.
Semana 8: Curva normal y puntajes Z. Simetría y curtosis.
Dentro del análisis de datos cuantitativos, en la estadística descriptiva. Se
desarrollarán los conceptos de curva normal, puntajes zeta y medidas de forma.
La curva normal.
Es una distribución teórica, llamada también campana de Gauss. Tiene forma de
campana y una sola cima ubicada en el centro de la distribución (es donde se
encuentra la mayor cantidad de casos), y baja de manera homogénea. Sus medidas
de tendencia central (modo, mediana y media) coinciden. Tiene varias
aplicaciones, como la transformación de puntajes, como los puntajes zeta, permitiendo
comparar puntuaciones de un sujeto en diferentes formas.
La mitad del área bajo la curva se encuentra a la derecha del punto central y la otra a
la izquierda del mismo. Desciende suavemente en ambas direcciones. Es asintótica,
es decir, desciende al eje x, pero nunca llega a cortarlo. La curva normal es simétrica
en torno a su promedio.
Las áreas bajo la curva normal: significa que, desde la media, si se va un desvío
para abajo, o para arriba, entre menos y más un desvío se encuentra el 68% de la
distribución. Si se corre un desvío mas (+ o -) tenemos que la curva normal concentra
el 95% de la distribución, si se da 3 desvíos, positivos o negativos la curva concentra
el 99% de los casos.
. A partir de los datos de la curva puedo deducir
determinadas cuestiones en relación a las áreas.
Puntajes zeta.
Son puntajes que se distribuyen normalmente, las características de la curva
normal también corresponden a los puntajes zeta (simetría, coincidencia con modo,
mediana y media, etc). Los puntajes zeta son transformaciones que se pueden
hacer a los valores o puntuaciones de una distribución normal, con el propósito
de analizar su distancia respecto a la media. Son puntajes estandarizados. El puntaje
Z va a expresar la distancia en términos de desviaciones estándar, es decir, si uno
dice puntaje zeta 1 es porque se está a un desvío, o 2,5 estamos a esa distancia del
desvío.
Nos dan información tanto acerca de si el puntaje está por debajo o por encima de la
media, el valor que tenga nos dirá si está más cerca o más lejos de la media. Se
calculan con la siguiente formula: se toma el valor de X, valor de la escala
determinada, se le resta la media y luego se divide con el desvío estándar.
Ejemplos:
Los puntajes zeta tienen una media de 0 y un desvío de 1. Esto es que si el puntaje
zeta es 0 es porque la media es 0.
Aplicaciones de los puntajes zeta: comparar observaciones que fueron evaluadas
en distintas variables con escalas d puntuación diferentes. Ej.: comparación de
resultados en dos pruebas de habilidades que puntúan diferente. Comparación de
resultados de dos individuos en una misma prueba, pero pertenecientes a grupos
diferentes. Luego se puede ubicar en la curva normal, para poder sacar conclusión.
Medidas de forma: Curtosis y asimetría.
Evalúan la forma de distribuciones gráficas.
Curtosis: indica el grado de agudeza o achatamiento de una distribución con
relación a la distribución de la curva normal cuyo valor es 0. Si es más elevada
que una curva normal (más agudeza, más curtosis) o si es menos elevada que una
curva normal (menos curtosis, más achatamiento). Cuando obtenemos que el valor es
negativo significa que son curvas más achatadas, se llaman platicurticas, son
distribuciones que tienen más variabilidad. En cambio, los valores positivos, significan
curvas más puntiagudas, se denominan leptocúrticas, están más concentradas en
algún valor.
Asimetría: El coeficiente de asimetría es un indicador de cuánto se aleja del valor
propio de la distribución normal (0). Cuanto más se aleje de 0 más asimétrica es. Que
sea asimétrica significa que uno de los extremos tiene muy pocos casos en relación al
otro extremo, hay una parte de la distribución que concentra la mayor cantidad de
casos, y ello va a determinar si es asimétrica hacia la izquierda (+), es decir los
puntajes bajos, o hacia la derecha (-), donde se encuentran los puntajes altos.
En la asimetría las medidas de tendencia central se corren hacia un lado u el otro.
Siempre el modo va a estar en la parte más alta, la mediana siempre cae al medio de
las otras medidas de tendencia central. En cambio, la media va a ser la que se va
hacia la cola de la distribución por ser la más afectada por los puntajes extremos.
Semana 9: Análisis de datos. Análisis cuantitativo. Estadística inferencial.
Estadística inferencial.
Estudia cómo sacar conclusiones generales para toda la población a partir del
estudio de una muestra, el grado de fiabilidad o significación de los resultados
obtenidos. No se trata de lo que se observa exacto de una muestra, sino que se infiere
a partir de la población.
Procede a formular estimaciones y probar hipótesis acerca de dicha población a partir
de los datos resumidos y obtenidos de la muestra.
La estadística inferencial se subdivide en dos grandes ramas:
- Estimación de parámetros
- Prueba de hipótesis.
La estimación de parámetros.
Los parámetros poblacionales son las medidas que corresponden a la población. Se
entiende por parámetro a la media, desvió estándar, que corresponden a la
población total.
Los estadísticos muestrales son la media y el desvió de la muestra. Estos se calculan,
en cambio los parámetros se infieren o estiman. Estas estimaciones se realizan con un
grado de confianza (un margen de error de 5%, un grado de confianza de 95%), es
decir, con una probabilidad definida de que un parámetro se va a ubicar en el intervalo.
Ej: tomamos una muestra, a partir de ello se quiere estimar su media poblacional, es
decir su parámetro. Se calcula el promedio y desvío de la muestra, y de allí hacer una
estimación, por un intervalo de un rango, se aplica una fórmula, y dentro de la cual
caería la media de la población. Un intervalo con una confianza del 95%.
Las pruebas de hipótesis (lo veremos toda esta clase y la próxima).
Son un conjunto de técnicas estadísticas que permiten poner a prueba las
hipótesis de exploración.
Permite explorar asociación y/o correlación entre variables, comparar grupos en sus
medias o análisis de varianza, entre otras.
Tiene como objetivo proveer de argumentos para decidir en contexto de
incertidumbre. No se puede conocer de manera taxativa que la hipótesis es
verdadera. Por eso cuando hablamos de estadística inferencial hay márgenes de
conciencia y márgenes de error, nada se comprueba un 100%.
Pasos para la comprobación de hipótesis.
1. Formular hipótesis
2. Determinar que pruebas estadísticas y nivel de significación voy a utilizar para
ponerlas a pruebas. No se puede aplicar cualquier prueba, va a depender del tipo de
hipótesis, lo que afirme.
3. Tomar la muestra y calcular los estadísticos muestrales (media y desvío)
4. Ver si el estadístico cae en la zona de rechazo o no.
5. Concluir sobre la hipótesis alternativa (si se acepta o se rechaza).
La hipótesis alternativa es la hipótesis de investigación. La hipótesis nula es la
que se da por defecto, es una negación lógica de la hipótesis alternativa y
establece que no hay diferencias ni relaciones, etc. La hipótesis alternativa es lo que el
investigador quiere comprobar.
Las hipótesis se pueden formular de manera de manera direccionada o no
direccionada. La no direccionada simplemente afirma la existencia de relación entre
variables, ej.: el nivel de contacto social en la cuarentena se relaciona con los
síntomas depresivos. Este tipo de hipótesis no habla sobre la dirección que toma la
relación. En cambio, la hipótesis direccionada establece cuál es la dirección, dice en
que valores de la variable se relaciona con la otra.
El investigador va a decidir cuál de las dos le conviene más, siempre la direccionada
es más arriesgada pues agrega más información.
Para probar una hipótesis, entonces, tenemos que calcular la probabilidad del valor
observado en la muestra si la hipótesis nula fuera verdadera, es decir, tenemos
que calcular la probabilidad que ese valor tiene si esa hipótesis nula fuera verdadera,
esa probabilidad según sea alta o baja ayuda a definir.
La probabilidad matemática es un numero asociado a la certeza o dudas de que
algo ocurra, siempre varia de 0 a 1, donde 0 es la imposibilidad y 1 la certeza de que
ocurra el fenómeno. Se calculan los eventos favorables sobre el total de eventos.
La probabilidad es importante ya que no sirve para definir lo que es el nivel de
significación. El nivel de significación es muy importante para probar hipótesis.
El nivel de significación es un umbral que permite identificar si el resultado de un
estudio se puede considerar estadísticamente significativo después de realizar
las pruebas estadísticas planeadas. Se expresa en términos de probabilidad (0,05
por ej.) Los niveles de significación con los que se trabaja en ciencias sociales es de
0,05 o 0,01.
Un resultado es significativo cuando conduce a rechazar una hipótesis nula a un
determinado nivel de significación, decidido de antemano (de 001 o 005), cuando
ponga a prueba a mis hipótesis si me dio dentro del margen de 0,05 voy a aceptar mi
hipótesis de investigación y rechazar nula, si me da más alto acepto la hipótesis nula.
En síntesis:
- La hipótesis nula se rechaza si hay poca probabilidad de hallar un valor como el
observado por azar. Cuando es menor a 5 en 100.
- Si encontramos valores cuya probabilidad es mayor a 0.05 lo consideramos valores
esperables y se acepta la hipótesis nula. Por el contrario, los valores cuya probabilidad
es menor a 0,05 se rechaza la nula y se acepta la de investigación.
Cuando hablamos de pruebas de hipótesis siempre hablamos de zona de
rechazo y zona de aceptación de la hipótesis nula.
La zona de rechazo de la hipótesis nula es el conjunto de valores extremos de la
distribución, donde es poco probable encontrar los valores muestrales si la hipótesis
nula es verdadera.
La zona de aceptación de hipótesis nula es el conjunto de valores centrales de la
distribución donde es más probable encontrar los valores muestrales si la hipótesis
nula es verdadera.
En el 95% de probabilidades está la zona de
aceptación, si cae dentro de los extremos de 2,5 que forman el 5% restante, es la zona
de rechazo. Si en mi prueba estadística, calculada a través del análisis del paquete
estadístico de datos, nos va a dar el valor de la prueba y también la probabilidad de
error. Si la probabilidad de error es menor a 0,05, rechazo la hipótesis nula, si es
mayor a 0,05 acepto la hipótesis nula y rechazo la alternativa.
Siempre tenemos márgenes de incertidumbre, conlleva errores.
Tipos de errores.
Cuando hay una hipótesis nula que es cierta, y mis datos demuestran que no,
entonces rechazo una nula cuando debería haberla aceptado.
Por otro lado, la hipótesis nula es falsa y yo la acepto.
El investigador puede hacer lo posible para evitarlos, pero cuando intento disminuir las
probabilidades de cometer uno, aumento las probabilidades de cometer el otro.
Pruebas estadísticas.
EN TODAS HAY QUE TENER EN CUENTA EL NIVEL DE SIGNIFICACIÓN Y LAS
PROBABILIDADES DE ERROR.
La prueba de X²: se aplica para identificar si existen relaciones entre variables
cualitativas que se presentan en tablas de contingencias o bivariadas.
Tablas de contingencia.
es una forma de disponer los datos, las frecuencias de dos variables, en manera
simultánea. En general, se ubica si hay una causalidad, la variable que genera la
causa va a en las filas y la receptora de la causa en las columnas.
La tabla va a tener tantas filas y columnas como valores de las variables.
Se entiende por marginales a los totales de columna y a los totales de fila. Estos
marginales nos muestran la distribución de frecuencia de cada variable por separado.
El medio de la tabla nos muestra la intersección entre los valores y la cantidad de
casos que corresponden a esas intersecciones.
Los porcentajes se calculan sobre totales de fila.
EJEMPLO.
NM: números marginales.
Total de 113 casos.
Porcentaje: 9 el total de fila 7 x 100.
En las intersecciones aparecen las formas en que se presentan ambas variables.
El tipo de información q contiene la tabla bivariada se puede mostrar en un gráfico
de barras complementarias, o torre apilada.
La prueba de X² (ji-cuadrado)
Prueba muy utilizada en ciencias sociales.
Se aplica sobre la tabla bivariada o de contingencia.
Se aplica para conocer si existe relación o no entre dos variables cualitativas. Testea
la hipótesis nula a partir de la comparación de los valores observados o empíricos con
los teóricos. Mientras mayor sea la discrepancia entre ellos más elevado es el valor de
X². Compara las frecuencias observadas en nuestra muestra, con lo que sería las
frecuencias esperadas sino hubiera relación entre las variables. Contrasta la diferencia
entre lo que obtuve en la muestra y lo que sería debido al azar. Cuando hay una
distancia que es amplia se considera un X² amplio, con un margen de error y nivel de
significación en consideración, entonces refuto la hipótesis nula y acepto la de
investigación.
No evalúa el sentido ni la intensidad de relación entre las variables. Solo si hay o no
relación.
Hay que tener en consideración los grados de libertad, se calculan mediante una
fórmula simple: la cantidad de columnas de la tabla de contingencias-1, multiplicado
por la cantidad de filas-1. Ej: 2-1 x 2-1: 1 grado de libertad.
En internet podemos buscar calculadores de X² o chi-square calculator. Se cargan los
datos de la tabla y nos da el valor de X² y la probabilidad de error en un nivel de
significación.
El resultado demuestra
que no hay relación entre las variables. Así también, en relación a las tablas bivariadas
es determinar si se rechaza o no la hipótesis nula.
Semana 10: Análisis de datos cuantitativo. Coeficientes de correlación, prueba t,
ANOVA
En relación a los parámetros y los estadísticos se basan las pruebas paramétricas o
no paramétricas.
- Las pruebas no paramétricas son aquellas cuya distribución no puede ser definida
a priori, los datos observados son los que las determinan y los datos NO se ajustan a
una distribución normal. No se basan en los parámetros
- Las pruebas paramétricas utilizan cálculos y procedimientos asumiendo que conoce
como se distribuye la variable aleatoria a estudiar. Para su aplicación las distribuciones
tienen que cumplir ciertos supuestos: normalidad y homogeneidad de varianzas
(homocedasticidad).
Pruebas de hipótesis.
R de Pearson.
Prueba para evaluar la correlación lineal entre dos variables que son numéricas.
Las puntuaciones que puede obtener este coeficiente va desde -1 a 1, pasando por el
0. Cercana a -1: relación inversa fuerte. Cercana a 0: ausencia de relación. Cercana a
1: relación directa fuerte. Entre el -1 y el 1 puedo obtener una gran variedad de valores
intermedios, que muestran relaciones leves o moderadas.
Se debe considerar el nivel de significación a priori.
Relación directa o positiva: el incremento de los valores de una delas variables se
asocia al incremento de los valores de la otra. En el gráfico de dispersión se observan
puntos agrupados en dirección ascendente de izquierda a derecha. Cercano a 1.
Relación inversa o negativa: el incremento de los valores de una de las variables se
asocia al decremento de los valores de la otra. En el gráfico de dispersión se observan
puntos agrupados en dirección descendente de izquierda a derecha.
Ausencia de relación: no hay ninguna variación concomitante entre las variables.
T de Student.
Es una prueba estadística que permite evaluar si dos grupos difieren entre sí de
manera significativa respecto de sus medias.
Se aplica cuando la variable de agrupación es cualitativa (dicotómica) y la de
comparación de las medias es cuantitativa. Puede aplicarse para muestras
independientes o para muestras relacionadas. Las muestras independientes: es
cuando se comparan grupos a los que los sujetos pertenecen a uno o a otro.
Las muestras relacionadas: es cuando se compara dentro de un mismo grupo en
distintos momentos. Condiciones de aplicación:
- tamaño suficiente. No es obligatorio que los grupos sean iguales
- En cada grupo la variables estudiada debe seguir una distribución normal y la
dispersión en ambos debe ser homogénea.
- Si no se cumplen estos supuestos se aplica una prueba no paramétrica.
ANOVA: Análisis de Varianza.
Es una técnica de análisis de datos que nos permite comparar las medias de más
de dos grupos (3 o más). La variable cuantitativa necesariamente ha de estar
medida, como mínimo, en una escala de intervalo.
Nos abre la posibilidad de abordar no solo el efecto de una sola variable de
agrupación, sino que también podremos aplicarlo para estudiar el efecto de más de
una variable de agrupación. En el análisis de varianza figura como valor F.
Contraste post-hoc:
Solo se realiza en caso de haber hallado diferencias estadísticas significativas entre
los grupos.
Los contrastes de comparaciones múltiples, post-hoc o a posteriori proporcionan
información detallada sobre las diferencias entre las medias dos a dos. El de
Bonferroni es el más utilizados.
Las técnicas anteriores (t y Anova) conllevan un conjunto de supuestos que los datos
no siempre reúnen. Cuando eso sucede tenemos dos técnicas dentro de las pruebas
no paramétricas, menos restrictivas para comparar distribuciones que son:
- El U test (alternativa de la prueba t)
- El H test (alternativa al ANOVA)
Semana 11: Análisis de datos cualitativos.
El diseño de investigación cualitativo, el muestreo y las características de los
instrumentos que se utilizan en la investigación cualitativa ya los hemos visto. El
diseño flexible que se va construyendo y modificando, donde se trabaja con
instrumento abiertos que pretenden obtener información espontanea de los
entrevistados, generar las narrativas involucradas en el problema de investigación, se
posee una gran amplitud de material, sea cual sea el instrumento vamos a obtener
datos textuales.
Fase analítica en la investigación cualitativa.
Una característica del análisis cualitativo da los datos es que esta se realiza
durante todo el proceso de investigación. El análisis es simultaneo con la
recolección de datos. No es una etapa precisa y temporalmente delimitada, sino que
se va realizando por ciclos a lo largo del proceso de investigación. Esto es importante,
que el análisis suceda durante la recolección pues puede otorgar cambios en el
diseño.
El análisis no es un proceso mecánico, por el contrario, es un movimiento intelectual
del investigador, es un proceso creativo. Todo ello se debe a ser flexibilidad.
El análisis cualitativo es complejo, requiere de la creatividad.
En ello influye la capacidad que tenga el investigador de encontrar significado a un
cumulo de datos provenientes de diversas fuentes. En la investigación cualitativa
es casi imposible delegar la tarea del análisis ya que es la propia experiencia
investigativa la que lo nutre. El haber estado en el campo, el haber interactuado,
percibido de distintos modos son los que guían el camino a seguir, así como elegir qué
información es principal y cuál secundaria.
El análisis de datos incluye: lectura de los datos, relectura de ellos, búsqueda de
temas emergentes (temas que aparecen frecuentemente), conceptualizaciones,
análisis de datos negativos y discrepantes, elaboración de tipologías.
La toma de notas o la escritura de impresiones sobre esos datos es muy importante
durante la fase del análisis.
El sentido del análisis de datos es reducir, categorizar, clarificar, sintetizar y comparar
los datos con el fin de obtener una información completa del fenómeno observado. Se
busca una compresión holística, integral y compleja de las situaciones sociales.
Fases en el proceso de análisis de datos cualitativos. Yuni
1. Codificación.
Codificar no es sinónimo de analizar, es agrupar la información en categorías que
se apoyan en conceptos y temas semejantes. Consiste en identificar pasajes del
texto que representan una idea o conceptos (estos se identifican como unidades de
significado). Los códigos son organizadores, estos son herramientas para pensar la
entrevista o instrumento.
La codificación permite dar cuenta de fenómenos relevantes que van surgiendo,
recoger ejemplos de esos fenómenos, analizar aquellos fenómenos a fin de encontrar
lo común, lo diferente, los patrones y la estructura, ir más allá de los datos y ampliar
las posibilidades analíticas.
Según Yuni, hay tres tipos de códigos:
- Códigos descriptivos: describen contenido de la frase analizada, sintetizan el tema
principal al que se refiere
- Códigos explicativos o interpretativos: surgen una vez ya etiquetado todo el
material. El investigador puede encontrar recurrencias, reagrupar ciertos códigos,
establecer relaciones, etc.
- Códigos patrón: designan patrones explicativos, estos suponen la generación de
conceptos teóricos y conceptualizaciones de mayor abstracción.
Se parte de los datos, para generar teóricos, primero se generan los códigos.
2. Exposición y presentación de los datos.
En un segundo momento, se utilizan matrices, redes y mapas conceptuales. Se
organizan y visualizan los datos.
3. Elaboración de conclusiones, interpretaciones, relaciones y articulaciones
El análisis cualitativo debe permitirnos realizar construcciones narrativas, aquí se
generan tipologías y categorías teóricas. Las tipologías son agrupaciones
semejantes de un tema, donde se le pone un nombre, se explica qué supone esta
tipología. El análisis no se agota en la codificación ni en la descripción de los datos. El
investigador debe interpretar la realidad de los sujetos, debe buscar el significado
de sus datos dichos y del impacto que tuvieron en la realidad del investigador.
4. Verificación del modelo teórico
Se tratan de ver inconsistencias, lagunas, discrepancias como resolverlas e
interpretarlas. Por medio del método de comparación constante, utilizando la
saturación y la redundancia, se realiza un análisis donde podamos verificar el modelo
teórico. En este se debe incluir el análisis de los datos discrepantes o negativos,
estos son los que van en contra de las recurrencias que encontramos, o variantes de
ellos. Esos casos se buscan en la investigación cualitativa para entender la lógica de
estos para entender mucho más en profundidad lo que se investiga.
¿Qué se puede y que no se puede hacer con los paquetes informatizados para el
análisis cuantitativo?
- Las computadoras pueden ser útiles para realizar las tareas mecánicas de análisis
como identificar similitudes, diferencias y relaciones entre ciertos fragmentos pero no
para la creación conceptual.
- No reemplaza al investigador en su actividad analítica e interpretativa.
- Los paquetes informatizados no solo trabajan con datos textuales (Nvivo, QDa,
miner), como las narrativa, como desgravaciones. También hay programas que
trabajan con datos multimediales (Atlas ti, HyperResearch), como fotos, videos. Sirven
para codificar, tipificar, etc.
Semana 12: UNIDAD V: Proyectos e informes de investigación. Búsqueda de
información y Normas APA
Búsqueda de información.
La revisión bibliográfica y documental permite varias cuestiones:
- obtener ideas para investigación, aun teniendo un tema delimitado, hay que
explorar la información previa.
- conocer, analizar y sistematizar los antecedentes de información, revisar los
estados del arte (antecedente informacional)
- establecer un contexto conceptual, conociendo los desarrollos teóricos existentes
y los dispositivos técnicos-metodológicos del tema
Las fuentes para la revisión bibliográfica son:
- las primarias, como artículos de revistas, monografías, tesis, etc.
- las secundarias, son catálogos, directorios o índices que compilan resúmenes y
listados de fuentes de información primaria.
- las terciarias, comprenden fuentes de segunda mano como organizaciones,
instituciones, revistas, etc.
Las fuentes tienen diferentes formatos: impreso, material en línea, discos
compactos y videodiscos.
Cuando realizamos la búsqueda y revisión documental:
la primer tarea es la localización, es encontrar dónde se halla esa información. Una
segunda tarea es la selección de interés de esa información para la recolección,
luego la recuperación, es parte de la localización, requiere del acceso literal de la
info. La tarea de selección es importante para llevar a esta nueva tarea que es la
lectura y el análisis de la información, pues requiere de una buena selección, para no
comenzar nuevamente con el proceso, por ultimo queda el registro y elaboración de
dicha información.
Características de la información en ciencias sociales:
- gran cantidad de información disponible
- rapidez de crecimiento
- se necesita estar actualizado de manera permanente
- predominio del idioma inglés.
Las bases de datos son muy importantes a la hora de hacer la revisión, se trata de
ficheros bibliográficos y/o archivos de datos que están almacenados por medios
informáticos, están en todas las disciplinas científicas y permiten el acceso a la
literatura científica, pueden ser locales o internacionales, hay de acceso gratuito o
arancelado. Las búsquedas pueden ser por disciplinas. Ej: Scopus (base de datos
importante en psicología). Redalyc (esta es gratuita, y de psicología también). Scielo.
Physocological abstracts.
Las estrategias de búsqueda.
Para realizar una búsqueda es importante identificar las posibles palabras clave del
trabajo, y sus diferentes combinaciones. Hay un lenguaje controlado que es el
thesaurus, cuando ponemos una palabra que no aparece, buscamos ahí de qué
manera se realiza. Se usan conectores como and, or, not, estos ajustan las
búsquedas, también se puede buscar por autor, titulo, tipo de publicación, etc.
Puede buscare por periodo de tiempo.
Registro de la información, en la medida que uno va leyendo es importante:
- construir fichas, escribir un resumen de texto, para determinar las ideas.
- interpretar una idea, una opinión, parafrasear, etc.
- escribir una cita textual para presentar una idea original del autor
- escribir las propias ideas que surjan de la lectura de los distintos autores.
Proyecto de investigación.
También denominado plan de trabajo, es una estructura a la que se debe responder
cuando se quiere presentar un proyecto de investigación. Se debe ver cuál es el
formato (protocolo) de acuerdo con la institución que evalúe/financie. Esto hace
también que debamos diferenciar entre proyectos individuales o de equipos, y la
diferencia radica en dicho formato. También se realiza una diferencia entre proyectos
de tesis y proyectos financiados. Los proyectos siempre se realizan para ser
evaluado.
En la universidad el formato es el siguiente:
Título, datos del postulante/directores/integrantes del equipo, datos de la
institución, resumen/palabras clave (cumpliendo con la regla), motivo y
antecedentes del problema, objetivos, hipótesis (pueden estar o no), metodología
(diseño, participantes, instrumentos, plan de análisis), cronograma de actividades,
recursos, impacto de los resultados, aspecto ético, referencias bibliográficas,
firmas del director/codirector y las partes del equipo.
El proyecto de investigación:
- debe tener una progresión lógica, mostrar coherencia y factibilidad.
- se redacta en tiempo futuro, ya que son acciones no realizadas aún.
- no aparecen resultados por este motivo, se exponen resultados esperados y el
posible impacto de ellos.
- se debe considerar el tiempo del se dispone, los recursos humanos, y materiales,
esto hace a la factibilidad de desarrollar el proyecto.
Las propuestas de investigación cualitativa:
- los propósitos: finalidad del trabajo (forma parte de la introducción)
- contexto conceptual: construido por el investigador en base a su propia
experiencia, teorías y estudios previos.
- preguntas de investigación: da la dirección de la investigación
- método: unidades de análisis, selección, técnicas de acceso al campo, tipo de
análisis, posibles limitaciones, etc.
- criterios de calidad
Más allá de que la investigación cualitativa posea otras características, más flexibles,
adecuaciones de este protocolo, no dejan de estar presentes estos aspectos.
Estructura del informe de investigación.
Puede ser de distintos tipos, dependiendo para qué sea. Un manuscrito es un artículo
aun no publicado, está en proceso de evaluación, edición, etc. El mismo contiene
diferentes partes como: título, autores, resumen, introducción, método, resultados,
comentarios, referencias, apéndices. Todos estos varían con diferentes
características, dependiendo de a dónde está dirigido.
Un informe de investigación:
- debe poseer un título, que no sea extenso, y explicativo.
- debe poseer el nombre del autor, omitiendo títulos académicos
- tiene que tener índice
- el resumen debe ser organizado, simple y denso en información.
- palabras clave, de 3 a 5 palabras clave
- introducción, fundamentación, importancia del problema
- método, se divide en diseño, instrumentos, muestra y tipo de análisis
- resultados
- discusión/comentarios
- referencias bibliográficas.
En los informes de tesis, hay una introducción y luego los capítulos teóricos, que es el
marco de la misma.
En el informe de investigación cualitativa, se cumplen estas condiciones de formato,
pero también posee diversidad de enfoques, generando una variedad de estilos de
informe. El investigador tiene que dar cuenta de comunicar todo el proceso. Es
importante dar vida al informe, incluyendo narrativas, que den cuenta del tema.
Normas de publicación.
Estilos de citación: existe una variedad amplia como Vancouver, Harvard, estilo MLA
También, las que utilizamos en psicología, propuesta por la American Psychological
Association (APA).
El manual de publicación de APA
- incluye las normas para la publicación científica
- propone un estilo uniforme
- es una guía práctica y completa para la elaboración y presentación de manuscritos.
Incluye:
- el estilo de redacción para las cs. sociales
- estructura y contenido del manuscrito
- cómo escribir con claridad y precisión
- aspectos prácticos del estilo
- las cuestiones éticas
- visualización de resultados
- cómo citar fuentes
- el proceso de publicación
El manual da pautas para la organización, la extensión, la continuidad en la
presentación de las ideas, tono en cómo se presenta, economía de la expresión, evitar
redundancia, palabras de mas, evitar el uso de expresiones coloquiales, y la utilización
de la voz activa.
Citas y referencias.
Se pueden trabajar con citas textuales, en APA, es entrecomillada, entre paréntesis
los autores, el año y la página, cuando es una cita más larga, se pone en margen más
pequeño y centrada.
También se puede trabajar con paráfrasis, es cuando se toman ideas de otros, en un
paréntesis ponemos el autor y el año.
Cuando se construyen las referencias bibliográficas se ponen solamente las que
referenciamos, no las que se consultaron.