-UNIVERSIDAD AUTÓNOMA DE SANTO DOMINGO
(UASD)
FACULTAD DE CIENCIAS DE LA SALUD
ESCUELA DE MEDICINA
Asignatura:
Bases para análisis biométrico
Sección:
95
Maestra:
Olga L. Jape Collins
Tema:
RECUENTO Y PRESENTACIÓN DE DATOS
Nombres:
Alexander Nathanael Disla Fernández (100637183)
Danni Nicole Jiménez Reyes (100738847)
Lilibeth Yohanna Rodríguez Almonte (100717567)
Shantal Acosta (100734478)
1
CONTENIDO
CALIDAD DE LOS DATOS…………………………………………………………………………………………….3
• CRITERIOS PARA LOGRAR CALIDAD EN LOS DATOS
• INVESTIGACION BIOESTADISTICA
METODOS PARA GARANTIZAR LA CALIDAD DE DATOS DURANTE RECOLECCION…….….4
• ENCRIPTACION DE DATOS
• OPTIMIZACION DE LA COPIA DE SEGURIDAD Y LA RECUPERACION DE DATOS
• DATA MASKING
SEGURIDAD DE ACCESO A DATOS………………………………………………………………………………5
• PROPORCIONAR LA TRANSPARECIA Y EL CUMPLIMIENTO DE LEYES
• SEGURO CIBERNETICO
TRABAJAR CON EXPERTO EN DATOS…………………………………………………………………….……6
• ENTREVISTAS
• OBSERVACION
FUENTES DE ERRORES EN LA RECOLECCION DE DATOS
• SU IMPACTO EN EL RESULTADO
• ERRORES FRECUENTES
IMPORTANCIA DE LA CALIDAD DE LOS DATOS EN LA INVESTIGACION…………………..……8
• COMO GARANTIZAR LA CALIDAD
CONCLUSION…………………………………………………………………………………………….……………..12
BIBLIOGRAFIAS…………………………………………………………………………………..……………………13
2
¿Qué es la calidad de los datos?
la calidad de los datos es un conjunto de estrategias, metodologías y prácticas que
proporciona a las organizaciones datos confiables y aptos para la toma de
decisiones. La calidad de datos se refiere a la capacidad de los datos para cumplir
con ciertos criterios específicos, incluyendo precisión, integridad, consistencia,
relevancia, actualidad y validez es importante porque los datos son utilizados para
tomar decisiones críticas, y si los datos son de baja calidad, es posible que se tomen
acciones equivocadas o que se produzcan errores.
Los datos de baja calidad pueden conducir a decisiones equivocadas, errores en
los informes y costos adicionales para corregir los errores. Por lo tanto, es esencial
establecer criterios claros para evaluar la calidad de los datos, utilizar múltiples
técnicas de evaluación y realizar pruebas de calidad de datos regularmente.
Criterios para lograr calidad en los datos
Precisión: los datos deben ser exactos y libres de errores, y deben representar la
realidad de manera correcta.
Integridad: los datos deben ser completos, es decir, no deben faltar detalles
importantes.
Consistencia: los datos deben ser uniformes y coherentes, sin contradicciones o
discrepancias internas.
Relevancia: los datos deben ser pertinentes y estar relacionados con la tarea o la
decisión en cuestión.
Actualidad: los datos deben ser oportunos y estar actualizados, es decir, deben
corresponder al momento en que se están utilizando.
Validez: los datos deben ser precisos y confiables en relación con la tarea o la
decisión en cuestión.
Completitud: los datos deben cubrir todas las variables necesarias para el análisis.
Seguridad: los datos deben ser protegidos y almacenados de manera segura para
evitar pérdidas, robos o modificaciones no autorizadas.
¿Qué es la investigación bioestadística?
La bioestadística es una rama de la estadística centrada en analizar aquellos
datos que puedan ser relevantes dentro de una investigación científica relacionada
con las ciencias de la vida y la medicina, analizan datos biológicos o de salud a
través de métodos estadísticos. La bioestadística en medicina, además, se emplea
para intentar averiguar cuáles son las causas o factores desencadenantes de una
3
enfermedad e intentar dilucidar cuáles son los mejores tratamientos para
resolverlas.
Métodos para garantizar la calidad de los datos durante la recolección.
Hay varias estrategias y métodos que puedes utilizar para garantizar la calidad de
los datos durante la recolección. Algunos de ellos incluyen:
Encriptación de datos
Las regulaciones de la industria requieren que algunos tipos de datos sean
encriptados, pero también se podrían encriptar otros tipos de datos que no se
suelen tener en cuenta. Algunos de los datos que se suelen encriptar son los
mensajes SMS, correos electrónicos, bases de datos, contraseñas, nombres de
usuario, etc. Una vez tenemos el control de nuestros datos mediante una auditoría
de datos y un proceso de data gobernante o data malajemente, descubriremos
que, tal vez, los datos de los empleados, los datos de los clientes, la propiedad
intelectual y otros datos sensibles también deben ser encriptados.
Antes de considerar la encriptación, debemos comprobar los datos y asegurar que
son de calidad, ya que pueden causar daños a la reputación y perjuicios
financieros si se filtran. Especialmente teniendo en cuenta la posibilidad de que los
detalles de desencriptación caigan en manos de la persona equivocada. Sin
embargo, este es un primer paso esencial y muestra la seriedad de una empresa
respecto a la seguridad de los datos.
Optimización de la copia de seguridad y la recuperación de datos
Muchas empresas tienen planes para hacer copias de seguridad y recuperar sus
datos, que se basan en la tecnología DR (recuperación de desastres). Este proceso
podría darse en un servicio cloud o en servidores externos. Este proceso es
especialmente relevante ya que, si se corre el riesgo de perder los datos de los
clientes, es imposible asegurar que los estamos protegiendo.
Los incidentes cibernéticos pueden ocurrir durante mucho tiempo sin ser
detectados, por lo que es esencial restaurar los datos a su condición original y
prediseñada. Por eso los procesos de integración de datos son fundamentales. El
proceso es bastante complicado, pero con la tecnología adecuada, siempre
podremos recuperar los datos en su estado original.
4
Data masking
El data masking es una tecnología emocionante que se utiliza para garantizar la
seguridad de los datos. El data masking o enmascaramiento de datos, también se
conoce como ofuscación de datos, e implica ocultar la información original que
contienen los datos con códigos y otros caracteres aleatorios. Esta es una técnica
de seguridad de datos ideal para situaciones en las que se busca asegurar
información clasificada que no debe ser leída por nadie. De esta manera,
enmascarando la información, nos aseguramos de que somos los únicos que la
entendemos y que nadie más, especialmente un hacker o un usuario no autorizado,
podrá descifrarla si accede a ella.
Seguridad de acceso a datos
Otra manera de proteger los datos confidenciales o sensibles es restringiendo el
acceso a los datos a determinados usuarios. Power BI permite agregar filtros
restrictivos en sus desbordas, reportes y conjuntos de datos, a través de Row Level
Security (seguridad de accesos a fila). De esta manera, los distintos usuarios de
una empresa solo tendrán acceso y podrán gestionar aquellos datos que les
competen y que tiene sentido que vean. Esta técnica es especialmente relevante
cuando se trabaja con una data Waterhouse o en búshines inteligente.
Promocionar la transparencia y el cumplimiento de las leyes
Muchas organizaciones ya han adoptado y están cumpliendo el Reglamento
General de Protección de Datos (GDPR), que es la norma de la Unión Europea para
manejar los datos de los clientes. Con el GDPR, el cliente tiene el poder en sus
manos, permitiéndole controlar el almacenamiento y la gestión de sus datos. Es un
mandato detallado y minucioso para que las organizaciones de todo el mundo
manejen correctamente los datos de cualquier ciudadano europeo.
Las empresas que cumplen con la GDPR utilizan su cumplimiento como palanca
para promover la recolección, uso y almacenamiento de datos de los consumidores,
ya que demuestra la seriedad de la organización y su compromiso con la protección
de la información personal de los consumidores.
Seguro cibernético
Se estima que el coste medio de la violación de datos aumentó en un 6,4% en 2018,
alcanzando un promedio de 3,86 millones de dólares. El alto precio de una brecha
de seguridad es la razón por la que muchas empresas están invirtiendo en seguros
de riesgo cibernético, mediante los cuales adquieren pólizas que cubren los gastos
comunes reembolsables. Estos gastos podrían incluir el examen forense para la
revisión de la violación de datos, las multas reglamentarias, los gastos legales, los
costos de gestión y las pérdidas monetarias por la interrupción del negocio.
5
Trabajar con expertos en datos
Puede ser difícil decidir qué técnica y tecnologías de seguridad de datos utilizar o
cuál es la mejor para cada organización. Hay numerosas estrategias y tecnologías
que podemos implementar. Reglamentos como el GDPR sólo aumentan las
expectativas de los clientes. Por ello, es recomendable trabajar con expertos en
datos que tengan el conocimiento y la comprensión necesarios de los cambios que
se necesitan llevar a cabo para salvaguardar la información.
Recopilación de datos precisos y completos desde fuentes confiables.
Encuestas: Las encuestas son una técnica clásica pero efectiva para recopilar
datos.
Ya sea a través de encuestas de satisfacción online, por teléfono o en persona, nos
permiten obtener información directa de los participantes y hacer una recolección
de datos estadísticos.
Con preguntas estructuradas y de opción múltiple, son ideales para recopilar datos
cuantitativos (aunque también cualitativos, en menor medida) sobre preferencias,
actitudes y características demográficas.
Entrevistas: Las entrevistas te brindan la oportunidad de obtener información
detallada y contextualizada. A través de entrevistas individuales o grupales, puedes
explorar experiencias personales, percepciones y conocimientos especializados.
Las entrevistas te proporcionan datos cuantitativos que te permiten profundizar en
los temas y obtener ideas significativas.
Observación: La observación te permite recopilar datos al observar directamente
el comportamiento de las personas en situaciones reales.
Ya sea en entornos físicos o digitales, la observación nos brinda información objetiva
y no sesgada sobre las acciones y reacciones de los participantes.
Se puede utilizar técnicas como el shadowing que consiste en acompañar durante
unas horas a una persona que encaje en tu buyer persona, registrando su
comportamiento.
O el safari, que es observar el comportamiento de las personas objeto de la
investigación en su ambiente natural.
En todo caso, es muy importante no intervenir o reducir la intervención a lo mínimo
indispensable para no interferir en la observación.
6
Análisis de redes sociales: En la era de las redes sociales, el análisis de datos
generados por usuarios en plataformas como Facebook, Twitter e Instagram se ha
convertido en una técnica valiosa.
Este análisis te permite comprender las tendencias, opiniones y comportamientos
de las personas en relación con determinados temas o marcas.
Análisis de texto: El análisis de texto utiliza técnicas de procesamiento de lenguaje
natural para extraer información y comprender el significado de los textos.
Esta técnica nos permite analizar grandes volúmenes de texto, como comentarios
de clientes, reseñas de productos o publicaciones en blogs, y obtener información
sobre sentimientos, opiniones y temas relevantes.
Experimentos: Los experimentos controlados nos brindan una forma de evaluar
causalidad y relaciones de causa y efecto, como por ejemplo los test A/B.
Al manipular variables y observar los resultados, puedes obtener información
precisa y confiable sobre cómo ciertos factores afectan el comportamiento o las
respuestas de las personas.
Estudios longitudinales
Los estudios longitudinales implican recolectar datos de la misma muestra de
participantes a lo largo del tiempo.
Esta técnica te permite seguir y analizar cambios, evoluciones de comportamiento
en un periodo de tiempo que muy a menudo se ven reflejadas en las tendencias de
marketing.
Al recopilar datos de la misma muestra de participantes en diferentes momentos,
puedes capturar y comprender mejor los procesos, las causas y los efectos a largo
plazo.
Los estudios longitudinales son especialmente útiles para investigar fenómenos que
se desarrollan a medio o largo plazo, como el desarrollo humano, las trayectorias
educativas o los cambios en actitudes y comportamientos a lo largo de la vida.
Datos secundarios: Los datos secundarios son información que ya ha sido
recolectada y publicada por fuentes confiables.
Estos datos pueden provenir de estudios previos, informes gubernamentales, bases
de datos en línea y otras fuentes accesibles al público.
Utilizar datos secundarios te ahorra tiempo y recursos, permitiéndote obtener
información relevante sin tener que realizar una recolección de datos desde cero.
7
Fuentes de errores en la recolección de datos y su impacto en el resultado
Cuando medimos algo o recolectamos información, existen muchas razones para
que nuestros hallazgos sean incorrectos. La razón más obvia es que podríamos
haber hecho una falta al escribir algo. Este tipo de falta es lo que normalmente
conocemos como error. Sin embargo, hay otros tipos de errores que podríamos no
ver a menos que sepamos que tenemos que buscarlos. Estos errores no son fallas
en el sentido de que hemos hecho algo incorrecto y pueden reducir la credibilidad o
exactitud de lo que hacemos, pero hay cosas sobre las que no podemos tener
ningún control.
Uno de estos es el error aleatorio. Un error es considerado aleatorio si el valor de lo
que se mide se incrementa a veces o se reduce en otros casos. Un ejemplo muy
sencillo es nuestra presión sanguínea. Es normal que la presión sanguínea pueda
ser diferente en cada medición incluso si alguien está sano. Si se toma la presión
varias veces, algunas de las veces serán más alta y otras, más baja. Este error
aleatorio es esperado debido a la variación de los procesos corporales normales y
la manera en que funciona el aparato de medición. Si el error es realmente aleatorio
y tomamos suficientes mediciones, podemos obtener una buena estimación de lo
que estamos midiendo. No obstante, si un error aleatorio es grande las mediciones
serán impredecibles, inconsistentes y no serán representativas del valor real de lo
que estamos midiendo.
El segundo tipo de error es conocido como error sistemático. Un error es
considerado como sistemático si cambia de manera sistemática en la misma
dirección. Por ejemplo, esto puede suceder con la medición de la presión sanguínea
si cada vez que tomáramos la presión algo causara que esta subiera. También
podría deberse a que el aparato de medición está defectuoso de forma que siempre
da un resultado mayor, o menor, que el valor verdadero. En estos casos, incluso si
nuestras mediciones fueran predecibles y consistentes, los resultados no serían
exactos.
A continuación, una lista de algunos errores frecuentes
• Datos incorrectos o inventados
• Preguntas mal formuladas
• Tamaño de la muestra mal seleccionada
• Realización de encuestas en lugares inadecuados
• Ejecución de la investigación a personas con criterios no preestablecidos
8
Impacto en el resultado de una recolección errónea
• La negligencia estadística es una cuestión crítica que puede tener un
impacto significativo en la validez de los resultados de la investigación.
Cuando los investigadores no informan ni analizan adecuadamente los
datos estadísticos, se socava la credibilidad y confiabilidad de sus estudios.
En esta sección, profundizaremos en las consecuencias de la negligencia
estadística y exploraremos cómo puede comprometer la integridad de la
investigación.
• Una de las principales consecuencias de la negligencia estadística es la
distorsión de los resultados de la investigación. Cuando los investigadores
no informan adecuadamente sus métodos estadísticos o no revelan detalles
importantes, a otros investigadores les resulta difícil replicar el estudio o
desarrollar sus hallazgos. Esta falta de transparencia puede obstaculizar el
progreso científico y dar lugar a la propagación de información incorrecta o
engañosa.
• Otra consecuencia de la negligencia estadística es el mal uso o la mala
interpretación de las pruebas estadísticas. Los investigadores pueden
emplear pruebas estadísticas inapropiadas o aplicarlas incorrectamente, lo
que lleva a conclusiones erróneas. Por ejemplo, utilizar una prueba
paramétrica cuando los datos violan los supuestos de normalidad puede
generar resultados inexactos. Tales errores no sólo comprometen la validez
del estudio, sino que también desvían investigaciones posteriores en el
campo.
• La negligencia estadística también puede manifestarse en tamaños de
muestra inadecuados. Un tamaño de muestra insuficiente puede dar lugar a
estudios con poco poder estadístico, lo que dificulta la detección de efectos
reales. Esto puede dar lugar a resultados falsos negativos, en los que un
efecto genuino no se detecta debido al número limitado de participantes.
Los tamaños de muestra inadecuados también pueden aumentar la
probabilidad de errores de tipo II, donde los investigadores no logran
rechazar una hipótesis nula cuando es falsa.
• La negligencia estadística puede tener consecuencias de gran alcance en
la validez y confiabilidad de los hallazgos de la investigación. Desde
distorsionar los resultados hasta malinterpretar las pruebas estadísticas y
reportar de manera inadecuada detalles esenciales, estas prácticas
negligentes socavan la integridad de la investigación científica. Es
imperativo que los investigadores den prioridad a la presentación de
informes transparentes y a análisis estadísticos rigurosos para garantizar la
precisión y reproducibilidad de su trabajo. Asimismo, como consumidores
9
de investigaciones, debemos estar atentos al evaluar la integridad
estadística de los estudios para tomar decisiones informadas y contribuir al
avance del conocimiento.
Estas consecuencias pueden conducir a desinformación, toma de
decisiones errónea y pérdida de confianza en la validez de los hallazgos
estadísticos.
Importancia de la calidad de los datos en la investigación y como
garantizarla
La calidad de los datos es fundamental en la investigación bioestadística,
ya que los resultados y conclusiones derivadas de cualquier estudio
dependen en gran medida de la precisión y confiabilidad de los datos
utilizados. La presencia de datos inexactos, incompletos o sesgados puede
conducir a interpretaciones erróneas y, por ende, a conclusiones
incorrectas.
Garantizar la calidad de los datos implica varios aspectos clave. En primer
lugar, es esencial establecer protocolos claros y estandarizados para la
recopilación de datos, asegurando que los métodos de recolección sean
consistentes y reproducibles. La capacitación adecuada del personal
involucrado en la recopilación de datos también juega un papel crucial.
La verificación y validación de los datos son pasos esenciales. Esto implica
revisar los datos en busca de errores, inconsistencias o valores atípicos, y
corregir o eliminar cualquier problema identificado. Además, la validación
implica comparar los datos con estándares conocidos o realizar pruebas
estadísticas para confirmar su integridad.
La documentación meticulosa de los procesos de recopilación y
manipulación de datos es otra práctica crucial. Esto permite una auditoría
efectiva y asegura la transparencia en la investigación. Además, el uso de
software especializado en bioestadística puede facilitar la gestión y análisis
de datos, mejorando la eficiencia y reduciendo la probabilidad de errores
humanos.
10
A continuación, se detallan aspecto clave de la importancia de la
calidad de los datos y estrategias para garantizarla
Fiabilidad de los resultados:
• Importancia: La validez de los resultados estadísticos depende directamente de
la calidad de los datos utilizados en el análisis. Datos inexactos o incompletos
pueden conducir a conclusiones erróneas, lo que impacta negativamente en la
credibilidad de la investigación.
• Garantía de Calidad: Implementar procedimientos rigurosos de recopilación y
validación de datos, así como realizar controles de calidad sistemáticos durante
todo el proceso de investigación.
Toma de decisiones informada:
• Importancia: Los profesionales de la salud y los responsables de políticas
confían en los resultados bioestadísticos para tomar decisiones informadas. La
calidad de los datos es esencial para garantizar que estas decisiones estén
respaldadas por evidencia confiable.
• Garantía de Calidad: Utilizar métodos estandarizados para la recopilación de
la coherencia y precisión de los datos.
Replicabilidad y generalización:
• Importancia: La posibilidad de replicar los estudios y generalizar los resultados
a otras poblaciones depende de la calidad y consistencia de los datos.
• Garantía de Calidad: Documentar detalladamente los métodos de
recopilación de datos, compartir protocolos y promover la transparencia en la
presentación de resultados para facilitar la replicación por parte de otros
investigadores.
Ética y cumplimiento normativo:
• Importancia: La calidad de los datos está intrínsecamente relacionada con la
ética de la investigación. Cumplir con normativas éticas y regulaciones garantiza la
integridad y el respeto hacia los participantes.
11
• Garantía de Calidad: Obtener consentimiento informado adecuado, proteger
la privacidad de los participantes y seguir las normas éticas y legales establecidas
para la investigación.
Conclusión
En las preguntas y respuestas de este seminario estuvimos resaltando ciertos
puntos en los que se encuentran la calidad de los datos, la bioestadística,
importancia de la calidad de los datos, presentación, gráficos, métodos para poder
conseguir la mayor calidad posible, fuentes de errores, fuentes confiables, entre
otros.
Cuando hablamos de la calidad de los datos hacemos refiere a la capacidad que
tienen los datos para cumplir con ciertos criterios específicos, incluyendo precisión,
integridad, consistencia, relevancia, actualidad y validez es importante porque los
datos son utilizados para tomar decisiones críticas, y si los datos son de baja
calidad, es posible que se tomen acciones equivocadas o que se produzcan errores.
Hablamos de la bioestadística en la que resaltamos el concepto diciendo que esta
está centrada en analizar aquellos datos que puedan ser relevantes dentro de una
investigación científica relacionada con las ciencias de la vida y la medicina,
analizan datos biológicos o de salud a través de métodos estadísticos.
Centrándonos en la bioestadística la calidad de los datos es crucial, ya que los
resultados y conclusiones derivadas de cualquier estudio dependen en gran medida
de la precisión y confiabilidad de los datos utilizados. Garantizar la calidad de los
datos implica varios aspectos clave, es esencial establecer protocolos claros y
estandarizados para la recopilación de datos, además, la validación implica
comparar los datos con la documentación meticulosa de los procesos de
recopilación y manipulación de datos.
Tomamos en cuenta lo que son los métodos para garantizar la calidad de los datos,
cuando tenemos el control de los datos mediante una auditoría de datos y un
proceso de data gobernante o data malajemente, podemos descubrir que, tal vez,
los datos de los asistentes, los datos de los clientes, la propiedad intelectual y otros
datos sensibles también deben ser encriptados. Promocionar la transparencia y el
cumplimiento de las leyes Muchas organizaciones ya han adoptado y están
cumpliendo el Reglamento General de Protección de Datos (GDPR), que es la
norma de la Unión Europea para manejar los datos de los clientes. Las empresas
que cumplen con la GDPR utilizan su cumplimiento como palanca para promover la
recolección, uso y almacenamiento de los datos. además, través de encuestas
online, por teléfono o en persona, nos permiten obtener información directa de los
participantes y hacer una recolección de datos estadísticos. Sin embargo, hay veces
en las cuales se presentan errores en dichos datos. Los errores no son fallas en el
12
sentido de que hemos hecho algo incorrecto y pueden reducir la credibilidad o
exactitud de lo que hacemos, pero hay cosas sobre las que no podemos tener
ningún control un error es considerado aleatorio si el valor de lo que se mide se
incrementa a veces o se reduce en otros casos.
Es normal que la presión sanguínea pueda ser diferente en cada medición incluso
si alguien está sano este error aleatorio es esperado debido a la variación de los
procesos corporales normales y la manera en que funciona el aparato de medición,
si el error es realmente aleatorio y tomamos suficientes mediciones, podemos
obtener una buena estimación de lo que estamos midiendo. No obstante, si un error
aleatorio es grande las mediciones serán impredecibles, inconsistentes y no serán
representativas del valor real de lo que estamos midiendo. Resumiendo, los errores
más comunes que se presentan están: Datos incorrectos o inventados, Preguntas
mal formuladas, tamaño de la muestra mal seleccionada, Realización de encuestas
en lugares inadecuados y ejecución de la investigación a personas con criterios no
preestablecidos.
BIBLIOGRAFIAS
• Altman, D. G. (1991). Practical
Statistics for Medical Research.
Chapman and Hall/
CRC.
Dawson, B., Trapp, R. G. (2004). Basic & Clinical Biostatistics. McGraw-Hill Medical.
• Porta, M., & Last, J. (2017). A Dictionary of Epidemiology. Oxford
University Press.
• Streiner, D. L., & Norman, G. R.
(2008).
Health Measurement Scales: A practical guide to their development and use.
Oxford University Press.
• World Medical Association. (2013).
Declaration of Helsinki: Ethical principles for medical research involving human
subjects.
Recuperado de https://
www.wma.net/policies-post/wma-declaration-of-helsinki-ethical-principles-for-
medical-research-involving-human-subjects/
13
https://www.unir.net/salud/revista/bioestadistica/#:~:text=La%20bioestad%C3%AD
stica%2C%20tambi%C3%A9n%20llamada%20biometr%C3%ADa,a%20trav%C3
%A9s%20de%20m%C3%A9todos%20estad%C3%ADsticos.
https://www.unir.net/salud/revista/bioestadistica/#:~:text=La%20bioestad%C3%AD
stica%20es%20una%20rama,relativo%20al%20dise%C3%B1o%20de%20experim
entos.
https://www.doofinder.com/es/blog/tecnicas-de-recoleccion-de-
datos#:~:text=10%20principales%20t%C3%A9cnicas%20de%20recolecci%C3%B3n%20de%
20informaci%C3%B3n%201,...%208%208.%20Estudios%20longitudinales%20...%20M%C3
%A1s%20elementos
14