TRABAJO DE APRENDIZAJE COMPUTACIONAL
INTEGRANTES:
JHAN CARLOS ARANGO ATENCIA
LUIS ALFREDO DURANGO MORENO
DOCENTE: OSWALDO VELEZ LANGS
UNIVERSIDAD DE CORDOBA
FACULTAD DE INGENERIAS
INGENERIA DE SISTEMAS
MONTERIA-CORDOBA
2024
Impacto Ambiental, Condiciones Laborales, Privacidad, Sesgos y Desinformación en el Uso de la
Inteligencia Artificial
Introducción:
La inteligencia artificial (IA) ha revolucionado numerosos sectores, desde la economía hasta la
educación, ofreciendo oportunidades para mejorar la eficiencia y la innovación. Sin embargo, su
crecimiento acelerado también ha traído consigo una serie de desafíos éticos, sociales y ambientales. El
impacto ambiental de la IA, la transformación del trabajo, la protección de la privacidad, los sesgos
algorítmicos y la desinformación son preocupaciones que requieren atención urgente. Este informe
analiza estos temas clave, destacando la necesidad de un enfoque ético y regulado en el desarrollo y uso
de la IA para garantizar que sus beneficios no se vean opacados por sus riesgos.
Impacto Ambiental:
El impacto ambiental de la inteligencia artificial (IA) es una preocupación creciente debido al alto
consumo energético de los procesos de aprendizaje profundo. Entrenar modelos de IA, especialmente
los de gran escala como GPT-4 o sistemas de reconocimiento de imágenes avanzados, requiere una
enorme capacidad de cómputo, que consume grandes cantidades de electricidad. Estos modelos se
entrenan en centros de datos, que a su vez necesitan sistemas de refrigeración masivos para evitar el
sobrecalentamiento, lo que incrementa aún más el consumo de energía. Según Araiz Huarte (2023), el
sector de las tecnologías de la información y comunicación (TIC) ya representaba en 2020 el 1.4% de
las emisiones globales de CO₂, y esta cifra podría aumentar significativamente en la próxima década.
Además del entrenamiento, la implementación y operación de estos modelos también generan consumo
energético continuo. Las aplicaciones de IA, que incluyen asistentes virtuales, herramientas de análisis
de datos en tiempo real y sistemas de monitoreo, funcionan sobre redes y centros de datos que operan
24/7. Esta dependencia energética plantea un desafío para la sostenibilidad, en particular porque la
mayor parte de la energía en muchos países todavía proviene de fuentes no renovables. Para abordar
este problema, se están proponiendo prácticas como el diseño de modelos de IA más eficientes y el uso
de fuentes de energía renovable en los centros de datos. No obstante, queda un largo camino por
recorrer para reducir significativamente la huella de carbono de la IA en su totalidad.
Condiciones Laborales:
La inteligencia artificial está transformando el mercado laboral a una velocidad sin precedentes,
automatizando tareas repetitivas y rediseñando las estructuras de muchos empleos. Bocîi y Ursua
(2023) señalan que si bien la automatización ha mejorado la eficiencia en numerosas industrias, ha
generado inquietud sobre la obsolescencia de ciertos roles tradicionales. Un informe de la Organización
Internacional del Trabajo sugiere que aproximadamente el 14% de los empleos a nivel mundial corren
el riesgo de ser automatizados en los próximos 15 a 20 años, lo que puede provocar desempleo y
desigualdades en sectores vulnerables.
Sin embargo, la IA también crea oportunidades laborales en áreas especializadas como el desarrollo de
modelos, la ética de datos y la seguridad cibernética. Estos nuevos empleos requieren habilidades
avanzadas, lo que plantea la necesidad de una capacitación continua. Los sistemas educativos y las
empresas deben colaborar para actualizar las habilidades de los trabajadores, asegurando que puedan
adaptarse a roles más complejos y técnicos que no pueden ser reemplazados por IA. Además, aunque
herramientas como ChatGPT permiten agilizar la selección de personal y mejorar la productividad, no
pueden sustituir completamente la capacidad humana de evaluar habilidades interpersonales y la
intuición, elementos esenciales en la contratación y gestión de personas (Diouan Aarab, 2023).
Privacidad y Seguridad:
El manejo de datos personales en sistemas de IA es un tema de gran controversia. La capacidad de
estos sistemas para recolectar, analizar y utilizar enormes cantidades de información personal plantea
riesgos a la privacidad. Como explica Murrugarra Retamozo (2024), aunque las técnicas avanzadas de
cifrado pueden mejorar la seguridad, la IA también facilita el perfilamiento masivo y la vigilancia. Este
perfilamiento puede llevar a un seguimiento detallado de las actividades de las personas, invadiendo su
privacidad.
Además, existen riesgos de ciberseguridad asociados a la IA. Por ejemplo, los sistemas de IA pueden
ser manipulados por actores malintencionados para acceder a información privada o cometer fraudes.
Esto ha llevado a la necesidad de regulaciones y políticas de privacidad que garanticen la transparencia
en el uso de datos personales y la protección de los derechos de los ciudadanos. Vargas (2020) destaca
que la falta de regulación adecuada en este ámbito puede resultar en la pérdida de control de los
usuarios sobre sus propios datos, lo que se ha evidenciado en casos como el de Cambridge Analytica.
Las empresas deben priorizar el consentimiento informado y tomar medidas de privacidad desde el
diseño de sus sistemas para proteger la integridad de los usuarios.
Sesgos y Discriminación:
La IA tiene el potencial de perpetuar y amplificar sesgos sociales preexistentes. Villarreal Campusano
(2023) argumenta que los sistemas de IA reflejan los prejuicios de los datos con los que son entrenados,
lo que puede llevar a decisiones discriminatorias en áreas críticas como el empleo y la justicia. Estos
sesgos pueden ser especialmente peligrosos cuando afectan a grupos ya vulnerables, como minorías
étnicas, mujeres y personas de géneros no binarios.
El sesgo algorítmico es una cuestión compleja, en gran parte porque los algoritmos de IA se desarrollan
a partir de datos históricos, que inevitablemente incluyen prejuicios. Además, la falta de diversidad en
los equipos de desarrollo puede llevar a una visión sesgada en el diseño y la implementación de los
modelos. Flores Anarte (2023) propone marcos regulatorios que aseguren la equidad en el desarrollo de
sistemas de IA. Es fundamental que las organizaciones implementen mecanismos de control y revisión
continua para identificar y corregir posibles sesgos, promoviendo así una tecnología inclusiva y justa
para todos los usuarios.
Desinformación:
La desinformación es otro desafío significativo asociado a la IA, especialmente con el surgimiento de
modelos generativos capaces de crear contenido falso pero convincente. Peña-Fernández et al. (2023)
señalan que, si bien la IA ofrece herramientas para detectar noticias falsas, también facilita su creación.
Durante la pandemia de COVID-19, por ejemplo, la propagación de desinformación a través de redes
sociales fue masiva, agravando la crisis de salud pública al difundir información errónea sobre
tratamientos y vacunas.
La IA generativa puede generar contenido que parece legítimo, lo que dificulta a los usuarios discernir
entre información verdadera y falsa. Esta situación plantea preguntas éticas sobre la responsabilidad de
las plataformas de medios y los desarrolladores de IA en la prevención de la desinformación. Es crucial
que las empresas de tecnología colaboren con los gobiernos y las organizaciones para desarrollar
herramientas de monitoreo que mitiguen la propagación de contenido falso. Esto incluiría sistemas de
detección de desinformación y la promoción de la alfabetización digital para que los usuarios puedan
identificar contenido potencialmente engañoso.
Conclusiones:
La inteligencia artificial representa una herramienta poderosa con el potencial de transformar
numerosos sectores de manera positiva. Sin embargo, sus implicaciones éticas y sus desafíos, en
términos de impacto ambiental, condiciones laborales, privacidad, sesgos y desinformación, requieren
una atención constante y un enfoque regulatorio y ético. Es necesario que los profesionales de la IA
adopten prácticas sostenibles que consideren el ciclo de vida completo de sus sistemas para minimizar
la huella de carbono.
Asimismo, la colaboración entre humanos y máquinas en el ámbito laboral debe gestionarse
cuidadosamente para maximizar los beneficios sin causar desempleo ni desigualdad. Las políticas de
privacidad deben evolucionar para proteger los derechos de los ciudadanos, garantizando que el uso de
datos personales se realice de forma transparente y con el consentimiento de los usuarios. Además, la
implementación de regulaciones que promuevan la equidad y prevengan la perpetuación de sesgos es
fundamental para asegurar que la IA beneficie a todos los sectores de la sociedad.
Referencias
Navalón, Á. R. (2024). Los retos de la IA para los comunicadores. Nuevas preguntas y respuestas en
un entorno dinámico. AdComunica, 323-328.
Araiz Huarte, D. E. (2023). La inteligencia artificial como agente contaminante: Concepto jurídico,
impacto ambiental y futura regulación. Actualidad Jurídica Ambiental, 130.
[Link]
Bocîi, L.-S., & Ursua, N. (2023). La inteligencia artificial y el impacto en el mundo laboral inteligente.
Eikasía Revista De Filosofía, (118), 247–269. [Link]
Diouan Aarab, W. (2023). ChatGPT impacta en el mercado laboral. Aproximación a chatGPT y estudio
sobre su impacto en los procesos de búsqueda de empleo y selección de personal.
Murrugarra Retamozo, B. I. (2024). Inteligencia artificial y privacidad en internet: amenazas para los
datos personales de los usuarios. Revista Científica Multidisciplinaria Ogma, 3(2), 30-48.
[Link]
Vargas, O. Derecho a ser invisibles Desafíos de la regulación gubernamental en el auge de la
Inteligencia Artificial frente a los Derechos Humanos.
Villarreal Campusano, V. S. (2023). Impacto social y desafío laboral frente a la IA. Portal De Las
Palabras, 8, 45–50. Recuperado a partir de
[Link]
Flores Anarte, L. (2023). Sesgos de género en la Inteligencia Artificial: El Estado de derecho frente a la
discriminación algorítmica por razón de sexo. Revista Internacional De Pensamiento Político, 18(18),
95–120. [Link]
Peña-Fernández S., Peña-Alonso U. y Eizmendi-Iraola M. (2023). El discurso de los periodistas sobre
el impacto de la inteligencia artificial generativa en la desinformación. Estudios sobre el Mensaje
Periodístico, 29(4), 833-841. [Link]
Palomo, B., Tandoc, E. C., & Cunha, R. (2023). El impacto de la desinformación en las rutinas
profesionales y soluciones basadas en la inteligencia artificial. Estudios sobre el Mensaje Periodístico,
29(4), 757.