UNIDAD IV
Práctica de Argumentación 3
Tema 3: Argumentos mediante formulación de definiciones
Estudiantes:
1. Acosta Clemente Maria Jesus
2.
I. Redacta un párrafo con definición argumentativa a partir del siguiente esquema de
planificación:
Tesis: Considero totalmente acertada la medida adoptada por Indecopi que permite
a los usuarios ingresar a las salas de cine con sus propios alimentos.
2. Desarrollo
2.1. ARGUMENTO 1
2.1.1. Afirmación: Estoy a favor de la medida adoptada por Indecopi, porque
el consumidor tiene derecho a elegir libremente el bien que desea
consumir.
Definición: El derecho a la libre elección es una norma inherente al
humano que defiende la potestad que tiene una persona de
no ser obligado a escoger lo que no desea.
2.1.2. Razonamientos - evidencias:
- Los derechos como inherente a la persona
- Potestad de elección entre múltiples servicios
- Obligación del cine al prohibir el ingreso de alimentos
El consumidor debe de tener la libertad de decidir qué alimentos puede consumir mientras disfruta
una película en el cine, al permitir que los consumidores puedan ingresar con sus propios alimentos
y se tendrá que respetar su derecho a elegir lo que desean comer y no ser obligados a adquirir los
productos que ofrece la sala del cine, en lo cual ofrece productos con altos precios.
Esta medida fomentará la competencia y la libre libertad de bienes y servicios, ya
que esto permitirá que los consumidores puedan ingresar con sus propios
alimentos, lo cual creará una entorno competitivo en el mercado y esto hará que
los cines tendrán que ajustar sus precios, a la vez ofrecer productos de calidad.
Por último esto permitirá un mayor control sobre los alimentos que ofrecen los
cines y también que el consumidor podrá disfrutar alimentos que se ajusten a su
necesidad y sus preferencias dietéticas.
1
II. Lee el siguiente texto y a partir del mismo, completa el cuadro con el esquema propuesto.
Obesidad en la niñez y la adolescencia
Arturo Orea Tejeda y Ana Ma. Sánchez Mora
Un problema de salud que ha aumentado en forma alarmante en las últimas
dos décadas. Muchas veces empieza en la infancia y se traduce en
enfermedades graves en la vida adulta. Cómo atenderlo y, sobre todo,
prevenirlo. En nuestro país, donde la desnutrición ha sido un problema ancestral
con raíces en la injusticia, todavía a mediados del siglo XX la gordura se
consideraba una muestra inequívoca de buena salud. “Está chula de gorda”,
decían las orgullosas madres de hijas obesas. Un niño gordo era, por definición,
un niño sano y feliz; simpático y bonachón, como lo representaban en películas
y cuentos. A los delgados se les daba un cargamento de vitaminas y mucha
comida. Los flacos eran sospechosos: seguramente padecían alguna
enfermedad, o cuando menos un “problema glandular”. Al llegar a la
adolescencia, los jóvenes (sobre todo los varones) daban el estirón y era muy
común que quedaran hechos unas garrochas, pero todos esperaban que con el
tiempo “embarnecieran”, y por lo tanto mejoraran.
El sobrepeso y la obesidad son enormes problemas de salud pública y ya han
alcanzado a niños y adolescentes. Dicho de manera muy simple, la obesidad
proviene de consumir más energía de la que gastamos. Aunque los términos
sobrepeso y obesidad se suelen utilizar indistintamente, no son sinónimos: el
sobrepeso es un exceso de peso corporal en relación con la estatura, mientras
que la obesidad se define como una enfermedad caracterizada por el exceso
de grasa corporal. Hoy sabemos que no hay gorditos sanos, y mucho menos
felices: las personas pasadas de peso son objeto de burla y discriminación, y
además están expuestas a padecer graves enfermedades. La comida chatarra
y las horas de televisión son dos de las causas. En los medios, los anuncios nos
2
invitan a comer alimentos de alta densidad energética y luego a deshacernos
de los “kilitos de más” con píldoras, costosos aparatos de gimnasio o dietas que
pueden dañar la salud. La probabilidad de padecer obesidad en la infancia
casi se ha triplicado en las últimas décadas. Esto puede adelantar la aparición
de cardiopatías en la edad adulta. El sobrepeso suele ir acompañado de
alteraciones estructurales y funcionales del corazón, condiciones que en casos
graves pueden causar la muerte, muchas veces súbita y casi siempre secundaria
a alteraciones del ritmo cardiaco. Desde 1998 la obesidad es oficialmente
pandemia para la Organización Mundial de la Salud (OMS). Y en casi todos los
países es una de las enfermedades infantiles más comunes.
Hasta aquí las malas noticias. Las buenas nos señalan que el daño temprano es
reversible y lo más importante: que se puede evitar. Prevenir la obesidad y sus
secuelas es un asunto de educación, dieta y ejercicio, y especialmente de
voluntad política.
Con el fin de evaluar la reversibilidad del daño arterial temprano en niños, el
grupo de investigación encabezado por Kam-sang Woo, del Instituto para
Promover la Salud Cardiaca, de Hong Kong, hizo un estudio con 82 niños obesos
divididos en dos grupos. A unos los sometieron a un programa de dieta
solamente, y a los otros a un régimen de dieta con ejercicio. Al cabo de seis
semanas, en ambos grupos hubo una mejoría en la dilatación del endotelio de
la arteria del brazo, o braquial, pero no en su dilatación con nitroglicerina
(vasodilatador externo). Los cambios fueron significativamente mayores con
dieta más ejercicio que con la dieta sola.
En síntesis, para atajar el problema de la obesidad desde el comienzo, la
prevención primaria es fundamental. Entre las estrategias de esta prevención
primaria están dar pecho al bebé durante un mínimo de seis meses, alimentarse
sanamente durante la niñez tanto en la casa como en la escuela y hacer
ejercicio. En pacientes que ya tienen el problema, el objetivo es la prevención
secundaria, que consiste en evitar las consecuencias de la obesidad
disminuyendo de manera oportuna el sobrepeso.
Disponible en: ¿Cómo ves? Revista de divulgación de la ciencia de la Universidad Nacional Autónoma de México,
<[Link]
Controversia Ante tal situación, se implementaron medidas preventivas pero estas ¿realmente
serán suficientes o se necesitan intervenciones más agresivas?
Tesis Consideramos que la obesidad en la niñez y la adolescencia debe de ser
3
abordada con medidas preventivas estrictas, ya que es un problema de salud y
genera un riesgo a futuro como enfermedades.
Argumento (Afirmación) Concepto Nexo Género Diferencia
1 próximo específica
La prevención Prevención es
de la obesidad de la Una medida que incluye
infantil y obesidad de salud educación,
adolescente es pública dieta y
fundamental ejercicios
para evitar para evitar el
enfermedades exceso de
graves en la grasa
vida adulta. corporal
desde una
edad más
temprana.
Definición 1 La prevención de la obesidad es una medida de salud pública
que incluye educación, dieta y ejercicio para evitar el exceso
de grasa corporal desde una edad temprana.
Definición 2 La prevención de la obesidad se refiere a la implementación
de estrategias como la alimentación saludable y el ejercicio
físico regular para mantener un peso adecuado y prevenir
enfermedades asociadas con el exceso de grasa corporal.
Prevenir la obesidad infantil y adolescente ayuda a evitar las
Razonamiento graves consecuencias que esta condición puede causar en la
vida adulta, como las enfermedades cardiovasculares y la
diabetes.
Evidencias - Investigación del grupo de Kam-sang Woo: El estudio
muestra que la combinación de dieta y ejercicio en
niños obesos mejora significativamente la salud arterial.
82 niños obesos.
- Datos de la OMS: Desde 1998, la obesidad es
considerada una pandemia y es una de las
enfermedades infantiles más comunes en casi todos los
países.
- Estadísticas de aumento de obesidad infantil: La
probabilidad de padecer obesidad en la infancia casi
se ha triplicado en las últimas décadas.
4
Práctica de Argumentación 4
Tema 4: Argumentos por razonamiento inductivo
I. Lee los casos propuestos y determina a qué generalización se puede llegar a partir de
dicha información.
Caso 1: El Ministerio de Salud surcoreano estableció desde el primer
día: una amplia red de diagnóstico y la reducción de la tasa de
mortalidad como objetivo. “Detectar el virus en sus etapas más
tempranas es fundamental para poder identificar a las personas que
Posible generalización:
lo tienen y de esa forma poder detener o demorar su expansión”, le
Los países que han
dijo al CNN Park Neunghoo, ministro de Salud. “Eso ha permitido implementado
planear adecuadamente la atención en salud, debido a que solo el estrategias de detección
10% de los contagiados requiere hospitalización”. temprana rastreo de
Fuente: [Link] (marzo 2020) casos y con una rápida
respuesta han logrado
contener la
Caso 2: Taiwán ha mantenido su número de casos confirmados por
propagación del virus
debajo de 50. Algunos expertos en salud atribuyen esto a la rápida como la reducción de la
preparación e intervención temprana. El Dr. Jason Wang, un experto mortalidad .
en políticas de salud pública de la Universidad de Stanford en los EE. Estas medidas han
UU., dijo que Taiwán reconoció la escala potencial de la crisis en una permitido una
planificación adecuada
etapa temprana del brote, y que así la isla pudo adelantar acciones
de la atención de la
preventivas. salud y lo cual han
Fuente: [Link] evitado una sobrecarga
%C3%B3 (marzo 2020)
Caso 3: Singapur fue uno de los primeros afectados por la pandemia
a nivel global debido a su fuerte relación comercial con China. A las
pocas semanas de la primera notificación oficial de la “gripe de
Wuhan”, el país experimentó una docena de casos. Pero no tardó en
darse cuenta de que era más grave que la gripe estacional, y tomó
medidas rápidas. Por ello, empezó a rastrear cuidadosamente los
casos para encontrar los puntos en común que los vinculaban.
Fuente: [Link]
controlar-el-coronavirus (marzo2020)
5
II. Reconoce la estructura del siguiente argumento por generalización:
A nuestro parecer, la publicidad dirigida a los niños debería de limitarse, ya que
están expuestos a comerciales o publicidad con contenido inadecuado, que llegan
a producir malos hábitos.
Es necesario que se establezca un límite a la publicidad dirigida a niños, porque esta
genera una sexualidad muy temprana. Es decir, la hipersexualización incrementa la
sexualidad de los infantes al ser exhibidos como supuestos adultos. Esta situación es
perjudicial, ya que conduce a la insatisfacción con el cuerpo desde edades
tempranas. En primer lugar, un estudio realizado por el estado de España demuestra
que el 11% de los anuncios de juguetes, sexualizan a las niñas. Orozco (2019), señala
que “la tendencia sexualizadora provoca que las pequeñas busquen la aceptación
de los demás en función de su apariencia, provocando que pasen gran parte de su
vida tratando de encajar en un modelo físico, quizá inalcanzable”. En otras palabras,
los juguetes que son publicitados tienden a mostrar aspectos físicos poco realistas y
naturales, como las muñecas que presentan una figura supuestamente ideal, que las
niñas intentan imitar. Por otra parte, otro estudio realizado en México revela que los
anuncios hipersexualizan a 1 de cada 10 adolescentes. Un estudio realizado por el
gobierno de México demuestra que las mujeres de 12 a 17 años han recibido
mensajes y videos sexuales, debido a las ideas distorsionadas que tiene la gente
sobre ellas. Es decir, las personas suelen crear ideas sexistas sobre los adolescentes,
debido a que los anuncios las hipersexualizan a una corta edad. Por estos motivos, la
publicidad debería de autorregularse, ya que a la edad que va dirigida dichas
propagandas no es la adecuada por el contenido que brindan.
Tesis Considero necesario establecer límites a la publicidad dirigida a los niños
para evitar la hipersexualización y sus efectos perjudiciales en su desarrollo
emocional y social.
Afirmación La publicidad dirigida a niños que promueven la sexualización a una
temprana edad esto genera una presión indebida sobre los infantiles,
llevandoles a adoptar vicios distorsionados a base de la apariencia física.
Caso 1 El estudio de España: Según sun investigaciones que an realizado por el
estado de españa, el 11% de los anuncios de los juguetes para niñas la
sexualizan, lo cual perpetúa estereotipos sobre la belleza inalcanzable
Caso 2
6
III. Redacta un argumento por ejemplificación utilizando las fuentes que a continuación se
te ofrecen.
Fuente 1
Usos maliciosos de la inteligencia artificial que se transforman en dilemas éticos
El estudio de un colectivo de autores de diversas universidades norteamericanas5,
titulado: The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,
realizado por Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … &
Amodei, D., (2018); destaca aspectos positivos que se podrían transformar y emplear con
fines nocivos y, difíciles de impedir, lo cual se puede observar en cuatro campos:
identidad, invasión de los entornos, intimidad y seguridad.
Invasión de los entornos
● La IA tiene nuevas vulnerabilidades sin resolver, como es el caso de ataques de
envenenamiento de información (introducción de datos de formación que hacen
que un proceso de aprendizaje cometa errores), ejemplos contradictorios
(entradas diseñadas para ser clasificadas erróneamente, por los sistemas de
aprendizaje automático), y la explotación de fallas en el diseño de los objetivos
autónomos.
● La cotidianidad en el entorno físico, exige de comunicación frecuente, así como
tomar decisiones sobre la base del comportamiento social que se aprecia, con la
automatización de estas tareas, los sistemas de IA permiten a los actores mantener
su anonimato y experimentar un mayor grado de distancia psicológica de las
personas a las que impactan. Por ejemplo, alguien que emplea un sistema de
armas autónomo para cometer un asesinato, en lugar de usar una pistola, impide
tanto la necesidad de estar presente en la escena, como la de mirar a su víctima.
● La capacidad de producir nuevos peligros, debido a la posibilidad que tienen
estas tecnologías de rastrear las fragilidades con facilidad y tomar el control de
vehículos, dispositivos, robots o cualquier infraestructura digital, es trascendente. Y,
de otra parte, hace pensar en cómo estas debilidades podrían recrudecerse, al
proporcionar la posibilidad de empleo de software malicioso, a grupo de personas,
o a individuos aislados, que antes no accedían a esta tecnología.
● Una de sus características esenciales es que son sistemas eficientes y escalables,6
es decir cuanto más se empleen, más conocimiento incorporan a su modo de
actuación. Existen softwares maliciosos y ransomwares inteligentes que, con estos
aprendizajes, se propagan, coordinando ciberataques globales con análisis de
datos avanzados para personalizar estos, con las consecuencias implícitas de este
peligro.
7
Intimidad
● Los programas que buscan fragilidades en dispositivos y redes pueden aplicarse
para agredir y aprovechar estas vulnerabilidades, por ejemplo, la capacidad de
producción de imágenes puede dar lugar a reemplazos de identidad o la
publicación de contenido falso.
● La automatización de tareas imposibilita que factores psicológicos como la
empatía entren en juego a la hora de tomar decisiones, a lo que se añade que en
este contexto se refuerza el anonimato.
● La capacidad de generar imágenes, texto y audio sintéticos podría utilizarse para
hacerse pasar por otros en línea, o para influir en la opinión pública mediante la
distribución de contenido generado por inteligencia artificial, a través de canales
de medios sociales. Investigadores de ZeroFox demostraron que un sistema de
phishing de automatizado podría reproducir tweets en la plataforma de medios
sociales Twitter basados en los intereses de un usuario, logrando un alto índice de
clics en un enlace que podría ser malicioso.
● Con el manejo de datos se pueden hacer predicciones del comportamiento y
preferencias de las personas, lo que, al mismo tiempo, aumentan las posibilidades
de persecución o control (Bryson, & Winfield, 2017).
Seguridad
En relación con la seguridad, el uso malicioso de la inteligencia artificial amenaza:
● La seguridad digital: por ejemplo, a través de máquinas de formación de
delincuentes para piratear o manipular socialmente a las víctimas en niveles
humanos o sobrehumanos de rendimiento.
● La seguridad física: por ejemplo, agentes no estatales que convierten en armas a
los aviones teledirigidos de consumo.
● La seguridad política: por ejemplo, mediante la eliminación de la vigilancia, la
elaboración de perfiles y la represión de la privacidad, o a través de campañas de
desinformación automatizadas y selectivas.
Identidad
● El examen facial preciso se puede implementar a sistemas de armas autónomas, lo
que es significativo si se valoran sus potencialidades, por el hecho de que la IA en
reconocimiento de imágenes ha pasado de conceptualizar correctamente
alrededor del 70 % de las fotografías a una identificación casi perfecta del 98 %,
superior al 95 % de precisión humana (Brundage, et al., 2018).
Por consiguiente, el estudio de Brundage, et al., (2018), sobre los usos maliciosos de la
inteligencia artificial -en los campos antes presentados-, sintetiza potencialidades que
podrían ser perjudiciales para la sociedad, sobre las que es importante pensar en
cualquier alternativa, ante los daños que puedan causar. Ello sugiere repensar de manera
8
permanente los escenarios de la seguridad física, y la ciberseguridad, con la finalidad de
proteger la soberanía nacional de los Estados, evitando la posibilidad de que aparezcan
amenazas que afecten a países y regiones.
Sobre los riesgos de los usos maliciosos de la tecnología, es notorio el caso del Deepfakes,7
falsificación a la perfección, cuyo contenido no ético consiste en manejar procedimientos
de aprendizaje profundo para inventar situaciones falsas, la cuales pueden ser
desarrolladas en audiovisuales y en textos. Por ejemplo, se emplea un escrito
fundamentándose en predicciones del acontecimiento que se podría producir después
(Paniagua, 2019).
Las redes neuronales, y las técnicas como el eep learning machine, y el learning
avanzado, posibilitan que los sistemas artificiales descifren patrones y pongan al
descubierto, que pueden crear vulnerabilidades éticas. Es en este escenario, en el que se
pueden identificar los riesgos asociados a la construcción y a la ejecución de los sesgos
humanos que se concretan en sistemas algorítmicos, los cuales, empleados
indebidamente desde la inteligencia artificial, causan efectos perjudiciales para la
sociedad.
En esta situación se ponen en evidencia las Deep Fake (falsificaciones profundas)
mediante la manipulación de imágenes convertidas en videos, las cuales han traído
peligros para la soberanía nacional de países y regiones enteras, creando múltiples
desórdenes informativos, al punto de que estos impactos se están manipulando
ideológicamente, para el replanteo de pensamientos como el fin de la verdad, cuestión
que está dirigido a atacar creencias, convicciones, sentimientos, símbolos, todo ello
basado en una gran capacidad económica y tecnológica. El propósito es someter
ideológicamente al oponente y la construcción de un campo de batalla a distancia, con
herramientas de IA de gran alcance y precisión, que reducen la conciencia de defensa.
De estos ejemplos, se podría concluir parcialmente, que los fallos que producen los
desarrollos tecnológicos de la IA, inadecuadamente programados, colocan en riesgo la
dignidad y la vida humana, la libertad de expresión, el derecho a un empleo e incluso la
salud. Tómense de ejemplo, el caso de Arkansas (EE. UU.), donde un error de codificación
de un algoritmo ocasionó un descenso injustificado de la cobertura de salud, para
pacientes con parálisis cerebral, asignándoseles una menor cantidad de horas de
cuidados intensivos, de las que en realidad debían planificarse (Lecher, 2018).
Jonnathan Penn, especialista del Centro Berkman Klein de Harvard University, en el
Seminario HUMAINT: “Impacto ético, legal, social y económico de la inteligencia artificial”,
organizado por el Centro Común de Investigación de la Comisión Europea, en febrero de
2019, en Sevilla, presentó evidencias de quebrantamiento de la intimidad en Facebook, al
plantear como ejemplo, que un examen de 1000 aplicaciones Android ejecutado por la
organización Privacy International, reveló que el 61 % de esa pesquisa se reproduce
instantáneamente, para cualquier usuario de las redes sociales, independientemente del
interés de este.
También, Google divulga datos sensibles de sujetos con dificultades médicas asociadas a
cáncer, impotencia, adictos a la droga. Estos hechos han sido denunciados en el ámbito
de la región europea, a solicitud de University College London, el navegador web privado
Brave y Open Rights Group, organizaciones que acusan a esta empresa de transgredir el
Reglamento General de Protección de Datos (GDPR), por favorecer el éxodo masivo de
información íntima (Paniagua, 2019).
9
A todos estos análisis se unen concepciones de obtención de supremacía mediante el uso
del dominio monopólico de la tecnología que plantean: “Quien lidere la Inteligencia
Artificial gobernará el mundo” ( Gigova R., 2017). Esta frase podría tener una connotación
optimista o catastrófica. La primera dirigida a eliminar los problemas más acuciantes de la
humanidad (hambre, pobreza, medio ambiente, desigualdades sociales), la segunda,
fundamentada en acciones no éticas, como los ciberataques a países.
Lamentablemente, líderes mundiales destacan las posibilidades que tiene la inteligencia
artificial para amenazar intereses de empresas, ciudades, países y continentes, como un
ejercicio de dominio para desequilibrar la balanza de poder mundial (Samaniego, 2018b).
Los desarrollos de la tecnología, actualmente exigen marcos regulatorios en relación con
enfrentar sus usos maliciosos, por consiguiente, la integración de estos a la carrera
armamentista genera preguntas que cuestionan este uso: ¿Es correcto este empleo de la
tecnología?, ¿Es moral?8 ¿Cuánta inseguridad genera? Este cuestionamiento se conecta
con la idea de desarrollar la ética en los avances de la IA. ( Scherer, 2016). De esto se
deriva, la urgencia de soluciones que es necesario encontrar frente a los dilemas éticos
planteados.
González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial.
Economía y Sociedad, 25(57), 93-109.
Fuente 2
UN MARCO ÉTICO PARA LA INTELIGENCIA ARTIFICIAL
Un buen marco es el que ofrece el AI4People del Atomium European Institute, que cuenta
con cuatro principios clásicos, aplicados a entornos digitales, a los que añadiría un quinto:
la explicabilidad y la rendición de cuentas. Los principios clásicos serían el de
beneficencia, que exigiría ahora poner los progresos al servicio de todos los seres humanos
y la sostenibilidad del planeta; el de no-maleficencia, que ordenaría evitar los daños
posibles, protegiendo a las personas en cuestiones de privacidad, mal uso de los datos, en
la posible sumisión a decisiones tomadas por máquinas y no supervisadas por seres
humanos; pero también el principio de autonomía de las personas, que puede
fortalecerse con el uso de sistemas inteligentes, y en cuyas manos deben ponerse tanto el
control como las decisiones significativas; y, por supuesto, el principio de justicia, que exige
distribuir equitativamente los beneficios. A ellos se añadiría un principio de explicabilidad y
accountability, porque los afectados por el mundo digital tienen que poder
comprenderlo. Dada la centralidad de los principios de autonomía y explicabilidad,
desearía, por terminar, hacer unas puntualizaciones sobre ellos.
Autonomía y dignidad
Aunque a menudo se hable de “coches autónomos” y de “sistemas autónomos”, lo cierto
es que la palabra “autonomía” sólo puede aplicarse a los seres humanos. La autonomía
no consiste sólo en tomar decisiones y actuar con independencia respecto a otros, sino en
la capacidad de autolegislarse y de autodeterminarse, es decir, en la capacidad de
poder determinarse a sí mismo a seguir las leyes o eludirlas, la capacidad de darse metas
y seguirlas, y de optar no solo por normas idiosincráticas, sino también por leyes universales
10
24. Estas capacidades están ligadas al reconocimiento de la dignidad de las personas,
que es el núcleo de las orientaciones éticas. De ahí que sea un deber preservar y
potenciar la autonomía y la agencia de las personas, también con el uso de sistemas
inteligentes, llegando a la “inteligencia aumentada”, pero utilizando esos sistemas como
instrumentos. Son las personas las que tienen un valor intrínseco y las personas son seres
humanos. Por el contrario, los mal llamados “sistemas autónomos” no lo son realmente: son
artefactos, son autómatas, a pesar del aprendizaje profundo (eep learning). Los sistemas
inteligentes pueden resolver problemas y actuar independientemente de los seres
humanos, pero no son autónomos. No pueden decidir qué se debe hacer, qué metas hay
que perseguir. De aquí se sigue que son los seres humanos los que tienen dignidad y
merecen respeto, pero también que son responsables, porque la responsabilidad exige
autonomía, entendida como la capacidad de autodeterminación.
Explicabilidad y rendición de cuentas
Totalmente ligado al respeto a la autonomía se encuentra el principio de explicabilidad o
de trazabilidad, según el cual, los afectados tenemos derecho a controlar el uso de
nuestros datos y a conocer los algoritmos que los manejan. Porque los seres humanos
tienen sesgos, como se ha mostrado hasta la saciedad, pero también los sistemas
autómatas los tienen y son más invisibles que en el caso de los humanos. Entre otras
razones, porque los diseñadores introducen los sesgos en los sistemas inteligentes,
consciente o inconscientemente. Es revelador uno de los ejemplos que presenta la
analista financiera, experta en matemáticas, Cathy O’Neil en su interesante libro Armas de
destrucción matemática. El relato es el siguiente. En 2007 el alcalde de Washington D. C.,
Adrian Fenty, quería corregir la situación de las escuelas deficientes de la ciudad. La teoría
generalmente aceptada era que los alumnos no aprendían lo suficiente porque los
profesores no trabajaban bien. La rectora en centros educativos de primaria y secundaria
de Washington, Michelle Rhee desarrolló una herramienta de evaluación del personal
docente, llamada IMPACT, y aplicándola despidió a los profesores que no alcanzaron un
determinado nivel. Con la aplicación del algoritmo se trataba de evitar sesgos humanos
en la apreciación de los profesores (amistades, subjetivismos) y prestar atención a
valoraciones objetivas: las puntuaciones de los alumnos en matemáticas y en lectura.
Entre los profesores despedidos figuraba Sarah Wysocki, una maestra extraordinariamente
apreciada por director, padres y alumnos. La puntuación en competencias lingüísticas y
matemáticas, que suponía la mitad de la valoración global, fue muy baja. Dolida por la
puntuación preguntó Sarah cómo se había llegado a ella y no encontró respuesta en la
consultora Mathematica que elaboró el algoritmo, porque los análisis se subcontrataban a
programadores y estadísticos, que dejan que hablen las máquinas. El modelo es una caja
negra (11-20). El final del relato es agridulce Sarah fue contratada por una escuela
privada, que se sintió feliz de poder contar con ella, porque no se había sometido a
máquinas para contratar.
Cortina Orts, A. (2019). Ética de la inteligencia artificial. In Anales de la Real Academia de Ciencias Morales y
Políticas (pp. 379-394). Ministerio de Justicia.
Planificación del texto
11
Tema Los usos maliciosos de la inteligencia artificial y la necesidad de un marco ético
para su regulación.
Esquema de redacción
Tesis
Argume Razón 1
nto 1 (Afirmación) La inteligencia artificial plantea riesgos significativos en áreas como
la invasión de la privacidad, la seguridad, la identidad y la
autonomía de las personas.
Ejemplo 1
Ejemplo 2
Ejemplo 3
Redacción del argumento
ESQUEMA DEL TERCER ARGUMENTO DE MI ENSAYO
12
Argumento por definición
3.1. ARGUMENTO 3
3.1.1. Afirmación:
Definición:
3.1.2. Razonamientos - evidencias:
-
-
-
ESQUEMA DEL CUARTO ARGUMENTO DE MI ENSAYO
Argumento de generalización
13