100% encontró este documento útil (1 voto)
171 vistas16 páginas

Sesión de Aprendizaje 3 Eva

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
171 vistas16 páginas

Sesión de Aprendizaje 3 Eva

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

SESIÓN DE APRENDIZAJE – CURSO EVA

Escuela: EESP Pública Indoamérica


Curso: Entornos Virtuales de Aprendizaje (EVA) y Aplicaciones de la IA
Ciclo: III – PPD
Duración: 4 horas pedagógicas (3 horas teóricas, 1 práctica)
Docente: Pedro Saldarriaga López
Título de la sesión: Ética de la IA: sesgos y regulación
Unidad: Introducción crítica a los EVA y la IA en educación
Fecha sugerida: Semana 3 (26–27 de abril)

I. PROPÓSITO DE APRENDIZAJE

Los estudiantes reflexionan críticamente sobre los desafíos éticos del uso de la
inteligencia artificial en educación, identificando riesgos de sesgo algorítmico,
problemáticas de privacidad y marcos regulatorios, con el fin de fundamentar un uso
responsable de la IA en sus prácticas docentes.

II. COMPETENCIA DEL PERFIL DE EGRESO

Competencia 11: Utiliza las tecnologías digitales de manera crítica, reflexiva y


responsable en el marco de la sociedad del conocimiento.

III. DESEMPEÑOS ESPERADOS

 Reconoce riesgos éticos vinculados al uso de IA en contextos educativos.


 Analiza ejemplos de sesgos algorítmicos en herramientas digitales.
 Propone principios y pautas para el uso ético de la IA en la práctica docente.

IV. CONOCIMIENTOS

 Principios éticos en el uso de tecnologías digitales (UNESCO, 2022).


 Casos documentados de sesgos en algoritmos educativos.
 Propuestas regulatorias sobre IA (IA Act – Unión Europea, Recomendación
UNESCO 2021).
 Derechos digitales de los estudiantes y privacidad de datos.

V. METODOLOGÍA

Enfoque: Crítico–reflexivo
Metodología: Aula invertida + Aprendizaje basado en problemas
Técnicas: Estudio de casos, análisis grupal, debate ético
Herramientas: Jamboard, Google Docs, Guía Ética UNESCO

VI. ACTIVIDADES (4 HORAS PEDAGÓGICAS)

Momento Actividad Tiempo

Activación: Pregunta detonante ¿La IA puede discriminar? Lluvia de ideas con


Inicio 45 min
titulares reales

Exposición guiada: Principios éticos de la IA (UNESCO). Tipos de sesgos


Desarrollo 1 45 min
algorítmicos y ejemplos educativos.

Análisis de casos: Por grupos, se resuelve un caso real de sesgo en IA educativa. Se


Desarrollo 2 45 min
propone una solución ética y se redacta protocolo.

Debate: Cada grupo sustenta su caso y solución. Se discuten implicancias éticas y


Desarrollo 3 45 min
principios mínimos aceptables en el aula.

Elaboración individual: “Mi código ético para usar IA en el aula” en Google Docs
Cierre 45 min
colaborativo. Socialización de ideas clave.

Aplicación de rúbrica + autoevaluación reflexiva breve sobre el rol del docente


Evaluación 15 min
frente a la IA.

VII. EVIDENCIAS

 Análisis ético de un caso con propuesta de solución fundamentada.


 Código personal de principios éticos sobre el uso de IA educativa.
VIII. INSTRUMENTO DE EVALUACIÓN

Rúbrica Analítica (idéntica a la entregada previamente, válida para este formato de 4


horas)

ACTIVIDADES DE RETROALIMENTACIÓN

Actividad 1: Caso Ético Exprés – resolución individual de un dilema ético planteado por
el docente.

Caso Ético Exprés: “El algoritmo que expulsaba”

Contexto:
En una institución educativa de nivel primaria, se ha implementado recientemente una
plataforma de inteligencia artificial que evalúa automáticamente la participación de los
estudiantes en clases virtuales. El sistema analiza variables como la frecuencia de
ingreso, el uso del micrófono, las interacciones en el chat y la entrega de tareas para
asignar una calificación de “compromiso académico”.

Situación:
La docente del 4.º grado, la profesora Mariana, recibe un informe del sistema donde
tres estudiantes aparecen con la etiqueta “riesgo académico alto”. El algoritmo
recomienda que se les derive a reforzamiento y se notifique a sus familias.

Sin embargo, Mariana sabe que estos tres estudiantes:

 Tienen acceso limitado a internet y dispositivos (se conectan desde un celular


compartido).
 Participan activamente cuando logran conectarse.
 Han mostrado progreso en sus aprendizajes durante las clases presenciales.

Mariana se enfrenta a una decisión:

 ¿Debe seguir la recomendación del sistema y activar el protocolo de riesgo


académico?
 ¿O debe intervenir para ajustar el sistema, argumentando que sus datos no
captan la realidad socioeducativa de sus estudiantes?

Tarea del estudiante:

Redacta una respuesta breve (máx. 10 líneas) donde respondas:

1. ¿Qué decisión tomarías si fueras la profesora Mariana?


2. ¿Por qué?
3. ¿Qué principio ético de los vistos en clase estás aplicando?

ACTIVIDAD 2: RETO DE REGULACIÓN – SIMULACIÓN DE COMISIÓN REGULADORA, CON


PRODUCCIÓN DE PRINCIPIOS ÉTICOS MÍNIMOS PARA IA EN EDUCACIÓN.

Actividad 2: Reto de Regulación – Comisión Ética para la IA Educativa

Objetivo:
Simular una comisión nacional del Ministerio de Educación encargada de redactar
principios éticos mínimos para regular el uso de la inteligencia artificial en instituciones
educativas públicas del país.

Desarrollo de la Actividad

Modalidad: Grupal (3 a 5 integrantes por equipo)


Duración total: 45 minutos
Materiales: Papelógrafos
Recursos base:

 Recomendación sobre la ética de la IA (UNESCO, 2022)


 Casos trabajados en la sesión
 Aportes del código ético personal de cada participante
Instrucciones para los grupos

1. Escenario simulado:
Ustedes forman parte de una comisión del Minedu que debe proponer una
primera versión de "Principios éticos mínimos para el uso de IA en educación
pública". El documento servirá de base para futuras políticas nacionales.
2. Tarea:
Redactar de forma colaborativa un decálogo de principios éticos (10 ítems)
breves, claros y aplicables a contextos escolares reales, dirigidos a:
o Directivos
o Docentes
o Desarrolladores de plataformas educativas con IA
3. Criterios que deben considerar:
o No discriminación y equidad
o Transparencia y explicabilidad
o Protección de datos y privacidad estudiantil
o Rendición de cuentas
o Sostenibilidad y justicia social
4. Producto:
Un afiche digital o físico con el decálogo ético, que será socializado y discutido
brevemente al final.
5. Exposición (opcional si hay tiempo):
Cada grupo presenta en 3 minutos los 3 principios que considera más
importantes y justifica por qué.

Producto esperado

 Decálogo ético original, contextualizado y argumentado.


 Registro visual (foto del afiche físico o enlace al documento digital).

Evaluación (formativa)

 Claridad y pertinencia de los principios redactados.


 Coherencia con los marcos éticos revisados (UNESCO, Minedu, autores citados).
 Participación colaborativa del grupo.
ANEXOS
CONOCIMIENTOS

PRINCIPIOS ÉTICOS EN EL USO DE TECNOLOGÍAS DIGITALES (UNESCO, 2022).

El avance de la inteligencia artificial (IA) y otras tecnologías digitales en los últimos


años ha generado importantes beneficios para la educación, pero también ha
planteado dilemas éticos que deben abordarse con urgencia y responsabilidad. En
respuesta, organismos internacionales como la UNESCO han establecido un marco
normativo orientador que destaca principios éticos fundamentales para el diseño,
implementación y uso de tecnologías digitales, especialmente en entornos educativos.

1. Respeto a la dignidad humana y a los derechos fundamentales

Este principio subraya que toda tecnología debe estar al servicio del bienestar
humano. El uso de IA no debe socavar la libertad, la autonomía ni la integridad de los
individuos. En contextos educativos, esto implica garantizar que los sistemas de
recomendación, evaluación o retroalimentación automática no discriminen, cosifiquen
o deshumanicen al estudiante.

"La dignidad humana debe estar en el centro de todas las fases del ciclo de vida de los
sistemas de IA" (UNESCO, 2022, p. 9).

2. Equidad y no discriminación

Uno de los mayores riesgos éticos de la IA es la reproducción de sesgos algorítmicos


que pueden marginar a ciertos grupos por razones de género, etnia, situación
socioeconómica o capacidades diferentes. El principio de equidad exige diseñar
tecnologías inclusivas, con datos representativos y mecanismos para detectar y
corregir sesgos.

“El uso ético de la IA requiere una programación libre de estereotipos y un


entrenamiento con datos diversos para evitar sesgos estructurales” (Balsells & Alsina,
2021, p. 58).
3. Privacidad, seguridad y protección de datos

La recopilación y procesamiento de datos personales debe regirse por estrictas normas


de confidencialidad, consentimiento informado y propósito educativo. Esto incluye
tanto a estudiantes como a docentes. El mal uso de datos puede vulnerar el derecho a
la intimidad y facilitar vigilancia indebida.

“Los sistemas de IA en educación deben implementar salvaguardas para evitar el uso


indebido o el acceso no autorizado a la información personal de los estudiantes”
(Villalobos & Delgado, 2021, p. 7).

4. Transparencia y explicabilidad

Los usuarios deben poder comprender cómo funciona la tecnología que utilizan,
especialmente cuando esta toma decisiones que afectan su aprendizaje o evaluación.
Este principio aboga por interfaces explicables, políticas claras y posibilidad de
apelación ante decisiones automatizadas.

“La opacidad algorítmica mina la confianza. Es necesario desarrollar tecnologías con


criterios de trazabilidad y comprensibilidad” (UNESCO, 2022, p. 12).

5. Responsabilidad y rendición de cuentas

Las instituciones educativas y los desarrolladores de tecnologías deben asumir


responsabilidad por los impactos de sus sistemas de IA. La existencia de errores o
daños generados por un algoritmo no puede quedar sin respuesta ni reparación.
Además, se requiere formación docente para un uso crítico y responsable de estas
herramientas.

“Las tecnologías no son moralmente neutras; requieren un marco normativo y


usuarios críticos para evitar efectos colaterales nocivos” (Salinas, 2004, p. 11).

6. Sostenibilidad y bienestar del planeta


La ética digital también considera el impacto medioambiental de las tecnologías. El
diseño y uso de IA deben ser sostenibles, minimizando el consumo energético y la
generación de residuos electrónicos.

“Una IA ética debe contribuir al desarrollo sostenible y evitar el agotamiecuros


naturales” (UNESCO, 2022, p. 15).

CASOS DOCUMENTADOS DE SESGOS EN ALGORITMOS EDUCATIVOS

El uso de inteligencia artificial (IA) en educación promete eficiencia y personalización,


pero también ha generado evidencia empírica de sesgos algorítmicos que afectan
negativamente a estudiantes según su género, etnia, situación socioeconómica o
contexto geográfico. Estos sesgos surgen de conjuntos de datos no representativos,
modelos mal entrenados o decisiones automatizadas no supervisadas adecuadamente.
A continuación, se presentan algunos casos documentados que ilustran estos
problemas.

1. Caso Ofqual – Reino Unido (2020): Discriminación por código postal

Durante la pandemia de COVID-19, el gobierno británico implementó un algoritmo


desarrollado por Ofqual para reemplazar los exámenes de ingreso universitario (A-
Levels) con una calificación automática basada en el rendimiento histórico de las
escuelas.

El algoritmo redujo injustamente las calificaciones de estudiantes provenientes de


escuelas públicas de bajo rendimiento, mientras que mantuvo o elevó las notas de
estudiantes de colegios privados. Se demostró que el sistema reforzó desigualdades
estructurales en lugar de corregirlas.

“Los estudiantes de entornos desfavorecidos recibieron notas injustas por un


algoritmo que perpetuó el sesgo histórico institucional” (Williamson & Eynon, 2020, p.
113).

Como resultado del escándalo, el algoritmo fue retirado y el gobierno se vio obligado a
aceptar las calificaciones propuestas por los docentes.
2. Estudio de Northcutt et al. (2021): Sesgos en plataformas de evaluación
automatizada

Investigadores de Stanford analizaron plataformas de evaluación automatizada de


textos escritos, como las que se usan en exámenes nacionales o plataformas de
escritura asistida con IA. El estudio encontró que estas herramientas tendían a:

 Penalizar más severamente a estudiantes con errores gramaticales frecuentes


asociados a dialectos no estándar del inglés.
 Otorgar calificaciones más bajas a textos con estructuras argumentativas
culturalmente diversas, aunque coherentes.

“Los algoritmos de puntuación automática tienden a reproducir sesgos lingüísticos y


culturales presentes en los datos de entrenamiento” (Northcutt et al., 2021, p. 3).

3. Caso del uso de IA en sistemas de vigilancia escolar (Estados Unidos)

Escuelas en [Link]. han implementado software de reconocimiento facial y análisis de


comportamiento para detectar conductas problemáticas en los estudiantes.
Investigaciones de AI Now Institute revelaron que:

 Los sistemas tenían tasas de error mucho más altas con estudiantes
afrodescendientes y latinos, especialmente en condiciones de baja
iluminación.
 Las conductas como mirar a los lados, no tener contacto visual o moverse con
inquietud eran mal interpretadas como “conducta sospechosa”, afectando a
estudiantes neurodivergentes.

“Estas tecnologías castigan de forma desproporcionada a estudiantes marginados, bajo


supuestos normativos de conducta” (Crawford & Paglen, 2021, p. 14).

Implicancias éticas
Estos casos muestran cómo los algoritmos no son neutrales: heredan las limitaciones,
prejuicios y desequilibrios sociales presentes en los datos o en su diseño. Por ello, se
hace indispensable:

 Aplicar auditorías algorítmicas permanentes.


 Exigir transparencia en los modelos usados en educación.
 Incluir a docentes y comunidades en la evaluación crítica de estas tecnologías.

PROPUESTAS REGULATORIAS SOBRE INTELIGENCIA ARTIFICIAL: IA ACT DE LA UNIÓN


EUROPEA Y RECOMENDACIÓN UNESCO (2021)

El uso creciente de sistemas de inteligencia artificial (IA) en sectores clave como la


educación ha impulsado la necesidad de establecer marcos regulatorios
internacionales que garanticen su desarrollo y aplicación de manera ética,
transparente y segura. Dos de las propuestas más relevantes a nivel global son:

 El Artificial Intelligence Act (IA Act) de la Unión Europea, primera ley integral
sobre IA en el mundo.
 La Recomendación sobre la ética de la inteligencia artificial adoptada por la
UNESCO en 2021, con adhesión de más de 190 países, incluido el Perú.

Estas propuestas representan líneas complementarias: una desde la perspectiva legal


y normativa (UE) y otra desde un marco ético y de derechos humanos (UNESCO).

1. Artificial Intelligence Act (IA Act) – Unión Europea (2021–2024)

El IA Act, propuesto por la Comisión Europea en 2021 y en proceso de implementación,


es el primer marco legislativo vinculante que regula el desarrollo, comercialización y
uso de la IA en la Unión Europea. Su enfoque central es basado en riesgos: clasifica las
aplicaciones de IA según su nivel de riesgo para los derechos y la seguridad de las
personas.

Clasificación de riesgos:
 Riesgo inaceptable: Prohibido. Ej.: sistemas de puntuación social, manipulación
cognitiva infantil, vigilancia masiva indiscriminada.
 Riesgo alto: Requiere estrictas obligaciones. Incluye sistemas de IA usados en
educación, selección de personal, justicia, etc.
 Riesgo limitado: Obligación de transparencia (como bots conversacionales).
 Riesgo mínimo: Sin restricciones (uso recreativo, videojuegos, etc.).

Implicancias educativas: Los sistemas de IA usados para evaluación automatizada,


monitoreo del comportamiento o admisión escolar entran en la categoría de riesgo
alto y deben cumplir con exigencias como:

 Evaluación de impacto ético y social.


 Supervisión humana obligatoria.
 Garantías de equidad y no discriminación.

“El IA Act posiciona la educación como un ámbito sensible que requiere vigilancia ética
y legal sobre el uso de algoritmos” (European Commission, 2021, art. 5).

2. Recomendación sobre la ética de la IA – UNESCO (2021)

La UNESCO emitió en noviembre de 2021 la primera norma internacional de carácter


ético sobre la IA. Aunque no es jurídicamente vinculante, representa un acuerdo
global sin precedentes sobre los principios, valores y acciones necesarias para un
desarrollo ético de la IA.

Principios rectores:

 Centralidad del ser humano y los derechos humanos.


 Inclusión y no discriminación algorítmica.
 Soberanía de los datos y privacidad digital.
 Transparencia, trazabilidad y explicabilidad de los sistemas.
 Educación digital crítica para docentes y estudiantes.

Acciones recomendadas en el ámbito educativo:


 Incluir la alfabetización en IA en los currículos escolares.
 Establecer regulaciones claras para proveedores tecnológicos educativos.
 Crear comités éticos en instituciones educativas que supervisen el uso de IA.

“La educación debe empoderar a los estudiantes para entender, cuestionar y co-
construir el desarrollo de la inteligencia artificial en su entorno” (UNESCO, 2022, p. 34).

Comparación y complementariedad

Criterio IA Act (UE) UNESCO (2021)


Naturaleza Legal, vinculante en Europa Ético, orientador a nivel global
Control de riesgos
Foco Protección de derechos y valores
tecnológicos
Aplicación Educación como área de Educación como herramienta de
educativa “alto riesgo” empoderamiento ético
Enfoque Prevención normativa Transformación pedagógica y social

Ambos marcos coinciden en la necesidad de que los sistemas de IA en educación


estén sujetos a transparencia, equidad, participación humana y supervisión crítica,
especialmente cuando intervienen en procesos de evaluación, seguimiento, toma de
decisiones o recopilación de datos sensibles.

Referencias bibliográficas

 Balsells, M. Á., & Alsina, Á. (2021). La inteligencia artificial en la educación:


Retos y oportunidades para el profesorado. Ediciones Octaedro.
 Comisión Europea. (2021). Proposal for a Regulation of the European
Parliament and of the Council laying down harmonised rules on artificial
intelligence (Artificial Intelligence Act). [Link]
content/EN/TXT/?uri=CELEX:52021PC0206
 Crawford, K., & Paglen, T. (2021). Excavating AI: The politics of images in
machine learning training sets. AI Now Institute. [Link]
 Floridi, L. (2022). The European legislation on AI: A brief analysis of its
philosophical approach. Philosophy & Technology, 35, 25–38.
[Link]
 Morley, J., Floridi, L., Kinsey, L., & Elhalal, A. (2021). From what to how: An
initial review of publicly available AI ethics tools, methods and research to
translate principles into practices. Science and Engineering Ethics, 27(1), 1–22.
[Link]
 Northcutt, C., Athalye, A., & Mueller, J. (2021). Pervasive label errors in test sets
destabilize machine learning benchmarks. Stanford University.
[Link]
 Salinas, J. (2004). Innovación docente y uso de las TIC en la enseñanza
universitaria. Revista Universidad y Sociedad del Conocimiento, 1(1), 1–16.
[Link]
 UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial.
París: UNESCO. [Link]
 Villalobos, R., & Delgado, M. (2021). Uso pedagógico de Google Classroom en la
formación docente. Revista Electrónica Educare, 25(3), 1–20.
[Link]
 Williamson, B., & Eynon, R. (2020). Historical data and the algorithmic
discrimination of Ofqual’s “mutant algorithm”. Learning, Media and
Technology, 45(2), 107–114. [Link]
RÚBRICA DE ANÁLISIS ÉTICO DEL USO DE IA EN EDUCACIÓN

Curso: EVA – PPD


Producto evaluado: Análisis de caso ético / Decálogo ético
Escala de logro:

 4 = Excelente 3 = Logrado 2 = En proceso 1 = Inicio

Criterios 4: Excelente 3: Logrado 2: En proceso 1: Inicio

Identifica con precisión el Reconoce el dilema y


Identificación del dilema Menciona el dilema pero de No identifica claramente el
conflicto ético, sus causas y sus sus elementos
ético forma superficial o parcial. problema ético.
implicancias educativas. principales.

Aplica de forma argumentada


Aplicación de principios Aplica al menos un Menciona principios sin
más de un principio ético No aplica principios éticos o
éticos (UNESCO, IA Act, principio ético de justificar adecuadamente su
relevante con claridad y lo hace incorrectamente.
DDHH) forma coherente. uso.
profundidad.

La solución propuesta es
La propuesta es viable La solución es ambigua o
Propuesta ética viable y creativa, realista y adaptada al La propuesta es inaplicable,
y considera principios genérica; tiene escasa
contextualizada contexto educativo; respeta incoherente o ausente.
éticos básicos. conexión con la ética digital.
derechos y equidad.

Fundamenta sus decisiones con Argumenta de forma


Argumentación crítica y La argumentación es débil o No argumenta o repite frases
referentes teóricos y análisis clara, aunque con
fundamentación con ideas inconexas. sin reflexión propia.
crítico bien estructurado. poco sustento teórico.
Criterios 4: Excelente 3: Logrado 2: En proceso 1: Inicio

El texto es claro, coherente, bien El texto presenta Hay errores de redacción o El texto es desorganizado, con
Redacción, coherencia y
redactado, sin errores y con buena estructura con incoherencias que dificultan errores graves que afectan su
claridad comunicativa
estilo académico apropiado. pocos errores. la comprensión. comprensión.

Ponderación sugerida (ajustable según el producto evaluado)

 Identificación del dilema ético: 20 %

 Aplicación de principios éticos: 25 %

 Propuesta ética viable: 25 %

 Argumentación crítica: 20 %

 Redacción y claridad: 10 %

También podría gustarte