Modulo 1 Leccion
Modulo 1 Leccion
Primera Semana:
❖Primera Semana:
● Preguntas frecuentes.
1. ¿Cómo pueden los docentes distinguir entre una herramienta con IA y una que
no lo es?
Los docentes pueden identificar herramientas con IA observando si el sistema puede aprender
de los datos, adaptarse a nuevos escenarios sin programación adicional y realizar tareas
complejas que normalmente requieren comprensión humana, como el procesamiento del
lenguaje natural o el reconocimiento de patrones.
2. ¿Cuáles son algunas de las medidas más efectivas para mejorar la
ciberseguridad en las instituciones educativas?
Algunas de las medidas más efectivas incluyen: implementar autenticación de dos factores
para acceder a sistemas y datos sensibles; capacitar regularmente al personal y a los
estudiantes sobre buenas prácticas de seguridad y concienciación sobre ciberseguridad;
mantener actualizado todo el software de seguridad y sistemas operativos para proteger
contra vulnerabilidades conocidas; y establecer políticas de contraseñas fuertes y únicas para
todos los usuarios. También es crucial realizar auditorías de seguridad periódicas y tener
planes de respuesta a incidentes.
5. ¿Cuáles son las principales limitaciones de Chat GPT en el contexto educativo y
cómo pueden ser mitigadas
Las principales limitaciones de Chat GPT incluyen su propensión a generar respuestas
superficiales o incorrectas, la posibilidad de reflejar sesgos presentes en los datos de
entrenamiento, y la falta de comprensión profunda del contexto. Estas limitaciones pueden
mitigarse mediante una supervisión cuidadosa por parte de los educadores, proporcionando
retroalimentación continua para mejorar las respuestas del modelo, y utilizando Chat GPT en
combinación con otras herramientas educativas y métodos de enseñanza tradicionales para
proporcionar una experiencia de aprendizaje más robusta y completa.
MÓDULO 1- LA IA: CONOCIMIENTOS PREVIOS
❖ Primera Semana:
Por otro lado, las herramientas con IA son aplicaciones y programas que integran técnicas y
algoritmos de IA para mejorar su funcionalidad y ofrecer características avanzadas. Estas
herramientas pueden abarcar desde asistentes virtuales, como Siri y Alexa, hasta software
educativo que personaliza la enseñanza según las necesidades del estudiante.
Las herramientas con IA, en cambio, son aplicaciones específicas que utilizan los principios y
algoritmos de la IA para ofrecer funcionalidades mejoradas. Estas herramientas no son
autónomas en su totalidad, sino que están diseñadas para asistir y potenciar las capacidades
humanas en diversas tareas.
Ejemplos de estas herramientas incluyen:
● Ciberseguridad.
El uso de las tecnologías de la información y la comunicación (TIC 's) han cobrado gran
protagonismo en diferentes áreas, es así como la digitalización de datos, procesos y servicios
incrementa la eficiencia en las comunicaciones, la automatización de tareas, etc. Sin embargo,
se debe considerar que mientras más información tanto personal como empresarial sea
almacenada y transmitida en medios digitales, se enfrentan riesgos de vulnerabilidad y
seguridad.
En respuesta a esta problemática es que surge la ciberseguridad, definida como el conjunto de
procedimientos y herramientas que se implementan para proteger la información que se
genera y procesa a través de computadoras, servidores, dispositivos móviles, redes y sistemas
electrónicos (IBM, 2022; Kaspersky, 2022a).
Para poder tomar las medidas necesarias y evitar ciberataques se debe conocer los diferentes
tipos de ataques cibernéticos que existen, tales como:
1. Ciberterrorismo: A través de medios tecnológicos buscan intimidar, atemorizar y
causar daño a sus víctimas.
2. Ciberespionaje: Tiene como finalidad obtener información comercial sensible o datos
personales (Candau, 2021).
3. Phishing: Un ataque en el que los ciberdelincuentes se hacen pasar por entidades
legítimas para engañar a las personas y obtener información confidencial, como
contraseñas y números de tarjetas de crédito (Jagatic et al., 2007).
4. Malware: Software malicioso diseñado para dañar, interrumpir o tomar el control de
sistemas informáticos. Incluye virus, gusanos, troyanos y ransomware (Moser,
Kruegel, Kirda, 2007).
5. Ataques de Denegación de Servicio (DoS): Ataques que buscan hacer que un
servicio o recurso sea inaccesible a los usuarios legítimos mediante la sobrecarga del
sistema con tráfico excesivo (Mirkovic & Reiher, 2004).
2. Uso de contraseñas fuertes: Crear contraseñas complejas y únicas para cada cuenta,
y cambiarlas regularmente, ayuda a prevenir accesos no autorizados (Florencio &
Herley, 2007).
3. Autenticación Multifactor (MFA): Implementar MFA añade una capa adicional de
seguridad al requerir múltiples formas de verificación antes de conceder acceso
(Bonneau et al., 2012).
6. Cifrado de Datos: Cifrar la información sensible tanto en tránsito como en reposo
asegura que los datos no sean legibles para los atacantes incluso si lograron
interceptarlos (Ferguson, Schneier, Kohno, 2010).
De forma adicional, se puede emplear IA para reducir los riesgos de sufrir un ciberataque,
debido a su capacidad para analizar grandes volúmenes de datos y detectar patrones
anómalos.
Algunas aplicaciones de la IA en ciberseguridad incluyen:
● IA aplicada en la educación
2. Justicia y No Discriminación: Los algoritmos de IA deben ser diseñados para evitar
sesgos y discriminación, asegurando que todos los estudiantes sean tratados de
manera justa y equitativa (Friedman & Nissenbaum, 1996).
3. Consentimiento y Autonomía: Los estudiantes y sus familias deben ser informados y
dar su consentimiento para el uso de IA en sus procesos educativos, preservando su
autonomía y derecho a decidir sobre su educación (Mittelstadt et al., 2016).
● Chat GPT
El Chat GPT puede ser una herramienta poderosa en el ámbito educativo si se utiliza de
manera efectiva. Algunas de sus aplicaciones más destacadas incluyen:
A pesar de sus numerosas ventajas, Chat GPT tiene ciertas limitaciones que deben
considerarse:
1. Conocimiento Limitado y Sesgos: Chat GPT se basa en datos hasta su fecha de
corte, lo que significa que no puede proporcionar información actualizada más allá de
su última actualización. Además, puede reflejar sesgos presentes en los datos con los
que fue entrenado (Bender et al., 2021).
2. Dependencia del Contexto: A veces, Chat GPT puede generar respuestas que no son
completamente relevantes o contextuales, especialmente si la entrada proporcionada
no es clara (Marcus & Davis, 2020).
4. Potencial para Uso Indebido: La capacidad de Chat GPT para generar texto puede
ser explotada para crear contenido engañoso o fraudulento, lo que plantea
preocupaciones éticas y de seguridad (Zellers et al., 2019).
Tomando en cuenta estas limitaciones, se presenta a continuación un listado con los prompts
que se pueden utilizar para hacer más eficiente el uso de Chat GPT y que responda acorde a
los requerimientos establecidos.
Se desplegará una ventana, en la cuál ya se podrá empezar a hacer uso de esta Inteligencia
Artificial, accediendo a sus diferentes sugerencias o a la vez empezando un chat nuevo.
Chat GPT cuenta con una versión gratuita y una de pago, para acceder a la versión de pago se
debe suscribir, y así hacer uso de herramientas más sofisticadas.
Para la versión gratuita se puede empezar a utilizar sin necesidad de registrarse, sin embargo,
se recomienda hacerlo para así configurar el perfil de acuerdo con sus necesidades y que las
respuestas se acoplen a cada usuario. Además de poder guardar las diferentes conversaciones
con chat GPT y así revisarlas cada que sea necesario.
Para registrarse en la plataforma se puede utilizar un correo personal o si lo prefieren a través
de cuentas ya creadas, como Google, Microsoft o Apple.
Para hacer búsquedas en la plataforma o se puede filtrar los resultados entre las diferentes
sugerencias que ofrece el chat GPT.
Por otro lado, en la esquina superior derecha a lado de la pestaña “Crear” se encontrará la
imagen del perfil con la que se registró, dando clic en este apartado se podrá personalizar el
chat para respuestas personificadas al usuario.
Chat GPT es una herramienta versátil y poderosa que puede transformar el campo educativo
al ofrecer asistencia en redacción, tutoría personalizada, generación de material didáctico,
apoyo en investigación y fomento de la creatividad. Sin embargo, es crucial ser consciente de
sus limitaciones y utilizarlo de manera ética y responsable.
A lo largo de esta unidad se ha explorado la evolución y aplicación de la inteligencia artificial
(IA) en diversos aspectos del ámbito educativo. Desde los conceptos básicos y la comparativa
entre IA y herramientas con IA, pasando por la ciberseguridad, hasta la integración de Chat
GPT en el aprendizaje, observando cómo la IA puede transformar significativamente la
educación.
Sin embargo, es crucial reconocer y abordar los desafíos y limitaciones que acompañan a
estas tecnologías. La equidad en el acceso, la privacidad y seguridad de los datos, la
aceptación por parte de los usuarios y las consideraciones éticas son aspectos fundamentales
que deben ser cuidadosamente gestionados para garantizar que la IA beneficie a todos de
manera justa y equitativa.
“En el cruce de la tecnología y la educación, la inteligencia artificial nos ofrece las llaves
para desbloquear un futuro de aprendizaje personalizado y equitativo.”
Bibliografía
Baker, R. S., & Inventado, P. S. (2014). Educational data mining and learning analytics. In J.
A. Larusson & B. White (Eds.), Learning Analytics: From Research to Practice
(pp. 61-75). Springer.
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
Hoy, M. B. (2018). Alexa, Siri, Cortana, and More: An Introduction to Voice Assistants.
Medical Reference Services Quarterly, 37(1), 81-88.
Jurafsky, D., & Martin, J. H. (2009). Speech and Language Processing (2nd ed.). Prentice
Hall.
Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
Ricci, F., Rokach, L., & Shapira, B. (2015). Recommender Systems Handbook (2nd ed.).
Springer.
Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach (3rd ed.).
Prentice Hall.
Szeliski, R. (2010). Computer Vision: Algorithms and Applications. Springer.
IBM (5 de mayo de 2022). What is cybersecurity? Recuperado de [Link]
com/topics/cybersecurity
Kaspersky Lab. (2022a). ¿Qué es la ciberseguridad? AO Kaspersky Lab. Recuperado de
[Link]
Candau, J. (2021). Ciberseguridad. Evolución y tendencias. IEEE. Recuperado de
[Link]
JAVCAND_Ciberseguridad.pdf
Gamon, V. P. (2017). Internet, la nueva era del delito: ciberdelito, ciberterrorismo, legislación
y ciberseguridad/ Internet, the new age of crime: cibercrime, ciberterrorism,
legislation and cybersecurity. Urvio, 20, 80.
[Link]
Arora, A., Telang, R., & Xu, H. (2004). Optimal policy for software vulnerability disclosure.
Proceedings of the 3rd Workshop on the Economics of Information Security
(WEIS).
Bergholz, A., De Beer, J., Glahn, S., Moens, M. F., Paaß, G., & Strobel, S. (2010). New
filtering approaches for phishing email. Journal of Computer Security, 18(1), 7-35.
Bonneau, J., Herley, C., Van Oorschot, P. C., & Stajano, F. (2012). The quest to replace
passwords: A framework for comparative evaluation of web authentication
schemes. 2012 IEEE Symposium on Security and Privacy, 553-567.
Chandola, V., Banerjee, A., & Kumar, V. (2009). Anomaly detection: A survey. ACM
Computing Surveys (CSUR), 41(3), 1-58.
Cohen, F. (1997). The application of artificial intelligence to security. IFIP International
Conference on Digital Forensics, 151-173.
Conti, M., Dragoni, N., & Gottardo, S. (2013). MitM attack by an implementation of the
“man-in-the-middle” attack. 2013 IEEE 8th International Conference on P2P,
Parallel, Grid, Cloud and Internet Computing (3PGCIC), 193-198.
Ferguson, N., Schneier, B., & Kohno, T. (2010). Cryptography engineering: Design principles
and practical applications. John Wiley & Sons.
Florencio, D., & Herley, C. (2007). A large-scale study of web password habits. Proceedings
of the 16th International Conference on World Wide Web, 657-666.
Jagatic, T. N., Johnson, N. A., Jakobsson, M., & Menczer, F. (2007). Social phishing.
Communications of the ACM, 50(10), 94-100.
Mirkovic, J., & Reiher, P. (2004). A taxonomy of DDoS attack and DDoS defense
mechanisms. ACM SIGCOMM Computer Communication Review, 34(2), 39-53.
Moser, A., Kruegel, C., & Kirda, E. (2007). Exploring multiple execution paths for malware
analysis. 2007 IEEE Symposium on Security and Privacy (SP'07), 231-245.
Sculley, D., Wachman, G., Wolpert, D., & Brodley, C. E. (2011). Web spam identification
through content and hyperlinks. In Machine Learning and Knowledge Discovery in
Databases (pp. 517-532). Springer.
Sommer, R., & Paxson, V. (2010). Outside the closed world: On using machine learning for
network intrusion detection. 2010 IEEE Symposium on Security and Privacy,
305-316.
Whitman, M. E., & Mattord, H. J. (2018). Principles of information security (6th ed.).
Cengage Learning.
Anderson, J. R., Corbett, A. T., Koedinger, K. R., & Pelletier, R. (1995). Cognitive tutors:
Lessons learned. The Journal of the Learning Sciences, 4(2), 167-207.
Baker, R. S., & Inventado, P. S. (2014). Educational data mining and learning analytics. In J.
A. Larusson & B. White (Eds.), Learning Analytics: From Research to Practice
(pp. 61-75). Springer.
Brusilovsky, P., & Millán, E. (2007). User models for adaptive hypermedia and adaptive
educational systems. In P. Brusilovsky, A. Kobsa, & W. Nejdl (Eds.), The Adaptive
Web (pp. 3-53). Springer.
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning
algorithms. Big Data & Society, 3(1), 1-12.
Friedman, B., & Nissenbaum, H. (1996). Bias in computer systems. ACM Transactions on
Information Systems (TOIS), 14(3), 330-347.
Hwang, G. J., & Chang, S. C. (2021). A review of opportunities and challenges of chatbot
applications in education. Interactive Learning Environments, 29(1), 1-14.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of
algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.
Papert, S. (1980). Mindstorms: Children, Computers, and Powerful Ideas. Basic Books.
Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Learning,
Media and Technology, 44(2), 1-22.
Slade, S., & Prinsloo, P. (2013). Learning analytics: Ethical issues and dilemmas. American
Behavioral Scientist, 57(10), 1510-1529.
Sleeman, D., & Brown, J. S. (1982). Intelligent Tutoring Systems. Academic Press.
Warschauer, M., & Matuchniak, T. (2010). New technology and digital worlds: Analyzing
evidence of equity in access, use, and outcomes. Review of Research in Education,
34(1), 179-225.
Winkler, R., & Söllner, M. (2018). Unleashing the potential of chatbots in education: A
state-of-the-art analysis. Proceedings of the 2018 International Conference on
Information Systems.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of
Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency, 610-623.
Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D.
(2020). Language Models are Few-Shot Learners. arXiv preprint
arXiv:2005.14165.
Dale, R. (2021). GPT-3: What’s it good for? Nature Machine Intelligence, 3(5), 391-397.
Feng, S., Cui, Y., Wang, D., Zhu, W., & Wang, Y. (2021). The Role of Artificial Intelligence
in Achieving the Sustainable Development Goals. Nature Communications, 12(1),
1-10.
Holstein, K., McLaren, B. M., & Aleven, V. (2019). Designing for complementarity: Teacher
and student needs for orchestration support in AI-enhanced classrooms.
Proceedings of the 2019 CHI Conference on Human Factors in Computing
Systems, 1-14.
Kasneci, E., Seidel, T., Kasneci, G., & Grafe, S. (2023). ChatGPT for Good? On
Opportunities and Challenges of Large Language Models for Education.
International Journal of Artificial Intelligence in Education.
Marcus, G., & Davis, E. (2020). GPT-3, Bloviator: OpenAI’s language generator has no idea
what it’s talking about. MIT Technology Review.
Mitchell, M., & Krakauer, D. (2023). The Limits of Artificial Intelligence in Understanding
the Human Mind. Journal of Artificial Intelligence Research.
Zellers, R., Holtzman, A., Bisk, Y., Farhadi, A., & Choi, Y. (2019). Defending Against Neural
Fake News. Advances in Neural Information Processing Systems, 32, 9054-9065.
Zhai, X. (2021). How Chatbots Improve Student Engagement: A Case Study of a Higher
Education Institution. Journal of Educational Technology Development and
Exchange, 14(1), 41-59.
MÓDULO 1- LA IA: CONOCIMIENTOS PREVIOS
Primera Semana:
● Sílabo
3. BIBLIOGRAFÍA
Baker, R. S., & Inventado, P. S. (2014). Educational data mining and learning analytics. In J. A. Larusson & B. White (Eds.), Learning
1
Analytics: From Research to Practice (pp. 61-75). Springer.
2 Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
Hoy, M. B. (2018). Alexa, Siri, Cortana, and More: An Introduction to Voice Assistants. Medical Reference Services Quarterly, 37(1),
3
81-88.
4 Jurafsky, D., & Martin, J. H. (2009). Speech and Language Processing (2nd ed.). Prentice Hall.
5 Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
6 Ricci, F., Rokach, L., & Shapira, B. (2015). Recommender Systems Handbook (2nd ed.). Springer.
7 Russell, S., & Norvig, P. (2010). Artificial Intelligence: A Modern Approach (3rd ed.). Prentice Hall.
8 Szeliski, R. (2010). Computer Vision: Algorithms and Applications. Springer.
9 IBM (5 de mayo de 2022). What is cybersecurity? Recuperado de [Link] com/topics/cybersecurity
Kaspersky Lab. (2022a). ¿Qué es la ciberseguridad? AO Kaspersky Lab. Recuperado de
10
[Link]
Candau, J. (2021). Ciberseguridad. Evolución y tendencias. IEEE. Recuperado de
11
[Link] JAVCAND_Ciberseguridad.pdf
Gamon, V. P. (2017). Internet, la nueva era del delito: ciberdelito, ciberterrorismo, legislación y ciberseguridad/ Internet, the new age of
12
crime: cibercrime, ciberterrorism, legislation and cibersecurity. Urvio, 20, 80. [Link]
Arora, A., Telang, R., & Xu, H. (2004). Optimal policy for software vulnerability disclosure. Proceedings of the 3rd Workshop on the
13
Economics of Information Security (WEIS).
Bergholz, A., De Beer, J., Glahn, S., Moens, M. F., Paaß, G., & Strobel, S. (2010). New filtering approaches for phishing email. Journal of
14
Computer Security, 18(1), 7-35.
Bonneau, J., Herley, C., Van Oorschot, P. C., & Stajano, F. (2012). The quest to replace passwords: A framework for comparative
15
evaluation of web authentication schemes. 2012 IEEE Symposium on Security and Privacy, 553-567.
16 Chandola, V., Banerjee, A., & Kumar, V. (2009). Anomaly detection: A survey. ACM Computing Surveys (CSUR), 41(3), 1-58.
17 Cohen, F. (1997). The application of artificial intelligence to security. IFIP International Conference on Digital Forensics, 151-173.
Conti, M., Dragoni, N., & Gottardo, S. (2013). MitM attack by an implementation of the “man-in-the-middle” attack. 2013 IEEE 8th
18
International Conference on P2P, Parallel, Grid, Cloud and Internet Computing (3PGCIC), 193-198.
Ferguson, N., Schneier, B., & Kohno, T. (2010). Cryptography engineering: Design principles and practical applications. John Wiley &
19
Sons.
Florencio, D., & Herley, C. (2007). A large-scale study of web password habits. Proceedings of the 16th International Conference on
20
World Wide Web, 657-666.
21 Jagatic, T. N., Johnson, N. A., Jakobsson, M., & Menczer, F. (2007). Social phishing. Communications of the ACM, 50(10), 94-100.
Mirkovic, J., & Reiher, P. (2004). A taxonomy of DDoS attack and DDoS defense mechanisms. ACM SIGCOMM Computer
22
Communication Review, 34(2), 39-53.
Moser, A., Kruegel, C., & Kirda, E. (2007). Exploring multiple execution paths for malware analysis. 2007 IEEE Symposium on Security
23
and Privacy (SP'07), 231-245.
Sculley, D., Wachman, G., Wolpert, D., & Brodley, C. E. (2011). Web spam identification through content and hyperlinks. In Machine
24
Learning and Knowledge Discovery in Databases (pp. 517-532). Springer.
Sommer, R., & Paxson, V. (2010). Outside the closed world: On using machine learning for network intrusion detection. 2010 IEEE
25
Symposium on Security and Privacy, 305-316.
26 Whitman, M. E., & Mattord, H. J. (2018). Principles of information security (6th ed.). Cengage Learning.
Anderson, J. R., Corbett, A. T., Koedinger, K. R., & Pelletier, R. (1995). Cognitive tutors: Lessons learned. The Journal of the Learning
27
Sciences, 4(2), 167-207.
Baker, R. S., & Inventado, P. S. (2014). Educational data mining and learning analytics. In J. A. Larusson & B. White (Eds.), Learning
28
Analytics: From Research to Practice (pp. 61-75). Springer.
Brusilovsky, P., & Millán, E. (2007). User models for adaptive hypermedia and adaptive educational systems. In P. Brusilovsky, A. Kobsa,
29
& W. Nejdl (Eds.), The Adaptive Web (pp. 3-53). Springer.
30 Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1), 1-12.
31 Friedman, B., & Nissenbaum, H. (1996). Bias in computer systems. ACM Transactions on Information Systems (TOIS), 14(3), 330-347.
Hwang, G. J., & Chang, S. C. (2021). A review of opportunities and challenges of chatbot applications in education. Interactive Learning
32
Environments, 29(1), 1-14.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data &
33
Society, 3(2), 1-21.
34 Papert, S. (1980). Mindstorms: Children, Computers, and Powerful Ideas. Basic Books.
35 Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Learning, Media and Technology, 44(2), 1-22.
36
Slade, S., & Prinsloo, P. (2013). Learning analytics: Ethical issues and dilemmas. American Behavioral Scientist, 57(10), 1510-1529.
37
Sleeman, D., & Brown, J. S. (1982). Intelligent Tutoring Systems. Academic Press.
Warschauer, M., & Matuchniak, T. (2010). New technology and digital worlds: Analyzing evidence of equity in access, use, and
38
outcomes. Review of Research in Education, 34(1), 179-225.
Winkler, R., & Söllner, M. (2018). Unleashing the potential of chatbots in education: A state-of-the-art analysis. Proceedings of the 2018
39
International Conference on Information Systems.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be
40
Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
41 Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language Models are Few-Shot
Learners. arXiv preprint arXiv:2005.14165.
41 Dale, R. (2021). GPT-3: What’s it good for? Nature Machine Intelligence, 3(5), 391-397.
Feng, S., Cui, Y., Wang, D., Zhu, W., & Wang, Y. (2021). The Role of Artificial Intelligence in Achieving the Sustainable Development
42
Goals. Nature Communications, 12(1), 1-10.
Holstein, K., McLaren, B. M., & Aleven, V. (2019). Designing for complementarity: Teacher and student needs for orchestration support
43
in AI-enhanced classrooms. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 1-14.
Kasneci, E., Seidel, T., Kasneci, G., & Grafe, S. (2023). ChatGPT for Good? On Opportunities and Challenges of Large Language Models
44
for Education. International Journal of Artificial Intelligence in Education.
Marcus, G., & Davis, E. (2020). GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology
45
Review.
Mitchell, M., & Krakauer, D. (2023). The Limits of Artificial Intelligence in Understanding the Human Mind. Journal of Artificial
46
Intelligence Research.
Zellers, R., Holtzman, A., Bisk, Y., Farhadi, A., & Choi, Y. (2019). Defending Against Neural Fake News. Advances in Neural
47
Information Processing Systems, 32, 9054-9065.
MÓDULO 1 - UNIDAD 1
LA IA: CONOCIMIENTOS
PREVIOS
Temario
• Diferencia entre IA y
herramientas con IA
• Ciberseguridad
• La IA aplicada en la educación
• Chat GPT
Diferencia entre IA y
herramientas con IA
Inteligencia Artificial
• Implica la creación y desarrollo de sistemas
autónomos capaces de realizar tareas complejas
de manera independiente. Los sistemas de IA
están diseñados para aprender de los datos,
reconocer patrones y tomar decisiones basadas
en su análisis
.
Introducción en Inteligencia
Artificial
Características clave de
Inteligencia Artificial
Aprendizaje Automático Subcampo de la IA que permite a los sistemas
aprender y mejorar a partir de la experiencia sin ser
(Machine Learning) explícitamente programados.
• Programas que utilizan procesamiento del lenguaje natural para interactuar con los usuarios y
realizar tareas como enviar mensajes, programar eventos y buscar información.
Sistemas de Recomendación
• Herramientas que analizan los datos del usuario para ofrecer recomendaciones personalizadas
en plataformas como Netflix, Amazon y Spotify.
Software educativo
• Aplicaciones que adaptan el contenido y las actividades según el rendimiento y las necesidades
individuales de los estudiantes, facilitando un aprendizaje más personalizado.
Diseño de
Ciberseguridad
Actividades de
Aprendizaje
Ciberterrorismo: A través de medios tecnológicos buscan intimidar,
atemorizar y causar daño a sus víctimas.
Tipos de Ataques
Cibernéticos Ciberespionaje: Tiene como finalidad obtener información comercial
sensible o datos personales.
Actualización Regular de
Autenticación Multifactor
Software
(MFA)
Mantener el software y los
Añade una capa adicional de
sistemas operativos
seguridad al requerir múltiples
actualizados con los últimos
formas de verificación antes de
parches de seguridad reduce la
conceder acceso.
vulnerabilidad a ataques.
la Educación
Evaluación y
Análisis Predictivo
Retroalimentación
Inmediata Los sistemas basados en
IA pueden predecir el
La IA puede proporcionar
rendimiento futuro de los
retroalimentación
estudiantes y detectar
instantánea sobre el trabajo
aquellos que podrían estar
y las evaluaciones de los
en riesgo académico,
estudiantes, permitiendo
permitiendo la
un aprendizaje más rápido
intervención temprana.
y una mejora continua.
Desafíos que enfrenta la IA en el
campo educativo
Dependencia del Contexto: Puede generar respuestas que no son completamente relevantes o
contextuales, especialmente si la entrada proporcionada no es clara.
Carencia de Entendimiento Profundo: Aunque puede generar texto coherente, no posee un entendimiento
profundo de los temas, lo que puede resultar en respuestas superficiales o incorrectas.
Potencial para Uso Indebido: La capacidad de Chat GPT para generar texto puede ser explotada para crear
contenido engañoso o fraudulento, lo que plantea preocupaciones éticas y de seguridad.
Propósito Prompt Ejemplo
"Escribe un ensayo sobre la importancia de la biodiversidad en los
Redacción de Ensayos ecosistemas."
Prompts
"Genera cinco preguntas de opción múltiple sobre la Revolución Francesa."
Generación de Preguntas
para Chat
Ayuda en Investigación la biotecnología."
Corrección de Gramática
"Revisa y corrige los errores gramaticales en el siguiente párrafo."
GPT
Explicación de Conceptos "Define y explica el concepto de inteligencia emocional."