0% encontró este documento útil (0 votos)
272 vistas11 páginas

Ensayo Inteligencia Artificial

El documento presenta una introducción al tema de la inteligencia artificial, describiendo el miedo que genera debido a la falta de control sobre sistemas autónomos e inteligentes. Luego, explica que la IA ha estado presente durante mucho tiempo a través de dispositivos como microondas y máquinas de coser, aunque no se le llamaba así. Finalmente, destaca algunas aplicaciones positivas de la IA en medicina como detección temprana de enfermedades y desarrollo de fármacos, aunque también señala riesgos como errores médicos

Cargado por

Nelson
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
272 vistas11 páginas

Ensayo Inteligencia Artificial

El documento presenta una introducción al tema de la inteligencia artificial, describiendo el miedo que genera debido a la falta de control sobre sistemas autónomos e inteligentes. Luego, explica que la IA ha estado presente durante mucho tiempo a través de dispositivos como microondas y máquinas de coser, aunque no se le llamaba así. Finalmente, destaca algunas aplicaciones positivas de la IA en medicina como detección temprana de enfermedades y desarrollo de fármacos, aunque también señala riesgos como errores médicos

Cargado por

Nelson
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Caracas, 6 de octubre de 2023

U.E. Colegio Las Cumbres II


Nelson Villarroel
5to Año “A”
Miedo, perspectivas y futuro de la Inteligencia Artificial.

Prof. Giovanni Grosso

1
Índice

Portada Pág. 1

Índice Pág. 2

Introducción Pág. 3

Contenido Págs. 4-8

Conclusión Pág. 9

Anexos Pág. 10

Referencias bibliográficas Pág. 11

2
Introducción
Inteligencia artificial, esas dos palabras que tanto atacan al complejo de superioridad
y omnipotencia de los seres humanos. Una revolución tecnológica que se instaura desde
tiempos inmemoriales, o quizás no tanto. Desde que la tecnología de uso diario no fuese tan
avanzada el ser humano ha hecho parte de su vida cotidiana sistemas tecnológicos
complejos en los cuales no es necesario utilizar un ápice de inteligencia o lógica.
En realidad, el ser humano ha dejado que las máquinas hagan cosas por él desde la
revolución industrial, pero, ¿Por qué se teme a las Inteligencias artificiales actualmente,
siendo que siempre se ha trabajado con máquinas? Es una pregunta, si se quiere, sencilla de
responder. Y la respuesta es: Falta de control.
Las inteligencias artificiales han demostrado ser autónomas en cuanto a corrección y
aprendizaje se refiere, a veces, incluso, mejor que el ser humano promedio. Aún así,
independientemente de que existen leyes de la robótica, no existe un mecanismo de control
ni una secuencia de aprehensión real de maquinaria o robots. Al ser entes totalmente
autónomos, inteligentes y con una capacidad admirable de resolución de problemas,
detectar vulnerabilidades en un sistema completamente creado por humanos resulta hasta
insultante hacia el intelecto de estos individuos (Si el lector quiere llamarlo de esa forma).
Estas máquinas, descritas de tal manera pueden resultar dignas de llamarse amenaza. Pero,
¿Realmente es una amenaza una entidad la cual está hecha única y exclusivamente para
asistir al ser humano? Si bien tienen la capacidad de realizar todo lo dicho anteriormente,
las aplicaciones más recientes de las Inteligencias artificiales han resultado ser de gran
ayuda. Para algunas personas, incluso, es una idea maravillosa y una revolución
tecnológica.

Contenido

3
Al contrario del saber popular, las inteligencias artificiales han sido parte de la vida
del ser humano, pero no en la forma de un chatbot que realiza una asignación escolar o
ayuda a un programador a construir código, sino camuflada como un microondas, una
cafetera automática, una cocina eléctrica, o incluso en una máquina de coser. Para entender
la naturaleza de esta afirmación, se debe aplicar la definición literal. La Comisión Europea
la define como sistemas de hardware y software diseñados por humanos que, ante un
objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno a través
de la adquisición e interpretación de datos estructurados o no estructurados o razonando
sobre el conocimiento, procesando la información derivada de estos datos y decidiendo las
mejores acciones para lograr dado. En otros términos, la inteligencia artificial es un campo
de la informática que se enfoca en crear sistemas que puedan realizar tareas que
normalmente requieren inteligencia humana.
El término "inteligencia artificial" (artificial intelillence) fue acuñado por John
McCarthy en 1956 durante la Conferencia de Dartmouth, un evento histórico que reunió a
algunos de los mejores científicos de la época para discutir la posibilidad de crear una
máquina que pudiera pensar como un ser humano. Sin embargo, los conceptos e ideas que
estaban detrás de la inteligencia artificial se remontan a mucho antes. Ya en la década de
1940, los matemáticos Norbert Wiener y John von Neumann, estaban trabajando en la
teoría de los sistemas y la computación que sentaron las bases para la I.A. que
posteriormente McCarthy definiría como "la ciencia y la ingeniería de hacer máquinas
inteligentes, especialmente programas de computadora inteligentes". Otra influencia y
fuente de inspiración para esta tecnología se encuentra en la ciencia ficción. Los robots y
las máquinas inteligentes aparecieron por primera vez en la literatura y el cine en la década
de 1920, y estos conceptos se han convertido en elementos básicos de la cultura popular.
Algunas tecnologías con inteligencia existen desde hace más de 50 años, pero los avances
en la potencia informática, la disponibilidad de enormes cantidades de datos y los nuevos
algoritmos han permitido que se den grandes avances en este campo en los últimos años. En
la actualidad, la inteligencia artificial se ha convertido en una de las tecnologías más
disruptivas y que más atención despierta. El ritmo al que se suceden los modelos, cada vez
más potentes, se está acelerando y tanto las posibilidades como los potenciales peligros de
su uso están generando debate tanto entre la comunidad científica como en las instancias
políticas.
En la actualidad se han realizados muchos avances. Por ejemplo, en la medicina, En
la actualidad, la IA se utiliza fructíferamente no sólo por los médicos, sino también por
personas que han adoptado personalmente el modelo de medicina de las 4P (Predictiva,
Preventiva, Personalizada y Participativa) por la autonomía e independencia que les
proporciona el uso de teléfonos móviles y dispositivos portátiles para el seguimiento de su
salud. De hecho, una de las primeras aplicaciones fue la monitorización del
electrocardiograma (ECG) para la detección precoz de la fibrilación auricular con el
dispositivo AliveCor junto con la aplicación móvil Kardia La IA también promete un
tratamiento personalizado con medicamentos de precisión porque los modelos de IA no

4
solo aprenden, sino que también recuerdan las preferencias personales y están disponibles
las 24 horas del día.

La recopilación y el cotejo de grandes cantidades de datos permiten un aprendizaje


profundo y la detección precoz de problemas de salud. Esto es especialmente cierto en el
campo de la medicina aumentada, que utiliza algoritmos basados en IA para la cirugía
asistida por ordenador, la realidad virtual para el tratamiento de trastornos psiquiátricos y la
reducción del dolor, los asistentes infatigables en radiología y dermatología, especialmente
en la detección precoz y el triaje de posibles pacientes con cáncer, la utilización de
dispositivos médicos conectados, como bombas de insulina inteligentes, asistentes de
enfermería virtuales que estén disponibles las 24 horas del día, los 7 días de la semana, y
puedan ofrecer respuestas instantáneas a preguntas sencillas de los pacientes, la mejora de
la seguridad de los pacientes, incluido el reconocimiento de errores de prescripción, la
aceleración del desarrollo de fármacos (diseño de fármacos y combinaciones de fármacos),
y los flujos de trabajo administrativos médicos.

Aunque existe cierto temor a que la IA sustituya a los médicos, en la coyuntura actual
parece más probable que la IA complemente y no sustituya a los médicos, al menos en un
futuro próximo. De hecho, las facultades de medicina con visión de futuro están
actualizando sus planes de estudios para incluir la medicina aumentada y mejorar los
conocimientos sobre salud digital. La IA también es muy útil en el campo de la
investigación, no sólo por las razones antes mencionadas, sino también porque facilita el
diseño y la realización de ensayos clínicos. Hay que señalar que la utilización juiciosa de la
IA para facilitar la investigación no es intrínsecamente maliciosa, sino que puede
considerarse una herramienta para acelerar los flujos de trabajo. Por ejemplo, la IA puede
realizar análisis estadísticos rápidos de los datos recopilados y revisar la gramática del texto
o ayudar a formular resúmenes. Las prácticas inaceptables son aquellas en las que la IA
fabrica resultados.
Ahora claro, como en todo invento creado por el ser humano siempre habrá una desventaja
o un lado malo. Hay que tener en cuenta que los algoritmos, al igual que los médicos, no
pueden garantizar una precisión del 100%, lo que puede dar lugar a errores clínicos y
culpabilidad, riesgos éticos, pérdida de datos y violación de la privacidad de los mismos,
posibilidad de sesgos y desigualdades sanitarias, etc. La fabricación de trabajos de
investigación consiste en un fraude académico/intelectual y está cargada de consecuencias
para el fabricante, el fabricado y la comunidad científica, ya que la ciencia y los gobiernos
dependen completamente de la veracidad y fiabilidad de las publicaciones científicas para
tomar decisiones informadas sobre prácticamente todo. No sólo se echa por tierra la
reputación del inventor, sino que ese comportamiento socava la ciencia y a los
investigadores honrados.

5
Muy recientemente, el artista alemán Boris Eldagsen ganó un premio de fotografía, pero lo
rechazó con la explicación de que su imagen presentada había sido generada por IA y
estaba diseñada para engañar a los jueces y provocar el debate. Sin embargo, se trata de un
delito menor si se compara con la forma en que se ha utilizado la IA para generar imágenes
fraudulentas en publicaciones de investigación. Un tipo concreto de IA, las redes
generativas adversariales (GAN), utiliza dos redes que trabajan simultáneamente, una
centrada en la generación de imágenes y la otra en la discriminación, lo que da como
resultado imágenes prácticamente indistinguibles de la realidad, una amenaza no trivial
para la integridad de la investigación médica.

Una herramienta de IA de acceso público, ChatGPT versión 3.5, fue lanzada en noviembre
de 2022 y fue desarrollada utilizando el Aprendizaje por Refuerzo a partir de la
Retroalimentación Humana [basado en un modelo conversacional de lenguaje amplio
(LLM)] para generar texto a partir de preguntas sencillas a través del desarrollador OpenAI,
aunque con un descargo de responsabilidad en el sitio web que advierte que "ChatGPT a
veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido". "En los
últimos meses, ChatGPT se ha convertido en una causa célebre y, al ser gratuito, ha
conseguido un millón de nuevos usuarios en una semana. El texto generado es de gran
calidad y sortea fácilmente los controles de plagio convencionales. La versión 4.0 de
ChatGPT está a la espera.

Una reciente revisión sistemática ha concluido que ChatGPT mejora la escritura, es útil en
la investigación sanitaria y beneficia la práctica y la educación sanitarias. Sin embargo, más
del 95% de los encuestados expresaron su preocupación por las cuestiones éticas, de
derechos de autor, de transparencia y legales, el riesgo de sesgo y plagio, la falta de
originalidad, los contenidos inexactos, los conocimientos limitados, las referencias
incorrectas/fabricadas y los problemas de seguridad. Los autores concluyeron que "la
adopción de este chatbot de IA debe realizarse con extrema precaución teniendo en cuenta
sus posibles limitaciones"[37].

Esto se debe a que algunos científicos están dispuestos a fabricar y/o falsificar
investigaciones, como se demostró en una reciente revisión sistemática y metaanálisis.
Incluso cuando se excluyeron las cuestiones de plagio y otras formas de mala conducta
profesional, casi el 2% de los científicos admitió la fabricación, falsificación o
modificación de datos al menos una vez y más de un tercio admitió otras prácticas de
investigación cuestionables, y dada la naturaleza humana y su inclinación por la falsedad,
se trata probablemente de estimaciones conservadoras.

6
La posibilidad de que las publicaciones generadas por IA se infiltren en la investigación es
real. Antes eran las fábricas de papel humanas las que generaban material fraudulento, pero
la IA es más fácil de usar y más barata y rápida.

Muy recientemente, revisores humanos ciegos sólo detectaron resúmenes generados por
ChatGPT el 68% de las veces e identificaron incorrectamente el 14% de los resúmenes
auténticos como generados por IA. La IA también se ha utilizado para generar informes de
casos en dermatología que son indistinguibles de los creados por autores humanos.

En algunos trabajos se ha llegado incluso a incluir audazmente a ChatGPT como coautor.


Sin embargo, a menos que se revisen o modifiquen las directrices del ICMJE/COPE
(Comité Internacional de Editores de Revistas Médicas/Comité de Ética en las
Publicaciones), esto no es aceptable.

Se suele pedir a los autores que firmen y certifiquen que el trabajo presentado es original.
Las revistas han dejado claro que el texto generado por IA es inaceptable, ya que no sólo es
generado por un autor humano, sino que además es un plagio de la IA. Por ejemplo, las
revistas de la editorial Science (y muchas otras editoriales) están actualizando la licencia y
las políticas editoriales para especificar que el texto, las figuras, las imágenes o los gráficos
generados por IA son inaceptables; un programa de IA no puede ser autor; y cualquier
infracción se consideraría equivalente a una mala conducta científica. Por este motivo, la
revista Saudi Journal of Anesthesia ha añadido esta declaración en la sección de
instrucciones a los autores: "ahora estamos actualizando nuestra licencia y Políticas
Editoriales para especificar que el texto generado por ChatGPT (o cualquier otra
herramienta de IA) no puede ser utilizado en el trabajo, ni las figuras, imágenes o gráficos
pueden ser producto de dichas herramientas. Y un programa de IA no puede ser un autor.
La violación de estas políticas constituirá una falta de ética científica no diferente de la
alteración de imágenes o el plagio de trabajos existentes".

En la literatura médica ya existe potencialmente una gran cantidad de texto generado por
IA, y habrá más en el futuro a menos que seamos muy cuidadosos. De hecho, "en un
momento en que la confianza en la ciencia se está erosionando, es importante que los
científicos vuelvan a comprometerse a prestar una atención cuidadosa y meticulosa a los
detalles".

Desde un punto de vista más positivo, aunque la detección y prevención de trabajos


inventados por parte de los editores de revistas es una tarea onerosa y requiere herramientas
diferentes a las utilizadas para la detección del plagio, al menos por ahora es posible.

7
Desde un punto de vista personal y muy subjetivo por parte del autor en base a previas
investigaciones, no debería de considerarse a las inteligencias artificiales como “malas” o
“perjudiciales”. El uso de estas puede ser un arma de doble filo, pero realmente, como con
toda innovación tecnológica, nunca se está en total consciencia de las consecuencias de
cada una de las acciones del ser humano y nunca va a existir un margen de error certero.
Independientemente de lo anteriormente mencionado, el humano va a seguir teniendo cierta
superioridad debido a que los algoritmos de machine learning y el manejo de las
inteligencias artificiales todavía están en manos de humanos.

8
Conclusión
En caso de atender al lado filosófico de este miedo hacia las inteligencias
artificiales, el autor considera que va más vinculado hacia la incertidumbre y un miedo por
lo desconocido por parte del ser humano acompañado de falta de certeza. Pues siempre
habrá una posibilidad de que algo salga mal. Lamentable o Afortunadamente (La
perspectiva depende del lector), nunca se sabe qué pasará en el futuro, quizá, mientras el
lector esté experimentando de esta lectura, haya una nueva tecnología creándose, o quizá
pronto la sociedad como se conoce actualmente acabe y el ser humano vuelva a sus
orígenes primitivos o quizás se constituya una suerte de anarquía gobernada por las
máquinas. Lo cierto es el aquí y el ahora, lo cierto son los datos, estadísticas y hechos que
existen hasta el momento. Queda a decisión del lector las opiniones formadas a partir de la
información recolectada.

9
ANEXOS
Machine Learning: El machine learning es la ciencia de desarrollo de algoritmos y modelos
estadísticos que utilizan los sistemas de computación con el fin de llevar a cabo tareas sin
instrucciones explícitas, en vez de basarse en patrones e inferencias. Los sistemas de
computación utilizan algoritmos de machine learning para procesar grandes cantidades de
datos históricos e identificar patrones de datos. Esto les permite generar resultados con
mayor precisión a partir de un conjunto de datos de entrada.
Software: Conjunto de instrucciones o programas que le dicen a una computadora qué
hacer. Es independiente del hardware y hace que las computadoras sean programables. Hay
tres tipos básicos:

Software del sistema para proporcionar funciones básicas como sistemas operativos,
administración de discos, servicios, administración de hardware y otras necesidades
operacionales.

Software de programación para brindar a los programadores herramientas como editores de


texto, compiladores, enlazadores, depuradores y otras herramientas para crear código.

Software de aplicación (aplicaciones o apps) para ayudar a los usuarios a realizar tareas.
Las suites de productividad de Office, el software de gestión de datos, los reproductores
multimedia y los programas de seguridad son algunos ejemplos.
Triaje: El término triage o triaje es un neologismo que proviene de la palabra francesa trier
que se define como escoger, separar o clasificar. Desde que este término comenzó a
utilizarse en las batallas napoleónicas persiste como concepto de clasificación o
priorización de la atención urgente de pacientes.

10
Referencias bibliográficas
Jiang, Y., Li, X., Luo, H., Yin, S., & Kaynak, O. (2022). Quo vadis artificial intelligence? Discover

Artificial Intelligence, 2(1). [Link]

Nichols, J. A., Chan, H. W. H., & Baker, M. A. B. (2018). Machine Learning: Applications of

artificial intelligence to imaging and diagnosis. Biophysical Reviews, 11(1), 111-118.

[Link]

Grech, V., Cuschieri, S., & Eldawlatly, A. (2023). Artificial intelligence in medicine and research

– the good, the bad, and the ugly. Saudi Journal of Anaesthesia, 17(3), 401.

[Link]

Veale, M., & Borgesius, F. J. Z. (2021). Demystifying the draft EU Artificial Intelligence Act —

analysing the good, the bad, and the unclear elements of the proposed approach. Computer

law review international, 22(4), 97-112. [Link]

Gallix, B., & Chong, J. (2019). Artificial intelligence in radiology: Who’s afraid of the big bad

wolf? European Radiology, 29(4), 1637-1639. [Link]

Müller, V. C., & Bostrom, N. (2016). Future progress in Artificial Intelligence: A survey of expert

opinion. En Synthese Library (pp. 555-572). [Link]

11

También podría gustarte