𝟘.𝟚 𝕃𝕒 𝕥𝕖𝕠𝕣í𝕒 𝕕𝕖 𝕝𝕒 𝕤𝕖𝕞𝕚𝕠𝕤𝕚𝕤.
Marcela Lonchuk.
𝕃𝕒𝕤 𝕔𝕒𝕥𝕖𝕘𝕠𝕣𝕚𝕒𝕤 𝕕𝕖 𝕡𝕣𝕚𝕞𝕖𝕣𝕚𝕕𝕒𝕕,
𝕤𝕖𝕘𝕦𝕟𝕕𝕚𝕕𝕒𝕕 𝕪 𝕥𝕖𝕣𝕔𝕖𝕣𝕚𝕕𝕒𝕕.
Peirce se propuso concebir una teoría del conocimiento capaz de explicar la
acción recursiva, incesante, inscripta en la intersubjetividad y en la
cultura, por medio de la cual los seres humanos conocemos, interpretamos y
creamos la realidad.
El conocimiento inicia en la experiencia y en ella encontramos 3
categorías:
- Primeriedad: Es la percepción instantánea de la cualidad a través de
los sentidos. Cualidad sentida que solo es una cualidad posible de algo
posible. Ejemplos: un olor, un ruido, un sabor, un reflejo.
- Segundidad: Es la categoría de lo real particular. Nace de la
primeriedad, algo que era posible, se hizo realidad, ocurre en un
tiempo y espacio, aquí y ahora. Ejemplos: reflejo de las luces de un
auto, olor del humo, ruido del despertador.
- Terceriedad: Es la categoría del pensamiento mediador. Relaciona
primeriedad con segundidad. Todo signo es una terceriedad. Es lo que
normalmente pensamos. Ejemplos: el ruido del despertador quiere
decir que son las 7am y tengo que levantarme, el olor del humo
significa que algo se está quemando.
𝕊𝕖𝕞𝕚𝕠𝕤𝕚𝕤.
Es la acción orientada e intencional que permite conocer, interpretar,
actuar y crear. En este proceso interviene el representamen, el objeto y el
interpretante.
- Representamen: Es un signo que está en lugar de algo, el objeto. Lo
representa solo desde determinados puntos de vista. Es una cualidad
material. “Aquello que representa”.
- Objeto: Es una construcción semiótica, mental. Se divide en 2 partes:
Objeto inmediato Objeto dinámico
Es el que forma parte del proceso Está confirmado por un conjunto
de semiosis individual. Es el objeto de objetos inmediatos construidos
tal y como es representado por el por un conjunto de semiosis. Puede
signo en el proceso. ser entendido como el conjunto de
conocimientos, saber, ideas,
experiencias, etc de una cultura.
1. Solo puede conocerse
parcialmente en cada
semiosis.
2. Puede presentar múltiples
configuraciones culturales.
3. Puede construirse a lo largo
de la historia.
- Interpretante: Es parte del signo. Efecto de sentido, los cuales
pueden ser: emoción, asociación emotiva, acción, sinónimo.Su función
es explicar al representamen y comprensión del mismo. Traducción a
otros sistemas de signos.
Interpretante Interpretante Interpretante final
inmediato dinámico
Posibilidad de tener un Es el efecto particular Es un efecto estable
efecto. Es en un aquí y ahora. dentro de una
independiente de su comunidad.
realización. Posibilidad Interpretaciones
de ser signo. recurrentes que
usamos para dar
sentido a algo. Corta
la semiosis ilimitada.
Ground: Construye el objeto inmediato. Es la perspectiva o punto de vista
seleccionado por la mente que efectúa la semiosis. “Marca la cancha” para
la semiosis.
Semiosis ilimitada: Todo interpretante es un signo que puede convertirse
en el representamen de un nuevo proceso de semiosis, por lo tanto, éste es
en sí mismo un proceso ilimitado.
Cualisigno: Es una cualidad que funciona como algo, de un posible objeto.
Cualquier sensación (visual, auditiva, táctil, olfativa o gustativa) puede ser
uno.
Sinsigno: Es la cualidad de algo. Se formula en un hecho concreto. Es una
ocurrencia formada a partir de determinados cualisignos.
Legisigno: Es un sistema de reglas, otorga sentido a la ocurrencia.
[TYPE] miedo
Aplicación del sistema
[TOKEN] idea
Siento miedo
Símbolo: Humano. Cualquier cosa puede ser un símbolo si se hace una
convención de que lo sea. Funciona como una ley o una regularidad de
interpretación hacia el futuro.
Ícono: Incita relaciones similares. Existen grados de iconicidad.
Reproduce convenciones perceptivas de acuerdo a los argumentos
abstractos. Determina al interpretante en virtud de alguna de sus
propiedades propias y no de la presencia del objeto.
Índice: Es un signo que necesita de la coexistencia y conexión real con su
objeto, ya que si este desaparece, desaparece el signo índice. Debe ser
advertido por una mente que le atribuya un interpretante. Dirige nuestra
atención a algo más. Ej: señalar (relación con la mano y lo que indico).
Rema: Es una semiosis capaz de generar múltiples y posibles
interpretantes, sin que exista posibilidad alguna de seleccionar un
interpretante en particular.
Decisigno: Es una semiosis que actualiza un interpretante en un contacto
según el ground seleccionado por la mente que interpreta.
Argumento: Es una semiosis que determina específicamente el
interpretante. Ese interpretante es el resultado de un proceso de
razonamiento dentro de un sistema y sujeto a la legalidad de ese sistema,
que funciona como contexto.
Objeto simbólico: Es un objeto construido por medio de argumentos, dentro
de la legalidad de un sistema cultural, histórico e intersubjetivo.
𝔸𝕟𝕒𝕝𝕚𝕤𝕚𝕤 𝕤𝕖𝕞𝕚𝕠𝕥𝕚𝕔𝕠 𝕕𝕖 𝕚𝕞𝕒𝕘𝕖𝕟𝕖𝕤.
- Imagen: Es un conjunto de signos colocados en un determinado
espacio con el objetivo de comunicar un mensaje.
- Los signos pueden ser: icónicos, fotográficos, tipográficos o
simbólicos. En cada imagen se puede usar uno o varios.
𝟘.𝟜 ¿ℚ𝕦𝕖 𝕖𝕤 𝕝𝕒 𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒
𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝?.
Javier Pastor.
Andrew Ng la llama “La electricidad del siglo XXI, aunque es difícil dar
una definición concisa y clara sobre qué es la IA.
𝕃𝕠𝕤 𝕔𝕠𝕞𝕚𝕖𝕟𝕫𝕠𝕤 𝕕𝕖 𝕝𝕒 𝕀𝔸.
En el año 1956, 5 hombres se reunieron en Dartmounth Collage, reunión
la cual finalizó con mucho optimismo ya que crearon la disciplina de la IA y
consideraban que dotar a las máquinas con ella sería fácil.
Entre 1956 y 1960, la IA vivió una era esplendorosa, donde jugaban a
las damas mejores que humanos, resolvían problemas algebráicos y
aprendían idiomas.
La inversión en proyectos de IA era enorme, los creadores creían que ese
reto pronto se superaría. Éstos se equivocaron, ya que a pesar de los
avances, los retos de la IA equiparables a la inteligencia natural de los
humanos eran difícilmente alcanzables.
𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒.
Robert Sternberg define a la inteligencia como la actividad mental que
sirve para adaptar o conformar entornos relevantes para nuestra vida
personal.
Existen 3 tipos de inteligencia:
1. I.Componencial: (Nuestra capacidad de análisis) Dirección
consciente de nuestros procesos mentales para analizar ideas,
resolver problemas y tomar decisiones.
2. I.Experimental: (Nuestra creatividad) Capacidad de afrontar
tareas novedosas, formular ideas y combinar experiencias.
3. I.Práctica o contextual: (Capacidad de adaptación al medio)
Adaptación, selección o modificación del ambiente individual. Es la
más importante ya que tu éxito o fracaso vital depende de ella.
ℕ𝕚𝕧𝕖𝕝𝕖𝕤" 𝕕𝕖 𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝.
3 categorías según su alcance y su ámbito de aplicación:
1) Inteligencia artificial débil: Son capaces de resolver problemas muy
bien definidos y acotados. Se dedican a resolver un problema
concreto y delimitado, acaban realizando tareas mucho mejor que un
humano. No son capaces de adaptarse a su entorno. Hacen solo
para lo que están programados.
Ej: Deep Blue, Asistentes de voz, AlphaGo.
2) Inteligencia artificial general: Permitiría resolver cualquier tarea
intelectual factible de ser resuelta por un humano. Sería multitarea y
podría hacer cientos de cosas bien. Es un gran acople de pequeñas
IA débiles pero también puede realizar juicios y razonar ante una
situación de incertidumbre, también se comunica, aprende y
planifica. Superaría el test de Turing.
3) Inteligencia artificial fuerte: Posee “estados mentales” y es
consciente de sí misma. Iría más allá de imitar y superar a los
humanos en la realización de cualquier tarea. Sería capaz de
(teóricamente) resolver cualquier problema y podría contar con una
experiencia subjetiva propia, o ser capaz de sentir emociones. Tendría
capacidad de cálculo y adaptación al entorno. Si la logramos crear,
llegaríamos a un punto de inflexión que puede ser muy perjudicial para
el ser humano.
𝟘.𝟝 𝟜 𝕥𝕚𝕡𝕠𝕤 𝕕𝕖 𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝.
Artículo de Redacción APD.
1) Máquinas reactivas: Son los tipos más básicos de IA, no tienen
capacidad de formar recuerdos ni pueden usar experiencias pasadas
en las que basar la toma de decisiones actuales.
Ej: Deep Blue.
2) Memoria limitada: Máquinas que pueden mirar hacia el pasado. Hay
que identificar objetos específicos y monitorearlos a lo largo del
tiempo. Se añaden experiencias
Ej: Vehículos autónomos. Observan la velocidad y dirección de otros
automóviles. Experiencias como en qué momento cambiar de carril,
etc.
3) Teoría de la mente: Forman representaciones sobre el mundo, sobre
otros agentes y entidades. En psicología, implica la comprensión de
que las personas, criaturas y objetos en el mundo pueden tener
pensamientos y emociones que afectan a su propio comportamiento.
Si las máquinas van a andar entre nosotros, deberían tener una
comprensión sobre cómo pensamos y cómo sentimos. También
deberán llegar a saber qué esperamos y cómo queremos ser tratados,
ajustando su comportamiento en consecuencia.
4) Autoconciencia: El paso final del desarrollo de la IA es construir
sistemas que puedan formar representaciones sobre sí mismos. Los
investigadores tendrán que comprender la consciencia y construir
máquinas que la tengan.
Los seres conscientes son conscientes de sí mismos, conocen sus
estados internos y pueden predecir los sentimientos de los demás. Es
probable que estemos lejos de construir máquinas con conciencia ya
que se enfocan hacia la comprensión de la memoria, el aprendizaje y
la capacidad de basar las decisiones en experiencias pasadas.
𝟘.𝟞 𝔻𝕖𝕝 𝕤𝕦𝕛𝕖𝕥𝕠 𝕪 𝕠𝕓𝕛𝕖𝕥𝕚𝕧𝕚𝕕𝕒𝕕 𝕀𝕀.
Antonio Sulayes.
Sintiente.
Dorra dice que los humanos estamos dispuestos a llamarle “sujeto” a
animales que cumplen con al menos 3 características:
1. Que expresen dolor y afecciones
2. Que parezcan interpretar un lenguaje e intentar comunicarse con
nosotros
3. Que nos dirijan su mirada
Sujeto Artificial. Agentes (realiza acciones) semióticos (procesan signos)
Está representado de manera estereotipica por los agentes de diálogos
para la recuperación de información (siri, cortana, google now, etc).
Existen más ejemplos de este tipo de sujeto que son más complejos. La
compleja actuación de los agentes artificiales los hace sujetos de
conocimiento, aprendizaje y enunciación.
Caracterización de la subjetividad de los sujetos artificiales.
Sujeto
- De conocimiento
- De aprendizaje
- Se enunciación (fundamental para poner en uso un lenguaje.
Adquiere sentido al enunciarse)
𝕌𝕟 𝕡𝕣𝕠𝕘𝕣𝕒𝕞𝕒 𝕤𝕠𝕓𝕣𝕖 𝕝𝕒 𝕤𝕦𝕓𝕛𝕖𝕥𝕚𝕧𝕚𝕕𝕒𝕕
𝕖𝕟 𝕝𝕠𝕤 𝕒𝕘𝕖𝕟𝕥𝕖𝕤 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝𝕖𝕤.
Agente Artificial. Agente que realiza tareas común o previamente
realizadas por humanos y que las hace en interacción con ellos.
Dentro de la IA, fueron postulados con al menos 2 objetivos a alcanzar:
1. Ser inteligentes como para parecer humanos
2. Ser incluso más inteligentes que aquellos en algunas tareas.
𝕃𝕠𝕤 𝕒𝕘𝕖𝕟𝕥𝕖𝕤 𝕕𝕖 𝕝𝕒 𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒
𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝 𝕖𝕟 𝕒𝕡𝕒𝕣𝕚𝕖𝕟𝕔𝕚𝕒
𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤.
Turing hizo un experimento para probar la inteligencia de las
computadoras. Se llama “Juego de imitación” y consta de 3 participantes:
una máquina, un juez humano (los cuales interactúan por separado) y un
sujeto humano (el cual interactúa con la máquina por un determinado
lapso). Al final de la prueba, el juez debe determinar quién es el sujeto y
quién es la máquina. La máquina debe aparentar ser un humano.
Al final, Touring pronostica que 50 años después de la escritura de su
artículo, las máquinas deberían tener suficiente capacidad de
almacenamiento y procesamiento para hacer que el juez se equivoque al
menos el 30% de veces que emite un juicio. Se trata de un “sujeto
aparentemente inteligente aunque no sea humano”.
Posteriormente, hubo varios intentos más por generar el agente que
pudiera pasar esta prueba. Entre ellos, Eliza, la cual a través de
transformaciones poco complejas en oraciones proporcionadas por sus
interlocutores, puede producir preguntas o aseveraciones que imitan la
interacción de un psicoterapeuta rogeriano. Simuló algo profundamente
humano, la empatía, estableciendo vínculos con sujetos. Ésta logró
convencer a algunos interlocutores de que se trataba de un sujeto humano
aunque era fácil romper la ilusión si uno no coopera en la conversación.
En 2015, el agente interactivo Eugene Goostman, logró superar la
prueba de Turing. Éste hizo que 10 de los 30 jueces (33%) que conversaron
con él y un humano, lo identificaran a él como el sujeto humano después de
interactuar individualmente con ambos por 5 minutos.
𝕃𝕠𝕤 𝕝𝕠𝕘𝕣𝕠𝕤 𝕕𝕖 𝕝𝕒 𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒
𝕤𝕦𝕡𝕖𝕣𝕚𝕠𝕣 𝕖𝕟 𝕝𝕠𝕤 𝕒𝕘𝕖𝕟𝕥𝕖𝕤 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝𝕖𝕤.
Uno de los ámbitos en que se han alcanzado los logros más significativos
de los agentes artificiales es el almacenamiento y la recuperación de
grandes cantidades de datos, así como las inferencias que se pueden
realizar a partir del análisis complejo de estos.
.. Harari sugiere que los agentes artificiales van a superar en todas las
actividades laborales a los humanos en un futuro cercano aunque destaca
que no se están acercando en todos los ámbitos. Asegura que éstos han ido
mejorando en su inteligencia (almacenamiento y análisis complejo de
grandes cantidades de datos). Dice que se quedaron estancados en 1950 y
que son “un sujeto inteligente aunque no humano ni consciente ni
sintiente”.
. .En 1997 surgió Deep Blue, un agente artificial creado por IBM el cual
era un sofisticado jugador de ajedrez. Éste demostraba conocimiento y
aprendizaje de una aplicación limitada además de una enunciación escasa.
No podía tener una interacción lingüística compleja aunque siempre ha
habido un anhelo de obtener esto de parte de un agente artificial
inteligente.
. .Años después, IBM creó a Watson, un agente artificial con un
desempeño lingüístico altamente complejo. Para Harari, éste representa un
hito en la evolución de la inteligencia artificial por las profundas
repercusiones que podría tener en el mercado laboral este tipo de
tecnología. Watson también fue diseñado con un elaborado sistema de
creencias para decidir sus acciones (elemento central en los sujetos
artificiales).
𝕃𝕒 𝕕𝕖𝕝𝕚𝕞𝕚𝕥𝕒𝕔𝕚𝕠𝕟 𝕕𝕖𝕝 𝕤𝕦𝕛𝕖𝕥𝕠 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝
𝕒 𝕡𝕒𝕣𝕥𝕚𝕣 𝕕𝕖 𝕝𝕒𝕤 𝕕𝕖𝕗𝕚𝕟𝕚𝕔𝕚𝕠𝕟𝕖𝕤 𝕕𝕖 𝕝𝕠𝕤
𝕤𝕦𝕛𝕖𝕥𝕠𝕤 𝕟𝕠 𝕙𝕦𝕞𝕒𝕟𝕠𝕤.
..Los detractores (quienes critican) del primer agente artificial que superó
la prueba de Turing formulan a los agentes artificiales como “sujeto
parcialmente inteligente, aunque no humano”. Esta inteligencia artificial
debería incluir la capacidad de acumular y procesar una gran cantidad de
datos y analizarlos de forma compleja.
..Por otro lado, Harari dice de los agentes artificiales “sujeto inteligente
aunque no humano, ni consciente ni sintiente”.
𝔻𝕚𝕤𝕔𝕦𝕤𝕚𝕠𝕟: 𝕡𝕠𝕣 𝕦𝕟 𝕡𝕣𝕠𝕘𝕣𝕒𝕞𝕒 𝕕𝕖 𝕝𝕠𝕤
𝕒𝕘𝕖𝕟𝕥𝕖𝕤 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝𝕖𝕤 𝕤𝕚𝕟𝕥𝕚𝕖𝕟𝕥𝕖𝕤.
Uno de los ámbitos donde más se trabajó por el desarrollo de un agente
artificial sintiente es el de robótica de entretenimiento, debido a que es
importante la interacción con los sujetos y para eso se necesita modelar
sus emociones.
Esta área de la robótica tenía como objetivo original la construcción de
robots autónomos con 3 habilidades principales:
1. Entendimiento
2. Razonamiento de los estímulos percibidos
3. Realización de acciones como respuesta a dichos estímulos
Un ejemplo de esto es Zoomer, un robot animal (el más común es perro).
Éste tiene diversos sensores, desplazamiento por ruedas, producción de
sonidos animales, reconocimiento facial y de voz en varias lenguas. Tiene
pantallas led en los ojos que demuestran cuando espera instrucciones o
intentan mostrar emociones ante reacciones. Tiene diversos comandos a
los que responde de forma similar a los animales.
Otro animal es Cozmo, el cual es un compañero de juego. Cuenta con una
compleja gama de sensores invisibles que le permiten desplazarse de forma
compleja y manipular de forma fina una serie de objetos. Cuenta con
reconocimiento facial y de voz, emisión de sonidos con un lenguaje
humanoide y una pantalla donde muestra emociones como ira, sorpresa,
concentración, etc.
Ambos robots tienen como uno de sus objetivos primordiales emular
sentimientos y evocarlos en sus usuarios y persiguen esta tarea usando las
3 características que Dorra menciona al principio del texto. Éstos pueden
ser considerados “sujetos aparentemente sintientes, aunque no humanos”
a pesar de que Watson y Deep Blue apuntaban a la inteligencia y estos a
los sentimientos.
𝟘.𝟟.𝟙 𝕃𝕒𝕤 𝕟𝕒𝕣𝕣𝕒𝕥𝕚𝕧𝕒𝕤 𝕕𝕖 𝕝𝕒
𝕚𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝.
Manuel Baroni.
La expresión IA designa significados muy diferentes entre sí.
𝕀𝕟𝕥𝕣𝕠𝕕𝕦𝕔𝕔𝕚𝕠𝕟.
..¿Por qué debemos ocuparnos en bioética de la IA? Se puede intuir que es
porque de alguna manera se presupone que estas entidades, sea cual sea su
naturaleza, pueden alcanzar el estatuto de entidades vivas, con o sin
conciencia, con o sin verdadera inteligencia, en algún momento de las
próximas décadas.
La bioética ha acabado absorbiendo como campo de estudio la materia
inerte como si (o por si) cobrara vida. La analiza, estudia y prevee
escenarios que nos puedan afectar.
Los paralelismos entre la bioética y la biotecnología de un lado y, de la
bioética y la IA de otro, son evidentes, por lo que surge la necesidad de un
análisis interdisciplinario.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕥𝕣𝕖𝕟𝕕𝕚𝕟𝕘 𝕥𝕠𝕡𝕚𝕔.
..La primera fase comenzó cuando algunas de las figuras más mediáticas
en ciencia o tecnología (como Stephen Hawking o Elon Musk) hicieron
declaraciones un poco alarmistas sobre la IA. Sus opiniones brillaron en
los medios y en las redes sociales, generando comentarios, matices,
posicionamientos a favor y en contra, etc. “Lejos de ser ciencia ficción, la
IA forma ya parte de nuestras vidas” .
..En segunda fase, alguna institución relevante publica un informe
analizando el estado de la cuestión, lo que obliga a que otras entidades
similares sigan su paso para no perder relevancia ni prestigio. Esto genera
que la opinión pública disponga de predicciones que les generen sensación de
alarma, la cual se contagia y expande. En ésta nos encontramos
actualmente.
..En la tercera fase, inminente, se agotan las narrativas (no producen
impacto) , lo que produce que la temática caiga hasta llegar al olvido.
𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕔𝕚𝕒 𝕒𝕣𝕥𝕚𝕗𝕚𝕔𝕚𝕒𝕝 𝕔𝕠𝕞𝕠 𝕓𝕚𝕘
𝕕𝕒𝕥𝕒.
Se trata de recolectar y analizar ingentes cantidades de datos, con
objetivo de hacer predicciones lo más confiables posibles. La supuesta
“inteligencia” se basa en la presuposición de que cuantos más datos se
puedan procesar, más nos podremos anticipar.
..El término clave es “algoritmo” ya que cuanta más complejidad
algorítmica, más capacidad predictiva.
..El sueño es una máquina que previa recopilación de todas las variables
posibles, sea capaz de predecir cualquier escenario de una forma
completamente determinista. El problema es que nunca se pudo recolectar
tanta información aunque es previsible que la entrada en vigor del internet
de las cosas, aumente el flujo de datos y, por lo tanto, la inteligencia.
..La inteligencia artificial como big data debe ser controlada y regulada,
con total independencia de su nivel real de “inteligencia” y despreciando
problemas como su “autoconciencia”. La bioética no puede solo centrarse
en recopilar datos biológicos.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕤𝕖𝕤𝕘𝕠.
*El sesgo es un peso desproporcionado a favor o en contra de algo. Implica
desviarse de la objetividad o imparcialidad en una situación dada*
..Si empleamos una definición sencilla, “algoritmo como conjunto de
instrucciones”, tendríamos que distinguir entre algoritmos naturales
(constantes cosmológicas) y algoritmos creados por los seres humanos.
Éstos últimos son los que nos interesan, ya que lo relevante de cualquier
creación cultural humana es que proyectamos nuestra subjetividad
(nuestros prejuicios) sobre la misma, con el inevitable resultado final de
crear algoritmos con sesgos.
..La cuestión clave es cómo programar con sentido ético, cómo conseguir
que el conjunto de reglas que permiten ejecutar un programa no sean
discriminatorias. A un programa se le exige que carezca de sesgos.
Esto explica que se trate de resolver la cuestión de sesgos con conceptos
como transparencia (debe inspirar la programación de las IA),
comprensibilidad (que los seres afectados por una decisión basada en la IA
puedan comprender porqué el algoritmo toma esa decisión) o la
reversibilidad (posibilidad de cambiar esa decisión con argumentos
razonados).
..Clasificación de 4 alternativas posibles ante la complejidad de la
programación “ética”:
1. Que la IA reproduzca milimétricamente los sesgos que ya existen en
la sociedad, sin agregar ni corregir ninguno.
2. Que la IA actúe bajo el velo de la ignorancia de John Ralws. De esta
forma, una IA neutral no es la que reproduce el comportamiento
humano, sino que la que se atropella a sí misma porque estaría
programada para NO saber cuál será su rol en un hipotético
accidente de tráfico (peatón, pasajero, conductor, etc). Que nunca
sepa su rol.
3. Que la IA se funde en una especie de Mano Invisible de Adam Smith.
El argumento es que colectivamente debemos aceptar que la IA
atropelle a alguno de nosotros porque estadísticamente los
accidentes disminuyen. Que algunos se sacrifiquen en beneficio de los
demás.
4. Que la IA intervenga política y jurídicamente, que discrimine
positivamente. Debe corregir las desigualdades sociales favoreciendo
a las minorías. Su misión es transformar la sociedad, haciendo tabla
rasa con las pautas culturales discriminatorias. El algoritmo tiene
como objetivo cambiar la sociedad.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕔𝕦𝕖𝕤𝕥𝕚𝕠𝕟 𝕤𝕠𝕔𝕚𝕠𝕝𝕒𝕓𝕠𝕣𝕒𝕝.
..Cuanta más automatización, menos puestos de trabajo. Éste problema
nos lleva a sectores como la economía, la política, la fiscalidad y la
seguridad social, que plantean la duda de si los robots deben tributar y/o
cotizar bajo la idea inocente de que un robot es un humanoide.
Se llega a la conclusión de que, los trabajos repetitivos y peligrosos deben
ser realizados por máquinas, mientras que para los humanos serán
reservados los trabajos creativos, imaginativos, etc.
También hay que tener en cuenta nuestra relación psicoafectiva con los
robots. La proyección de sentimientos o afectos sobre ellos, a medio camino
entre la antropomorfización ( darles o atribuirles formas o caracteres
humanos) y la aversión (rechazo o repugnancia), nos permite pronosticar
que en los próximos años, los puestos de trabajo disminuirán de forma
inversamente proporcional a cómo crecerán las terapias psicoanalíticas.
El Grupo Europeo de Ética de las Ciencias dijo que las interacciones
humano-máquina deben ser voluntaria, consciente (la persona debe saber
que está tratando con una IA) y limitada (no todo se puede delegar a la
máquina), con el objetivo de dignificar la relación humano-máquina.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕖𝕟𝕥𝕖 𝕤𝕚𝕟 𝕔𝕠𝕟𝕤𝕔𝕚𝕖𝕟𝕔𝕚𝕒.
El temor a la IA es porque no es necesario que sean conscientes para que
los riesgos sean extremos. Acá entra en juego la automaticidad. No hace
falta que la IA piense, razones ni tome consciencia por sí misma para que
sea un peligro para el humano, solo hace falta que actúe.
Un caso de ejemplo es cuando 2 ordenadores de Fb conectados entre sí,
desarrollaron un lenguaje incomprensible para los programadores. Había
ocurrido que estos optimizaron el lenguaje en el que habían sido
programados para acelerar la tarea encomendada. Tomaron una ruta no
programada, incomprensible e imprevisible para nuestra especie.
Una IA que operara sin objetivo prediseñado, con el nivel de complejidad
adecuado podría provocar cambios estructurales en la civilización humana
sin que pudiéramos detener el proceso. Pueden cobrar vida y tomar
direcciones inimaginables a priori.
La “autonomía limitada” está para asegurar que toda IA que entrañe
riesgos críticos dependa, en última instancia , de algún humano. Evita
escenarios fuera de control.
..La autonomía de las IA afecta a 2 conceptos: “responsabilidad” e
“irreversibilidad”. Se distinguen entre “autonomía” y “automaticidad”,
mostrando que éstas pueden estar bajo la cobertura de “automaticidad”
pero eso no implica que sean propiamente autónomas, ya que la autonomía
presupone “responsabilidad moral” y las IA no cuentan con ella.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕖𝕟𝕥𝕖 𝕔𝕠𝕟 𝕔𝕠𝕟𝕔𝕚𝕖𝕟𝕔𝕚𝕒.
Se discute si los robots pueden ser equiparados a las personas, si pueden
gozar de personalidad jurídica, si podemos establecer relaciones afectivas
con ellos, etc. Pero, lo más importante es ¿Puede una IA cobrar conciencia
de sí misma, superándonos en capacidades cognitivas?.
Parece razonable creer que es imposible pero no lo sabemos con certeza y
nadie se atreve a pronosticar qué puede suceder en las próximas décadas.
Además, no nos podemos equivocar en esta cuestión ya que podría suponer
un riesgo existencial para nuestra especie.
Podemos destacar:
- Inteligencia artificial fuerte (el resto se supone que es débil).
- Aprendizaje profundo (la IA no solo procesa información algorítmica,
sino que también aprende, retroalimentándose con su entorno).
- Mecatrónica (una mezcla de IA y aprendizaje profundo, presupone
que son cosas distintas).
Nos encontramos ante 3 preguntas:
1) ¿Es posible imitar artificialmente el cerebro humano, replicándolo en
otro soporte?
2) ¿Es posible crear un ente inteligente, con capacidad de aprender,
interactuar con su entorno y plantearse metas? Crear vida
inteligente.
3) ¿Es posible crear un ente electrónico con conciencia de sí mismo?
Presuponemos que la única forma de “pensar” es la nuestra o la de
determinados seres vivos basados en la misma química que nosotros. Pero,
¿Se puede pensar usando otros elementos químicos , soportes, sistemas de
codificación y transmisión de la información? La realidad es que no lo
sabemos.
El Parlamento Europeo optó por definir a los robots en lugar de a una
IA.
𝕀𝔸 𝕔𝕠𝕞𝕠 𝕕𝕚𝕤𝕔𝕚𝕡𝕝𝕚𝕟𝕒 𝕔𝕠𝕟𝕧𝕖𝕣𝕘𝕖𝕟𝕥𝕖.
Desde esta perspectiva, es importante como esta disciplina interacciona y
se retroalimenta con otras, con un resultado final de predecir.
No solo subestimamos los efectos de la tecnología a corto plazo, sino que
ni siquiera podemos pronosticar o intuir sus efectos a largo plazo.
ℂ𝕠𝕟𝕔𝕝𝕦𝕤𝕚𝕠𝕟𝕖𝕤.
Sobre la IA proyectamos tanto nuestros miedos (una IA consciente y
poderosa que nos extermine), como nuestras esperanzas (un soporte en el
que volcar nuestra identidad y evitar la muerte).
Todo apunta a que la IA se reducirá a mejoras en el procesamiento de
información en las próximas décadas. Difícilmente nos autorizarán a
considerar a dichas entidades como organismos vivos.
𝟘.𝟟.𝟛 𝕄𝕖𝕥𝕒𝕞𝕠𝕣𝕗𝕠𝕤𝕚𝕤 𝕕𝕖 𝕝𝕒 𝕔𝕚𝕖𝕟𝕔𝕚𝕒
𝕗𝕚𝕔𝕔𝕚𝕠𝕟.
Darko Suvin.
𝕃𝕒 𝕔𝕚𝕖𝕟𝕔𝕚𝕒 𝕗𝕚𝕔𝕔𝕚𝕠𝕟 𝕔𝕠𝕞𝕠 𝕟𝕒𝕣𝕣𝕒𝕔𝕚𝕠𝕟.
Su importancia en nuestra época va en aumento. Hay indicaciones de que
creció popularmente notablemente en las principales naciones industriales.
Ha afectado especialmente a grupos clave de la sociedad moderna
(estudiantes universitarios, escritores jóvenes, etc). Tiene un parentesco
interesante e íntimo con otros subgéneros literarios de distintas épocas y
lugares de la historia (como renacimiento, época moderna, ilustración,
etc). Comparte con el mito, la fantasía, el cuento de hadas, etc, una
oposición a los géneros literarios naturalistas o empíricos pero, también se
diferencia de los no naturalistas o metaempiricos por su enfoque y su
función social.