Futuro de la inteligencia artificial
Paradigmas y tendencias en la investigación de la IA
A partir de la crisis del paradigma simbolista surge un nuevo
paradigma dentro de la inteligencia artificial: el
paradigma conexionista que asume que la
inteligencia es producto de la asociación,
combinación o conexión de entidades
independientes más simples (agentes, genes o
neuronas), las cuales pueden tener alguna
inteligencia o ninguna y producto de su
interacción, el sistema presentaría un
comportamiento inteligente (Hacia un nuevo enfoque de la inteligencia artificial). La IA no se
quedó en el paradigma conexionista o emergente, al cual le han seguido el paradigma enactivo o
corpóreo y el paradigma basado en datos o máquinas superinteligentes.
De momento, podemos mencionar los siguientes paradigmas
■ Paradigma simbólico (lógico/semántico)
■ Paradigma conexionista o emergente
■ Paradigma corpóreo o enactivo
■ Paradigma basado en datos o máquinas superinteligentes
A su vez, los paradigmas han dado lugar a nuevos modelos y nuevas técnicas de
investigación (Las máquinas superando a los humanos) entre las técnicas más
importantes tenemos:
• Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus
conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes
agentes (con conocimientos parciales) que al integrarse logran resolver problemas
complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez
más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del
cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la
biología, en lugar de en lugar de atrincherarse en modelos exclusivamente
informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el
medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados
en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma
manual, de ahí que recibieran el mote de sistemas autistas.
Las ciencias cognitivas y los paradigmas de la Inteligencia Artificial (IA)
■ Simbolista (lógica y semántica)
■ Conexionista o emergente (redes neuronales y sistemas multiagentes)
■ Evolutiva (algoritmos genéticos)
El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA
partiendo de la representación en la computadora de la realidad y, para muchos, esa
representación basada en símbolos es equivalente a los estados mentales, ya que
tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que
procesan información). Actualmente se esta hablando de dos nuevos paradigmas: el
enactivo o corpóreo y el basado en datos
Paradigmas de la IA
Los paradigmas de la IA sirven tanto para la IA general como para la IA específica y
para la futura super IA. Su aplicación ha sido fundamentalmente en la IA específica,
pero se puede aplicar a la IA general y a la hipotética super IA.
Modelos y paradigmas dominantes en la IA
1.-PARADIGMA SIMBÓLICO
■ Modelo simbólico – Reglas de producción
2.-Paradigma conexionista
■ Modelo conexionista o neuronal – Redes neuronales
■ Modelo colectivo – Sistemas multiagentes
■ Modelo evolutivo – Algoritmo genético
3.-Paradigma enactivo
■ Modelo corpóreo – Robótica del desarrollo (robótica reactiva)
4.-Paradigma máquinas inteligentes
■ Modelo basado en datos – Aprendizaje profundo
Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en
unidades interconectadas.
Las unidades interconectadas pueden ser
■ Neuronas
■ Genes
■ Agentes inteligentes
No se puede olvidar que hasta la fecha, los modelos de la IA deben poder reproducirse
en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas
formas de programación teniendo en cuenta las actuales prestaciones de las máquinas
que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la
información y conexión.
Todos los modelos son las técnicas que se aplican para desarrollar una IA (de
momento específica) que puede alcanzar, en algún momento, una IA avanzada
(general). Los modelos tienen su aplicación fundamental dentro del enfoque
socioeconómico como IAs específicas que buscan dar solución a los diferentes
dominios, aunque su pretensión inicial haya sido la construcción de una IA de carácter
general. Sin embargo sus logros han estado en las aplicaciones a dominios
restringidos, Ya existen IA específicas que superan a los humanos en una tarea (ej:
ajedrez, GO, etc)
Para mejor comprensión de los modelos veamos la definición dada por López Mantaras
para los principales modelos en IA: simbólico, conexionista, evolutivo y corpóreo. Aquí
se agregan otros dos modelos: colectivo y basado en datos.
Paradigma simbólico
MODELO SIMBÓLICO
Es un modelo descendente, que se basa en el razonamiento lógico y la búsqueda
heurística como pilares para la resolución de problemas, sin que el sistema inteligente
necesite formar parte de un cuerpo (no encarnado) ni está situado en el entorno real.
La IA simbólica opera con representación abstracta del mundo real
Paradigma conexionista.
Se mantiene dentro del cognitivismo clásico, de la hipótesis simbolista y la metáfora del
computador
MODELO CONEXIONISTA (NEURONAL)
Los sistemas conexionistas no son incompatibles con la hipótesis simbolista (SSF) pero
al contrario del simbólico, se trata de un modelo ascendente, ya que se basa en la
hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran
número de unidades interconectadas que procesan información paralelamente. En la IA
conexionista estas unidades son modelos muy aproximados de la actividad eléctrica de
las neuronas biológicas.
MODELO COLECTIVO
El modelo colectivo son sistemas multiagentes y es compatible con la hipótesis
simbolista y se puede decir que es no corpórea aunque si tiene en cuenta al entorno,
también se trata de un modelo ascendente ya que la inteligencia emerge de una gran
número de unidades interconectadas en este caso son los llamados agentes
inteligentes, que tienen como característica la de ser una entidad más o menos
autónoma, con conocimientos propios y de su entorno así como la posibilidad de
interactuar con dicho entorno y con otros agentes.
MODELO EVOLUTIVO
También es compatible con la hipótesis simbolista (SSF) y no corpórea. Se trata de
imitar la evolución con el fin de que los programas de computadoras mediante un
proceso evolutivo mejorasen automáticamente las soluciones a los problemas para los
que fueron programados.
Paradigma enactivo
Rompe con la hipótesis simbolista, ya que no es la representación del mundo objetivo y
su conversión en símbolos para ser procesados por una computadora sino, la
actuación de la máquina en el entorno. Varela incluye el paradigma enactivo en las
ciencias cognitivas pero dado que el enactivismo está más cerca de un pensamiento
sistémico-cibernético y su complejidad, perfectamente encaja en las ciencias de la
complejidad.
MODELO CORPÓREO
Se basa en que un agente inteligente necesita un cuerpo para tener experiencias
directas con su entorno, en lugar de que un programador proporcione descripciones
abstractas de dicho entorno, codificado mediante un lenguaje de representación del
conocimiento. Sin un cuerpo esta representación abstracta no tiene contenido
semántico. El método corpóreo ha dado lugar a la llamada robótica del desarrollo.
Paradigma basado en datos o máquinas superinteligentes,
Se acepta que la forma de pensar de los humanos es totalmente diferente a la de las
máquinas (IA débil) y que el método es crear programas capaces de desarrollar
actividades llamadas inteligentes sin imitar al pensamiento humano (no sigue la medida
humana). Por supuesto, esto nos lleva a máquinas carentes de sentimientos (al menos
como los humanos), tan inteligentes como los humanos o quizás más, pero dentro de
su propio contexto digital.
Modelo basado en datos
El progreso tecnológico y el almacenamiento de grandes bases de datos ha
posibilitado, que el procesamiento orientado a los datos del mundo real sea factible,
dado el surgimiento de hardware cada vez más potente, barato y confiable, además la
capacidad de internet para recopilar grandes cantidades de datos y la disponibilidad de
almacenamiento para procesar esos datos. La IA basada en datos (IA BD) son, en
general, algoritmos de fuerza bruta que se programan utilizando la velocidad de
procesamiento de la máquina, estamos anteprogramas capaces de desarrollar
actividades llamadas inteligentes sin imitar al pensamiento humano.
Tendencias en las investigaciones de la IA
El aprendizaje automático a gran escala se refiere al diseño de algoritmos de
aprendizaje, así como escalar algoritmos existentes, para trabajar con conjuntos de
datos extremadamente grandes.
El aprendizaje profundo, una clase de procedimientos de aprendizaje, ha facilitado el
reconocimiento de objetos en imágenes, etiquetado de video y reconocimiento de
actividades, y está haciendo avances significativos en otras áreas de percepción, como
el procesamiento de audio, habla y lenguaje natural.
El aprendizaje por refuerzo es un marco que cambia el enfoque de la máquina
aprender del reconocimiento de patrones a la toma de decisiones secuenciales
impulsada por la experiencia promete llevar las aplicaciones de IA hacia adelante para
tomar medidas en el mundo real. Si bien se ha limitado en gran medida a la academia
en las últimas décadas, ahora está viendo algunos éxitos prácticos del mundo real.
La robótica se preocupa por cómo entrenar a un robot para que interactúe con el
mundo a su alrededor de manera generalizable y predecible, cómo facilitar la
manipulación de objetos en entornos interactivos y cómo interactuar con las personas.
Avances en la robótica dependerá de avances proporcionales para mejorar la fiabilidad
y la generalidad de la visión por computadora y otras formas de percepción de la
máquina.
La visión por computadora es actualmente la forma más prominente de percepción de
la máquina. Ha sido la subárea de IA más transformada por el auge del aprendizaje
profundo. Por primera vez, las computadoras pueden realizar algunas tareas de visión
mejor que las personas. La investigación actual se centra en el subtitulado automático
de imágenes y videos.
Procesamiento de lenguaje natural, a menudo junto con reconocimiento automático de
voz se está convirtiendo rápidamente en una mercancía para idiomas ampliamente
hablados con grandes conjuntos de datos. La investigación ahora está cambiando para
desarrollar sistemas refinados y que sean capaces de interactuar con las personas a
través del diálogo, no solo reaccionar a las solicitudes estilizadas. Grandes pasos,
también se han realizado en traducción automática entre diferentes idiomas, con más
intercambios de persona a persona en tiempo real en el horizonte cercano.
Los sistemas colaborativos, investigan modelos y algoritmos para ayudar a desarrollar
sistemas autónomos que pueden trabajar en colaboración con otros sistemas y con
humanos.
La investigación de crowdsourcing y computación humana investiga métodos para
aumentar los sistemas informáticos haciendo llamadas automatizadas a la experiencia
humana para resolver problemas que las computadoras solas no pueden resolver bien.
La teoría de juegos algorítmicos y la elección social computacional llaman la atención a
las dimensiones de computación económica y social de la IA, como la forma en que los
sistemas pueden manejar incentivos potencialmente desalineados, incluidos los
participantes humanos interesados o empresas y los agentes automatizados basados
en IA que los representan.
La investigación de Internet de las cosas (IoT) se dedica a la idea de que una amplia
gama de dispositivos, incluidos electro domésticos, vehículos, edificios y cámaras,
pueden interconectarse para recopilar y compartir su abundante información sensorial
para usar con fines inteligentes.
La computación neuromórfica es un conjunto de tecnologías que buscan imitar redes
neuronales biológicas para mejorar la eficiencia del hardware y la solidez de sistemas
informáticos, a menudo reemplazando el énfasis anterior en módulos separados en
entrada /salida, procesamiento de instrucciones y memoria
CONCLUSIÓN
Como hemos visto, todos los modelos excepto el BD tratan de emular las
competencias de la mente o del cerebro humano. En el caso del modelo BD estamos
hablando del surgimiento de una inteligencia no humana en el sentido literal. Ya que el
modelo BD no tiene nada que ver con la forma de pensar del ser humano es un
algoritmo de fuerza bruta basado en la velocidad del hardware. Ahora de acuerdo al
paradigma basado en datos, según crezcan los datos las máquinas tendrán más
acceso a la información y a su procesamiento (dada su creciente velocidad) y con ello
a aumentar exponencialmente su inteligencia, lo que lleva a una posible singularidad
tecnológica, fuera de la medida humana.
La IA actual es dependiente, depende de las personas que le suministran información
del medio, mientras la IA enactiva recoge la información directamente del medio. Toda
inteligencia compleja depende de la interacción con el entorno y estas interacciones
dependen a la vez del cuerpo. Las máquinas actúan en su entorno (digital) y aprenden
de él por lo que adquieren una inteligencia ajena a la humana. También, la IA actual es
individualista, resuelve los problemas por si misma sin cooperación, en resumen,
podemos decir que la IA actual es específica, individualista y dependiente (incorpórea)
Hoy se habla de sistemas híbridos que combinen el paradigma cognitivo (simbolista y
conexionista) con el basado en datos, yo en cambio me inclino por el desarrollo de un
sistema que integre el paradigma enactivo con el colectivo: una IA
enactiva/colaborativa que sea consciente y cooperativa; capaz de desarrollarse y
evolucionar junto a los humanos.