ESCUELA SUPERIOR POLITÉCNICA AGROPECUARIA DE MANABÍ
MANUEL FÉLIX LÓPEZ
CARRERA INFORMÁTICA
SEMESTRE SEXTO PERIODO OCT-2014/MAR-2015
INTELIGENCIA ARTIFICIAL I
TEMA:
RESUMEN#3: HISTORIA DE LA INTELIGENCIA ARTIFICIAL
AUTORA:
DAYANA H. BAILÓN DELGADO
FACILITADORA:
ING. HIRAIDA SANTANA
CALCETA, OCTUBRE 2014
CAPÍTULO I. INTRODUCCIÓN
Luego de comprender los términos principales de la inteligencia artificial, se
puede familiarizar con la ciencia computacional, en esencia. Al igual que todas,
la IA tiene sus inicios con diferentes pioneros que crearon un camino, no sencillo,
que aún no termina de ser recorrido.
En la antigüedad, cuando Alan Turing (1950) publicó por primera vez una visión
de la IA en su artículo Computing Machinery and Intelligence y a partir de eso,
se creó un taller por parte de McCarthy que reunió a 10 investigadores, los cuales
se encargaron de estudiar mecanismos o programas que estuvieran compuestos
de inteligencia artificial y aunque algunos tuvieron éxito en primeras instancias,
la mayoría de estas creaciones fueron desplazadas cuando de resolver
problemas más complejos se trataba.
Aunque la IA se encontró con más de un inconveniente en sus inicios, muchos
investigadores continuaron con positivismo, enfocándose en el crecimiento y
realización de sus proyecciones. Cada suceso ocurrido, como: entusiasmo inicial
por parte de los autores, regreso de las redes neuronales, la IA se convierte en
una industria, son detallados a continuación del presente resumen denominado:
Historia de la Inteligencia Artificial.
CAPÍTULO II. MARCO TEÓRICO
2.1. GÉNESIS DE LA INTELIGENCIA ARTIFICIAL (1943-1955)
La inteligencia artificial inicia a partir de tres fuentes: conocimientos sobre la
fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis
formal de la lógica preposicional de Russell y Whitehead y la teoria de la
computacion de Turing.
Es importante recordar que fueron Warren McCulloch y Walter Pitts (1943) los
reconocidos como pioneros del primer trabajo de IA, el cual consistía en la
estimulación a través de neuronas cerebrales vecinas o usencia de éstas,
denominándolas a cada una de las neuronas estudiadas como: activadas o
desactivadas, dependiendo del estado en el que se encontraban.
Otro suceso importante ocurrió en 1951 cuando Marvin Minsky y Dean Edmonds,
dos estudiantes graduados en el Departamento de Matemáticas de Princeton
construyeron el primer computador a partir de una red neuronal. Fue llamado
Snarc y utilizaba 3.000 válvulas de vacío y un mecanismo de piloto automático
obtenido de los desechos de un avión bombardero B-24 para simular una red
con 40 neuronas.
Aunque existieron algunos trabajos que pueden formar parte de la IA, Alan Turing
(1950) fue el primero en ubicar una visión de la IA en su artículo Computing
Machinery and Intelligence, además introdujo la prueba de Turing, el aprendizaje
automático, los algoritmos genéricos y el aprendizaje por refuerzo.
2.2. NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956)
En Dartmouth College, John McCarthy reunió a 10 investigadores para que
asistieran a un taller que tuvo una duración de 2 meses. El trabajo más notorio
fue el de Alien Newell y Herbert Simón quienes contaban desde el inicio del taller
con un programa de razonamiento, el Teórico Lógico (TL). Tiempo después de
la finalización del taller, el TL era capaz de demostrar gran parte de los teoremas
del Capítulo 2 de Principia Matemática de Russell y Whitehead, aunque no
impresionó lo suficiente para alcanzar un espacio en Journal of Symbolic Logic.
Durante los 20 años que logró mantenerse el grupo que inició como taller y creció
con empresas, maestros y estudiantes logró como acontecimiento especial que
se adoptara el término propuesto por McCarthy: Inteligencia Artificial, en vez de
Razonamiento Artificial.
2.3. ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952-
1969)
En principio, la IA tuvo evidentes éxitos por dos razones propias de la época:
limitaciones en la programación y creencia de que los computadores solo
resolvían problemas aritméticos. Aunque también existieron muchas
controversias, especialmente las tareas recopiladas por Turing, que indicaba que
los computadores no podían resolver. Como era de esperarse los seguidores de
la IA artificial respondieron de forma inmediata y es por esto que a dicha época
se la denominó: “Mira mamá, ahora sin manos!”.
Luego del Teórico Lógico, fue creado el Sistema De Resolución General De
Problemas (SRGP), el cual era capaz de tomar decisiones muy parecidas a las
que optaría cualquier ser humano. Es por esto que fue el primer desarrollo de la
teoría “pensar como humanos”.
En IBM, se desarrolló el demostrador de teoremas de geometría (DTG), Arthur
Samuel escribió una serie de programas para el juego de las damas que
eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un
amateur y luego superaron a su creador, causando un gran impacto en el mundo.
En un año histórico (1958) John McCarthy se trasladó de Darmouth al MIT,
donde realizó tres contribuciones cruciales:
Desarrolló el segundo lenguaje de programación de alto nivel: Lisp.
Aunque apareció un año después de FORTRAN, en la actualidad Lisp aún
se utiliza.
Publicó en un artículo el Generador de Consejos, un programa hipotético
que podría considerarse como el primer sistema de IA completo. Como lo
hacían los programas creados por IBM, este sistema pretendía buscar
soluciones utilizando el conocimiento y además manipulaba el
conocimiento del mundo.
El Generador de Consejos incluía los principios centrales de la
representación del conocimiento y el razonamiento: es útil contar con una
representación formal y explícita del mundo y de la forma en que la acción
de un agente afecta al mundo, así como, ser capaces de manipular estas
representaciones con procesos deductivos.
A partir de aquí, McCarthy desarrolló teoremas y leyes importantes y además
ayudo a un conjunto de estudiantes para lograr crear un software que solucionara
problemas cerrados.
2.4. UNA DOSIS DE REALIDAD (1966-1973)
Una de las predicciones de éxito más recordada, que publicaban los
investigadores de la IA es la de Herbert Simón en 1957:
“Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que
tengo de resumirlo es diciéndoles que actualmente en el mundo existen
máquinas capaces de pensar, aprender y crear. Además, su aptitud para hacer
lo anterior aumentará rápidamente hasta que (en un futuro previsible) la
magnitud de problemas que serán capaces de resolver irá a la par que la
capacidad de la mente humana para hacer lo mismo”.
El positivismo de los investigadores se daba a que los programas habían
respondido de forma aleatoria a los objetivos y metas que estos se planteaban,
pero se encontraron con verdades problemas cuando intentaron con dificultades
más complejas.
El tipo de problemas número uno se dió porque la mayoría de los primeros
programas contaban con poco o ningún conocimiento de las materia
objeto de estudio; obtenían resultados gracias a sencillas manipulaciones
sintácticas. Un histórico ejemplo de ello fue el intento por agilizar la
traducción de artificulos científicos, de ruso a ingles de la frase «el espíritu
es fuerte pero la carne es débil», cuyo resultado fue «el vodka es bueno
pero la carne está podrida».
El segundo tipo de problema fue que muchos de las dificultades que se
estaban intentando resolver mediante la IA eran intratables para las
mismas. Es decir que cuando un programa se encontraba con más de
unas decenas de condiciones, no lograba encontrar la solución.
“El hecho de que, en principio, un programa sea capaz de encontrar una
solución no implica que tal programa encierre todos los mecanismos
necesarios para encontrarla solución en la práctica”.
El tercer obstáculo se derivó de las limitaciones inherentes a las
estructuras básicas que se utilizaban en la generación de la conducta
inteligente.
2.5. SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE
DEL PODER? (1969-1979)
Durante la primera década de resolución de problemas en la IA, se utilizaban los
denominados métodos débiles, que consistían en entrelazar métodos de
desarrollo básico para encontrar soluciones más completas. Se caracterizaban
porque no podían resolver problemas más amplios o complejos, por eso su
definición de débiles.
El primer ejemplar de estos métodos fue el programa DENDRAL, que infería la
estructura molecular de una célula a partir de un espectro de masas. Al programa
se ingresaba la información de la fórmula elemental de la molécula, y espectro
de masas, proporcionando las masas de los distintos fragmentos de la molécula
generada después de ser bombardeada con un haz de electrones. Pero como
era de esperarse este programa era falible en situaciones más complejas.
Después de considerar la opinión de otros investigadores sobre obtener una
conclusión a partir de premisas y leyes, se creó el programa MYCIN para el
diagnóstico de infecciones sanguíneas. Con 450 reglas aproximadamente,
MYCIN era capaz de hacer mejores diagnósticos de los de un médico recién
graduado y tan buenos como los de un experto.
2.5.1. DIFERENCIAS BÁSICAS ENTRE DENDRAL Y MYCIN.
A diferencia de DENDRAL, no se contaba con un modelo teórico desde el
cual se pudiesen deducir las reglas de MYCIN.
Las reglas deberían reflejar la incertidumbre inherente al conocimiento
médico. MYCIN contaba con un elemento que facilitaba el cálculo de
incertidumbre denominado factores de certeza.
2.6. LA IA SE CONVIERTE EN UNA INDUSTRIA (DESDE 1980
HASTA EL PRESENTE)
Las principales empresas de Estados Unidos disponían de un equipo para el
desarrollo o estudio de inteligencia artificial. En 1981, los japoneses anunciaron
el proyecto «Quinta Generación», un plan de diez años para construir
computadores inteligentes y como respuesta EEUU constituyó la
Microelectronics and Computer Technology Corporation (MCC), consorcio
encargado de mantener la competitividad nacional en estas áreas.
En 1988 nació la época llamada: el invierno de la IA. Donde las empresas que
no estuvieron al nivel de crecimiento tecnológico perdieron credibilidad y algunos
se fueron a la quiebra. Pero las que lograron superarse mantuvieron la
excelencia.
2.7. REGRESO DE LAS REDES NEURONALES (DESDE 1986
HASTA EL PRESENTE)
Después de que las redes neuronales no pudieron superar la resolución de
problemas complejos, fueron aisladas de la ciencia computacional IA. Pero estas
mantenían la esperanza de ciertos investigadores que las ocuparon en distintas
áreas como la mecánica estadística y otras más. Al observarse el existo que
tuvieron estos sistemas, las redes neuronales volvieron a ser parte del mundo
de la IA.
2.8. IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA
EL PRESENTE)
Hasta la actualidad es más común encontrar investigadores que continúen los
trabajos de otros, siempre y cuando tengan buenas bases y fundamentos para
continuar así con un proyecto de calidad y excelencia que siempre tiene algo
nuevo que mostrar. Esta regla también es aplicada en las redes neuronales de
la IA.
CAPÍTULO III. CONCLUSIONES
Tomando en cuenta que en los seres humanos, la capacidad por querer conocer
e experimentar sobre las leyes de la vida se incrementa día a día, hoy se
observan verdaderos avances tecnológicos como: el internet, la robótica, la
virtualización, entre otros.
La IA es un claro ejemplo de que aunque se presenten distintos obstáculos y
críticas por parte de otras personas u organizaciones, es necesario mantenerse
firme en la investigación y desarrollo. Esto fue lo que permitió que la IA se
convirtiera en la ciencia computacional que hoy es.
Aunque la prueba de Turing fue creada hace más de 50 años, hasta la actualidad
aún se realiza con el famoso premio Loebner.
BIBLIOGRAFÍA
Nillson, N. 2010. The Quest for Artificial Intelligence. Segunda Edición. Stanford
University. Estados Unidos.
Russell, S y Norving, P. 2008. Inteligencia Artificial Un Enfoque Moderno:
introducción a la inteligencia artificial. 2ed. Pearson Education. Madrid, ES. p
1242.