UCV-HACER.
Revista de Investigación y
Cultura
ISSN: 2305-8552
[email protected]
Universidad César Vallejo
Perú
Barrera Arrestegui, Luis
FUNDAMENTOS HISTÓRICOS Y FILOSÓFICOS DE LA INTELIGENCIA ARTIFICIAL
UCV-HACER. Revista de Investigación y Cultura, vol. 1, núm. 1, julio-diciembre, 2012, pp.
87-92
Universidad César Vallejo Chiclayo, Perú
Número completo
Sistema de Información Científica
Más información del artículo
Red de Revistas Científicas de América Latina, el Caribe, España y Portugal
Página de la revista en redalyc.org
Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
FUNDAMENTOS HISTÓRICOS Y FILOSÓFICOS DE LA INTELIGENCIA
ARTIFICIAL
Luis Barrera Arrestegui
Universidad César Vallejo
Chiclayo-Perú
Resumen posible mecanización; la formulación matemática
de esta filosofía, necesitaba de un lenguaje que
Este artículo presenta en síntesis formalización del pensamiento y como
algunos hechos históricos relacionados con los consecuencia, a su reducción a un sistema
diferentes fundamentos filosóficos que han ido físico y por ende a su
constituyendo la base del campo de
investigación de la Inteligencia Artificial (IA); se
incluyen definiciones y cronología comentada.
Fundamentos
El interés por reproducir las
características humanas a través de artilugios
creados por el hombre tiene larga data y se
inicia con la historia de la humanidad misma; la
necesidad de transferir el trabajo hacia
máquinas que lo realicen de forma automática,
sin errores y que maximicen el uso de energía,
amplificándola, redirigiéndola, reproduciéndola;
ha sido satisfecha a lo largo del tiempo con el
desarrollo de máquinas tan simples como el
arado, hasta bastante complejas como la
computadora.
Dentro de la ciencias de la computación,
la Inteligencia Artificial (IA), probablemente, sea
el campo de investigación más espectacular, el
que más haya atraído la atención del público
neófito y de pares científicos; esa atención se
debe a su objetivo original: reproducir la
inteligencia humana en computadoras o como
alguna vez se afirmó: hacer que las
computadoras piensen.
La Inteligencia Artificial como campo de
estudio, debe sus fundamentos a distintas
ramas de la ciencia, así, se han ido tomando
diferentes referentes desde la filosofía, la
matemática, la psicología, la lingüística y las
ciencias de la computación, las cuales han
modelado con sus aportes las características
generales de la técnicas utilizadas para la
representación y procesamiento del
conocimiento.
Las primeras nociones filosóficas de
algoritmo y la lógica de los silogismos, la noción
de dualismo mental, el materialismo, el
empirismo, el principio de inducción, el
positivismo lógico; apuntaron a una
8
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
permitiera su operativización, para la
construcción del algoritmo formal de la
inferencia lógica, lo que fue posible con el
álgebra Boole, constituyendo la lógica de
primer orden como sistema básico de
representación del conocimiento.
Las matemáticas proponen, además,
los límites de lo computable con las teorías de
la incompletez, la noción de intratabilidad y la
teoría de la completez NP, las cuales, en
síntesis, proponen la existencia de problemas
que sea por su complejidad, validez o
extensión, no serían posibles de tratar de forma
mecánica. Por último, el análisis Bayesiano y la
Regla de Bayes aportan procedimientos
estadísticos para la toma de decisiones en caso
de incertidumbre o razonamiento incierto.
La psicología cognoscitiva estableció
que el cerebro posee y procesa información a
partir de representaciones internas que al
modificarse se traducen en acciones, es decir,
una transformación de las señales de entrada
operadas por un conjunto bien definido de
procesos, esto, traducido al lenguaje
computacional de lo artificial, sería un conjunto
de programas que procesan datos de entrada y
producen resultados. La lingüística aportó los
modelos sintácticos y el análisis semántico
dando como resultado el estudio del
procesamiento del lenguaje natural.
Las ciencias de la computación son la
base sobre la cual se materializó la Inteligencia
Artificial utilizando el hardware y software como
soporte para todas sus técnicas; estando el
desarrollo de una y otra área íntimamente
relacionadas. La teoría de lo computable y la
concepción sistémica de la informática también
son sus aportes.
La Cibernética estudia los problemas
de control, recursividad e información y los
flujos de información que rodean un sistema, es
decir, cómo se pueden establecer mecanismos
de autocontrol en los sistemas para hacerlos
más eficientes. La Teoría General de Sistemas
plantea desde su definición un conjunto de
propiedades o atributos aplicables a
cualquier
8
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
tipo de sistema, teniendo como base la visión
holística, la sinergia, la homeostasis y el proceso centrado en: a) lo que realiza el ser
isomorfismo. Tanto la Cibernética como la humano y por lo tanto antropocéntrico o b) en la
Teoría General de Sistemas, configuran un racionalidad del proceso.
soporte teórico sobre el cual basar el desarrollo,
por ejemplo, de robótica basada en agentes Russell & Norving (1996) clasifican en
autónomos. cuatro categorías a los sistemas inteligentes: a)
Sistemas que piensan como humanos, b)
Definiciones Sistemas que actúan como humanos, c)
Sistemas que piensan racionalmente y d)
Sistemas que actúan racionalmente.
Tratar de definir la Inteligencia Artificial
es muy difícil, ya que existen diferentes
paradigmas o aproximaciones en su desarrollo y Otra forma de clasificación es la que la
como afirmaba Nilsson (1987) una Teoría denomina débil o fuerte, así, la Inteligencia
General de la Inteligencia Artificial es todavía un Artificial Fuerte es aquella que busca
objetivo por realizar. implementar los procesos cognitivos a
semejanza de cómo se realizan en el ser
humano, es decir, dotar a las máquinas de
Para John McCarthy (2007) “Es la conciencia, por otro lado, la Inteligencia Artificial
ciencia e ingeniería para construir máquinas Débil busca imitar los proceso cognitivos,
inteligentes, especialmente, programas de obtener resultados que podrían ser inteligentes,
computación inteligentes. Así como, lo relativo a sin importar la forma o técnica de obtención. En
la tarea de usar computadoras para entender la el primer caso la aproximación es deductiva,
inteligencia humana, pero no limitada a métodos descendente (top-down) y simbólica; en el
observables biolgicamente.” segundo es inductiva, ascendente (bottom-up) y
subsimbólica.
Nils Nilsson (2001) refiere que “En una
definición amplia y un tanto circular, tiene por Luger & Stubblefield (1997) proponen
objeto el estudio del comportamiento inteligente ocho características emergentes que pueden
en las máquinas.” ser aplicadas a todas las áreas de estudio de la
Inteligencia Artificial:
Marvin Minsky (1990) explica que “Aun
cuando todavía no conocemos cómo los 1. El uso de computadoras para realizar
cerebros realizan sus habilidades mentales, razonamiento simbólico, reconocimiento de
podemos trabajar hacia el objetivo de hacer patrones, aprendizaje, o cualquier otra
máquinas que hagan lo mismo. La ‘Inteligencia forma de inferencia.
Artificial’ es simplemente el nombre que dimos a 2. Focalización en los problemas que no
esta investigacin.” pueden ser resueltos por algoritmos. Esto
pone de manifiesto la importancia de la
Shirai & Tsujii (1982) la definieron como búsqueda heurística como técnica de
“El objetivo de la investigacin sobre solución de problemas.
inteligencia artificial es conseguir que un 3. Solución de problemas usando información
ordenador llegue a realizar las importantes inexacta, perdida o pobremente definida y el
funciones de la inteligencia humana.” uso de algún formalismo representacional
que permita al programador compensar esta
Para Russell (2003) “Un sistema deficiencia.
inteligente es aquel cuya expectativa de utilidad 4. Razonar sobre las características cualitativas
es la más alta que se puede alcanzar por significativas de una situación.
cualquier otro sistema con las mismas 5. Un intento de manejar la significación
limitaciones computacionales.” semántica y las formas sintácticas.
6. Respuestas que no son ni exactas, ni
Todas las anteriores definiciones, como óptimas, pero que en cierto sentido son
se pude apreciar, apuntan a que la Inteligencia suficientes.
Artificial pueda dotar a las máquinas de lo que 7. El uso de una gran cantidad de
llamamos inteligencia y dependiendo de la conocimiento específico a un dominio en la
naturaleza de cada una de las aproximaciones solución de problemas.
que se tengan, se podría entender como un
8
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
8. El uso de meta-conocimiento para efectuar mecánico, constituyendo la
formas más sofisticadas de control sobre las
estrategias de solución de problemas.
Cronología
La creencia de la posibilidad de
transferir a las máquinas, no sólo las
características mecánicas humanas, sino
además, las características cognitivas e
intelectuales, es algo que se viene alimentando
desde el inicio mismo de la humanidad y sus
posteriores pasos en lo que conocemos como
ciencia, en la construcción de la teoría científica.
Tomando como base diversas fuentes
(Escolano et al 2003; Luger & Stubblefield 1997;
McCarthy et al 1955; Nilsson 2001; Russell &
Norving 1996; Simons 1983) se presenta una
cronología de los principales sucesos que han
ido sumándose a la historia de la Inteligencia
Artificial.
450 a. C. a 1955
Las premisas de pensamiento lógico y
automatismo, se pueden encontrar en los mitos
y leyendas de la antigüedad, donde se narraba
la creación de entidades desde los elementos
básicos ‘insuflándoles vida’ con la intervencin
de alguna divinidad; hacia el año 450 a.C.
Platón, Sócrates y Aristóteles sientan las bases
de la filosofía y establecen informalmente el
concepto de algoritmo; posteriormente
Aristóteles (384- 322 a.C.) formaliza la mecánica
del pensamiento deductivo con lo que denominó
silogismos, inaugurando desde la perspectiva
filosófica la lógica; en 1672, tomando como
antecedente el trabajo del teólogo catalán
Ramón Llull que había presentado la Ars Magna
en 1275, máquina de engranajes capaz de
recombinar diferentes conceptos para responder
cualquier pregunta, Gottfried Leibniz inventa el
sistema binario y propone el cálculo filosófico o
raciocinador, con el cual, a través de un algebra
para el cálculo universal de razonamiento o
alfabeto del pensamiento humano, pretendía
representar todas verdades morales y
metafísicas en un sistema deductivo. En 1854,
George Boole propone investigar las leyes
fundamentales de las operaciones de la mente
por las que se razona, para darles expresión en
el lenguaje simbólico del cálculo, así crea los
fundamentos de la lógica proposicional, un
lenguaje formal para hacer inferencias lógicas,
el Algebra de Boole. En 1879, Gottlieb Frege
crea una notación para el razonamiento
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
lógica de primer orden, lo que actualmente se Investigación en
conoce como cálculo de predicados, el sistema
básico de representación del conocimiento
utilizado en la inteligencia artificial.
La publicación en 1913 por Bertrand
Russell and Alfred North Whitehead de su
Principia Mathematica, realiza un análisis
exhaustivo y formal de la lógica proposicional;
En 1931, Kurt Gödel, postula su Teorema de la
Incompletez, fijando límites a lo computable; En
1936, Alan Turing hace público un constructo
matemático conocido como la Máquina de
Turing para probar la computabilidad de
cualquier función, Turing, también desarrolla en
1940 en Inglaterra la Heath Robinson, la
primera computadora moderna. En 1941 en
Alemania, Konrad Zuse inventa la primera
computadora controlada por programa, la Z-3.
Entre 1940 y 1941 en los Estados Unidos de
Norteamérica John Atanasoff construye la
primera computadora electrónica, la ABC;
posteriormente, en 1952, aparece la IBM 701,
construida por Nathaniel Rochester.
La Cibernética propuesta en 1943 por
el Ingeniero Norbert Wiener, la cual trata acerca
de sistemas de control basados en la
retroalimentación y la Teoría General de
Sistemas propuesta en 1950 por el biólogo
austriaco Ludwig Von Bertalanffy, como una
metateoría sobre la visión holística de los
sistemas y sus propiedades emergentes,
sirvieron de base para los primeros trabajos en
el campo de la inteligencia artificial; en 1943,
Warren McCulloch y Walter Pitts presentan su
modelo de neuronas artificiales capaces de
realizar cálculos de lógica proposicional; en
1950, Alan Turing propone el Test de Turing
para determinar si una máquina es o no
inteligente; en 1951, Marvin Minsky y Dean
Edmond, presentaron la primera computadora
de red neuronal, SNARC. En 1952, Arthur
Samuels de la IBM hace un programa que
juega damas, hacia 1955 Samuels incorpora
capacidades de aprendizaje al mismo
programa.
1955 a 1960
En Agosto de 1955, como parte de las
conclusiones de la Conferencia de
Investigación de Verano en el Dartmouth
Collage; John McCarthy del Dartmouth Collage,
Marvin Minsky de la Universidad de Harvard,
Nathaniel Rochester de IBM y Claude Shannon
de los Laboratorios de Bell Telephone, publican
Una Propuesta para el Proyecto de
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
Inteligencia Artificial en Dartmouth para el robots industriales; en 1965 Joseph Weizenbaum
verano de 1956, el cual tendría como finalidad del MIT crea ELIZA un programa interactivo
tratar los siguientes problemas: Computadoras que
automáticas, Cómo programar una computadora
para que entienda un lenguaje, Redes
neuronales, Teoría del tamaño de un Cálculo,
Mejora automática, Abstracciones y Creatividad
Azarosa.
En 1956 durante el mes de julio, se llevó
a cabo la Conferencia de Verano en Inteligencia
Artificial en el Dartmouth Collage, organizada
por John McCarthy a la cual asistieron otros
nueve noveles científicos: Marvin Minsky,
Nathaniel Rochester, Claude Shannon,
Trenchard More, Arthur Samuel, Ray
Solomomoff, Oliver Selfridge, Alan Newell y
Herbert Simon, para presentar sus respectivos
trabajos y establecer una serie de premisas de
investigación para los próximos años. Esto
constituyó la partida de nacimiento de la
Inteligencia Artificial como campo de
investigación. Durante la Conferencia Newell y
Simon presentaron el Logic Theorist (LT) un
programa de razonamiento que podía demostrar
los teoremas matemáticos del capítulo 2 del
libro Principia Matemática, lo cual acaparó la
atención; pero aparte de esto y otras
aplicaciones en juegos y la presentación de
teoría, el gran aporte fue el término acuñado por
McCarthy: Inteligencia Artificial. Además, los
participantes en esta Conferencia sería
considerados hasta ahora los más importantes
investigadores en el campo.
En 1957, Newell, Shaw y Simon
muestran el Solucionador General de
Problemas, un programa diseñado para que
imitará protocolos de resolución de problemas
utilizados por los humanos; En 1958, McCarthy
inventa el lenguaje de programación de
procesamiento de listas: LISP; en 1958 se
realiza la Conferencia sobre la Mecanización de
los Procesos Mentales en Teddington Inglaterra;
durante 1959, McCarthy y Minsky fundan el
Laboratorio de Inteligencia Artificial del
Massachussets Institute of Technology, el MIT
AI Lab, constituyendo hasta ahora uno de los
principales centros de investigación en el
mundo.
1960 a 1969
En 1960, Solomonoff introduce el
método Bayesiano universal utilizado en
inferencia inductiva y predicción; en 1962, se
funda UNIMATION, la primera compañía de
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
puede mantener un diálogo simulado sobre genética; en 1979, Green, Barstow y Kant
cualquier tema; en 1965, Edward Feigenbaum demuestran la programación automática con el
inicia el proyecto DENDRAL con la intención de
deducir la estructura molecular de
componentes orgánicos, fue el primer sistema
experto.
En 1966, Ross Quillian muestra el uso
de la Redes Semánticas como forma de
representación de conocimiento; en 1966, se
realiza en Edinburgh el primer Taller de
Máquinas Inteligentes; en 1968, Joel Moses del
MIT muestra el programa MACSYMA el cual
usaba razonamiento simbólico en la integración
de problemas matemáticos, el primer programa
exitoso basado en conocimiento; en 1969, el
Instituto de Investigación de Stanford presenta
a Shakey The Robot, combinando locomoción
animal, percepción y solución de problemas.
En 1969, Marvin Minsky y Seymour
Papert publican Perceptrons, donde
demuestran algunas limitaciones de las redes
neuronales, generando, parcialmente, lo que se
ha denominado ‘El Invierno de la Inteligencia
Artificial’ un periodo de perdida de confianza y
ausencia de fondos.
1970-1979
En 1970, Jaime Carbonell desarrolla
SCHOLAR, un programa interactivo para
instrucción asistida por computadora, basado
en redes semánticas para representar
conocimiento; el mismo año, Patrick Wilson
presenta el programa ARCH, el cual aprende
conceptos tomados del mundo de bloques
lógicos para niños; en 1971, Terry Winogrand
demuestra la habilidad de las computadoras
para entender oraciones en Inglés, del mundo
restringido de bloques lógicos para niños, en un
acoplamiento de su programa, SHRDLU, con
un brazo robot que ejecuta instrucciones
ingresadas por teclado; en 1972 Alain
Colmerauer desarrolla el lenguaje de
programación PROLOG; en 1975, Marvin
Minsky publica Marcos como Representación
de Conocimiento, Frames as a Representation
of Knowledge, en este artículo se trata de
unificar algunas técnicas aisladas entre ellas
hasta ese momento.
En 1978, Stefik & Friedland desarrollan
el programa MOLGEN, demostrando que la
representación de conocimiento con
programación orientada a objetos puede ser
usada para plantear experimentos de clonación
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
sistema CHI; el mismo año en Stanford, Hans en el comportamiento creando
Moravec presenta el primer vehículo autónomo
controlado por computadora; también,
McDermott & Doyle del MIT y McCarthy de
Stanford, inician lo publicación de su trabajo en
lógica no monotónica y en aspectos formales de
las técnicas de mantenimiento de la verdad.
1980 a 1989
Al inicio de la década Ernst Dickmanns y
su equipo de la Universidad de Munich
construyen el primer carro robot; así mismo, las
máquinas LISP son desarrolladas y
comercializadas, también aparecen las primeras
aplicaciones comerciales de los sistemas
expertos. En 1980, se realiza en Stanford la
primera Conferencia Nacional de la American
Association for Artificial Intelligence (AAAI); en
1981, Danny Hillis diseña la Conection Machine
utilizando computación paralela. En 1982 en
Japón, se inicia el Proyecto de Computadoras
de Quinta Generación, las cuales tendrían
paralelismo masivo y utilizarían técnicas de
inteligencia artificial en su núcleo operativo; en
1983, James Allen inventa el Cálculo de
Intervalos, la técnica de formalización de
eventos temporales más usada.
En 1987, Marvin Minsky publica The
Society of Mind, una descripción teórica de la
mente como una colección de agentes
cooperativos; casi al mismo tiempo, Rodney
Brooks presenta la arquitectura de la
subsuposición y la robótica basada en
comportamiento como un modelo modular
minimalista de la inteligencia natural, estos y
otros planteamientos constituirán la Nouvelle IA.
En 1989, Dean Pomerleau crea ALVINN,
vehículo terrestre autónomo en una red neuronal.
1990 a 1999
Hacia 1990, se dan los mayores
avances en todas las áreas de la Inteligencia
Artificial, a través de demostraciones
significativas en: Aprendizaje de máquinas,
capacitación inteligente, razonamiento basado
en casos, planificación de multi agentes,
calendarización, razonamiento incierto, minería
de datos, entendimiento y traducción de
lenguaje natural, visión artificial, realidad virtual,
juegos, etc. En 1991, el programa DART,
herramienta dinámica de análisis y
replanificación, propone la estrategia militar de
los Estados Unidos en la Guerra del Golfo. En
1993, Ian Horswill enriquece la robótica basada
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
a Polly el primer robot que usa visión artificial Conclusión
para operar a velocidades de un metro por
segundo; el mismo año Brooks, Stein y
Breazeal inician el proyecto MIT COG con el
objetivo de construir un niño robot humanoide.
Hacia 1995, se realizan diferentes desarrollos
en lo que se refiere a automóviles autónomos,
el más significativo es el carro robot de Ernst
Dickmanns que realiza un viaje ida y vuelta
entre Munich y Copenagen.
En 1997, Deep Blue la máquina
ajedrecista de IBM le gana al campeón
mundial, Garry Kasparov; más adelante, se
realiza el primer campeonato oficial de fútbol
para robots, RoboCup. En 1998, se
comercializa Furby el primer artefacto
doméstico desarrollado con técnicas de
Inteligencia Artificial; en 1999, Sony presenta
un artefacto doméstico mejorado, similar a
Furby, el AIBO se convierte en la primera
mascota autónoma dotada de Inteligencia
Artificial. Hacia finales de la década, los web
crawlers y otros programas de extracción de
información basados en Inteligencia Artificial,
se convierten en partes esenciales de la
Internet; en el MIT AI Lab se hacen
demostraciones de habitaciones inteligentes y
de agentes emocionales; se inicia el desarrollo
de la arquitectura Oxigen, la cual pretendía
conectar dispositivos móviles y computadoras
estacionadas a través de una red adaptativa.
2000 a 2006
En el 2000, se inicia la comercialización
de mascotas robótica autónomas; Cynthia
Breazeal del MIT publica su disertación sobre
Máquina Sociables, describiendo al robot
Kismet que posee un rostro que expresa
emociones; el robot Nomad explora de forma
autónoma la Antártica buscando restos de
meteoritos. En el 2004, la W3C formula la OWL
Web Ontology Language, el Lenguaje de
Ontología para la Web; se crea el DARPA
Grand Challenge para la competencia entre
vehículos autónomos. En el 2005, Honda
presenta a ASIMO, robot humanoide
artificialmente inteligente.
En el 2006, se cumplen 50 años de la
Conferencia de Dartmouth, en conmemoración
se celebra la Conferencia en Inteligencia
Artificial de Dartmouth: Los Próximos 50 años,
también conocida como AI@50.
9
[Escribir
“UCV-HACER”
Revista Científica de Investigación e Innovación para el Desarrollo
El campo de investigación de la
Inteligencia Artificial está aún en desarrollo y su Complex Problem Solving. Third Edition.
historia, nos revela que a pesar de todo lo Addison Wesley Longman Inc. EE. UU.
Minsky, M. (1990) The Age of Intelligent
avanzado, quedan aún varios objetivos por
Machines: Thoughts About Artificial
alcanzar, siendo imperativo que se realicen más
Intelligence. Artículo publicado en
y mejores investigaciones interdisciplinarias, que
KurzweilAI.net. [citado: 27-11-2008]
enriquezcan su dominio teórico y aplicativo.
URL:
http://www.kurzweilai.net/articles/art010
La Association for the Advancement of 0.html
Artificial Intelligence, la AAAI o Asociación para McCarthy, J.; Minsky, M.; Rochester, N. &
el Desarrollo de la Inteligencia Artificial, publicó Shannon, C. (1955) A Proposal for The
en la edición de verano del 2008 de su revista Dartmouth Summer Research Project
AI Magazine (Leake & James 2008) algunas on Artificial Intelligence .Stanford
preguntas guía para el campo: University, Computer Science
Department. EEUU. [Citado: 27-11-
¿Cómo hacer que los sistemas 2008] URL: http://www-
artificialmente inteligentes resuelvan los formal.stanford.edu/jmc/history/dartmout
problemas de forma creativa? h/
¿Cómo hacer que los sistemas McCarthy, J. (2007) What is Artificial
artificialmente inteligentes cooperen y Intelligence? Stanford University,
asistan de forma efectiva al ser humano? Computer Science Department. EEUU.
¿Cómo los sistemas artificialmente [Citado: 27-11-2008] URL: http://www-
inteligentes pueden lidiar con la restricción formal.stanford.edu/jmc/whatisai/
del sentido común? Nilsson, N. (1987) Principios de Inteligencia
¿Cómo los sistemas artificialmente Artificial. Primera edición en español.
inteligentes pueden adquirir y compartir el Ediciones Diáz de Santos. España.
conocimiento? Nilsson, N. (2001) Inteligencia Artificial, Una
¿Cómo los sistemas artificialmente Nueva Síntesis. Primera edición en
inteligentes pueden aprender por español. Mc Graw - Hill. España.
experiencia? Russell, S. & Norving, P. (1996) Inteligencia
¿De qué forma los sistemas artificialmente Artificial: Un enfoque moderno.
inteligentes pueden expresar sus Primera edición en español. Prentice
necesidades? Hall Hispanoamericana. México.
¿De qué forma los sistemas artificialmente Russell, S. (2003) Stuart Russell on the Future
inteligentes podrán acercar a los seres of Artificial Intelligence. Ubiquity (4-
humanos? 43). Publicación de la ACM. EEUU.
[citado: 27-11-2008] URL:
http://www.acm.org/ubiquity/interviews/v
Referencias Bibliográficas 4i43_russell.html
Shirai, Y. & Tsujii, J. (1982) Inteligencia
Escolano, F.; Cazorla, M.; Alfonso, M.; Colomina, Artificial: Conceptos, técnicas y
O. & Lozano, M. (2003) Inteligencia aplicaciones. Primera edición en
Artificial, Modelos, Técnicas y Áreas de español de 1987. Editorial Ariel. España.
Aplicación. Thomson Editores. España. Simons, G. (1983) Towards Fifth Generation
Leake, D. & Gary, J. (2008) The AI Landscape. Computers. The National Computing
En: AI Magazine, Vol 29, No 2, Summer Centre Limited. EE. UU. Edición en
Edition. Editada por: Association for the español de 1985. Editorial Diaz de
Advancement of Artificial Intelligence. Santos S.A. España.
[citado: 27-11-2008] URL: Taube, M. (1961) Computers and Common
http://www.aaai.org Sense: The Myth of Thinking Machines.
Luger, G. & Stubblefield, W. (1997) Artificial Columbia University Press, Nueva York.
Intelligence: Structures and Strategies EE. UU. Edición en español de 1971.
for Géminis Editora. Argentina.