VIDA
ARTIFICIAL
Este libro no podrá ser reproducido, ni total ni
parcialmente, sin el previo permiso escrito del
editor. Todos los derechos reservados.
Queda expresamente prohibida la utilización
o reproducción de este libro o de cualquiera
de sus partes con el propósito de entrenar
o alimentar sistemas o tecnologías de
inteligencia artificial.
© 2025, Eric Goles
Derechos exclusivos de edición:
© 2025, Editorial Planeta Chilena S.A.
Avda. Andrés Bello 2115, 8º piso, Providencia,
Santiago de Chile
Diseño de cubierta: Catalina Chung Astudillo
Diagramación: Ricardo Alarcón Klaussen
1ª edición: marzo de 2025
RPI: 2025-A-102
ISBN: 978-956-408-700-9
Impreso en: CyC Impresores Ltda.
VIDA
ARTIFICIAL
Un viaje personal
al corazón de las máquinas
Eric Goles
A mis nietos
Tomás y Maximilien.
Y dijo Dios: “Hagamos al hombre a nues-
tra imagen, conforme a nuestra semejanza;
y señoree en los peces del mar, en las aves de
los cielos, en las bestias, en toda la tierra, y
en todo animal que se arrastra sobre la tie-
rra”. Y creó Dios al hombre a su imagen, a
imagen de Dios lo creó; varón y hembra los
creó. Y los bendijo Dios, y les dijo: “Sean
fecundos y multiplíquense. Llenen la tierra
y sométanla. Señoreen en los peces del mar,
en las aves de los cielos, y en todas las bes-
tias que se mueven sobre la tierra”.
Génesis 1:26-28
Les dejo el código qr de mi canal
de YouTube @EricGolesOficial
Índice
Gracias por favores concedidos .................................................... 15
1. Vida artificial: a modo de prólogo ............................................ 17
2. Miss Ulam ................................................................................ 35
3. La mañana de los relojeros ....................................................... 39
4. El turco ajedrecista ................................................................... 41
5. Byron Babbage Byron .............................................................. 49
6. La manzana y la máquina ........................................................ 57
7. El cerebro artificial ................................................................... 65
8. El origen del orden .................................................................. 71
9. Computadores ......................................................................... 77
10. Autómatas celulares ............................................................... 85
11. Cristales vivos ........................................................................ 109
12. El replicador de von Neumann .............................................. 113
13. Hay alguien allá afuera ........................................................... 125
14. Los circuitos de Banks ........................................................... 135
15. El Juego de la Vida ................................................................ 143
16. Autómatas reversibles ............................................................ 149
17. Objetos Virtuales No IdentificadoS ........................................... 157
18. El gran teatro del mundo ....................................................... 183
19. Computación evolutiva .......................................................... 187
20. Hormigas artificiales .............................................................. 199
21. El último de nosotros ............................................................. 207
22. Porque sí ................................................................................ 219
Brevículos .................................................................................... 223
22 1. Vida artificial:
a modo de prólogo
La vida artificial es posible,
porque la esencia no reside en
su origen, sino en su capacidad
de adaptarse, evolucionar y
crear.
ChatGPT.
J ulien Offray de La Mettrie apenas se había le-
vantado esa mañana, cuando le avisaron que una
turba de energúmenos quemaba su libro y que ya lo
buscaban con la aviesa intención de que corriera la
misma suerte.
En su libro, El hombre máquina, publicado en
pleno siglo de las luces, afirmaba que el hombre
es justamente una máquina. En consecuencia, el
pensamiento era una propiedad de la materia, tan
natural como la dilatación térmica que sufren los
metales. ¿ Y el alma? Nada de alma, solo una especie
de sudor del cuerpo.
El hombre: una máquina. Idea, por cierto, en más
de un sentido, peligrosa.
En este libro presento una hipótesis semejante,
que sin ser una absoluta novedad es poco frecuente,
sujeto de controversias, ridiculizada y, en la actuali-
dad, si no peligrosa, ciertamente incómoda: La vida
artificial es posible.
No estoy pensando en el rabino de la sinagoga
de Praga que animó mediante símbolos cabalísticos
un monigote de barro o en el doctor Frankenstein
17
que fabricó la vida a partir de la electricidad y la carne muerta.
Tampoco pienso en autómatas de relojería o robots o en una mujer
imaginaria cantada por un poeta. No, nada de leyendas ni mons-
truos góticos salidos de un lúgubre laboratorio decimonónico ni
tecnología japonesa o poesía.
Nada de eso.
Matemática.
Pienso en matemática.
Cómo, desde los griegos, pasando por Galileo, Newton, Maxwell,
Einstein, hasta los más recientes avances de la computación y la
informática cuántica, la matemática sigue siendo el lenguaje en
que está escrito el libro de la naturaleza.
Formalismos y ecuaciones que sostienen e inventan el mundo.
Al menos hasta la década de los cuarenta esencialmente
mediante el cálculo diferencial e integral, creado por Newton y
Leibniz, que permite concebir lo infinitamente pequeño como una
posibilidad, lo que lleva a suponer, al aplicarlo al mundo físico, que
la naturaleza es continua y en consecuencia descrita y gobernada
por ecuaciones diferenciales.
Todo un éxito, aunque algo empañado por la aparente impo-
sibilidad de extrapolar dicha óptica a los avatares de la vida, de lo
orgánico. Por lo demás, antes de los cuarenta, no había muchos
científicos buscando modelos matemáticos de lo vivo.
Aunque en matemática, en el modo en que los matemáticos
miraban la disciplina, por razones del todo propias y completa-
mente ajenas al aparente fracaso de las “ecuaciones” en el mundo
biológico, a fines del siglo xix las cosas comenzaron a cambiar.
Aparte de razones filosóficas, quizás porque, muy sencillamente,
si la matemática aspiraba a ser la “reina de las ciencias”, respon-
sable nada menos que del lenguaje en que se escribía el libro de
la naturaleza, pues bien, había que precisarlo; estudiar la sintaxis,
sus posibilidades y sus límites. Sobre todo, convencerse de que era
correcto, que no llevaba a contradicciones, al error.
Eso querían dejar muy en claro el matemático David Hilbert
y su grupo de la Universidad de Gotinga.
Ilusos.
18
En 1930, en Viena, Kurt Gödel, un joven austriaco de veinti-
cuatro años, demostró que todo aquello era imposible: nunca en
nuestro universo (quizás en cualquiera) podría saberse si las reglas
del juego matemático están libres de contradicción.
No solo eso; apenas seis años más tarde, otro joven, también
de veinticuatro años, Alan Mathison Turing, hundió aún más el
cuchillo: existen (infinitas) afirmaciones para las cuales (de nuevo
en este universo) jamás sabremos si son verdaderas o falsas: son
indecidibles.
Desde entonces caminamos, construimos los cimientos del
universo, sobre arenas movedizas.
Sin embargo, maravillosa cosa rara, la matemática sigue fun-
cionando; si se caen algunos puentes o edificios es casi siempre por
estafas o falla humana, no porque colapsen las leyes de Newton.
Hay más, el lapidario resultado de Turing no se agota en la
indecidibilidad, también trajo consigo un objeto lógico tan im-
portante para la humanidad como el descubrimiento del fuego o
la rueda y, a la vez, tan inquietante y peligroso como
el monstruo engendrado por el doctor Frankenstein:
Turing concibió el esqueleto lógico y el modo de
operar del computador, de cualquier computador.
El computador de Turing, tal como los actuales,
consideraba una lista finita de instrucciones, estados,
números y símbolos, que se leían e imprimían sobre
una cinta de papel dividida en celdas. Una máquina
de naturaleza discreta en el tiempo y en el espacio1.
Por ello, el paradigma de un universo continuo
comenzó a cambiar.
1. En matemáticas, espacio discreto y tiempo discreto son conceptos relacionados con
sistemas donde las variables o los eventos están definidos en valores separados y no
son continuos. En cuanto al espacio (discreto) se entiende como un conjunto de
puntos separados entre sí, sin puntos intermedios entre dos consecutivos. En cuanto
al tiempo (discreto) me refiero a un modelo donde los eventos o estados del sistema
se definen en intervalos de tiempos separados, instante 1, 2, 3, etcétera. A diferencia
del tiempo continuo, no se considera lo que ocurre entre esos instantes de tiempo;
por ejemplo, en este contexto, no tiene sentido referirse al evento del instante 2,3.
19
Para muchas, si no la mayoría, de las ecuaciones de la física,
no hay soluciones exactas, me refiero a fórmulas, como la que
aprendimos en el liceo para determinar las raíces de una ecuación
de segundo grado. De modo que se resuelven mediante tanteos,
aproximaciones, lo que significa cientos, miles, a veces millones de
cálculos numéricos. Para tal efecto, es crucial el uso de computa-
dores que en lugar de resolver el problema en el espacio continuo
lo discretizan, aproximando las ecuaciones sobre una grilla como
la que figura a la derecha del texto.
A fin de hacer esto de manera eficiente se inventaron lenguajes
para “conversar” con el computador y las ecuaciones fueron rempla-
zadas por listas de instrucciones que llamamos programas. Y esto
es importante, pues permitió asociar las ecuaciones clásicas con un
objeto nuevo, los programas. Un cambio, digamos, epistemológico:
diversos fenómenos físicos modelados por ecuaciones diferenciales es
posible representarlos directamente por un programa (un conjunto
de instrucciones ejecutables y comprendidas por un computador).
Lo cual es algo paradójico: desde Newton se asume que el es-
pacio es continuo; hipótesis del todo adecuada para las ecuaciones
diferenciales derivadas de la física. No obstante, en la mayoría de
los casos esas ecuaciones no tienen soluciones analíticas (fórmulas)
y la única manera de resolverlas es mediante el uso de un compu-
tador; discretizar el espacio, convertirlo en una grilla y resolver el
problema considerando solo un conjunto finito de números (no
mayores de lo que permite la memoria del computador).
¿Por qué no, entonces, olvidarse de las ecuaciones diferenciales
y adoptar derechamente el espacio discreto?
Tampoco nada demasiado novedoso, ya en el siglo v a. C., los
filósofos griegos Leucipo y Demócrito, para refutar la negación
del movimiento defendida por la escuela eleata, postularon que
el universo estaba compuesto de átomos (partículas indivisibles)
moviéndose al azar en el vacío, como las motas de polvo iluminadas
por un rayo de sol. Y nada nuevo parece haber justamente bajo el
sol pues, casi veinticuatro siglos más tarde, comenzó de verdad a
desenredarse la madeja. Aparece la teoría atómica de Dalton, la
mecánica cuántica y los descubrimientos de más y más partículas
20
elementales, hasta el presente. Así, muchas situaciones físicas que
nos parecen continuas tienen una clara raíz discreta; por ejemplo,
la temperatura que medimos (en apariencia) de manera continua,
es el resultado del deambular y chocar de innumerables partículas
o moléculas de un gas. Las variables y ecuaciones macroscópicas
de la termodinámica son solo el resultado del promedio de las
velocidades y azarosos choques de partículas2.
Luego, la naturaleza, a pesar de las apariencias, es discreta y el
cálculo diferencial, al aplicarse al espacio físico, es una idealización.
No funciona en un colador. El espacio está lleno de hoyos.
Otro paso hacia la discretización (y desde la biología) lo dieron
el neurofisiólogo Warren McCulloch y el genial adolescente Walter
Pitts, quienes, en los años cuarenta, inspirados por el intento de
Bertrand Russell y Alfred Whitehead de reducir la matemática
a la lógica y en la máquina universal (el computador) de Turing,
concibieron un cerebro artificial como una red de neuronas repre-
sentadas por funciones lógicas con respuestas de todo o nada; 0
o 1, de acuerdo a si la suma ponderada de sus entradas (sinapsis)
supera un valor umbral. Un cerebro discreto, no continuo. Y, a pesar
de la escasez de números (solo dos: 0 o 1), demostraron que podía
realizar todo lo que hacía el computador propuesto por Turing.
Ya estaba en el aire que lo más complejo concebido por el ser
humano era un computador.
Y el cerebro artificial podía hacer lo mismo que un computador.
¿Nosotros, sus creadores, podíamos hacer más? Pregunta que comen-
zaba ya a dar vueltas y que yo, parcialmente, retomo en este libro.
Pero volvamos al cerebro artificial.
Aunque Pitts, años más tarde, deprimido y alcoholizado, aban-
donó la partida, las redes de neuronas artificiales siguieron progre-
sando. A fines de los sesenta, Warren McCulloch, conjuntamente
con un joven médico, Stuart Kauffman, extendieron el modelo al
estudio, no ya de las funciones lógicas específicas que definían las
neuronas artificiales sino a cualquier función lógica.
2. En un mol (un volumen muy pequeño) de sustancia hay 6,02214076 x 1023 partículas o
moléculas. El universo en una gota de agua, diría el poeta William Blake, refiriéndose
al número de Avogadro.
21
En 1969 Stuart Kauffman publicó su célebre artículo asocian-
do la dinámica de esas redes a la interacción entre genes y a los
diferentes tipos de células que tienen los organismos3.
Otra vez aparecía la relación entre vida, programas e informa-
ción. Como el rabino de Praga seguíamos buscando las palabras y
los símbolos para crear la vida.
Volviendo a los cuarenta, el cerebro artificial impresionó muchísimo
a John von Neumann, que a pesar de haber trabajado con el grupo
de Gotinga y conocedor de los trabajos de Gödel y Turing, prefería
los modelos continuos. Por ese entonces, von Neumann trataba
de resolver las ecuaciones diferenciales asociadas a la explosión
de la bomba atómica, para las cuales, qué duda cabe, no existían
soluciones analíticas, fórmulas. Había que resolverlas en un com-
putador y los existentes eran rudimentarios, poco confiables y con
una arquitectura muy dependiente de la electrónica de la época.
Von Neumann, inspirado en las neuronas artificiales de
McCulloch y Pitts y, sin duda, en los trabajos de Turing, concibió
un modelo general partiendo desde el diseño lógico y no de la
tecnología. No solo eso; la electrónica de la época no era de lo
mejor, los tubos de vacío, imprescindibles para hacer los circuitos
del computador, se quemaban a cada rato. Por ello, von Neumann
buscó la manera de que la máquina funcionara correctamente, sin
descomponerse todo el tiempo, incluso con unidades deficientes.
Calcular a pesar de las fallas, autorrepararse. Y si se habla de
autorreparación, pues el ejemplo son los organismos que, a pesar
de sufrir fallas o heridas, se reparan. Es más, se reproducen y se
copian. Por ahí tenía que buscar. Un artefacto capaz de replicarse.
Por cierto, acostumbrado a las “exitosas” ecuaciones diferenciales,
trató infructuosamente de construir un modelo continuo. Hasta
que por sugerencia de su colega y amigo, el matemático Stanisław
Ulam, adoptó el modelo discreto de crecimiento de cristales que
este había simulado en el computador Maniac de Los Álamos.
A partir de esta idea concibió un artefacto formal de veintinueve
3. Kauffmann, Stuart. “Metabolic stability and epigenesis in randomly constructed
genetic nets”, Journal of Theoretical Biology, 22(3), 1969, pp. 437-467.
22
estados que evolucionaba en una grilla y que se iba copiando a sí
mismo. Todavía sin nombre, se trataba de un autómata celular. El
primero de ellos4.
Más allá de lo engorroso del sistema elaborado por von Neu-
mann, lo importante es que mostró que era posible modelar ma-
temáticamente la reproducción y la copia. No solo eso, ¡de manera
discreta, en una grilla, mediante un programa! No había ecuaciones
como la célebre F = ma, solo un listado de instrucciones que se
ejecutan en un computador.
Nada tan extraordinario, pensamos hoy, sabiendo que la repro-
ducción de todos los organismos se basa en la copia de la molécula
del adn, formada solo por cuatro bases químicas, adenina, citosina,
guanina y timina; digamos, A, C, G, T, cuatro símbolos5.
A veces, en matemática, para demostrar una conjetura lo que
se hace es generalizarla, colocarse en un horizonte más amplio. Así
puede ser interpretado entonces lo que afirmó en 1967 el ingeniero
alemán y primer constructor en 1941, en los inicios de la Segunda
Guerra Mundial, de un computador programable, Konrad Zuse.
Que no se refirió a la vida ni a los mecanismos de reproducción,
sino al universo (sí, bien digo, el universo): el universo, según el
ingeniero Zuse, era una descomunal red de computadores.
El cosmos ejecutado por un desmesurado programa, respon-
sable desde el ínfimo choque de un par de partículas, pasando por
el quehacer de un hormiguero, el ronroneo de un gato, hasta las
fuerzas pantagruélicas del colosal hoyo negro que se come la galaxia.
No solo eso; en su libro Calculating Space (1969), el ingeniero Zuse
es todavía más radical: el supuesto programa del universo sería un
autómata celular, como el modelo reproductor de von Neumann.
4. Un autómata celular consiste gruesamente en un tablero (grilla como la del ajedrez
o el Go), un número finito de estados que pueden ocupar cada casilla y una regla
de cambio de estados que depende, para cualquier casilla, de un conjunto de casillas
vecinas. La regla se aplica simultáneamente a todas las casillas de la grilla. No se
preocupen, volveré al tema, y latamente, en capítulos ulteriores.
5. Pero lo que sí es sorprendente es que, cuando von Neumann trabajó en el modelo
a fines de los cuarenta, poco se sabía del adn, menos aún de cómo se copiaba. Solo
en 1953 la estructura fue dilucidada por Watson y Crick.
23
Loca posibilidad. Ni tanto. Si de ciencia se trata, en buena hora,
ideas locas, siempre las hay y las habrá, aún más desquiciadas. Así,
de repente, salta la liebre y las cosas progresan6.
De hecho, la misma idea inundó el caletre de otro visionario
de la computación, el piloto de combate y programador Edward
Fredkin. Y de un modo más dramático, un poco conspiracionista,
sin duda hollywoodense: algo o alguien simula el universo. Somos
el producto de una simulación. Simples avatares de una especie de
juego de video, diríamos hoy. Como en una novela de Philip K.
Dick. Una Matrix con décadas de anticipación.
Y si bien es cierto esta idea ha inspirado novelas y películas de
ciencia ficción, también la sostienen o la discuten en la actualidad
filósofos y científicos7.
Una de las primeras objetos imaginarios que descubrió
Fredkin en este contexto, sin duda inspirado por el modelo de
von Neumann, fue un autómata celular reproductor muchísimo
más simple, solo con dos estados. Por desgracia incontinente:
copiaba, reproducía, cualquier configuración. Además no era
universal —capaz de emular un computador. Le encargó enton-
ces la tarea a Roger Banks, estudiante doctoral que determinó un
método para construir autómatas celulares universales. En especial
uno con dos estados, aunque mucho menos célebre que el Juego
de la Vida de Conway, también universal y con dos estados, que
apareció más o menos al mismo tiempo8.
Estaba entonces probado que existían programas basados
en autómatas celulares que podían hacer todo lo que realizaba
un computador. Es más, en el caso de Banks, también con su
6. Esto me recuerda una anécdota. A mediados de los ochenta, en la Escuela de Inge-
niería de la Universidad de Chile un colega me comentó, irónico, que fulano perdía
el tiempo frente a la pantalla de su estación de trabajo simulando la vida. ¿Y si da
en el clavo?, le retruqué.
7. Ver artículo “La thèse de l’illusion se précise”, J. P. Delahaye, Pour la Science, Septiem-
bre, 2024. O el artículo de N. Bostrom, “Are we living in a computer simulation?”,
The Phylosophical Quartely, 2003.
8. El Juego de la Vida tiene dos estados, 1 y 0 (vivo, nada) y una regla tomando en
cuenta los ocho vecinos inmediatos en una grilla: Un estado en 0 nace (pasa a 1) si
en la vecindad hay exactamente tres celdas vivas (en estado 1). Una celda viva (en
1) sigue viva si en la vecindad hay dos o tres celdas vivas (en 1). La regla se aplica
simultáneamente a todas las casillas del tablero. Volveré en capítulo ulterior.
24
metodología, podía adaptarse de manera simple para, además de
universal, ser reproductor. Avances que no eran en absoluto sufi-
cientes para aplacar la obsesión de Fredkin. Le preguntó entonces
a su colega John McCarthy9 cómo podría descubrirse si alguien
o algo simulaba el universo. McCarthy, impertérrito, le respondió
que, si algo o alguien nos estaba simulando mediante un programa,
bastaba encontrar los errores de redondeo. Ese algo o alguien se
delataría por los errores de redondeo10. Pero ¿qué serían los errores
de redondeo alienígenas?
¿Errores de la “realidad”, los déjà vu, como el gato de la película
Matrix?
¿La fuerza de gravedad? ¿Un desecho, un error de redondeo?
Fredkin sabía que los computadores disipan energía, se calientan
con los cálculos, al punto en que, con los primeros, había que tra-
bajar en traje de baño. Y estaban lo errores numéricos de redondeo;
todos esos bits, transformados en calor quizás, temperatura que se
podía medir. Tampoco nada raro, el resultado de una ley universal,
el famoso segundo principio de la termodinámica11. Quizás a eso
se refería McCarthy, pero Fredkin no era de los que se andan con
chicas, así que no fue nada raro que le diese otra vuelta de tuerca
a su obsesión mental: si se trataba de “errores de programación”
o “algo” perdido en los cálculos, quizás tenía que ver con energía
disipada, con el segundo principio, que como era universal debería
funcionar igual aquí y en la quebrada del ají: ¡también para los
computadores alienígenas!
No necesariamente.
Porque si ese algo o alguien que nos simulaba poseía una tec-
nología superlativa, como para no disipar la más miserable gota
de energía, capaz de suprimir los errores de redondeo, entonces no
dejaría huellas. Un programa y un computador donde cada cálculo
sería de precisión total y reversible; en cada operación no se perdería
9. John McCarthy, creador del lenguaje lisp y del término “inteligencia artificial”, ia.
10. El resultado de una operación aritmética entre números almacenados con precisión
finita.
11. El calor fluye de la fuente caliente a la fuente fría. No existe ninguna máquina de
rendimiento perfecto, siempre se disipa, se pierde energía, el desorden, la entropía,
siempre aumenta.
25
nada, siempre sería posible volver atrás en los cálculos, asunto
corroborado por innumerables leyes físicas que sí son reversibles.
¿Qué hacer entonces? Determinar ese hipotético programa o
autómata celular era como buscar una aguja en un pajar. Y qué pajar,
¡de dimensiones cósmicas! La alternativa era estudiar matemática-
mente la posibilidad de construir un computador reversible. Si no se
podía, bueno, algo habría avanzado, estaría más tranquilo, alejando
la posibilidad de ser un mero avatar en un juego computacional.
Y para analizar la reversibilidad de los computadores, como están
formados por circuitos, bastaría ver si era o no posible construir
circuitos reversibles. Y lo hizo, creando un circuito reversible uni-
versal, en el sentido de que a partir de él se podía armar cualquier
otro. No solo eso; a mediados de los ochenta, junto con Tommaso
Toffoli, pergeñó un billar teórico que mediante las colisiones de
pelotas ideales, en ausencia de roce, permitía simular su puerta
reversible universal. Luego, ese billar teórico no disipaba ninguna
energía, no había errores de redondeo.
Esas pelotas de billar artificiales —tiene que haber pensado
Fredkin— representaban las verdaderas partículas, los ladrillos
fundamentales del universo. Como, además, conjeturaba que el
programa que manejaba el universo era un autómata celular, le
encargó a otro alumno doctoral, Norman Margolus, transformar
el modelo del billar en un autómata celular reversible.
Y lo logró.
Cierto, no se trataba de un artilugio capaz de simular el universo
pero iba en la buena dirección. Al menos, era un buen candidato
para remplazar las ecuaciones diferenciales y su discretización
(que llevaba a la pérdida de precisión y a los errores de redondeo)
directamente por aquel billar computacional.
Era un logro interesante, pero si nosotros éramos capaces, aquí,
en un pinche planeta en los suburbios de la galaxia, de construir
un computador reversible, ¿por qué no podrían hacerlo allá afuera?
Nada todavía de lo que había avanzado podía despejar la
posibilidad de una simulación alienígena —debe haber pensado
Fredkin—.
26
Fui testigo de parte de esta aventura a mediados de los ochenta,
época en que frecuenté el Grupo de Mecánica Computacional
dirigido por Fredkin en el Laboratorio de Inteligencia Artificial
del Instituto Tecnológico de Massachussets, mit.
Ahí me encontré con Stephen Wolfram. Es más, compartimos
oficina. Un genio. A los dieciséis años publicó su primer artículo, a
los veinte obtuvo su doctorado en Caltech, la beca MacArthur y un
posdoctorado en el Instituto de Estudios Avanzados de Princeton.
Venía de Princeton al Laboratorio de Inteligencia Artificial
para programar autómatas celulares en el computador paralelo
más poderoso del planeta, la Thinking Machine.
Wolfram redescubrió los autómatas celulares en esos años.
Aparte de las conjeturas y afanes de Fredkin, el Juego de la Vida
inventado por Conway y un puñado de entusiastas como yo, po-
cos se interesaban en el tema, la teoría languidecía, los autómatas
celulares estaban por el suelo. De ahí los recogió Wolfram. Y, buen
físico que es, no entró en el tema, como von Neumann o Fredkin,
tras un autómata en particular, con un funcionamiento específico.
Los estudió todos, programándolos en el computador, partiendo
por los más simples (que ya son bastantes), y catalogándolos en
cuatro clases de complejidad.
Y hasta por ahí, digamos hacia fines de los ochenta, llegó la
primera fase pública del millonario físico12, que pasaría la próxima
década lejos de la academia, de las conferencias y no publicaría nada.
Durante todo ese tiempo no se anduvo con pequeñeces; como
dijo en una entrevista, se dedicó a pensar el universo y toda aquella
larga y solitaria reflexión la plasmó en un libro de 1927 páginas
(sin contar el índice), A New Kind of Science, publicado el 2002.
Parecido a Zuse y Fredkin, aunque no sostiene la hipótesis de que
12. Millonario, pues creó el software Mathematica orientado a resolver algebraicamente
(cálculo simbólico) problemas matemáticos. En 1986, luego de una de mis estadías
en el Laboratorio de Inteligencia Artificial del mit, lo invité a Chile. Me agradeció
y me dijo que, en principio aceptaba, pero que, a lo mejor, no podría porque tendría
que dedicarse a administrar su fortuna. Como en septiembre de ese año me telefoneó
(los mails aun no eran la norma) diciéndome que no podría visitarme porque efec-
tivamente era millonario. Poco después leí en Fortune que su empresa de software,
Wolfram Research, estaba entre los cien emprendimientos más prometedores del
año. Y se forró.
27
somos simulados, afirma que el universo es programable: cada
fenómeno que observamos en la naturaleza está producido por la
ejecución de programas simples13.
Es más, fruto de billones de simulaciones de objetos discretos
(muy en particular, autómatas celulares), de la lectura de miles (sí,
miles) de libros y artículos y, por cierto, de conversaciones con una
vasta cornucopia de científicos y (aunque sea redundante) de gente
rara, concluyó que las complejidades observables, por ejemplo, en
un hormiguero, un cerebro, un computador o en algunos progra-
mas simples como sus autómatas celulares, son todas equivalentes.
Por cierto, el universo no escapa al paradigma: por complejo que
parezca, no lo es más que la dinámica de programas relativamente
simples. Y, claro, de ser así, tal como Einstein acotó la velocidad
máxima en el universo por la de la luz, dado que, según Wolfram,
todo evento natural es un programa, la máxima complejidad al-
canzable en nuestro cosmos es la de un computador.
No solo eso; frente a tan (aparentemente) desaforada afirma-
ción, la vida (la de cualquier organismo, en particular nosotros, los
orgullosos cerebros grandes) es solo un montón de información
organizada en un conjunto de programas ejecutados de manera
paralela y distribuida.
Otro de los méritos de las afirmaciones de Wolfram es que
contribuyó decididamente a establecer la complejidad como una
noción clave, ineludible, prácticamente en todas las disciplinas. Con
una mirada holística, entender el todo como una emergencia de la
interacción de las partes, más que el comportamiento particular
de cada una de ellas.
Estamos acostumbrados a las explicaciones reduccionistas. De
arriba abajo. Para entender el funcionamiento del todo estudiamos
sus partes y, según el comportamiento de las partes, volvemos al
todo. Como ocurre con un auto, si está descompuesto, buscamos
la pieza que falla. Lo que no ocurre, por ejemplo, con nuestros
cerebros grandes; el recuerdo de mi abuelita está diseminado en
13. ¿Suena raro? Tanto o menos raro que afirmar, desde Galileo, que la naturaleza se
escribe con matemática.
28
una vasta red de neuronas; no basta analizar una de ellas y sus
sinapsis, incluso varios cientos o millones, para determinar dónde
está alojado su recuerdo, apañándome cuando sufría de alergia o
con las rodillas rasmilladas el día que se cayó. No está en una sino
en muchas partes de mi red neuronal. No soy un auto, no basta
“cambiar una pieza”, extraer aquel pedacito de mi sistema nervioso
para olvidarme de ella o de ese amor que sigo recordando, que me
seguirá doliendo.
Todos esos recuerdos, buenos o malos, están diseminados en
mi red neuronal.
Similar a lo que sucede en un hormiguero: por más que elimine-
nos decenas o cientos de hormigas, sigue ahí, vuelve a organizarse,
persiste.
Lo mismo ocurre con varios de los autómatas celulares descu-
biertos por Wolfram. Partes muy simples y comportamiento global
(del todo) extraordinariamente complejo.
Azaroso, impredecible, indecidible.
En matemática podemos hablar de los sistemas simples (aque-
llos como un auto, un televisor, un avión) y los complejos (un
hormiguero, la sociedad, un sistema nervioso) como lineales y no
lineales, respectivamente.
Para los primeros (lineales) basta estudiar las partes que, su-
perpuestas, determinan el comportamiento del todo.
Para los sistemas no lineales, el principio de superposición no
funciona; no basta el conocimiento de las partes para explicar el
todo. En esta categoría cae la mayoría de los fenómenos naturales
que todavía no comprendemos, muy en particular los biológicos.
Durante siglos la biología se ha preocupado de estudiar, de
entender las partes de un organismo. Es decir, aplicar el conocido
y exitoso método reduccionista, paradigma que es evidente, por
ejemplo, en la medicina, dividida en especialidades. Óptica que
se reflejaba en los artículos de divulgación médica de la revista
Reader's Digest que leía en mi infancia: Yo soy el riñón de Pedro,
yo soy el ojo de Pedro; el corazón, el hígado, el dedo meñique, la
muela de Pedro.
29
Aparte de familiarizarme con enfermedades específicas del
órgano en cuestión14 poco avanzaba en el conocimiento del Pedro
entero, que, como todo organismo, no termina de explicarse por
el funcionamiento de cada una de las partes. Su ser, su quehacer,
emerge en la conjunción de todas ellas.
Pedro es, como todo ser vivo, la increíble emergencia de un
sistema complejo.
De allí que a fines de los ochenta aparezca el paradigma de
los sistemas complejos (no lineales) y en ese contexto el interés
por los temas como los que nos ocuparán en este libro, redes de
funciones lógicas, autómatas celulares y vida artificial (Artificial
Life, ALife). Apelativo propuesto por Christopher Langton, que
aparte de bautizar la disciplina propuso, como ejemplo de vida
artificial, una hormiga computacional muy simple, cuyo paseo por
una grilla es extraordinariamente complejo, de hecho universal, en
el sentido de simular un computador15.
No obstante, con razón, usted lectora o lector podría (debería)
objetar, entre otras cosas, que, claro, se han inventado modelos
formales de autómatas celulares y otros artilugios capaces de re-
producirse, pero son juguetes. Los seres vivos no solo hacen eso
sino que van cambiando, mutando, alterándose. Haciéndose, en
apariencia, más y más complejos.
La complejidad.
Ya lo había observado el mismo von Neumann que, luego de
definir las reglas de su autómata autorreproductor, se preguntó
cómo ir dotando las copias de mayor complejidad que los padres.
Mediante mutaciones, se dijo, como en la naturaleza.
No alcanzó a hacerlo. Murió antes, de cáncer ramificado. Pero
tenía toda la razón, eso había que hacer, formalizar matemática-
mente los procedimientos de la selección natural que operan hace
más de 3.500.000.000 de años.
14. Que las hay. Y muchas. El glaucoma ocurre en el ojo, la enfermedad coronaria radica
en el corazón. Presas que, en este caso, no son de ese Pedro del Reader's Digest, hecho
de letras, sino del mortal Goles que soy.
15. Gajardo, Anahí; Moreira, Andrés y Eric Goles. “Complexity of Langton’s ant”,
Discrete Applied Mathematics, 117 (1-3), 2002, pp. 41-50.
30
Es lo que hizo el psicólogo e informático John Holland a
mediados de los setenta inventando los algoritmos genéticos o
evolutivos, introduciendo el azar en el diseño ingenieril, informático
y matemático, muy en particular en los autómatas celulares y en la
denominada vida artificial16.
A comienzos del 2023, vi la serie de televisión The Last of Us17.
Un escenario apocalíptico, los humanos transformados en simples
portadores, vehículos, para la propagación de una mutación del
hongo cordyceps. Información que no tendría nada que hacer aquí
si tres años antes, en febrero del 2020, no hubiese estado de visita
en el Laboratorio de Computación No Convencional de la Uni-
versidad del Norte de Inglaterra, en Bristol.
Mientras se incubaba la pandemia (nadie todavía hacía mucho
caso), junto con mi colega y anfitrión Andy Adamatzky estudiá-
bamos las posibilidades de calcular con hongos. Construir com-
putadores, al menos circuitos lógicos, con hongos.
Y se puede. Andy lo probó mediante hermosos experimentos.
A partir de estos experimentos, determinamos un modelo
teórico basado en la manera en que los hongos intercambiaban
información, los autómatas celulares compartimentados (fungal
automata). Que para algunas reglas muy simples alcanzan la máxima
complejidad: capaces de construir cualquier circuito y, por ende,
simular un computador18.
Y hasta ahí nomás llegamos. A fines de marzo de ese año la
pandemia estaba desatada y tuve que regresar en el último vuelo
British Airways, con destino a Santiago de Chile, el 22 de marzo
del 2020.
Apenas llegué cerraron el aeropuerto de Santiago, luego la
ciudad y el planeta. Prácticamente todos nos confinamos. Como
16. Holland, John. Adaptation in Natural and Artificial Systems. mit Press, 1975.
17. Que, además, tiene como protagonista a un compatriota. Situación perfecta para
que un buen guion, sazonado por nuestra necesidad de que se nos reconozca en el
planeta, nos dejara pegados a la pantalla.
18. Goles, Eric; Antisthenis-Tsompanas, Michail; Adamatzky, Andrew; Tegelaar, Martin;
Wosten, Han y Genaro Martínez. "Computational Universality of fungal sandpile
automata". Physics Letters A, vol. 384, issue 22, August 2020.
31
tantas especies de hongos que, cuando todo va mal, se encapsulan
a la espera de mejores condiciones.
De todo esto trata este libro. De variados insumos, disciplinas
y modelos que he conocido o inventado.
Un viaje personal al corazón de las máquinas.
Llevándome a sostener que la vida artificial es posible. Y, claro,
antes de que me lo pregunten, la inteligencia artificial ciertamente
es una consecuencia19.
Como diría el iluminado (y malogrado) de La Mettrie, la vida
no es solo asunto de un sustrato biológico o de la química del car-
bono; puede ser artificial, construida a partir de programas, redes
de autómatas y otros materiales teóricos y físicos que todavía no
vislumbramos. Y, claro, nada de alma.
¿Y el pensamiento?
Sudor de metales, circuitos y programas.
¿Y llegaremos a eso? ¿Goles no estará difariando?, se preguntarán.
Bueno, no voy a hacer espóiler. Según las reglas de la ficción los
culpables se conocen al final, así que colóquenle algo de suspenso
al asunto y esperen hasta el epílogo.
Antes de cerrar esta breve introducción, algunas precisiones sobre
el texto. Se puede leer de varias maneras; entre otras, hojeándolo,
leyendo un capítulo, algún encuadre, mirando imágenes. También
capítulo a capítulo, saltándose detalles técnicos (que no son mu-
chos) y sin leer las notas (“Brevículos”, como las llamo). O bien,
leérselo todo.
Ninguna lectura es mala. Es más, recomiendo las tres. O la que
a ustedes mismos les acomode. Pero lean.
Los “Brevículos” al final del libro son, tal vez, mis “errores de
redondeo”, lo que no quedó en el texto, lo disipado. Que recupero
en esas páginas. A veces me entusiasmo dejándome llevar por
alguna divagación o cálculo (qué le voy a hacer, entre otras cosas,
19. Ojo, de manera seria, no chanta como esas publicidades que hablan de “inteligencia
artificial” en una lavadora de platos, en la concepción de un cereal, hasta en el váter,
demonizándola o vindicándola como si fuese un “algo” o un “alguien”, como si ya
tuviese conciencia. Cháchara y más cháchara, sin tener idea de qué se trata.
32
soy matemático). No se asusten con los cálculos, son fáciles y es
bueno que se animen con algunos de ellos. Así van a entender
de verdad qué son los circuitos lógicos o los autómatas celulares.
¡Jueguen con alguna regla! Es menos complicado que un sudoku.
En cuanto a la redacción. Soy algo barroco, amaso y amaso. Vuelvo
una y otra vez sobre conceptos y definiciones. De hecho, esta in-
troducción es una suerte de resumen, muy grueso, de buena parte
de lo que figura en el libro. Algo del profesor que he sido hay en
eso de reiterar las cosas, machacarlas (como yo mismo lo hago en
mi sesera). Para entenderlas mejor, diría.
Para que las entiendan mejor.
Además, para que usted lectora o lector no tenga a cada rato
que volver atrás buscando alguna cosa que ya leyó y olvidó.
Y si se animan, vayan al canal de YouTube, @EricGolesOficial,
donde encontrarán explicaciones sobre varios capítulos del libro.
Pero basta de cháchara. Vengan conmigo. Ya es hora de que
conozcan a mi casera en Cambridge, Massachussets, miss Ulam.
33