Una 'app' desarrollada por Gamalon reconoce objetos tras ver tan sólo un par de ejemplos.
Un
programa de aprendizaje reconoce conceptos más sencillos como líneas y rectángulos.
Crédito: Cortesía de Gamalon.
El aprendizaje automático se está volviendo extremadamente potente, pero para resultar útil
todavía depende de enormes cantidades de datos.
Ya es posible entrenar un algoritmo de aprendizaje profundo para que reconozca un gato con
el mismo nivel de precisión que un amante de la especie. Pero para ello debe ser alimentado
con decenas o incluso cientos de miles de imágenes de felinos para entender su gran
variación de tamaños, formas, texturas, iluminaciones y orientaciones. Una estrategia más
eficiente consistiría en que, igual que hacen las personas, los algoritmos se hicieran su propia
idea de los elementos que hacen que un gato sea un gato, lo cual necesitaría muchos menos
ejemplos.
Una start-up de Boston (EEUU) llamada Gamalon ha desarrollado una tecnología capaz de
hacer justo esto en algunas situaciones, y ha lanzando dos productos basados en este
enfoque.
Si la técnica consigue ser aplicada a más escenarios, su impacto podría ser enorme. La
capacidad de aprender a partir de menos datos podría permitir que los robots exploren y
comprendan nuevos entornos muy rápidamente, y que los ordenadores aprendan nuestras
preferencias sin necesidad de compartir nuestros datos.
Gamalon emplea una técnica que denomina "síntesis de métodos Bayesianos" para
desarrollar algoritmos capaces de aprender a partir de menos ejemplos. La probabilidad
Bayesiana, nombrada por el matemático Thomas Bayes del siglo XVIII, proporciona un marco
matemático para refinar predicciones sobre el mundo basadas en la experiencia. El sistema
de Gamalon utiliza la programación probabilística (o código que considera probabilidades en
lugar de variables específicas) para desarrollar un modelo predictivo que explique un conjunto
de datos específico. Con sólo un par de ejemplos, el programa probabilístico es capaz de
determinar que es muy probable que los gatos tengan orejas, bigotes y cola. A medida que
recibe más ejemplos, el código se reescribe de acuerdo a las nuevas probabilidades. Esto
proporciona una excelente manera de aprender la información principal de los datos.
Las técnicas de programación probabilística existen desde hace tiempo. En 2015, por
ejemplo, un equipo del Instituto Tecnológico de Massachusetts (MIT, EEUU) y la Universidad
de Nueva York (EEUU) utilizó métodos probabilísticos para que los ordenadores aprendiesen
a reconocer caracteres escritos y objetos tras observar un único ejemplo (ver Nace el
ordenador capaz de leer un texto escrito a mano). Pero el enfoque no ha pasado de mera
curiosidad académica.
Este enfoque se enfrenta a algunos retos computacionales, ya que el programa debe
considerar muchas explicaciones posibles distintas, señala el investigador de la Universidad
de Nueva York Brenden Lake, quien lideró el trabajo de 2015.
Aun así, según Lake, en teoría el enfoque tiene mucho potencial porque puede automatizar
aspectos del desarrollo de un modelo de aprendizaje automático. "La programación
probabilística hará que el aprendizaje de máquinas resulte mucho más fácil para
investigadores y desarrolladores", afirma Lake. "Tiene el potencial de encargarse de las partes
difíciles [de la programación] de forma automática", añade.
Desde luego existen importantes incentivos para desarrollar enfoques de aprendizaje
automático más fáciles de utilizar y que requieran menos datos. El aprendizaje automático
actual incluye adquirir un gran conjunto de datos brutos que a menudo deben ser etiquetados
a mano. Y para ejecutarlo, son necesarios grandes centros de datos con procesadores
informáticos que trabajan en paralelo durante horas o días. "Sólo hay un puñado de empresas
lo suficientemente grandes como para permitirse hacerlo en serio", señala el cofundador y
CEO de Gamalon, Ben Vigoda.
En teoría, el enfoque de Gamalon también podría facilitar la creación de un modelo de
aprendizaje automático. Perfeccionar un algoritmo de aprendizaje profundo requiere una gran
cantidad de experiencia matemática y de aprendizaje automático. "Hay algo de magia negra
en las labores para configurar estos sistemas", dice Vigoda. Con el enfoque de Gamalon, un
programador podría entrenar un modelo mediante ejemplos significativos.
El mundo de la inteligencia, la producción de información útil orientada a la toma de
decisiones en seguridad nacional, no podrá mantenerse aislado, en los próximos años, del
impacto por la revolución tecnológica, que afecta a todos los estratos de la sociedad humana.
Por mucho que las organizaciones y su cultura traten de preservar ciertos valores (el control,
la jerarquía, principio de autoridad, el secreto…) sólo aquellas que se adapten, es decir que
transformen sus valores, a los cambios y sepan romper las viejas reglas podrán sobrevivir.
Tal y como señala Edward Lucas en su último libro (Spycraft rebooted: how technology is
changin espionaje), “las agencias de inteligencia deben adaptarse a los cambios o arriesgarse
a la irrelevancia”. La inteligencia basada exclusivamente en la cognición humana se está
convirtiendo en algo demasiado costoso y, en cierto modo, anacrónico. Las identidades
encubiertas que en el pasado representaban el principal activo pueden ser descubiertas, a
partir de la tecnología, en cuestión de minutos. La prospectiva, basada exclusivamente en el
juicio de un “experto” tiene los días contados.
El siguiente artículo pretende vislumbrar en el futuro incierto de la inteligencia un motivo de
esperanza para los que, como el autor, siguen creyendo en que, a pesar de los cambios
tecnológicos, el factor humano seguirá siendo un factor decisivo en la producción de
inteligencia. Máxime en un momento de la evolución de la Inteligencia Artificial permite ya
prescindir del conocimiento humano, que, en algunos casos se considera un lastre. Lo será,
en mi opinión, si el analista de inteligencia se adapta y evoluciona abrazando el cambio en
lugar de resistirse desde el rechazo y la conservación del statu quo.
Para lograr el salgo cognitivo que representa complementar (no sustituir) la inteligencia
humana, será necesario un cambio cultural y organizativo. Un cambio que permita a las
organizaciones invertir y explotar las capacidades de su personal desarrollando soluciones
que respondan a las necesidades del analista en lugar de adquirir tecnología que legitime la
preservación de la cultura de la organización. Si seguimos la analogía que compara a las
organizaciones con los organismos vivos sometidos al dictamen de la selección natural sólo
aquellas que se adaptan a los cambios ambientales al menor coste lograrán prosperar. A
pesar de que la evolución haya improvisado con el diseño de los seres vivos, los humanos y
las organizaciones, tienen la capacidad, basada en el conocimiento, de orientar su adaptación
al cambio. Este artículo es una humilde contribución para ayudar en ese objetivo.
La inteligencia artificial es un área de estudio en el que convergen diferentes disciplinas
(computación, estadística, matemáticas, electrónica, ingeniería, lingüística, psicología…). Este
territorio mestizo vive una nueva “primavera” después de la última de los años 80 (con el auge
de los sistemas expertos) y la anterior de los años 60 (con el enfoque de problemas
genéricos). Lo que ha permitido a la Inteligencia Artificial salir de su último invierno ha sido la
convergencia de un nuevo enfoque más especializado, centrado en problemas muy
específicos, y el desarrollo de las capacidades de computación y disponibilidad de cantidades
masivas de datos.
Ello ha permitido el desarrollo de dos ramas prometedoras en el ámbito de la Inteligencia
Artificial: la del “Aprendizaje Automático” y la del “Aprendizaje Profundo”. La primera hace
referencia al desarrollo de algoritmos que permiten la resolución de problemas que sustituyen
el “juicio experto” o la intuición por el aprendizaje inferido a partir del análisis de los datos.
Cuando los algoritmos utilizados son de una clase especial para desarrollar abstracciones o
inferencias de alto nivel usando determinadas transformaciones matemáticas (como redes
neuronales) se habla de Aprendizaje Profundo.
En este caso, podemos decir, que el aprendizaje se consigue encontrando el modelo que
mejor explique las observaciones. A pesar de lo elevado que pueda resultar, en realidad, el
procedimiento no es muy diferente al que opera en la mente de un niño cuando aprende a
caminar o montar en bici. El niño experimenta probando diferentes modelos de posición y
equilibrio espacial, a partir de su experiencia (cada éxito o caída es una nueva observación).
Una de las principales limitaciones del enfoque de “Aprendizaje Profundo” que tanto éxito ha
cosechado en los últimos años en la resolución de ciertos problemas (reconocimiento facial,
traducción, robótica, …) es que necesita de una variedad suficiente de modelos estadísticos
que puedan explicar los datos y, además, requiere que la solución alcanzada no esté sesgada
por los datos utilizados para el aprendizaje de la máquina (entrenamiento). Otro obstáculo en
su aplicación es el hecho de que las inferencias realizadas por la máquina están basadas
esencialmente en la coherencia con los datos medida en términos de correlación y no (como
los humanos solemos pensar) en términos de causalidad.
Ello significa que ciertas soluciones pueden resultar anti-intuitivas, sesgadas por la muestra de
observaciones, o contrarias a nuestro sentido común o, al menos, difícilmente interpretables
desde nuestra cognición.
. EL ENFOQUE PROBABILÍSTICO EN INTELIGENCIA ARTIFICIAL
La teoría de la probabilidad es la rama de las matemáticas que estudia fenómenos aleatorios,
es decir aquellos cuyo resultado es, a priori, impredecible. También se ocupa de los llamados
procesos estocásticos, es decir, aquellos sobre los que existe una secuencia cambiante de
eventos que, en principio, no son deterministas. El lanzamiento de una moneda es un ejemplo
del primero y movimiento de un grano de polen en el agua del segundo.
Explicar la realidad desde este enfoque supone un esfuerzo pues nuestra intuición y “sentido
común” nos dicta siempre que los fenómenos responden a un propósito, que todo lo que
sucede es finalista. Así es el Dios que hemos construido para dar sentido a nuestra existencia.
Sin embargo, las matemáticas nos enseñan que casi todo lo que existe y evoluciona a nuestro
alrededor, aún respondiendo a las leyes de la materia, es accidental y contingente. Abrazar
esta certeza es entrar en el terreno hostil de lo impredecible, lo que no podemos controlar. Es
una lección de humildad para la arrogancia de los humanos. Fenómenos impredecibles de
alto impacto, los “cisnes negros” de Nassim Taleb, se han convertido en el Macguffin de las
conversaciones de los analistas. Para abordar dicha complejidad se necesita una mayor
flexibilidad que los enfoques de “Aprendizaje Profundo” diseñados para problemas
específicos. Pero la flexibilidad en matemáticas tiene siempre el coste de la complejidad
computacional (a través de modelos multiparamétricos).
El enfoque probabilístico ocupa un lugar importante en los últimos desarrollos en inteligencia
artificial, robótica o aprendizaje automático. Aunque en muchos de estos avances la
incertidumbre juega un papel primordial hay otros enfoques en los que su representación no
es primordial.
Algunas aplicaciones, por ejemplo, de reconocimiento de patrones tales como clasificación de
imágenes o reconocimiento de voz utilizan redes neuronales que no aplican la teoría de la
probabilidad en la determinación de sus parámetros. Sin embargo, dichos problemas están
caracterizados por la disponibilidad de grandes cantidades de datos. Algunos problemas, en
cambio, a los que se enfrentan los analistas de inteligencia están caracterizados por la
escasez de datos o por el hecho de que la decisión a tomar está afectada por un alto grado de
incertidumbre.
Las decisiones que los humanos consideramos racionales están basadas en inferencias
consistentes con nuestra experiencia o con un conocimiento adquirido. Así, por ejemplo, es
racional pensar que si acerco mi mano al fuego experimentaré calor. Y lo es pensar que el
agua siempre fluye hacia el punto de menor altura. Ambas inferencias son basadas en la
experiencia sobre fenómenos físicos y deterministas donde la incertidumbre no tiene ningún
papel.
Sin embargo, cuando los fenómenos que observamos cambian de una manera aleatoria y con
múltiples estados, como la propagación de un fuego avivado por el viento, nos es mucho más
difícil realizar tales inferencias. Entonces no podemos echar mano de la experiencia sino de
nuestro conocimiento basado en modelos. Un modelo es una representación de la realidad
sobre la que podemos hacer inferencias