25/4/2024
Diálogos con la ciencia

«Un ordenador no sabe romper sus propias reglas»

Jorge Wagensberg conversa una vez al mes con científicos españoles. Esta semana, con Ramón López de Mántaras.

Jorge Wagensberg - 13/11/2015 - Número 9
  • A
  • a
«Un ordenador no sabe romper sus propias reglas»
IKER AYESTARAN

Ramón López de Mántaras (Sant Vicenç de Castellet, Barcelona, 1952) es director del Instituto de Inteligencia Artificial IIIA-CSIC en Barcelona, donde trabajan más de 50 investigadores en inteligencia artificial, aprendizaje computacional y robótica.

Es un científico pionero en inteligencia artificial (IA) en España y omnipresente en las reuniones y revistas internacionales sobre todo lo que tiene que ver con la  IA o la robótica. 

Descartes fue el primero en preguntarse si es posible construir, con poleas, tubos y tuercas, una máquina capaz de pensar. 

Descartes fue un gran pensador que, efectivamente, pensó en la posibilidad de mecanizar el pensamiento. La pregunta se ha hecho siempre en función de la tecnología disponible en cada época. Y en la de Descartes era la mecánica. Pero esa misma pregunta se vuelve a hacer en el contexto de las distintas tecnologías que siguen emergiendo a lo largo de la historia: la electricidad, las redes telefónicas, la electrónica, etcétera.

¿Del cerebro nos interesa más imitar sus funciones que su funcionamiento?

En realidad existen ambas tendencias. Una, la inteligencia artificial biomimética, se preocupa de imitar el funcionamiento y la otra, sus funciones, sin preocuparse de mimetizar la naturaleza. Los pájaros baten las alas para volar, pero los aviones no…

¿Un ordenador imita el pensamiento o piensa de verdad? 

Esa es justamente la distinción entre la llamada inteligencia artificial débil (el ordenador simula las funciones de una mente) y la inteligencia artificial fuerte (el ordenador es él mismo una mente). Todo lo que hoy llamamos inteligencia artificial es inteligencia artificial débil. Hasta ahora nadie de la profesión ha conseguido desarrollar nunca una mente artificial.

Incluso ha habido quien ha intentado demostrar que tal cosa es imposible.

Es verdad. Quizás el más famoso y provocador fue John Searle. Su trabajo Mentes, cerebros y ciencia (1984) todavía  da mucho que hablar.

Y no fue el único. En 1961 John Lucas usó nada menos que el teorema de Kurt Gödel para afirmar que es imposible que una máquina piense. Y el físico Roger Penrose tomó el relevo en 1989 en su libro La nueva mente del emperador.

Pero hay pensadores que no están tan seguros. Por ejemplo, el filósofo de la ciencia Daniel Dennett llega a plantearse si una máquina puede tener consciencia.

Arthur C. Clarke diría que tiene conciencia el ordenador que no se deja desenchufar. ¿Dónde está la gran diferencia? ¿Es porque en un caso el soporte es biológico y químico y en el otro es electrónico?

No, yo creo que no. Nuestra hipótesis de trabajo es que la inteligencia no depende de la clase de soporte material que se utilice. Claro que una hipótesis se debe validar o falsear usando el método científico, es decir, mediante la demostración formal o la verificación experimental, y ese es precisamente el objetivo de la inteligencia artificial. Searle usa la metáfora de la habitación china para intentar demostrar cómo un ordenador puede aparentar pensar sin hacerlo y cómo, por extensión, puede simular una conciencia sin tenerla. En una habitación hay una persona que, sin hablar una palabra de chino, tiene acceso a un diccionario descomunal de frases en chino con sus posibles respuestas. Si alguien desde el exterior le hace una pregunta en chino y recibe la respuesta correcta, puede creer perfectamente que el que está dentro habla chino. Searle utiliza este argumento para convencer de que un ordenador puede contestar preguntas sin comprender nada de lo que dice. La crítica de Dennett a este experimento es que las cosas son mucho más complejas.

Esta idea recuerda mucho al famoso test de Turing según el cual una mente humana puede distinguir si lo que se esconde detrás de una cortina es un ser humano o un ordenador que intenta hacerse pasar por tal.

Es también un ejercicio de preguntas y respuestas. La habitación china superaría el test de Turing. Las respuestas son correctas a pesar de que el que está dentro no se entera de nada. Según esta metáfora, un ordenador es como una habitación china, sí:  no entiende nada, pero lo parece. Hay un ejemplo magnífico para ilustrar este efecto. En EE.UU. hay un programa de televisión de preguntas y respuestas tipo trivial llamado Jeopardy. El concursante elige el panel oculto de un tablero donde aparece una pista en forma de frase y debe imaginar la respuesta. Los temas son de lo más variado y complejo, ciencia, cine, artes, historia, deportes. En este concurso un programa de IBM ganó a los mejores concursantes humanos. Por ejemplo, salió airoso de la siguiente pista: “El nombre de este sombrero es elemental, querido concursante”. Un humano entiende perfectamente el significado de cada palabra y también la semántica global de la frase y, sin ser demasiado culto, encontraría la respuesta correcta: el sombrero de Sherlock Holmes. El programa de ordenador respondió: “¡Se trata de un sombrero de cacería!” (como el que lleva Sherlock). ¿Cómo consiguió responder el programa sin saber lo que es un sombrero y sin conocer el significado de las palabras? Tenía acceso a toda la literatura digitalizada y en una fracción de segundo revisó millones de documentos. Así, cruzando datos, se dio cuenta de que la expresión “es elemental querido” aparecía con mucha frecuencia en los mismos textos en los que aparecía también una descripción de Sherlock Holmes, y ahí, en esa descripción, se nombraba su famosa gorra de caza. Una correlación frecuente propició la buena respuesta, pero el programa no se enteraba de nada. También es posible que, en el fondo, un ser humano haga algo parecido: elegir la respuesta más probable, pero el ser humano comprende el significado profundo de las frases.

Para Turing el sistema sería inteligente porque sus respuestas son correctas. Sin embargo, este magnífico ejemplo se refiere a un acierto. Imagino que cuando el sistema se equivoca lo debe hacer más estrepitosamente que un humano. 

Eso es muy cierto. El sistema es frágil porque no conoce el significado profundo de las palabras y las frases.

Es curioso que un simple PC sea imbatible jugando al ajedrez y que una supercomputadora sea incapaz de mantener una conversación elemental sin que se le vea el plumero.

Lo que hace 60 años parecía fácil ha resultado ser muy difícil, mientras que mucho de lo que parecía difícil ya se ha conseguido. En los años 50 nadie le daba importancia al sentido común, es decir, al conjunto de conocimientos tácitos adquiridos directamente de la experiencia del mundo. Por ejemplo, si tenemos un cochecito de juguete atado a un cordel cualquier niño tirará de él para moverlo. No intentará empujarlo con el cordel. El sentido común es un conocimiento que no procede de un libro y no se aprende en clase sino de la experiencia previa con el mundo.

Pero a un robot sí le podemos regalar un sistema sensorial para que adquiera sentido común, ¿no?

Sí, claro. Es lo que se está haciendo. Se programan ordenadores para que aprendan a partir de la interacción con su entorno. Pero un ordenador no tiene lo que se llama comprensión de una escena. Cualquier ciudadano que entra en una casa repleta de libros y oye hablar de literatura concluye que está en casa de un intelectual. Un ordenador no tiene comprensión escénica.

Eso puede ser una ventaja. Pienso por ejemplo en lo que se pide a un jurado: decidir la culpabilidad o la inocencia atendiendo solo a un complejo conjunto de pruebas e indicios, objetivamente y sin prejuicios. 

Puede ser, aunque si el jurado se confía a la inteligencia artificial entonces abogados y fiscales cambiarían de estrategia para seducir al ordenador. Ha ocurrido con el ajedrez. Los ordenadores no tienen depresiones ni euforias. Al principio se conseguía ganar a una máquina jugando con una estrategia especial para máquinas. Hoy ya son totalmente imbatibles. Pero es verdad, con un jurado compuesto por ordenadores la historia de la película de Sidney Lumet Doce hombres sin piedad (1957), en la que un miembro consigue hacer cambiar de opinión a todos los demás, sería impensable.

La simulación por ordenador también puede ir bien para comprender la creación natural. Por ejemplo, la evolución biológica solo se puede observar a través de los fósiles, pero parece imposible observar la emergencia de una nueva especie por la extrema lentitud de la selección natural. ¿Se ha intentado simular la evolución?

Lo que se ha hecho es imitar la evolución por selección natural. Es lo que se llama programación genética evolutiva. Y la verdad es que funciona muy bien, sobre todo en problemas de optimización. Un algoritmo genético es en el fondo un optimizador. Lo que hace es cruzar y combinar valores de una lista (cromosomas) para engendrar una descendencia. Y así, midiendo el grado de adaptación de cada generación, se acaba obteniendo un descendiente optimizado. De este modo, por ejemplo, se han conseguido diseñar excelentes antenas. Mejorar también es crear. 

La simulación por ordenador ha cambiado incluso el método científico. Ahora, además de teoría y experiencia tenemos también simulación y con ello otras combinaciones posibles aparte de la clásica teoría versus experiencia.

Sí, tenemos ahí un triángulo formidable, muy útil cuando el experimento no se puede hacer (por costoso, por complicado o por peligroso) o cuando no hay teoría disponible en la que apoyarse. Muchos algoritmos se pulen y se ponen a prueba por simulación.

La ciencia ficción nunca anticipó el teléfono móvil pero sí cosas que aún no han ocurrido, como ordenadores que no se dejan desenchufar. Hablemos de los límites de la inteligencia artificial. ¿Puede investigar una máquina? ¿Puede hacer preguntas?

Existe un sistema inglés llamado Adam (Adán), desarrollado por Ross King y sus colaboradores, que formula hipótesis y que luego planifica, realiza e interpreta experimentos para confirmarla o refutarla. El tema es el encendido y apagado de genes en la levadura de la cerveza. Es un contexto muy restringido, pero es un primer paso. Otro caso notable es el del pintor Harold Cohen, que pinta con un sistema llamado Aaron diseñado por él mismo. Pero aunque la máquina pinta sola sobre el lienzo (maneja los pinceles y cambia los colores), el artista es un guía fundamental. El sistema tiene reglas y el mismo autor introdujo luego metarreglas para cambiarlas aleatoriamente y así intentar crear en un sentido más fuerte de la palabra. Una regla se rompe con otra regla. Eso es lo que un ordenador no sabe hacer: romper espontáneamente sus propias reglas como hizo Picasso con el cubismo o Schönberg con la música dodecafónica.

Esto me hace pensar en ‘El jardín de las delicias’ del Bosco anticipando el surrealismo en pleno Renacimiento. Hace tiempo que los ordenadores componen música, pero ¿crean música?

El caso del científico y músico David Cope es muy interesante. Desarrolló un sistema que compone al estilo de cualquier gran compositor (Mozart, Shubert, Beethoven…). Analiza sus partituras, busca patrones y compone dando bastante el pego. Pero estamos igual: el sistema genera música sin saberlo y sin oírla. No se puede hablar de conciencia, sentimientos… Ahora bien, existe una manera más limitada de crear que consiste en combinar ideas preexistentes. Un ordenador sí puede crear de esa forma.

Por ejemplo, en el diseño de objetos: la llave inglesa como combinación de la llave fija y un tornillo, maletas con ruedas, fregona con palo…

Sin embargo, la creatividad en el sentido fuerte de la palabra, la que rompe reglas sin ser guiado desde el exterior, está muy lejos de la inteligencia artificial actual. 

Ya nadie puede batir a un ordenador en una partida ajedrez. ¿Crees que esto acabará con el ajedrez u ocurrirá como con el ciclismo respecto del automovilismo?

La IA hace evolucionar al ajedrez al igual que la domesticación del caballo hizo evolucionar el transporte, lo que siguió con los motores, etc. El ajedrez entre humanos sigue siendo apasionante, pero sobre todo lo es la simbiosis hombre-máquina. Atención: un equipo hombre-máquina supera a ambos por separado. Y otro detalle: el 70% de las partidas entre humanos acaban en tablas, mientras que entre máquinas es solo el 30%. El argumento es que los humanos se arriesgan menos, lo que es un freno a la creatividad. Hoy en día el juego de alto nivel entre máquinas es más creativo que entre humanos.