2003-06-24 19:56
Hace ya medio siglo,
Alan Turing, uno de los grandes científicos del siglo (y protagonista del
Criptonomicón de Neal Stephenson escribió un artículo titulado
maquinaria computacional e inteligencia, donde describía el que luego se ha venido en llamar test de Turing, como un juego en el cual una persona, interrogando de forma ciega a otros dos sujetos, A y B, no es capaz de distinguir cuál de ellos es una persona y cuál es una máquina. En ese interesante artículo propone, y rebate, una serie de objeciones, intentando probar que si el interrogador no es capaz de distinguir entre persona y máquina a través de una serie de preguntas, entonces la máquina es, a todos los efectos, inteligente. Hay otros resúmenes del test de Turing en
estos artículos.
Hoy en día se podrían proponer versiones más elaboradas; por ejemplo, los gráficos actuales pueden generar "personalidades" tales, que, vistos a cierta distancia, no se distingan de un ser humano; si me apuras, hasta pueden tener gestos y movimientos decididamente humanos. Pueden incluso simular "emociones" más o menos humanas: cabrearse ante una pregunta, simular aburrimiento... O se le puede preguntar en varios idiomas.
En cualquier caso, hoy se pueden construir programas que pasen sin problemas el test de Turing. Desde hace tiempo se viene celebrando el
premio Loebner, el cual, cuando yo oí hablar por primera vez, me pareció una excelente idea, pero sería porque no miré la página web del tipo mi-sobrinito-acaba-de-aprender HTML, con la inscripción, bajo la medalla, que dice "de oro sólido, no chapada en oro como la de las olimpiadas", ni
la facilidiad con la que se puede listar el directorio). Y por supuesto, porque no leí la serie de dos artículos sobre el premio Loebner que ha aparecido en Salon. Al parecer, el tal Loebner es una persona cuando menos idiosincrática, que ha sido abandonada sistemáticamente por todo científico serio en su premio, y que encuentra problemas cada año para alojar el susodicho premio. Incluso los que han ganado el premio lo ponen verde.
Pero en todo caso, e independientemente del valor que le asignemos al jurado como decididor de quién es humano y quién no lo es, es evidente que hay programas que son capaces de engañar probablemente hasta al propio Turing. Uno de ellos es
Alice, un
chatterbot, o robot que da cháchara en los canales de IRC, y que al parecer lo hace con bastante habilidad. En la entrevista con el autor a la que apunto en ese enlace reflexiona precisamente sobre qué es la inteligencia, y como implementarla en una máquina; él afirma que las neuronas y la materia orgánica no son precisamente la mejor forma de implementar absolutamente nada, sino que cualquier máquina puede hacerlo de forma mucho más eficiente. Yo no estoy tan seguro, pero ahí queda eso.
En todo caso, ¿la inteligencia se basa solamente en la conversación?
Aparte de eso, ¿no hay niveles de inteligencia? ¿No debería haber diferentes niveles del test, de forma que se pueda probar si una máquina es tan inteligente como un chimpancé, o como un delfín, o como un gusano de seda?
Cualquiera que haya tenido niños, o los haya tenido muy cerca, se habrá dado cuenta que la inteligencia tiene muchas dimensiones; y aunque en general se defina como "la capacidad de resolver problemas", eso sólo delega la definición y medición de la inteligencia a la medición de la dificultad de un problema.
Y a lo mejor es que se está buscando el objetivo equivocado; quizás lo que hay que buscar no es una máquina inteligente, sino una máquina que sienta emociones. O que haga compañía. O que escriba blogs.