2003-09-12 11:36
Como ya contó
PJorge hace casi un año (y
nemes hace poco), la singularidad es un
concepto introducido por el escritor de ciencia ficción y compañero de área Vernor Vinge, que viene a decir que el aumento de la potencia de los ordenadores y su cantidad provocará que dentro de un tiempo finito (que habitualmente se sitúa en 30 años o así) se construirá una máquina (y esto incluye cualquier cosa que se pueda ejecutar en una máquina, es decir, el software también) más inteligente que los seres humanos; estas máquinas, a su vez, construirán máquinas más inteligentes que ellos, y así sucesivamente. Eso llevará a la tal "singularidad": el progreso tecnológico se producirá de forma exponencial, y, más allá de ella, la predicción de cualquier tipo de suceso será imposible. Recientemente, por ejemplo, lo presentó en
un discurso durante los premios UPC.
(Así, a bote pronto, se me ocurre pensar que, como el que construya la máquina la
patente, se forrará también de modo exponencial. Un esquema piramidal, como el que anuncian los correos basura, para él solo. )
El concepto lo presentó en un par de libros,
La guerra de la paz y
Náufragos en el tiempo real (que puedes
comprar en Amazon), aunque también hay otro libro,
La intersección de Einstein (
comprar en Amazon) que parte de un concepto similar. En principio, parece razonable: se van construyendo máquinas cada vez más inteligentes, así que llegará un momento que sean tan inteligentes como un ser humano, y luego, más inteligentes todavía.
Lo que ocurre es que yo no veo tan claro que suceda así. Hay un viejo debate que cuestiona que sea posible imitar la inteligencia humana; o, que en cualquier caso, si se la imita, el chisme correspondiente será incapaz de tener autoconsciencia. Desde mi punto de vista, el problema es que la inteligencia humana (como, supongo, muchas inteligencias animales), es una variable de muchas dimensiones; y aunque una simulación de inteligencia se pueda acercar a ella en algunas, siempre quedará una dimensión por emular. Se provocaría una paradoja similar a la de Aquiles y la Tortuga: te puedes acercar a la inteligencia humana una cantidad infinitesimal, pero no puedes superarla.
Supongo que, a efectos prácticos, eso no tendrá demasiada importancia. Una vez que, dentro de 20, o 30, años, haya mucha gente que sea incapaz de encontrar un trabajo porque una máquina que es bastante estúpida, pero suficientemente inteligente para ese trabajo, dará igual que el humano venza a la máquina jugando al Go o en unos juegos florales. Por eso, el problema no es la singularidad, sino la pendiente que lleva a ella.