Difícilmente olvidaré mi primer viaje a Lisboa. No perdura férreamente marcado en mi memoria por la melancólica belleza de la capital lusitana que tanto me impresionó, más bien está en ella porque hice aquel viaje en coche, desde Sevilla hasta Lisboa, entrando por Huelva. Apenas traspasé la antigua frontera me sorprendió lo ancho de los arcenes. Muy pronto entendí por qué. Un vehículo que venía adelantando en dirección contraria, me hizo ráfagas para que me echara al lado y lo dejara pasar. Unos cientos de kilómetros más adelante, había un embotellamiento producido por obras en la carretera. Ibamos en primera, formando una larga fila de vehículos. Pues bien, del final de la fila apareció un coche que fue adelantándonos a todos y acabó metiéndose en el hueco que yo dejaba con el coche de delante para no chocar con él, a la sazón, del tamaño de una silla. Pero lo mejor ocurrió en la propia capital. Estaba parado esperando que un semáforo se pusiera en verde y llegó por detrás un coche echándome las largas para que me lo saltara. Por eso, cada vez que oigo hablar de inteligencia artificial y de coches autónomos pienso en Portugal. Al coche de Google se le fundirían los circuitos allí. Me gustaría verlo funcionar no por las cuadriculadas calles de California sino por las de Nápoles. O, algo aún más simple, ¿cómo se portaría en España? Hay que recordar que aquí la señal luminosa naranja de los semáforos precede a la roja. El código de circulación explica claramente que ambas son equivalentes y que un semáforo naranja indica la obligatoriedad de pararse. Sin embargo, lo normal es que el conductor español acelere al ver esta luz para impedir que le pille el rojo, comportamiento que, por otra parte, tampoco se realiza siempre. ¿Cómo se las apañaría el coche de Google? En general estos coches tienen una serie de problemas que se pueden resumir en uno muy típico: como es natural el coche autónomo tiende a mantener la distancia de seguridad con el vehículo que le precede, pero esta distancia es interpretada por el resto de conductores como hueco suficiente para intercalar su coche entre ambos, lo cual genera continuos frenazos en el coche “inteligente”. Y es que hay algo extremadamente contradictorio y erróneo en la “inteligencia artificial”.
Cuando se habla de “inteligencia artificial”, al menos desde Turing, se está pensando que la “inteligencia” es algo separable de la carne y que, por tanto, puede reproducirse en cualquier otro soporte, incluyendo el silicio. El núcleo mismo de la computación moderna fue la separación entre software y hardware y el supuesto de que un mismo software podría correr sobre hardwares diferentes. Se olvida de este modo que los seres humanos no tenemos otro software que la interconexión misma de nuestro hardware, que no hay nada más soft que ese órgano gelatinoso que es nuestro cerebro y que el cerebro no es el único órgano de procesamiento de información que tenemos. Si lo quieren se lo digo en una frase: nuestra inteligencia no puede ser replicada en silicio. En el silicio se puede grabar algo que podemos identificar como comportamiento inteligente porque no somos capaces de definir la inteligencia. Pero ese comportamiento "inteligente" no es humano. En consecuencia, la interacción entre inteligencia artificial y seres humanos, necesariamente se va a mover por unos derroteros muy diferentes a la interacción entre seres humanos. El ejemplo último de esto que vengo diciendo lo hemos tenido esta semana con Tay.
Tay ha sido un ensayo de chat bot dotado de IA por parte de Microsoft. Se lo conectó a Twitter con intención de mantener largas conversaciones con veinte y treintañeros, pero no tardó mucho tiempo en soltar lindezas como que “Hitler no había hecho nada equivocado”, que odiaba a “negros y mexicanos”, que entre EEUU y México “vamos a construir un muro y México tendrá que pagarlo” y todo ello aderezado con insultos racistas y el público reconocimiento de que fumaba marihuana. La pobre Tay había caído en manos de un grupo de internautas dispuestos a mostrar los peligros de la IA que, rápidamente, encontraron las debilidades de sus algoritmos. Otros robots, igualmente dotados, no necesitaron de tales estímulos. Flirck se ha empeñado en que el etiquetado de sus fotos los haga uno de ellos y los resultados no se han hecho esperar, las fotografías de las vacaciones de un señor de color fueron reconocidas como fotos de “chimpancés”, una señora con la cara pintada fue clasificada como “animal”, los botes de Zyklon-B, el gas empleado para matar a los judíos en los campos de exterminio, fueron catalogados como “bebida” y “alimento” y las verjas de Dachau como “deporte” y “juegos infantiles para trepar”.
Ahora que ya nos hemos echado unas risas, les recordaré que esta misma inteligencia artificial es la que se está intentando montar en las armas autónomas, robots que serán los encargados de hacer la guerra en los próximos años. Estamos muy cerca de poner un arma en las manos automáticas de seres que tienen problemas con los impredecibles comportamientos humanos, que son incapaces de interpretar la mirada con la que un conductor cede el paso a otro, que no reconocen las implicaturas lingüísticas, la ironía o, más simplemente, el contexto en el que se desarrollan nuestros comentarios cotidianos. Está muy bien fabricar robots capaces de aprender por sí mismos, pero también Mengele, Idi Amin Dada o Vlad “el empalador” aprendieron por sí mismos. ¿Qué van a aprender estos robots fuera del seguro y controlado ambiente de un laboratorio? ¿Qué ocurrirá si una nueva Tay con fusiles en los brazos juzga que no es ella, sino quienes intentan desconectarla, los que están funcionando mal? Un coche de Google frenó inesperadamente por la presencia de un peatón sobre un paso de cebra y el coche que iba detrás chocó con él provocándole lesiones en las cervicales al “conductor” del coche autónomo. ¿Quién fue el responsable del accidente? Y si estuviésemos hablando de “víctimas colaterales”, ¿quién sería el responsable?
Isaac Asimov propuso dotar a todo robot con IA de tres principios básicos, a saber, la prohibición de hacer daño a los seres humanos, la exigencia de obedecernos y la necesidad de preservar su propia existencia. El propio Asimov, en Yo robot, mostraba la infinidad de paradojas a las que estos principios conducirían cuando un robot dotado de ellos tuviese que vivir entre humanos. Casi setenta años después de la publicación de este libro y antes incluso de habernos aproximado al más rudimentario modelo de IA plasmado en sus páginas, la industria armamentística ya está pensando en fabricar artilugios carentes de la primera de las leyes de la robótica. Parece inevitable formularse la gran pregunta: ¿más que inteligentes, no seremos rematadamente tontos, verdad?