Todas las versiones de ChatGPT aparecidas has ahora solo sirven para prolongar interminablemente la perorata de cosas sabidas por todos sobre los temas que todo el mundo conoce, narrados tal y como se ha hecho hasta el momento, pero, para eso, sinceramente, mejor no prolongar la sucesión de memeces fotocopiadas que pueblan Internet a menos que queramos volverlo inservible. A quienes pretenden crear cosas nuevas y alejarse de lo consabido le sirven únicamente como guías negativas, para saber lo que no tiene que decir, lo que no tiene que citar y el punto de vista que no debe adoptar. Mis intentos de ahorrar tiempo con ellos siempre han terminado igual, teniendo que comprobar los datos y revisando páginas y páginas de cháchara inservible con un puñado de líneas aprovechables. Al final, seleccionar lo interesante me consumía más tiempo que si hubiese hecho yo mismo todo el trabajo desde el principio. Para labores de mayor precisión, sus citas inventadas, sus ridículas confusiones y su incapacidad para reconocer el motivo de sus errores los hacen absolutamente inservibles. Los padres de estas criaturas (que no los inversores) saben de todos estos problemas, saben que las investigaciones en Inteligencia Artificial llevan casi medio siglo atascadas intentando solucionar los problemas por la vía del más y no del “de otra manera”. Pero, mientras el dinero siga llegando, callan y esperan que los “likes” y “dislikes” de los usuarios corrijan el algoritmo como las bolitas de comida de Skinner moldeaban el comportamiento de las palomas. Ignoran o hacen todo lo posible por ignorar, que hasta los psicólogos tenían más inteligencia que las palomas reforzándolas como resultaba adecuado. El usuario medio de estas herramientas no tiene ni la más remota idea de la respuesta correcta a las preguntas que plantea y acepta como la palabra de Dios los resultados que el programa le ofrece. El “like” o “dislike” no provendrá de lo acertado de la respuesta, indicará únicamente la cercanía o lejanía de la misma a lo que cree saber quien no sabe idea de nada (v. g. los periodistas). En el supuesto de que estos programas “aprendan por sí mismos” de las respuestas ofrecidas, cosa que dudo mucho que signifique algo más que reforzar unas cadenas de Markov respecto de otras, van a aprender a volverse cada vez más tontos y zafios, precisamente lo que ha ocurrido con todos y cada uno de los modelos de “inteligencia” artificial que en línea se han puesto.
Leo las sesudas discusiones acerca del fin de la creatividad humana a manos de la inteligencia artificial, del peligro de que estas "inteligencias artificiales" dominen el mundo, de que la maldad intrínseca cuando entren en los debates políticos y me troncho. No, a ChatGPT y a los programas que que aguardan a la vuelta de la esquina no cabe atribuirles el fin de la creatividad humana, ni el comienzo de la humana estupidez. El fin de la creatividad humana va a provocarlo la herencia del siglo XX si no conseguimos sacudírnosla de una vez. El siglo XX nos convenció de que la creatividad era cuestión de genética, de que si teníamos unos genes, necesariamente produciríamos genialidades, de que en los resultados de una combinatoria no podía haber nada nuevo y diferente de los elementos que daban lugar a la misma, de que “probabilidad” no significa nada diferente de lo que es, será y ha sido siempre, quiero decir, que solo mide nuestra ignorancia. Los programas de Inteligencia Artificial hacen uso de la combinatoria, de la probabilidad, de la creatividad ínsita en el azar que ya descubriera Darwin en el siglo XIX y, claro, quienes han hecho lo posible por defenestrar a los que propusieron métodos reglados para utilizar semejantes técnicas en pro de la creatividad humana, tiemblan aterrorizados. La humanidad, nos avisan con gesto serio, corre un grave peligro porque las máquinas van camino de conseguir algo extremadamente revolucionario y subversivo que casi se había logrado extinguir del género humano: creatividad. Cualquiera de las técnicas de creatividad que ya explicamos en su día aquí puede dotar a un ser humano de una capacidad creativa que ni estos programillas de IA ni los que verán la luz en el próximo cuarto de siglo podrán alcanzar.
No obstante, pese a que quepa sospechar que toda la fanfarria en torno a esta supuesta “inteligencia” artificial viene subvencionada por las empresas sobre las que se ha hablado en ella, hay algo bueno y positivo en que los periodistas le hayan dado cobertura. Tengo un robot de limpieza “inteligente” y después de muchos años con él, todavía no me queda claro si compré el más inteligente o el más tonto de los que había en la tienda. Tal y como lo programo se lanza como una flecha hacia el primer cable, el primer cordón de zapato, el primer asa de una bolsa que no he recordado quitar de en medio y allí que se queda atrapado después de una “limpieza” de cinco minutos. Sin embargo, cuando funciona conmigo presente, no se engancha con nada. Cada vez que oigo hablar de bombas o de armas “inteligentes”, me acuerdo de mi robot de limpieza y me echo a temblar. Creo que ya he contado que Isaac Asimov, el padre de la robótica, escribió toda una serie de relatos acerca de que un robot, incluso armado del primer principio de la robótica (“un robot jamás hará daño a un ser humano”), podría acabar por hacerle daño a un ser humano. Nosotros, ejemplo palmario de la “inteligencia” que adorna a nuestra especie, venimos creando robots de guerra carentes del primer principio de la robótica. ¿Podemos esperar algo diferente de una tragedia? ¿Qué cabe esperar de un tanque dirigido de forma autónoma por un programa dispuesto a inventarse bibliografías, citas y eslóganes religiosos? Dicen que el ejército comienza allí donde termina la lógica ¿en serio vamos a dejar que los militares programen para matar inteligencias artificiales?
No hay comentarios:
Publicar un comentario