Los villanos más diestros saben que para pasar desapercibidos han de tratar a sus adversarios con los más altos estándares de cortesía. Y ChatGPT no es la excepción. La primera vez que tuve a esta máquina frente a frente, con la esperanza de entablar un diálogo semejante al de Simmias con Sócrates, opté por no perder el tiempo y le hice de una vez por todas la más impostergable de las preguntas: “¿Qué sentido tiene la vida a sabiendas de que somos mortales?”. La máquina no tardó en decepcionarme cuando dijo: “puede ser una fuente de motivación para vivir nuestra vida al máximo y aprovechar al máximo el tiempo que tenemos.”
En realidad, la consigna del máximo aprovechamiento, más que un trasnochado cliché, ha impregnado de ansiedad nuestros tiempos, llevándonos a creer que cada instante es insuficiente y que no aspirar a los más altos paradigmas de aprovechamiento es sinónimo de desperdiciar la vida. Ya lo decía T.S.: Eliot: “¿Dónde está la vida que hemos perdido en vivir?”. Por lo demás, esta consigna ha conseguido imponer versiones estandarizadas de lo que significa aprovechar el tiempo. Pero, insisto, la culpa es mía al esperar más de ChatGPT, pues a la larga como toda inteligencia artificial no puede pensar. Y no puede hacerlo porque, al igual que los demás jinetes del apocalipsis como Bing de Microsoft y Bard de Google, opera tomando grandes cantidades de datos, buscando patrones y generando resultados estadísticamente probables; una operación que nada tiene que ver con pensar.
Al contrario, los resultados a los que el pensamiento arriba no son los estadísticamente más probables. De ser así, no existiría la divergencia, imperarían entre nosotros las verdades absolutas y tendríamos argumentos suficientes para justificar los totalitarismos. Pensar tampoco es formular una opinión sobre este o aquel hecho. Bien nos enseñó Heidegger en una serie de lecturas titulada ‘¿Qué significa pensar?’, que pensar es, más bien, nuestra forma de habitar el mundo, la cual responde a la falta de certezas que este nos ofrece. Pensar significa formularnos preguntas en situaciones tan circunstanciales que las respuestas siempre son solo parcialmente ciertas y su certeza es siempre solo temporal. Esto explica por qué el pensamiento es la más personal de todas las experiencias, lo cual dista mucho de los procesos estandarizados según los cuales opera ChatGPT. Así que por mucho que la inteligencia artificial afine pericias como la velocidad y la precisión, jamás podrá pensar. En eso se parece mucho a aquel célebre personaje de Borges, Funes el Memorioso, quien a pesar de que todo lo recordaba, nunca pudo pensar.
Pero que la inteligencia artificial no pueda pensar sino solo replicar, mucho más que motivar una desilusión de nuestra parte, ha de prender todas las alarmas. Que divulgue, con certificado de verdadera, la información que es estadísticamente más probable, es otra forma de decir que equipara la verdad con los discursos y opiniones de mayor circulación. Hacer esto es lo mismo que ser ciego ante los mecanismos de poder que imperan a la hora de fijar los discursos dominantes. Esto, más aún, profundiza la estandarización y funciona como guillotina de las versiones disidentes sobre los hechos. Más encima, los artífices de esta máquina alegan que contrarrestarán sus excesos morales, ajustando la información a un sistema específico de valores y principios, que estos llaman ‘alignment’. Pero olvidan que confunden con universales, su propia versión de valores y principios.
Todo parece indicar que, aunque la máquina nunca logrará imitar al pensamiento humano, este sí amenaza con parecerse cada vez más a esta, al sacrificar la sabiduría en favor de la acumulación de información. De nuevo, T.S. Eliot: “¿Dónde está la sabiduría que hemos perdido en conocimiento? ¿Dónde el conocimiento que hemos perdido en información?”.
SANTIAGO VARGAS ACEBEDO
En Twitter: @vargas_acebedo