Artículo publicado en InfoLibre
Hasta hace un tiempo relativamente breve, no sabía de la existencia de Alexa. Luego, me interesé por este modelo de inteligencia artificial, sencillo pero, a la vez, sumamente complejo. Primero me equivocaba reiteradas veces, y luego, cuando aprendí el manejo elemental, comencé a jugar con ella, tratando de engañarla, introduciendo datos no exactos, pero aproximados; y ahora, con buen humor, hago flexiones de voz, cruzo datos, mezclo criterios y me reservo información, de modo que cuando da la respuesta, la ataco por la espalda, infiltrando sus circuitos de contradicciones. Siempre me contesta: “no he encontrado ningún dispositivo que diga…” Permítanme ese punto gamberro con la Inteligencia Artificial antes de que en un futuro no muy lejano esta juegue con nosotros marcando nuestro día a día de forma inflexible.
Es posible que seamos una de las últimas generaciones en divertirnos confundiendo al “enemigo”. He leído mucho, como aficionado que soy a la ciencia ficción, sobre la humanización de los robots. Hace un par de años, escribí en estas mismas páginas acerca de este riesgo. Mencionaba las opiniones de un neurobiólogo, Rafael Yuste, que me parecieron especialmente interesantes en cuanto a los dispositivos que se implantan en el cerebro y que, aparte de dar información sobre enfermedades psiquiátricas, también se hacen con nuestro subconsciente. El científico consideraba que tales prácticas afectan a los derechos humanos “ya que el cerebro genera la mente, lo que nos define como especie. Se trata, al fin y al cabo, de nuestra esencia: pensamientos, percepciones, memorias, imaginación, emociones, decisiones…”
Es precisamente eso lo que me preocupa ahora y lo que late en el fondo de mis divertimentos con Alexa: el peligro, —dado que el matrimonio entre la IA y los humanos es tan inquietante como imparable— no está en la humanización de las máquinas que la desarrollan; el auténtico riesgo radica en que los humanos nos mecanicemos sumidos en la maravilla de la tecnología y en la comodidad que aporta. Esto nos puede llevar a un futuro obsoleto en que hagan las cosas por nosotros y seamos cada vez menos creativos y más inútiles. El problema, insisto, es que seamos muy capaces de manejar un robot, pero se nos anule la capacidad de pensar o discernir cuándo y cómo hacerlo, cediendo ese campo a las máquinas.
El auténtico riesgo radica en que los humanos nos mecanicemos sumidos en la maravilla de la tecnología y en la comodidad que aporta
Arquímedes y su ¡Eureka!
Hace unos días se anunciaba que gracias a la IA, mediante una herramienta conocida como Transkribus, se procesaron más de un millar de obras teatrales del Siglo de Oro, que quedaron transcritas en apenas unas horas y, entre ellas, una obra anónima ha resultado ser una comedia de Lope de Vega, o eso ha dictaminado esta herramienta que realiza el trabajo de años de expertos e investigadores en un visto y no visto. Sin duda es un avance, pero me queda cierta desazón: ¿Dónde está el placer del descubrimiento? Ese “¡Eureka! ¡Lo encontré!” que Arquímedes en su entusiasmo iba gritando por las calles, desnudo porque había olvidado vestirse al comprender, inmerso en el agua de la bañera, la envergadura del descubrimiento. ¿Imaginan que hubiera utilizado una máquina? ¿Dónde habría quedado la vehemencia y el afán por el conocimiento? Ahora bien, ¿quién nos asegura que la máquina es infalible y que acierta? Porque, a veces, la IA está reñida con la ética, que no es compatible con su idiosincrasia. Es decir, no es igual que el mecanismo de un dron se utilice para paliar la sequía y provocar lluvia, a que alguien lo dirija contra una ciudad, bombardeándola. Resume el papel de ética la psicóloga, filósofa y profesora de informática y ciencia cognitiva de Reino Unido Margaret Boden, cuando dice: “la responsabilidad moral tiene que quedarse del lado del ser humano»
La parte poética
En una conferencia, el filósofo Byung Chul Han avisaba el pasado año a la sociedad para que esté alerta ante la digitalización que lleva a la pérdida —dice— de la atención contemplativa que nos roba la parte poética. Y pregunta: “¿Para qué viven las personas si perdemos la poética? Si seguimos como estamos, nunca habrá un segundo Cervantes”. No es tampoco benévolo con la IA. En su libro No Cosas, afirma que la inteligencia artificial no puede reflexionar porque no es emocional. Es apática, no tiene pasión. “El pensamiento humano es más que cálculo y resolución de problemas. Despeja e ilumina el mundo, hace surgir un mundo completamente diferente”. El relato de una mujer como mi madre, de 93 años, recién cumplidos, contando la historia familiar, la del pueblo, la de la emigración, la de las penurias, la de los éxitos, del dolor y la felicidad de haber creado una familia con amor y sentimiento, o la de definir de forma certera el momento político que vive España, produce imágenes imborrables en la memoria, que nutren y conforman la tradición oral. Frente a ello, la voz monótona de Alexa adormece. La limitación de la inteligencia artificial es su incapacidad para producir un pensamiento nuevo.
Es por ello que temo que las nuevas tecnologías, autoinoculadas en nuestros propios circuitos internos, acaben por eliminar cualquier capacidad de discernimiento diferente al de las tendencias que nos marquen en cada momento y lugar: gustos, preferencias, saberes, cine, lectura, viajes, colores, vestimenta… Nuestro cerebro pierde el sistema de alerta porque se inflama de información predeterminada y teledirigida. Es difícil luchar contra esa “exactitud” de la inteligencia artificial. Es incómodo resistirse.
Crecer como personas
En una entrevista fechada en 2014 realizada a Carme Torras, de la Universidad Politécnica de Cataluña, la investigadora, una de las más reconocidas de Europa en el área de robótica, planteaba algunos aspectos que me parecen absolutamente vigentes hoy. “El peligro no es que los robots se vuelvan muy humanos y nos ataquen, sino que los humanos se roboticen, que limiten sus acciones al mundo simulado en el que viven los robots. Los robots tienen que ampliar las capacidades de las personas y darnos más autonomía, en lugar de disminuírnosla”, decía. Rechazaba la científica cosas tales como su uso, a modo de canguro, con los niños “¿Cómo aprenderán la empatía si no tienen a alguien delante que responda de manera emocional?”; y veía un peligro en las soluciones algorítmicas por la disminución en la capacidad de entrar a fondo en un problema. Concluía: “Nos tenemos que preguntar si queremos robots que nos hagan los trabajos y que dejen a los humanos arrinconados o, por el contrario, queremos robots que nos estimulen y nos hagan crecer como personas”.
Ahí se encuentra la clave del futuro que debemos definir, qué tipo de personas queremos ser y de qué manera debemos controlar la asistencia externa automatizada que recibamos, sin olvidar que ni es la panacea para ser mejores ni supone la solución a todos los males. Sara Goering, profesora de Filosofía de la Universidad de Washington, experta en temas del cerebro y la tecnología, comentaba en 2020 que el hecho de que alguien pueda conectarse directamente a Internet con su mente le puede permitir acceder a la información más rápido, pero eso no sería suficiente para que pensara con más claridad. Del mismo modo que restaba valor a algunas de las capacidades que se nos prometen: “Por ejemplo, la memoria mejorada es atractiva para la mayoría de nosotros a medida que envejecemos, pero la capacidad de olvidar también es increíblemente valiosa y no debe subestimarse”.
Perdonar u olvidar es un acto personalísimo que puede ser beneficioso, pero su imposición contribuye a la falta de capacidad de discernimiento sobre las cosas básicas que nos han formado como pueblo y como personas
El don de crear
El olvido a veces puede ser deseable, pero lo que sin duda resulta básico es que no se trate de olvidos impuestos, manejados, humanamente o a través de la manipulación digital. Perdonar u olvidar es un acto personalísimo que puede ser beneficioso, pero su imposición contribuye a la falta de capacidad de discernimiento sobre las cosas básicas que nos han formado como pueblo y como personas. Es traicionar la memoria, conformarse con los datos que, quizás intencionadamente, alguien ha introducido en el motor que alimenta la IA para reducir nuestra capacidad crítica frente a las imposiciones de quienes ostentan el poder de manipular esos datos.
En esta resistencia activa, no podemos perder el impagable don de la creatividad, en todas las vertientes de la vida. Toni Massanés, el director de la Fundación Alicia, centro de investigación de cocina, llevaba esta reflexión al terreno de los fogones en un artículo de 2019: “… si cocinar es la estrategia alimentaria que nos caracteriza como especie, si cocinar nos hace humanos, ninguna máquina, nunca, podrá realmente cocinar.”
Ahora, en estos días, Massanés, que ha hecho su aproximación por lo que cuenta al ChatGPT, se da de bruces con la certeza de que “la inteligencia artificial ha empezado ya a subvertir nuestras vidas personales y profesionales definitivamente…” vislumbrando un futuro en que “estas nuevas máquinas de pensar en nada integrarán variables como las sinergias gustativas, tradiciones, tendencias, listados de proveedores ordenados por proximidad, huella de carbono generada por cada ingrediente, agua requerida, logística, precio, temporada, vida útil, alérgenos, desperdicio alimentario…” para elaborar platos, y, con ello, se adecuarán además a lo que desea el comensal e incluso a su historial reciente…
Me gusta Massanés porque también bromea con este nuevo artilugio preguntándole si existe la coliflor negra —que la alta cocina ha hecho posible— para obtener respuestas convencionales: “la coliflor es blanca”; y concluir en que el potencial culinario de este chat GPT no llega ni de lejos al talento de nuestros chefs.
Sabiondo Chat GPT
Aquí no tengo más remedio que referirme a esta aplicación capaz de verificar bulos (antes de 2021 por el momento), de hacer los deberes de los estudiantes o elaborar un artículo digamos que como este (no es el caso) sin necesidad de echarle tiempo ni meditación. Por lo que cuentan, Chat GPT comienza con cierta humildad en sus aseveraciones: “Mi capacidad para verificar la veracidad de una afirmación está limitada a la información con la que fui entrenado y puede no estar actualizada. Es recomendable comprobar varias fuentes y utilizar herramientas de verificación de hechos antes de dar por cierta cualquier afirmación”. O, cuando se le pregunta sobre un asunto del ámbito conspiracionista, responde: “Es importante ser crítico con lo que se encuentra en internet y buscar información de fuentes confiables y respaldadas por la comunidad científica antes de tomar decisiones informadas sobre la salud”.
Al ver tal dechado de rectitud, mi espíritu diabólico se enerva y siento la necesidad imperiosa de verme cara a cara con este Chat GPT sabiondo que, en realidad, no pasa de ser un algoritmo juntaletras entrenado sobre decenas de miles de millones de ejemplos y al que ya empiezan a salirle competidores como el Bard de Google, que ya calienta motores.
De momento, pienso darle un repaso a Chat GPT y a su sucesor, localizando sus puntos débiles para intentar que muerda el polvo. Sin acritud, pero sin dejar que gane terreno. Esa es la clave, que no se hagan con nosotros. Que no nos mecanicen. Pero no por eso te haré de menos, Alexa. Son ya varios años… No te preocupes, bonita. Mientras tanto, como decía Marco Aurelio en sus Meditaciones allá por el siglo II de nuestra era, “cuando te levantes por la mañana, piensa en qué privilegio es estar vivo, el pensar, el disfrutar, el amar…” Eso, difícilmente lo suplirá modalidad alguna de Inteligencia Artificial.