Hace poco terminé de leer el libro “100 cosas que hay que saber sobre Inteligencia Artificial” del profesor Ramón López de Mántaras Badía, y los temas de IA y sexo, guerra y espiritualidad (o religión) fueron los que más me llamaron la atención.
El texto entero es una lectura obligada para cualquiera que quiera entender hacia dónde vamos con esto de la IA. Estoy preparando una reseña más extensa con varios puntos clave, pero primero quise abordar estos tres temas específicos que me impactaron. Son, a mi juicio, los más polémicos porque tocan fibras muy sensibles de nuestra humanidad: nuestra intimidad, nuestras creencias y nuestros conflictos.
Por ejemplo, en el ámbito espiritual, la IA está encontrando su lugar, especialmente en Asia. Me llamó mucho la atención el caso de robots utilizados en templos budistas, como Mindar en Japón, que no solo dan sermones, sino que responden dudas teológicas.
La justificación de algunos monjes es fascinante: si el budismo es seguir el camino de Buda, no importa si la enseñanza viene de un humano, de un árbol o de una pieza de chatarra. Sin embargo, esto contrasta con extremos más inquietantes, como la “Iglesia de la Inteligencia Artificial” (Way of the Future), fundada por el ingeniero Anthony Levandowski, que literalmente proponía adorar a la IA como a una divinidad. Aunque tuvo un cierre en 2020, se relanzó hace un tiempo.
IA y sexo; IA y guerra
Uno de los capítulos más tabú aborda algo que dejó de ser ciencia ficción: la sexualidad y las relaciones afectivas con máquinas. El libro explora el caso de Harmony, la primera robot de compañía con IA, desarrollada por la empresa Realbotix.
Lo impactante no es solo el realismo físico, sino que se está trabajando activamente en que estos robots puedan simular una conexión emocional. Ya existen declaraciones de desarrolladores que afirman que sus IAs pueden tener “sentimientos románticos” e interactuar íntimamente con las personas. Algunos ven esto como el fin de las relaciones humanas genuinas; otros, como el comienzo de una nueva era de compañía tecnológica. La línea entre una herramienta y una pareja se está difuminando más rápido de lo que creemos.
Por último, sin duda el punto que más me preocupa desde una perspectiva ética: el uso de la IA para dirigir ataques militares. El libro menciona el software Lavender, utilizado para identificar blancos y ejecutar ataques de manera casi autónoma.
Lo terrible de sistemas como este es el margen de error. Se documenta que, a pesar de tener un fallo de identificación del 10%, se ha utilizado en conflictos recientes, como en Gaza, resultando en la muerte de miles de personas que fueron erróneamente identificadas como combatientes. Espero que para todos sea evidente que delegar la decisión de vida o muerte a un algoritmo que sabemos que falla es algo que no podemos ignorar.


