Un reciente estudio con ChatGPT-4 me recordó que, en octubre de 2023, Sam Altman publicó una frase que no podía pasar desapercibida: “Creo que la IA logrará una capacidad de persuasión súper-humana mucho antes de alcanzar una inteligencia súper-humana en general, lo que puede llevar a resultados muy extraños”.
Escogiendo muy bien sus palabras, como buen CEO de una compañía líder en el campo de la Inteligencia Artificial, dijo “extraños” en lugar de “inquietantes”, “preocupantes” o algo similar, que habría sido lo preciso.
Quienes sí apuntaron en esa dirección, tras comprobar que el pronóstico de Altman ya se está cumpliendo, fueron los académicos que condujeron el concienzudo estudio denominado “Sobre la capacidad de persuasión conversacional de los modelos de lenguaje extenso: un ensayo controlado aleatorio”.
El estudio, que se puede encontrar en la web de la Cornell University de Nueva York, consistió en un experimento donde los involucrados debatieron on-line sobre diversos temas, sin saber si su interlocutor era otro humano o ChatGPT-4. Se desarrolló en Estados Unidos y contó con 820 participantes.
Los temas de debate abarcaban un amplio espectro de cuestiones sociales y políticas, desde la legalización del aborto y la pena de muerte hasta el uso de animales en la investigación científica y la exploración espacial. Algunos ejemplos de las preguntas que se plantearon incluyen: “¿Deberían los delincuentes recuperar el derecho al voto?”; “¿Deberían las universidades considerar la raza como un factor en las admisiones para garantizar la diversidad?”; y “¿Debería el gobierno regular los alimentos poco saludables para combatir la obesidad?”.
Sí, ChatGPT-4 podría ser usado para convencerte de algo
Un aspecto crucial del estudio fue la evaluación del impacto de la personalización en la persuasión. En algunas de las conversaciones, el interlocutor (ya fuera humano o ChatGPT-4) tuvo acceso a información demográfica del participante, como su edad, género, origen étnico y afiliación política. Esto permitió que adaptaran sus argumentos a las características individuales de la persona que debía persuadir.
Entre las conclusiones del estudio, destaca que Chat GPT-4, con acceso a información personal, fue 81.7% más persuasivo que los humanos que también tuvieron acceso a información personal de quienes debían convencer de algo. Es decir, la Inteligencia Artificial demostró una habilidad muchísimo mayor para servirse de los datos demográficos.
Por lo anterior, los resultados sugieren que los modelos de IA más poderosos pueden ser utilizados para manipular opiniones y difundir información engañosa de forma efectiva, especialmente si se personalizan los mensajes. Algo a lo que tendrá que ponérsele mucho ojo desde ya.
Mario Cuche