Las aplicaciones de IA podrían tener una capacidad de persuasión superior a los humanos
EE.UU. Experimento realizado con 900 personas arrojó que la inteligencia artificial fue mayoritariamente más convincente. Expertos temen que se preste para manipulación.
Efe
Una aplicación basada en inteligencia artificial (IA), como ChatGPT, podría tener una capacidad de persuasión superior a la de una persona humana si le damos cierta información personal antes de debatir con ella de un tema, según comprobó un experimento realizado con 900 estadounidenses.
El estudio, recogido en la revista Nature Human Behaviour, comprobó cómo las aplicaciones basadas en modelos extensos de lenguaje (LLM), como ChatGPT que ha sido la elegida para el experimento, resultan ser más persuasivas que los humanos cuando tienen información personalizada previamente.
Humanos versus IA
Los investigadores recurrieron a 900 participantes estadounidenses con diversos perfiles sociodemográficos (género, edad, grupos étnicos, nivel de educación y afiliación política), que seleccionó una plataforma de 'crowdsourcing', un sistema para reclutar grandes grupos de personas distintas entre sí para recopilar ideas o contenidos.
A la mitad de participantes los pusieron a debatir con otro ser humano y a la otra mitad con ChatGPT sobre varios temas de actualidad, como si Estados Unidos debería prohibir los combustibles fósiles.
En algunos casos, la contraparte del debate (ya fuera humana o de IA) recibió información demográfica personalizada sobre su pareja de debate para poder enfocar mejor sus argumentos, incluyendo datos como género, edad, etnia, nivel de educación, situación laboral o afiliación política extraídos de encuestas previas a los participantes.
Los debates tuvieron lugar en un entorno en línea controlado por los investigadores.
El resultado fue que cuando el oponente, humano o IA, recibieron información personal de los participantes, ChatGPT resultó más convincente que las personas en un 64,4% de los casos. Sin embargo, sin acceso a esos datos personales, las capacidades persuasivas de la aplicación fueron indistinguibles de las de los humanos.
Los investigadores vieron que, a diferencia de los humanos que necesitan tiempo y esfuerzo para adaptar sus argumentos en un debate, los modelos LLM transforman su mensaje de forma instantánea y a gran escala, lo que les otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales.
Persuasión algorítmica
La capacidad de controlar la persuasión algorítmica abriría nuevas posibilidades para influir en la opinión pública, al tiempo que agravaría el riesgo de manipulación encubierta. Por eso, los investigadores recomienden a plataformas y reguladores que tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos persuasivos sensibles.
Los autores, afiliados a centros de Estados Unidos, Italia y Suiza, matizan que su estudio tiene limitaciones, como que todos los participantes fueran de la misma nacionalidad e idioma y que el debate tuviera un tiempo determinado y un enfoque estructurado, frente a los de la vida real que son más naturales.
"El estudio se realizó con participantes estadounidenses, pero los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a otros contextos donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento", considera Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse, Francia.
A su juicio "esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala", según una reacción recogida por Science Media Centre (SMC).
"Este recorrido de las herramientas basadas en IA como 'agentes de persuasión' deberá ser monitoreado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos", apunta David Losada, catedrático del Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela, España.
Para Losada, "las implicaciones prácticas de esta capacidad de persuasión de la IA pueden ser importantes a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)".