Los investigadores concluyeron que los sistemas de inteligencia artificial no sólo son capaces de explotar eficazmente la información personal de su oponente para adaptar sus argumentos y persuadirlo en conversaciones en línea, sino que lo hacen de forma mucho más avanzada que los humanos.
Un estudio de la Escuela Politécnica Federal de Lausana (EPFL) ha concluido que los grandes modelos de lenguaje (LMM), como la inteligencia artificial (IA) Chat-GPT, tienen mayor capacidad que los humanos para hacer cambiar la opinión de un oponente en un debate en línea.
Los expertos analizaron el poder de persuasión de estas IA tras enfrentar a 820 personas a cuatro tipos de debates: contra otro humano que tenía previamente información personal sobre ellos, contra otro humano que no sabía nada de ellos, contra una IA informada previamente sobre ellos y contra una IA que no sabía nada de ellos.
Los resultados mostraron que los participantes que debatieron contra las IA con acceso a su información personal tenían un 81.7 % más de probabilidades de finalizar los debates de acuerdo con su oponente en comparación con los participantes que debatieron con otros humanos.
La capacidad persuasiva de las IA también era mayor que la de los humanos en los casos en los que no tenían información personal sobre su oponente, aunque en menor medida que cuando contaban con estos datos.
Según el comunicado de la institución, los expertos consideran que esto se debe a que, a partir del procesamiento masivo de datos, los LMM han aprendido que presentar su argumento de una determinada forma tiene más probabilidades de conducir a un resultado persuasivo.
También concluyen que los LMM no sólo son capaces de explotar eficazmente la información personal de su oponente para adaptar sus argumentos y persuadirlo en conversaciones en línea, sino que lo hacen de forma mucho más avanzada que los humanos.
“Hay mucho que explorar aquí porque los modelos pueden estar haciendo cosas que ni siquiera conocemos todavía en términos de persuasión, improvisando a partir de todo el conocimiento que tienen”, afirmó el director del Laboratorio de Ciencia de Datos de la EPFL y responsable del estudio, Robert West.
En cuanto a futuras aplicaciones de esta cualidad de las IA, los expertos aseguran que las elecciones estadounidenses del próximo noviembre son un potencial escenario de experimentación debido a que la gente intentará utilizar el poder de los LMM para influir en la opinión de los votantes.
No obstante, advirtieron que el uso de este poder de persuasión también conlleva riesgos asociados, como la posibilidad de usar una IA para suplantar perfiles de personas reales en línea con el fin de difundir desinformación en los foros de debate.
“El peligro es sobrehumano, como los chatbots, que crean argumentos convincentes y hechos a medida para impulsar narrativas falsas o engañosas en línea”, concluyó West.
Aristeguinoticias