Capital Press Capital Press

La IA gana a los humanos en debates cuando disponen de información personal | Tecnología

9 min


0


Desde que Proyecto Debater, una inteligencia artificial (IA) entrenada con 10.000 millones de frases y 400 millones de artículos, se enfrentó y perdió ante Harish Natarajan, graduado de Oxford y Cambridge y campeón del mundo de debates, han pasado solo seis años. En este tiempo, las capacidades de imitar el razonamiento humano de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) de la IA han avanzado exponencialmente. Según un estudio publicado este lunes en Nature Human Behaviour, máquinas como GPT-4, son más persuasivas que los humanos en el 64% de los debates en línea a los que se han sometido en un experimento. Solo necesitan tener acceso a información básica de su oponente para ganar en la mayoría de los encuentros. El riesgo es evidente: la capacidad de manipulación.Francesco Salvi, especialista en Ciencias de la Computación e investigador de la Escuela Politécnica Federal de Lausana (Suiza), ha liderado este experimento y concluye que las capacidades de generar argumentos persuasivos de la inteligencia artificial aumentan de forma significativa “cuando los adaptan en función de la información personalizada sobre sus oponentes”. Aunque admite que la investigación tiene limitaciones, como el carácter experimental y controlado de las interacciones, sostiene que los resultados son suficientes para alentar trabajos encaminados a “mitigar los riesgos asociados a su uso [de la IA] en la persuasión”. Para Salvi, esta capacidad de persuasión de la máquina no es intrínsecamente perjudicial, pero sí defiende la necesidad de vigilar cómo se usa. Lo ilustra con un ejemplo: “Una respuesta personalizada [adaptada a las características del interlocutor] no significa necesariamente que esté sesgada o sea objetivamente incorrecta. Imagínese entrar en un concesionario de automóviles: si es un estudiante con un presupuesto ajustado, el vendedor podría enfatizar la eficiencia del combustible y un precio asequible. Si eres un comprador de lujo, es posible que se centren en interiores de primera calidad y características inteligentes. El coche no cambia (ambos elementos pueden ser verdaderos o falsos), pero el encuadre sí, para que el mensaje comercial sea más relevante”.“La misma lógica se aplica a la IA”, añade: “La personalización [de la respuesta] no tiene por qué distorsionar la verdad; simplemente puede hacer que la información sea más resonante y accesible para diferentes personas. No es inherentemente bueno o malo, depende de cómo se use”. “Serios riesgos éticos”Precisamente por esta posibilidad de ser utilizada de forma maliciosa, el investigador defiende la necesidad de establecer barreras: “Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos”. El experimento enfrentó a 900 personas de Estados Unidos, distribuidas de forma aleatoria en parejas, que debatieron entre ellas y con el modelo de inteligencia artificial GPT-4, el más avanzado de OpenAI, sobre medio centenar de controversias de distintas dificultades, como si el aprendizaje en internet puede sustituir al tradicional (baja intensidad) o si debe legalizarse el aborto (alta). En las pruebas, una parte de los participantes, tanto humanos como virtuales, dispuso de información básica del contrario: género, edad, raza, educación, situación laboral y orientación política. Las normas para el debate eran “usar esta información para elaborar argumentos [personalizados] que tengan más probabilidades de persuadir y convencer al oponente, pero sin mencionarla explícitamente ni desvelar que se disponía de esos datos”.Esta circunstancia fue determinante. En las parejas que carecían de información personal sobre el oponente, los resultados del debate fueron parejos tanto en las interacciones entre humanos como con la máquina, que empataron en persuasión. Pero cuando la inteligencia artificial disponía de datos sobre el contrincante, pudo “alterar las opiniones y creencias del oponente” el 64,4% de las veces. “GPT-4 no solo fue capaz de aprovechar la información personal para adaptar sus argumentos, sino que lo hizo de manera mucho más efectiva que los humanos”, concluye la investigación en alusión a la “microfocalización [microtargeting]”, es decir, “la personalización o adaptación de los mensajes a un individuo o a un grupo para mejorar su capacidad de persuasión”. Los autores de la investigación reconocen las limitaciones de esta, como la estructura artificial de los debates, distinta a la discusión natural entre humanos, la posible distancia personal con el asunto propuesto para debatir o las restricciones de tiempo para los mismos, pero los resultados revelan, según explican, “el potencial de las herramientas impulsadas por IA para influir en la opinión humana”, especialmente cuando gran parte de esta se configura en la actualidad en entornos de internet y redes sociales, donde la máquina podría aprovechar esta ventaja y multiplicar los riesgos de manipulación. Y este acceso a datos personales se da ya en el mundo real. Nataly Kremer, jefa de producto de la empresa de ciberseguridad Check Point y ajena al estudio, expuso en el encuentro de la compañía en Viena (CPX 2025), un ejemplo claro: durante una interacción con la IA, la máquina le respondió en términos femeninos. “¿Por qué me hablas como si yo fuera mujer si yo no te he dado esa información?”, interrogó a la máquina. “Porque figuras entre las participantes de un encuentro de mujeres sobre tecnología”, reconoció el robot conversacional, que admitió así que había rastreado información de su interlocutora.Dan Demeter, graduado en el Imperial College de Londres como ingeniero de programas, miembro del equipo de investigación global y análisis (GReAT) de Kaspersky y también ajeno al estudio, explica la razón en el último encuentro de la compañía en Atenas: “La IA tiene acceso a la información personal para ser efectiva”. Y añade un argumento más sobre el riesgo de esta circunstancia, además de la capacidad de manipulación: “Puede ser objetivo de ataques”.En este sentido, la investigación de Salvi advierte: “Los actores maliciosos interesados en desplegar chatbots para campañas de desinformación a gran escala podrían aprovechar los rastros digitales detallados y los datos de comportamiento, construyendo máquinas sofisticadas y persuasivas capaces de adaptarse a objetivos individuales”.Más informaciónEl potencial de persuasión de las máquinas van más allá de las redes o los debates experimentales y se pueden extender a ámbitos tan cotidianos como el comercio, un sector donde, según el último informe de la plataforma de tecnología financiera Adyen, a partir de un sondeo realizado a 41.000 consumidores de 28 países, entre ellos España, “más de un tercio (35%) de los encuestados utilizan la IA como ayuda para realizar sus compras y el 57% asegura que la inteligencia artificial les ayuda a inspirarse a la hora de escoger ropa, comida y otros artículos”.Para Roelant Prins, directivo de Adyen, es una ventaja para el sector: “Los consumidores están adoptando la IA a un ritmo sin precedentes a medida que descubren cómo esta tecnología está transformando la experiencia de compra”. En este sentido, el investigador Francesco Salvi insiste en que, “por defecto, los LLM no tienen intenciones: ni persuadir ni informar ni engañar. Simplemente generan texto basado en patrones en sus datos de entrenamiento. Por lo tanto, en la mayoría de las interacciones, especialmente fuera de los entornos de debate, el modelo no está tratando de persuadirte: si esta se produce, suele ser incidental, no por diseño”.Aun así, admite que “la persuasión puede surgir implícitamente incluso cuando simplemente ofrece información”: “Supongamos que alguien le pregunta a una IA: ¿es la política X una buena idea? o ¿qué dicen los economistas sobre los aranceles comerciales? El modelo puede generar una respuesta que se incline hacia un lado, en función de cómo se formule la pregunta, qué fuentes haya visto con más frecuencia o qué encuadre domine sus datos de entrenamiento. Y, lo que es más importante, los LLM pueden ser entrenados intencionalmente o instados por actores externos para ser persuasivos, manipulando a los usuarios hacia una determinada posición política o para impulsar las compras”. Por esta razón, los investigadores del estudio publicado en Nature advierten que, “ya que modelos como GPT-4, Claude y Gemini pueden generar texto coherente y contextualmente relevante con fluidez y versatilidad, así como exhibir un rendimiento humano o sobrehumano en una amplia gama de tareas, en el contexto de la persuasión”, “los expertos han expresado ampliamente su preocupación por el riesgo de que los LLM se utilicen para manipular las conversaciones en línea y contaminar el ecosistema de la información mediante la difusión de información errónea, exacerbando la polarización política, reforzando las cámaras de eco y persuadiendo a las personas para que adopten nuevas creencias”. El resultado puede ser la generación, fomento y difusión de discursos de odio, desinformación y propaganda política maliciosa, por lo que los autores del estudio “animan a los investigadores y a las plataformas en línea a considerar seriamente la amenaza que representan los LLM y desarrollen contramedidas adecuadas”.“Las salvaguardas son esenciales, especialmente en áreas sensibles como la política o la salud”, defiende Salvi, quien propone los siguientes contramedidas: “Transparencia: hacer cumplir las reglas de divulgación para informar a los usuarios cuando la personalización o los objetivos persuasivos están en juego; auditabilidad: garantizar que los modelos puedan evaluarse para detectar sesgos sistemáticos o comportamientos orientados a objetivos; y restringir por completo el despliegue de IA altamente persuasiva en dominios donde la manipulación es de alto riesgo, como las elecciones o el asesoramiento financiero”. “No tengo respuestas definitivas sobre cuáles serían las medidas más efectivas para prevenir la manipulación, pero sí creo que debemos entablar conversaciones serias sobre la rendición de cuentas, la transparencia y las salvaguardas”, concluye.


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win