La IA generativa puede falsear las encuestas online

"Hoy en día, al analizar las respuestas de las encuestas, ya no podemos determinar si el encuestado es humano o no, y como resultado, todos los datos recopilados están potencialmente contaminados"
Imagen
Inteligencia artificial encuestas

Investigadores de la Escuela IMT de Italia y de la Universidad de Cambridge lo advierten. Un alerta para la política.

Autor:

La inteligencia artificial generativa ahora es capaz de simular a la perfección las respuestas humanas: una capacidad que corre el riesgo de contaminar los resultados de las encuestas online utilizadas en la investigación social e incluso política.

Lo advierten los investigadores Folco Panizza, de la Escuela IMT de Lucca, Yara Kyrychenko y Jon Roozenbeek, quienes investigan el fenómeno en la revista Nature y proponen contramedidas.

"Los estudios analizados en el artículo titulado 'Las herramientas de encuesta de inteligencia artificial superan las capacidades humanas'", explica un comunicado del IMT, "sugieren que, hoy en día, entre el 30 % y el 90 % de las respuestas a las encuestas en línea pueden ser falsas o fraudulentas".
    
"Y entre el 3 % y el 7 % de las respuestas fraudulentas son suficientes para invalidar las conclusiones estadísticas de una encuesta. Para agravar la situación, los sistemas de respuesta a encuestas basados ;;en IA, que ahora son capaces de generar respuestas fluidas, coherentes y contextuales, a menudo superando la capacidad de escritura humana", avisan los expertos.
    
"La cuestión", observa Panizza, "es que las herramientas de reconocimiento de IA utilizadas para distinguir a los humanos de los bots ya no son eficaces". "Hoy en día, al analizar las respuestas de las encuestas, ya no podemos determinar si el encuestado es humano o no, y como resultado, todos los datos recopilados están potencialmente contaminados", señala el científico italiano.

Para intentar abordar el problema, los autores proponen un cambio de estrategia en varios frentes. Una primera solución es analizar los patrones de respuesta y los metadatos de comportamiento, como la velocidad de escritura, las pulsaciones de teclas y el comportamiento de copiar y pegar. "Paradójicamente", el método más eficaz podría ser forzar el fallo de las máquinas", apuntan.

"Las máquinas son mucho menos propensas a cometer errores humanos típicos. Si un agente de IA responde demasiado bien, este mismo hecho puede convertirse en una advertencia", señala Panizza.

Los autores concluyen que los investigadores, las plataformas de encuestas y sus financiadores deben tomar precauciones específicas para salvaguardar la integridad de los datos a medida que las capacidades de la IA siguen avanzando. Esta adaptación continua se ha vuelto esencial.

Añadir nuevo comentario