Profesorado de la Facultat d’Economia de la Universitat de València (UV) participa en un estudio sobre el comportamiento digital en la era de la inteligencia artificial (IA). El trabajo revela que las personas valoran su privacidad online, pero carecen de herramientas eficaces para protegerla.
La investigación, titulada ‘Exploring the privacy paradox: An experimental investigation of privacy-preserving behavioral responses in online shopping’ (Penélope Hernández, Antonio J. Morales, Zvika Neeman, José M. Pavía), destaca la importancia del uso correcto de la tecnología para salvaguardar la privacidad. Analiza este fenómeno mediante un experimento de laboratorio en el que los participantes realizan compras en una plataforma digital gestionada por IA.
«La tecnología –señalan los autores– no solo puede erosionar la privacidad; bien diseñada, también puede fortalecerla». Penélope Hernández es catedrática del departamento de Análisis Económico y José M. Pavía del de Economía Aplicada, detalla la institución académica.
En el experimento, revelar más o menos información privada no afectaba al beneficio económico de los participantes. A pesar de ello, mostraron interés en protegerla cuando disponían de los conocimientos o las herramientas adecuadas.
Los resultados indican que los participantes continuaron compartiendo información personal después de saber que un sistema de IA estaba aprendiendo sobre ellos. Sin embargo, cambiaron de comportamiento cuando descubrieron cómo aprendía la IA. La cuestión, por tanto, no es que las personas no valoren su privacidad, sino que carecen de herramientas eficaces para protegerla mientras interactúan online.
Paralelamente, el estudio resalta que los perfiles con mayor tendencia a adoptar comportamientos protectores son quienes perciben que comparten mucha información, las mujeres y los individuos con mayor aversión al riesgo.
SOLUCIONES PARA PROTEGER LA PRIVACIDAD
Los investigadores destacan dos estrategias para reducir la exposición de información privada. Con la primera, IA explicable, se ofrece a los participantes una explicación de cómo el algoritmo aprende a partir de sus decisiones. La segunda, una aplicación de protección de privacidad, ayuda a reducir la información compartida sin afectar a los beneficios económicos.
Además, la investigación plantea implicaciones de política pública y diseño tecnológico, ya que concluye que «no basta con advertir a los usuarios sobre los riesgos». Según los autores, «la estandarización de algoritmos podría facilitar la creación de aplicaciones universales de protección de datos». Con ello, puede «fortalecerse la confianza digital».
Se recalca que las soluciones de privacidad pueden convertirse en una ventaja competitiva empresarial. Así pues, las plataformas que integren herramientas claras de gestión de privacidad podrían atraer a consumidores preocupados por la seguridad de sus datos.
Los autores del experimento resaltan que, incluso cuando la información privada utilizada era artificial y asignada aleatoriamente, los participantes desarrollaron preferencias por protegerla. Esto sugiere que, con datos personales reales, el efecto podría ser aún mayor. Como siguiente paso, proponen trasladar los resultados a experimentos de campo en plataformas reales de comercio electrónico para comprobar si los efectos se mantienen.
