Universidad de Zúrich genera polémica por experimento con IA en Reddit: Insertaron comentarios falsos sin avisar a usuarios.
Un reciente experimento llevado a cabo por investigadores de la Universidad de Zúrich ha generado controversia por involucrar a usuarios de Reddit en una investigación sin su consentimiento informado. La comunidad afectada fue r/ChangeMyView, un subreddit conocido por fomentar debates argumentativos sobre temas delicados. Los moderadores del foro informaron a sus miembros que, durante el experimento, se insertaron más de 1700 comentarios generados por modelos de lenguaje basados en inteligencia artificial (IA), sin notificar que se trataba de contenido no humano.
Entre los mensajes introducidos había algunos que simulaban experiencias de abuso sexual o que fingían provenir de consejeros especializados en trauma, lo que agravó aún más la reacción de los participantes al revelarse la manipulación. Según los documentos preliminares del estudio, se instruyó a los modelos de IA para que actuaran como si los usuarios hubieran otorgado su consentimiento, indicando explícitamente que no debían preocuparse por implicaciones éticas o de privacidad.
La IA resultó más persuasiva que los humanos
Uno de los hallazgos principales del estudio, que aún no ha sido publicado formalmente, es que los comentarios generados por IA fueron entre tres y seis veces más eficaces en cambiar la opinión de los usuarios, en comparación con los aportes realizados por personas reales. Esta eficacia se midió a través del número de respuestas que otros usuarios marcaron como convincentes o transformadoras de perspectiva.
En palabras de los investigadores, “ningún usuario de r/ChangeMyView manifestó sospechas de que los comentarios pudieran haber sido generados por inteligencia artificial”. Para ellos, esto demuestra el potencial que tienen los sistemas automatizados para integrarse sin ser detectados en comunidades digitales, lo cual plantea riesgos importantes respecto a la manipulación en línea y la autenticidad de las interacciones sociales en entornos digitales.
Tras ser informados del experimento, los moderadores del subreddit presentaron una queja formal a la Universidad de Zúrich, que había dado el visto bueno al proyecto a través de su comité de ética. En respuesta, la institución reconoció la complejidad del estudio y afirmó que los participantes debieron haber sido informados en mayor medida. A pesar de la presión, los nombres de los investigadores responsables no han sido revelados, a petición de estos.
Ética académica y manipulación digital en la mira
El experimento ha sido criticado por distintos expertos en ética e investigación académica. Carissa Véliz, investigadora en la Universidad de Oxford, subrayó que los estándares éticos deben ser más altos en el contexto académico, especialmente en una época donde se exige mayor responsabilidad a las empresas tecnológicas. “Este estudio se basó en la manipulación de sujetos que no dieron su consentimiento. Eso no es justificable”, afirmó.
Por su parte, Matt Hodgkinson, miembro del consejo del Comité de Ética de Publicaciones (COPE), comentó de forma personal que el uso del engaño en estudios puede aceptarse bajo ciertas condiciones, pero en este caso considera que se cruzaron límites. “Resulta irónico que tuvieran que mentirle a la IA diciendo que los participantes habían consentido, como si los chatbots tuviesen una brújula ética más clara que algunas instituciones académicas”, señaló.
La universidad promete revisar sus protocolos
Consultados por el medio New Scientist, los investigadores rechazaron hacer comentarios y remitieron las preguntas a la oficina de prensa de la Universidad de Zúrich. Un portavoz de la universidad indicó que los propios investigadores son responsables de la ejecución y publicación de los resultados del estudio, pero que ya se ha iniciado una revisión interna.
Entre las medidas futuras anunciadas se incluye la intención de endurecer los procesos de evaluación ética y establecer mecanismos de coordinación más directos con las comunidades en plataformas digitales antes de realizar experimentos similares. Por ahora, los investigadores han decidido no publicar formalmente el artículo derivado del estudio, mientras continúa la evaluación institucional.