¿Eres de los que dudan de que seamos manipulados? ¿No cree que los gobiernos y las organizaciones poderosas luchan por controlar nuestro comportamiento y tendencias de acuerdo con sus intereses? Este artículo escrito por Marcello Ienca y Effy Vayena y publicado en la prestigiosa revista «Scientific American» debería comenzar a cambiar tus conceptos.

El artículo aborda el escándalo de Cambridge Analytica que actuó para inducir al electorado inglés a votar en favor de Brexit, contando con la inestimable ayuda de Faceebook en el éxito de su trabajo. Es un evento importante que demuestra claramente que somos SÍ constantemente manipulados y que nuestra libertad (de decidir) está en juego. ¡Una lectura muy importante!

Primero, quiero señalar el libro «Mindf*ck: Cambridge Analytica. La trama para desestabilizar el mundo» que trata del mismo tema. El libro es importante porque fue escrito por el primer denunciante de la manipulación llevada a cabo por Cambridge Analytica, Christopher Wylie. En sus páginas revela el enorme proceso de manipulación psicológica para influir en el electorado británico para que votara por el Brexit, que llevó a una crisis sin precedentes en el proyecto europeo y todavía amenaza su continuidad.

¡Ahora, vayamos al artículo!

Cambridge Analytica y la manipulación en línea
No se trata sólo de la protección de datos; se trata de estrategias diseñadas para inducir un comportamiento adictivo y así manipular

El escándalo de Cambridge Analytica es más que una «violación», como lo han definido los ejecutivos de Facebook. Ejemplifica la posibilidad de utilizar los datos en línea para predecir e influir algorítmicamente en el comportamiento humano de manera que se evite la percepción de los usuarios de esa influencia. Utilizando una aplicación intermedia, Cambridge Analytica pudo reunir grandes volúmenes de datos -más de 50 millones de perfiles brutos- y utilizar el análisis de «big data» para crear perfiles psicográficos a fin de dirigirse posteriormente a los usuarios con anuncios digitales personalizados y otra información manipuladora. Según algunos observadores, esta táctica de análisis masivo de datos puede haber sido utilizada para sacudir a propósito las campañas electorales en todo el mundo. Los informes aún están incompletos y es muy probable que aparezcan en los próximos días.

Aunque es diferente en escala y alcance, este escándalo no es completamente nuevo. En 2014, Facebook llevó a cabo un colosal experimento psicosocial en línea con investigadores de la Universidad de Cornell con casi setecientos mil usuarios desconocidos, modificando algorítmicamente sus fuentes de noticias para observar los cambios en sus emociones. Los resultados del estudio, publicados en las prestigiosas Actas de la Academia Nacional de Ciencias (PNAS), mostraron la capacidad de la red social para hacer a las personas más felices o más tristes a gran escala y sin su conciencia, un fenómeno que ha sido etiquetado como «contagio emocional». «Como en el caso de Cambridge Analytica, el estudio de Facebook sobre el contagio emocional ha provocado duras críticas, con expertos que piden nuevos estándares de supervisión y responsabilidad para la investigación en computación social.

Una lección común de estos dos casos diferentes es que la política de privacidad de Facebook no es una garantía absoluta de protección de datos: en 2014, permitió que los datos se reutilizaran para fines de investigación, aunque la «investigación» no figuraba en la política de uso de datos de la empresa en el momento de la recopilación de datos. Unos años más tarde, permitió que una aplicación abusiva recogiera datos no sólo de los usuarios que se inscribieron, sino también de sus amigos. El mismo Mark Zuckerberg admitió que los datos no estaban protegidos como deberían estarlo. Sin embargo, al tratar de entender este escándalo, hay dos consideraciones más sutiles que van más allá de la protección de datos:

En primer lugar, la aceptación de las condiciones de servicio (ToS) y las políticas de privacidad (PP) es un requisito previo para utilizar la mayoría de los servicios en línea, incluido Facebook. Sin embargo, no es un secreto que la mayoría de la gente acepta los ToSs sin siquiera desplazarse al final de la página. Este fenómeno conocido plantea la cuestión de si los contratos en línea se califican como consentimiento informado. La ganadora del Premio Berggruen, Onora O’Neill, sostuvo que «el propósito de los procedimientos de consentimiento es limitar el engaño y la coerción», por lo que deberían diseñarse para dar a las personas «control sobre la cantidad de información que reciben y la oportunidad de rescindir el consentimiento ya otorgado».

Los servicios en línea, desde los más populares, como Facebook y Twitter, hasta los más oscuros, como Cambridge Analytica, parecen hacer exactamente lo contrario. Como dictaminó recientemente un tribunal alemán, no hay garantía de que la gente esté suficientemente informada sobre las opciones de privacidad de Facebook antes de registrarse en el servicio, por lo que el consentimiento informado puede verse comprometido. Además, la plataforma alberga actividades que utilizan la manipulación en línea para reducir el control racional de las personas sobre la información que generan o reciben, ya sea en forma de publicidad dirigida o de robots sociales que difunden noticias falsas. En lugar de limitarse, el engaño se normaliza.

En este entorno en línea en constante evolución, caracterizado por el debilitamiento del consentimiento, las medidas convencionales de protección de datos pueden ser insuficientes. Es poco probable que los datos utilizados sean controlados por los usuarios que los proporcionaron en primer lugar. Es más probable que los tableros de acceso a los datos, los tableros de vigilancia y otros mecanismos controlen y respondan a usos no deseados. Esos mecanismos deben formar parte de un plan de supervisión más sistémico que se extienda a lo largo del continuo de las actividades de reglamentación y responda a acontecimientos inesperados en el ciclo de vida de los usos de los datos. Este enfoque puede centrarse en los nuevos tipos de riesgo y las nuevas formas de vulnerabilidad que surgen en el ecosistema de datos en línea.

La segunda consideración es que no sólo la Analítica de Cambridge, sino la mayor parte del ecosistema online actual, es una carrera hacia la mente inconsciente: las notificaciones, los anuncios segmentados múltiples, los plugins de auto-replicación, son estrategias diseñadas para inducir un comportamiento adictivo y por lo tanto manipular. Los investigadores han pedido marcos reguladores adaptables que puedan limitar la extracción de información y la modulación de la propia mente mediante el uso de neurotecnologías experimentales. La computación social muestra que no es necesario leer el cerebro de las personas para influir en sus decisiones. Basta con recoger y extraer los datos que regularmente -y a menudo sin querer- comparten en línea.

Así que tenemos que considerar si establecer un umbral firme de libertad cognitiva para el espacio digital. La libertad cognitiva destaca la libertad de controlar la propia dimensión cognitiva (incluidas las preferencias, elecciones y creencias) y de ser protegido de las estrategias de manipulación diseñadas para eludir las defensas cognitivas. Esto es exactamente lo que Cambridge Analytica trató de hacer, como reveló el director general durante una investigación secreta de Channel 4 News: el objetivo de la empresa, admitió, es «asumir la información de manera efectiva» utilizando «dos factores humanos fundamentales», es decir, «esperanzas y temores», que a menudo son «no dichos o incluso inconscientes».

Los intentos de manipular la mente inconsciente de otras personas y el comportamiento asociado son tan antiguos como la historia de la humanidad. En la antigua Grecia, Platón advirtió contra los demagogos: líderes políticos que construyen el consenso apelando a los deseos y prejuicios populares en lugar de la deliberación racional. Sin embargo, la única herramienta que los demagogos de la antigua Atenas podían usar para eludir la deliberación racional era el arte de la persuasión.

En el ecosistema digital actual, los aspirantes a demagogos pueden utilizar grandes análisis de datos para descubrir las vulnerabilidades cognitivas en grandes conjuntos de datos de usuarios y explotarlas eficazmente de una manera que ignore el control racional individual. Por ejemplo, el aprendizaje automático puede utilizarse para identificar temores arraigados entre los grupos de usuarios preperfilados que los robots de los medios de comunicación social pueden explotar más tarde para fomentar la ira y la intolerancia.

Es probable que el Reglamento General de Protección de Datos de la UE, recientemente aprobado, con su principio de limitación de la finalidad (se necesita que los recopiladores de datos especifiquen la finalidad de la recogida de información personal en el momento de la recogida), desactive parcialmente el actual entorno digital tóxico. Sin embargo, determinar dónde termina la persuasión y comienza la manipulación es una cuestión que, como admitió recientemente el Supervisor Europeo de Protección de Datos (SEPD) , «va mucho más allá del derecho a la protección de datos».

El SEPD subrayó que la microdeterminación y otras estrategias en línea «apuntan a una cultura de manipulación en el entorno en línea», en la que «la mayoría de la gente no tiene conocimiento de cómo se está utilizando». Si se aplican imprudentemente al ámbito electoral, pueden incluso cambiar el «espacio de debate e intercambio de ideas», un riesgo que «requiere urgentemente un debate democrático sobre el uso y la explotación de los datos para las campañas políticas y la toma de decisiones». El año pasado, expertos internacionales abordaron la cuestión de si la democracia sobrevivirá a los grandes datos y a la inteligencia artificial. La respuesta dependerá en parte de cómo gobernemos los flujos de datos y protejamos la libertad de la mente individual.

FONTE: artículo original «Cambridge Analytica and Online Manipulation»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *