¿Qué hizo Cambridge Analytica para dañar a Cristina Fernández?
Un informe del Parlamento inglés describe la manipulación científica de las emociones a través de las redes sociales. M áquinas, robots y fórmulas matemáticas secretas influyen en la mente y las opiniones políticas de millones de ciudadanos.
Los diarios de todo el mundo se ha hecho eco de una investigación de la Cámara de los Comunes del Reino Unido sobre la industria de las noticias falsas. En un apartado se menciona una campaña realizada por SCL -Strategic Communication Laboratories, que agrupa entre otras empresas a Cambridge Analytica- contra la expresidenta de Argentina Cristina Fernández de Kirchner.
La campaña fue desplegada en los meses previos a elecciones del 2015, que tuvieron como ganador al actual mandatario Mauricio Macri. Con la participación de oficiales retirados de agencias de inteligencia de Israel, EE.UU., Reino Unido, España y Rusia se desarrollaron tácticas de desprestigio, mediante la actividad de cuentas falsas de Facebook y Twitter.
Lo que no se revela es qué hizo exactamente Cambridge Analytica en su campaña anti-kircher para dañar la reputación de Cristina Fernández, y por añadidura, del candidato presidencial de su partido, Daniel Scioli. Los detalles específicos, son por el momento, un misterio. Pero hay mucha información sobre la estrategia general de la empresa en distintos escenarios.
Para quién trabaja SCL
El informe titulado “Desinformación y noticias falsas”, de 89 páginas, resume las conclusiones de una investigación sobre el modus operandi de 30 organizaciones, entre ellas Facebook y Cambridge Analytica, a partir de documentos públicos, material periodístico y comparecencias de sus directivos ante los parlamentarios británicos. Se analizó de qué manera el poder de las noticias falsas difundidas a través de redes sociales se utilizó para influir en las votaciones de distintos países -entre ellos, Argentina, Nigeria, Trinidad y Tobago, el referéndum del Brexit y el de la independencia de Cataluña.
Los parlamentarios dedican un capítulo a analizar el rol de fuentes rusas como influencia en campañas políticas, aunque no revelan vínculos con SCL. Luego expresan su preocupación al comprobar que el Grupo SCL llevó a cabo operaciones en distintos escenarios, por cuenta de los Gobierno británicos, de EE.UU. y otros estados aliados. Los personeros de las empresas confiesan que trabajan en el ámbito de la defensa y seguridad de los estados, y se escudan en acuerdos de confidencialidad con sus clientes para dar más detalles. Aunque admiten que, a escala planetaria, pueden estar jugando en varios tableros al mismo tiempo.
¿Qué poder especial pueden tener las redes para influir tan poderosamente en las mentes de los ciudadanos?
Publicidad de masas vs marketing de segmentación
La tradicional publicidad de masas, que empinó a marcas como Coca Cola o Ford, utilizaban mensajes genéricos destinados a un público indiferenciado: por la radio, la TV o los periódicos, millones de personas recibían el mismo mensaje. Utilizaban mensajes subliminales y otras técnicas de alto impacto emocional en las personas. Pero aquello era apenas la infancia de la manipulación masiva.
El moderno marketing y los estudios de mercado perfeccionaron estas técnicas, con el estudio del público y su segmentación en diferentes tipos de audiencia, que permitieron la elaboración de mensajes especialmente diseñados para cada tipo de personalidad. Entender los hábitos de consumo de los clientes le permitió a las marcas optimizar recursos, mejorar los anuncios y descubrir nuevos espacios de contacto con su audiencia.
Las redes sociales fueron un gran salto adelante para estas tecnologías. Incrementaron extraordinariamente el conocimiento íntimo de las personas, y por lo tanto, el poder de manipularlos a través de una sofisticada maquinaria. “Algoritmos detrás de escena, cruce de datos y perfiles están siendo usados de nuevas maneras para apuntar a la gente con información especialmente diseñada”, dice en un pasaje del informe Elizabeth Denham.
Toda esta información es recogida a través de las redes. P ermite la fabricación personalizada de ciertos mensajes con fines de persuadir a las personas según sus motivaciones e intereses personales, incluso cuando “no son consciente de ellos”.
La manipulación científica de las emociones
Las redes sociales y motores de búsqueda usan algoritmos o secuencias de instrucciones para personalizar noticias y otros contenidos para los usuarios. Los algoritmos seleccionan contenido basado en factores como la actividad en línea pasada del usuario, las conexiones sociales y su ubicación. Por lo tanto, Facebook tiende a mostrar contenidos y anuncios relacionados con sus preferencias y prejuicios, reforzándolos. Sus robots nos estudian y nos conocen mejor que nosotros mismos. Pueden hallar “puertas traseras” para manipular nuestras emociones en un nivel no consciente. El uso del análisis de datos, basado en el perfil psicológico de la audiencia, fue el corazón del trabajo de Cambridge Analytica, "presentando un acto respaldado por una emoción", como describió Alexander Nix, CEO de la empresa, en una comparencia ante la Cámara de los Comunes. Con el fin de hacer coincidir el tipo correcto de mensaje para los votantes, Cambridge Analytica usa información personal sobre ellos. Así se diseña, a la medida de los gustos, miedos y prejuicios de cada persona, un bombardeo de puntos de vista hiperpartidistas para descalificar a ciertos candidatos. Vale decir, por ejemplo, que para dañar a una autoridad política entre una “audiencia target” cuyos intereses se orienten hacia la preservación de los ecosistemas, será persuasivo un aluvión de mensajes que denuncien corrupción escandalosa en la Secretaría de Medio Ambiente.
No es necesario que la corrupción escandalosa sea real. En esta sofisticada campaña intervienen las noticias falsas, que ganan verosimilitud con las granjas de “trolls” que comentan o discuten sobre el tema, y su replicación por diferentes canales. El resto lo hace la contribución de cada usuario, ya sea dentro de las redes o en su vida social.
Hace falta pensar en la convergencia de esta estrategia con otros discursos mediáticos. En el caso de la ex presidenta argentina Cristina Fernández, es fácil deducir que, en el marco de una campaña abrumadora de acusaciones de corrupción por parte los medios hegemónicos, la distribución masiva de mensajes a través de las redes que acentuaran este aspecto -”se robaron todo”, “el gobierno más ladrón de la historia”, etc- terminó de fabricar una burbuja perceptiva que alteró los planes de votación de millones de personas .
Niebla de la razón colectiva
El poder en la formación de opinión es enorme, y los daños para las
víctimas son irreparables. No hace falta que las “denuncias” se
comprueben. Según reflexiona el informe británico, la misión de las
campañas de desprestigio alcanza su meta con solo “sembrar la duda en la
mente de todos”. Este tipo de campaña sucia no es punible actualmente.
El Parlamento británico reconoce que el origen de las noticias falsas,
memes y mensajes calumniosos no se puede rastrear. Para colmo, en su
difusión intervienen millones de usuarios que en general no son
conscientes de la falsedad de ciertos contenidos. “ Temas muy
importantes e influyentes que nos afectan... se están planteando,
directa o indirectamente, en estos espacios tecnológicos. El comportamiento de las personas se está modificando y cambiando como resultado de las compañías de medios sociales.
Actualmente, no hay señales de que esto vaya a detenerse”, advierte el
informe inglés. La información sobre los algoritmos que dictan lo que
ven los usuarios no está disponible públicamente. Éstos pueden tener
sesgos inherentes, como los relacionados con el género y la raza, la
pertenencia política o valores más profundos. Estos sesgos son luego
replicados, extendidos y reinventados. Esta niebla de la razón colectiva sigue
profundizándose. Urge un replanteo del paradigma, para rehumanizar la
comunicación entre las personas y detener la programación mental masiva
por máquinas, robots y fórmulas matemáticas secretas.
Fuente:
“Disinformation and ‘fake news’: Interim Report”. House of Commons.
Digital, Culture, Media and Sport Committee. 29 Julio de 2018.
Disponible en: https://publications.parliamen t.uk/pa/cm201719/cmselect/cmcu meds/363/363.pdf
No hay comentarios:
Publicar un comentario