¿El mito del control mental? No, Facebook no trabaja con mitos
03.04.2018
Hoy nuestra principal fuente de financiamiento son nuestros socios. ¡ÚNETE a la Comunidad +CIPER!
03.04.2018
En su columna del pasado 25 de marzo en El Mercurio [1], el periodista John Muller afirma, a propósito del caso de Cambridge Analytica, que el perfilamiento y manipulación del comportamiento de votantes en dos casos controvertidos (la elección de Trump y el Brexit) es «un poderoso mito (…), que busca eximir las responsabilidades individuales en una especie de enajenación colectiva». Argumenta a partir de un caso específico (el del profesor Carroll) cómo estas técnicas no funcionan para todos, y termina citando un paper [2] en el que los autores sólo habrían logrado cambiar la conducta de muy pocas personas (390 de 3,1 millones), «confirmando» que estas técnicas no tienen la utilidad o efectividad que se les atribuirían.
Los efectos de la persuasión sicológica masiva son efectivamente pequeños. No existe tal cosa como el control mental completo a través de herramientas tecnológicas, excepto en la ciencia ficción. Sin embargo, las técnicas usadas por empresas como Cambridge Analytica y Facebook son reales, y tienen efectos suficientemente poderosos como para influir en una elección de presidente. El proponer que estas técnicas no son más que «un poderoso mito» es ignorar (o no entender) la evidencia científica. Y la evidencia dice que con muchos datos es posible (y relativamente sencillo) manipular tanto la conducta como las emociones de las personas.
El paper que cita Muller en realidad «demuestra la efectividad de la persuasión sicológica de masas». Sus autores definen persuasión sicológica como la adaptación de avisos persuasivos «a las características sicológicas de grandes grupos de individuos con el objetivo de influir en su conducta» [2]. En el estudio se realizaron tres experimentos con un total de 3,5 millones de personas, y se puso énfasis en realizar experimentos que se sintieran «reales» (que en la jerga científica se conoce como «validez ecológica») y no como un estudio científico, porque cuando las personas sabemos que estamos participando de un estudio cambiamos nuestro comportamiento. Los autores encontraron, entre otras cosas, que adaptando avisos publicitarios a dos características de personalidad específicas (la «extraversión» y la «apertura»), lograban hasta un 40% más de clicks sobre los avisos y un 50% más de compras sobre productos.
«Sí», podrá argumentar el lector, «pero una cosa es influir en las compras de una persona y otra bien distinta es influir en las personas para que voten por uno u otro candidato.» ¿Será cierto que Facebook o Cambridge Analytica pueden influir en el resultado de una votación a través de las redes sociales?
La respuesta es un rotundo sí. Antes de revisar la evidencia científica, intentemos explicar cómo funciona lo anterior.
Imaginemos que un candidato a presidente le paga la cuenta de la luz a todos sus votantes potenciales. Independientemente de que esto es ilegal y completamente inadecuado en la mayor parte de las democracias de occidente, pensemos un momento en qué implicancias podría tener esto. Es seguro que muchas personas necesiten que les paguen la cuenta de la luz, algunas tal vez agradezcan el gesto e incluso algunas de estas últimas quizás decidan cambiar su voto a favor del candidato. Sin embargo, como es muy difícil mantener en secreto la logística del pago de una cuenta para cada votante, si asumimos que los medios de comunicación masivos son independientes y pueden hacer bien su trabajo, entonces no hay peligro de que la sociedad no se entere de que el candidato está intentando cambiar la intención de voto a través del ilegal regalo de dinero. La sociedad, a través de la prensa y de los medios de comunicación masivos, tendría la posibilidad de discutir acerca de la situación y los oponentes del candidato podrían censurarlo, criticarlo o incluso llevarlo a la justicia.
Imaginemos ahora que el mismo candidato sabe que parte de sus votantes potenciales teme a quedarse sin trabajo. El candidato decide hacer una campaña cuyo mensaje principal es «si no vota por mí, se quedará sin trabajo». Puede que algunas personas se rían de esto, pero para otras tendrá sentido y puede que incluso algunas (por la razón que sea) crean o decidan creer en el mensaje y cambien su intención de voto a favor del candidato.
Lo anterior no representa una amenaza para la democracia, en parte por lo ingenuo de la estrategia. Existe un escenario similar, sin embargo, que no tiene nada de ingenuo, que es perfectamente factible y que representa un serio peligro para la democracia como la conocemos.
Imaginemos lo siguiente: el candidato decide que en vez de pagar la cuenta de la luz de forma masiva o de fomentar el miedo a quedarse sin trabajo de manera masiva, contrata a un ejército de minions. Cada minion observa a un y sólo un votante potencial por un par de años. Lo observa cada vez que entra a Internet a buscar cosas en Google; lo observa cada vez que publica cosas en Facebook, en Twitter o en Instagram. Lo observa cada vez que publica fotos de las cervezas que se tomó con los amigos de la oficina en el pub de la esquina. Lo observa cuando compra comida en el supermercado o remedios en la farmacia. Y decide, para cada persona, si le pagará la cuenta de la luz o de la clínica o los remedios o el supermercado. Decide también para cada persona si le hablará de lo difícil que sería quedarse sin trabajo o sin previsión social o sin auto o de cualquier otro problema que la persona considere grave. E imaginemos, finalmente, que todo lo anterior lo puede hacer en secreto, en momentos distintos para cada persona, de manera que nadie se dé cuenta.
Lo descrito en el último párrafo no es imposible. De hecho, el escándalo por el uso de datos de 50 millones de cuentas de Facebook por parte de Cambridge Analytica tiene que ver precisamente con eso: con cómo contratar minions para seguir a cada persona, para entender cuáles son sus esperanzas y miedos; y cómo (por tanto) podemos influenciar a cada persona para votar por un candidato (o dejar de votar por otro).
Los seres humanos somos seres mucho más maleables e influenciables de lo que nos gusta pensar o admitir. El 2 de noviembre de 2010, en la mitad del primer período de Barack Obama, se eligieron en Estados Unidos a todos los representantes de la House of Representatives (similar a nuestra Cámara de Diputados) y alrededor de un tercio de los senadores [3]. Con la colaboración de Facebook se realizó el siguiente experimento: a 61 millones de usuarios, escogidos aleatoriamente, se les mostró un gráfico que contenía un link para mirar su lugar de votación, un botón para anunciar que ya habías votado y las fotos de perfil de a lo más seis amigos que ya habían votado [4]. Luego de cruzar los nombres de las personas con las listas de los registros de la votación, se llegó a la siguiente conclusión: fue 0,39% más probable que asistieran a votar los usuarios a los que se les mostró que sus amigos habían votado, comparados con los usuarios a los que no se les mostró lo mismo.
L0 señalado en el párrafo anterior pueden parecer poco, pero esto significó alrededor de 60.000 votos más en el sistema, más 340.000 votos adicionales de personas que no estaban incluidas en el experimento, pero que eran amigos de aquellos que vieron la infografía y fueron a votar [5].
Si pensamos que Trump ganó la presidencia de Estados Unidos a fines del 2016 por sólo 80.000 votos en tres estados específicos (Michigan, Pennsylvania y Wisconsin) [6], lo anterior cobra inusitada importancia.
Dos años después, otro grupo de investigación realizó el siguiente experimento: durante una semana se modificó el newsfeed de las cuentas de Facebook de más de medio millón de personas, divididas en dos grupos [7]. En el primer grupo (el grupo «triste»), se suprimieron posts que tenían palabras positivas; en el segundo grupo (el grupo «feliz»), se suprimieron posts que tenían palabras negativas. Se observaron entonces los posts que produjo cada grupo, buscando si predominaban las palabras positivas o negativas. El resultado: el grupo «feliz» produjo posts con más palabras felices que aquellos que no vieron ningún cambio en sus newsfeeds, mientras que el grupo «triste» produjo posts con más palabras tristes que los que no vieron cambios en sus newsfeeds.
El estudio anterior fue duramente criticado por la comunidad científica [8]; pero concluyó (en términos generales) que se puede hacer a una persona más feliz (o más triste) seleccionando los posts que ve en sus cuentas de redes sociales.
Muchos de nosotros no tenemos conocimiento (ni tiempo) para entender cómo minimizar el uso que pueden llegar a hacer las empresas ya no sólo de nuestros datos, sino de nuestras emociones y nuestra conducta. Hoy no tenemos herramientas legales para evitar que empresas como Facebook, Twitter, Instagram y otras, manipulen la conducta y las emociones de las personas para lograr fines específicos (que por lo que sabemos, puede llegar a ser la elección del presidente de Estados Unidos). La solución a esto no es sencilla. Necesitamos investigación científica que nos permita entender cómo descubrir y contrarrestar los efectos de manipulaciones como las anteriores. Necesitamos entidades independientes que sean capaces de tomar la evidencia y utilizarla para perseguir las responsabilidades individuales y jurídicas necesarias. Necesitamos, finalmente, educación y conciencia del problema por todos y cada uno de nosotros.
En nuestro país, el proyecto de modificación de la ley de protección a la vida privada puede ser una solución parcial a estos problemas, pero se requiere reexaminar sus contenidos a la luz de los nuevos escenarios que enfrentamos y, sin duda, necesitamos avanzar en la creación de una Agencia de Protección de Datos Personales. Por ello, esperamos que continúe su ágil discusión en el Senado, pero dependerá de las decisiones del gobierno que recién asume, darle el impulso necesario para transformarlo en ley. Nuestra democracia así lo requiere.
Notas:
[2] S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, “Psychological targeting as an effective approach to digital mass persuasion,” Proc. Natl. Acad. Sci., vol. 114, no. 48, p. 201710966, 2017. Disponible en http://www.pnas.org/content/pnas/114/48/12714.full.pdf
[3] https://en.wikipedia.org/wiki/United_States_elections,_2010
[4] R. M. Bond et al., “A 61-million-person experiment in social influence and political mobilization,” Nature, vol. 489, no. 7415, pp. 295–298, 2013. Disponible en https://www.nature.com/articles/nature11421
[7] A. D. I. Kramer, J. E. Guillory, and J. T. Hancock, “Experimental evidence of massive-scale emotional contagion through social networks,” Proc. Natl. Acad. Sci. U. S. A., vol. 111, no. 24, pp. 8788–8790, 2014. Disponible en http://www.pnas.org/content/111/24/8788
[8] D. Shaw, “Facebook’s flawed emotion experiment: Antisocial research on social network users,” Res. Ethics, vol. 12, no. 1, pp. 29–34, 2016. Disponible en http://journals.sagepub.com/doi/pdf/10.1177/1747016115579535