¿El mito del control mental? No, Facebook no trabaja con mitos

En su columna del pasado 25 de marzo en El Mercurio [1], el periodista John Muller afirma, a propósito del caso de Cambridge Analytica, que el perfilamiento y manipulación del comportamiento de votantes en dos casos controvertidos (la elección de Trump y el Brexit) es “un poderoso mito (…), que busca eximir las responsabilidades individuales en una especie de enajenación colectiva”. Argumenta a partir de un caso específico (el del profesor Carroll) cómo estas técnicas no funcionan para todos, y termina citando un paper [2] en el que los autores sólo habrían logrado cambiar la conducta de muy pocas personas (390 de 3,1 millones), “confirmando” que estas técnicas no tienen la utilidad o efectividad que se les atribuirían.

Los efectos de la persuasión sicológica masiva son efectivamente pequeños. No existe tal cosa como el control mental completo a través de herramientas tecnológicas, excepto en la ciencia ficción. Sin embargo, las técnicas usadas por empresas como Cambridge Analytica y Facebook son reales, y tienen efectos suficientemente poderosos como para influir en una elección de presidente. El proponer que estas técnicas no son más que “un poderoso mito” es ignorar (o no entender) la evidencia científica. Y la evidencia dice que con muchos datos es posible (y relativamente sencillo) manipular tanto la conducta como las emociones de las personas.

El paper que cita Muller en realidad “demuestra la efectividad de la persuasión sicológica de masas”. Sus autores definen persuasión sicológica como la adaptación de avisos persuasivos “a las características sicológicas de grandes grupos de individuos con el objetivo de influir en su conducta” [2]. En el estudio se realizaron tres experimentos con un total de 3,5 millones de personas, y se puso énfasis en realizar experimentos que se sintieran “reales” (que en la jerga científica se conoce como “validez ecológica”) y no como un estudio científico, porque cuando las personas sabemos que estamos participando de un estudio cambiamos nuestro comportamiento. Los autores encontraron, entre otras cosas, que adaptando avisos publicitarios a dos características de personalidad específicas (la “extraversión” y la “apertura”), lograban hasta un 40% más de clicks sobre los avisos y un 50% más de compras sobre productos.

Sede.Cambridge.Analytica
Sede de Cambridge Analytica en Londres

“Sí”, podrá argumentar el lector, “pero una cosa es influir en las compras de una persona y otra bien distinta es influir en las personas para que voten por uno u otro candidato.” ¿Será cierto que Facebook o Cambridge Analytica pueden influir en el resultado de una votación a través de las redes sociales?

La respuesta es un rotundo sí. Antes de revisar la evidencia científica, intentemos explicar cómo funciona lo anterior.

Imaginemos que un candidato a presidente le paga la cuenta de la luz a todos sus votantes potenciales. Independientemente de que esto es ilegal y completamente inadecuado en la mayor parte de las democracias de occidente, pensemos un momento en qué implicancias podría tener esto. Es seguro que muchas personas necesiten que les paguen la cuenta de la luz, algunas tal vez agradezcan el gesto e incluso algunas de estas últimas quizás decidan cambiar su voto a favor del candidato. Sin embargo, como es muy difícil mantener en secreto la logística del pago de una cuenta para cada votante, si asumimos que los medios de comunicación masivos son independientes y pueden hacer bien su trabajo, entonces no hay peligro de que la sociedad no se entere de que el candidato está intentando cambiar la intención de voto a través del ilegal regalo de dinero. La sociedad, a través de la prensa y de los medios de comunicación masivos, tendría la posibilidad de discutir acerca de la situación y los oponentes del candidato podrían censurarlo, criticarlo o incluso llevarlo a la justicia.

Imaginemos ahora que el mismo candidato sabe que parte de sus votantes potenciales teme a quedarse sin trabajo. El candidato decide hacer una campaña cuyo mensaje principal es “si no vota por mí, se quedará sin trabajo”. Puede que algunas personas se rían de esto, pero para otras tendrá sentido y puede que incluso algunas (por la razón que sea) crean o decidan creer en el mensaje y cambien su intención de voto a favor del candidato.

Lo anterior no representa una amenaza para la democracia, en parte por lo ingenuo de la estrategia. Existe un escenario similar, sin embargo, que no tiene nada de ingenuo, que es perfectamente factible y que representa un serio peligro para la democracia como la conocemos.

Logo.FacebookImaginemos lo siguiente: el candidato decide que en vez de pagar la cuenta de la luz de forma masiva o de fomentar el miedo a quedarse sin trabajo de manera masiva, contrata a un ejército de minions. Cada minion observa a un y sólo un votante potencial por un par de años. Lo observa cada vez que entra a Internet a buscar cosas en Google; lo observa cada vez que publica cosas en Facebook, en Twitter o en Instagram. Lo observa cada vez que publica fotos de las cervezas que se tomó con los amigos de la oficina en el pub de la esquina. Lo observa cuando compra comida en el supermercado o remedios en la farmacia. Y decide, para cada persona, si le pagará la cuenta de la luz o de la clínica o los remedios o el supermercado. Decide también para cada persona si le hablará de lo difícil que sería quedarse sin trabajo o sin previsión social o sin auto o de cualquier otro problema que la persona considere grave. E imaginemos, finalmente, que todo lo anterior lo puede hacer en secreto, en momentos distintos para cada persona, de manera que nadie se dé cuenta.

Lo descrito en el último párrafo no es imposible. De hecho, el escándalo por el uso de datos de 50 millones de cuentas de Facebook por parte de Cambridge Analytica tiene que ver precisamente con eso: con cómo contratar minions para seguir a cada persona, para entender cuáles son sus esperanzas y miedos; y cómo (por tanto) podemos influenciar a cada persona para votar por un candidato (o dejar de votar por otro).

Los seres humanos somos seres mucho más maleables e influenciables de lo que nos gusta pensar o admitir. El 2 de noviembre de 2010, en la mitad del primer período de Barack Obama, se eligieron en Estados Unidos a todos los representantes de la House of Representatives (similar a nuestra Cámara de Diputados) y alrededor de un tercio de los senadores [3]. Con la colaboración de Facebook se realizó el siguiente experimento: a 61 millones de usuarios, escogidos aleatoriamente, se les mostró un gráfico que contenía un link para mirar su lugar de votación, un botón para anunciar que ya habías votado y las fotos de perfil de a lo más seis amigos que ya habían votado [4]. Luego de cruzar los nombres de las personas con las listas de los registros de la votación, se llegó a la siguiente conclusión: fue 0,39% más probable que asistieran a votar los usuarios a los que se les mostró que sus amigos habían votado, comparados con los usuarios a los que no se les mostró lo mismo.

L0 señalado en el párrafo anterior pueden parecer poco, pero esto significó alrededor de 60.000 votos más en el sistema, más 340.000 votos adicionales de personas que no estaban incluidas en el experimento, pero que eran amigos de aquellos que vieron la infografía y fueron a votar [5].

Donald Trump

Si pensamos que Trump ganó la presidencia de Estados Unidos a fines del 2016 por sólo 80.000 votos en tres estados específicos (Michigan, Pennsylvania y Wisconsin) [6], lo anterior cobra inusitada importancia.

Dos años después, otro grupo de investigación realizó el siguiente experimento: durante una semana se modificó el newsfeed de las cuentas de Facebook de más de medio millón de personas, divididas en dos grupos [7]. En el primer grupo (el grupo “triste”), se suprimieron posts que tenían palabras positivas; en el segundo grupo (el grupo “feliz”), se suprimieron posts que tenían palabras negativas. Se observaron entonces los posts que produjo cada grupo, buscando si predominaban las palabras positivas o negativas. El resultado: el grupo “feliz” produjo posts con más palabras felices que aquellos que no vieron ningún cambio en sus newsfeeds, mientras que el grupo “triste” produjo posts con más palabras tristes que los que no vieron cambios en sus newsfeeds.

El estudio anterior fue duramente criticado por la comunidad científica [8]; pero concluyó (en términos generales) que se puede hacer a una persona más feliz (o más triste) seleccionando los posts que ve en sus cuentas de redes sociales.

Muchos de nosotros no tenemos conocimiento (ni tiempo) para entender cómo minimizar el uso que pueden llegar a hacer las empresas ya no sólo de nuestros datos, sino de nuestras emociones y nuestra conducta. Hoy no tenemos herramientas legales para evitar que empresas como Facebook, Twitter, Instagram y otras, manipulen la conducta y las emociones de las personas para lograr fines específicos (que por lo que sabemos, puede llegar a ser la elección del presidente de Estados Unidos). La solución a esto no es sencilla. Necesitamos investigación científica que nos permita entender cómo descubrir y contrarrestar los efectos de manipulaciones como las anteriores. Necesitamos entidades independientes que sean capaces de tomar la evidencia y utilizarla para perseguir las responsabilidades individuales y jurídicas necesarias. Necesitamos, finalmente, educación y conciencia del problema por todos y cada uno de nosotros.

En nuestro país, el proyecto de modificación de la ley de protección a la vida privada puede ser una solución parcial a estos problemas, pero se requiere reexaminar sus contenidos a la luz de los nuevos escenarios que enfrentamos y, sin duda, necesitamos avanzar en la creación de una Agencia de Protección de Datos Personales. Por ello, esperamos que continúe su ágil discusión en el Senado, pero dependerá de las decisiones del gobierno que recién asume, darle el impulso necesario para transformarlo en ley. Nuestra democracia así lo requiere.

 

Notas:

[1] http://www.elmercurio.com/blogs/2018/03/25/58984/El-caso-de-Cambridge-Analytica-y-el-mito-del-control-mental.aspx

[2] S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, “Psychological targeting as an effective approach to digital mass persuasion,” Proc. Natl. Acad. Sci., vol. 114, no. 48, p. 201710966, 2017. Disponible en http://www.pnas.org/content/pnas/114/48/12714.full.pdf

[3] https://en.wikipedia.org/wiki/United_States_elections,_2010

[4] R. M. Bond et al., “A 61-million-person experiment in social influence and political mobilization,” Nature, vol. 489, no. 7415, pp. 295–298, 2013. Disponible en https://www.nature.com/articles/nature11421

[5] https://newrepublic.com/article/117878/information-fiduciary-solution-facebook-digital-gerrymandering

[6] https://www.washingtonpost.com/news/the-fix/wp/2016/12/01/donald-trump-will-be-president-thanks-to-80000-people-in-three-states/

[7] A. D. I. Kramer, J. E. Guillory, and J. T. Hancock, “Experimental evidence of massive-scale emotional contagion through social networks,” Proc. Natl. Acad. Sci. U. S. A., vol. 111, no. 24, pp. 8788–8790, 2014. Disponible en http://www.pnas.org/content/111/24/8788

[8] D. Shaw, “Facebook’s flawed emotion experiment: Antisocial research on social network users,” Res. Ethics, vol. 12, no. 1, pp. 29–34, 2016. Disponible en http://journals.sagepub.com/doi/pdf/10.1177/1747016115579535

 

Publicado por

Cristian Bravo Lillo

Cristian Bravo Lillo es ingeniero en computación de la Universidad de Chile, especialista en seguridad usable. Doctor en Ingeniería y Política Pública de la Carnegie Mellon University. Se ha desempeñado como Asesor del Comité Interministerial sobre Ciberseguridad y como Asesor en Ciberseguridad y Ciberdefensa de la Subsecretaría de Defensa. Profesor del Diploma en Ciberseguridad de la Facultad de Derecho de la Universidad de Chile y Profesor en la Facultad de Ingeniería de la Universidad de Santiago de Chile. Socio de Privacidad y Seguridad SpA. https://dev.ciperchile.cl/sitios-de-citas-en-parla/

7 comentarios en «¿El mito del control mental? No, Facebook no trabaja con mitos»

  1. Si yo fuera CEO de Cambridge Analytica y viene a verme gente supuestamente de alto nivel del gobierno de Sri Lanka a contratar mis servicios por harta plata y me preguntan si puedo hacerles ganar una elección, mi respuesta con mi ojitos en blanco viendo billetes sería “por supuesto que sí”. Si me preguntan si puedo ver si mi oponente político tiene esqueletos en el closet, mi respuesta sería “por supuesto que sí”. Si me preguntan si puedo generar noticias falsas sobre mi oponente, mi respuesta sería “por supuesto que sí”. Eso diría, aunque por supuesto no puedo demostrar fehacientemente que mi trabajo tenga ninguna influencia en la intención de voto ni mucho menos que puedo maipular conciencias, pero mi probabilidad de éxito es de 50% porque si el candidato que me contrató no gana, siempre pueden haber explicaciones de varios tipos que no me incluyan, en tanto que si llega a ganar, le doy todo el crédito a mi trabajo y empiezo a cobrar cada vez más caro por mis servicios. Conclusión: a empresas como Cambridge Analytica y otras filiales de Facebook (que son miles en todo el mundo) les sirve y les es funcional que la gente crea que con mostrarme avisos en Facebook se va a dar vuelta una elección. Vamos, vamos, no seamos tan ingenuos y dejemosle la ciencia ficción a Isaac Asimov, miren que los seres humanos somos más complejos que eso y las elecciones se ganan por muchos motivos, siendo solo uno de ellos una buena campaña publicitaria. Dejemos de simplificar la vida. Las redes son poderosas, pero no tanto, y aún no se descubre la manera de dirigir conciencias.

  2. Debemos aceptar que la situación descrita ya dejó de ser sólo resultado del análisis de mentes afiebradas y que se trata de realidades concretas que queramos o no debemos enfrentar. No revonocerlo únicamente continuará agravando el problema.

  3. Excelente artículo, concuerdo plenamente con lo afirmado por sus autores frente a la opinión un tanto sesgada y extrañamente imprecisa en lo factual de Müller en El Mercurio.
    Estas técnicas no son “mitología” del big data ni nadie ha afirmado seriamente produzcan un “control mental” total.
    Se sabe sí que están siendo ampliamente utilizadas (junto a varias herramientas relacionadas) por variados actores políticos, con gran opacidad y descontrol en todo el mundo y -como el artículo creo demuestra- que es altamente probable que produzcan efectos persuasivos (¿o será mejor llamarlos manipulación?).

    El asunto se hace aún más preocupante si consideramos que se trata de una tecnología que aún se encuentra en pañales.

    Zeynep Tufecki, una de las personas que más y mejor han reflexionado sobre los peligros del uso de Big Data en política, tema del que viene alertando con presciencia a lo menos desde hace cinco años, twitteó quizás ya un poco enrabiada: “La respuesta más molesta y equivocada: “espera, ¿alguien está realmente sorprendido?” Sí, eres el genio, todos somos idiotas. También eres la persona que pregunta “espera, te sorprende que haya plomo en la pintura”. Cinismo o presunción, o ambas cosas, quién sabe, pero no hay un enemigo más cierto para el cambio positivo”.
    Sobre la afirmación central del columnista y asesor mercurial, que creo refutada en forma contundente en el artículo, algunos comentarios adicionales:

    1) Si no produjera resultados, no parecería muy razonable el hecho de que la campaña Trump haya declarado gastos por cerca de US$100 millones en big data y publicidad digital (esencialmente en microtargeting). Esto sin siquiera sumar los esfuerzos previos de la campaña de Ted Cruz y del Super Pac de John Bolton.
    2) De aceptarse su afirmación de inefectividad se tendría que concluir que la multimillonaria industria publicitaria digital es una total pérdida de tiempo y de dinero. Recordemos que la publicidad digital es justamente el modelo de negocio que sostiene a Facebook y a Google y el que les ha permitido sus millonarias ganancias.
    3) En el sistema político de EEUU bastan unos pocos persuadidos con estas técnicas en los estados “swing” para lograr ganar la elección nacional. Basta convencer entonces solo a unos miles de los sujetos denominados en jerga “persuadibles”. De que voten o que simplemente se queden en la casa.
    4) La circunstancia de que sea particularmente difícil de probar -en estos entornos de alta opacidad y sin mucha colaboración de las redes sociales involucradas- de manera retrospectiva y fehaciente que la manipulación haya sucedido, no significa en ningún caso que ésta no haya existido.
    5) Tanto el informante Chris Wylie en su muy sabrosa declaración ante el Parlamento inglés, como Dominique Cummings, estratega digital estrella de la campaña VoteLeave, han reconocido (teniendo muy distintos intereses) la alta efectividad de los avisos de la campaña desarrollada por Cambridge Analytica o por su directamente relacionada Aggregate IQ (también suspendida por Facebook).

    Una última reflexión es que hay que considerar, como hacen los autores, la situación y los peligros en nuestro propio país. Por alguna razón “vemos el Cambridge Analytica en el ojo ajeno y no somos capaces de ver el Instagis en el propio”, como dijo alguien muy creativo en twitter. La excelente y muy completa investigación que Ciper sacó a la luz en Enero de este año evidencia que nuestro país tiene todas las condiciones para que abusos como este (y quizás algunos peores) se produzcan. (https://ciperchile.cl/2018/01/03/instagis-el-gran-hermano-de-las-campanas-politicas-financiado-por-corfo/). Estamos desprotegidos en una serie de aspectos de nuestra institucionalidad política y electoral y esto se produce no sólo por la desastrosa protección de datos que tenemos.
    El que tenga ojos e interés, que lo vea.

  4. Excelente artículo, buen ejemplo de como se puede abusar de las personas (una vez más…que novedad ! ) utilizando técnicas actuales de procesamiento digital de datos, para luego esparcir posibles tendencias dentro de los “habitats sociales ” utilizados actualmente por la “gran masa”.

    De esto ya existe abundante material, en parte solo ha cambiado la forma….Edward Bernays, ya en la época moderna, afianzo los precedentes.

    http://colegiodepsicologosdelperu.blogspot.cl/2012/08/psicologia-de-masas-edward-bernays-y-la.html?m=1

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *