Mostrando entradas con la etiqueta Cambridge Analytica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Cambridge Analytica. Mostrar todas las entradas

miércoles, 17 de octubre de 2018

_- Un nuevo eje autoritario requiere un frente progresista internacional

The Guardian / El diario


Se está llevando a cabo una lucha global que traerá consecuencias importantísimas. Está en juego nada menos que el futuro del planeta, a nivel económico, social y medioambiental.

En un momento de enorme desigualdad de riqueza y de ingresos, cuando el 1% de la población posee más riqueza que el 99% restante, estamos siendo testigos del ascenso de un nuevo eje autoritario.

Si bien estos regímenes tienen algunas diferencias, comparten ciertas similitudes claves: son hostiles hacia las normas democráticas, se enfrentan a la prensa independiente, son intolerantes con las minorías étnicas y religiosas, y creen que el gobierno debería beneficiar sus propios intereses económicos. Estos líderes también están profundamente conectados a una red de oligarcas multimillonarios que ven el mundo como su juguete económico.

Los que creemos en la democracia, los que creemos que un gobierno debe rendirle cuentas a su pueblo, tenemos que comprender la magnitud de este desafío si de verdad queremos enfrentarnos a él.

A estas alturas, tiene que quedar claro que Donald Trump y el movimiento de derechas que lo respalda no es un fenómeno único de los Estados Unidos. En todo el mundo, en Europa, en Rusia, en Oriente Medio, en Asia y en otros sitios estamos viendo movimientos liderados por demagogos que explotan los miedos, los prejuicios y los reclamos de la gente para llegar al poder y aferrarse a él.

Esta tendencia desde luego no comenzó con Trump, pero no cabe duda de que los líderes autoritarios del mundo se han inspirado en el hecho de que el líder de la democracia más antigua y más poderosa parece encantado de destruir normas democráticas.

Hace tres años, quién hubiera imaginado que Estados Unidos se plantaría neutral ante un conflicto entre Canadá, nuestro vecino democrático y segundo socio comercial, y Arabia Saudí, una monarquía y estado clientelar que trata a sus mujeres como ciudadanas de tercera clase? También es difícil de imaginar que el gobierno de Netanyahu de Israel hubiera aprobado la reciente "ley de Nación Estado", que básicamente denomina como ciudadanos de segunda clase a los residentes de Israel no judíos, si Benjamin Netanyahu no supiera que tiene el respaldo de Trump.

Todo esto no es exactamente un secreto. Mientras Estados Unidos continúa alejándose cada vez más de sus aliados democráticos de toda la vida, el embajador de Estados Unidos en Alemania hace poco dejó en claro el apoyo del gobierno de Trump a los partidos de extrema derecha de Europa.

Además de la hostilidad de Trump hacia las instituciones democráticas, tenemos un presidente multimillonario que, de una forma sin precedentes, ha integrado descaradamente sus propios intereses económicos y los de sus socios a las políticas de gobierno.
Putin sostiene a Jimbelung, el koala protagonista de la cumbre del G20 en Australia / FOTO: Bestimages
Putin sostiene a Jimbelung, el koala protagonista de la cumbre del G20 en Australia / FOTO: Bestimages

Otros estados autoritarios están mucho más adelantados en este proceso cleptocrático. En Rusia, es imposible saber dónde acaban las decisiones de gobierno y dónde comienzan los intereses de Vladimir Putin y su círculo de oligarcas. Ellos operan como una unidad. De igual forma, en Arabia Saudí no existe un debate sobre la separación de intereses porque los recursos naturales del país, valorados en miles de billones de dólares, le pertenecen a la familia real saudita. En Hungría, el líder autoritario de extrema derecha, Viktor Orbán, es un aliado declarado de Putin. En China, el pequeño círculo liderado por Xi Jinping ha acumulado cada vez más poder, por un lado con una política interna que ataca las libertades políticas, y por otro con una política exterior que promueve una versión autoritaria del capitalismo.

Debemos comprender que estos autoritarios son parte de un frente común. Están en contacto entre ellos, comparten estrategias y, en algunos casos de movimientos de derecha europeos y estadounidenses, incluso comparten inversores. Por ejemplo, la familia Mercer, que financia a la tristemente famosa Cambridge Analytica, ha apoyado a Trump y a Breitbart News, que opera en Europa, Estados Unidos e Israel, para avanzar con la misma agenda anti-inmigrantes y anti-musulmana. El megadonante republicano Sheldon Adelson aporta generosamente a causas de derecha tanto en Estados Unidos como en Israel, promoviendo una agenda compartida de intolerancia y conservadurismo en ambos países.

Sin embargo, la verdad es que para oponernos de forma efectiva al autoritarismo de derecha, no podemos simplemente volver al fallido status quo de las últimas décadas. Hoy en Estados Unidos, y en muchos otros países del mundo, las personas trabajan cada vez más horas por sueldos estancados, y les preocupa que sus hijos tengan una calidad de vida peor que la ellos.

Nuestro deber es luchar por un futuro en el que las nuevas tecnologías y la innovación trabajen para beneficiar a todo el mundo, no solo a unos pocos. No es aceptable que el 1% de la población mundial posea la mitad de las riquezas del planeta, mientras el 70% de la población en edad trabajadora solo tiene el 2,7% de la riqueza global.

Los gobiernos del mundo deben unirse para acabar con la ridiculez de los ricos y las corporaciones multinacionales que acumulan casi 18 billones de euros en cuentas en paraísos fiscales para evitar pagar impuestos justos y luego les exigen a sus respectivos gobiernos que impongan una agenda de austeridad a las familias trabajadoras.

No es aceptable que la industria de los combustibles fósiles siga teniendo enormes ingresos mientras las emisiones de carbón destruyen el planeta en el que vivirán nuestros hijos y nietos.

No es aceptable que un puñado de gigantes corporaciones de medios de comunicación multinacionales, propiedad de pequeño grupo de multimillonarios, en gran parte controle el flujo de información del planeta.

No es aceptable que las políticas comerciales que benefician a las multinacionales y perjudican a la clase trabajadora de todo el mundo sean escritas en secreto. No es aceptable que, ya lejos de la Guerra Fría, los países del mundo gasten más de un billón de euros al año en armas de destrucción masiva, mientras millones de niños mueren de enfermedades fácilmente tratables.

Para poder luchar de forma efectiva contra el ascenso de este eje autoritario internacional, necesitamos un movimiento progresista internacional que se movilice tras la visión de una prosperidad compartida, de seguridad y dignidad para todos, que combata la gran desigualdad en el mundo, no sólo económica sino de poder político.

Este movimiento debe estar dispuesto a pensar de forma creativa y audaz sobre el mundo que queremos lograr. Mientras el eje autoritario está derribando el orden global posterior a la Segunda Guerra Mundial, ya que lo ven como una limitación a su acceso al poder y a la riqueza, no es suficiente que nosotros simplemente defendamos el orden que existe actualmente.

Debemos examinar honestamente cómo ese orden ha fracasado en cumplir muchas de sus promesas y cómo los autoritarios han explotado hábilmente esos fracasos para construir más apoyo para sus intereses. Debemos aprovechar la oportunidad para reconceptualizar un orden realmente progresista basado en la solidaridad, un orden que reconozca que cada persona del planeta es parte de la humanidad, que todos queremos que nuestros hijos crezcan sanos, que tengan educación, un trabajo decente, que beban agua limpia, respiren aire limpio y vivan en paz.

Nuestro deber es acercarnos a aquellos en cada rincón del mundo que comparten estos valores y que están luchando por un mundo mejor.

En una era de rebosante riqueza y tecnología, tenemos el potencial de generar una vida decente para todos. Nuestro deber es construir una humanidad común y hacer todo lo que podamos para oponernos a las fuerzas, ya sean de gobiernos o de corporaciones, que intentan dividirnos y ponernos unos contra otros. Sabemos que estas fuerzas trabajan unidas, sin fronteras. Nosotros debemos hacer lo mismo.

Le pedimos a Yanis Varoufakis que comente el artículo Bernie Sanders. Aquí está la respuesta: Bernie Sanders tiene toda la razón. Los inversores hace tiempo que han formado una "hermandad" internacional para garantizarse rescates internacionales cuando sus pirámides de cartón se derrumban.

Hace poco, fanáticos de la derecha xenófoba también formaron su propia Internacional Nacionalista, llevando a que los pueblos orgullosos luchen entre sí y así ellos puedan controlar las riquezas y el poder político.

Ya es hora de que los demócratas de todo el mundo formen una Internacional Progresista, que luche por los intereses de la mayoría de cada continente, de cada país. Sanders también tiene razón cuando dice que la solución no es volver al status quo cuyo fracaso estrepitoso dio lugar al ascenso de la Internacional Nacionalista.

Nuestra Internacional Progresista debe llevar adelante una visión de prosperidad compartida y ecológica que podemos lograr gracias a la ingenio humano, siempre que la democracia le dé la oportunidad de desarrollarse.

Para eso, debemos hacer más por unirnos. Debemos formar un consejo común que escriba el borrador del New Deal Internacional, un nuevo acuerdo de Bretton Woods progresista.
Traducido por Lucía Balducci.

Fuente: http://www.eldiario.es/theguardian/autoritario-requiere-frente-progresista-internacional_0_814369154.html

miércoles, 18 de julio de 2018

_- A propósito del libro Armas de destrucción matemática de Cathy O’Neil. Apuntes de filosofía política en la era del big data.

_- [Por mor de la simplicidad, marcaré entre paréntesis y con números arábigos las páginas del libro que comento, según la edición castellana: Cathy O’Neil, Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia, trad. de Violeta Arranz de la Torre, Madrid, Capitán Swing, 2018.]

Sin caer en determinismos tecnológicos, cualquiera con una mínima sensibilidad materialista aceptará que los instrumentos técnicos han sido elementos relevantes en el desarrollo de las instituciones políticas. Aunque podamos declarar la autonomía de los principios normativos que regulan nuestras aspiraciones políticas, su realización depende en muchas ocasiones de que dispongamos de medios técnicos que nos lo faciliten. Podemos ser unos incondicionales de la libertad de expresión, pero tenemos que aceptar que para que de facto disfrutemos de todo el contenido implicado en ese principio normativo, hacen falta muchísimas más cosas además de su reconocimiento formal en un texto legal. No hace falta pensar en sofisticadas tecnologías como la imprenta, la fibra óptica o el 3G: algo tan sencillo como la escritura es un elemento técnico fundamental para el ensanchamiento de la libertad de expresión e información. Lo es del mismo modo que disponer de técnicas de contabilidad resulta esencial para llevar a cabo programas de redistribución de riqueza a gran escala, o una red de telégrafos para conseguir una centralización estatal eficaz. Los principios normativos, decía, son autónomos de cada contexto tecnológico —Thomas Jefferson defendía la libertad de expresión con intuiciones muy similares a las de Pericles, aunque la mayoría de atenienses fueran analfabetos, no tuvieran correo postal ni conocieran la imprenta—, pero es innegable que las herramientas técnicas abren (o cierran, si están del lado del tirano) las posibilidades de institucionalización y su realización de facto.

1. Un ejemplo para explicar la principal idea del libro
Los modelos matemáticos son una de esas herramientas técnicas que en la era del big data —la capacidad para generar y procesar datos masivamente— afectan de lleno a nuestra vida sociopolítica. Para lo que a nosotros nos interesa, podemos hablar de un modelo matemático como un conjunto de normas que traducen datos en predicciones. Los puede haber más y menos sofisticados, pero la modelización de la realidad social es una capacidad cognitiva que usamos constantemente. La autora no insiste en ello, pero es fácil entender el uso pernicioso del big data como sesgo cognitivo a escala masiva y camuflado por matemáticas. Veamos el siguiente, basado en un prejuicio racial (que lo alimenta):

Datos brutos: a veces roban productos de mi tienda; tengo alguna información acerca de esas personas y me fijo en alguna característica llamativa para mí, como su acento, su color de piel, su manera de vestir, etc. Procesamiento, busco correlaciones: la mayoría de ladrones a los que he pillado han resultado ser negros. Predicción: lo más probable es que si un negro entra mi tienda, será para robar; indicaré a mi guardia jurado que les vigile con especial atención.

El modelo es simple y se basa en una sencilla correlación de dos variables (hurtos y color de piel) que justifica la acción de prestar más atención a la vigilancia de ese tipo de clientes. Mi cerebro hace ese pequeño cálculo y orienta mi acción, haciéndome confundir correlación con causalidad. Para que un inofensivo algoritmo o modelo matemático se convierta en un “arma de destrucción matemática” (ADM) suele cumplir tres características:

Opacidad (o incluso invisibilidad): ¿saben mis clientes que trato de predecir si me roban o no?, ¿saben que el color de su piel es una variable relevante en mi modelización de los hurtos?

Bucle de retroalimentación: en lugar de contrastar mi modelo con una prueba empírica rigurosa (para descubrir si existe causalidad entre el color de piel y el robo), asumo que las correlaciones son vínculos causales y a medida que aplico mi modelo, mi propia generación de datos comienza a sesgarse por las correlaciones que había observado originalmente. Como vigilo más a los clientes negros, descubriré más hurtos suyos que de otros grupos que pudieran ser relevantes, retroalimentando la correlación inicial del modelo en cada iteración. Las ADM frecuentemente toman la forma de profecías autocumplidas.

Escalabilidad: a parte de la escasa sensibilidad racial, poco se le puede impugnar a un tendero prejuicioso que con su pequeño modelo mental alimenta su propio sesgo cognitivo. Pero las ADM que trata O’Neil son a escala nacional y se basan en gran cantidad de datos —por eso afectan a tantas personas—. Aunque podría contar como otra característica más, la escalabilidad suele ir asociada al uso de variables sustitutivas [1].

1.1. Dos casos relacionados: la predicción de la reincidencia y del crimen
Como el comentario de este libro es una mera excusa para abordar cuestiones filosófico-políticas de mayor calado, me remitiré a exponer dos de los muchos casos que el libro desarrolla, para dar una muestra del funcionamiento de las ADM. Es bien sabido que una revisión de la jurisprudencia penal estadounidense revela sesgos racistas por parte de los jueces. Una manera de evitar la arbitrariedad que supone la sensibilidad política del juez es usar un algoritmo auxiliar que predice la reincidencia del reo, ayudando así a determinar cuántos años debería ir a la cárcel o si le otorgan la condicional: “podríamos pensar que la utilización de modelos de riesgo informatizados nutridos con datos debería reducir la influencia de los prejuicios en las condenas y contribuiría a que el trato impartido sea más imparcial” (p. 35).

El LSI-R es uno de esos algoritmos ampliamente utilizados en Estados Unidos, que basa sus resultados en cuestionarios que rellenan los mismos presos: “¿Cuántas condenas previas ha tenido?”, “¿Qué papel tuvieron otras personas en el delito?”, “¿Qué papel tuvieron las drogas y el alcohol?”, “¿Cuándo fue la primera vez que tuvo trato con la policía?”.

El modelo elabora sus predicciones de acuerdo a correlaciones que podríamos pensar que son razonables [2], por ejemplo, si el reo tuvo su primer encuentro con la policía con 13 años o si su hermano fue también delincuente, el algoritmo le asignará mas probabilidades de reincidir, porque hay una masiva base de datos [3] según la cual otros condenados con las mismas características fueron reincidentes.

Si le hacemos esa pregunta [sobre si sus familiares o amigos tienen antecedentes] a un condenado que se haya criado en un barrio de clase media, es mucho más probable que la respuesta sea no (…) el cuestionario no pregunta por la raza, ya que esa pregunta es ilegal, pero teniendo en cuenta la abundancia de detalles que obtiene de la vida de cada preso, esa única pregunta ilegal es prácticamente superflua (p. 37).

La herramienta es tremendamente eficiente y ahorra muchísimos recursos al sistema judicial, resolviendo mucho más rápido los procesos. Pero ¿sería aceptable que un fiscal argumentara contra la prisión condicional del acusado señalando que sus padres eran unos delincuentes?

Algunos cuerpos de policía en EE.UU. usan PredPol: una aplicación en la que “los datos de entrada principales son la tipología y localización de cada delito, así como el momento en que tienen lugar” (p. 109), por lo que a priori no cometería la misma injusticia que el LSI-R. La aplicación divide un mapa en zonas de diverso riesgo para así distribuir las patrullas policiales. Y otra vez aparece el bucle de retroalimentación: se envían más patrullas a barrios de mayor “desorden” (en los que abundan delitos menores), que a su vez producen más encuentros con la policía, que a su vez aumentan las correlaciones en la base de datos, que a su vez hace que se envíe al mismo lugar más policía, etc.

La policía de Los Ángeles podría decidir eliminar los delitos menores de los datos de entrada del modelo —posesión de pequeñas cantidades de droga, beber en la calle, hurtos en comercios, grafitis, multas de tráfico…—, pero cuando eso ocurre “la capacidad de predicción” se ve muy reducida, ya que los delitos graves, como los grandes robos, los asesinatos o las violaciones se producen de manera dispersa por el mapa. Lo que PredPol hace, concluye O’Neil, es “un mapa de la pobreza” (p. 113) y la “criminaliza”, “convencidos en todo momento de que nuestras herramientas no solo son científicas, sino también justas” (p. 115).

PredPol es un gran ejemplo de cómo los algoritmos son meros deudores de los sesgos, vicios y virtudes de sus diseñadores. Hay delitos, como las grandes estafas financieras, que no están localizadas en un mapa; o crímenes, como casos de corrupción, que se trenzan en restaurantes e instituciones de distritos financieros y que cuando se descubren no dan lugar a un parte policial que añada un punto en el mapa. La herramienta no solo funciona de manera pésima, sino que se funda en una criminología pobre, anticuada y conservadora. Lo mismo con la herramienta que usa la policía de Chicago: ¡hostigaban a jóvenes inocentes en base a su red de amigos de Facebook! (p. 129). Esta manera de usar las ADM legitima el statu quo mediante la técnica: “los procesos de big datacodifican el pasado. No inventan el futuro” (p. 252).

Con ligeras variaciones, este es el funcionamiento general de las ADM que describe el libro. En general, su carácter pernicioso redunda en que cuando segmentan la base de datos nos agrupan con gente “similar” a nosotros y nos asignan sus comportamientos. Muchas veces las correlaciones que se extraen del big data son reales, como la relación entre colesterol e infartos, lo cual no quiere decir que su uso sea justo, por ejemplo, que alguien no pueda acceder a un puesto de trabajo por su nivel de colesterol —o que le penalicen en el sueldo con un sobrecoste del seguro médico porque un algoritmo dice que el que está gordo es más propenso a morir y trabajar peor (p. 217)—. Otro tipo de correlaciones, también verdaderas, son usadas para reducir la capacidad de negociación de los más débiles [4]: por ejemplo, que si uno tiene familia a su cargo y está en el paro, será más propenso a aceptar condiciones de préstamo leoninas [5].

2. Tres reflexiones filosófico-políticas en torno al libro

2.1. Agencia humana y eficiencia en el sistema penal
A mi parecer, lo que todos los ADM que Cathy O’Neil expone tienen en común es la negación de la capacidad de agencia de los seres humanos. Las herramientas que modelizan nuestro comportamiento gracias al big data tienen una visión del libre albedrío propia de Calvino. El modelo matemático procesa información de gente “como nosotros”, y nos agrupa según de qué se trate: por nuestro código postal, por una deuda similar en nuestra tarjeta de crédito, por nuestra edad, gustos culturales parecidos, hábitos alimenticios, etc. De esa información y de las múltiples correlaciones deduce un comportamiento, nos asigna un grupo, “microsegmenta” la base de datos: nos asigna un perfil de acción. Esa asignación de perfiles no es algo diferente en el caso del márquetin [6], que lo que hace es detectar los perfiles en los que se intersectan mayor cantidad de vulnerabilidades.

Ahora bien, de cara al sistema judicial, la sola idea de que se anule nuestra capacidad de agencia es desastrosa. El tratar de “predecir”, aunque sea teóricamente, si alguien cometerá un crimen es un absurdo desde el punto de vista del derecho, pues contradice la idea de responsabilidad moral y penal: si fuera cierto que estoy determinado (por mi infancia, mi familia, mis amigos, mi código postal…) a cometer un delito, ¿cómo se me puede exigir responsabilidad por ello? El intento de predicción y prevención del crimen mediante el sistema penal, propio de una novela orwelliana, socava uno de los pilares del Estado de derecho: los programas expuestos en este libro son un tenebroso ejemplo que retroalimenta las desigualdades e injusticias existentes.

Pero es que los algoritmos del sistema penal cometen otro grave error. La “eficiencia” que buscan, el “ahorro” de tiempo y recursos, no son principios constitucionales. La justicia y la imparcialidad, sin embargo, sí; principios, de hecho, bastante ineficientes, caros. Un juicio con acusación y defensa, presentación de pruebas, testigos, con varias posibilidades de apelación a tribunales, crea un sistema ineficaz y largo. Consume una enorme cantidad de recursos y todo a cambio de garantizar un juicio justo o respetar la presunción de inocencia del acusado. Esta cuestión la comenta muy brevemente O’Neil ––una excepción de altura filosófica en un libro lleno de crudos estudios de caso––: “en la lógica implícita en la Constitución [estadounidense], dejar en libertad a alguien que pudiera haber cometido un delito, por falta de pruebas, es menos peligroso para nuestra sociedad que encarcelar o ejecutar a una persona inocente” (p. 119). El LSR-I es un caso de fetichismo tecnológico: el descubrimiento de una técnica, a priori útil, ha difuminado los principios normativos que constituyen el sistema judicial. Es como si por el mero hecho de tener la capacidad técnica para llevar a cabo una democracia directa (con smartphones para todos y votaciones diarias) sacrificáramos todos los otros principios que articulan nuestro sistema político (la deliberación o las decisiones informadas, por ejemplo) [7].

2.2. Publicidad y disputabilidad de las acciones del Estado
Otro de los casos que cuenta el libro es el de una política pública de evaluación del profesorado de secundaria a partir de un modelo que indexaba diversas variables basadas en datos provenientes de los exámenes de los alumnos. El sistema fue un desastre (pp. 169-173) por razones que no vienen al caso (básicamente otro abusivo uso de variables proxy). Lo que sí nos interesa es el detalle de que los patrones de funcionamiento del algoritmo estuvieran ocultos a los profesores que estaban siendo modelizados: no sabían qué variables eran las relevantes para su puntuación [8]. Imaginemos unas oposiciones públicas que excluyen candidatos sin dar razones, o aún peor: remitiendo dogmáticamente al resultado de un cálculo incuestionable escupido por un ordenador, otra escena propia de Orwell. El uso de algoritmos de propiedad privada (siempre opacos) en políticas públicas viola el criterio básico de publicidad, que en su más común formulación decía que “Son injustas todas las acciones que se refieren al derecho de otros hombres cuyos principios no soportan ser publicados” [9]. Los modelos basados en big data convierten en indisputable la decisión del burócrata, del juez, porque su nula transparencia solo permite apelar a los sesgos que contienen mediante deducciones a partir de sus consecuencias. Como los consejos de tecnócratas de las instituciones europeas, el uso de algoritmos opacos va contra la naturaleza delegada y fiduciaria del poder político. Lo mismo que hoy hacen estos “neutrales” conjuntos de reglas matemáticas lo hicieron en otro tiempo los oscuros gabinetes técnicos de los poderes ejecutivos desembridados [10].

2.3. Sesgos de confirmación y deliberación política
Una de las aplicaciones de técnicas de microsegmentación es en campañas políticas. Igual que los publicistas que trabajan con los datos que genera nuestra actividad en internet para crear perfiles de consumidores rentables que luego vender a las marcas, los servicios de asesoría política de análisis de datos modelizan votantes-tipo. El uso más siniestro es la capacidad de, literalmente, individualizar la imagen que proyectan los candidatos sobre su electorado [11]. Cada candidato es un prisma con múltiples caras y opiniones específicas en variados temas no necesariamente relacionados entre sí. De hecho, las demandas que personifica un candidato pueden ser contradictorias vistas desde el punto de vista de su electorado en general. Imaginemos un político que personifique tres demandas —controlar el fracking, mejorar los parques nacionales y continuar la política exterior beligerante— que pueden ser excluyentes entre sí para muchos de sus votantes: ¿y si pudiéramos saber qué perfil de votante es cada uno de los interesados por el candidato, de tal modo que solo le hagamos llegar información de la cara del prisma en la que el votante en cuestión está interesado? En lugar de mandar el mismo email a todos los contactos de la lista, aplicamos minería de datos a los interesados y descubrimos si el email que reciba y los anuncios que vea en la web de campaña tienen que ser del candidato en su versión ecologista o en la militarista [12].

Desde este punto de vista, las perspectivas para la deliberación política no resultan halagadoras. El votante recibirá de los candidatos solo información personalizada acorde con su visión del mundo. En la era del big data, el votante ya ni siquiera puede ser concebido como consumidor (como se empeña en defender Cass Sunstein [13]). ¡El votante es el producto! Detectar mediante minería de datos a los sectores de población indecisos en circunscripciones clave —en las que unos miles de votos deciden la presidencia— los convierten en un activos en los que centrar las inversiones en publicidad de campaña, mientras que otros votantes —quizá porque sus clics han desvelado ya su clara intención de voto, quizá porque no producen información suficiente como para ser modelizados— dejan de recibir información directa de las oficinas de candidatos [14].

A este contexto agorero para la deliberación política y reino de los sesgos de confirmación, se unen las “cámaras de eco” que suponen las redes sociales, que nos proporcionan información de puntos de vista que ya conocemos (los de nuestros amigos y aquellos a quienes seguimos). El último golpe que las herramientas algorítmicas asestan a la democracia tal y como la conocíamos es la gran mediatización de nuestro acceso a la información, con Facebook y Google operando entre medios de comunicación convencionales y ciudadanos. Su poder omnímodo se revela mediante las increíbles cifras de confianza que infunden como fuentes de información [15]. Pero, de nuevo, la invisibilidad y opacidad de los modelos matemáticos nos dice mucho acerca de su forma de trabajar. El error es pensar que tecnicidad y matematización son equivalentes a neutralidad axiológica. Facebook utiliza múltiples criterios para decidir el orden en el que aparecen contenidos en nuestro muro. De hecho, no solo vende esa capacidad a anunciantes, sino que lleva a cabo macroexperimentos psicosociales constantemente (pp. 228-229). El algoritmo de búsqueda de Google, igual. Lo hacen igual que los periódicos y los telediarios: eligen un orden de aparición, unas determinadas imágenes y testimonios sobre otros, etc. Lo que ocurre con ese tipo de medios es que son criticables: sabemos que tienen una línea editorial y podemos cuestionar sus decisiones. La complejidad y opacidad matemática de Google y Facebook, en cambio, hace que se presenten como prístinos criterios alejados de sesgos humanos o intereses espurios.

Acabaré por donde comencé, compartiendo una reflexión que cruza el texto de O’Neil y que le da pleno sentido político. Sea cual sea el contexto tecnológico en el que nos encontremos, nuestras inquietudes políticas y humanas son esencialmente las mismas. La justicia y la presunción de inocencia tienen un valor autónomo respecto a nuestra capacidad para predecir crímenes, igual que el derecho a una jornada laboral asumible no debe verse afectado por nuestra tecnología para sofisticar al máximo la producción just in time, con horarios ajustados al flujo de clientes. Aunque fuese posible determinar cuándo uno morirá de un infarto, nunca consideraremos legítimo que se nos excluya del mercado de trabajo por discapacidades físicas. El big data supone una ventana de oportunidades innegable para el desarrollo de políticas públicas eficaces, implica grandes cambios en la manera en la que nos movemos en el mundo y en la que compartimos nuestra información. Implicará cambios en la forma en la nos informamos y nos informan, pero no en las razones por las cuales seguimos queriendo hacerlo.

Notas

[1] La más llamativa es la de los rankings universitarios. Como la variable “educación de calidad” es inabarcable, los modelos usan proxies que las sustituyen: ratio de alumno-profesor, cantidad de papers en revistas importantes, cantidad de solicitudes rechazadas, notas medias de ingreso, etc. Crean una dinámica perversa porque estos rankings, a parte de no incluir la eficiencia con la que un centro usa sus recursos disponibles, de facto marcan los objetivos nacionales de la educación superior (pp. 67 y ss.): la variable proxy acaba dominando a la original; el objetivo se convierte en mejorar el indicador “cantidad de papers”, perdiendo de vista que se quiere mejorar la calidad educativa general y no la producción científica. La elección de proxies es muchas veces sesgada. Otras veces sirve a las empresas para crear perfiles en torno a variables a las que no pueden acceder por ley, por ejemplo, saber el nivel adquisitivo de un internauta por el código postal al que remite su IP (ya que sus datos de Hacienda serán privados).

[2] En realidad lo deducimos, pues los entresijos del algoritmo no son públicamente accesibles. Comentaré más adelante la trascendencia de esta característica.

[3] La vulneración de la privacidad de los presos dentro del sistema penal es incluso mayor que la de los que navegamos por internet. La base de datos que maneja el LSI-R es especialmente grande, certera y exhaustiva (p. 43).

[4] Las externalidades del big data siempre afectan más a la “masa” de pobres, pues son herramientas útiles para grandes muestras (p. 186). No usaré un algoritmo para descartar currículos a un puesto de trabajo hipercualificado que solo recibe ocho solicitudes.

[5] Las herramientas para generar y procesar big data aumentan increíblemente la asimetría informativa de los mercados, haciéndolos insospechadamente ineficientes e injustos. Por ejemplo, aseguradoras que valoran la propensión o no de un cliente a comparar precios con la competencia (deducida de su comportamiento en internet). En caso de que la probabilidad de que un perfil de cliente sea “poco comparador” de seguros, les pueden incrementar el precio final hasta un 800% por la misma póliza (p. 205). Algo parecido hacen los partidos políticos para exprimir las donaciones de campaña en donantes clave (pp. 223 y ss.).

[6] Cuando se trata de empresas de márquetin la cuestión es menos problemática también porque las empresas se preocupan de contrastar que su modelo funciona Si el 90% de los casos seleccionados como clientes potenciales resultan ser personas apenas interesadas por el producto, el algoritmo está fallando por algún sitio: Amazon, Google o Netflix están constantemente renovando sus algoritmos para modelizar una realidad cambiante, porque su negocio depende de ello. Lo mismo con las aplicaciones que usan los equipos de baloncesto para fichar nuevos jugadores de acuerdo a sus estadísticas (p. 138). O los agrónomos cuando quieren optimizar sus recursos (p. 67). Cuando el LSI-R predice que alguien será reincidente y luego resulta no serlo, nadie retroalimenta al algoritmo con esa información. Cuando un selector masivo de currículos laborales deja pasar a una gran talento que se va a la competencia (o selecciona a un pésimo empleado), el algoritmo no se actualiza (p. 138-139). Cuando un algoritmo actuarial asigna un riesgo elevadísimo a un conductor que luego nunca tiene accidentes, ese algoritmo no es modificado (entre otras cosas, porque estará cobrando un sobreprecio a un cliente que nunca hace uso de su póliza de seguro: máxima rentabilidad). Igual cuando apareces según el modelo de un banco como un deudor arriesgado (p. 181), cuando eres evaluado como mal profesor o tu institución universitaria es perjudicada en un ranking masivo. La autora llega a comparar la adoración y poca contrastación de los algoritmos con la “frenología” (p. 151).

[7] José Luís Martí, “Alguna precisión sobre las nuevas tecnologías y la democracia deliberativa y participativa”, IDP. Revista de Internet, Derecho y Política, 2008 (6).

[8] Lo cual, por otro lado, es lógico. Cuando los participantes saben cuáles son las variables claves que determinan el modelo (o su puntuación, en este caso), tienden a hacer trampas que desfiguran los resultados, como pasa con los rankings universitarios (cf. pp. 69, 79 y 84-85).

[9] Immanuel Kant, Sobre la paz perpetua, trad. Joaquín Abellán, presentación de Antonio Truyol, Tecnos, Madrid, 1998 [1795], pp. 61-62.

[10] Como señalaba el joven Marx, esos que hacen que el gobierno sea un “estaminet” (en referencia a los pequeños cafés franceses) promoviendo la “esencia misteriosa y sacerdotal del Estado”. Cf. David Guerrero, “Tres velles per comprendre la llibertat d’expresió avui: El Marx de la Gaseta Renana (1842-1843)”, Revista Nous Horitzons, 218, 2018 (en prensa). Aquí solo hay una posible solución: las “auditorias” de los algoritmos; no solo de su código sino de las consecuencias reales que provocan (p. 257).

[11] El proceso es explicado brevemente para el caso de la campaña de reelección de Obama (p. 232-235), del que extraigo algunas partes.

[12] Muestra de la pertinencia de este libro es que, estando escrito durante el 2016, ya explica los ardides de Cambridge Analytica durante la campaña de Ted Cruz (pp. 237-238). Casi dos años antes de que saltara el escándalo por su relación con Facebook hace unos meses.

[13] Esa doctrina repite todavía en su #Republic: Divided Democracy in the Age of Social Media, Princeton University Press, Princeton, 2017.

[14] “En este sentido, podemos imaginar que el electorado es similar a los mercados financieros. Con el flujo de información, los valores suben y bajan igual que las inversiones (…) cada uno de nosotros representa una acción con un precio que fluctúa. Cada campaña debe decidir si se invierte en nosotros y cómo lo hace. Si merecemos la inversión, no solo dicen qué información nos suministran, sino también cuánta y de qué manera nos la hacen llegar” (p. 239).
Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data 

[15] O’Neil cita al Pew Research Center: “un 73% de los estadounidenses cree que los resultados de las búsquedas [de Google] son rigurosos e imparciales” (p. 230). Dos tercios de la población adulta estadounidense tienen un perfil de Facebook (p. 223).

Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data

sábado, 12 de mayo de 2018

Cambridge Analytica no cierra, cambia de piel: la manipulación sigue


CLAE

La consultora británica Cambridge Analytica, la que protagonizó el escándalo por el uso de datos de millones de usuarios de Facebook, anunció el cese inmediato de todas las operaciones e inició su proceso de quiebra, pero simplemente cambia de piel y seguirá sus manipulaciones con otros nombres, amenazando la pureza de las elecciones en varios países, entre ellos Argentina, Colombia y México.

La compañía británica culpó de su quiebra a las denuncias de manipulación política que inundaron los medios internacionales en los últimos, pero lo cierto (y que no dice) es que sus principales activos ya trabajan en una empresa con fines similares llamada Emerdata.

No es de extrañar que muchos medios del primer mundo se han hecho eco de la maniobra, aun cuando el británico Financial Times cita a exempleados que afirman que la empresa podría reinventarse con un nombre diferente, teniendo en cuenta que "Cambridge Analytica como marca es absolutamente tóxica (…) aunque, seguramente, SCL Group surgirá reencarnada o quizá disfrazada".

La entidad registradora pública de empresas y organizaciones del Reino Unido, Companies House, develó que existe una compañía llamada Emerdata Limited, “con sede en las mismas oficinas que SCL Elections y dirigida por la misma administración e inversores que Cambridge Analytica”. Incluso se describe a sí misma como una organización de "procesamiento de datos, alojamiento y actividades relacionadas", una actividad similar a la que decía realizar la empresa

El 21 de marzo Business Insider destapó la existencia de Emerdata Limited, en cuyo consejo de administración aparecen una serie de nombres directamente vinculados con Cambridge Analytica y SCL Group. Alexander Taylor fue nombrado director de Emerdata el 28 de marzo en sustitución del dimitido Alexander Nix. Otro directivo de SCL Group, Julian Wheatland, aparece en los registros como directivo de Emerdata.

Nix, quien reconoció que trabajó en elecciones en países de todos los continentes, incluyendo Estados Unidos, Reino Unido, Argentina, Nigeria, Kenia y República Checa, dejó la compañía justo tras estallar el escándalo de los datos de Facebook (o lo hizo estallar) y a raíz de un vídeo grabado por la televisión británica con cámara oculta donde hizo toda clase de comentarios inapropiados como ofrecer grandes cantidades de dinero a un candidato y amenazarle con publicarlo, para intentar extorsionarlo.

Jennifer y Rebekah Mercer, hijas del millonario Robert Mercer —fundador y financiador de Cambridge Analytica, y financista de la campaña presidencial de Donald Trump— quienes detentaban cargos de responsabilidad en Cambridge Analytica, también aparecen como directivos de Emerdata desde el 16 de marzo, en pleno estallido público del escándalo.

Es más, según Business Insider, entre los responsables de Emerdata también aparece Johnson Chun Shun Ko, un ejecutivo chino de Frontier Services Group, la firma militar presidida por el prominente partidario de Trump Erik Prince, fundador de la contratista militar estadounidense Blackwater US, y hermano de la secretaria de educación de Estados Unidos, Betsy DeVos.

Emerdata se constituyó en agosto de 2017, pero ha registrado bastante actividad desde que el escándalo del uso ilegítimo de los datos de Facebook llegó a los titulares en marzo de este año, incluidos los ya mencionados nombramientos de directivos provenientes, precisamente, de Cambridge Analytica.

Una provocada autoquiebra
Cambridge Analytica anunció también que en breve anunciará una bancarrota para su central en Londres y sus filiales en Estados Unidos. Todo esto pareciera un puesta en escena para hacer creer que muerta la empresa se terminó el mal. Pero es obvio que seguirán, con otro nombre las mismas manipulaciones.

En marzo pasado, Christopher Wylie, uno de sus fundadores, denunció que esa consultora había utilizado de manera ilegal la información de 50 millones de usuarios en Facebook.

Recién cuando el escándalo tomó dimensión global, Facebook reconoció que la consultora británica había accedido (¿o comprado?) a la información personal de al menos 87 millones de usuarios y la había utilizado para crear perfiles de votantes.

Wylie desnudó ante la Cámara de los Comunes británica la mecánica interna de la consultora, y denunció puntualmente la manipulación que realizó la empresa durante la campaña por la salida de Reino Unido de la Unión Europea a favor del Brexit, que incidieron en el resultado del referéndum de la UE.

AggregateIQ (AIQ), una empresa canadiense, trabajó con Cambridge Analytica durante la campaña a favor del Brexit y desarrolló un software denominado Ripon que utilizaba algoritmos de datos de Facebook para apuntar a ciertos perfiles ideológicos más abiertos al discurso anti UE, explicó Wylie. AIQ desempeñó un “papel muy significativo” en la victoria del Brexit en el Reino Unido, dijo.

Esta denuncia desató todo tipo de versiones y rumores en Estados Unidos, en donde Cambridge Analytica trabajó en la campaña presidencial de Donald Trump. El vínculo entre la consultora y el presidente republicano no es sólo laboral. Uno de los dueños de la compañía es el multimillonario estadounidense Robert Mercer, uno de los impulsores de la llamada derecha alternativa norteamericana, el movimiento de extrema derecha que apoyó desde el inicio al magnate inmobiliario.

Pero Cambridge Analytica no fue la única que recibió golpes por este escándalo. Facebook tuvo una caída abrupta en la bolsa estadounidense y una disminución igual de fuerte en su número de usuarios.

Facebook, una de las señaladas por las autoridades fiscales americana y europeas por disfrutar de las ventajas impositivas que confieren las regulaciones mercantiles y tributarias a los domicilios sociales y fiscales y el principal agente empresarial involucrado en los cambios de tendencia en las urnas británicas y estadounidenses en 2016, gestiona más de 300 millones de gigabytes en información personal de sus usuarios.

Estos datos equivalen a que cada uno de ellos tuviera archivados 126 e-books en sus cuentas, y un arsenal de perfiles que le permite disponer de una de las plataformas on line más importante del mundo, indispensable para beneficiarse de modelos de negocio que amplían consumidores y diversifican mercados al calor del incremento productivo de los robots y la automatización industrial.

Todo esto acontece apenas dos decenios después de que Sergey Brin y Larry Page registraran el dominio google.com y once de que Steve Jobs presentara en sociedad, en San Francisco, el primer iPhone. Mientras, Facebook sigue creando perfiles de usuarios y los algoritmos que usara Cambridge Analytica siguen a disposición de quien los quiera (o pueda) pagar.

Ricardo Carnevali: Doctorando en Comunicación Estratégica, Investigador del Observatorio en Comunicación y Democracia, asociado al Centro Latinoamericano de Análisis Estratégico (CLAE, www.estrategia.la )

jueves, 3 de mayo de 2018

Cambridge Analytica, la empresa detrás del mayor escándalo de privacidad de Facebook, anuncia su cierre.

La consultora política británica Cambridge Analytica, empresa que protagonizó el mayor escándalo de privacidad que haya sufrido Facebook, anunció este miércoles que cierra sus puertas con efecto inmediato.

La compañía fue acusada de hacer uso indebido de información personal para beneficio de sus clientes políticos.

Cambridge Analytica tuvo acceso a los datos de unos 87 millones de usuarios de Facebook, según reveló la red social que lanzó una investigación sobre lo ocurrido.

Esa información fue obtenida a través de una aplicación que ofrecía realizar un test de personalidad a los usuarios de la red social pero que, en realidad, usó ese acceso para recopilar datos de estos y de sus redes de amigos hasta sumar hasta un 15% de la población de Estados Unidos.

La data obtenida por la aplicación era luego entregada a Cambridge Analytica que luego, según las acusaciones,utilizó este material para elaborar perfiles psicológicos de cada usuario y diseñar mensajes hechos a la medida para tratar de influir en las elecciones presidenciales de Estados Unidos de 2016. Lo sucedido puso en aprietos a Facebook, hizo caer sus acciones en la bolsa y obligó a su fundador, Mark Zuckerberg, a comparecer ante una comisión del Congreso de EE.UU. y pedir disculpas.

Bancarrota
En la declaración en la que anunció el fin de sus operaciones, Cambridge Analytica informó también que estaba iniciando el procedimiento legal para declararse en bancarrota y dijo haber sido "objeto de numerosas acusaciones infundadas" durante los últimos meses.

"A pesar de la confianza firme de Cambridge Analytica en que sus empleados actuaron de forma ética y plenamente apegados a la ley... el asedio de la cobertura mediática ha alejado prácticamente a todos los clientes y proveedores de la compañía. Como resultado de ello, se ha decidido que ya no sigue siendo viable seguir operando", señaló la consultora en su comunicado.

En ocasiones anteriores, la empresa negó haber recolectado la información de los usuarios de Facebook para producir contenidos a la medida de estos durante la campaña electoral de 2016.

Además ha señalado que ha sido denigrada por realizar actividades que no solamente eran legales sino que además eran ampliamente aceptadas como una práctica normal tanto en el campo comercial como en el político.

En marzo pasado, Cambridge Analytica suspendió de sus funciones a su director ejecutivo, Alexander Nix, luego de que se divulgara un video en el que fue grabado con cámara oculta por Channel 4 News y en el cual él insinuaba que la empresa había ayudado a hacer campaña de Donald Trump en las redes.

Además detallaba métodos a través de los cuales podría desacreditar a otros políticos, incluyendo el envío de "chicas alrededor de la casa del candidato".

Posteriormente, Cambridge Analytica dijo que, de toda la información recopilada por la aplicación, solamente había adquirido 30 millones de registros correspondientes a ciudadanos estadounidenses y que ese material no había sido usado en la campaña presidencial de Estados Unidos.


lunes, 2 de abril de 2018

Todo lo que saben.

Robert Mercer, dueño de una parte de Cambridge Analytica, tiene un proyecto: derribar cualquier forma de orden político que interfiera con el poderío del dinero.

Se puede engañar a algunos todo el tiempo y a todos parte del tiempo, pero no se puede engañar a todos todo el tiempo… Sin embargo, se puede convencer a un número suficiente de gente para monitorearnos a todos, todo el tiempo.
(ETC. Del libro Bienes comunes y ciudadanía.)

La literatura de ficción se queda muy atrás en el retrato de este tiempo de ahora. Desde Ian Fleming a John le Carré, los novelistas han imaginado a megalómanos malvados que aspiran a dominar el mundo, pero ninguna imaginación ha podido concebir a un personaje como Donald Trump, y menos todavía a alguien mucho menos estridente pero tal vez más siniestro, que solo en estos últimos tiempos ha empezado a aparecer en los medios, el megamillonario Robert Mercer. Hasta hace poco Mercer era uno de los hombres más poderosos y a la vez más invisibles del mundo. Yo leí sobre él, y sobre su hija Rebekka, en uno de los extraordinarios reportajes que Jane Mayer escribe desde hace años sobre el poder del dinero en The New Yorker. Algunos de ellos se convirtieron en un libro escalofriante, Dark Money, del que hablé en estas páginas el año pasado. A los pocos meses de su aparición, Mayer publicó una nueva crónica que podría haber sido otro de los capítulos del libro, esta vez dedicada a los Mercer, padre e hija, y a la influencia decisiva que habían tenido en el nombramiento como candidato republicano y en la victoria de Donald Trump. He vuelto a leerlo ahora, y me he llevado la sorpresa de encontrar en él una referencia muy documentada a la compañía Cambridge Analytica, que justo estos días aparece citada en todas partes, en medio del escándalo que está por fin revelando la codicia, la falta de escrúpulos, el cinismo político con que la hasta ahora sacrosanta Facebook comercia con la intimidad de sus usuarios.

Cada día, a cada momento, centenares de millones de personas regalan, con conmovedora generosidad, todos los pormenores de su vida, de sus aficiones, de sus inclinaciones, de sus manías políticas a una empresa que a cambio les provee con una réplica adaptada del mundo, o personalizada, por decirlo con la palabra inevitable, y que al mismo tiempo de confortarlos y de envolverlos en un capullo hermético de certezas compartidas más o menos tribales, los somete a una especie de radiografía íntima, como bacterias en un cultivo biológico o como esos ratones de los laboratorios que rondan por sus laberintos de cartón llevando diminutos electrodos incrustados en el cráneo. Hasta hace poco la cara de Facebook era ese joven perennemente disfrazado de joven, de universitario brillante pero noble en un campus americano. Eran los tiempos en los que Internet y las redes sociales iban a establecer una radiante fraternidad universal que trascendería fronteras, derribaría muros, alimentaría una creatividad no sometida al control de las élites ni a las manipulaciones del comercio, etcétera.

A cada momento, centenares de millones de personas regalan, con conmovedora generosidad, todos los pormenores de su vida a una empresa

Ahora las caras son otras. Está la cara cínica de Alexander Nix, el director de Cambridge Analytica, la empresa a la que Facebook le vendió los datos de 50 millones de personas, que se ufana en público de haber contribuido a la victoria de Donald Trump y del Brexit, y de ser capaz de poner al servicio de cualquier mentira política toda la eficacia de su tecnología. Entre sus muchos logros, Cambridge Analytica incluye la campaña para contrarrestar los cargos de corrupción y abuso de poder del presidente de Kenia, acusado formalmente por el Tribunal Penal Internacional. Con su acento de clase alta inglesa, Nix explica que su empresa diseñó y difundió el mensaje de que las acusaciones respondían a una conspiración imperialista y racista contra un pueblo soberano de África. Pero los servicios de Cambridge Analytica no incluyen solo la tecnología. Según Nix, también pueden contratar a prostitutas del este de Europa para que actúen como cebo para personajes públicos, y difundir luego fotos o vídeos comprometedores en las redes.

Alexander Nix, como Donald Trump, tiene la desenvoltura de los sinvergüenzas. Robert Mercer, que es dueño de una parte de Cambridge Analytica, parece ser un hombre retraído que habla lo menos posible y lo hace en voz muy baja. Jane Mayer lo retrata con una perspicacia de gran narradora. Mercer, ingeniero informático, amasó su fortuna creando algoritmos para acelerar y automatizar decisiones en el mercado de valores. Posee uno de los yates más grandes del mundo, tan alto que cuando llega a Londres ha de abrirse el puente de la Torre para abrirle paso. Aficionado al maquetismo ferroviario, en su mansión de Long Island ha instalado un tren eléctrico que cuesta 2,7 millones de dólares y que circula por un paisaje en miniatura de una extensión equivalente a media cancha de baloncesto. Robert Mercer es devoto de Ayn Rand y cree que los Gobiernos solo sirven para subvencionar a la gente inútil y perezosa y entorpecer la iniciativa de las personas superiores y el dinamismo del mercado. También cree que Bill y Hillary Clinton ordenaron personalmente algunos asesinatos de adversarios políticos, y que el cambio climático es un fraude, y que en caso de necesidad Estados Unidos puede lanzar bombas nucleares contra un enemigo, dado que una explosión atómica no causa grandes daños más allá de la zona de su caída. El calentamiento global, en caso de que ocurra, creará nuevas especies de animales y de plantas; la bomba de Hiroshima y la de Nagasaki tuvieron a la larga un efecto benéfico sobre la salud de la población japonesa.

En 2012 la familia Mercer, que había invertido mucho dinero en la campaña de Mitt Romney, se llevó el disgusto de que saliera reelegido Obama. Fue entonces cuando decidieron que había que lograr una mayor capacidad de influencia utilizando las redes sociales y el manejo de las cantidades inmensas de datos que podían obtenerse en ellas. Los ejecutivos de Cambridge Analytica lo expresan con toda claridad, y hasta le han dado un nombre, psicografía: “Sabemos a qué clase de mensajes eres susceptible y dónde vas a consumirlos y cuántas veces vamos a tener que llegar a ti con ellos para hacer que cambien tus ideas sobre algo”.

Con su voz susurrante y sus modales helados, con su afición a los trenes eléctricos y a la demagogia truculenta de Ayn Rand, Robert Mercer tiene un proyecto, según le han contado a Jane Mayer algunos de sus allegados: derribar cualquier forma de legalidad o de orden político que interfiera con el poderío y el capricho del dinero. Casi cada uno de nosotros, en diferente medida, en su burbuja de conformidad, en sus vanos aspavientos virtuales, en su incapacidad gradual para hacer frente sin filtros a la crudeza y a la variedad del mundo, pone su grano de arena mínimo pero necesario en esa tarea. Solo hace falta dar un like.

https://elpais.com/cultura/2018/03/27/babelia/1522166283_951846.html