Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas
Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas

miércoles, 28 de octubre de 2020

_- Freud, el ‘big data’ y los pepinos. J. M. Mulet

_- Cien años después, la tecnología actual ha desmontado con datos algunas de las hipótesis del padre del psicoanálisis, como la famosa teoría de los sueños.

No cabe duda que Freud ha sido uno de los personajes más relevantes del siglo XX. La obra freudiana ha dejado una gran huella en la cultura universal y su influencia se hace patente en el cine, en la literatura, en la política y en la sociedad. Pero ¿y en la ciencia? Aquí hay un interesante debate planteado. Freud asumía sobre él mismo que era uno de los grandes científicos de la historia de la humanidad. En el artículo publicado en 1917 “Una dificultad del psicoanálisis” dice que Copérnico había demostrado que la Tierra no era el centro del universo; Darwin, que el hombre no era el centro de la evolución, y él mismo había demostrado que el hombre no es dueño de sus actos, sino que manda el subconsciente. La biografía de Freud nos deja otros muchos episodios que nos demuestran que Freud estaba encantado de ser Sigmund Freud y de haber conocido a Sigmund Freud. Pero independientemente de sus autovaloraciones, ¿la obra de Freud tiene base científica?

Este debate lleva más de 100 años, con defensores y detractores. Freud empezó su carrera como neurólogo estudiando las lampreas; por tanto, el método experimental no le era ajeno.

De forma muy simplificada podríamos decir que el método científico se basa en 
1. hacer una observación, 
2. plantear una hipótesis, 
3. realizar experimentos y, si la confirman, 
4. establecer leyes, y si no, se desecha la hipótesis. 

Cuando Freud empezó a estudiar el subconsciente y a sentar las bases del psicoanálisis planteó muchas hipótesis rompedoras e interesantes, pero el problema es que la mayoría las dio por buenas sin ningún tipo de evidencia experimental que las respaldara.

Eso le levantó las críticas de filósofos de la ciencia como Popper, que atacaba su trabajo diciendo que la mayoría de sus afirmaciones no son falsables; es decir, no se pueden someter a una prueba que las contradigan. La falsabilidad es una herramienta para determinar si una hipótesis tiene base científica. Por ejemplo, si decimos que todos los cisnes son blancos, esa afirmación será cierta mientras solo se conozcan cisnes blancos, pero en el momento que aparezca un cisne negro sabremos que nuestra hipótesis de partida es falsa.

El hecho de que las afirmaciones de Freud no sean falsables implica que no podemos decir si son ciertas o falsas, y nos adentramos en el terreno de la fe.

Sin embargo, la ciencia avanza y muchas de las afirmaciones de Freud ahora pueden someterse al escrutinio experimental utilizando herramientas informáticas o haciendo análisis de big data. Por ejemplo, la teoría de los sueños. Freud decía que soñar con alimentos era una muestra del deseo sexual y que por eso se solía soñar con alimentos de forma fálica o que recuerde a un genital femenino, y era el motivo de que fueran tan frecuentes. Existen bases de datos como Shadow donde la gente registra sus sueños. Analizando los datos vemos que los alimentos más representados son los más consumidos, y un análisis de regresión demuestra que tener una forma fálica no hace que un alimento aparezca más en sueños. Por tanto, es más relevante comer un alimento para soñar con él que tener un deseo sexual reprimido y soñar con higos o pepinos. 

Freud también afirmaba que los lapsus eran expresiones del subconsciente. Si una persona dice “penicuro” en vez de “pedicuro”, puede ser que esté pensando en un pene en vez de un pie y que esté expresando un deseo sexual reprimido. ¿Podemos poner a prueba esa afirmación? Microsoft registra los datos de las erratas tipográficas y las correcciones que cometen los que aportan texto a la aplicación MTurk de Amazon. Realmente existen lapsus que pueden tener una interpretación sexual como escribir “polla” en vez de “pollo” o “sexo” en vez de “seso”, pero también abundan las erratas sin doble intención del tipo “fegetales” en vez de “vegetales”. 

Un experimento ingenioso que realizó el investigador en big data Seth Stephens-Davidowitz consistió en calcular cuáles eran los errores más frecuentes tecleando y programar un sistema informático para que produjera estos errores aleatoriamente. Una vez obtenidos los errores, se compararán con los errores producidos por los humanos. Dado que el algoritmo informático no tiene subconsciente, si el subconsciente nos induce a expresar nuestra sexualidad reprimida, la previsión era que aparecerían más palabras relacionadas con el sexo en los errores humanos que en los programados. El resultado fue otra vez en contra de Freud. Las palabras que aparecían eran similares. —eps

J. M. Mulet es bioquímico y divulgador

miércoles, 18 de julio de 2018

_- A propósito del libro Armas de destrucción matemática de Cathy O’Neil. Apuntes de filosofía política en la era del big data.

_- [Por mor de la simplicidad, marcaré entre paréntesis y con números arábigos las páginas del libro que comento, según la edición castellana: Cathy O’Neil, Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia, trad. de Violeta Arranz de la Torre, Madrid, Capitán Swing, 2018.]

Sin caer en determinismos tecnológicos, cualquiera con una mínima sensibilidad materialista aceptará que los instrumentos técnicos han sido elementos relevantes en el desarrollo de las instituciones políticas. Aunque podamos declarar la autonomía de los principios normativos que regulan nuestras aspiraciones políticas, su realización depende en muchas ocasiones de que dispongamos de medios técnicos que nos lo faciliten. Podemos ser unos incondicionales de la libertad de expresión, pero tenemos que aceptar que para que de facto disfrutemos de todo el contenido implicado en ese principio normativo, hacen falta muchísimas más cosas además de su reconocimiento formal en un texto legal. No hace falta pensar en sofisticadas tecnologías como la imprenta, la fibra óptica o el 3G: algo tan sencillo como la escritura es un elemento técnico fundamental para el ensanchamiento de la libertad de expresión e información. Lo es del mismo modo que disponer de técnicas de contabilidad resulta esencial para llevar a cabo programas de redistribución de riqueza a gran escala, o una red de telégrafos para conseguir una centralización estatal eficaz. Los principios normativos, decía, son autónomos de cada contexto tecnológico —Thomas Jefferson defendía la libertad de expresión con intuiciones muy similares a las de Pericles, aunque la mayoría de atenienses fueran analfabetos, no tuvieran correo postal ni conocieran la imprenta—, pero es innegable que las herramientas técnicas abren (o cierran, si están del lado del tirano) las posibilidades de institucionalización y su realización de facto.

1. Un ejemplo para explicar la principal idea del libro
Los modelos matemáticos son una de esas herramientas técnicas que en la era del big data —la capacidad para generar y procesar datos masivamente— afectan de lleno a nuestra vida sociopolítica. Para lo que a nosotros nos interesa, podemos hablar de un modelo matemático como un conjunto de normas que traducen datos en predicciones. Los puede haber más y menos sofisticados, pero la modelización de la realidad social es una capacidad cognitiva que usamos constantemente. La autora no insiste en ello, pero es fácil entender el uso pernicioso del big data como sesgo cognitivo a escala masiva y camuflado por matemáticas. Veamos el siguiente, basado en un prejuicio racial (que lo alimenta):

Datos brutos: a veces roban productos de mi tienda; tengo alguna información acerca de esas personas y me fijo en alguna característica llamativa para mí, como su acento, su color de piel, su manera de vestir, etc. Procesamiento, busco correlaciones: la mayoría de ladrones a los que he pillado han resultado ser negros. Predicción: lo más probable es que si un negro entra mi tienda, será para robar; indicaré a mi guardia jurado que les vigile con especial atención.

El modelo es simple y se basa en una sencilla correlación de dos variables (hurtos y color de piel) que justifica la acción de prestar más atención a la vigilancia de ese tipo de clientes. Mi cerebro hace ese pequeño cálculo y orienta mi acción, haciéndome confundir correlación con causalidad. Para que un inofensivo algoritmo o modelo matemático se convierta en un “arma de destrucción matemática” (ADM) suele cumplir tres características:

Opacidad (o incluso invisibilidad): ¿saben mis clientes que trato de predecir si me roban o no?, ¿saben que el color de su piel es una variable relevante en mi modelización de los hurtos?

Bucle de retroalimentación: en lugar de contrastar mi modelo con una prueba empírica rigurosa (para descubrir si existe causalidad entre el color de piel y el robo), asumo que las correlaciones son vínculos causales y a medida que aplico mi modelo, mi propia generación de datos comienza a sesgarse por las correlaciones que había observado originalmente. Como vigilo más a los clientes negros, descubriré más hurtos suyos que de otros grupos que pudieran ser relevantes, retroalimentando la correlación inicial del modelo en cada iteración. Las ADM frecuentemente toman la forma de profecías autocumplidas.

Escalabilidad: a parte de la escasa sensibilidad racial, poco se le puede impugnar a un tendero prejuicioso que con su pequeño modelo mental alimenta su propio sesgo cognitivo. Pero las ADM que trata O’Neil son a escala nacional y se basan en gran cantidad de datos —por eso afectan a tantas personas—. Aunque podría contar como otra característica más, la escalabilidad suele ir asociada al uso de variables sustitutivas [1].

1.1. Dos casos relacionados: la predicción de la reincidencia y del crimen
Como el comentario de este libro es una mera excusa para abordar cuestiones filosófico-políticas de mayor calado, me remitiré a exponer dos de los muchos casos que el libro desarrolla, para dar una muestra del funcionamiento de las ADM. Es bien sabido que una revisión de la jurisprudencia penal estadounidense revela sesgos racistas por parte de los jueces. Una manera de evitar la arbitrariedad que supone la sensibilidad política del juez es usar un algoritmo auxiliar que predice la reincidencia del reo, ayudando así a determinar cuántos años debería ir a la cárcel o si le otorgan la condicional: “podríamos pensar que la utilización de modelos de riesgo informatizados nutridos con datos debería reducir la influencia de los prejuicios en las condenas y contribuiría a que el trato impartido sea más imparcial” (p. 35).

El LSI-R es uno de esos algoritmos ampliamente utilizados en Estados Unidos, que basa sus resultados en cuestionarios que rellenan los mismos presos: “¿Cuántas condenas previas ha tenido?”, “¿Qué papel tuvieron otras personas en el delito?”, “¿Qué papel tuvieron las drogas y el alcohol?”, “¿Cuándo fue la primera vez que tuvo trato con la policía?”.

El modelo elabora sus predicciones de acuerdo a correlaciones que podríamos pensar que son razonables [2], por ejemplo, si el reo tuvo su primer encuentro con la policía con 13 años o si su hermano fue también delincuente, el algoritmo le asignará mas probabilidades de reincidir, porque hay una masiva base de datos [3] según la cual otros condenados con las mismas características fueron reincidentes.

Si le hacemos esa pregunta [sobre si sus familiares o amigos tienen antecedentes] a un condenado que se haya criado en un barrio de clase media, es mucho más probable que la respuesta sea no (…) el cuestionario no pregunta por la raza, ya que esa pregunta es ilegal, pero teniendo en cuenta la abundancia de detalles que obtiene de la vida de cada preso, esa única pregunta ilegal es prácticamente superflua (p. 37).

La herramienta es tremendamente eficiente y ahorra muchísimos recursos al sistema judicial, resolviendo mucho más rápido los procesos. Pero ¿sería aceptable que un fiscal argumentara contra la prisión condicional del acusado señalando que sus padres eran unos delincuentes?

Algunos cuerpos de policía en EE.UU. usan PredPol: una aplicación en la que “los datos de entrada principales son la tipología y localización de cada delito, así como el momento en que tienen lugar” (p. 109), por lo que a priori no cometería la misma injusticia que el LSI-R. La aplicación divide un mapa en zonas de diverso riesgo para así distribuir las patrullas policiales. Y otra vez aparece el bucle de retroalimentación: se envían más patrullas a barrios de mayor “desorden” (en los que abundan delitos menores), que a su vez producen más encuentros con la policía, que a su vez aumentan las correlaciones en la base de datos, que a su vez hace que se envíe al mismo lugar más policía, etc.

La policía de Los Ángeles podría decidir eliminar los delitos menores de los datos de entrada del modelo —posesión de pequeñas cantidades de droga, beber en la calle, hurtos en comercios, grafitis, multas de tráfico…—, pero cuando eso ocurre “la capacidad de predicción” se ve muy reducida, ya que los delitos graves, como los grandes robos, los asesinatos o las violaciones se producen de manera dispersa por el mapa. Lo que PredPol hace, concluye O’Neil, es “un mapa de la pobreza” (p. 113) y la “criminaliza”, “convencidos en todo momento de que nuestras herramientas no solo son científicas, sino también justas” (p. 115).

PredPol es un gran ejemplo de cómo los algoritmos son meros deudores de los sesgos, vicios y virtudes de sus diseñadores. Hay delitos, como las grandes estafas financieras, que no están localizadas en un mapa; o crímenes, como casos de corrupción, que se trenzan en restaurantes e instituciones de distritos financieros y que cuando se descubren no dan lugar a un parte policial que añada un punto en el mapa. La herramienta no solo funciona de manera pésima, sino que se funda en una criminología pobre, anticuada y conservadora. Lo mismo con la herramienta que usa la policía de Chicago: ¡hostigaban a jóvenes inocentes en base a su red de amigos de Facebook! (p. 129). Esta manera de usar las ADM legitima el statu quo mediante la técnica: “los procesos de big datacodifican el pasado. No inventan el futuro” (p. 252).

Con ligeras variaciones, este es el funcionamiento general de las ADM que describe el libro. En general, su carácter pernicioso redunda en que cuando segmentan la base de datos nos agrupan con gente “similar” a nosotros y nos asignan sus comportamientos. Muchas veces las correlaciones que se extraen del big data son reales, como la relación entre colesterol e infartos, lo cual no quiere decir que su uso sea justo, por ejemplo, que alguien no pueda acceder a un puesto de trabajo por su nivel de colesterol —o que le penalicen en el sueldo con un sobrecoste del seguro médico porque un algoritmo dice que el que está gordo es más propenso a morir y trabajar peor (p. 217)—. Otro tipo de correlaciones, también verdaderas, son usadas para reducir la capacidad de negociación de los más débiles [4]: por ejemplo, que si uno tiene familia a su cargo y está en el paro, será más propenso a aceptar condiciones de préstamo leoninas [5].

2. Tres reflexiones filosófico-políticas en torno al libro

2.1. Agencia humana y eficiencia en el sistema penal
A mi parecer, lo que todos los ADM que Cathy O’Neil expone tienen en común es la negación de la capacidad de agencia de los seres humanos. Las herramientas que modelizan nuestro comportamiento gracias al big data tienen una visión del libre albedrío propia de Calvino. El modelo matemático procesa información de gente “como nosotros”, y nos agrupa según de qué se trate: por nuestro código postal, por una deuda similar en nuestra tarjeta de crédito, por nuestra edad, gustos culturales parecidos, hábitos alimenticios, etc. De esa información y de las múltiples correlaciones deduce un comportamiento, nos asigna un grupo, “microsegmenta” la base de datos: nos asigna un perfil de acción. Esa asignación de perfiles no es algo diferente en el caso del márquetin [6], que lo que hace es detectar los perfiles en los que se intersectan mayor cantidad de vulnerabilidades.

Ahora bien, de cara al sistema judicial, la sola idea de que se anule nuestra capacidad de agencia es desastrosa. El tratar de “predecir”, aunque sea teóricamente, si alguien cometerá un crimen es un absurdo desde el punto de vista del derecho, pues contradice la idea de responsabilidad moral y penal: si fuera cierto que estoy determinado (por mi infancia, mi familia, mis amigos, mi código postal…) a cometer un delito, ¿cómo se me puede exigir responsabilidad por ello? El intento de predicción y prevención del crimen mediante el sistema penal, propio de una novela orwelliana, socava uno de los pilares del Estado de derecho: los programas expuestos en este libro son un tenebroso ejemplo que retroalimenta las desigualdades e injusticias existentes.

Pero es que los algoritmos del sistema penal cometen otro grave error. La “eficiencia” que buscan, el “ahorro” de tiempo y recursos, no son principios constitucionales. La justicia y la imparcialidad, sin embargo, sí; principios, de hecho, bastante ineficientes, caros. Un juicio con acusación y defensa, presentación de pruebas, testigos, con varias posibilidades de apelación a tribunales, crea un sistema ineficaz y largo. Consume una enorme cantidad de recursos y todo a cambio de garantizar un juicio justo o respetar la presunción de inocencia del acusado. Esta cuestión la comenta muy brevemente O’Neil ––una excepción de altura filosófica en un libro lleno de crudos estudios de caso––: “en la lógica implícita en la Constitución [estadounidense], dejar en libertad a alguien que pudiera haber cometido un delito, por falta de pruebas, es menos peligroso para nuestra sociedad que encarcelar o ejecutar a una persona inocente” (p. 119). El LSR-I es un caso de fetichismo tecnológico: el descubrimiento de una técnica, a priori útil, ha difuminado los principios normativos que constituyen el sistema judicial. Es como si por el mero hecho de tener la capacidad técnica para llevar a cabo una democracia directa (con smartphones para todos y votaciones diarias) sacrificáramos todos los otros principios que articulan nuestro sistema político (la deliberación o las decisiones informadas, por ejemplo) [7].

2.2. Publicidad y disputabilidad de las acciones del Estado
Otro de los casos que cuenta el libro es el de una política pública de evaluación del profesorado de secundaria a partir de un modelo que indexaba diversas variables basadas en datos provenientes de los exámenes de los alumnos. El sistema fue un desastre (pp. 169-173) por razones que no vienen al caso (básicamente otro abusivo uso de variables proxy). Lo que sí nos interesa es el detalle de que los patrones de funcionamiento del algoritmo estuvieran ocultos a los profesores que estaban siendo modelizados: no sabían qué variables eran las relevantes para su puntuación [8]. Imaginemos unas oposiciones públicas que excluyen candidatos sin dar razones, o aún peor: remitiendo dogmáticamente al resultado de un cálculo incuestionable escupido por un ordenador, otra escena propia de Orwell. El uso de algoritmos de propiedad privada (siempre opacos) en políticas públicas viola el criterio básico de publicidad, que en su más común formulación decía que “Son injustas todas las acciones que se refieren al derecho de otros hombres cuyos principios no soportan ser publicados” [9]. Los modelos basados en big data convierten en indisputable la decisión del burócrata, del juez, porque su nula transparencia solo permite apelar a los sesgos que contienen mediante deducciones a partir de sus consecuencias. Como los consejos de tecnócratas de las instituciones europeas, el uso de algoritmos opacos va contra la naturaleza delegada y fiduciaria del poder político. Lo mismo que hoy hacen estos “neutrales” conjuntos de reglas matemáticas lo hicieron en otro tiempo los oscuros gabinetes técnicos de los poderes ejecutivos desembridados [10].

2.3. Sesgos de confirmación y deliberación política
Una de las aplicaciones de técnicas de microsegmentación es en campañas políticas. Igual que los publicistas que trabajan con los datos que genera nuestra actividad en internet para crear perfiles de consumidores rentables que luego vender a las marcas, los servicios de asesoría política de análisis de datos modelizan votantes-tipo. El uso más siniestro es la capacidad de, literalmente, individualizar la imagen que proyectan los candidatos sobre su electorado [11]. Cada candidato es un prisma con múltiples caras y opiniones específicas en variados temas no necesariamente relacionados entre sí. De hecho, las demandas que personifica un candidato pueden ser contradictorias vistas desde el punto de vista de su electorado en general. Imaginemos un político que personifique tres demandas —controlar el fracking, mejorar los parques nacionales y continuar la política exterior beligerante— que pueden ser excluyentes entre sí para muchos de sus votantes: ¿y si pudiéramos saber qué perfil de votante es cada uno de los interesados por el candidato, de tal modo que solo le hagamos llegar información de la cara del prisma en la que el votante en cuestión está interesado? En lugar de mandar el mismo email a todos los contactos de la lista, aplicamos minería de datos a los interesados y descubrimos si el email que reciba y los anuncios que vea en la web de campaña tienen que ser del candidato en su versión ecologista o en la militarista [12].

Desde este punto de vista, las perspectivas para la deliberación política no resultan halagadoras. El votante recibirá de los candidatos solo información personalizada acorde con su visión del mundo. En la era del big data, el votante ya ni siquiera puede ser concebido como consumidor (como se empeña en defender Cass Sunstein [13]). ¡El votante es el producto! Detectar mediante minería de datos a los sectores de población indecisos en circunscripciones clave —en las que unos miles de votos deciden la presidencia— los convierten en un activos en los que centrar las inversiones en publicidad de campaña, mientras que otros votantes —quizá porque sus clics han desvelado ya su clara intención de voto, quizá porque no producen información suficiente como para ser modelizados— dejan de recibir información directa de las oficinas de candidatos [14].

A este contexto agorero para la deliberación política y reino de los sesgos de confirmación, se unen las “cámaras de eco” que suponen las redes sociales, que nos proporcionan información de puntos de vista que ya conocemos (los de nuestros amigos y aquellos a quienes seguimos). El último golpe que las herramientas algorítmicas asestan a la democracia tal y como la conocíamos es la gran mediatización de nuestro acceso a la información, con Facebook y Google operando entre medios de comunicación convencionales y ciudadanos. Su poder omnímodo se revela mediante las increíbles cifras de confianza que infunden como fuentes de información [15]. Pero, de nuevo, la invisibilidad y opacidad de los modelos matemáticos nos dice mucho acerca de su forma de trabajar. El error es pensar que tecnicidad y matematización son equivalentes a neutralidad axiológica. Facebook utiliza múltiples criterios para decidir el orden en el que aparecen contenidos en nuestro muro. De hecho, no solo vende esa capacidad a anunciantes, sino que lleva a cabo macroexperimentos psicosociales constantemente (pp. 228-229). El algoritmo de búsqueda de Google, igual. Lo hacen igual que los periódicos y los telediarios: eligen un orden de aparición, unas determinadas imágenes y testimonios sobre otros, etc. Lo que ocurre con ese tipo de medios es que son criticables: sabemos que tienen una línea editorial y podemos cuestionar sus decisiones. La complejidad y opacidad matemática de Google y Facebook, en cambio, hace que se presenten como prístinos criterios alejados de sesgos humanos o intereses espurios.

Acabaré por donde comencé, compartiendo una reflexión que cruza el texto de O’Neil y que le da pleno sentido político. Sea cual sea el contexto tecnológico en el que nos encontremos, nuestras inquietudes políticas y humanas son esencialmente las mismas. La justicia y la presunción de inocencia tienen un valor autónomo respecto a nuestra capacidad para predecir crímenes, igual que el derecho a una jornada laboral asumible no debe verse afectado por nuestra tecnología para sofisticar al máximo la producción just in time, con horarios ajustados al flujo de clientes. Aunque fuese posible determinar cuándo uno morirá de un infarto, nunca consideraremos legítimo que se nos excluya del mercado de trabajo por discapacidades físicas. El big data supone una ventana de oportunidades innegable para el desarrollo de políticas públicas eficaces, implica grandes cambios en la manera en la que nos movemos en el mundo y en la que compartimos nuestra información. Implicará cambios en la forma en la nos informamos y nos informan, pero no en las razones por las cuales seguimos queriendo hacerlo.

Notas

[1] La más llamativa es la de los rankings universitarios. Como la variable “educación de calidad” es inabarcable, los modelos usan proxies que las sustituyen: ratio de alumno-profesor, cantidad de papers en revistas importantes, cantidad de solicitudes rechazadas, notas medias de ingreso, etc. Crean una dinámica perversa porque estos rankings, a parte de no incluir la eficiencia con la que un centro usa sus recursos disponibles, de facto marcan los objetivos nacionales de la educación superior (pp. 67 y ss.): la variable proxy acaba dominando a la original; el objetivo se convierte en mejorar el indicador “cantidad de papers”, perdiendo de vista que se quiere mejorar la calidad educativa general y no la producción científica. La elección de proxies es muchas veces sesgada. Otras veces sirve a las empresas para crear perfiles en torno a variables a las que no pueden acceder por ley, por ejemplo, saber el nivel adquisitivo de un internauta por el código postal al que remite su IP (ya que sus datos de Hacienda serán privados).

[2] En realidad lo deducimos, pues los entresijos del algoritmo no son públicamente accesibles. Comentaré más adelante la trascendencia de esta característica.

[3] La vulneración de la privacidad de los presos dentro del sistema penal es incluso mayor que la de los que navegamos por internet. La base de datos que maneja el LSI-R es especialmente grande, certera y exhaustiva (p. 43).

[4] Las externalidades del big data siempre afectan más a la “masa” de pobres, pues son herramientas útiles para grandes muestras (p. 186). No usaré un algoritmo para descartar currículos a un puesto de trabajo hipercualificado que solo recibe ocho solicitudes.

[5] Las herramientas para generar y procesar big data aumentan increíblemente la asimetría informativa de los mercados, haciéndolos insospechadamente ineficientes e injustos. Por ejemplo, aseguradoras que valoran la propensión o no de un cliente a comparar precios con la competencia (deducida de su comportamiento en internet). En caso de que la probabilidad de que un perfil de cliente sea “poco comparador” de seguros, les pueden incrementar el precio final hasta un 800% por la misma póliza (p. 205). Algo parecido hacen los partidos políticos para exprimir las donaciones de campaña en donantes clave (pp. 223 y ss.).

[6] Cuando se trata de empresas de márquetin la cuestión es menos problemática también porque las empresas se preocupan de contrastar que su modelo funciona Si el 90% de los casos seleccionados como clientes potenciales resultan ser personas apenas interesadas por el producto, el algoritmo está fallando por algún sitio: Amazon, Google o Netflix están constantemente renovando sus algoritmos para modelizar una realidad cambiante, porque su negocio depende de ello. Lo mismo con las aplicaciones que usan los equipos de baloncesto para fichar nuevos jugadores de acuerdo a sus estadísticas (p. 138). O los agrónomos cuando quieren optimizar sus recursos (p. 67). Cuando el LSI-R predice que alguien será reincidente y luego resulta no serlo, nadie retroalimenta al algoritmo con esa información. Cuando un selector masivo de currículos laborales deja pasar a una gran talento que se va a la competencia (o selecciona a un pésimo empleado), el algoritmo no se actualiza (p. 138-139). Cuando un algoritmo actuarial asigna un riesgo elevadísimo a un conductor que luego nunca tiene accidentes, ese algoritmo no es modificado (entre otras cosas, porque estará cobrando un sobreprecio a un cliente que nunca hace uso de su póliza de seguro: máxima rentabilidad). Igual cuando apareces según el modelo de un banco como un deudor arriesgado (p. 181), cuando eres evaluado como mal profesor o tu institución universitaria es perjudicada en un ranking masivo. La autora llega a comparar la adoración y poca contrastación de los algoritmos con la “frenología” (p. 151).

[7] José Luís Martí, “Alguna precisión sobre las nuevas tecnologías y la democracia deliberativa y participativa”, IDP. Revista de Internet, Derecho y Política, 2008 (6).

[8] Lo cual, por otro lado, es lógico. Cuando los participantes saben cuáles son las variables claves que determinan el modelo (o su puntuación, en este caso), tienden a hacer trampas que desfiguran los resultados, como pasa con los rankings universitarios (cf. pp. 69, 79 y 84-85).

[9] Immanuel Kant, Sobre la paz perpetua, trad. Joaquín Abellán, presentación de Antonio Truyol, Tecnos, Madrid, 1998 [1795], pp. 61-62.

[10] Como señalaba el joven Marx, esos que hacen que el gobierno sea un “estaminet” (en referencia a los pequeños cafés franceses) promoviendo la “esencia misteriosa y sacerdotal del Estado”. Cf. David Guerrero, “Tres velles per comprendre la llibertat d’expresió avui: El Marx de la Gaseta Renana (1842-1843)”, Revista Nous Horitzons, 218, 2018 (en prensa). Aquí solo hay una posible solución: las “auditorias” de los algoritmos; no solo de su código sino de las consecuencias reales que provocan (p. 257).

[11] El proceso es explicado brevemente para el caso de la campaña de reelección de Obama (p. 232-235), del que extraigo algunas partes.

[12] Muestra de la pertinencia de este libro es que, estando escrito durante el 2016, ya explica los ardides de Cambridge Analytica durante la campaña de Ted Cruz (pp. 237-238). Casi dos años antes de que saltara el escándalo por su relación con Facebook hace unos meses.

[13] Esa doctrina repite todavía en su #Republic: Divided Democracy in the Age of Social Media, Princeton University Press, Princeton, 2017.

[14] “En este sentido, podemos imaginar que el electorado es similar a los mercados financieros. Con el flujo de información, los valores suben y bajan igual que las inversiones (…) cada uno de nosotros representa una acción con un precio que fluctúa. Cada campaña debe decidir si se invierte en nosotros y cómo lo hace. Si merecemos la inversión, no solo dicen qué información nos suministran, sino también cuánta y de qué manera nos la hacen llegar” (p. 239).
Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data 

[15] O’Neil cita al Pew Research Center: “un 73% de los estadounidenses cree que los resultados de las búsquedas [de Google] son rigurosos e imparciales” (p. 230). Dos tercios de la población adulta estadounidense tienen un perfil de Facebook (p. 223).

Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data

domingo, 29 de abril de 2018

El Deseo

Minería de datos: imagino a unos tipos duros, con monos azules y un casco con luz en la cabeza que descienden a las profundidades de nuestras almas

Me conmueve mucho la expresión “minería de datos”. Minería de datos, minería de datos. Imagino a unos tipos duros, con monos azules y un casco con luz en la cabeza. Descienden a las profundidades de su alma de usted, y de la mía, de nuestras almas, y en esa oscuridad (porque el alma es oscura) clavan el pico y la pala para llenar sus carretillas de la materia viscosa de la que está hecha la conciencia. Cuando el conjunto llega a la superficie, otros especialistas, mineros también, aunque con una cualificación superior, separan la ganga de la mena. Con la mena, supongo yo, fabrican los algoritmos prescriptivos de los que deducen, por ejemplo, no cuando necesitaré cambiar de televisor, sino cuándo desearé hacerlo. Porque es cierto que un día me levantaré de la cama y necesitaré introducir en mi vida un cambio que la acelere un poco, que la coloque al nivel de un buen producto audiovisual, de un excelente anuncio de móviles, o de automóviles. Ese día llegará, yo aún lo ignoro, pero los algoritmos que procesan los rasgos de nuestra personalidad ya están al tanto. De modo que un miércoles cualquiera, mientras preparo el primer té de la mañana, pensaré que estaría bien tener en la cocina un televisor inteligente. Un minuto antes, o quizá un minuto después, pero de forma casi simultánea, recibiré en mi móvil la publicidad del televisor soñado. Y más que eso: la oferta de un crédito para adquirirlo porque el vendedor del electrodoméstico y el banco comparten los tesoros económicos extraídos de nuestro subconsciente. Ya sabemos, en fin, cómo aprovechan la mena. Muchos se preguntarán qué rayos hacen con la ganga, es decir, con la mierda que acompañaba al dato. La ganga, me temo, es el televisor que compraré ese miércoles.

https://elpais.com/elpais/2018/04/26/opinion/1524732892_466811.html

sábado, 3 de marzo de 2018

“Ahora uno se explota a sí mismo y cree que está realizándose”. El filósofo surcoreano Byung-Chul Han, un destacado diseccionador de la sociedad del hiperconsumismo, explica en Barcelona sus críticas al “infierno de lo igual”.

Las Torres Gemelas, edificios iguales entre sí y que se reflejan mutuamente, un sistema cerrado en sí mismo, imponiendo lo igual y excluyendo lo distinto y que fueron objetivo de un atentado que abrió una brecha en el sistema global de lo igual. O la gente practicando binge watching (atracones de series), visualizando continuamente solo aquello que le gusta: de nuevo, proliferando lo igual, nunca lo distinto o el otro... Son dos de las potentes imágenes que utiliza el filósofo Byung-Chul Han (Seúl, 1959), uno de los más reconocidos diseccionadores de los males que aquejan a la sociedad hiperconsumista y neoliberal tras la caída del muro de Berlín. Libros como La sociedad del cansancio, Psicopolítica o La expulsión de lo distinto (en España, publicados por Herder) compendian su tupido discurso intelectual, que desarrolla siempre en red: todo lo conecta, como hace con sus manos muy abiertas, de dedos largos que se juntan mientras cimbrea una corta coleta en la cabeza.

“En la orwelliana 1984 esa sociedad era consciente  de que estaba siendo dominadahoy no tenemos ni esa consciencia de dominación”, alertó ayer en el Centro de Cultura Contemporánea de Barcelona  (CCCB), donde el profesor formado y afincado en Alemania disertó sobre la expulsión de la diferencia. Y dio pie a conocer su particular cosmovisión, construida a partir de su tesis de que los individuos hoy se autoexplotan y sienten pavor hacia el otro, el diferente. Viviendo, así, en “el desierto, o el infierno, de lo igual”.

Autenticidad. Para Han, la gente se vende como auténtica porque “todos quieren ser distintos de los demás”, lo que fuerza a “producirse a uno mismo”. Y es imposible serlo hoy auténticamente porque “en esa voluntad de ser distinto prosigue lo igual”. Resultado: el sistema solo permite que se den “diferencias comercializables”.

Autoexplotación. Se ha pasado, en opinión del filósofo, “del deber de hacer” una cosa al “poder hacerla”. “Se vive con la angustia de no hacer siempre todo lo que se puede”, y si no se triunfa, es culpa suya. “Ahora uno se explota a sí mismo figurándose que se está realizando; es la pérfida lógica del neoliberalismo que culmina en el síndrome del trabajador quemado”. Y la consecuencia, peor: “Ya no hay contra quien dirigir la revolución, no hay otros de donde provenga la represión”. Es “la alienación de uno mismo”, que en lo físico se traduce en anorexias o en sobreingestas de comida o de productos de consumo u ocio.

‘Big data’.“Los macrodatos hacen superfluo el pensamiento porque si todo es numerable, todo es igual... Estamos en pleno dataísmo: el hombre ya no es soberano de sí mismo sino que es resultado de una operación algorítmica que lo domina sin que lo perciba; lo vemos en China con la concesión de visados según los datos que maneja el Estado o en la técnica del reconocimiento facial”. ¿La revuelta pasaría por dejar de compartir datos o de estar en las redes sociales? “No podemos negarnos a facilitarlos: una sierra también puede cortar cabezas... Hay que ajustar el sistema: el ebook está hecho para que yo lea, no para que me lea a mí a través de algoritmos... ¿O es que el algoritmo hará ahora al hombre? En EE UU hemos visto la influencia de Facebook en las elecciones...  Necesitamos una carta digital que recupere la dignidad humana y pensar en una renta básica para las profesiones que devorarán las nuevas tecnologías”.

Comunicación. “Sin la presencia del otro, la comunicación degenera en un intercambio de información: las relaciones se reemplazan por las conexiones, y así solo se enlaza con lo igual; la comunicación digital es solo vista, hemos perdido todos los sentidos; estamos en una fase debilitada de la comunicación, como nunca: la comunicación global y de los likes solo consiente a los que son más iguales a uno; ¡lo igual no duele!”.

Jardín. “Yo soy diferente; estoy envuelto de aparatos analógicos: tuve dos pianos de 400 kilos y durante tres años he cultivado un jardín secreto que me ha dado contacto con la realidad: colores, olores, sensaciones... Me ha permitido percatarme de la alteridad de la tierra: la tierra tenía peso, todo lo hacía con las manos; lo digital no pesa, no huele, no opone resistencia, pasas un dedo y ya está... Es la abolición de la realidad; mi próximo libro será ese: Elogio de la tierra. El jardín secreto. La tierra es más que dígitos y números.

Narcisismo. Sostiene Han que “ser observado hoy es un aspecto central de ser en el mundo”. El problema reside en que “el narcisista es ciego a la hora de ver al otro” y sin ese otro “uno no puede producir por sí mismo el sentimiento de autoestima”. El narcisismo habría llegado también a la que debería ser una panacea, el arte: “Ha degenerado en narcisismo, está al servicio del consumo, se pagan injustificadas burradas por él, es ya víctima del sistema; si fuera ajeno al mismo, sería una narrativa nueva, pero no lo es”.

Otros. Es la clave de sus reflexiones más recientes. “Cuanto más iguales son las personas, más aumenta la producción; esa es la lógica actual; el capital necesita que todos seamos iguales, incluso los turistas; el neoliberalismo no funcionaría si las personas fuéramos distintas”. Por ello propone “regresar al animal original, que no consume ni comunica desaforadamente; no tengo soluciones concretas, pero puede que al final el sistema implosione por sí mismo... En cualquier caso, vivimos en una época de conformismo radical: la universidad tiene clientes y solo crea trabajadores, no forma espiritualmente; el mundo está al límite de su capacidad; quizá así llegue un cortocircuito y recuperemos ese animal original”.

Refugiados. Han es muy claro: con el actual sistema neoliberal “no se siente temor, miedo o asco por los refugiados sino que son vistos como carga, con resentimiento o envidia”; la prueba es que luego el mundo occidental va a veranear a sus países.

Tiempo. Es necesaria una revolución en el uso del tiempo, sostiene el filósofo, profesor en Berlín. “La aceleración actual disminuye la capacidad de permanecer: necesitamos un tiempo propio que el sistema productivo no nos deja; requerimos de un tiempo de fiesta, que significa estar parados, sin nada productivo que hacer, pero que no debe confundirse con un tiempo de recuperación para seguir trabajando; el tiempo trabajado es tiempo perdido, no es tiempo para nosotros”.


EL “MONSTRUO” DE LA UE Y LA “BODA” CATALUÑA-ESPAÑA 

“Estamos en la Red, pero no escuchamos al otro, solo hacemos ruido”, dice Byung-Chul Han, que viaja lo justo y no hace turismo “para no participar del flujo de mercancías y personas”. También reclama una política nueva. Y la relaciona con Cataluña, tema cuya tensión rebaja bromeando:

“Si Puigdemont promete volver al animal original, me hago separatista”.

Y ya en lo político, lo enmarca en el contexto de la Unión Europea: “La UE no ha sido una unión de sentimientos sino comercial; es un monstruo burocrático fuera de toda lógica democrática; funciona a golpe de decretos...; en esta globalización abstracta se da un duelo entre el no lugar y la necesidad de ser de un lugar concreto; el especial está incómodo y genera desasosiego y estalla lo regional. Hegel decía que la verdad es la reconciliación entre lo general y lo particular y eso hoy es más difícil...”. Pero acude a su revolución temporal: “Las bodas forman parte de la recuperación del tiempo de fiesta: a ver si hay una entre Cataluña y España y se reconcilian”.

https://elpais.com/cultura/2018/02/07/actualidad/1517989873_086219.html?rel=lom

domingo, 20 de noviembre de 2016

El "dataismo" desprecia el sufrimiento humano. La frialdad del capital.

El salmón contracorriente

Cuando la política se rinde a los pies del capital y los seres humanos son reducidos a la categoría de consumidores y votantes, cuyos suculentos datos se almacenan en los frigoríficos de las redes sociales, el pueblo es amaestrado e imita, consciente o inconscientemente, al burro de la noria que intenta alcanzar la zanahoria.

En su obra Psicopolítica, el filósofo surcoreano de formación germana Byung Chul Han, que concede al “dataismo” la relevancia de una nueva religión, nos dice:

Ya no trabajamos para satisfacer nuestras necesidades, sino para el capital. El capital genera sus propias necesidades, que nosotros, de forma errónea, percibimos como propias (…) La política acaba convirtiéndose de nuevo en esclavitud. Se convierte en un esbirro del capital. ¿Queremos realmente ser libres?

Chul Han, quien afirma que ahora estamos vigilados por millones de ojos que escrutan el panóptico del Big Data y que la estadística ignora –como sabemos todos– el sufrimiento humano, agrega que:

Hoy los políticos acusan al elevado endeudamiento de su enormemente limitada libertad de acción (…) Quizás incluso nos endeudamos permanentemente para no tener que actuar (…) Porque no es posible liquidar las deudas, se perpetua el estado de falta de libertad.

Este filósofo afincado en Berlín que se doctoró con una tesis sobre M. Heidegger, recalca que vivimos en el mundo de las prisas y de lo efímero y que estamos alejándonos de nuestra naturaleza humana, en su vertiente más hermosa, vaciándonos de todo lo que realmente es importante. Respecto a las consultas electorales, dice lo siguiente:

El votante, en cuanto consumidor, no tiene interés real por la política (…) Sólo reacciona de forma pasiva a la política, refunfuñando y quejándose.

En España ya hemos integrado dos palabras que se usan de forma cuasi lúdica: las redes y los caladeros. Yendo al grano se puede decir que los poderosos son los que manejan las redes y que en los caladeros vive una parte importante de la población, que es valorada teniendo en cuenta su docilidad y poder adquisitivo.

Los individuos que coletean en los buenos caladeros –que son los que tienen una nómina guay y consumen como idiotas– son útiles para los intereses de los grandes grupos empresariales. Los pobres, los excluidos y los que sobreviven con un trabajo precario son considerados un cero a la izquierda.

El filósofo surcoreano señala que la empresa de datos Acxiom comercia con información personal de unos 300 millones de ciudadanos estadounidenses, esto es, prácticamente todos. Asegura que esa firma sabe más de los individuos que el FBI. Así explica en Psicopolítica el método de trabajo de la citada compañía:

En esta empresa las personas son agrupadas en 70 categorías. Se ofertan en el catálogo como mercancías. Aquellos con un valor económico escaso son denominados waste, es decir «basura ». Los consumidores con un valor de mercado superior se encuentran en el grupo Shooting Star (…) El Big Data da lugar a una sociedad de clases digital.

El autor de El aroma del tiempo, que está ahora de moda en las universidades occidentales y que se ha convertido en un auténtico best seller, añade que el panóptico digital está especializado, entre otras muchas cosas, en identificar “a las personas alejadas u hostiles al sistema”, a quienes se etiqueta de “no deseadas y se las excluye”.

Y vuelve a cantar Quiquiriquí el Noble Gallo Beneventano para denunciar la ferocidad de las gaviotas. Aquí, en la costa, han empezado a comerse a las palomas. Las desgarran, las devoran las vísceras y solo dejan sangre y plumas.

Javier Cortines Nilo Homérico

Fuente:
http://www.elsalmoncontracorriente.es/?El-dataismo-desprecia-el

jueves, 1 de septiembre de 2016

Un país de espaldas a la ciencia. EE UU, Suecia o Japón no invierten en I+D+i porque sean ricos, son ricos porque invierten en I+D+i

Carl Sagan, el reconocido divulgador, lo definió como nadie: “Estamos rodeados de ciencia y tecnología, pero nadie sabe nada sobre ciencia y tecnología”.

La vida digital, las consecuencias de conocer qué hay dentro de nuestro genoma, la inteligencia artificial, el big data, los coches autoconducidos y hasta WhatsApp; las innovaciones científicas y tecnológicas nos admiran, nos rodean y nos hacen la vida mejor, aun cuando nos neguemos a comprenderlas. Solo el 14% de los ciudadanos españoles asegura estar interesado por la ciencia y la tecnología, frente al 25% que no lo está, según datos de la Fundación Española para la Ciencia y la Tecnología. Y este clásico desinterés ciudadano, que podría ser simplemente un error, se ha trasladado a la esfera política, y ha convertido ese error en un desastre.

La ciencia, la tecnología y la innovación constituyen el factor productivo primordial de las grandes economías mundiales, y su fuente principal de riqueza. Estados Unidos, Suecia, Finlandia, Japón o Corea del Sur no invierten en I+D+i porque sean ricos, son ricos porque invierten en I+D+i.

Estados Unidos gasta más de un 2,8% de su PIB en ciencia y tecnología y, según asegura su Gobierno, ese esfuerzo es responsable de más de la mitad del desarrollo económico e industrial del país desde la II Guerra Mundial. La inyección de dinero en ciencia y tecnología es constante, y se ha ido manteniendo incluso en los peores años de la crisis. “La ciencia y la tecnología han conseguido que Estados Unidos sea el mejor país sobre la Tierra”, ha dicho su presidente, Barack Obama. La inversión española, mientras, da tumbos según sople el viento económico: entre el año 2002 y el 2008 se realizó un considerable esfuerzo por ponernos a la altura del resto de los socios de la UE, pero desde 2010 hasta 2014, el descenso acumulado en los presupuestos ha sido del 10%, según datos del último informe Cotec. Esa caída es muy dolorosa para los científicos españoles, obligados a buscar fondos europeos para sus proyectos o a emigrar. Pero es solo el principio: “Están por ver los efectos del recorte del gasto público sobre los resultados de la actividad investigadora, debido al desfase temporal propio de los procesos de investigación”, ha advertido la OCDE al Gobierno español.

Las empresas y cuidadanos españoles son, sin embargo, pioneros en la adopción de los resultados de la innovación y la tecnología. Las empresas españolas están por encima de la media mundial en su digitalización, según un reciente informe de PwC, y España es el país europeo con mayor adopción de aplicaciones de redes sociales y mensajería electrónica entre sus ciudadanos. Es, sin embargo, innovación y tecnología que producen otros. “Ser pro-ciencia es la única manera de asegurarse de que Estados Unidos siga liderando el mundo”, ha dicho Obama. Durante su primer y único debate televisado, ninguno de los cuatro principales candidatos a la presidencia del Gobierno en las próximas elecciones españolas fue preguntado por su política de inversión en ciencia e innovación, ni creyó conveniente ni relevante explicar las consecuencias para los ciudadanos de vivir en un país de espaldas a la ciencia. Pero las hay: según un informe del Círculo Cívico de Opinión, si España hubiera invertido anualmente en I+D el mismo porcentaje que el resto de países de la OCDE desde 1970, en el año 2005, habríamos sido, por cabeza, un 20% más ricos.

http://politica.elpais.com/politica/2016/06/13/actualidad/1465830050_964684.html

martes, 7 de octubre de 2014

El ‘big data’: el trueque del siglo XXI

El big data es hacer una fotografía, viajar, buscar trabajo o conocer gente en la sociedad 2.0, es decir, la sociedad de la información y de las nuevas tecnologías. Así pues, nuestro día a día en esta reciente aristocracia se convierte en cantidades innumerables de datos, una virtualización en cifras. Este almacén se genera mediante nuestra interacción con las nuevas tecnologías a través de páginas web, redes sociales, tecnología biométrica, movimientos transaccionales, etcétera. Pero ¿qué sucede con todo este caos de información? Pues bien, mientras disfrutamos de esta sociedad y le concedemos sin aparente cuidado nuestra vida a las recientes tecnologías, las grandes empresas la utilizan como estrategia para competir con otras grandes empresas, y así las que no se unan a la corriente de indagar en nuestras hazañas perderán competitividad y conocimiento avanzado para su negocio. Nuestros datos son el producto que las sociedades corporativas, entendidas en términos comerciales, quieren y nosotros les damos, a cambio de simples regalos como una cuenta en Google con 15 GB de espacio de almacenamiento. En mi opinión, es una transacción muy rentable para cualquier compañía. Mark Zuckerberg, fundador de Facebook, afirmó que “la era de la privacidad ha terminado” y que, a su entender, los datos por defecto deberían ser públicos. Así, deduzco que él nos da el poder de comunicarnos de forma más eficiente, pero que cada uno de nosotros le damos supremacía de subastar nuestra vida al mejor licitador.
— Montse Bonet Giné. Abogada especializada en la sociedad de la información y las nuevas tecnologías. Fuente: http://elpais.com/elpais/2014/10/03/opinion/1412357654_072047.html