Mostrando entradas con la etiqueta privacidad. Mostrar todas las entradas
Mostrando entradas con la etiqueta privacidad. Mostrar todas las entradas

miércoles, 18 de julio de 2018

_- A propósito del libro Armas de destrucción matemática de Cathy O’Neil. Apuntes de filosofía política en la era del big data.

_- [Por mor de la simplicidad, marcaré entre paréntesis y con números arábigos las páginas del libro que comento, según la edición castellana: Cathy O’Neil, Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia, trad. de Violeta Arranz de la Torre, Madrid, Capitán Swing, 2018.]

Sin caer en determinismos tecnológicos, cualquiera con una mínima sensibilidad materialista aceptará que los instrumentos técnicos han sido elementos relevantes en el desarrollo de las instituciones políticas. Aunque podamos declarar la autonomía de los principios normativos que regulan nuestras aspiraciones políticas, su realización depende en muchas ocasiones de que dispongamos de medios técnicos que nos lo faciliten. Podemos ser unos incondicionales de la libertad de expresión, pero tenemos que aceptar que para que de facto disfrutemos de todo el contenido implicado en ese principio normativo, hacen falta muchísimas más cosas además de su reconocimiento formal en un texto legal. No hace falta pensar en sofisticadas tecnologías como la imprenta, la fibra óptica o el 3G: algo tan sencillo como la escritura es un elemento técnico fundamental para el ensanchamiento de la libertad de expresión e información. Lo es del mismo modo que disponer de técnicas de contabilidad resulta esencial para llevar a cabo programas de redistribución de riqueza a gran escala, o una red de telégrafos para conseguir una centralización estatal eficaz. Los principios normativos, decía, son autónomos de cada contexto tecnológico —Thomas Jefferson defendía la libertad de expresión con intuiciones muy similares a las de Pericles, aunque la mayoría de atenienses fueran analfabetos, no tuvieran correo postal ni conocieran la imprenta—, pero es innegable que las herramientas técnicas abren (o cierran, si están del lado del tirano) las posibilidades de institucionalización y su realización de facto.

1. Un ejemplo para explicar la principal idea del libro
Los modelos matemáticos son una de esas herramientas técnicas que en la era del big data —la capacidad para generar y procesar datos masivamente— afectan de lleno a nuestra vida sociopolítica. Para lo que a nosotros nos interesa, podemos hablar de un modelo matemático como un conjunto de normas que traducen datos en predicciones. Los puede haber más y menos sofisticados, pero la modelización de la realidad social es una capacidad cognitiva que usamos constantemente. La autora no insiste en ello, pero es fácil entender el uso pernicioso del big data como sesgo cognitivo a escala masiva y camuflado por matemáticas. Veamos el siguiente, basado en un prejuicio racial (que lo alimenta):

Datos brutos: a veces roban productos de mi tienda; tengo alguna información acerca de esas personas y me fijo en alguna característica llamativa para mí, como su acento, su color de piel, su manera de vestir, etc. Procesamiento, busco correlaciones: la mayoría de ladrones a los que he pillado han resultado ser negros. Predicción: lo más probable es que si un negro entra mi tienda, será para robar; indicaré a mi guardia jurado que les vigile con especial atención.

El modelo es simple y se basa en una sencilla correlación de dos variables (hurtos y color de piel) que justifica la acción de prestar más atención a la vigilancia de ese tipo de clientes. Mi cerebro hace ese pequeño cálculo y orienta mi acción, haciéndome confundir correlación con causalidad. Para que un inofensivo algoritmo o modelo matemático se convierta en un “arma de destrucción matemática” (ADM) suele cumplir tres características:

Opacidad (o incluso invisibilidad): ¿saben mis clientes que trato de predecir si me roban o no?, ¿saben que el color de su piel es una variable relevante en mi modelización de los hurtos?

Bucle de retroalimentación: en lugar de contrastar mi modelo con una prueba empírica rigurosa (para descubrir si existe causalidad entre el color de piel y el robo), asumo que las correlaciones son vínculos causales y a medida que aplico mi modelo, mi propia generación de datos comienza a sesgarse por las correlaciones que había observado originalmente. Como vigilo más a los clientes negros, descubriré más hurtos suyos que de otros grupos que pudieran ser relevantes, retroalimentando la correlación inicial del modelo en cada iteración. Las ADM frecuentemente toman la forma de profecías autocumplidas.

Escalabilidad: a parte de la escasa sensibilidad racial, poco se le puede impugnar a un tendero prejuicioso que con su pequeño modelo mental alimenta su propio sesgo cognitivo. Pero las ADM que trata O’Neil son a escala nacional y se basan en gran cantidad de datos —por eso afectan a tantas personas—. Aunque podría contar como otra característica más, la escalabilidad suele ir asociada al uso de variables sustitutivas [1].

1.1. Dos casos relacionados: la predicción de la reincidencia y del crimen
Como el comentario de este libro es una mera excusa para abordar cuestiones filosófico-políticas de mayor calado, me remitiré a exponer dos de los muchos casos que el libro desarrolla, para dar una muestra del funcionamiento de las ADM. Es bien sabido que una revisión de la jurisprudencia penal estadounidense revela sesgos racistas por parte de los jueces. Una manera de evitar la arbitrariedad que supone la sensibilidad política del juez es usar un algoritmo auxiliar que predice la reincidencia del reo, ayudando así a determinar cuántos años debería ir a la cárcel o si le otorgan la condicional: “podríamos pensar que la utilización de modelos de riesgo informatizados nutridos con datos debería reducir la influencia de los prejuicios en las condenas y contribuiría a que el trato impartido sea más imparcial” (p. 35).

El LSI-R es uno de esos algoritmos ampliamente utilizados en Estados Unidos, que basa sus resultados en cuestionarios que rellenan los mismos presos: “¿Cuántas condenas previas ha tenido?”, “¿Qué papel tuvieron otras personas en el delito?”, “¿Qué papel tuvieron las drogas y el alcohol?”, “¿Cuándo fue la primera vez que tuvo trato con la policía?”.

El modelo elabora sus predicciones de acuerdo a correlaciones que podríamos pensar que son razonables [2], por ejemplo, si el reo tuvo su primer encuentro con la policía con 13 años o si su hermano fue también delincuente, el algoritmo le asignará mas probabilidades de reincidir, porque hay una masiva base de datos [3] según la cual otros condenados con las mismas características fueron reincidentes.

Si le hacemos esa pregunta [sobre si sus familiares o amigos tienen antecedentes] a un condenado que se haya criado en un barrio de clase media, es mucho más probable que la respuesta sea no (…) el cuestionario no pregunta por la raza, ya que esa pregunta es ilegal, pero teniendo en cuenta la abundancia de detalles que obtiene de la vida de cada preso, esa única pregunta ilegal es prácticamente superflua (p. 37).

La herramienta es tremendamente eficiente y ahorra muchísimos recursos al sistema judicial, resolviendo mucho más rápido los procesos. Pero ¿sería aceptable que un fiscal argumentara contra la prisión condicional del acusado señalando que sus padres eran unos delincuentes?

Algunos cuerpos de policía en EE.UU. usan PredPol: una aplicación en la que “los datos de entrada principales son la tipología y localización de cada delito, así como el momento en que tienen lugar” (p. 109), por lo que a priori no cometería la misma injusticia que el LSI-R. La aplicación divide un mapa en zonas de diverso riesgo para así distribuir las patrullas policiales. Y otra vez aparece el bucle de retroalimentación: se envían más patrullas a barrios de mayor “desorden” (en los que abundan delitos menores), que a su vez producen más encuentros con la policía, que a su vez aumentan las correlaciones en la base de datos, que a su vez hace que se envíe al mismo lugar más policía, etc.

La policía de Los Ángeles podría decidir eliminar los delitos menores de los datos de entrada del modelo —posesión de pequeñas cantidades de droga, beber en la calle, hurtos en comercios, grafitis, multas de tráfico…—, pero cuando eso ocurre “la capacidad de predicción” se ve muy reducida, ya que los delitos graves, como los grandes robos, los asesinatos o las violaciones se producen de manera dispersa por el mapa. Lo que PredPol hace, concluye O’Neil, es “un mapa de la pobreza” (p. 113) y la “criminaliza”, “convencidos en todo momento de que nuestras herramientas no solo son científicas, sino también justas” (p. 115).

PredPol es un gran ejemplo de cómo los algoritmos son meros deudores de los sesgos, vicios y virtudes de sus diseñadores. Hay delitos, como las grandes estafas financieras, que no están localizadas en un mapa; o crímenes, como casos de corrupción, que se trenzan en restaurantes e instituciones de distritos financieros y que cuando se descubren no dan lugar a un parte policial que añada un punto en el mapa. La herramienta no solo funciona de manera pésima, sino que se funda en una criminología pobre, anticuada y conservadora. Lo mismo con la herramienta que usa la policía de Chicago: ¡hostigaban a jóvenes inocentes en base a su red de amigos de Facebook! (p. 129). Esta manera de usar las ADM legitima el statu quo mediante la técnica: “los procesos de big datacodifican el pasado. No inventan el futuro” (p. 252).

Con ligeras variaciones, este es el funcionamiento general de las ADM que describe el libro. En general, su carácter pernicioso redunda en que cuando segmentan la base de datos nos agrupan con gente “similar” a nosotros y nos asignan sus comportamientos. Muchas veces las correlaciones que se extraen del big data son reales, como la relación entre colesterol e infartos, lo cual no quiere decir que su uso sea justo, por ejemplo, que alguien no pueda acceder a un puesto de trabajo por su nivel de colesterol —o que le penalicen en el sueldo con un sobrecoste del seguro médico porque un algoritmo dice que el que está gordo es más propenso a morir y trabajar peor (p. 217)—. Otro tipo de correlaciones, también verdaderas, son usadas para reducir la capacidad de negociación de los más débiles [4]: por ejemplo, que si uno tiene familia a su cargo y está en el paro, será más propenso a aceptar condiciones de préstamo leoninas [5].

2. Tres reflexiones filosófico-políticas en torno al libro

2.1. Agencia humana y eficiencia en el sistema penal
A mi parecer, lo que todos los ADM que Cathy O’Neil expone tienen en común es la negación de la capacidad de agencia de los seres humanos. Las herramientas que modelizan nuestro comportamiento gracias al big data tienen una visión del libre albedrío propia de Calvino. El modelo matemático procesa información de gente “como nosotros”, y nos agrupa según de qué se trate: por nuestro código postal, por una deuda similar en nuestra tarjeta de crédito, por nuestra edad, gustos culturales parecidos, hábitos alimenticios, etc. De esa información y de las múltiples correlaciones deduce un comportamiento, nos asigna un grupo, “microsegmenta” la base de datos: nos asigna un perfil de acción. Esa asignación de perfiles no es algo diferente en el caso del márquetin [6], que lo que hace es detectar los perfiles en los que se intersectan mayor cantidad de vulnerabilidades.

Ahora bien, de cara al sistema judicial, la sola idea de que se anule nuestra capacidad de agencia es desastrosa. El tratar de “predecir”, aunque sea teóricamente, si alguien cometerá un crimen es un absurdo desde el punto de vista del derecho, pues contradice la idea de responsabilidad moral y penal: si fuera cierto que estoy determinado (por mi infancia, mi familia, mis amigos, mi código postal…) a cometer un delito, ¿cómo se me puede exigir responsabilidad por ello? El intento de predicción y prevención del crimen mediante el sistema penal, propio de una novela orwelliana, socava uno de los pilares del Estado de derecho: los programas expuestos en este libro son un tenebroso ejemplo que retroalimenta las desigualdades e injusticias existentes.

Pero es que los algoritmos del sistema penal cometen otro grave error. La “eficiencia” que buscan, el “ahorro” de tiempo y recursos, no son principios constitucionales. La justicia y la imparcialidad, sin embargo, sí; principios, de hecho, bastante ineficientes, caros. Un juicio con acusación y defensa, presentación de pruebas, testigos, con varias posibilidades de apelación a tribunales, crea un sistema ineficaz y largo. Consume una enorme cantidad de recursos y todo a cambio de garantizar un juicio justo o respetar la presunción de inocencia del acusado. Esta cuestión la comenta muy brevemente O’Neil ––una excepción de altura filosófica en un libro lleno de crudos estudios de caso––: “en la lógica implícita en la Constitución [estadounidense], dejar en libertad a alguien que pudiera haber cometido un delito, por falta de pruebas, es menos peligroso para nuestra sociedad que encarcelar o ejecutar a una persona inocente” (p. 119). El LSR-I es un caso de fetichismo tecnológico: el descubrimiento de una técnica, a priori útil, ha difuminado los principios normativos que constituyen el sistema judicial. Es como si por el mero hecho de tener la capacidad técnica para llevar a cabo una democracia directa (con smartphones para todos y votaciones diarias) sacrificáramos todos los otros principios que articulan nuestro sistema político (la deliberación o las decisiones informadas, por ejemplo) [7].

2.2. Publicidad y disputabilidad de las acciones del Estado
Otro de los casos que cuenta el libro es el de una política pública de evaluación del profesorado de secundaria a partir de un modelo que indexaba diversas variables basadas en datos provenientes de los exámenes de los alumnos. El sistema fue un desastre (pp. 169-173) por razones que no vienen al caso (básicamente otro abusivo uso de variables proxy). Lo que sí nos interesa es el detalle de que los patrones de funcionamiento del algoritmo estuvieran ocultos a los profesores que estaban siendo modelizados: no sabían qué variables eran las relevantes para su puntuación [8]. Imaginemos unas oposiciones públicas que excluyen candidatos sin dar razones, o aún peor: remitiendo dogmáticamente al resultado de un cálculo incuestionable escupido por un ordenador, otra escena propia de Orwell. El uso de algoritmos de propiedad privada (siempre opacos) en políticas públicas viola el criterio básico de publicidad, que en su más común formulación decía que “Son injustas todas las acciones que se refieren al derecho de otros hombres cuyos principios no soportan ser publicados” [9]. Los modelos basados en big data convierten en indisputable la decisión del burócrata, del juez, porque su nula transparencia solo permite apelar a los sesgos que contienen mediante deducciones a partir de sus consecuencias. Como los consejos de tecnócratas de las instituciones europeas, el uso de algoritmos opacos va contra la naturaleza delegada y fiduciaria del poder político. Lo mismo que hoy hacen estos “neutrales” conjuntos de reglas matemáticas lo hicieron en otro tiempo los oscuros gabinetes técnicos de los poderes ejecutivos desembridados [10].

2.3. Sesgos de confirmación y deliberación política
Una de las aplicaciones de técnicas de microsegmentación es en campañas políticas. Igual que los publicistas que trabajan con los datos que genera nuestra actividad en internet para crear perfiles de consumidores rentables que luego vender a las marcas, los servicios de asesoría política de análisis de datos modelizan votantes-tipo. El uso más siniestro es la capacidad de, literalmente, individualizar la imagen que proyectan los candidatos sobre su electorado [11]. Cada candidato es un prisma con múltiples caras y opiniones específicas en variados temas no necesariamente relacionados entre sí. De hecho, las demandas que personifica un candidato pueden ser contradictorias vistas desde el punto de vista de su electorado en general. Imaginemos un político que personifique tres demandas —controlar el fracking, mejorar los parques nacionales y continuar la política exterior beligerante— que pueden ser excluyentes entre sí para muchos de sus votantes: ¿y si pudiéramos saber qué perfil de votante es cada uno de los interesados por el candidato, de tal modo que solo le hagamos llegar información de la cara del prisma en la que el votante en cuestión está interesado? En lugar de mandar el mismo email a todos los contactos de la lista, aplicamos minería de datos a los interesados y descubrimos si el email que reciba y los anuncios que vea en la web de campaña tienen que ser del candidato en su versión ecologista o en la militarista [12].

Desde este punto de vista, las perspectivas para la deliberación política no resultan halagadoras. El votante recibirá de los candidatos solo información personalizada acorde con su visión del mundo. En la era del big data, el votante ya ni siquiera puede ser concebido como consumidor (como se empeña en defender Cass Sunstein [13]). ¡El votante es el producto! Detectar mediante minería de datos a los sectores de población indecisos en circunscripciones clave —en las que unos miles de votos deciden la presidencia— los convierten en un activos en los que centrar las inversiones en publicidad de campaña, mientras que otros votantes —quizá porque sus clics han desvelado ya su clara intención de voto, quizá porque no producen información suficiente como para ser modelizados— dejan de recibir información directa de las oficinas de candidatos [14].

A este contexto agorero para la deliberación política y reino de los sesgos de confirmación, se unen las “cámaras de eco” que suponen las redes sociales, que nos proporcionan información de puntos de vista que ya conocemos (los de nuestros amigos y aquellos a quienes seguimos). El último golpe que las herramientas algorítmicas asestan a la democracia tal y como la conocíamos es la gran mediatización de nuestro acceso a la información, con Facebook y Google operando entre medios de comunicación convencionales y ciudadanos. Su poder omnímodo se revela mediante las increíbles cifras de confianza que infunden como fuentes de información [15]. Pero, de nuevo, la invisibilidad y opacidad de los modelos matemáticos nos dice mucho acerca de su forma de trabajar. El error es pensar que tecnicidad y matematización son equivalentes a neutralidad axiológica. Facebook utiliza múltiples criterios para decidir el orden en el que aparecen contenidos en nuestro muro. De hecho, no solo vende esa capacidad a anunciantes, sino que lleva a cabo macroexperimentos psicosociales constantemente (pp. 228-229). El algoritmo de búsqueda de Google, igual. Lo hacen igual que los periódicos y los telediarios: eligen un orden de aparición, unas determinadas imágenes y testimonios sobre otros, etc. Lo que ocurre con ese tipo de medios es que son criticables: sabemos que tienen una línea editorial y podemos cuestionar sus decisiones. La complejidad y opacidad matemática de Google y Facebook, en cambio, hace que se presenten como prístinos criterios alejados de sesgos humanos o intereses espurios.

Acabaré por donde comencé, compartiendo una reflexión que cruza el texto de O’Neil y que le da pleno sentido político. Sea cual sea el contexto tecnológico en el que nos encontremos, nuestras inquietudes políticas y humanas son esencialmente las mismas. La justicia y la presunción de inocencia tienen un valor autónomo respecto a nuestra capacidad para predecir crímenes, igual que el derecho a una jornada laboral asumible no debe verse afectado por nuestra tecnología para sofisticar al máximo la producción just in time, con horarios ajustados al flujo de clientes. Aunque fuese posible determinar cuándo uno morirá de un infarto, nunca consideraremos legítimo que se nos excluya del mercado de trabajo por discapacidades físicas. El big data supone una ventana de oportunidades innegable para el desarrollo de políticas públicas eficaces, implica grandes cambios en la manera en la que nos movemos en el mundo y en la que compartimos nuestra información. Implicará cambios en la forma en la nos informamos y nos informan, pero no en las razones por las cuales seguimos queriendo hacerlo.

Notas

[1] La más llamativa es la de los rankings universitarios. Como la variable “educación de calidad” es inabarcable, los modelos usan proxies que las sustituyen: ratio de alumno-profesor, cantidad de papers en revistas importantes, cantidad de solicitudes rechazadas, notas medias de ingreso, etc. Crean una dinámica perversa porque estos rankings, a parte de no incluir la eficiencia con la que un centro usa sus recursos disponibles, de facto marcan los objetivos nacionales de la educación superior (pp. 67 y ss.): la variable proxy acaba dominando a la original; el objetivo se convierte en mejorar el indicador “cantidad de papers”, perdiendo de vista que se quiere mejorar la calidad educativa general y no la producción científica. La elección de proxies es muchas veces sesgada. Otras veces sirve a las empresas para crear perfiles en torno a variables a las que no pueden acceder por ley, por ejemplo, saber el nivel adquisitivo de un internauta por el código postal al que remite su IP (ya que sus datos de Hacienda serán privados).

[2] En realidad lo deducimos, pues los entresijos del algoritmo no son públicamente accesibles. Comentaré más adelante la trascendencia de esta característica.

[3] La vulneración de la privacidad de los presos dentro del sistema penal es incluso mayor que la de los que navegamos por internet. La base de datos que maneja el LSI-R es especialmente grande, certera y exhaustiva (p. 43).

[4] Las externalidades del big data siempre afectan más a la “masa” de pobres, pues son herramientas útiles para grandes muestras (p. 186). No usaré un algoritmo para descartar currículos a un puesto de trabajo hipercualificado que solo recibe ocho solicitudes.

[5] Las herramientas para generar y procesar big data aumentan increíblemente la asimetría informativa de los mercados, haciéndolos insospechadamente ineficientes e injustos. Por ejemplo, aseguradoras que valoran la propensión o no de un cliente a comparar precios con la competencia (deducida de su comportamiento en internet). En caso de que la probabilidad de que un perfil de cliente sea “poco comparador” de seguros, les pueden incrementar el precio final hasta un 800% por la misma póliza (p. 205). Algo parecido hacen los partidos políticos para exprimir las donaciones de campaña en donantes clave (pp. 223 y ss.).

[6] Cuando se trata de empresas de márquetin la cuestión es menos problemática también porque las empresas se preocupan de contrastar que su modelo funciona Si el 90% de los casos seleccionados como clientes potenciales resultan ser personas apenas interesadas por el producto, el algoritmo está fallando por algún sitio: Amazon, Google o Netflix están constantemente renovando sus algoritmos para modelizar una realidad cambiante, porque su negocio depende de ello. Lo mismo con las aplicaciones que usan los equipos de baloncesto para fichar nuevos jugadores de acuerdo a sus estadísticas (p. 138). O los agrónomos cuando quieren optimizar sus recursos (p. 67). Cuando el LSI-R predice que alguien será reincidente y luego resulta no serlo, nadie retroalimenta al algoritmo con esa información. Cuando un selector masivo de currículos laborales deja pasar a una gran talento que se va a la competencia (o selecciona a un pésimo empleado), el algoritmo no se actualiza (p. 138-139). Cuando un algoritmo actuarial asigna un riesgo elevadísimo a un conductor que luego nunca tiene accidentes, ese algoritmo no es modificado (entre otras cosas, porque estará cobrando un sobreprecio a un cliente que nunca hace uso de su póliza de seguro: máxima rentabilidad). Igual cuando apareces según el modelo de un banco como un deudor arriesgado (p. 181), cuando eres evaluado como mal profesor o tu institución universitaria es perjudicada en un ranking masivo. La autora llega a comparar la adoración y poca contrastación de los algoritmos con la “frenología” (p. 151).

[7] José Luís Martí, “Alguna precisión sobre las nuevas tecnologías y la democracia deliberativa y participativa”, IDP. Revista de Internet, Derecho y Política, 2008 (6).

[8] Lo cual, por otro lado, es lógico. Cuando los participantes saben cuáles son las variables claves que determinan el modelo (o su puntuación, en este caso), tienden a hacer trampas que desfiguran los resultados, como pasa con los rankings universitarios (cf. pp. 69, 79 y 84-85).

[9] Immanuel Kant, Sobre la paz perpetua, trad. Joaquín Abellán, presentación de Antonio Truyol, Tecnos, Madrid, 1998 [1795], pp. 61-62.

[10] Como señalaba el joven Marx, esos que hacen que el gobierno sea un “estaminet” (en referencia a los pequeños cafés franceses) promoviendo la “esencia misteriosa y sacerdotal del Estado”. Cf. David Guerrero, “Tres velles per comprendre la llibertat d’expresió avui: El Marx de la Gaseta Renana (1842-1843)”, Revista Nous Horitzons, 218, 2018 (en prensa). Aquí solo hay una posible solución: las “auditorias” de los algoritmos; no solo de su código sino de las consecuencias reales que provocan (p. 257).

[11] El proceso es explicado brevemente para el caso de la campaña de reelección de Obama (p. 232-235), del que extraigo algunas partes.

[12] Muestra de la pertinencia de este libro es que, estando escrito durante el 2016, ya explica los ardides de Cambridge Analytica durante la campaña de Ted Cruz (pp. 237-238). Casi dos años antes de que saltara el escándalo por su relación con Facebook hace unos meses.

[13] Esa doctrina repite todavía en su #Republic: Divided Democracy in the Age of Social Media, Princeton University Press, Princeton, 2017.

[14] “En este sentido, podemos imaginar que el electorado es similar a los mercados financieros. Con el flujo de información, los valores suben y bajan igual que las inversiones (…) cada uno de nosotros representa una acción con un precio que fluctúa. Cada campaña debe decidir si se invierte en nosotros y cómo lo hace. Si merecemos la inversión, no solo dicen qué información nos suministran, sino también cuánta y de qué manera nos la hacen llegar” (p. 239).
Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data 

[15] O’Neil cita al Pew Research Center: “un 73% de los estadounidenses cree que los resultados de las búsquedas [de Google] son rigurosos e imparciales” (p. 230). Dos tercios de la población adulta estadounidense tienen un perfil de Facebook (p. 223).

Fuente:
http://www.mientrastanto.org/boletin-170/ensayo/apuntes-de-filosofia-politica-en-la-era-del-big-data

martes, 28 de enero de 2014

DÍA EUROPEO DE LA PROTECCIÓN DE DATOS

Hoy, 28 de Enero, se celebra por octavo año consecutivo el Día de la Protección de Datos en Europa. Esta celebración, promovida por la Comisión Europea, el Consejo de Europa y las autoridades de protección de datos de los Estados miembros de la Unión Europea, tiene como objetivo principal impulsar entre los ciudadanos el conocimiento de sus derechos y responsabilidades en materia de protección de datos y privacidad.

La creación del Día de la Protección de Datos se remonta a 2006, año en que el Comité de Ministros del Consejo de Europa estableció el 28 de enero como efeméride para festejar el Día de la Protección de Datos en Europa, en conmemoración del aniversario de la firma del Convenio 108, piedra angular de la protección de datos en Europa (DESCARGAR CONVENIO).

La celebración del día de protección de datos llega en el momento en que la reforma del Reglamento General de Protección de Datos espera ser votada por el Consejo de la Unión Europea. Tras la propuesta de reforma del texto por la Comisión Europea en enero de 2012 y de la votación de la Comisión LIBE del Parlamento Europeo el pasado octubre de 2013, se espera que antes de las elecciones europeas del próximo mayo, se tenga la respuesta del Consejo.

Las propuestas sobre la futura legislación contemplan el derecho a ser olvidado, es decir, a que las personas puedan borrar sus datos salvo que haya razones legítimas para mantenerlos. También incluyen multas por perder o divulgar los datos de los usuarios.

Las raíces de la reforma son dos propuestas: un reglamento que establece el marco general; y una directiva específica sobre el tratamiento de datos en material judicial y en investigaciones policiales.

Derecho a ser olvidado

"El derecho a ser olvidado, la necesidad de dar tu consentimiento cuando se usen o se transfieran tus datos y las sanciones en caso de infracción del derecho a la privacidad son los tres elementos centrales que pido a los estándares de protección de datos de todos los ciudadanos de la UE", explica el eurodiputado verde alemán Jan-Philipp Albrecht, ponente de la propuesta de reglamento.

"Hasta ahora, todos los Estados de la UE han abordado la protección de datos por su cuenta", añade Albrecht antes de explicar que "la nueva reglamentación será válida en toda la UE, lo que ayudará a reforzar los derechos de los consumidores, ofrecerá seguridad jurídica a las empresas y aumentará la confianza de los ciudadanos en las empresas".

"La reforma de la legislación sobre la protección de datos es una necesidad acuciante para Europa, dictada por los rápidos avances tecnológicos, los cambios sociales y un mundo construido alrededor de las comunicaciones en la red", asegura el eurodiputado socialista griego Dimitrios Droutsas, ponente de la directiva. "La Comisión, el Parlamento y también el Consejo tenemos que trabajar con diligencia para garantizar a los ciudadanos el más elevado grado de protección antes del final de esta legislatura en 2014".

Un estudio publicado a finales de 2012 por el Parlamento Europeo advierte que "la nube informática plantea a la protección de datos un desafío subestimado o incluso ignorado". Ese mismo estudio puntualiza que "la principal preocupación que surge de la dependencia creciente de la nube no es tanto el posible aumento de la delincuencia en la red, sino la pérdida de control sobre la identidad individual y los datos".
Ir a la Agencia de Protección de datos aquí.

domingo, 29 de enero de 2012

Qué sabe Google sobre mí y cómo puedo hacer que se le olvide

El martes 24 de enero Google anunció un controvertido cambio en su política de privacidad, por el que la gran mayoría de sus servicios pasan a estar integrados en una misma normativa. Con motivo del Día de la Protección de Datos en Europa, nos preguntamos hasta dónde llega el conocimiento que Google tiene de nosotros, qué recuerda y cómo podemos hacer que deje de hacerlo. Para ello nos ponemos en la piel de un usuario medio de los servicios de la compañía.

Andrés es un usuario medio de los servicios de Google. Bueno, tal vez está algo sobreexpuesto en relación con la mayoría de nosotros, pero seguro que nos identificamos con una buena parte de las cosas que Andrés hace cada día.
Nuestro conejillo de indias tiene un ordenador portátil (que utiliza a modo de sobremesa), una 'tablet' y un 'smartphone', ambos de última generación y con Android como sistema operativo. Su navegador favorito es Chrome.

Como casi todos nosotros, hace años que Andrés abrió una cuenta de Google. Al principio sólo pensaba utilizar el correo electrónico de GMail (le parecía más serio que tener una dirección en Hotmail), pero con el tiempo descubrió otras muchas aplicaciones. Y ahora se pregunta hasta qué punto Google está enterado de todo lo que hace.

Por la publicidad que le muestran los bloques de AdWords en numerosas páginas web, ya se ha dado cuenta de que no es precisamente poco. Se mete en las 'Preferencias de Anuncios' de su cuenta de Google, pincha en "eliminar y editar" y descubre las categorías en las que se encuentra etiquetado: aficiones, edad, género...

Esta información se encuentra almacenada en su propio ordenador (en una 'cookie') y a ella acceden los anuncios contextuales repartidos por media 'world wide web'.

De acuerdo con esto, Google piensa que es un varón de unos 25 años al que le gusta la tecnología, el cine y los deportes. No va mal encaminado. Pero así, a simple vista, no da la impresión de que la información en manos de la compañía sea tanta y de carácter tan reservado como dicen. Sospecha en voz alta: "Seguro que esto no es ni la mitad de lo que Google sabe sobre mí".

Poco después se entera de que es posible llegar fácilmente al fondo del asunto, con sólo seguir un puñado de enlaces. Y entonces toma una decisión: va a hacer caso a los consejos de la Agencia de Protección de Datos y a tomarse en serio su privacidad de ahora en adelante.
En su 'Dashboard', Andrés comprueba la cantidad de sitios a los que, a lo largo del tiempo, ha dado permiso para acceder a su cuenta de Google: Facebook, LinkedIn, About.me... Lo que no sabía es que existe la opción de revocar esos permisos, por si se arrepiente de haberlos otorgado, e incluso la posibilidad de crear una contraseña específica para el acceso desde cada uno de ellos. Es lo que se llama la "verificación en dos pasos".

Cuando se puso de moda, Andrés se abrió un perfil en la red social Google+ , donde publica sus fotos, vídeos, enlaces... Ahora es consciente de que ha puesto parte de su día a día (sus fotos, sus vídeos, sus círculos de amistades...) en manos de Google, y de que el grueso de ello está accesible para cualquiera con una conexión a internet.

Afortunadamente, existe otra función de Google que es desconocida para muchos (Andrés era uno de ellos hasta hace poco), y que permite modular la información sobre uno mismo que los demás pueden ver en internet. Gracias a "Me on the Web", nuestro amigo ha creado una alerta que le avisa cada vez que su información personal se hace pública en la Red. Después puede pinchar aquí y pedirle al buscador que haga desaparecer sus huellas.

Desde que sabe hacer todo esto, Andrés cuida mucho más su identidad  digital. Puede controlar al detalle, a través de su 'Profile' lo que la gente puede saber de él a través de Google. Pero todavía le preocupa lo que la propia Google puede estar averiguando sin que se dé cuenta.

Lo siguiente que revisa es su perfil y sus bitácoras en Blogger. Allí creó dos blogs: 'El rincón de Andrés', donde cuenta sus pequeñas aventuras cotidianas, y un segundo blog sobre cine y series de televisión. Con esto empiezan a perfilarse sus gustos y, además, se suma una gran cantidad de detalles sobre su vida a todos esos que antes había aprendido a controlar.

Pero abrir un blog personal es lo que tiene, y no le puede echar la culpa a Google de lo que él decida publicar. La política de privacidad   es clara y, desde luego, parece claro que sus datos personales no se filtran a no ser que él mismo se vaya de la lengua en lo que escribe.

Además, Andrés utiliza Calendars para acordarse de las fechas importantes, de los eventos a los que piensa acudir y de las citas con sus amigos y familiares. En las bases de datos de Google, piensa Andrés, ya no solo está lo que ha hecho cada día, sino también lo que tiene pensado hacer en los días futuros. "Incluso mi lista de cosas pendientes en Tasks ".

A través de las huellas que va dejando en Google News (y de las búsquedas que, todavía, de vez en cuando realiza) también saben en Mountain View lo que Andrés lee. Por los 'feeds' que almacena en Google Reader conocen a la perfección los temas que le interesan y dónde se conecta para acceder a información sobre ellos. Y gracias a Youtube pueden descubrir también el tipo de vídeos que le emocionan, le hacen reír o le sirven para estar al día.

Por si fuera poco, en Google Docs están algunos de sus documentos más reveladores. Su currículum (donde aparecen completos sus datos de contacto), sus trabajos de cuando iba a la universidad, las tablas estadísticas de su pequeña 'start-up' innovadora, las diapositivas con la idea revolucionaria que piensa presentar en la reunión con un inversor potente.

Todo esto es privado. Sólo él (y las personas con que elija compartirlo) tienen acceso. Pero se encuentra almacenado en los servidores de Google y el buscador se reserva el derecho a facilitar el acceso a estos datos a terceros en ciertos supuestos, tal como se especifica en el apartado "Qué datos personales compartimos" de su nueva Política de Privacidad.

Nada más leerlo, sorprendido por la cantidad de cosas que no sabía sobre la forma en que se utilizan sus datos, se conecta a GTalk para contárselo a su mejor amigo. El contenido de su chat quedará almacenado en los servidores de Google, a no ser que especifique lo contrario  y marque la conversación como privada.

Y todo esto sin que Andrés hubiera pensado todavía en su teléfono móvil...

Como Andrés utiliza las aplicaciones de GMail, Blogger, Reader y Google+ la empresa ya hacía tiempo que tenía su número de teléfono, asociado a muchos de estos servicios cuando se usa el servicio SMS. No obstante, el hecho de tener un móvil con Android ha desnudado otros aspectos de su personalidad que él creía ocultos a los ojos del gigante.

Para empezar, Andrés se encuentra constantemente localizado . Google revisa su ubicación, gracias a la conexión móvil, para ofrecerle búsquedas y otras funciones adaptadas al lugar en que se encuentra, así como para guiarle a través de Maps y Navigation , que le dicen como llegar a donde, de antemano, él ha confesado que tiene pensado ir.

Además, casi por inercia y, desde luego, por comodidad, sincronizó todos sus contactos (los del móvil, los de gmail, los de facebook, los de tuenti...) con su cuenta de Google, para acceder a ellos desde cualquier terminal.

Ahora los datos personales, números de teléfono, emails, direcciones físicas y un largo etcétera de datos de sus amigos y conocidos están también en los servidores de Google. Por culpa de Andrés y sin que ellos lo sepan.

"Madre mía como se enteren...", piensa. Y accede al gestor de contactos para eliminar algunos, los más comprometidos.
David G. Ortiz. La Información.

Fuente: http://noticias.lainformacion.com/arte-cultura-y-espectaculos/internet/que-sabe-google-sobre-mi-y-como-puedo-hacer-que-se-le-olvide_QZrwGe6bTCAw2DnhFpnFg7/