Capitalismo de vigilancia: cuando el producto eres tú (y prefieres no saberlo)
Shoshana Zuboff (1951), profesora emérita de la Harvard Business School, nos alerta en su más reciente libro, La era del capitalismo de la vigilancia (Paidós), sobre ese modelo de negocio de las grandes tecnológicas basado en recopilar nuestros datos personales. En esta obra magistral por la originalidad de las ideas y las investigaciones en ella expuestas, Shoshana Zuboff nos revela el alarmante fenómeno que ella misma ha denominado «capitalismo de la vigilancia». Gracias a su análisis, cobran gráficamente vida para nosotros las consecuencias del avance del capitalismo de la vigilancia desde su foco de origen en Silicon Valley hacia todos los sectores de la economía. Hoy se acumula un enorme volumen de riqueza y poder en unos llamados «mercados de futuros conductuales» en los que se compran y se venden predicciones sobre nuestro comportamiento, y hasta la producción de bienes y servicios se supedita a un nuevo «medio de modificación de la conducta». Como señalan los editores en la contraportada del libro: la amenaza que se cierne sobre nosotros no es ya la de un Estado «Gran Hermano» totalitario, sino la de una arquitectura digital omnipresente: un «Gran Otro» que opera en función de los intereses del capital de la vigilancia. El exhaustivo y turbador análisis de Zuboff pone al descubierto las amenazas a las que se enfrenta la sociedad del siglo XXI. Con ella es la siguiente entrevista.
Cada uno de nuestros gestos cotidianos en internet, por pequeños que sean, generan un rastro de datos: nuestro trayecto diario al trabajo en Google Maps y la cafetería donde paramos a desayunar, un estado de Facebook con palabras que denotan tristeza y el tono de voz con el que le pedimos a Alexa que ponga una canción, los hoteles que estamos mirando para las vacaciones de verano y la última serie a la que te has enganchado en Netflix. Este reguero de información, íntima e inconexa, dice mucho sobre nosotros. Gracias a la inteligencia artificial, gigantes tecnológicos como Google, Facebook, Microsoft o Amazon son capaces de descifrar patrones que permiten predecir nuestro comportamiento futuro. ¿Y qué hacen con esa información? La venden a terceros, que interesados en que nos convirtamos en consumidores, la usan para terminar de persuadirnos. Es el anuncio de Instagram donde sale ese jersey de la marca que te gusta y del que tanto has hablado últimamente.
Shoshana Zuboff (1951), profesora emérita de la Harvard Business School, llama a este sistema «capitalismo de vigilancia». Donde muchos sólo vemos una intrusión relativamente inofensiva, Zuboff divisa una amenaza antidemocrática a valores esenciales como la soberanía personal y la autonomía. El modelo se inventó en Google, se afinó en Facebook y ahora se ha extendido a decenas de ámbitos como la salud, la educación o la ciudad. En su libro La era del capitalismo de la vigilancia (Paidós, 2020), Zuboff nos invita a imaginar un futuro donde los seguros de coche suban en tiempo real cada vez que nuestros vehículos smart perciban por nuestros frenazos que estamos nerviosos. ¿Asusta? Según ella, ese futuro ya está aquí.
De entrada, le hago una confesión: Tan pronto como terminé su libro, cogí el Google Mini que me acababa de comprar, lo apagué, lo metí en un cajón y no lo he vuelto a encender.
Shoshana Zuboff se ríe.
—¿Podría explicar cómo acuñó el concepto “capitalismo de vigilancia” y qué significa?
—A no ser que tengamos lenguaje para las cosas, no podemos pensar en ellas. Mi gran objetivo con este libro era crear el lenguaje para el fenómeno que lo hiciera visible. Haciéndolo visible, podemos comenzar el trabajo de descubrir cómo cambiarlo y combatirlo. El capitalismo es muy plástico, adaptable. El capitalismo de vigilancia refleja una adaptación del capitalismo a una nueva era digital. Nos relacionamos con estas empresas [tecnológicas] y sus plataformas. Y, al hacerlo, les brindamos información personal, les proporcionamos datos sobre nosotros mismos, nuestras vidas, nuestras experiencias. Pero eso resulta ser sólo una fracción muy pequeña de los datos. La mayoría de los datos que impulsan sus operaciones se nos arrebatan individual y colectivamente sin nuestro conocimiento, a través de sistemas diseñados para mantenernos en la ignorancia, para puentear nuestra conciencia.
—Sistemas opacos. ¿Cómo funcionan?
—Sus cadenas de suministro dependen de estar llenas de datos sobre nuestro comportamiento. Los datos se mueven a través de las cadenas de suministro a nuevas fábricas que llamamos IA, inteligencia artificial. Estas fábricas producen productos que predicen nuestro comportamiento y que se venden en mercados responsables de los flujos de ingresos que yo llamo los dividendos de vigilancia. Todo eso depende de la capacidad de recopilar datos de comportamiento, que son el excedente de nuestro comportamiento online. Si nos pidieran todos estos datos, no querríamos darlos, así que la única forma en que pueden mantener sus cadenas de suministro es a través de lo que es esencialmente una operación de vigilancia. Y por eso lo llamo capitalismo de vigilancia. No está destinado a ser evocador o dramático. Sin vigilancia, la creación de valor que acompaña a esta lógica económica no sería posible.
—Últimamente se habla mucho de la economía de la atención, la noción de que nuestro tiempo y nuestra atención se han convertido en recursos preciosos que alimentan a las grandes empresas tecnológicas. ¿Cómo se relaciona este concepto con el capitalismo de vigilancia?
—Tiene que ver con la cadena de suministro. El capitalismo de vigilancia ha construido desde los primeros días del comienzo del siglo XXI las principales interfaces de esta cadena: buscar y navegar en la red, transacciones comerciales online, etc. Ahora están en todas partes. Son cada producto que llamamos “smart”, cada servicio personalizado, nuestros teléfonos y las aplicaciones que hay en ellos, todo tipo de dispositivos, el internet de las cosas: tu televisor, tu lavavajillas, tu refrigerador, tu aspiradora. Están en el automóvil, en las cámaras y los sensores integrados en tu hogar. Cuanto más tiempo permanezcas enganchado a cualquier interfaz, más de tu experiencia se puede capturar y traducir a datos de comportamiento. Es un factor crítico de éxito. Dio a luz al botón ‘Me gusta’, a los emojis, a la búsqueda con autocompletado y todo lo que lo hace sin fricción, fácil, conveniente. Ahí es donde creo que la pieza de la atención encaja: si no puedes mantener a la gente enganchada, sencillamente no obtienes el mismo suministro. Y el suministro es importante porque la inteligencia artificial se nutre de datos. Cuantos más datos, mejores serán sus predicciones. Y cuanta más variedad de datos, mejor. Por eso es esencial.
—En su libro habla de cómo esta lógica de extracción de datos se está trasladando a otros ámbitos del mundo real: la salud, los seguros de coche, las ciudades. ¿Está por todas partes?
—El capitalismo de vigilancia se inventó en Google, se extendió a Facebook y se convirtió en la lógica predeterminada en el sector tecnológico. Pero ya hemos superado esa etapa. Se ha convertido en el tipo de enfoque económico de vanguardia en todos los sectores de la economía. Si estás en el espacio de la salud, es tratando de averiguar cómo ganar dinero con los datos que puedes obtener de los pacientes; en el espacio educativo, con los datos que puedes extraer de los estudiantes; en el espacio de seguros, usando datos para hacer predicciones que te permitirán ajustar tu evaluación de riesgo de una forma completamente nueva. La gente persigue lo que yo llamo el dividendo de vigilancia: la idea de que el único lugar donde obtener margen es recolectando datos y prediciendo el comportamiento para vender esas predicciones de forma que marquen una diferencia en nuestro negocio y en los negocios de nuestros clientes comerciales.
—¿Podría hablar un poco más sobre los peligros que el capitalismo de vigilancia puede tener para la autonomía humana?
—Los sistemas intervienen y afinan subliminalmente el comportamiento de rebaño en direcciones alineadas con resultados comerciales que tratan de garantizar. Con Pokemon Go, por ejemplo, aprendieron a usar recompensas y castigos para llevar a gente a establecimientos que los estaban pagando por obtener una visita garantizada a ciertos bares y restaurantes. Yo llamo a esto “economías de acción”. Cuando ves, por ejemplo, las ambiciones de Google para una ciudad inteligente, ves claramente que el objetivo es desarrollar sistemas que guíen, restrinjan, recompensen, castiguen y modifiquen el comportamiento humano a escala, tanto de individuos como de una población. Esto, para mí, nos mueve de una discusión sobre una lógica económica a una nueva forma de poder. Es algo muy preocupante. En el siglo XX, nos preocupaba el poder totalitario, que operaba a través de la violencia, la amenaza constante de asesinato y los regímenes de terror. Pero este nuevo poder no opera a través de la violencia. Funciona de forma remota a través de vigilancia, y consigue lo que quiere de una forma que está oculta para nuestra conciencia. En lugar de venir en medio de la noche para llevarnos al gulag, aparece con un capuccino y un emoji sonriente.
—Cambridge Analytica mostró lo que podía pasar cuando aplicamos este sistema y su lógica al ámbito político: utilizaron lo que parecía un inofensivo test de personalidad para dirigir mensajes electorales específicos a los usuarios en función de sus respuestas.
—Cuando ves cómo Chris Wiley [el analista de datos que filtró a la prensa el escándalo de Cambridge Analytica] describe lo que estaban haciendo, dijo: “Conocemos tus demonios internos”. Y luego podemos usar señales y disparadores subliminales para activar esos demonios y lograr que te identifiques con personas, materiales, puntos de vista y actitudes con los que normalmente no te hubieras identificado. Yo describí Cambridge Analytica como un parásito en el organismo anfitrión del capitalismo de vigilancia. Lo que hizo esa pequeña consultoría política fue simplemente adaptar todos los mecanismos y métodos del capitalismo de vigilancia, particularmente su capacidad de afinar y escuchar el comportamiento, modificarlo a escala y simplemente pivotar de resultados comerciales a resultados políticos.
—Aunque en realidad no tenemos forma alguna de probar que fueran esos mensajes los que causaron el Brexit o la elección de Trump de hace algunos años. ¿Cómo sabemos que es efectivo, que verdaderamente funciona?
—Los análisis forenses detallados requieren que Facebook abra sus datos históricos. Y hasta ahora, ningún gobierno ha obligado a Facebook a hacerlo. Ojalá se haga. Sabemos hasta qué punto la gente estuvo expuesta a la desinformación. Podemos ver los patrones en el discurso político online que condujo a la votación del Brexit y las elecciones presidenciales de 2016 en Estados Unidos. En cada año electoral, ahora habrá miles, decenas de miles de Cambridge Analytics, algunos de ellos patrocinados por campañas políticas, algunos operando como terceros. Están ahí afuera usando estos métodos. Debido a la verdadera falta de compromiso por parte de compañías como Facebook y Google para llegar al fondo de esto, aún somos vulnerables.
—Quiero asegurarme de que hablamos de soluciones antes de terminar. ¿Es posible recuperar la promesa original de un internet que iba a facilitar la conectividad y la participación democrática en la sociedad?
—El capitalismo de vigilancia no es tecnología. Es una historia sobre una lógica económica que esencialmente se apoderó de lo digital. En las dos últimas décadas, hemos sido persuadidos con propaganda muy inteligente de que así es como debe ser lo digital. Y creo que la gente ahora está adoptando cada vez más la idea de: “Espera un momento, no necesitas todos estos datos. ¿Por qué es eso necesario que mi televisor tenga una política de privacidad? ¿Mi colchón, mi cama?”. Los asaltos se han vuelto más audaces. Mires en la dirección que mires, hay algo intentando llevarse datos para su uso y beneficio secretos. Con una lógica económica diferente, sería posible disfrutar de productos y servicios digitales sin las externalidades antidemocráticas que acompañan al capitalismo de vigilancia. Tenemos que crear un nuevo espacio para nuevas formas de productos y servicios digitales que sean comerciales, operen en el mercado, pero que también sean propiedad y operados por ciudadanos. Yo elijo en qué medida mi experiencia no se traducirá en datos de comportamiento, cómo serán las ganancias, si esos datos se compartirán, cómo se compartirán, con qué propósito… Las respuesta a esas preguntas deben reposar en la autoridad del ciudadano individual bajo el paraguas de la gobernabilidad democrática. Este ya no puede ser un espacio sin ley, un espacio sin gobierno.
—¿De qué depende?
—Depende de la ciudadanía llegar a un punto de inflexión donde decimos que esto es intolerable. No voy a contribuir a un mundo donde mis hijos tengan que esconderse en el interior de sus propias vidas, donde todos estamos buscando un equivalente práctico y existencial de la criptografía sólo para ir por la vida con cierta apariencia de privacidad. No elegimos a estas personas. No elegimos esta lógica económica. Se nos ha impuesto en secreto por el bien de la prosperidad de otros. No es casualidad que los veinte años de crecimiento del capitalismo de vigilancia sean los mismos veinte años en que la desigualdad de ingresos se ha convertido en un flagelo en la mayoría de las sociedades occidentales.
—¿Qué podemos hacer tanto desde el punto de vista individual como en la esfera pública para detener esta deriva?
—Adoptamos la ley, traemos la gobernanza democrática para decir: ya no puedes tomar unilateralmente el comercio de la experiencia humana como una fuente gratuita de materia prima para convertirla en datos que benefician a un grupo muy pequeño a expensas de la democracia y de toda la población. La forma de socavar el dividendo de la vigilancia es, en primer lugar, cortando directamente en el suministro, la oferta. Decir: ya no es legal. No es que sea legal ahora, es simplemente que no es ilegal porque no tenemos leyes que prohíban la vigilancia unilateral que se alimenta de la experiencia humana. Los mercados de futuros humanos tienen consecuencias predeciblemente destructivas que son incompatibles con nuestras aspiraciones como sociedades democráticas. Deberíamos hacerlos ilegales como lo hemos hecho con los mercados que comercializan con órganos, bebés o esclavos humanos. Los mercados que comercian con futuros humanos son perniciosos y socavan la democracia. Necesitamos que nuestros legisladores se despierten de este sueño de la retórica sobre la tecnología digital.
—Todas estas soluciones trascienden el debate de la privacidad, o al menos lo complementan.
—Hemos sufrido un engaño en los últimos veinte años y es esa ilusión de que la privacidad es privada, un cálculo personal: yo te doy un poco de información personal si tú me das productos o servicios gratuitos.
“Pero la privacidad es pública, es un problema de acción colectiva. Hay un montón de elementos que son interdependientes y que realmente no se pueden separar: democracia, soberanía individual, autodeterminación, autonomía… esas son las cualidades que hacen posible la privacidad. Son inseparables. Hay quien dice: “No me importa, pues no tengo por qué leer esos anuncios personalizados”. Pero caminas por la calle y las compañías tecnológicas han luchado por el derecho a tomar tu rostro en donde sea que aparezcas. Pueden tomar tu rostro en una foto mientras caminas por las calles de tu barrio, por el parque. ¿Por qué? Porque siempre hay pequeños músculos que se analizan e informan sobre tu estado emocional y tu estado emocional es un dato altamente predictivos. Por lo tanto, las caras son codiciadas.
—Me recuerda al experimento en que Facebook identificaba el momento de la semana en que los adolescentes australianos se sentían más inseguros y, por lo tanto, eran más vulnerables y propensos a comprar algo que los hiciera sentir mejor.
—Luego tienes a un contratista de Google ofreciendo cinco dólares a los sintecho de Atlanta para tomar su cara, no informándolos de que en realidad estás tomando sus caras para reconocimiento facial. Creas una subclase: el que se ve obligado a vender sus datos igual que quien vende órganos. Estos son ejemplos de cómo la privacidad es pública. Y eso es lo que llamo “poder instrumental”. Es un tipo de poder completamente nuevo que nunca ha existido antes. Puede ejercer tanto control mientras se evita nuestro derecho a combatirlo. Pero porque no opera a través de la violencia, hemos estado prestando mucha menos atención y eso es lo que tiene que cambiar. Estamos entrando en la tercera década del siglo XXI, el siglo digital. Se suponía que éste era el momento más democrático de todos para la democratización del conocimiento a través de lo digital. En cambio, estamos volviendo a una especie de patrón feudal de asimetrías extremas de conocimiento y poder que crean un nuevo eje de desigualdad social. Y esta desigualdad social es lo que yo llamo desigualdad epistémica, desigualdad del derecho a saber. Se ejemplifica en este abismo creciente entre lo que sabemos y lo que se puede saber de nosotros.
Esta entrevista fue publicada originalmente en elDiario.es; es reproducida aquí bajo la licencia Creative Commons.