Vrijheid in vergetelheid

Nieuwe (digitale) technologieën maken ons leven gemakkelijker en ons welzijn groter. Maar als we niet opletten gaan er tegelijkertijd belangrijke waarden verloren: creativiteit, het recht om af te wijken, het maken van eigen keuzes over het goede leven. Kortom, onze vrijheid. Door Marjolein Lanzing Nieuwe informatie- en communicatietechnologieën veranderen onze wereld razendsnel en radicaal. Wij zijn de pioniers van het ‘informatietijdperk’, ooggetuigen van de ‘big-datarevolutie’ en vaandeldragers van de ‘digitale generatie’. Nooit eerder werden op zo’n grote schaal data verzameld, gedeeld, geanalyseerd en teruggekoppeld. Nooit eerder waren de beloften en verwachtingen zo hoog: van verbetering van de publieke gezondheid door gepersonaliseerde gezondheidszorg, efficiënter gebruik van (menselijke) energie, en hogere productiviteit op de werkvloer, tot het reduceren van criminaliteit, gepersonaliseerde advertenties, en het effectief managen van vriendschappen en romantische relaties. Tegelijkertijd bekruipt ons van tijd tot tijd het gevoel dat al die handige technologieën transformaties in gang zetten op een veel fundamenteler niveau. Onze ideeën over vriendschap, liefde, werk, gezondheid en veiligheid lijken te veranderen naarmate er technisch meer mogelijk wordt en we steeds meer van deze concepten beleven via de mal van de technologie in kwestie (denk aan Facebook, Tinder, LinkedIn of FitBit). Dit onderbuikgevoel gaat vaak gepaard met ‘techno-twijfel’ die voortkomt uit het donkerbruine vermoeden dat er misschien ook iets verloren gaat met al deze veranderingen. Onze achterdocht wordt versterkt wanneer we merken dat we al verscheidene sites lang achtervolgd worden door hetzelfde paar schoenen dat we eerder bekeken op Zalando. Wanneer we alleen maar pro-Hillary artikelen aangeboden krijgen op Facebook – en enkel blonde mannen uit de Zaanstreek op Tinder. En wanneer Target eerder weet dan wijzelf dat we zwanger zijn. Wat gebeurt er eigenlijk met onze vrijheid op het moment dat er steeds meer informatie over ons beschikbaar komt? Valt ons gedrag te vangen en te voorspellen op basis van de profielen die gevoed worden door onze digitale voetstappen? En zo ja, beperken zo’n profiel en de bijbehorende ‘bubble’ ons in onze keuzes en creativiteit? Met andere woorden: wanneer onze privacynormen veranderen door de formats van nieuwe technologieën die erop gericht zijn zoveel mogelijk data te verzamelen, komt onze vrijheid dan in het geding? Voorspellende kracht ‘Big data’ is de belofte dat we door grote hoeveelheden data te verzamelen en te combineren uiteindelijk patronen in deze data kunnen herkennen. Het idee is dat deze patronen ons kunnen helpen om te anticiperen op bepaald gedrag of bepaalde situaties, of deze zelfs te voorspellen.[1]  

‘Privacy leidt tot vrije, autonome burgers met verschillende, eigen ideeën over het goede leven – uiterst belangrijk voor een liberale democratie’

  Deze data worden gegenereerd wanneer je je smartphone gebruikt, foto’s post op Instagram, e-mailt, comments achterlaat op Facebook, iets koopt op Amazon, je stappen telt of websites bezoekt. Samen vormen deze data een digitale identiteit, een online ‘jou’ dat steeds gedetailleerder of completer je gedrag in kaart brengt naarmate je meer voetstappen op het internet achterlaat. Want, ‘what goes on the Internet, stays on the Internet’. Het internet vergeet niets. ‘Profilering’ betekent het categoriseren van gebruikers op basis van de gedragspatronen die naar voren komen uit de verzamelde data.[2] We spreken van ‘profielen’ wanneer deze patronen gebruikt worden om mensen te identificeren of te representeren. Met profilering valt geld te verdienen; zo kun je gerichte, gepersonaliseerde reclames sturen voor producten, diensten of politieke campagnes, maar ook redelijk accuraat voorspellen of iemand een goede kandidaat is voor een zorgverzekering, baan of lening. Zoals ik eerder al aangaf, is het door het combineren van datasets inmiddels mogelijk geworden om informatie te genereren die niet beschikbaar was in de oorspronkelijke data; informatie waarover individuen zelf niet eens beschikken. De voorspellende kracht van big-data-analyses en profilering werd voor veel mensen pas goed duidelijk naar aanleiding van de Target-casus. Supermarktketen Target bleek in staat een zwangerschap van een Amerikaanse tiener te voorspellen nog voor haar ouders wisten dat zij zwanger was. De data-analyses van Target hadden een correlatie gevonden tussen de aankoop van geurloze producten en zwangerschap.[3] Ook Amazon is bezig met het voorspellen van gedrag en patenteerde in 2014 ‘anticipatory shipping’: het verzenden van een product nog voor een potentiële klant op de aankoop-knop heeft geklikt, gebaseerd op iemands surf- en browsegedrag. Vrijheid en autonomie Wat gebeurt er eigenlijk met onze vrijheid op het moment dat er steeds meer informatie over ons beschikbaar komt en ons gedrag voorspelbaar wordt? Wanneer we spreken over vrijheid in de context van profilering bedoelen we meestal dat we bezorgd zijn over twee dingen: bepaalde opties worden ons ontnomen en, vooral, de opties die we krijgen aangeboden en op basis waarvan we handelen, zijn niet authentiek (namelijk: niet door onszelf geïdentificeerd, gekozen en eigen gemaakt). Het is belangrijk hier een onderscheid te maken tussen vrijheid en autonomie. Vrijheid betekent doorgaans dat iemand de mogelijkheid en capaciteit heeft om te handelen en dus niet tegengehouden wordt door externe beperkingen.[4] Autonomie betekent dat een persoon überhaupt de competentie heeft om ‘authentieke’ of eigen verlangens, waarden, ideeën en overtuigingen te formuleren en ze vervolgens in te zetten als motivatie voor bepaalde handelingen. De eerste zorg heeft betrekking op de algemene definitie van vrijheid – immers, profielen kunnen je ‘extern’ beperken in je handelingsrepertoire en keuzevrijheid. Maar beide zorgen, zowel het ontnemen van opties als de authenticiteit van deze opties, draaien uiteindelijk vooral om de mogelijke ondermijning van onze autonomie. Autonomie veronderstelt immers zowel keuzevrijheid als ‘eigen’ keuzes; iets wat profielen kunnen problematiseren.  

‘Door individuen steeds opties aan te bieden op basis van hun digitale gedragsgeschiedenis ontstaat een tunnelvisie’

  Privacy, (keuze)vrijheid en autonomie zijn in de liberale samenleving stevig met elkaar verbonden.[5] Sterker nog, privacy wordt vaak gezien als een instrumentele waarde die uiteindelijk een vrij en autonoom leven mogelijk maakt. Om een autonoom leven te leiden, moeten we in staat zijn om zelf te bepalen (voor zover mogelijk) hoe we onszelf willen presenteren aan anderen. Privacy geeft je controle over welke kanten je wenst te tonen van je identiteit of van je ‘zelf ’.[6] Daarnaast geeft privacy je de (veilige) ruimte om te experimenteren met denkbeelden, afwijkende verlangens en alternatieve overtuigingen, zonder dat je het gevoel hebt dat bijvoorbeeld de staat over je schouder meekijkt. Privacy faciliteert de mogelijkheid om uit te vinden wat ‘mijn’ raamwerk van overtuigingen, gedachten en verlangens is (wie ik ben) en dus wat ‘mijn’ unieke keuzes met betrekking tot het goede leven zijn. Dit leidt tot vrije, autonome burgers met verschillende, eigen ideeën over het goede leven – uiterst belangrijk voor een liberale democratie. Digitale vriezer Wat is nu precies het probleem van profielen voor vrije en autonome individuen? Het is immers ook handig dat we niet door eindeloze hoeveelheden krantenartikelen, potentiële partners of romans hoeven te scrollen, maar een uitgelezen selectie op een presenteerblaadje aangeboden krijgen op basis van onze online datageschiedenis. Waarom zouden we ons zorgen maken over al deze data die over ons worden bewaard? Ten eerste zijn profielen als sociale categorieën problematisch omdat ze kunnen resulteren in ‘self-fulfilling prophecies’. Door individuen steeds opties aan te bieden op basis van hun digitale gedragsgeschiedenis ontstaat een zogeheten ‘filter bubble’ of tunnelvisie: mensen krijgen alleen nog maar te zien wat er binnen ‘hun’ profiel valt. In het slechtste geval gaan mensen zich steeds meer gedragen naar hun profiel en ‘worden ze wie ze zijn’ volgens hun digitale historie.[7] Tegelijkertijd wordt hierdoor het profiel verder versterkt en de online identiteit van gebruikers als het ware ‘bevroren’, of inflexibel gemaakt. Hoewel de keuzes ‘persoonlijk’ zijn, sluiten ze ook alternatieven die niet voor de hand liggen uit, en daarmee experiment en creativiteit. Zelfs al zijn de keuzes die ons worden voorgelegd door profielen de keuzes die we zelf gemaakt zouden hebben, dan nog is het belangrijk dat we deze keuzes zelf maken en het proces van hun selectie zelf doormaken. Dit is namelijk precies wat onze keuzes en uiteindelijk onze identiteit authentiek maakt. Verder zijn er de zeer reële en concrete gevaren van leefstijldifferentiatie en discriminatie op basis van gecombineerde data: het uitsluiten van personen van bepaalde diensten of kansen op basis van hun gedragsdata, of het ontbreken daarvan. In het verlengde daarvan kan de sturende en voorspellende kracht van profielen ervoor zorgen dat onze toekomst steeds minder open wordt en dus minder vrij, omdat ons verleden constant gerecycled wordt. Dit bemoeilijkt persoonlijke ontwikkeling, verandering en heruitvinding. Tot slot zijn profielen als permanente digitale archieven van individuen problematisch omdat ze kunnen leiden tot zelfdisciplinering of een panoptisch effect, zoals Foucault dat heeft beschreven. Omdat je weet dat alles wat je doet en besluit je eventueel op een later moment in de staart kan bijten, bijvoorbeeld bij een sollicitatie, zul je voorzichtiger zijn, minder snel experimenteren en je conformeren aan de sociale norm. Omdat het internet niets vergeet en dus niet makkelijk vergeeft, zul je twee keer nadenken over wat je doet en zoveel mogelijk proberen om fouten te vermijden. Immers, je digitale geschiedenis presenteert de ‘feiten’; jouw persoonlijke interpretatie van gebeurtenissen en jouw subjectieve leerproces doen er steeds minder toe.[8] Recht om vergeten te worden In een profetisch artikel uit 2008 claimt de Amerikaanse filosofe en juriste Anita Allen dat door nieuwe technologieën iemands geschiedenis steeds meer begint te lijken op een vriezer in plaats van op een prullenmand.[9] Er wordt steeds meer onthouden en gedeeld en steeds minder vergeten en verwijderd. Zonder het recht om vergeten te worden, zonder privacy, wordt de maatschappij een verstikkende plek.[10] Privacy stelt ons in staat om met een schone lei te beginnen, om onszelf te veranderen en te ontwikkelen, om onze eigen conceptie van het goede leven te ontwikkelen en onze eigen keuzes te maken. Publicist en onderzoeker Evgeny Morosov waarschuwt dat een samenleving waarin we alleen maar uitgaan van big-data-analyses en profielen een samenleving is waarin de burger niet als vrij subject wordt gezien, als iemand die zijn of haar eigen leven kan vormgeven en veranderen, maar als een categoriseerbaar, maakbaar, corrigeerbaar en voorspelbaar object.[11] Zonder privacy zijn wij geen vrije, autonome burgers. Daarom moeten verschillende soorten informatie wettelijk vastgelegde houdbaarheidsdata krijgen en vervolgens (in sommige gevallen automatisch) verwijderd kunnen worden. Daarnaast moeten gebruikers inzage kunnen krijgen in, en controle krijgen over, hun online profielen en wat voor informatie er over ze verzameld wordt. Daarvoor is het noodzakelijk dat wij als gebruikers meer leren over informatica en programmeren – hoe werkt een algoritme bijvoorbeeld? Onvoorspelbaarheid, creativiteit, diversiteit, experimenteren en veranderen zijn belangrijk voor vrije, autonome individuen, en worden mogelijk gemaakt door privacy. Profielen leggen ons echter vast. Hoe meer informatie we afstaan (of wordt afgetapt), hoe kwetsbaarder we worden voor manipulatie, sturing en uniformiteit, bijvoorbeeld door overheden en bedrijven, die ons daarom maar wat graag in de gaten houden. Authentieke keuzes en het ontwikkelen van een unieke persoonlijkheid zijn afhankelijk van de mogelijkheid om af te wijken van het verleden en de bewandelde paden en meningen, om risico’s te nemen, fouten te maken, daarvan te leren en open te staan voor het toeval. Errare humanum est; maar laat de big-datarevolutie nu niets liever willen dan de risico’s zoveel mogelijk inperken en niets aan het toeval overlaten.   Marjolein Lanzing is techniekfilosoof aan de Technische Universiteit Eindhoven. Ze promoveert op een onderzoek naar de invloed van digitale technische ontwikkelingen op onze normen en waarden, met name met betrekking tot privacy.   Literatuur [1] Boyd, d. & Crawford, K. 2012. ‘Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon’. Information, Communication & Society, 15:5, 662-679. [2] Hildebrandt, M. & Gutwirth, S. (eds.) 2008. Profiling the European Citizen. Springer p.2. [3] Ondanks dat deze casus ter discussie staat (Siegel, E. 2014. ‘Did Target Really Predict a Teen’s Pregnancy?’. KD Nuggets News) is het nog steeds een indrukwekkende en veelgebruikte casus die je verder doet nadenken over de toekomstige mogelijkheden van big data en haar voorspellende kracht. Zie ook: Duhigg, C. 2012. How Companies Learn Your Secrets, The New York Times Magazine 16 February 2012. [4] Ik ga in dit artikel uit van de traditionele liberale notie van vrijheid als negatieve vrijheid: de afwezigheid van obstakels. [5] In tegenstelling tot de Europese wetgeving bestaat er bijvoorbeeld in de VS geen aparte privacywetgeving. Privacyvraagstukken worden beoordeeld aan de hand van de vrijheden die op het spel staan (vrijheid van meningsuiting, vrijheid van gedachten, enz.). [6] Roessler, B. 2005. The Value of Privacy. Cambridge: Polity Press. [7] Hacking, I. 2006. ‘Making Up People: clinical classifications’. London Review of Books. Vol. 28:16, 17 August 2006, 23-26. [8] Hildebrandt, M. & Gutwirth, S. (eds.) 2008. Profiling the European Citizen. Springer p.340. [9] Allen, A. L. 2008. ‘Dredging up the past: Lifelogging, memory, and surveillance’. The University of Chicago Law Review 75:1, 47-74. [10] Het recht om vergeten te worden speelde een belangrijke rol in de (controversiële) uitspraak van het Europese Hof van Justitie in 2014 in de zaak ‘Google Spain V A EPD and Mario Costeja González’. Hierin werd ‘The Right to Be Forgotten’ op het internet aangehaald. Harvard Law Review December 2014 Case C-131/12; European Court of Justice 13 May 2014, C-131/12, paragraph 93. Harvard Law Review December 2014, Cyberlaw/ Internet Case C-131/12. [11] Martijn, M. 2013. ‘Voor fundamentele technologiekritiek, klik hier’. De Correspondent. 30 oktober 2013.