Geef vorm aan de digitale toekomst

Dit is een aangepaste versie van de spreektekst van Laura de Vries in de subsessie ‘Hoe kunnen we de digitale samenleving verbeteren?’ van de thema-afdeling Digitaal 66 op het D66-congres van 13 mei 2023.

Kunstmatige Intelligentie – veelal bekend onder de Engelstalige afkorting AI – verandert onze maatschappij fundamenteel. Dat schrijft ook de Wetenschappelijke Raad voor het Regeringsbeleid in haar rapport Opgave AI: De nieuwe systeemtechnologie. De Raad vergelijkt de opkomst van AI met de opkomst van elektriciteit in de negentiende eeuw en maakt duidelijk dat de toegang tot nieuwe technologie niet per definitie eerlijk verdeeld is. 
 
Politiek en bestuur zullen dan ook richting moeten geven aan de waarden die nieuwe technologie weerspiegelt, zodat we de baten van nieuwe technologie rechtvaardig kunnen verdelen.
 
AI roept enerzijds nieuwe vragen op: hoe reguleren we technologie? Wat moeten we met ChatGPT, in het onderwijs, op de arbeidsmarkt en in de politiek? Moeten we het verbieden of omarmen, is het een kans of een bedreiging, of beide?
 
Anderzijds dwingt AI ons ook om opnieuw antwoord te geven op oude vragen, zoals: wat is gelijkheid? Wat verstaan we onder vrijheid? En hoe borgen we de democratische rechtsstaat? Bij deze drie vragen sta ik kort stil.
 
Ten eerste. Wat is gelijkheid in een digitaliserende samenleving? 
 
Gelijkheid van kansen, maar kansen voor wat precies? Dezelfde kans dat een algoritme je profileert als mogelijke fraudeur? Dezelfde kans dat een gezichtsherkenningscamera je herkent? Volstaat kansengelijkheid nog wel of moeten we het eigenlijk hebben over rechtvaardigheid? Maar wat is dan rechtvaardig in een digitaliserende samenleving? 
 
De Vrije Universiteit Amsterdam gebruikte bijvoorbeeld anti-spieksoftware die het gezicht van een student van kleur niet herkende. Het systeem herkende haar niet eens als mens. Maar algoritmes kunnen ook inzicht geven in loonverschillen en zorgen dat vacatures bij minder-vertegenwoordigde groepen komen.    
 
We moeten garanderen dat leiders met slechte intenties de digitale infrastructuur die overheden bouwen, de data die overheden van inwoners verzamelen, niet kunnen misbruiken. Tegelijkertijd moeten we ervoor zorgen dat technologie de sociale gelijkheid bevordert. Dit kan bijvoorbeeld door vast te leggen dat de overheid met zogeheten gevoelige gegevens, zoals geslacht, achtergrond en seksualiteit, niet controleert (zoals in het geval van de student in Amsterdam), maar wel emancipeert (zoals in het geval van de loonverschillen en vacatures). 
 
Ten tweede. Kansengelijkheid gaat hand in hand met vrijheid. 
 
In hoeverre beschermen algoritmische toepassingen van overheden en bedrijven de persoonlijke vrijheid en autonomie van mensen? Of kunnen we in de situatie komen dat data van tevoren al het toekomstpad voor velen bepaalt, in het bijzonder voor hen die het meest afhankelijk zijn van de overheid?
 
Is het rechtvaardig om vrouwen en mensen die de Nederlandse taal niet goed beheersen extra te controleren op bijstandsfraude? De gemeente Rotterdam gebruikte tijdelijk een algoritme met dit gevolg. Het geld dat we besteden aan de ontwikkeling van zo’n algoritme, kunnen we ook uitgegeven aan gratis en toegankelijke taalcursussen. En ook al zou zo’n algoritme effectief zijn, dan is het nog niet rechtvaardig. Wat we doen met technologie, is altijd een keuze.
 
En moeten we als sociaal-liberalen misschien meer oog hebben voor collectieve vrijheid? Een verlies van privacy is immers geen individuele aangelegenheid, maar heeft ook voor de samenleving als geheel én de democratie. Dit risico laat filosoof Carissa Véliz zien in haar boek Privacy is Power. Door de verbondenheid tussen mensen zijn ook onze data met elkaar verbonden: een inbraak in je computer kan grote gevolgen hebben voor mensen in je omgeving. Bovendien vormt individuele beïnvloeding, zoals met gerichte advertenties gebaseerd op informatie over je leven en je gedrag, een probleem voor de democratie.
 
En ten derde. Wat betekent digitalisering voor de democratische rechtsstaat?
 
Velen zijn bezorgd over het voortbestaan van de democratische rechtsstaat onder de toenemende druk van de ontwikkeling van AI. Desinformatie, complottheorieën en filterbubbels schaden het vertrouwen in de overheid en in elkaar, terwijl dit vertrouwen zo essentieel is voor een gezonde democratie.
 
Maar digitalisering verandert ook het functioneren van het recht zelf, het recht wordt meer rigide, er is weinig ruimte voor afwijking, voor rebellie. Denkers als Maxim Februari maar ook filosoof Hannah Arendt hebben hiervoor gewaarschuwd. In een democratie is ruimte om af te wijken van de bestaande normen essentieel.
 
De vraag is: kan de democratische rechtsstaat AI wel overleven, en zo ja, hoe? Hebben we misschien nieuwe manieren nodig van reguleren: sneller en adaptiever? En is dat dan wel voldoende democratisch?
 
Als rode draad door deze drie thema’s loopt een vierde thema, namelijk macht.
 
Wie heeft het voor het zeggen? Wie bepaalt welke technologie wordt ontwikkeld en daarmee wat technologie doet?  
 
Op dit moment zijn het vooral grote, internationale bedrijven die bepalen wat voor AI wordt ontwikkeld. Microsoft en OpenAI hebben ChatGPT losgelaten op de wereldbevolking als een soort commercieel, wereldwijd sociaal experiment. Terwijl deze bedrijven niet per definitie het publieke belang voor ogen hebben.
 
En ook bínnen deze bedrijven is een ongelijke machtsverdeling. Honderden werknemers in onder andere Kenia modereren achter de schermen content van Twitter, Facebook en ja, ook van ChatGPT, met trauma’s tot gevolg van de schadelijke content die zij zien. Afgelopen week hebben contentmoderatoren uit meerdere landen in Afrika zich voor het eerst verenigd in een vakbond. Dat biedt hoop.
 
En wist u dat een simpel gesprek met ChatGPT van tussen de 20 en 50 vragen zo’n 500 ml water kost? Er zit een toeleveringsketen achter technologie, die we vaak over het hoofd zien, zet onderzoeker Kate Crawford in haar boek Atlas of AI. Datacentra gebruiken enorme hoeveelheden water en elektriciteit. En om computers, telefoons en elektrische auto’s te maken, worden eindige grondstoffen als kobalt en lithium gebruikt. Dit heeft grote gevolgen. Zo moeten in Indonesië mensen vlakbij een lithiummijn hun woonplaats verlaten, omdat het gebied onleefbaar is geworden door giftige stoffen.
 
Democratieën moeten de ontwikkeling en toepassing van AI in handen krijgen. Dat moet snel, en ook doordacht.
 
Er gebeurt al veel. Er is Europese regelgeving om digitale platforms te beteugelen zoals de Digital Services Act en de Digital Markets Act. Met de AI Act stelt de EU eisen aan de ontwikkeling van kunstmatige intelligentie. De Raad van Europa heeft onlangs een AI-verdrag voorgesteld, dat de rechten en fundamentele vrijheden van mensen in het digitale tijdperk vastlegt.
 
Hoe verhouden sociaal-liberalen zich tot deze wetgeving? En hoe zorgen we ervoor dat onze waarden aangaande gelijkheid, vrijheid en democratie, ook weerspiegelt worden in deze wetgeving? 
 
Hoe zorgen we ervoor dat deze waarden ook ten grondslag komen te liggen aan de ontwikkeling van nieuwe technologie? 
 
Europa is heel goed in reguleren. Maar reguleren alleen is niet genoeg. We zullen veel meer moeten investeren in handhaving en implementatie van wetten. Dat klinkt misschien niet spannend, maar zou weleens bepalend kunnen zijn voor hoe de toekomst van Europa op het wereldtoneel eruit zal zien. 
 
En de Democraten? Die kunnen natuurlijk voorstellen doen om kunstmatige intelligentie radicaal te democratiseren. Moet we bijvoorbeeld een burgerforum organiseren over de toekomst van AI in Nederland? Moeten we werknemers en gebruikers aandeelhouder maken in de ontwikkeling én de opbrengsten van AI? Hoe de digitale toekomst van Nederland en Europa eruit gaan zien, is ook aan jullie.