Opinie: Reguleer niet alleen AI, maar ook de grote techbedrijven die erachter zitten

Door Laura de Vries
Verschenen in de Volkskrant 20 juni 2023

Prima om kunstmatige intelligentie te reguleren, maar de politiek moet nú al actie ondernemen tegen de ongebreidelde macht van Big Tech die slecht is voor klimaat, natuur en rechtsstaat.

Vorige week verscheen een petitie met een oproep aan de politiek om kunstmatige intelligentie (AI) meer en beter te reguleren. De initiatiefnemers benadrukken terecht de gevaren en risico’s die deze nieuwe technologie met zich meebrengt. Maar het is ook de zoveelste van een reeks open brieven, waarin het doemscenario naar voren komt dat AI in de nabije toekomst het voortbestaan van de mens zou bedreigen.

Dat we nieuwe technologie moeten reguleren, staat buiten kijf. In de petitie staan dan ook welkome en urgente voorstellen om dit te doen, zoals de training van zogeheten foundation models transparant maken, en de aanname van het AI-Verdrag van de Raad van Europa versnellen. Maar het is opvallend dat de oproepen zich richten op toekomstige risico’s van de technologie zelf, en minder op de enorme machtsconcentratie bij de technologiebedrijven en individuen die deze technologie nu ontwikkelen.

De focus op de existentiële risico’s van AI werkt dan ook als bliksemafleider voor de schade die techbedrijven nu al aanrichten aan mens en natuur. Voor een rechtvaardige digitale toekomst moeten we daar oog voor hebben.

Wereldwijde milieuschade
Digitale technologie, waaronder taalmodellen zoals ChatGPT en Bard, werkt op enorme hoeveelheden stroom én water, waar nu al een wereldwijd tekort aan is. Bovendien is digitale technologie afhankelijk van eindige grondstoffen zoals kobalt, nikkel en lithium. De winning daarvan veroorzaakt wereldwijd milieuschade.
Daarnaast stoot digitale technologie grote hoeveelheden CO2 uit: de training van een enkel AI-model zou evenveel CO2 uitstoten als vijf auto’s gedurende hun hele levensduur. Deze uitstoot verergert de klimaatcrisis.

Achter de schermen werken bovendien contentmoderatoren aan het categoriseren van de inhoud van technologie. Hiervoor krijgen zij schokkende beelden voor ogen van geweld en moord, of lezen zij discriminerende en haatdragende taal. Veel moderatoren bevinden zich in kwetsbare posities en zijn sterk afhankelijk van dit werk. In een recente documentaire van Tegenlicht vertelde een moderator dat hij video’s van geweld en moord te zien had gekregen. Volgens hem had een van zijn collega’s zichzelf om deze reden van het leven beroofd.

Rechtszaken tegen techbedrijven
Niet voor niets hebben enkele moderatoren rechtszaken aangespannen tegen techbedrijven, vanwege trauma’s die zij door dit werk hebben opgelopen. Ook OpenAI – het bedrijf achter ChatGPT – had ten minste tot februari 2022 slechtbetaalde moderatoren in Kenia in dienst. Grote techbedrijven hebben steeds meer sturende macht over mens en maatschappij: onze gedachten, overtuigingen en gedrag worden meer en meer gevormd via digitale technologie. Grote taalmodellen geven scheve uitkomsten, die bestaande stereotypes versterken en de sociale ongelijkheid vergroten. Digitale technologie zoals ChatGPT raakt aan tal van publieke belangen, waaronder de ontwikkeling en verspreiding van informatie, zonder dat sprake is van democratische verantwoording en controle.

Tegelijkertijd worden overheden steeds afhankelijker van grote techbedrijven. Zo draaien veel overheidsdiensten in Nederland op software van Microsoft – dat overigens flink geïnvesteerd heeft in OpenAI. In het onderwijs worden volop producten gebruikt van Google, en ook in de zorg neemt het aantal producten van Big Tech toe. Met deze afhankelijkheden groeit ook de lobbymacht van techbedrijven. Zo dreigde OpenAI-topman Sam Altman ChatGPT uit de Europese Unie te halen omdat hij ontevreden was over de aankomende AI-regulering, waarover het Europees Parlement het vorige week woensdag eens werd.

Toekomstige risico’s
Politieke actie is nodig om nieuwe digitale technologie te reguleren en toekomstige risico’s in te dammen. Maar dat mag niet afleiden van de enorme macht en invloed van de bedrijven achter deze technologie. Hiervoor waarschuwde ook de bekende computerwetenschapper Timnit Gebru. Als we de politiek érgens toe moeten oproepen, is het om actie te nemen tegen de illegitieme en ongebreidelde macht van deze bedrijven en de schadelijke en ondermijnende gevolgen van deze bedrijven op het gebied van mensenrechten, klimaat en natuur, en de democratische rechtsstaat. Dit betekent dat we niet enkel AI zelf moeten reguleren, maar ook de machtsconcentraties bij bedrijven en individuen tegen moeten gaan.

Naast het reguleren van bestaande en toekomstige technologie, moeten overheden technologie ontwikkelen op een manier die wél democratisch is, en met respect voor mens en natuur. Zo zijn er allerlei toepassingen van AI die weliswaar geen snelle oplossing bieden, maar wel een belangrijke bijdrage kunnen leveren aan de strijd tegen de klimaat- en ecologische crisis. Zo kan machine learning helpen ontbossing te detecteren en biodiversiteit te meten.

Democratische participatie
Online platforms kunnen democratische participatie bevorderen, zoals het Duitse Abgeordnetewatch, of Decidim dat onder andere in Barcelona wordt gebruikt. Kunstmatige intelligentie kan toegepast worden om sociale ongelijkheden in kaart brengen, zoals het Civic AI Lab in Amsterdam doet, en gebruikt worden voor medisch onderzoek, zoals de detectie van huidkanker. Spraakherkenningssystemen kunnen bovendien bijdragen aan het behoud van de taal van oorspronkelijke bewoners, zoals te reo Maori, de taal van de Maori in Nieuw-Zeeland. Op deze manier streven we niet enkel naar het voortbestaan van de mens, maar naar het voortbestaan van de mens in een rechtvaardige toekomst.