Het fascinerende spookbeeld: Hoe irrationele argumenten het debat over kunstmatige intelligentie bemoeilijken

Auteur: Damian Trilling

Algoritmes bepalen in toenemende mate ons leven. Ze selecteren welke berichten in je newsfeed terecht komen, ze raden je aan om een specifiek boek te kopen of een reis te boeken, en ze bepalen welke advertenties je te zien krijgt.

Dat kun je eng vinden en er zijn voldoende redenen om sceptisch te zijn – maar toch slaan critici vaak de plank mis. Want helaas gaat de toenemende aandacht voor het onderwerp niet altijd gepaard met toenemende kennis van de werkwijze en ontwerpprincipes van algoritmes.

Big Data for good or for evil?

Het lijkt soms een strijd tussen twee kampen met verharde fronten: techno-optimisten die op nieuwe mogelijkheden wijzen, maar ethische en sociale problemen negeren staan tegenover pessimisten die alles wat met data en geautomatiseerde besluitvorming te maken heeft maar eng vinden. Ergens hebben beide kampen uiteraard een punt. “Politie wil landelijk criminaliteit voorspellen met algoritme” kopte de Volkskrant onlangs, en ja, dat doet roept akelige associaties op met Minority Report. Maar het zou ook naïef zijn om aan te nemen dat de politie tot nu toe geen gebruik zou maken van (online) data – in feite was het gebruik van databases door de politie een van de grote politieke thema’s in de jaren 70 (!) in Duitsland. Als je naar het optimistische kamp kijkt, dan zie je visioenen van zelf-rijdende auto’s, meedenkende koelkasten en huizen, en meer in het algemeen systemen die diensten en goederen voor jou op maat maken. Maar talloze niet geslaagde projecten laten ook zien: niet alles wat technisch kan is ook iets waarop mensen zitten te wachten.

Argumenten ontkracht

Aan aandacht geen gebrek – van debatavonden (afgelopen, aankomend) tot media-aandacht, inclusief een pleidooi voor nieuwe mensenrechten. Maar toch snijden veel vaak gehoorde argumenten geen hout.

  1. “Je krijgt alleen maar meer van hetzelfde voorgeschoteld en komt in een filter bubbel terecht”. Ja, zo’n algoritme zou je kunnen bouwen. Maar dan heb je ook meteen een heel slecht algoritme dat door niemand gebruikt zal worden. Wie net een barbecue heeft gekocht, vindt het vervelend of hilarisch als hem wordt aangeraden om er nog een te kopen – een goed algoritme zou misschien eerder aanraden om houtskool of een tuinstoel aan te schaffen. Ook nieuwsaanbevelingssystemen zijn niet zo naïef, maar maken gebruik van véél meer signalen. En – niet onbelangrijk – er zitten meestal ook door redacteuren gekozen artikelen en zelfs toevallig gekozen artikelen tussen (zie hier hoe dit bij Blendle wordt gedaan). Dit geeft een algoritme de kans om bij te leren, want misschien klik je toch op een van de artikelen die niet 100% in je straatje passen. Daarnaast houden mensen van een zekere mate van variatie. Onderzoek (artikel; blog) suggereert dan ook dat het waarschijnlijk wel meevalt met het filter bubble-probleem.
  2. “Maar ik wil alles zien!” Door de hoeveelheid informatie is dit simpelweg niet haalbaar. Je kunt – terecht – vraagtekens plaatsen bij de invloed die het monopolie dat Google en Facebook op grote delen van onze informatievoorziening hebben. Maar wie eist dat ze niet mogen filteren ontkent de realiteit: juist het feit dat ze filteren is waarom we deze diensten gebruiken – en waarom de web catalogues van begin jaren 90 geen lang leven was beschoren. Het is ook echt niet zo dat we álle opties willen zien: Wie in Amsterdam Oost zit en op 9292ov.nl invoert dat hij naar de Herengracht moet, mag kiezen tussen straten in Leiden, Maarssen, Purmerend en Zaandam. Ik durf te wedden dat de meeste mensen het waarderen dat Google Maps wel snapt dat je waarschijnlijk binnen Amsterdam wilt reizen.
  3. “Bedrijven horen mijn data niet te analyseren.” Bits of Freedom – een organisatie die verder belangrijk werk verricht door aandacht te vragen voor privacy en digitale burgerrechten – publiceerde vorige week een stuk met de teaser “Weet jij nog naar welk liedje je op 3 maart om kwart over twee ‘s middags luisterde? Spotify wel.Uiteraard weet Spotify dit – dit is waarom mensen de dienst gebruiken. Ze willen dat Spotify hen muziek aanbeveelt die ze niet per se al kennen, maar die wel een beetje aansluit bij hun voorkeuren. Het zou hypocriet zijn om het gebruik van deze data te hekelen en tegelijkertijd een dienst te gebruiken die alleen dankzij deze data mogelijk is.
  4. “Het is niet te controleren en het leidt tot discriminatie!” Dit is een belangrijk argument, en het is niet makkelijk van de hand te wijzen dat dit gevaar inderdaad bestaat. Het is geen ondenkbaar risico dat een algoritme mensen uit bepaalde bevolkingsgroepen hogere prijzen rekent of slechtere voorwaarden aanbiedt. Maar het is een misvatting om aan te nemen dat zo’n algoritme een keuze maakt: het spiegelt vooral de door mensen gecreëerde realiteit voor, waarvan het immers heeft geleerd. De kop boven een bijdrage van de informatici Maarten de Rijke en David Graus in NRC Handelsblad vat dit kort en krachtig samen– zij het ietwat kort door de bocht – : “Wij zijn racisten, daarom Google ook”. Aan de andere kant zou je zelfs kunnen beargumenteren dat het juist met een algoritme makkelijker is om bias en discriminatie te voorkomen: bias en discriminatie die door de – bewuste of onbewuste – vooroordelen van een bankbediende die een krediet moet verlenen ontstaan zijn moeilijk in kaart te brengen, maar er bestaat een hele tak van wetenschap die zich met Fairness and Transparency in Machine Learning bezig houdt.

Geen paniek!?!

Niks aan de hand dus? Nee. De samenleving verandert, mede door het samenspel tussen nieuwe technische mogelijkheden en onze omgang ermee. Dit brengt geweldige nieuwe mogelijkheden met zich mee – en ook gevaren. Data kunnen lekken, slecht werkende algoritmes kunnen negatieve gevolgen hebben. Hiermee moeten we leren omgaan. Maar tegelijkertijd zijn de problemen zo nieuw ook weer niet: er zijn gewoon wetten die discriminatie verbieden of die regelen hoe je met data moet omgaan. Of en in hoeverre sommige van deze wetten moeten worden aangepast is een maatschappelijk debat dat we moeten voeren. Maar wie alleen maar roept dat algoritmes kwalijk zijn voor de samenleving draagt niets bij aan dit debat. Of je moet consequent zijn en de afschaffing van het internet bepleiten. Dat mag natuurlijk ook.