Direct naar artikelinhoud
Interview

'Ons oordeel is belangrijker dan Big Data'

Timandra Harkness

Grote verzamelingen data vertellen een hoop over ons, maar ook een heleboel niet. Big Data lijkt ons van de plicht te ontslaan verantwoordelijkheid te nemen. Gevaarlijk, vindt journalist en onderzoeker Timandra Harkness.

Big Data is een beetje als Big Brother: het weet waar je bent, waar je bent geweest, wie je vrienden zijn, hoe gezond je bent. Het kan voorspellen wat je zult kopen, wanneer je ziek wordt en of je het slachtoffer van criminaliteit zult worden - of een crimineel. Geef mij uw data en ik zeg u wie u bent: dat is de belofte van de enorme datasets die steeds meer bepalend zijn in ons leven.

Dat zien we terug in het nieuws. Een greep uit de berichten van de eerste week van november: Big Data zou zowel Clinton als Trump hebben geholpen om nauwkeurig te bepalen waar het nuttig was om campagne te voeren. Energieleveranciers benutten Big Data om de opbrengst van windmolens op zee met 20 procent te verhogen. Stadsplanners in Parijs zetten Big Data in om de uitstoot van schadelijke gassen terug te dringen. De topman van farmaceut Novartis voorziet dat Big Data patiënten zal helpen gezond te worden of te blijven. 'Big Data is het nieuwe goud', meldt een industrieel.

Jarenlang las Timandra Harkness, BBC-journaliste en comédienne met een voorliefde voor wiskunde, dergelijke berichten. Soms bezocht ze conferenties over Big Data. Langzaamaan raakte ze gefascineerd: niet zozeer door de schier oneindige mogelijkheden waar iedereen het altijd graag over heeft, maar door de beperkingen. Ze schreef er een boek over: 'Big Data: Does Size Matter?' Daarin beredeneert ze waarom we niet te veel moeten vertrouwen op deze cijfermatige benadering van het leven.

Timandra Harkness
Timandra Harkness is een radiojournalist voor de BBC, met een specialiteit in wetenschap. Ze is presentatrice van FutureProofing, waarin ze grote omwentelingen in de samenleving onderzoekt, en verslaggeefster voor Human Zoo, waarin een psychologische kijk op de menselijke soort wordt gegeven.

Harkness schrijft voor diverse publicaties, met name over wetenschap en technologie, maar ook recensies van opera’s. Harkness is tevens comédienne. Haar soloshow Brainsex, over neurowetenschap en gender, toerde drie jaar lang. Met een eerdere show, ‘Your days are numbered’, toerde ze ook door Australië. Ze is visiting fellow aan de universiteit van Winchester waar ze zich specialiseert in Big Data en informatierecht. Haar boek, ‘Big Data: Does Size Matter?’, verscheen afgelopen zomer bij Bloomsbury Sigma.

'Big Data' is een containerbegrip geworden. Waar hebben we het over?

"Het gaat om gigantische hoeveelheden gegevens die aan elkaar worden gekoppeld en op basis waarvan voorspellingen worden gedaan. Zo kunnen supermarkten beter voorzien wanneer dat eerste weekend is in het voorjaar dat iedereen opeens besluit om te gaan barbecuen. Het vergaren van al die data verloopt doorlopend en automatisch, bijvoorbeeld als we aankopen doen of op basis van de locatie van onze telefoon, waardoor dat proces voor ons onzichtbaar is. En de verwerking is vaak op basis van kunstmatige intelligentie, dus het gaat om lerende computers.

"Een voorbeeld: je geeft een computer een stapel van duizend hersenscans van mensen die later in hun leven Alzheimer ontwikkelden en een stapel van duizend hersenscans van mensen die gezond zijn gebleven. Daarna voer je de computer nieuwe hersenscans van patiënten, zodat die op basis van de zichzelf aangeleerde informatie kan aanwijzen waar een arts even extra moet opletten, omdat er kennelijk aanwijzingen zijn van beginnende Alzheimer.'

Je meet alleen wat je kúnt meten en dus wordt alleen dát belangrijk

Dat klinkt heel nuttig.

"Ja, er zijn geweldige mogelijkheden. Big Data is cruciaal voor wetenschappelijk onderzoek; zonder zou het higgsdeeltje nooit zijn gevonden. Het kan biomedici informatie geven over hoe je ziekten kunt bestrijden of voorkomen. Het kan in allerlei sectoren, van infrastructuur tot logistiek, problemen tijdig signaleren..."

Máár...?

"Maar is iets verraderlijks aan de hand. Je meet alleen wat je kúnt meten en dus wordt alleen dát belangrijk. Voor het Engelse ontbijt dat ik hier nu op mijn bord heb liggen - gebakken ei, worst, bonen - kun je allerlei dingen meten: van de caloriën tot aan de mate waarin het vlees mijn kans op een bepaalde vorm van kanker verhoogt. Dat is vast interessant, maar er zijn veel interessantere dingen die je níet kunt meten. Data zullen je niet vertellen dat dit ontbijt mij herinnert aan mijn jeugd, of hoe fijn ik het vind dat iemand in dit hotel dit ontbijt voor me heeft klaargemaakt en dat ik straks niet hoef af te wassen.

"Big Data wekt de suggestie dat het een compleet beeld van ons leven kan schetsen, maar er zijn nu eenmaal zaken die niet zijn uit te drukken in cijfers. Sterker, Big Data kan niets met het belangrijkste in ons leven."

Dat vindt u ook de tekortkoming van de beweging van quantified self: mensen die werken aan hun ontwikkeling door data over zichzelf te verzamelen.

"Ja, deze mensen lijken te vergeten wat hun 'zelf' is. Ons ik bestaat niet uit enen en nullen. Je kunt je ik niet in een databank opslaan.

De ik is de autonome persoon die zich ergens voor interesseert, in staat is om te reflecteren, na te denken en interpreteren en keuzes kan maken. Dat subjectieve deel van ons valt geheel buiten het beeld van de gegevens die worden verzameld en in een algoritme kunnen worden gestopt. Zoals een dronkaard zijn kwijtgeraakte sleutels onder de lantaarnpaal zoekt omdat het daar licht is, zo staren wij ons blind op de data."

Ons ik bestaat niet uit enen en nullen

Maar de voorstanders en liefhebbers van Big Data suggereren toch ook niet dat ze onze hele persoonlijkheid in beeld brengen?

"Misschien niet. Maar de verleiding is groot om alles wat meerbaar is, te waarderen. Daardoor dreigen we te vergeten wat écht belangrijk en interessant is in het leven. We gaan mensen niet meer zien als individuen, maar als wandelende databanken die het gemiddelde moeten benaderen van de groep waartoe zij behoren. We dreigen te vergeten dat we allemaal beschikken over de mogelijkheid eigen keuzes te maken en dat we anders zijn dan anderen."

Maar de voorstanders en liefhebbers van Big Data suggereren toch ook niet dat ze onze hele persoonlijkheid in beeld brengen?

Welk gevaar ziet u?

"Omdat Big Data is gebaseerd op het verleden, krijgen we een bevestiging van stereotypen. Data hebben altijd betrekking op wat eerder is gebeurd, op de meest waarschijnlijke uitkomst en op het gemiddelde van groepen vergelijkbare mensen. Ze laten niet zien waartoe iemand in staat is of wat in de toekomst mogelijk is. Data houden er geen rekening mee dat je jezelf kunt veranderen."

Data houden er geen rekening mee dat je jezelf kunt veranderen

Wanneer is dat dan een probleem?

"Bij sollicitatieprocedures bijvoorbeeld. Steeds meer bedrijven laten sollicitanten analyseren door een algoritme, op basis van hun cv uiteraard, maar ook wordt gekeken naar publiekelijk beschikbare informatie, zoals hun postcode en hun profiel op sociale media. Dus als je woont in een wijk waarvan de bewoners vaker dan gemiddeld werkloos, lager opgeleid en ziek zijn, of als een vriend je op Facebook heeft getagd in een foto van een feestje waarop je teveel hebt gedronken of een jointje heb gerookt, dan worden je kans op werk kleiner. Krijgen we dan niet een eindeloze bevestiging van subtiele discriminatie op heel veel niveaus?"

Data zijn toch neutraal en objectief?

"In de praktijk niet. Dat is ook logisch. Als een computer zichzelf zo slim heeft gemaakt door te kijken naar gegevens uit het verleden, hoeft het niemand te verbazen dat het algoritme alle bestaande vooroordelen zal weerspiegelen.

Riskant is het gebruik van Big Data door politie en rechters, zoals in Amerika op ruime schaal gebeurt, meent Harkness. "Het idee daarachter is lovenswaardig: het besef groeide dat te veel mensen de cel ingaan, en onder hen onevenredig veel zwarten zijn. De Amerikaanse politie gebruikt nu software om te voorzien waar criminaliteit het meeste voorkomt of om mensen in de gaten te houden die wel eens zouden kunnen neigen tot criminaliteit. Rechters worden ondersteund door de risicobeoordeling van algoritmes [dat gebeurt nog niet in Nederland, red]. Dat is bedoeld om hun eigen vooringenomenheid in te dammen, maar het kan leiden tot heel onrechtvaardige situaties.'

Zoals?

"Neem de 19-jarige man uit Virginia die seks had met een meisje van 14. Vrijwillig van beide zijden, maar zij is minderjarig, dus hij deed iets wat niet mag van de wet. De computer oordeelde dat de man een hoog recidive-risico had en kreeg 1,5 jaar cel. Feitelijk werd hij schuldig bevonden wegens associatie; om factoren waarop hij geen directe invloed heeft, zoals zijn leeftijd, zijn onderwijsniveau, de achtergrond van zijn familie, of hij werk had of niet.

"Als je iets verandert in een lange reeks aan datapunten, bijvoorbeeld zijn leeftijd had veranderd in 36 jaar, kreeg je een andere uitkomst en had hij de cel niet in gehoeven. Hoe kan dat nu rechtvaardig zijn? Het gaat slechts om statistische correlaties. Als mensen die van hotdogs houden vaker vervallen tot criminaliteit, zou je de liefhebbers van hotdogs ook zwaarder moeten straffen. Het is een absurde logica."

Als mensen die van hotdogs houden vaker vervallen tot criminaliteit, zou je de liefhebbers van hotdogs ook zwaarder moeten straffen

De computer geeft alleen advies en neemt geen beslissingen.

"Klopt. Maar je moet wel sterk in je schoenen staan om de risicobeoordeling van de computer te negeren. Stel je voor dat degene die je als agent besloot niet verdacht te vinden schuldig blijkt te zijn, of dat je als rechter iemand op vrije voeten hebt gesteld tóch recidiveert."

Wat kunnen we eraan doen?

"Het is belangrijk dat we toegang krijgen tot de data en de algoritmen die ten grondslag liggen aan beslissingen. Dat is zelfs essentieel in een rechtszaak of bij je gezondheid. Je moet in staat zijn om iedere stap te zien die heeft geleid tot een beslissing."

Dat spreekt toch voor zich?

"Niet bepaald. Voor aangeklaagden in de VS is het onmogelijk geworden om in beroep te gaan wanneer de data op basis waarvan een risicobeoordeling is gemaakt eigendom is van een bedrijf dat weigert om inzage te geven. Dat is schandalig.

"Het heeft toch niets met rechtvaardigheid te maken als we mensen de gevangenis in sturen wanneer ze niet mogen inzien hoe een rechter tot dat besluit is gekomen? Een rechter kun je ter verantwoording roepen en vragen waarom hij tot een bepaalde uitspraak is gekomen. Een algoritme is niemand verantwoording verschuldigd. En dat verklaart waarom Big Data zo populair is: niet omdat het nu zo ontzettend slim is, maar omdat we niet veel vertrouwen in onszelf hebben om keuzes te maken en een oordeel te vellen."

We vertrouwen onszelf niet meer

Hoe bedoelt u dat?

"Er is veel vertrouwen dat die slimme machines met al die miljoenen datapunten en honderden variabelen ons helpen om patronen te vinden die wijzelf nooit kunnen vinden. Dat voedt de suggestie dat de computer vele malen slimmer en wijzer is dan wij en dat we de data voor zichzelf kunnen laten spreken over wat het beste is voor ons. Wie zijn wij immers om die onmetelijke intelligentie te betwisten?

"We vertrouwen onszelf niet meer. Dat begint al bij het ontbijt: eet ik wel gezond genoeg, maak ik de aarde niet kapot als ik dit worstje eet? We weten het niet. Experts vertrouwen we ook al niet meer, want we vinden ze niet langer onpartijdig en betwijfelen of ze nog wel onze belangen dienen. Dat wantrouwen in onze soort zien we sterk in de rechtspraak. Rechters zijn niet onfeilbaar, maar we vertrouwden op hen vanwege hun kennis van de wet en vorige rechtszaken en vanwege hun vermogen om een verdachte te beoordelen op zijn karakter."

Dus wijken we uit naar de autoriteit van computers?

"Precies. We denken: poepoe, dit is hogere wiskunde, ingewikkeld en duur, dus dat moet wel nauwkeurig zijn. In werkelijkheid wantrouwen we het oordeel van onszelf en van anderen, en lopen we maar al te graag weg voor onze verantwoordelijkheid. Big Data is vooral een excuus om niet langer verantwoording af te leggen. Ik vind het uiterst gevaarlijk wanneer mensen weglopen voor hun verantwoordelijkheid om een keuze of beslissing te maken."

Ik vind het uiterst gevaarlijk wanneer mensen weglopen voor hun verantwoordelijkheid om een keuze of beslissing te maken

Wat is daar zo gevaarlijk aan?

"Big Data kan alleen kwantificeren en niets kwalificeren. Alle informatie die eruit komt, verdient een menselijk oordeel. De data kunnen je wel vertellen hoeveel calorieën je ontbijt telt, of misschien zelfs welk ontbijt het beste is voor de optimale gezondheid van de gemiddelde persoon in jouw groep, maar jíj zult iedere ochtend toch echt opnieuw moeten bepalen wat je gaat doen. Als je niet weet wat je met de antwoorden moet doen, is het een vergissing te denken dat Big Data je echt zal helpen. Ik vind het veelzeggend dat we zonder al te veel moeite blind vertrouwen op technologie, maar niet op mensen."