Er komen stapels boeken uit over AI, maar deze trok mijn aandacht door de CV van auteur Madhumita Murgia. Ze is AI-editor van de FT en werd in 2024 uitgeroepen tot UK’s Technologiejournalist van het jaar. Van huis uit immunoloog, daarna AIDS onderzoeker, vervolgens wetenschapsjournalist …… en nu gespecialiseerd in AI. Aparte CV, dus ik verwacht ook een apart boek. Ik werd niet teleurgesteld.
Ik sta nogal sceptisch tegenover AI, en mijn confirmation bias heeft er ongetwijfeld voor gezorgd dat ik zeer te spreken was over de inhoud, die benadrukt hoe onrechtvaardig het gebruik van AI is, of kan zijn. Ondanks dat er toch genoeg positieve punten aan de orde komen, overheersen de zorgen. Sterk vond ik de uitgebreide beschrijvingen van specifieke personen in alle delen van de wereld die benadeeld worden door AI. Zo wordt Ver-van-je-bed toch behoorlijk Dichtbij-huis.
Het managementboek In de schaduw van AI …
… behandelt de invloed van AI op onze levens in 10 afzonderlijke hoofdstukken: Je levensonderhoud; Je lichaam; Je identiteit; Je gezondheid; Je vrijheid; Je vangnet; Je baas; Je rechten; Je toekomst en Je samenleving. Ik geef hieronder kort weer wat mij opviel in deze hoofdstukken. Daarna evalueer ik.
Je levensonderhoud
In Je levensonderhoud gaat het om de zogenaamde datawerkers die in lage-lonen-landen bezig zijn met het labelen van plaatjes en stemmen. Ze zijn voor hun levensonderhoud afhankelijk van deze banen, en stellen (zichzelf) geen kritische vragen over logica of ethiek. Naast datalabeling zijn er ook baantjes in contentmoderatie, het uitfilteren van ‘giftige content’, zoals kinderporno, necrofilie, onthoofdingen en zelfmoorden. De medewerkers gaan eronderdoor. Weinig geld, heel slecht voor je geestelijke gezondheid. Maar ook datalabelers lopen tegen problemen aan: geen autonomie, geen flexibele werktijden, en geen idee van het eindproduct. En geen mogelijkheden je te ontwikkelen. Een goede vraag die hier wordt gesteld: waarom wordt digitaal werk in verschillende landen verschillend beloond? Maar strijden voor rechtvaardigheid brengt je baan in gevaar, en de geheimhoudingsclausules zijn draconisch, voor je het weet heb je een claim aan je broek.
Je lichaam
Dan het hoofdstuk over Je lichaam, wat met name inzoomt op deepfakes voor porno en geweld. Verschrikkelijk om te lezen over de mensen die daar slachtoffer van zijn, die onbekende lichamen met hun hoofd erop op allerlei pornosites gewelddadig verkracht zien worden en weten dat hun vrienden, hun buren, die óók zien. Hiertegen is geen, of in ieder geval onvoldoende wetgeving. En daarnaast is het ontzettend gemakkelijk deze deepfakes te maken met behulp van de AI-technologie, en doen de eigenaren daarvan, de grote online platforms, er niets tegen. Onrechtvaardig is nog zwak uitgedrukt.
Helaas is het wel legitiem, er is een groot verschil tussen wat online en offline mag, denk aan stalken. De grote platforms zijn niet aansprakelijk, dit is (in de VS) gebaseerd op een wet uit 1976, toen Internet nog nauwelijks bestond. Het argument is nu dat aansprakelijkheid zou leiden tot censuur, en dat social media niet meer real time kunnen opereren. Slecht voor de Internet-industrie dus. Maar ja, waarom houden we de auto-industrie dan wél aansprakelijk voor de schade die ze ons berokkenen? Dat heeft toch ook niet geleid tot het einde van de auto-industrie? En daarbij, AI is een extreem beschadigend wapen.
Het punt is dat wetgeving uit de politiek moet komen, en politici, in meerderheid mannen, vinden deepfakes, die voornamelijk vrouwen beschadigen, niet zo belangrijk. En dan hebben we het nog niet eens over het feit dat men in China deepfakes gebruikt om vrouwelijke journalisten en activisten te intimideren en in diskrediet te brengen. Zo is het opeens een wapen in handen van autoritaire overheden.
Je identiteit
AI wordt ook gebruikt bij gezichtsherkenning. Dat heeft positieve punten: bijvoorbeeld bij het al in een vroeg stadium herkennen van de fysieke symptomen van hart- en vaatziekten, Parkinson en Alzheimer. De verzekeringsmarkt is natuurlijk geïnteresseerd, omdat het wat zegt over levensverwachting (en wat nog meer, en geeft het een basis voor het weigeren van verzekeringen, vraag ik me dan af.). De politie en justitie gebruiken het om kinderen te herkennen die het slachtoffer zijn van mensenhandel, en om criminelen op te pakken.
Maar natuurlijk gebruiken overheden het ook voor minder fraaie doeleinden: surveillance bij demonstraties, om zo burgerprotesten de kop in te drukken. Ook vervelend is dat deze gezichtsherkenning feilbaar is, met name voor minderheden. Zwarte vrouwen lopen de grootste kans foutief herkend te worden. En dan sta je zo maar als terrorismeverdachte in het journaal. China surveilleert de Oeigoeren zwaar en beperken met AI hun autonomie; ze exporteert deze systemen en bijbehorende methoden naar Afrika.
Je gezondheid
AI kan positief bijdragen aan het ontdekken van ziekten, en is ook beter dan mensen in staat om röntgenfoto’s te analyseren en zo TBC of Covid te ontdekken. Een app die hiervoor is ontwikkeld, is gebaseerd op vrijwillig aangeleverde data en analyses van artsen in India. Helaas is de app niet gratis in India uitgerold, die artsen hebben er niks aan.
Positiever is dat er een andere app is ontwikkeld, ook weer voor de analyse van röntgenfoto’s, die verklaart waarom zwarte mensen soms meer pijn melden dan witte mensen bij ogenschijnlijk dezelfde aandoening. Artsen schreven die extra pijn daarvoor aan mentale of sociale oorzaken toe, nu blijkt dat er wel degelijk verschil is in de aandoening. AI kan dus echt onze levens ook positief beïnvloeden. Er is echter één onrechtvaardigheid: de AI-eigenaren halen de trainingsdata op in arme landen, en en bieden de toepassingen voor veel geld alleen in rijke landen, als ‘extra service’, aan. Data-kolonialisme heet dat.
Je vrijheid
In dit hoofdstuk speelt een Amsterdamse moeder de hoofdrol. Haar 14-jarige zoon is gearresteerd voor bedreiging met een mes. Als zijn veroordeling achter de rug is, wordt hij heel vaak verhoord voor allerlei andere misdrijven, waar hij niets mee te maken heeft. Ook zijn broer wordt vaak voor verhoor meegenomen. En dan blijkt hij op de Top600 te staan, een lijst met gewelddadige jeugdcriminelen. Zijn broer, die nooit is gearresteerd, staat op de Top400, een lijst met broers van de Top600, die een grote kans zouden maken óók crimineel te worden. Die lijst is gebaseerd op een AI-systeem, ProKid. Inderdaad, net Minority Report. De twee lijsten zouden tot doel hebben de jongeren te beschermen, en erbij hoort sociale hulpverlening. Ze worden bestudeerd ‘als proefkonijnen’. En moeder wordt behandeld als een klein kind én tuig van de richel.
Voor haar 14-jarige zoon is er geen sprake van vergiffenis, je blijft als risico-jongere voortdurend gemonitord worden. Haar andere kinderen begrijpen er niets van. Moeder verliest door de onrust haar baan en de Top400 broer zwicht voor de voorspelling en begint scooters te stelen. ProKid werd getraind met data van arrestaties (niet van veroordelingen!). Op basis van voorspellingen worden er meer arrestaties gedaan, voornamelijk in immigranten-gemeenschappen, als een self fulfilling prophesy. De 14-jarige wordt pas na 3 jaar van de Top600 gehaald. Inmiddels gebruikt men voor de Top400 niet langer ProKid, maar een transparante, want simpeler statistische methode. Gebaseerd op arrestaties en verdenkingen, dat dan weer wel. Onduidelijk blijft of er wel een preventieve werking van de beide Top-lijsten uitgaat. Dat het gezinnen en kinderen sociaal beschadigt is wél duidelijk.
Je vangnet
Argentinië is een rijk land, maar vol zeer arme gemeenschappen die worstelen met jeugdwerkeloosheid, tienerzwangerschappen en schoolverlaters. Die tienerzwangerschappen zijn soms vrijwillig: de meisjes zoeken een doel in hun leven en sociale status. Maar soms ook onvrijwillig, door wijdverbreide groepsverkrachtingen van inheemse meisjes door witte mannen. Inheemse gemeenschappen doen niet aan abortus. Kan AI de overheden helpen met sociale programma’s voor deze gemeenschappen? Microsoft krijgt de opdracht data te verzamelen voor ondersteuning qua wonen, onderwijs, werk en gezondheidszorg. Onbetaald, de geanonimiseerde data zijn de betaling, en natuurlijk de ervaring en het netwerk, wat Microsoft gaat helpen overheidsopdrachten binnen te halen.
Er wordt begonnen met een proef voor het risico op tienerzwangerschappen. Doel: het voorspellen welke tienermeisjes (te jong) zwanger zullen raken. En dat te voorkomen. Alle ins-and-outs van hun gezinnen worden uitgevraagd. Het probleem wordt dus volledig bij de meisjes gezocht, terwijl er altijd wel een man in het spel is, of zelfs een groepsverkrachting de oorzaak is. En hoe is dat laatste te voorspellen?
Het resultaat van deze dataverzameling? Er komen nauwelijks sociale programma’s, maar wel komt er een andere partij aan de macht. Het project wordt stopgezet. Niemand weet wat er met de dataverzameling gebeurt, die is nu in andere regeringshanden. En kan dus misbruikt worden, dat is in Argentinië eerder gebeurd. Er is dus sprake van misbruik van vertrouwen van de arme families. Ze gaven veel en kregen er niets voor terug. De enige die er beter van werd, is Microsoft.
Je baas
Hoe is het om te werken voor UberEats, waar je baas een algoritme is? Nou, lastig, als je je uitbetalingen niet begrijpt en er veel te weinig kilometers vergoed lijken te worden. Je kunt niks navragen of klagen bij een algoritme. En dat speelt ook bij Uber. Een van de chauffeurs merkt dat niet alle chauffeurs gelijk behandeld worden. Er worden chauffeursprofielen gebruikt, maar de chauffeurs hebben geen idee van de data in dat profiel.
Dan krijgt hij plots berichten dat hij zou frauderen. Hij kan bij niemand uitleg vragen, maar wordt wel maandenlang uitgesloten van werk. Hij benadert de ‘vakbond’ voor Uber chauffeurs. Na 3 maanden krijgt hij excuus: het algoritme heeft zich vergist. Verder krijgt hij geen uitleg. Hij spant een proces aan om inzage in zijn data te krijgen. De rechtbank in Amsterdam, waar Uber het hoofdkantoor heeft, geeft hem deels gelijk. Het is een van de eerste vonnissen over besluitvorming door AI. Tegen de ‘tirannie’ van AI worden nu overal ter wereld vakbonden opgericht, om nog iéts van rechten te kunnen eisen bij een AI dat zomaar je loon verandert of je ontslaat. En deze tirannie zal niet bij Uber-achtige bedrijven blijven, AI, ‘heeft het op iedereen voorzien’.
Je rechten
AI verschilt niet zoveel van de rechteloze gevangenis Guantánamo Bay, vindt een mensrechtenadvocaat die jarenlang politieke gevangenen verdedigde. Bij AI is óók sprake van machtsonevenwicht. Van contentmoderatie krijg je óók PTSS, draconische geheimhoudingsverklaringen jagen je óók angst aan. De arbeidsomstandigheden zijn óók beroerd. Er loopt nu een aantal rechtszaken waarin wordt gesteld dat AI een klimaat van haat kan versterken en rechtstreeks kan bijdragen aan geweld en dood in de echte wereld. Interessant: het overkoepelende probleem van ongereguleerde macht kan wellicht worden aangepakt via de bestaande kartelwetgeving. Die is (oorspronkelijk) bedoeld om de machtsbalans tussen burger en bedrijfsleven te bewaken, en dat gaat verder dan prijsafspraken. Er is dringend regulering nodig, want diezelfde bedrijven bouwen AI voor militair gebruik. Om drones uit de lucht te schieten, of mensen, gebaseerd op de locatiebepaling van hun telefoon, met een raket te treffen. Zonder supervisie …
Je toekomst
Voorspellende systemen kunnen met verschillende doeleinden worden ingezet. Om Oeigoeren op te pakken en te interneren, omdat het systeem criminele of terroristische activiteiten voorspelt. Of om goedbedoelde hulp op toekomstige crimineeltjes af te sturen in Amsterdam. De systemen zelf verschillen in de kern niet. De gebruikers (politieke leiders) en de slachtoffers (kwetsbare mensen) in de kern ook niet. Het doel kan wél zomaar veranderen.
In veel landen wordt gezichtsherkenningssoftware gebruikt, dat is ‘de eerste stap op weg naar de hel’. Het fenomeen surveillancestaat ontneemt mensen hun autonomie en werkt mensenrechtenschendingen in de hand. En het Westen werkt hier gewoon aan mee: duizenden kaderleden van het Chinese leger konden zich op Westerse universiteiten de technologie eigen maken. Eén lichtpuntje: er zijn veel, heel veel bezorgde burgers. ‘We zijn met meer. ‘
Je samenleving
Met de lancering van ChatGPT is bij iedereen wel het besef doorgedrongen dat er een niet-gereguleerde technologie is die de samenleving op zijn kop zet. We weten inmiddels dat ChatGPT ‘hallucineert’, ons creatieve werk steelt (‘schrapen’) om te trainen en ons in de toekomst overbodig zal maken (om te beginnen de stemacteurs, de creatievelingen en kenniswerkers volgen). Een belangrijke vraag in dit kader: kan een samenleving bestaan zonder mensenwerk? Moet er een vorm van UBI komen als AI al het werk doet? En wie zijn we eigenlijk nog als onze ideeën en gedachten kunnen worden nagebootst door AI?
ChatGPT en vergelijkbare chatbots hebben geen empathie, geen echt begrip, geen bewustzijn. En AI is in de kern ook niet artistiek, maar statistiek. Sommige mensen zijn enthousiast omdat het hun productiviteit verhoogt. Andere vinden het allemaal te snel gaan. Die stellen de vraag: wie bezitten de rechten op de collectieve creatieve output van de mensheid, en kan die output zomaar worden nagemaakt om te worden verkocht?
En: wat voor moraal hebben de toepassingen, wie is er verantwoordelijk voor, mogen ze onbeperkt zelf beslissingen nemen? De Oproep van Rome stelt dat menselijke waardigheid belangrijker is dan technologische vooruitgang. De Oproep is ondertekend door de katholieke kerk, het joodse geloof en het islamitische geloof. Een unicum. Helpt het?
Het ontwerpen van een ‘ethisch’ AI-systeem moet een collectieve inspanning worden, met alle burgers, de AI-makers uit het bedrijfsleven, en de verkopers van afgeleide producten. Murgia geeft alvast een voorzet welke 10 vragen in ieder geval beantwoord moeten worden. Ik vond 7 heel sterk, deze gaat over de beschikbaarheid van AI-producten voor de gemeenschappen die er behoefte aan hebben i.t.t. alleen voor de gemeenschappen die ze kunnen betalen. Dit gaat dan in het bijzonder op voor AI in de gezondheidszorg. Maar ook de andere 9 vragen zijn zeer de moeite van het overdenken waard, helemaal als je de voorbeelden in het boek hebt gelezen.
Murgia’s hoop: niét dat AI een verbeterd type mens creëert, maar dat het gewone mensen helpt een goed en gelukkig leven te leiden.
Evaluatie In de schaduw van AI
Ik vond In de schaduw van AI een bijzonder interessant boek. De 10 thema’s van zorg zijn algemeen bekend, maar Murgia voegt er zeer veel details en onderbouwing aan toe, waardoor de risico’s nog meer in beeld komen. Daarbij heeft ze een uitstekende keuze gemaakt om de thema’s op te hangen aan echte, levende personen, wiens levens uitgebreid beschreven worden. Murgia presenteert dit deels in de vorm van interviews en deels als een levendige beschrijving van werkzaamheden of manier van leven. Ook de landen en de steden worden gedetailleerd beschreven, als een documentaire. Dit zorgt ervoor dat de ‘kwetsbare mensen’ niet een onzichtbare massa zijn, maar een naam en gezicht krijgen. Je leert ze persoonlijk kennen en dat levert uiteraard meer emotie en dus empathie op. Bij mij althans, maar dit effect is psychologisch onderbouwd.
Het onderwerp is uiteraard zeer relevant op dit moment, maar door de vele details over techniek, wetgeving, rechtszaken etc. loopt het boek wel het risico al snel gedateerd te zijn. De onderbouwing is prima in orde, in de bijlage vind ik een uitgebreid bronnenoverzicht.
Ik heb mijn bedenkingen over de vertaling. Opvallend was het gebruik van ‘abusievelijk’ op een plek waar dat totaal niet paste. Daar heeft waarschijnlijk ‘abusive’ gestaan. En in een zinsnede over ‘stom werk’, waar AI nuttig kan zijn omdat geen mens dat werk wil doen, worden David Graeber’s ‘zaadklussen’ genoemd. Zaadklussen? Dat zal toch niet de vertaling zijn van Bullshit Jobs?
Het boek is verder vrij sober uitgevoerd, maar ja, het onderwerp leent zich niet echt voor humoristische plaatjes of vrolijke foto’s. Toch zou het gebruik van grafieken of wat kleur wel iets toegevoegd hebben aan het leesplezier. Want plezier had ik, plezier dat ik wat nieuws leerde. Niet alleen qua onderbouwing van wat ik al dacht, maar ook het besef dat macht en hebzucht de AI-markt domineren, zoals zoveel andere markten. En ook al kan ik ervoor kiezen AI zelf niet te gebruiken, ik zal er op allerlei andere manieren wel afhankelijk van zijn en ondergeschikt aan worden. Dus ja, we leven in de schaduw van AI. Zoals de chimpansees leven in de schaduw van de mens, volgens Jane Goodall. Mooie vergelijking, we zijn de chimps van morgen.
Ik gaf het boek 3 1/2 *
Ken je dit boek? Wat vond je ervan?
Koop dit boek
o.a. bij
of
of
Libris.nl, steun je lokale boekhandel
Voor bovenstaande links krijg ik een beetje provisie. Zonder provisie:
Boekwinkeltjes, lekker duurzame exemplaren-met-ervaring
Keus genoeg!
Elly Stroo Cloeck is project- en interim-manager op het gebied van Finance, Internal Audit en Risk Management. Daarnaast schrijft ze recensies en samenvattingen van managementboeken.
Abonneer je hier op de kwartalige nieuwsbrief of op de wekelijkse blog-updates!