Het was zo’n bericht waarvan je de online reacties vooraf kunt voorspellen: “Amazon plans to install always-on surveillance cameras in its delivery vehicles”. Ik kwam het tegen dankzij een serie tweets van Evan Greer via een retweet door het altijd interessante internetofshit Twitter-account.
Op dit moment (4-2-2021 07:00) staat de interne Amazon-video nog steeds online. En hij is echt het bekijken waard als je de kans hebt. Want het is best een strakke corporate video. De boodschap: we willen onze chauffeurs en onze klanten beschermen. En daarom hebben we nu iets nieuws dat we gaan introduceren in onze bestelbussen. De film is luchtig opgebouwd, lekker muziekje eronder, begint met het bekende beeld van de vriendelijke correcte bezorger die zijn werk doet en dan een sympathieke senior manager “last mile safety” die toelichting geeft. Het filmpje is informatief, gaat uitgebreid in op wat bijgehouden wordt, benadrukt 2x (herhaling is belangrijk) dat er geen live audio of video van het apparaat toegankelijk is, laat voorbeelden zien van hoe het apparaat er voor kan zorgen dat aangetoond kon worden dat een aanrijding niet de schuld van een Amazon chauffeur was. De “zet de camera voor de chauffeur uit als je lunchbreak hebt” optie komt aan bod. Kortom, echt goed over nagedacht.
En je zou kunnen stellen dat dit technisch gezien een heel goede toepassing van AI is. Het apparaat kijkt via de 4 camera’s rond, maakt een inschatting van een situatie, kan dus bv de chauffeur ook meteen waarschuwen als er te hard gereden wordt, niet gestopt wordt voor een stopbord en stuurt alleen een stuk video door naar de server als dat nodig is vanwege een incident. Slim, technisch zonder AI ook een stuk ingewikkelder (de streams van 4 camera’s continue naar de server sturen is natuurlijk praktisch simpelweg onhaalbaar).
Maar ook deze toepassing van technologie is niet zonder context. Google maar eens op “Amazon labor dispute” en je zult ontdekken dat Amazon een groot en rijk bedrijf is waarbij, hoe zal ik het zeggen, de relatie met de werknemers niet altijd optimaal is (vanuit het oogpunt van de werkgever gezien).
Dus dan is het ook niet vreemd als mensen deze technologie zien als een opmars naar nóg meer controle over de medewerker, nóg meer mogelijkheden om de medewerker de schuld in de schoenen te schuiven als er iets fout gaat.
Natuurlijk, iedereen kent de voorbeelden van pakketbezorgers die te hard door een woonwijk scheuren, overal maar parkeren waar dat niet mag, tijdens het rijden op hun telefoon bezig zijn.
Zo’n verhaal heeft ook nu minimaal 2 kanten. Een voorbeeld dichter bij huis: er is een periode geweest dat werkgevers van beroepen waar een computer ingezet wordt standaard een RSI-applicatie installeerden (gelukkig bij mijn werkgever niet). Zo’n app gaf dan van tijd tot tijd aan dat je een korte pauze moest houden. Verstandig, beter voor je gezondheid. Maar ook super irritant omdat de pauzes altijd net op momenten leken te komen als het helemaal niet uit kwam, vaker dan dat je zou willen om je werk gedaan te krijgen. Stel nou dat die app, verplicht en altijd aan zou zijn en “overtredingen” van de waarschuwingen naar je baas zou rapporteren. Terwijl de reden van het negeren mogelijk de te hoge werkdruk, het noodgedwongen thuiswerken, krappe deadlines zijn. Dan kun je wachten op de eerste voorbeelden van bedrijven waar een werknemer in de problemen komt als hij/zij lichamelijke klachten krijgt en het systeem aangeeft dat de waarschuwingen genegeerd zijn.
Dus ook zonder de “dit is ongeoorloofde surveillance door Amazon”, de “alle gezichtsherkenning is racistisch” of simpelweg “AI is slecht” en natuurlijk “Amazon is slecht” argumenten die je op Twitter voorbij ziet komen, is deze toepassing problematisch.
Je mag lachen om mijn “red flag” tijdens het kijken naar het filmpje als het gaat om de vraag of dit systeem echt ingezet wordt om de chauffeurs te helpen. Ik deel hem toch: het is de manier waarop het systeem feedback geeft als de chauffeur afgeleid is, te hard rijdt etc.
Die “computerstem” is kort, koud, zakelijk. Geen stem die bedoeld is om je te helpen. Dan is mijn Google Home nog vele malen “vriendelijker” bij haar antwoorden.
Dat vertelt mij dat bij het ontwikkelen van het systeem de vraag “hoe kunnen we op een vriendelijke manier menselijk gedrag op een positieve manier beïnvloeden” niet hoog op het prioriteitenlijstje heeft gestaan. En bij de aankoopbeslissing eveneens niet.
Dát maakt voor mij deze stap van Amazon problematisch, niet de vraag of er AI in het apparaat zit of het gegeven dat er 4 camera’s inzitten die altijd aan staan. Het is ook geen vraag waar je AI-specialist voor hoeft te zijn om over na te denken en wat van te vinden.