Wat laten we wel en niet aan algoritmes over?
Algoritmes die beslissingen nemen met grote invloed op levens van mensen: het lijkt een vraagstuk voor de toekomst, maar het gebeurt nu al op steeds grotere schaal. Hoe moet het niet en hoe kan het beter?
Dit artikel verscheen in PCM 02–03/2020
In de film Minority Report (2002), die speelt in 2054, worden moordenaars opgepakt voordat ze hun misdaad kunnen begaan. Op basis van visioenen van drie helderzienden grijpt een PreCrime-politieteam in, voordat de moord daadwerkelijk plaatsvindt. Totdat blijkt dat het systeem ook fouten maakt, en dat mensen de vrije wil hebben om een plan door te zetten of er vanaf te zien.
Inmiddels lijken de eerste stappen richting zo’n wereld te worden gezet. In de VS is men daar al langer mee bezig: de software PredPol toont op een kaart hotspots waar de kans op misdrijven in komende twaalf uur het grootst is, op basis van misdrijven die de afgelopen tien jaar werden gepleegd. Het systeem COMPAS gaat nog verder: dat berekent op basis van een geheim algoritme de kans dat individuele gevangenen opnieuw de fout in gaan en adviseert rechters daarover.
Predictive policing — de politie-inzet sturen op basis van voorspellingen — wordt ook in Nederland gebruikt. Het Criminaliteits Anticipatie Systeem (CAS), dat op een kaart per vakje van 125 bij 125 meter laat zien hoe groot de kans is op criminaliteit, wordt inmiddels landelijk uitgerold. De TU Eindhoven helpt de politie in Roermond om met slimme camera’s Oost-Europese bendes te profileren en hun auto’s te controleren. De politie kan inmiddels met gezichtsherkenning een database met foto’s van 1,3 miljoen Nederlanders doorzoeken. En aan de Europese buitengrenzen wordt gewerkt aan smart borders die automatisch verdachte personen eruit kunnen pikken.
Je kunt dit artikel lezen in het februarinummer van PCM.
Het volledige artikel zal later ook hier verschijnen.