Waarom er nood is aan een Belgisch verbod op gezichtsherkenningstechnologie in de openbare ruimte
Een deel van de AI-Act, de Europese verordening over artificiële intelligentie, treedt op 2 februari in werking. De verordening verbiedt het gebruik van gezichtsherkenningstechnologie in de openbare ruimte, maar voorziet in enkele uitzonderingen en controlemechanismen. De verordening laat niettemin toe dat lidstaten strikter optreden en AI-gestuurde gezichtsherkenning volledig aan banden leggen. Liga voor Mensenrechten pleit voor een verbod op gezichtsherkenning in België.
Gezichtsherkenning is een biometrische analysetechniek waarbij unieke gezichtskenmerken worden gebruikt om een persoon te controleren of te identificeren. Die kenmerken, zoals de lengte van het voorhoofd, de afstand tussen de ogen, de neusbrug, de afstand tussen de mond en de neus, worden omgezet in biometrische gegevens.
De technologie kan enerzijds gebruikt worden voor authenticatie. Daarmee wordt gecontroleerd of de persoon is wie die beweert te zijn, bijvoorbeeld bij het ontgrendelen van een smartphone. Anderzijds kan via identificatie een persoon in de openbare ruimte herkend worden op basis van diens gezichtskenmerken. Via het AI-systeem worden de omgezette biometrische gegevens vergeleken met de in een databank opgeslagen informatie. Gezichtsherkenning kan worden ingezet in real time, aan de hand van live camerabeelden, of post-remote, aan de hand van eerder bewaarde beelden.
Ondanks het gebrek aan een wettelijke basis voor het gebruik van gezichtsherkenning, werd de technologie al meerdere keren getest door de Belgische politie. In 2017 en opnieuw in 2019 voerde de Federale Politie testen uit op de luchthaven van Zaventem. Het Controleorgaan op de Politionele Informatie (COC) vorderde dat de testen werden stopgezet, omdat de wettelijke grondslag onvoldoende is. In 2020 voerde de Federale Politie ook een 70-tal huiszoekingen uit met de controversiële Clearview AI-software in het kader van Europol-vergaderingen. Het COC opende eveneens een onderzoek naar het gebruik van Clearview AI.
Uit een KULeuven-onderzoek in Vlaanderen en het Brussels Hoofdstedelijk Gewest bleek overigens dat minstens 5 van de 86 deelnemende lokale politiezones, antwoordden te beschikken over gezichtsherkenningstechnologie in 2021, waarbij één van deze zones zelfs beweerde deze technologie “frequent tot zeer frequent” te gebruiken. In het Brussels Hoofdstedelijk Gewest hanteren politiezones de ‘BriefCam’-software van de gelijknamige Israëlische onderneming om de beelden van camera’s die de openbare ruimte in Brussel filmen, te analyseren aan de hand van algoritmes. BriefCam biedt ook een gezichtsherkenningssysteem aan dat compatibel is met een gedeelte van het Brusselse cameranetwerk. Er zijn dan ook geen ‘technische’ hinderpalen om gezichtsherkenning in te zetten.
De Liga verenigde zich met andere Brusselse organisaties, zoals La Ligue des droits humains, rond de bezorgdheden over gezichtsherkenning in de Brusselse openbare ruimte. Samen lanceerden we de campagne #ProtectMyFace. De bijhorende petitie behaalde meer dan 1000 handtekeningen van bezorgde Brusselaars. Op die manier kreeg onze coalitie spreektijd in het Brussels Parlement om het debat over deze technologie en brachten we het debat op gang.
In 2023 heerste nog terughoudendheid over een Brusselse resolutie, gezien de AI Act later dat jaar gestemd zou worden. Nu de AI Act groen licht kreeg in het Europees Parlement en deels in werking treedt in februari 2025, is de kans groot dat de Brusselse overheid zich blijft beroepen op het Europese kader en vooral wacht op de federale vertaling hiervan. Er is politiek draagvlak om de politiediensten met dergelijke technologie uit te rusten, zoals minister van Binnenlandse Zaken Annelies Verlinden in 2021 nog benadrukte. Zonder nationale wettelijke basis blijft gezichtsherkenning echter verboden in België.
De AI Act is een Europese verordening die de ontwikkeling en het gebruik van AI-systemen regelt. Daarnaast geeft de wet rechten aan burgers die in aanraking komen met AI-systemen. Het doel van de wet is dat AI-systemen die binnen de Europese Unie ingezet worden veilig zijn en onze fundamentele rechten respecteren, onafhankelijk van of die AI-systemen binnen of buiten de EU werden ontwikkeld. AI-systemen worden onderverdeeld in verschillende risicocategorieën. Afhankelijk van de categorie waarin een AI-systeem valt, gelden striktere of lossere regels.
Het real-time inzetten van gezichtsherkenningstechnologie valt onder de categorie van verboden praktijken, ondanks enkele uitzonderingen. De bepalingen die onder deze verboden categorie vallen treden in werking vanaf 2 februari 2025. Dit is de eerste fase van het uitrollen van de Verordening. De post-remote toepassing van de technologie wordt beschouwd als een hoogrisicotoepassing waarvoor strikte regels gelden. Deze zullen in augustus 2026 in werking zullen treden. Bij alle fases en toepassingen geldt de AI Act als een richtinggevend basiskader, waar lidstaten de mogelijkheid hebben om strenger op te treden in eigen nationale wetgeving ten behoeve van, bijvoorbeeld, fundamentele rechten.
Waar schuilen de gevaren van het inzetten van gezichtsherkenning in de openbare ruimte?
Misdaad- en terrorismebestrijding worden vaak door de autoriteiten aangehaald om een lans te breken voor gezichtsherkenning. Deze redenering werd, onder invloed van lobbywerk door overheden en Big Tech, doorgetrokken in de AI Act. Ondanks het uitgangsprincipe van een verbod, laat de Verordening immers ruimte voor lidstaten om gezichtsherkenning toe te passen in een beperkt aantal situaties. Bij real-time gezichtsherkenning gaat het onder meer over de preventie van een terreuraanslag of het opsporen van een verdachte van strafbare feiten, zoals milieucriminaliteit of sabotage. De vaagheid van deze uitzonderingen brengt echter grote risico’s met zich mee. Zo omvat de definitie van ‘milieucriminaliteit’ zowel grootschalige illegale praktijken als kleine overtredingen, zoals sluikstorten. Bij sommige politici lijkt de wens om gezichtsherkenning zelfs voor kleine vergrijpen in te zetten duidelijk aanwezig. Zo opperde Vooruit-voorzitter Conner Rousseau onlangs nog om gezichtsherkenning in te zetten als maatregel tegen sluikstorten.
Ook bij het misdrijf terrorisme bestaat een reëel risico op disproportionele verschuivingen. Zo riep Vlaams Belang in november op om bewegingen zoals Black Lives Matters en Exctintion Rebellion toe te voegen aan de Belgische lijst van terreurorganisaties. Daarbij baart de groeiende criminalisering van het recht op protest en acties van burgerlijke ongehoorzaamheid ons zorgen in deze context. De dreiging en angst die surveillance met zich meebrengen, zal dus het chilling effect voor activisten die hun rechten uitoefenen alleen maar vergroten.
Uitzonderingsgronden moeten dus kritisch worden benaderd. De definities van deze misdrijven zijn immers rekbaar en bieden zelden een solide kader dat een beperkt gebruik van gezichtsherkenning zou toelaten.
Gezichtsherkenningstechnologie werkt op basis van databanken waarin persoonsgegevens worden opgeslagen en geanalyseerd. In België staat momenteel één op drie burgers in de Algemene Nationale Gegevensbank (BNG). De Controlecommissie voor Politiegegevens (COC) heeft in meerdere rapporten vastgesteld dat politieagenten deze databanken regelmatig onrechtmatig raadplegen. Dit roept ernstige vragen op over privacy en misbruik. Bovendien worden historisch gemarginaliseerde groepen, zoals mensen met een migratieachtergrond of daklozen, veel vaker geregistreerd in deze databanken. De invoering van gezichtsherkenning dreigt deze privacy problemen en ongelijkheden verder te vergroten.
De doeltreffendheid van gezichtsherkenningstechnologie is relatief omdat ze gepaard gaat met fouten en misbruik. In het Verenigd Koninkrijk wordt gezichtsherkenning sinds 2016 gebruikt. Drie jaar later bleek uit een eerste onafhankelijk onderzoek van twee onderzoekers aan de Universiteit van Essex naar het gebruik van gezichtsherkenning door de Londense politie dat 80% van de verdachten die door gezichtsherkenningssoftware werden gemarkeerd in werkelijkheid onschuldig waren. Aan de hand van het systeem werden regelmatig personen ten onrechte geïdentificeerd, met alle mogelijke sociale en juridische gevolgen van dien.
De vraag is of foutenmarges, zelfs al zouden die verkleinen in de toekomst, ooit gerechtvaardigd zijn gelet op de verregaande gevolgen voor betrokken individuen. Een nauwkeurigheidspercentage van 99% lijkt op het eerste gezicht positief. Toch heeft een foutenmarge van 1% verregaande gevolgen voor de betrokken personen.
Bovendien staat vast dat die gevolgen vooral kwetsbare groepen zal treffen. Een van de meest problematische aspecten van gezichtsherkenning is de kans op een discriminerend effect aangezien de meeste software aanvankelijk ‘gevoed’ werd met gegevens die niet representatief zijn voor de gehele samenleving. Bovendien zal de impact van gezichtsherkenningstechnologie ongetwijfeld groter zijn bij groepen in onze samenleving die vandaag al vaker geviseerd en geprofileerd worden. Meer specifiek zijn dit mensen op de vlucht, mensen van de LGBTQI+-gemeenschap, geracialiseerde minderheden, daklozen en iedereen die een mening, identiteit, administratieve status heeft die afwijkt van de norm.
Gefilmd en gecontroleerd worden in de openbare ruimte is een inbreuk op de privacy en de individuele vrijheid. Het heeft een weerslag op de manier waarop we ons gedragen, uitdrukken, bewegen in de openbare ruimte. Vanuit dat perspectief moeten we een uitbreiding van surveillancetechnologie ook beoordelen in het licht van politieke ontwikkelingen. Radicale en autoritaire partijen winnen terrein, zowel in België, als op het wereldtoneel. De vraag rijst wat er met deze technologieën gebeurt als ze in handen vallen van een dergelijk regime. De geschiedenis toont immers aan dat eens een surveillance-infrastructuur is opgezet, deze moeilijk terug te draaien is.
In China wenden de autoriteiten gezichtsherkenning geregeld aan als een sociaal controlemiddel. Volgens de Amerikaanse krant Wired zou Iran gezichtsherkenning gebruiken om vrouwen te identificeren die in opstand komen tegen de autoriteiten en die niet langer een sluier willen dragen. Rusland focust ook op de tegenstanders van de oorlog tegen Oekraïne.
In België is de situatie nog niet zo verregaand. Toch worden bewakingstechnologieën steeds breder verspreid en steeds vaker toegepast in situaties waarvoor ze oorspronkelijk niet waren bedoeld. Zo werden bewakingscamera’s in de Joodse wijk van Antwerpen geïnstalleerd om een terroristische aanslag te voorkomen. Deze werden later door de politie aangewend om na te gaan of de coronamaatregelen in dezelfde wijk werden nageleefd. Een ander voorbeeld betreft de ANPR-camera’s. De Antwerpse politie ontsloeg één van hun agenten toen bleek uit beelden gemaakt door ANPR-camera's dat hij sjoemelde met zijn fietsvergoeding. Ook in het Brussels Hoofdstedelijk Gewest werden deze camera’s geplaatst in de strijd tegen terrorisme, maar momenteel gebruikt om toe te zien op de lage-emissiezone. Vandaag dienen de camera’s voornamelijk om verkeersinbreuken te detecteren.
De AI Act laat toe dat lidstaten gezichtsherkenning strenger regelen, inclusief verbieden zonder uitzonderingen. Onlangs waarschuwden ook KULeuven-onderzoekster Sofie Royer voor overhaaste beslissingen en het belang van een breed maatschappelijk debat. De Liga voor Mensenrechten en de Ligue des Droits Humains roepen het federaal parlement op om een dergelijk democratisch debat mogelijk te maken. Hierbij moeten specialisten, maar ook het maatschappelijk middenveld en de gemeenschappen die door surveillancetechnologieën worden getroffen, betrokken worden om de vele inherente gevaren van deze systemen bloot te leggen. Enkel zo kan men garanderen dat technologie wordt ingezet in dienst van mensen en hun rechten, eerder dan tegen hen.