Hoe denkt de Liga over surveillance?
Met massasurveillance doelen we op de verzameling van grote hoeveelheden data door onze overheden over burgers, die het de staat mogelijk maken om gevoelige informatie over ons te kennen – van onze medische informatie, tot politieke overtuiging en seksuele oriëntatie. Er wordt vaak gesteld dat massasurveillance ons veiliger maakt, omdat het voornamelijk bedoeld is om criminelen en hun netwerk op te sporen en te bestraffen: wie niets te verbergen heeft, heeft niets te vrezen. Toch zijn er heel wat voorbeeld van massasurveillance die de rechten van burgers hebben geschaad, zowel in het buitenland als in België. Denk maar de toeslagenaffaire en de geheime tests met Clearview AI door verschillende politiekorpsen, ook in België.
De Liga is er niet van overtuigd dat massasurveillance onze samenleving veiliger maakt. In tegendeel zelfs, deze technologieën maken ons kwetsbaar. De impact van misbruik ervan op onze grondrechten is groot en de risico’s zijn groot. AI-systemen kunnen op grote schaal aan etnisch profileren doen en kunnen bestaande uitsluiting – zoals armoede – nog vergroten.
We pleiten voor een aantal basisvoorwaarden waaraan voldaan moet worden, vooraleer beleid over nieuwe technologieën door onze overheden worden ingevoerd.
Ontwikkel een visie over de balans tussen technologie en grondrechten
Technologie evolueert razendsnel. De opmars van artificiële intelligentie creëert nieuwe mogelijkheden, maar die gaan gepaard met grote risico’s als het over onze fundamentele rechten gaat. De overheid is aan zet om een visie te ontwikkelen die de balans tussen innovatie en bescherming van onze grondrechten garandeert.
De impact van technologie in onze digitale maatschappij is zo fundamenteel, iedereen moet dan ook betrokken worden bij het ontwikkelen van die visie. Onze beleidsmakers ontwikkelen geen visie over hoe we onze digitale maatschappij vorm kunnen geven met respect voor ieders mensenrechten. Burgers krijgen geen kans en forum om in alle transparantie mee te denken en de nodige regulering vorm te geven. Daardoor wordt pas ingezet op regulering nadat technologieën zijn ontwikkeld en die soms zelfs al mensenrechtenschendingen hebben veroorzaakt.
Wij zien het anders: we willen een grootschalig democratisch debat zodat beleidsmakers een holistische visie ontwikkelen op technologie en mensenrechten. De toekomst is digitaal en hoe die toekomst eruit zal zien, willen we zelf vormgeven via onze parlementen. Daarbij moet iedereen betrokken worden en moet bijzondere aandacht besteed worden aan de positie van de meest kwetsbaren in onze samenleving. Ook laaggeletterden, mensen met een visuele of auditieve beperking, anderstaligen, kinderen en jongeren, mensen in armoede, etc… moeten een prominent platform krijgen in deze discussie.
Transparantie als basisprincipe
Bij de invoer van nieuwe technologieën moet transparantie als basisprincipe genomen worden. Dat wil zeggen dat er helder gecommuniceerd wordt over de noodzaak die er is om een bepaalde technologie toe te passen, of de technologie wel echt aan die nood kan en zal voldoen, welke technologie men wil gebruiken, hoe die technologie werkt, waar men die wil inzetten, welke risico’s er zijn en hoe die in kaart gebracht zijn, etc… We pleiten voor een heldere human rights impact assessment die actief publiek gemaakt wordt. Dat geldt ook voor technologie die gebruikt wordt door politie en veiligheidsdiensten.
Sterke monitoring en toezicht, en een effectief klachtenmechanisme
Om erop toe te zien dat onze fundamentele rechten gewaarborgd worden, hebben we performant monitoringmechanismen nodig. Sterke monitoringmechanismen kunnen proactief onderzoeken, hebben het mandaat om praktijken te stoppen die mensenrechten schenden en kunnen boetes opleggen. Tenslotte hebben ze een sterk, onafhankelijk en toegankelijk klachtenmechanisme waarbij burgers laagdrempelig terecht kunnen met vragen en klachten, waar ze goed begeleid en geïnformeerd worden. Daarnaast moet er snel en adequaat onderzoek worden gevoerd naar de klachten en moeten er stappen kunnen ondernomen worden indien er een inbreuk wordt vastgesteld.
Een sterke Gegevensbeschermingsautoriteit met de noodzakelijke financiële, menselijke en juridische middelen
De Gegevensbeschermingsautoriteit, vroeger bekend als de Privacy commissie, kreunt onder een personeelstekort en kan zelfs niet meer alle wetsvoorstellen en -ontwerpen naar behoren controleren op mogelijke privacyovertredingen. Laat staan dat de Autoriteit in staat is om klachten binnen een redelijke termijn op een grondige manier te behandelen en beslechten. De Liga pleit voor een grote investering in de Gegevensbeschermingsautoriteit om de instelling om te vormen tot een sterke privacywaakhond, zoals de CNIL in Frankrijk of de Autoriteit Persoonsgegevens in Nederland.
Extern, onafhankelijk toezicht en klachtrecht t.o.v. databanken van politie en veiligheidsdiensten
De Liga pleit voor een orgaan dat extern en onafhankelijk toezicht uitoefent op het gebruik van alle databanken door zowel de politie als door de veiligheids- en inlichtingendiensten. Dat toezichtsorgaan moet erop toezien dat die databanken correct worden gebruikt. Hier pleit de Liga ervoor dat dit orgaan ook een direct recht tot toegang moet verstrekken aan de burger. Enkel legitieme en beargumenteerde uitzonderingen zijn toegelaten. Dat kan georganiseerd worden op een manier waarbij ook de nationale veiligheid wordt gegarandeerd. Een voorbeeld daarvan is het Investagory Powers Tribunal in het Verenigd Koningrijk, waar gewerkt wordt met een tweetrapsprocedure. Wanneer de burger een vermoeden van misbruik kan bewijzen, kan een onafhankelijke rechter directe toegang krijgen tot de databanken van politie en veiligheidsdiensten. Die rechter controleert dan of er sprake is van een schending.
Vul de bevoegdheid van de Mensenrechteninstituten in het kader van de AI Act maximaal in
Op basis van de nieuwe AI Act zullen nationale mensenrechteninstituten bevoegdheden krijgen om inzage te krijgen in AI-systemen die door de overheid worden gebruikt. Momenteel heeft België twee mensenrechteninstituten die deze bevoegdheid zouden kunnen krijgen: het Federaal Mensenrechteninstituut en UNIA. De Liga pleit ervoor dat deze bevoegdheid op heldere wijze aan één enkel instituut wordt toebedeeld, dat uiteraard een beroep kan doen op de expertise van andere monitoringorganen in België. Deze bevoegdheid moet maximaal worden ingevuld:
We willen een meldingsplicht bij deze instituten van alle AI-systemen die door overheden gebruikt worden. In die melding moet worden geduid met welke technologie er gewerkt wordt, voor welke doelstelling, op basis van welke data er gewerkt wordt en wat de mogelijke uitkomsten er zijn. Als er een human rights impact assessment gemaakt is voor de invoer van de technologie, moet die bij de melding gevoegd worden.
Daarnaast pleiten we ervoor dat deze instantie het mandaat krijgen om de toegepaste algoritmen en de databases waarop ze werken te controleren.
Dit instituut moet ten slotte de bevoegdheid krijgen om een melding te maken indien het misbruiken detecteert, of zelf naar een rechtbank te trekken.
Er zijn een aantal technologische toepassingen die voor de Liga te ver gaan. Het zijn technologische toepassingen waarvan de risico’s op de schending van mensenrechten zo groot zijn, dat ze volgens ons nooit verantwoord kunnen zijn.
Verbied live gezichtsherkenning in openbare ruimte om identificatiedoeleinden
Gezichtsherkenning is een van de biometrische technologieën waarmee mensen kunnen worden geïdentificeerd op basis van de analyse van unieke kenmerken van hun gezicht. De algoritmen van gezichtsherkenningssystemen identificeren of bevestigen de identiteit van personen op basis van de raadpleging van een databank.
Het gebruik van deze technologie in onze straten zou ons allemaal permanent identificeerbaar maken en permanent in de gaten houden. Dat geeft de autoriteiten de macht om de hele bevolking in de openbare ruimte te identificeren, wat een inbreuk is op de privacy en het recht op anonimiteit van burgers. De bewaking muilkorft de vrijheid van meningsuiting en beperkt de mogelijkheden om samen te komen, bijvoorbeeld tijdens demonstraties. Gezichtsherkenning zal vooral gevolgen hebben voor bijzonder getroffen en gemarginaliseerde sociale groepen: migranten, de LGBTQI+-gemeenschap, raciale minderheden, daklozen, enz.
Andere risico's die inherent zijn aan deze technologie:
Risico's van gegevensopslag: de risico's van computerhacking van deze zeer gevoelige biometrische gegevens zijn groot en uit het Belgisch nieuws is herhaaldelijk gebleken dat de door de overheid verzamelde gegevens niet veilig zijn voor dergelijke hacking;
Verhoogd risico op fouten en discriminatie: studies tonen aan dat deze technologie seksistische of racistische discriminatie reproduceert die veroorzaakt wordt door de dominante sociale opvattingen en instellingen die deze technologie verkopen en gebruiken;
Een risico van standaardisatie en een verschuiving naar massale bewaking: de invoering van bewakingstechnologieën verloopt via proefprojecten die voorafgaan aan wettelijke kaders en vervolgens worden geregulariseerd, vaak zonder democratisch debat.
Dataretentie: balans tussen veiligheid en privacy
De opeenvolgende dataretentiewetten verplichten telecomproviders om alle communicatiegegevens van – in realiteit – alle personen in België te bewaren gedurende 12 maanden. Politie en het parket kunnen die gegevens opvragen wanneer zij dat nodig vinden. Het gaat om metadata: wie belt waar, met wie, wanneer, hoelang, naar welke sites wordt er gesurft, wie sms’t met wie… Hoewel het hier dus niet om de inhoud van de communicatie gaat, is het wel mogelijk om op basis van die data profielen te maken van mensen. Zo’n algemene, ongedifferentieerde bewaring van metadata werd al verschillende keren strijdig gevonden met onze grondrechten door het Europees Hof van Justitie en het Grondwettelijk Hof. Beide Hoven vragen de Belgische overheid om te investeren in legitieme, gerichte surveillance.
In navolging van die rechtspraak, kan dataretentie voor de Liga enkel wanneer noodzakelijk en voor zover noodzakelijk. Het is belangrijk om een afweging te maken tussen enerzijds onze veiligheid die wordt gewaarborgd door het bewaren en verwerken van gegevens, en anderzijds de vrijheid om geen inmenging van de overheid in diens privacy te hebben.
Gedifferentieerde gegevensbewaring als alternatief
Daarvoor kunnen we kijken naar de alternatieven die het Grondwettelijk Hof en het Hof van Justitie in hun arresten voorstellen. In plaats van een algemene en ongedifferentieerde gegevensbewaring, kan er wel gebruik worden gemaakt van gedifferentieerde bewaring. Bij gedifferentieerde bewaring worden enkel gegevens bijgehouden in bepaalde gebieden met veel criminaliteit of van bepaalde personen die zouden kunnen betrokken zijn bij criminele feiten. Die gegevens kunnen dan ook enkel worden bijgehouden voor zo lang als noodzakelijk.
Algemeen en ongedifferentieerd bewaren van gegevens kan volgens de arresten enkel nog in geval dat noodzakelijk is in de context van een ernstige en concrete bedreiging van de nationale veiligheid.
Deze alternatieven moeten ervoor zorgen dat de overheid zware criminaliteit kan bestrijden met respect voor de mensenrechten. Zo is er een betere afweging tussen vrijheid en veiligheid mogelijk.
Modal body text goes here.
Schrijf je in en ontvang de nieuwsbrief viermaal per jaar in je mailbox.
Sinds 1979 bouwen wij aan een vrije en open samenleving met mensenrechten voor iedereen. Steun onze missie.
2024 © Liga voor Mensenrechten - Alle rechten voorbehouden | Privacy & Cookies
Proudly designed by Plant a Flag
Sinds 1979 bouwen wij aan een vrije en open samenleving met mensenrechten voor iedereen. Steun onze missie.
2024 © Liga voor Mensenrechten - Alle rechten voorbehouden | Privacy & Cookies
Proudly designed by Plant a Flag