Nieuws over Artificial Intelligence:

AI en de zorgen over privacy en ethiek

Artificial Intelligence begint steeds dichterbij te komen in ons dagelijkse leven, hoewel nog vaak onzichtbaar voor de meeste mensen. We worden er wel steeds op gewezen dat het plaatsvindt. Voorbeelden zijn algoritmes in social media, persoonsherkenning op je telefoon en fraude detectie.

Als de overheid en de zorg AI massaal gaan omarmen zal dit beeld versterkt worden. Hierdoor er zijn in toenemende mate vragen en zorgen over privacy en ethische aspecten. Een speerpunt is namelijk of een AI wel ethisch verantwoord profileert en voorspellingen doet die geen vooringenomen standpunten bevatten. Dat zou namelijk leiden tot (onbedoelde) discriminatie.

De overheid zelf is zich daar ook terdege van bewust en probeert kaders te schetsen om te voorkomen dat dit gebeurt. Die kaders zijn vooral gericht op het verkrijgen van inzicht in de werking van een AI.  Hoe werken de modellen, is dat transparant te maken en kun je achteraf ook bewijzen voor een rechter dat er zorgvuldig is gehandeld en conform alle wetgeving ? Maar ook of het wel ethisch verantwoord is.

Ethiek en wet zijn niet hetzelfde

Dat brengt ons direct tot het volgende punt. De wet is een kader en daarbinnen moet gehandeld worden. De wet staat echter niet gelijk aan ethiek. In westerse landen wordt ethiek wel meegewogen door democratisch gekozen vertegenwoordigers, maar zeker niet altijd. Zo zou je vanuit een ethisch perspectief geen onderscheid mogen maken tussen inwoners van land A of B. Ieder mens heeft immers hetzelfde recht op vrijheid, leven en geluk. Landen discrimineren continue op basis van wie er woont in hun land. Hier zijn goede redenen voor vanuit economisch en cultureel perspectief, maar daarmee nog niet ethisch verantwoord.

Ethiek en privacy

Invalshoeken in de ethiek

Er zijn verschillende invalshoeken in de ethiek, die vervolgens tot andere uitkomsten kunnen leiden. Zo kun je bekijken of een actie ethisch is a.d.h.v de consequentie. Zo zou het doden van 1 mens om er 10 levens mee te besparen ethisch juist zijn. Je kan het ook benaderen vanuit de persoon die het bijvoorbeeld volstrekt onacceptabel vindt om iemand te doden. In dat geval zou de juiste keuze zijn dat er dan maar 10 man dood gaan. Weer een ander perspectief is als je meeneemt wat de situatie van de persoon is. Als degene die dood zou gaan een familielid is of nog dichter bij  staat (kind/ouder), dan is de ethische redenatie dat die persoon zou kiezen voor het behoud van het leven van het familielid. Je zou kunnen beredeneren dat de overheid dat laatste principe hanteert bij beleid keuzes. De overheid is niet persoonlijk betrokken net zoals iemand met zijn familie en dus geldt dat ethisch denkkader niet.

De algoritmes die een AI vormen kennen geen gevoel of morele waardes, maar kunnen wel bepalen of de consequentie van de output opweegt tegen de kosten. Om die reden kan een AI momenteel alleen de eerste ethische invalshoek gebruiken. Er zijn dus meerdere invalshoeken, maar ook nog belangen vanuit opdrachtgevers en politiek die meespelen. Die moeten vooralsnog door mensen mee worden genomen.

Discriminatie

Een veelbesproken onderwerp binnen de overheid is discriminatie en wel specifiek door een AI. Een AI kan inderdaad discrimineren en zal dat zelfs doen als de data daartoe aanleiding geeft. Zo zijn er bekende voorbeelden van een  racistische chatbot, maar ook veel subtielere vormen die onwenselijk zijn vanuit overheid en zorg.

Dit is echter wel degelijk te voorkomen of sterk te verminderen. Je kan een model zodanig trainen dat het niet of veel minder discrimineert dan een mens zou doen met dezelfde informatie. Om precies te beschrijven hoe dit werkt is buiten het kader van deze blog. In het kort komt het erop neer dat je de data die een scheve verdeling geeft, automatisch aanvult en twee modellen in wedstrijd vorm de synthetische data laat beoordelen in hoeverre die overeenkomt met de echte data. Daarna start pas het echte trainen met een dataset die veel evenwichtiger is. Dit is geen science fiction, dit hebben we in de praktijk al gedaan.

Privacy

In Nederland en Europa hebben we strenge wetten rondom het beschermen van de privacy van burgers (AVG/GDPR). Dit heeft forse consequenties voor het toepassen van informatie technologie in zijn geheel, maar zeker ook voor het gebruik van artificial intelligence. Zo moet de data geanonimiseerd zijn. Dit kan door alle persoonlijke informatie te verwijderen voor de training, of het moet al anoniem zijn zoals bij het gebruik van foto’s of videobeelden.  Bij veel AI projecten gaat dan ook veel tijd zitten in het anonimiseren van bestaande data. Nu kan je dat proces ook deels automatiseren met AI. Natural language detection is te gebruiken om NAW gegevens, bankrekeningen en BSN nummers te verwijderen.  Het is wettelijk niet toegestaan te werken met data die nog privacy gevoelig is. Dat terwijl er in de meeste gevallen geen afwijking zal ontstaan op het getrainde model.

Een AI zal bijvoorbeeld zelden concluderen dat als je naam Jan Janssen is dat je meer kans op kanker hebt dan Pieter de Boer. Dit is niet geheel uit te sluiten, omdat het statistisch significant kan zijn. Ook in dit geval zou je kunnen denken dat het interessant is om te achterhalen waarom.

Consequenties voor ons product Intra

De aspecten rondom privacy en ethiek hebben daadwerkelijk invloed op ons product Intra. Omdat we werken met computer vision en vaak met camera’s, kunnen we data niet vooraf opschonen en anonimiseren. Anonimiseren tijdens de verwerking is technisch wel mogelijk door te blurren of gezichten af te plakken maar dat is wettelijk niet toegestaan. Wel kunnen we volledig anoniem gegevens verwerken, dat is namelijk wel toegestaan. Ook zonder gerechtvaardigd belang die als uitzondering is opgenomen in de AVG wet mogen wij het. Dat doen we dan door thermische camera’s te gebruiken voor detectie in plaats van normale camera’s.

Om discriminatie te voorkomen in bestaande datasets kan met behulp van generative en discriminative networks nieuwe data worden gegenereerd om eventuele discriminatie te voorkomen. Dat kan ook met beeld data.

Een praktisch hulpmiddel voor overheden en zorg instellingen is dit AI assesment tool. Handig maar ook best bewerkelijk, maar zeker de moeite waard om te lezen zodat je beter weet wat je doelen, methodes en kaders zijn voordat je begint. Uiteraard kunnen wij ook helpen met de assessment zelf.

Relevante verwijzingen

1 reactie

  • Theo

    Interessant, ik ben wel benieuwd of deze technologie goed toegepast gaat worden door overheden. We zullen het zien.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

*

*

*