Moral design is noodzakelijk voor mens-centrale AI

Fontys Hogeschool ICT

Moral design is noodzakelijk voor mens-centrale AI

Om criminaliteit tegen te gaan in de binnenstad experimenteerde een Limburgse gemeente met  een algoritmisch risicomodel om camerabeelden te analyseren. Door het model met allerhande data van automobilisten te voeden konden criminelen dankzij ‘predictive policing’ uit het publiek gefilterd worden. Deze slimme en innovatieve oplossing leverde de gemeente een Amnesty International rapport op over schending van mensenrechten. Het algoritme had namelijk etnische profilering geperfectioneerd en geautomatiseerd. Het is een voorbeeld van een steeds vaker voorkomend soort techno-ethische kwestie, waar technologie wordt ingezet zonder een volledig beeld te hebben van de mogelijke impact, volgens Bart Wernaart, lector Moral Design Strategy bij Fontys Hogescholen.

De mens terug in de machine

Artificial intelligence gaat onze wereld voorgoed veranderen, maar of dat positief of negatief is ligt nogal aan de manier waarop het ingezet wordt volgens Wernaert: “Veel techno-ethische issues worden top-down en aan de achterkant van het innovatieproces aangepakt. Wanneer zich een techno-ethisch probleem voordoet zijn we geneigd dat op te lossen in de vorm van een gebod of verbod. Kijk naar het ingrijpen van social media bij Covid-19 discussies, of het de voorgenomen fotoscan actie van Apple om kindermisbruik te detecteren." Daar gaat het fout volgens Wernaart. ‘De mens terug in de machine’ is uitdrukking die Wernaart graag hanteert: “Als we op een mensvriendelijkere manier technologie in willen zetten, dan is er een noodzaak om moraliteit deel te maken van design proces.”

Start met Moral Design

Technologie is nooit zonder morele impact volgens Wernaart, en vaak zijn de (soms onbedoelde) bijeffecten lastig te voorspellen: “De auto is een goed voorbeeld, die is uitgevonden met het doel onze mobiliteit te vergroten. Maar een gevolg is dat onze straten niet meer veilig zijn om te spelen. Dat is niet erg, maar je moet je er wel bewust van zijn.” Een oplossing voor dit soort dilemma’s, zoals in de eerdergenoemde voorbeelden, is moral design strategy, waar het lectoraat zich mee bezig houdt: “Wat we eigenlijk met moral design doen, is proberen de moraliteit van het individu te vangen en dat te gebruiken als designprincipe. Je onderzoekt dan welke waarden en morele afwegingen spelen binnen de groep gebruikers die een toepassing of dienst betreft, en hoe je deze aan de voorkant van je ontwikkelproces kan inzetten. Je kunt het ook breder trekken door dit bijvoorbeeld te vergelijken met een random groep Nederlanders, of een specifieke groep programmeurs en lering trekken uit de overeenkomsten of verschillen. De component strategie zit ‘m erin dat dit ook als basis kan dienen voor beleid." Kortom, door de gebruiker te betrekken in het proces, kan je wensen en morele keuzes meenemen in het designproces. Een voorbeeld is social media en de algoritmes van deze platformen. Waren deze ontwikkeld met moral design principes, dan zouden deze gebruikers vermoedelijk niet in gesloten cirkeltjes sturen. Dan zouden deze open communicatie faciliteren, in plaats van het polariserende effect dat ze nu hebben.

Inspraak en Transparantie  

Hoe pak je dat dan aan? Wernaart werkt nu aan een project genaamd Mobile Moral Lab. Hiermee gaat hij de wijken van Eindhoven in. Bewoners geven hun input over techno-ethische vraagstukken, zoals de morele programmering van een verkeersapp die het verkeer in de binnenstad kan beïnvloeden: "Mensen mogen zelf aan de knoppen draaien, en wij vertalen dat naar kernwaarden voor bestuurders. Zouden schone auto’s meer voorrang moeten krijgen zodat schoner rijden beloond wordt of juist vervuilende auto’s, zodat ze sneller uit de binnenstad zijn en minder milieuschade veroorzaken? Zij halen daarmee advies op, waar ze hun keuzes mee kunnen onderbouwen. Bovendien wordt het proces hiermee transparant." En dat is belangrijk, want techno-ethiek is zelden een verkiezingsthema vaak wordt technologie zonder inspraak of zelfs weet ervan ingezet. De Limburgse gemeente is een voorbeeld: “Je ziet een ongewenste bias in het algoritme ontstaan bij preventive policing. De oorzaak zit in dat designproces, waar niet genoeg inspraak in de vorm van diverse input is geweest om een slimme én rechtvaardige AI te ontwikkelen. Daar gaat het vaak fout, denk ook aan de zelflerende chatbot Tay van Microsoft die al snel de holocaust ontkende.”  

AI en  Moral  Design  

Moral design is met name relevant als het om een moreel dilemma gaat, legt Wernaart uit: “Dat is wanneer er sprake is van meerdere ethisch verdedigbare keuzes waarbij de opties elkaar uitsluiten.” Willen we ervoor zorgen dat AI een mens-centrale technologie wordt, dan moeten we dit dus anders gaan doen. In de voorbeelden waar social media censureert en een techgigant persoonlijke data onderzoekt, worden belangrijke waarden beschermd ten koste van andere waarden. Daar zit volgens Wernaart het pijnpunt: “In het geval van Apple accepteren we het omdat we kindermisbruik verschrikkelijk vinden. Maar wat is de volgende stap? We hebben het namelijk ook over grondrechten als privacy en zelfbeschikking. Je kunt je de vraag stellen in hoeverre een bedrijf hierover mag beslissen, en of zo’n bedrijf haar gebruikers niet veel eerder aan de voorkant aan de tekentafel moet betrekken bij het inzetten van techniek om dit soort doelen te bereiken. Dat is waar moral design om draait.”

Op 14 oktober 2021 organiseert de Fontys AI Community een debat over AI & Ethiek. Studenten en medewerkers zijn hierbij welkom. Deelnemen of meer weten over de AI Community? Neem dan contact op met Yvonne van Puijenbroek.

Tags: Events