Bij een onvermijdelijk ongeval zal iedere autobestuurder ervoor kiezen zoveel mogelijk levens te sparen. Maar als je een bestuurder confronteert met een moeilijkere keuze – rijd je bijvoorbeeld liever een vrouw of een man aan – dan blijken culturele verschillen een rol te spelen bij de beslissing. Neem bijvoorbeeld Franse bestuurders: als zij iemand moeten aanrijden, kiezen ze eerder voor mannen met overgewicht dan slanke vrouwen. Tot deze ontdekking kwamen wetenschappers van de Amerikaanse universiteit MIT.

De zelfrijdende auto brengt een hoop vragen met zich mee op het gebied van recht en ethiek. De taak van de zelfrijdende auto gaat immers verder dan alleen het vinden van de weg. Hoe moet een zelfrijdende auto in het geval van een onvermijdelijk ongeval een morele keuze maken? Moet hij de gehaaste man in het dure pak of de rondzwervende oude man in vodden aanrijden? Een algoritme dat een waardestempel plakt op iemands leven – het klinkt als dystopische sciencefiction die werkelijkheid wordt.

Ethische auto’s

De ethische regels die kunstmatig intelligente auto’s in deze situaties moeten volgen, zullen moeten worden opgesteld. Om uit te zoeken hoe mensen in het geval van een onvermijdelijk ongeval zouden handelen, creëerden onderzoekers de ‘Moral Machine’: een online platform om morele voorkeuren te onderzoeken. De wetenschappers lieten 40 miljoen mensen verspreid over de hele wereld een keuze maken in verschillende scenario’s. Het onderzoek is gestart in 2016 en de resultaten zijn onlangs gepubliceerd in Nature.

AI verbetert hoekschop
LEES OOK

AI verbetert hoekschop

Kunstmatige intelligentie kan voetbaltrainers helpen bij het verbeteren van hoekschoppen. Experts vinden de AI-suggesties voor hoekschopopstellingen i ...

In het experiment keken de deelnemers naar scenario’s met een zelfrijdende auto op een tweebaansweg. In elk scenario, dat verschillende combinaties van voetgangers en passagiers in gevaar brengt, kan de auto op zijn oorspronkelijke koers blijven of op de andere rijstrook inrijden. Deelnemers moesten beslissen welke koers de auto moest volgen op basis van de levens die het zou sparen.

Trolleyprobleem

Het experiment is geïnspireerd door het ‘trolleyprobleem’, een bekend gedachte-experiment uit de ethiek dat voor het eerst beschreven werd in 1967. Het stelt de vraag of er omstandigheden zijn waaronder men een persoon mag doden om meerdere anderen te redden.

De onderzoekers ontdekten een aantal algemeen gedeelde morele voorkeuren, zoals het sparen van het grootste aantal levens, de voorkeur voor het sparen van jongere in plaats van oudere mensen en de voorkeur voor het sparen van mensen in plaats van dieren. Er zijn echter ook ethische beslissingen die van cultuur tot cultuur verschillen. Deelnemers uit landen in Midden- en Zuid-Amerika, maar ook uit Frankrijk, hadden bijvoorbeeld een sterke voorkeur voor het sparen van vrouwen in plaats van mannen en het sparen van mensen met een atletische bouw in plaats van mensen met overgewicht. Deelnemers uit landen met een grote inkomensongelijkheid kozen vaker voor mensen met een hoge sociale status wanneer ze moesten beslissen wie ze zouden sparen.

Versimpeld beeld

Volgens infrastructuuronderzoeker Anne van der Veen geeft de situatie zoals in het onderzoek van MIT een vertekend beeld van de werkelijkheid. Hij noemt een dergelijk scenario misleidend. ‘In bijna elk ethisch dilemma met zelfrijdende auto’s moet je kiezen tussen het aanrijden van de ene of de andere groep mensen. Of tussen het kind aanrijden of jezelf het ravijn in storten. Er zijn telkens maar twee mogelijkheden. Echte verkeerssituaties daarentegen zijn vaak veel ingewikkelder. Hoe je in zo’n situatie handelt, hangt sterk van de situatie af’, schrijft Van der Veen in een opinieartikel voor De Correspondent.

Techniekfilosoof Katleen Gabriels beaamt dit: ‘In het onderzoek wordt een situatie geschetst die de werkelijkheid versimpelt. In het echt is een situatie nooit zo duidelijk. Je kunt bijvoorbeeld te maken hebben met een klapband of een glad wegdek. Een situatie op de weg is nooit zo simpel als het onderzoek veronderstelt.’

De onderzoekers ontdekten een aantal algemeen gedeelde morele voorkeuren, maar er waren ook ethische beslissingen die van cultuur tot cultuur verschillen.
De onderzoekers ontdekten een aantal algemeen gedeelde morele voorkeuren, maar er waren ook ethische beslissingen die van cultuur tot cultuur verschillen.

Zelflerend algoritme

‘Filosofen houden zich graag bezig met een dergelijk vraagstuk, maar ik denk dat programmeurs niet zoveel hebben aan het onderzoek’, zegt Gabriels. ‘Algoritmen zijn namelijk nog niet zo ver ontwikkeld dat we ze eenvoudig kunnen programmeren om in het geval van een noodsituatie bijvoorbeeld eerder oudere mensen aan te rijden. We overschatten dus eigenlijk het vermogen van het algoritme en versimpelen situaties uit de werkelijkheid. Voor producenten is onderzoek naar de veiligheid van zelfrijdende auto’s veel interessanter. Denk bijvoorbeeld aan onderzoek naar hoe zelfrijdende auto’s voetgangers die oversteken het beste kunnen waarschuwen.’

De algoritmen van zelfrijdende auto’s leren van ongelukken. ‘Zelfrijdende auto’s maken gebruik van machine learning. Het klinkt luguber, maar bij hoe meer ongelukken het zelflerende algoritme betrokken raakt, hoe beter het zichzelf kan ontwikkelen.’

Ongestoord een krantje lezen zit er met de zelfrijdende auto niet in: ‘Volgens de wetgeving moet degene achter het stuur altijd het verkeer in de gaten blijven houden en indien nodig kunnen ingrijpen.’

Zelfrijdende auto’s
Hod Lipson & Melba Kurman
€ 32,50