Kunstmatige intelligentie? Misschien hebben we meer behoefte aan kunstmatige domheid. Om een apocalyptisch scenario te voorkomen waarin robots de macht grijpen, suggereren onderzoekers dat we grenzen moeten stellen aan de intelligentie van machines.

Moeten we machines wat menselijke domheid meegeven?

Het voorstel komt van computerwetenschapper Roman Yampolskiy van de universiteit van Louisville in de VS en Michaël Trazzi van de Sorbonne-universiteit in Parijs. Ze stellen dat onze enige kans om robots de baas te blijven bestaat uit het inperken van de vermogens van kunstmatige intelligentie door de introductie van ‘kunstmatige domheid’. Een richtlijn hiervoor is dat de vermogens van robots die van het menselijk brein niet mogen overstijgen.

Kunstmatig intelligente machines vormen vooralsnog geen bedreiging voor ons. Yampolskiy en Trazzi stellen echter dat we niet vroeg genoeg kunnen beginnen met het treffen van voorzorgsmaatregelen. Om een ramp in de toekomst te voorkomen, moeten we nu al plannen maken om de vaardigheden van robots te beperken.

Het raadsel van de­ verdwenen antimaterie
LEES OOK
Het raadsel van de­ verdwenen antimaterie

Limieten

De eerste stap zou zijn om limieten in te stellen voor zowel het werkgeheugen als voor het aantal operaties dat een kunstmatig intelligent systeem per tijdseenheid kan uitvoeren. Die limieten moeten worden afgestemd op ruwe schattingen van de opslagruimte en informatieverwerkingscapaciteit van het menselijk brein.

Maar misschien moeten we zelfs nog een stapje verder gaan. Dergelijke limieten zouden namelijk mogelijk niet volstaan. Als mensen hun verwerkingscapaciteit niet optimaal benutten, zou kunstmatige intelligentie ons namelijk alsnog kunnen overvleugelen, zelfs als het in vergelijking minder bewerkingen per tijdseenheid kan uitvoeren.

Denkfouten

Daarom komen Yampolskiy en Trazzi met extra aanbevelingen. We moeten volgens hen allereerst ervoor zorgen dat kunstmatige intelligentie niet in staat is zichzelf te verbeteren. Daarnaast moeten we in robots denkfouten inbouwen – net zoals mensen vaak conclusies trekken die niet voorkomen uit rationele overwegingen, maar uit diepgewortelde overtuigingen.

LEESTIP Hoe beschermen we onszelf tegen een nucleaire oorlog, ecologische rampen en technologische bedreigingen? In dit boek beantwoordt Yuval Noah Harari de 21 meest urgente vragen van onze tijd. Bestel in onze webshop

Een voorbeeld van zo’n in te bouwen denkfout is dat we kunstmatige intelligentie instrueren niet van beginwaarden af te wijken. Een andere voorbeeld is dat we machines zodanig programmeren dat ze elke vorm van agressief gedrag vermijden. Dat zou je kunnen vergelijken met wat in de psychologie bekendstaat als de courtesy bias: het niet uiten van negatieve kritiek uit angst een ander te beledigen. Een kunstmatig intelligente machine die op zo’n manier is geprogrammeerd, kan met politieke en sociale vaardigheden worden overreden tot een vredige overeenkomst.

Onnavolgbaar

Sommige suggesties slaan de spijker op de kop, zegt computerwetenschapper Stuart Armstrong van het Future of Humanity Institute van de universiteit van Oxford. ‘Zaken als het inbouwen van limieten aan processiesnelheden zouden inderdaad kunnen helpen om kunstmatige intelligentie begrijpbaar te houden’, zegt hij. ‘Vooropgesteld dat de limieten het systeem niet verlammen, maar alleen ervoor zorgen dat robots niet onnavolgbaar voor ons worden.’

Armstrong zet echter vraagtekens bij de haalbaarheid van andere suggesties van Yampolskiy en Trazzi. Bijvoorbeeld het idee om te voorkomen dat een zeer intelligente robot zichzelf verbetert. Wie of wat kan zo’n machine er bijvoorbeeld van weerhouden om een kopie van zichzelf te maken zonder die ingebouwde beperking? Daarnaast vraagt Armstrong zich af of we wel voldoende begrijpen van denkfouten in het menselijk brein om die op betrouwbare wijze te kunnen nabouwen in machines.

Mis niet langer het laatste wetenschapsnieuws en meld je nu gratis aan voor de nieuwsbrief van New Scientist.

Lees verder: