ChatGPT, een kunstmatige intelligente chatbot van het bedrijf OpenAI, heeft flinke ophef veroorzaakt met zijn griezelig menselijke teksten. Kan wetgeving iets doen aan de duistere toepassingen van de technologie? ‘Dit wordt een kat-en-muisspel.’

‘Het DNA van de Amsterdamse grachten is een onthulling die wetenschappers de wereld op zijn kop zet! Na jarenlang onderzoek hebben wetenschappers het complete genoom van de Amsterdamse grachten ontrafeld, en wat ze hebben ontdekt is een absolute sensatie.’ Tja, dat krijg je als je ChatGPT vraagt om een ‘ademloos populairwetenschappelijk artikel’ over een typisch Parool-onderwerp te schrijven, namelijk ‘het DNA van de Amsterdamse grachten’.

Het kunstmatig intelligente (AI) tekstgeneratiemodel GPT-3 heeft de afgelopen tijd flink wat ophef veroorzaakt met zijn griezelig menselijke teksten. GPT-3 is een taalmodel gebaseerd op deep learning, waarbij miljarden pagina’s tekst zijn ingekookt tot instellingen van de kunstmatige hersencellen van een computersysteem. Nu poept het op commando schijnbaar zinnige teksten uit, via de chatbot ChatGPT.

Hersentrainings-apps missen wetenschappelijke onderbouwing
LEES OOK

Hersentrainings-apps missen wetenschappelijke onderbouwing

Een boel apps claimen dat ze hun gebruikers slimmer ­maken. Deze hersentrainings-­apps zijn niet alleen vrij saai, hun effect op onze prestaties is ...

Op commando

Je kunt ChatGPT opdrachten geven, waarbij hij onthoudt waar het over moet gaan, wat de verhaallijn is en in welke stijl het eindproduct moet zijn. Je kunt dat zelfs terugsturen voor correcties. Van filmscript tot avant-gardegedicht tot populairwetenschappelijk stukje, ChatGPT draait er zijn hand niet voor om.

Er is alleen geen enkele garantie dat het resultaat zinnig is, laat staan dat het waar is (grachten hebben geen DNA). En dat is een probleem. Bedrijven als OpenAI watertanden van de toepassingen in sales, marketing of softwareproductie, of het schrijven van artikelen, fictie en scripts. Maar sommige toepassingen zijn duisterder: plagiaat, oplichting, diefstal, propaganda en nepnieuws.

Denk niet alleen aan scholieren en studenten die hun werkstukken uitbesteden (‘Schrijf een schoolwerkstuk over Amsterdamse grachten’), maar ook aan scammers die geld buitmaken door kwetsbare mensen alarmerende aanmaningen te sturen, maar dan zonder krukkige taalfouten, en precies op het slachtoffer afgestemd.

Liegen

Die ‘automatisering van het overtuigen’, lijkt bijvoorbeeld sterk op het werk van de chatbot van het Amerikaanse bedrijf DoNotPay. Die regelt automatisch zaken als parkeerboetes aanvechten, maar pingelde ook de kosten van een internetaansluiting naar beneden in een chat (wel moest het daarvoor liegen over hoe slecht de internetaansluiting was). Handig voor bij de tweedehandsautoverkoper. Maar ook bedrijven kunnen dat trucje uithalen. In de toekomst poeiert de klantenservice u welbespraakt en volledig geautomatiseerd af.

Vooral zijn tekstgeneratoren een uitkomst voor de producenten van propaganda en nepnieuws. De Russische trollenfabrieken en andere nepnieuwsproducenten kunnen personeel ontslaan, en sneller en goedkoper sociale media overspoelen met opruiende, tendentieuze en onware berichten.

Watermerk

Helemaal nieuw zijn deze zorgen overigens niet: GPT-3 is een verdere ontwikkeling van eerdere tekstgeneratoren die ook al ontzetting wekten. En eerder veroorzaakten beeldgeneratoren als DALL-E al problemen met deepfakes: fotorealistische beelden van gebeurtenissen die nooit plaats hebben gevonden.

Scott Aaronson, een computerwetenschapper bij OpenAI, erkent de potentiële problemen. ‘We willen dat het veel moeilijker wordt om te doen of de output van een AI-systeem die van een mens is’, zei hij tijdens een wetenschappelijk praatje over een ‘watermerk’ dat AI-teksten als die van GPT-3 detecteerbaar moet maken.

Dat werkt als volgt: GPT-3 kan bij het opbouwen van zijn teksten vaak kiezen uit meerdere woorden. Door die woorden te kiezen volgens een bepaald patroon, kan de tekst een soort signaal meekrijgen dat met software te detecteren is: een stempel van onechtheid.

Alleen werkt zoiets natuurlijk alleen bij langere stukken tekst en is het te omzeilen; bijvoorbeeld door een andere AI te vragen om de tekst in andere woorden te herformuleren. Bovendien moet de producent van de software hieraan meewerken.

Nóg een optie is om een andere AI te trainen om teksten geschreven door collega-AI’s te herkennen. Onderzoekers aan de Universiteit van Washington werken aan een AI die niet alleen fake news kan schrijven, maar het ook kan detecteren. Grover, zoals het programma heet, is vooral goed in het detecteren van zijn eigen fake news (92 procent).

‘We hebben technische instrumenten nodig, vergelijkbaar met de tools die al bestaan voor deepfakes en het detecteren van gemanipuleerde foto’s’, zei Sandra Wachter, onderzoeker op het gebied van technologie en regelgeving aan het Oxford Internet Institute, in een interview met het Amerikaanse technologietijdschrift Wired.

Wetgeving

De uiterste tegenmaatregel is wetgeving. De Europese Unie heeft een wetsvoorstel in de maak, de AI Act, dat grenzen moet stellen aan het gebruik van AI-systemen. Zo zou een bedrijf het bijvoorbeeld altijd moeten laten weten dat je niet met een mens praat. Ook de VS, het VK en Canada werken aan AI-wetgeving.

Maar wetgeving kan ontdoken worden en heeft de neiging om achter de technologie aan te lopen. Daarvan is ChatGPT een voorbeeld. Wachter voorspelt: ‘Dit wordt een kat-en-muisspel.’