Een kunstmatig intelligent computersysteem kan nu meetkundige stellingen bewijzen. Dat doet de AI net zo goed als deelnemers aan de Internationale Wiskunde Olympiade, een wiskundewedstrijd voor middelbare scholieren.

Onderzoekers van Google DeepMind hebben een kunstmatig intelligent systeem genaamd AlphaGeometry ontwikkeld die meetkundige vraagstukken kan oplossen. Het AI-systeem is getest op dertig meetkundige problemen die tussen 2000 en 2020 voorkwamen op de Internationale Wiskunde Olympiade. AlphaGeometry wist er 25 op te lossen.

Met die score verslaat de AI eerdere systemen. Die kwamen niet verder dan tien correcte antwoorden. Ook kan deze AI zich bijna meten met de gemiddelde Olympiade-winnaar.

Hoe drinkbaar is de stijgende zeespiegel?
LEES OOK

Hoe drinkbaar is de stijgende zeespiegel?

Een tekort én een overschot aan water bedreigen tegelijkertijd de menselijke beschaving. Kunnen die de zee ooit drinkbaar maken?

AlphaGeometry kreeg het zelfs voor elkaar om alle meetkundeproblemen die in 2000 en 2015 voorkwamen correct, en op een voor mensen controleerbare wijze, op te lossen. Dat zou hem in die jaren een bronzen medaille hebben opgeleverd. Een verslag over de AI verscheen in het wetenschappelijke tijdschrift Nature.

Wiskundig redeneren

De Internationale Wiskunde Olympiade is de oudste en de prestigieuste internationale wiskundewedstrijd voor scholieren. Het oplossen van de Olympiade-vraagstukken is niet alleen een uitdaging voor mensen, ook AI-systemen hebben er moeite mee.

Je denkt misschien dat computers goed zijn in wiskunde, maar dat is niet altijd het geval. Veel wiskundige problemen gaan namelijk niet over rekenen, waar computers in excelleren, maar over logisch redeneren. Wiskundige vraagstukken zijn namelijk vaak een soort complexe puzzels, waarbij je op basis van gegeven informatie moet beredeneren wat klopt. Bijvoorbeeld: als de lijnen a en b elkaar snijden, dan zal een lijn c, die parallel is aan b, ook lijn a snijden. Dat vereist een bepaalde mate van creativiteit en vooruit denken.

Computersystemen krijgen dit soort logische redenaties vaak gevoed. Ze hoeven ze meestal niet zelf te ‘bedenken’. Ze zijn dan ook niet erg goed in de creatieve manier van redeneren die nodig is om deze problemen op te lossen. In het geval van meetkunde gaat dit ook nog eens over meetkundige vormen, zoals driehoeken, cirkels en lijnen, die het computersysteem moet kunnen herkennen. De meetkunde in de Olympiade-opdrachten waar AlphaGeometry mee uit de voeten kon, is euclidische meetkunde, de meetkunde van het platte vlak.

Voorbeeld van een meetkundig vraagstuk van de Internationale Wiskunde Olympiade in 2015.

Trainen

Een andere reden waarom AI moeite heeft met meetkundige vraagstukken is een gebrek aan trainingsdata. De manier waarop andere AI-systemen leren, is door grote hoeveelheden data te ploegen. De kunstmatige intelligente chatbot ChatGPT leert bijvoorbeeld kloppende zinnen te formuleren door teksten van menselijke auteurs te analyseren.

Maar het aantal uitgewerkte vraagstukken van de Wiskunde Olympiade is beperkt. Elk jaar bestaat deze wiskundewedstrijd uit slechts zes vragen, waarvan er meestal een of twee over meetkunde gaan.

Het gebrek aan trainingsdata hebben de onderzoekers opgelost door die kunstmatig te produceren, zegt Thang Luong van Google DeepMind. Ze hebben de rekenkracht waarover Google beschikt gebruikt om 100 miljoen voorbeelden te generen van theorieën met bijbehorende, logisch beredeneerde bewijzen. Aan de hand daarvan leerde AlphaGeometry de basis van meetkunde, zonder door mensen geproduceerde voorbeelden.

Twee onderdelen

AlphaGeometry bestaat uit twee onderdelen die samenwerken om meetkundige vraagstukken op te lossen. Het ene onderdeel biedt snelle ideeën die je intuïtief of creatief kunt noemen. Het andere onderdeel is trager en komt met meer weloverwogen, rationele oplossingen.

De twee hebben elkaar nodig. Het snelle deel is namelijk minderen goed in het beredeneren van zijn intuïtieve ideeën. Het trage, rationele deel kan dat wel, maar loopt het risico om vast te lopen op complexe problemen omdat de creativiteit en flexibiliteit van het eerste systeem ontbreekt.

Samen kwamen deze onderdelen tot oplossingen. Dat deden ze zo goed dat de AI bij 25 van de 30 meetkundige Olympiade-problemen tot een correct antwoord kwam.

Mooie oplossingen

Hoewel veel antwoorden van AlphaGeometry correct waren, waren ze niet altijd kort of elegant. Thang Luong, die als middelbare scholier zelf ook deelnam aan de Wiskunde Olympiade, liet een oplossing van een van de problemen zien aan zijn wiskundeleraar van destijds, Le Ba Khanh Trinh. Luong schreef daarover op X: ‘Dr. Le was behoorlijk onder de indruk omdat de oplossing alleen basisregels gebruikt, maar hij vond het nogal mechanisch. Voor hem moet een mooie oplossing een ziel hebben; alles moet verbinding maken; je moet het grote plaatje zien!’

De onderzoekers zouden het ‘fantastisch vinden’ om het systeem in de toekomst te kunnen uitbreiden naar andere takken van de wiskunde, zegt Luong. ‘En het zou natuurlijk prachtig zijn om een echte medaille te kunnen winnen op de Internationale Wiskunde Olympiade 2024!’

Meetkunde is namelijk maar een van de Olympiade-onderwerpen. Algebra, combinatoriek en met name getaltheorie, die ook komen aan bod, zijn mogelijk een nog grotere uitdaging voor AI-systemen, zegt de niet-betrokken wiskundige Kevin Buzzard, van het Imperial College London, tegen Nature News. Toch vindt hij het ‘zeer indrukwekkend’ dat AlphaGeometry erin is geslaagd om Olympiade-problemen op te lossen, en voor mensen leesbare bewijzen te produceren.