Hoe kan het trainen van neurale netwerken misgaan?

Bij het trainen van een neuraal netwerk geef je het heel veel voorbeelden met het goede antwoord erbij. Stel: je wilt dat het netwerk katten herkent. Je laat het duizenden foto’s zien waarop stond of er een kat op stond of niet. Het netwerk past steeds zijn “knoppen” (gewichten) aan om de fout tussen zijn voorspelling en het juiste label zo klein mogelijk te maken. Na genoeg herhalingen (epochs) kan hij nieuwe foto’s vaak goed herkennen.

 

Hoe het mis kan gaan

 

Zie je de verschillen? En snap je hoe een computersysteem hier de fout kan ingaan?

Bron: https://www.reddit.com/r/ChatGPT/comments/1771zux/computer_vision_has_been_solved_internally/?tl=nl
Bron: https://www.reddit.com/r/ChatGPT/comments/1771zux/computer_vision_has_been_solved_internally/?tl=nl

 

Door goed op te letten welke data je gebruikt, de juiste omvang van je netwerk te kiezen en je model te testen op nieuwe voorbeelden, kun je deze valkuilen vermijden. Ook zul je zien dat AI elke dag beter wordt, want elke dag gaat er meer data in de systemen. Deze voorbeelden zullen dus over een poosje verleden tijd zijn.

Als je wilt voorkomen dat er bijvoorbeeld vooroordelen (bias) in jouw eindresultaten zitten, moet je dus of de uitkomsten echt heel goed controleren of op zoek gaan naar een model waar is getraind met meer eerlijke data. Dat is alleen niet altijd te zien.