Hieronder een opsomming van risico's en beperkingen:
GenAI komt met fictieve bronnen of bedenkt een niet-bestaand boek. Hoewel sommige beweringen overtuigend klinken, zijn ze onjuist. Dit is vooral riskant in academisch werk, bijvoorbeeld als het medische of juridische toepassingen betreft. Meer weten over hallucinaties? Bekijk dan onderstaande video:
Uit AI-modellen komt wat er in gaat. Dus als er vooroordelen in de trainingsdata zitten, nemen ze die over en/of versterken ze die. Je kunt hierbij denken aan stereotypen in de generatie van beeld of voorkeur voor bepaalde groepen in tekstoutput.
Valt je bijvoorbeeld iets op aan onderstaande beelden? (Gebruikte prompt: maak een afbeelding van een arts en verpleegkundige in een ziekenhuisomgeving.)

Bron afbeeldingen: gegenereerd met MS Copilot (2025)
In het geval dat het je nog niet was opgevallen: de artsen op de drie afbeeldingen zijn jonge mannen en de verpleegkundigen zijn jonge vrouwen. Valt je nog meer op?
Je geeft AI een opdracht en vervolgens rolt er iets uit. Maar waarom specifieke dit antwoord? Dat blijft vaak onduidelijk, onder meer omdat bedrijven achter AI beperkte informatie geven over de werking van hun producten. Dit maakt het moeilijk om de output echt te begrijpen en daar de verantwoordelijkheid voor te nemen.
AI-modellen draaien op servers en deze servers vragen veel energie. Daarmee is niet gezegd dat AI-gebruik per definitie het klimaat schaadt, zoals regelmatig in de krant staat. Als de energie wordt opgwekt via fossiele brandstoffen, is dat inderdaad het geval. Maar bij andere energiebronnen (zon, wind en nucleair) komt geen CO2 vrij. Ook neemt het energie-gebruik per prompt af. Kostte een GhatGPT-prompt aanvankelijk nog 2,9 Wh, inmiddels is dat afgenomen tot het niveau van een zoekactie via Google (0,3 Wh). Een ander aspect is het waterverbruik van AI. Ook dat ligt genuanceerder dan gedacht. Hoewel er veel water nodig is om de severs te koelen, hoeft dat nauwelijks te leiden tot milieubelasting als het verdampt of terugstroomt in de natuurlijke watercyclus. Tot slot is AI niet enkel een belastende factor, ook ontlast ze het klimaat en milieu via slimme oplossingen, bijvoorbeeld omdat ze klimaatdata sneller analyseert dan mensen en logistiek efficiënter plant.
Hoewel de resultaten vaak indrukwekkend zijn, vervangt AI niet de menselijke creativiteit. Het kan deze creativiteit wel beperken als je te afhankelijk van wordt. Hiermee samen hangt de afname van kritisch denken, terwijl dit juist nodig is om de resultaten van AI te controleren. Als AI te veel overneemt, verwaarlozen gebruikers hun eigen denkvermogen en schrijfvaardigheid.
AI maakt het eenvoudig om deepfakes, nepnieuws of gemanipuleerde beelden te maken. Dit kan leiden tot misleiding, polarisatie of politieke beïnvloeding.
Slechts een paar grote bedrijven, veelal afkomstig uit de Verenigde Staten, controleren de ontwikkeling van GenAI. Dit beperkt de transparantie en democratische controle. Dit weegt extra zwaar door het ontbreken van publieke alternatieven.
Gebruik van AI zonder vermelding of als vervanging van eigen werk, kan leiden tot fraude of plagiaat. De grens tussen ‘hulp’ en ‘vervanging’ is soms vaag. In de wetenschap is dit een doodzonde. Meer over dit onderwerp in hoofdstuk 7 'Hoe refereren op een correcte manier?'.