Hoewel AI-tools vele mogelijkheden bieden en indrukwekkende resultaten kan leveren, is het belangrijk om je bewust te zijn van de beperkingen. AI-tools, zoals ChatGPT, zijn getraind op enorme hoeveelheden data. Deze zogenoemde Large Language Models voorspellen welk woord waarschijnlijk volgt op het vorige, zonder dat ze weten of de inhoud klopt. Dit kan leiden tot ‘hallucinaties’: overtuigend klinkende maar feitelijk onjuiste informatie. Een voorbeeld van een hallucinatie is dat een chatbot een niet-bestaand artikel verzint en hierbij een auteursnaam en DOI geeft.
Het is daarom belangrijk dat je AI-output altijd kritisch beoordeelt. Stel jezelf vragen als: (1) “Klinkt dit logisch?” of (2) “Kan ik dit verifiëren?”. (Zie hoofdstuk 5.4 voor een checklist controleren GenAI-output). Als je AI-tools gebruikt, gebruik het dan als startpunt en niet als eindpunt. Gebruik je eigen kennis en/of feedback van docenten en/of betrouwbare bronnen bij het beoordelen van AI-output. Alleen dan kun je AI op een verantwoorde manier inzetten in je studie.
Daarnaast is transparantie belangrijk. Als je AI-tools gebruikt voor een opdracht, geef je dit aan als dat gevraagd wordt. Onvermeld gebruik kan gezien worden als fraude, zeker als je AI-output presenteert als je eigen werk. Bespreek met je docent wat wel en niet is toegestaan, en wees transparant over je werkwijze.