Een veelvoorkomende misvatting is dat AI-tools, zoals ChatGPT, ‘het internet afzoeken’ voor hun antwoorden. Dit klopt niet! De meeste AI-modellen zijn getraind op grote hoeveelheden tekst tot een bepaald moment in het verleden. Deze modellen genereren antwoorden op basis van patronen in die data. Ze hebben dus geen live toegang tot actuele informatie, tenzij AI-tools zijn gekoppeld aan een zoekmachine. Denk hierbij bijvoorbeeld aan MS Copilot of Perplexity.
Het is daarom belangrijk om bewust te zijn dat AI-tools geen garantie bieden voor feitelijke juistheid. AI-tools kunnen overtuigend klinken maar uiteindelijk hallicuneren. Voorbeelden van hallucinaties zijn: verzonnen bronnen, foutieve data of verzonnen citaties. Zeker in een academische context is dat problematisch.
Tip: gebruik AI-output dus altijd als startpunt voor verder onderzoek, en niet als eindproduct. Controleer feiten, check bronnen, en wees kritisch op: toon, biases, en volledigheid van de informatie. AI-tools kunnen een krachtig hulpmiddel zijn, maar jij blijft verantwoordelijk voor de inhoud die je gebruikt.
Hieronder vind je een checklist die je helpt bij het beoordelen van GenAI content:
Checklist assessing GenAI content - V1 - Generic (interactive version).pdf