AI robot.jpg

Opinie: grote risico's verbonden aan kunstmatige intelligentie in onderwijs nopen tot zorgvuldigheid

Docente Sara Laurijssen noemt in dit ingezonden opiniestuk de inzet van kunstmatige intelligentie interessant voor het onderwijs, maar betoogt ook dat het onderwijs daar zeer zorgvuldig mee om dient te gaan. 'Daarnaast ligt er een taak voor iedereen die binnen Saxion nadenkt over toetsing; zorg ervoor dat als er een toets wordt ontworpen deze ook echt vraagt om kennis die niet te genereren valt via machine learning.'

Stel je voor, het is half twaalf op vrijdagavond. Je hebt nog 30 minuten voordat je beroepsproduct moet worden ingeleverd en je hebt nog steeds geen zin om dat te gaan schrijven. Of, je bent docent en je zit al weken op te hikken tegen het maken van de rubrics van het nieuwe vak dat je gaat geven. Wat als ik je vertel dat je met een simpel systeem beide en nog veel verschillende andere problemen kan oplossen?

In recente jaren is er steeds meer aandacht gekomen voor het gebruik van chatbots in het onderwijs, met name door OpenAI's chatbot "Assistant". Deze chatbot kan op commando van alles produceren. Je kunt denken aan stukken voor kranten, online content, sollicitatiebrieven of zelfs een sprookje of een goede grap. Het enige wat je hoeft te doen is tegen de AI te vertellen wat je wilt hebben; ‘’schrijf een beroepsproduct op HBO niveau voor verpleegkunde studenten over empowerment en hoe je dit hebt ingezet om clientversterkend te werken’’.

Hoewel dit zonder twijfel een interessante ontwikkeling is, zijn er ook risico's verbonden aan het gebruik van dergelijke technologie in het onderwijs. Ten eerste is er het risico van afhankelijkheid. Door het gebruik van een chatbot als Assistant in het onderwijs, kunnen studenten afhankelijk raken van de snelle en gemakkelijke toegang tot informatie die de chatbot biedt. Dit kan leiden tot een afname van hun motivatie om zelf na te denken en om zelf informatie te zoeken, wat op zijn beurt kan leiden tot een afname van hun kennis en vaardigheden. Daarnaast bestaat het risico dat sommige toetsen die de studenten moeten maken volledig gegenereerd kunnen worden door deze chatbot en ook nog door de plagiaatscanner heen komen.

Ten tweede is er het risico van verkeerde of onvolledige informatie. Hoewel Assistant zorgvuldig is getraind zeer uitgebreide antwoorden te geven op vragen, is het nog steeds een machine en kan het fouten maken of onvolledige informatie geven. Dit kan leiden tot verkeerde begrippen en kennis bij studenten, wat op zijn beurt weer kan leiden tot verkeerde beslissingen en oordelen in hun toekomstige beroepen. Zo weet Assistant weinig over recente ontwikkelingen. Toen ik hem vroeg een lesplan te maken in de stijl van Peter R. de Vries stelde Assistent voor om hem uit te nodigen voor een interview met mijn studenten…

Afname sociale vaardigheden

Ten derde is er het risico van een afname van menselijk contact en sociale vaardigheden. Door het gebruik van een chatbot als Assistant in het onderwijs, kunnen studenten minder interactie hebben met hun leraren en medestudenten. Dit kan leiden tot een afname van hun sociale vaardigheden, zoals het vermogen om te communiceren en samen te werken met anderen. Dit kan op zijn beurt weer leiden tot problemen in hun toekomstige carrière en persoonlijke leven. Zeker voor beroepen in sectoren waar dit contact centraal staat, zoals de zorgsector.

In het licht van deze risico's, is het belangrijk dat we met grote zorg omgaan met het gebruik van chatbots als Assistant in het onderwijs. We moeten ervoor zorgen dat we de voordelen van deze technologie benutten, zonder de nadelen te negeren of te onderschatten. Dit kan bijvoorbeeld betekenen dat we de rol van de chatbot beperken tot het geven van algemene informatie en verwijzingen naar betrouwbare bronnen, en dat we blijven werken aan het ontwikkelen van menselijke interactie en sociale vaardigheden bij onze studenten. Daarnaast ligt er een taak voor iedereen die binnen Saxion nadenkt over toetsing; zorg ervoor dat als er een toets wordt ontworpen deze ook echt vraagt om kennis die niet te genereren valt via machine learning.

En als je nu denkt; dit is een ver-van-mijn-bed-show. Ik heb bijna 90% van dit artikel laten schrijven door Assistant.

1619083915464-_1_.jpg

Sara Laurijssen