De snelle opkomst van AI in het onderwijs biedt kansen, maar roept ook veel vragen op over privacy en veiligheid. Wat gebeurt er precies met leerling-gegevens? Hoe transparant zijn algoritmes die analyses of adviezen geven? En voldoen toepassingen wel aan toekomstige wettelijke eisen, zoals de Europese AI-verordening? Het nieuwe toetsingskader AI van SIVON moet hierin duidelijkheid brengen.
SIVON is een ict-coöperatie van schoolbesturen in het primair en voortgezet onderwijs. Ze ondersteunt scholen bij veilig en toekomstbestendig digitaal veilig onderwijs. Dit doet zij onder andere door gezamenlijke inkoop en gezamenlijke afspraken maken met leveranciers. Vanuit die rol ontwikkelt SIVON hulpmiddelen zoals het nieuwe toetsingskader, zodat scholen technologie veilig en verantwoord kunnen inzetten.
Risico’s van AI in het onderwijs
Veel scholen worstelen met onduidelijkheid over welke functies nu echt als AI worden beschouwd. Ook is er onzekerheid over juridische en privacyaspecten en ontbreekt regelmatig inzicht in hoe algoritmes tot hun conclusies komen. Bij zelflerende of deels autonome systemen is het voor scholen nog lastiger in te schatten welke risico’s ze binnenhalen.
Het toetsingskader, dat SIVON ontwikkelt in opdracht van het ministerie van OCW en in samenwerking met Kennisnet en Edu-V, moet houvast bieden in een landschap waarin technologie razendsnel verandert, terwijl beleid en afspraken nog in ontwikkeling zijn. Volgens planning zal het toetsingskader in het voorjaar van 2026 beschikbaar komen.
Niet alle AI hoeft alarmbellen af te laten gaan
Volgens Arjan Geurts, projectleider toetsingskader AI, ontstaat er regelmatig spraakverwarring tussen scholen en leveranciers. “We zien dat in steeds meer producten gebruik gemaakt wordt van AI. Dat is prima, want het zijn dit nuttige en mooie toepassingen. Maar als AI een analyse maakt van leerresultaten, is het echter wel zaak om goed zicht te hebben op hoe dit wordt gedaan. De school kan dit niet alleen, want dit gebeurt ‘onder de motorkap’ van het systeem. Het toetsingskader zorgt er straks voor de scholen en leveranciers hier op dezelfde manier naar kijken.”
Job Vos, adviseur privacy, AI en BigTech bij SIVON, benadrukt dat het toetsingskader in eerste instantie bedoeld is voor leveranciers. “Zij kunnen ermee bepalen of een AI-toepassing onder de criteria van de AI-verordening valt. Als dat zo is, kunnen scholen vervolgens vaststellen wat de risico’s zijn van de AI-toepassing en welke verplichtingen er voor hen gelden.”
Toetsingskader is praktisch hulpmiddel
Het toetsingskader moet vooral een praktisch hulpmiddel worden. Het helpt scholen en leveranciers te bepalen in welke risicocategorie een toepassing valt. Technologie die invloed heeft op beoordeling, selectie of advisering van leerlingen kan bijvoorbeeld onder strengere eisen vallen. In zulke gevallen moeten scholen en leveranciers maatregelen nemen op het gebied van transparantie, documentatie, dataminimalisatie, beveiliging en verantwoording. Volgens Vos komt ongeveer 80 procent van dat materiaal van vijf grote partijen. “Als zij het toetsingskader gaan gebruiken, geeft dat scholen al veel duidelijkheid.”
Advies voor generieke taalmodellen
Geurts en Vos zien dat veel scholen daarnaast gebruik maken van de mogelijkheden die generieke taalmodellen als ChatGPT bieden. Hoewel het toetsingskader zich primair richt op onderwijsapplicaties en niet op generieke modellen, geeft het wel advies bij welke toepassingen scholen extra goed moeten opletten, omdat dit volgens de wetgeving mogelijk ‘hoog risico toepassingen’ zijn. Met het toetsingskader wordt hiermee een belangrijke stap gezet om AI verantwoord in te kunnen zetten in het onderwijs.
Job Vos en Arjan Geurts verzorgen op IPON 2026 een sessie over het toetsingskader. Het wordt een praktische bijeenkomst waarin bezoekers vooral concrete handvatten krijgen, zonder een overdaad aan technische details.
