In de Netflix documentaire The Social Dilemma (Orlowski, 2020) waarschuwen oud medewerkers van onder andere Facebook (nu Meta) en Google: overzie de gevolgen door vooraf goed na te denken en precies te begrijpen wat je doet. Dit is ook wat de AVG vraagt in een Privacy Impact Assessment (PIA) of Data Protection Impact Assessment (DPIA) zoals die in de GDPR heet. Een moreel data beraad regelt het.

Weegschaal met vraagteken op de schalen. Afwegen voor en tegens datagebruik in Privacy Impact Assessment (PIA) of Data Protection Impact Assessment (DPIA) via moreel data beraad

Privacy Impact Assessment (PIA) in moreel data beraad

Een moreel data beraad is een moreel beraad met een specifieke onderwerp data. Hierin komen alle perspectieven op het werken met data op tafel. Pas heb ik dit in het HBO gedaan om te begrijpen welke gevaren er zitten aan het verzamelen van data in online leeromgevingen. Zo’n omgeving verzamelt data wanneer een student iets bekijkt, inlevert, downloadt, oefent en ga zo maar door. 

Pas hier op: het in detail bijhouden van de activiteiten in elektronische leeromgeving lijkt heel erg handig. Echter nog geen half uur in het beraad zien we al dat er veel gevaren achter schuil gaan. In het kader van de privacywetgeving heb ik samen met een werkgroep een Privacy Impact Assessment (PIA) / Data Protection Impact Assessment (DPIA) uitgevoerd. Lees hier meer de wettelijke kaders.

Data Protection Impact Assessment (DPIA): wettelijke springplank

De wettelijke kaders vormen het startpunt. Nadrukkelijk hebben we daarbuiten gekeken naar nut, noodzaak en meerwaarde. In de werkgroep bestond uit studenten, experts en docenten. Een diverse groep zorgt voor meer perspectieven. Hieronder neem ik je mee in onze technologische, juridische en onderwijskundige perspectieven op het gebruik van data in het HBO. Een handleiding voor een moreel beraad beginnen en afronden zit achter de link.

De Privacy Impact Assessment en Data protection Impact Assessment vormen een sprinkplank voor een dieper en effectiever moreel data beraad
De Privacy Impact Assessment en Data protection Impact Assessment vormen een sprinkplank voor een dieper en effectiever moreel data beraad – afbeelding van Markus Spiske onder licensie CC-CC0 1.0

Data staan een evenwichtig beeld in de weg

Meteen een spoiler: ‘zorg dat docenten geen data kunnen zien over de voortgang van de individuele student’ is het advies. De reden is dat in ons moreel data beraad veel waarde hechten aan het recht om even niets voor een onderwijseenheid te doen en/of fouten te maken. Dit mag geen invloed hebben op het beeld dat docenten van een student vormen. De eigen resultaten zijn wel voor iedere student zichtbaar.

De redenering illustreert het gevaar van het gebruik van individuele data: het systeem verarmt een beeld tot wat kwantificeerbaar en meetbaar is. De persoon achter de data raakt letterlijk uit beeld. Zo kan gemakkelijk(er) een onvolledig of zelfs fout beeld ontstaan. Daarbij is een eerste indruk moeilijk bij te stellen. Dat kan weer vooroordelen in de hand werken. Daar komt bij dat de student geen overzicht heeft van wie de data bekijken en welk beeld daaruit naar voren komt. Daardoor is het niet mogelijk een fout of onvolledig beeld aan te passen.

Meet je wat je wilt? Hoe ‘echt’ is je beeld?

Andersom kan gedrag gericht zijn op beeldvorming, niet op leerontwikkeling. Zeker als een student zich ervan bewust is dat veel docenten meekijken is het verleidelijk gewenst gedrag te vertonen. Wellicht is het zelfs wel natuurlijk te noemen. Wat zou je zelf doen in een onveilige omgeving waarin je niet precies weet wie waarnaar kijkt? Zeker als veel docenten toegang hebben stijgt de kans dat ze een student kennen ‘via het systeem’ 

Dit voorbeeld laat zien hoe makkelijk het fout kan gaan. Stel een student logt één keer in. De docent kan denken ‘die is lui’, ‘plant slecht’ of ‘ is niet betrokken’. Terwijl het tegendeel het geval is. De student downloadt alles zodat zelfs zonder internet doorgewerkt kan worden. Dit illustreert dat een docent dan al kennis van bijvoorbeeld leerpatronen en data-analyse nodig heeft om een juiste conclusie te trekken. 

Heb je het beeld wel scherp op basis van alleen data?
Maakt data het beeld scherper of juist niet?

Houd jezelf een klantreis spiegel voor

Dit morele data beraad is toegespitst op een studieomgeving. Echter loeren de genoemde gevaren overal waar data worden gebruikt. Wat is het effect van data op het beeld van klanten? Vraag je af hoe vaak nog diepgaand met klanten wordt gesproken en of ze nog worden ‘gezien’. En waar in het onderwijs een volledig beeld essentieel is voor effectieve feedback, draait het bij commerciële partijen om een customer journey of marketingfunnel met effectieve communicatie. Waarvoor eveneens een compleet beeld onmisbaar is. 

Data is nooit een doel in de privacy impact assessment (PIA)

Een belangrijke eis vanuit de AVG / GDPR is de doelbinding. Daaraan gekoppeld is de eis te onderzoeken of het doel ook op een andere manier gehaald kan worden. Het HBO heeft een lange ervaring met beproefde andere manieren om zicht op de student te houden. Denk aan:

  • gesprekken
  • (oefen)toetsen
  • lessen

Daarbij kan de docent doorvragen, zijn of haar waarnemingen met de student delen en zo in gesprek komen over achterliggende leerstrategieën en –motivaties. Daardoor ontstaat een breder perspectief op de voortgang waardoor feedback gerichter gegeven kan worden. Het lijkt er op dat data niet persé noodzakelijk zijn voor het behalen van het doel. 

Op klas- en groepsniveau zijn data wel zeer waardevol schat dit moreel data beraad in. Geanonimiseerde data geeft een docent ‘zonder aanziens des persoons’ zicht op voortgang in het studieproces van een groep. Ook wordt inzichtelijk waar barrières zitten. Daardoor zijn het niet alleen de meest assertieve studenten die bepalen waar wanneer aandacht aan wordt besteed. Data wijzen de weg naar waardevolle of waardatavolle contact- en lesmomenten. 

Uitkomst van deze PIA / DPIA: les(s) is more, ook voor de wet

Dit morele data beraad startte vanuit de vraag: is het goed het studiegedrag van studenten voor studenten, docenten en andere functionarissen inzichtelijk te maken? Het antwoord op de morele vraag is uitgewerkt in een advies dat is overgenomen door het bestuur van de organisatie. Hierdoor voldoen zij aan wettelijke eisen van de AVG / GDPR op dit punt. Er is ook een nieuwsartikel over verschenen.

Een leerpunt hieruit is dat meer data niet meer informatie betekent. Daarbij blijkt dat er ook in dit soort vraagstukken meerdere wegen naar Rome leiden. Er is een automatisme te grijpen naar data waardoor betere alternatieven worden gemist. Dit beraad laat zien dat les(s) is more.


Over de auteur

Nick Nijhuis vergroot als marketingcoach de opbrengsten uit digital marketing. Daarnaast is hij hogeschooldocent en (moreel) projectleider op het gebied van digital marketing.