Kritische vragen bij gezichtsherkenningstechnologie in het onderwijs

Technologie voor gezichtsherkenning – facial recognition technology– wordt in toenemende mate gebruikt. Je ziet deze technologie ook binnen het onderwijs gebruikt worden (met name in de VS en China). Mark Andrejevic en Neil Selwyn vragen zich af of we deze technologie wel binnen het onderwijs moeten toestaan.

De auteurs merken daarbij op dat deze technologie tot dusver op weinig verzet stuit in landen als de VS, Groot-Brittannië en Australië. Deze landen hebben al een langere traditie als het gaat om cameratoezicht en het monitoren van gedrag van lerenden door middel van technologie. Toch menen de auteurs facial recognition technology geen logische uitbreiding is van deze “technology-based surveillance trends”.

Zij benoemen

a number of specific social challenges and concerns – not least various ways in which this technology might alter the nature of schools and schooling along divisive, authoritarian and oppressive lines.

Een belangrijk kenmerk van deze technologie is dat het identificatieproces niet langer actief gericht is (om individuele personen te identificeren), maar dat sprake is van passieve en algemene herkenning doordat grote groepen mensen continu worden gemonitord. Iedereen die een camera passeert, wordt geïdentificeerd. Hierdoor kan zeer persoonlijke informatie worden vastgelegd (zoals een bezoek aan een abortuskliniek).

The ‘memories’ that are captured by automated systems are recorded and stored in digitised form, the monitoring is asymmetrical (people are seen, but the tracking systems often go un-noticed), and the image processing takes place at a massive scale.

Beperkingen en nadelen hiervan zijn:

  • Er kan sprake zijn van foutief herkennen, met nadelige gevolgen. De technologie is niet foutloos. Een computersysteem kan jou bijvoorbeeld voor een misdadiger aanzien of voor iemand met schulden waardoor je een financiële transactie niet kunt uitvoeren. Er kan zelfs sprake zijn van systematische onjuiste herkenning met racisme als gevolg.
  • Er is bezorgdheid over het overdreven bereik en de ‘zendingsdrang’ van deze technologieën, met name wanneer ze worden gebruikt door autoritaire regeringen en/of commerciële belangen. Een voorbeeld is het identificeren van politieke dissidenten, waardoor zij geen toegang krijgen tot vliegtuigmaatschappijen. Ook kunnen opnames van gezichten niet alleen worden gebruikt voor identificatie, maar ook om demografische en ‘psychografische’ data te verzamelen. Deze data kunnen bijvoorbeeld gebruikt worden bij (deels) geautomatiseerde sollicitatieprocedures.

Andrejevic en Selwyn vatten de toepassing van deze technologie binnen het onderwijs als volgt samen:

  • Vooral in de VS wordt deze technologie gebruikt om potentiële geweldsdreigingen op het spoor te komen. Daarbij gaat het niet alleen om het observeren van onbevoegden, maar bijvoorbeeld ook om te registreren of leerlingen zich anders gaan gedragen.
  • Deze technologie wordt gebruikt om de aanwezigheid van lerenden te registreren. Het gebruik van deze technologie spaart docenten dan veel tijd (tot 2,5 uur per week).
  • Dankzij deze technologie krijgen lerenden toegang tot online content of wordt deze technologie gebruikt om online lerenden te authenticeren (denk aan deelname aan online tentamens).
  • Gezichtsherkenningstechnologie wordt ook binnen het onderwijs gebruikt om het engagement van lerenden te meten. Daarbij wordt dan gekeken naar de gemoedstoestand van lerenden. Bepaalde gezichtsuitdrukkingen zouden kunnen wijzen op problemen met begrip of motivatie.

Deze toepassingen leiden echter tot de nodige uitdagingen:

  • Je baseert je op zeer beperkte informatie over lerenden. Je reduceert bijvoorbeeld het welbevinden van lerenden tot iets wat zichtbaar is door middel van gezichtsuitdrukkingen. Zie je lerenden nog wel als mens, op deze manier? Kunnen gezichtsuitdrukkingen niet ook multi-interpretabel zijn? Mensen die geconcentreerd kijken, lijken bijvoorbeeld boos te zijn.
  • Eigenschappen die worden toegekend aan sekse of ras kunnen een onevenwichtig belangrijke rol spelen bij het nemen van beslissingen ten aanzien van school. Op dit terrein heb je bovendien vaak te maken met ‘bias’, met risico’s op racisme als gevolg.
  • Je kunt er niet aan ontsnappen. Lerenden worden permanent gemonitord. Lerenden hebben geen invloed op de data waar de school over beschikt. Je kunt niet aangeven dat gezichtsherkenning wel voor doel A, maar niet voor doel B mag worden gebruikt.
  • Lerenden zijn nooit meer onzichtbaar op school. Je wilt je als lerende ook eens terug kunnen trekken, onder de radar blijven:

attempting to manage what is known and disclosed about oneself can be seen as a legitimate way of students ensuring that their actions and intentions are correctly interpreted and understood

  • Het door middel van gezichtsherkenning surveilleren, is een illustratie dat scholen in toenemende mate autoritair worden.
  • Deze ontwikkeling illustreert een opeenstapeling van automatisering binnen het onderwijs, waarbij beslissingen ook vaker zonder tussenkomst van mensen genomen worden. Dit kan de snelheid en efficiëntie ten goede komen, maar het kan ten koste gaan van belangrijke vormen van socialisatie.
  • Deze technologie kan ten koste gaan van gemarginaliseerde groepen lerenden omdat zij zich ‘anders’ dan ‘normaal’ gedragen (bijvoorbeeld homoseksuelen en transgenders).

De auteurs zijn van mening dat zelfs verbeteringen van de technologieën die gebruikt worden voor gezichtsherkenning, meer fundamentele zorgen over het anders-zijn, onderdrukking en strenge controle niet weg kunnen nemen. Zij vragen zich dan ook af of deze digitale technologie in welke vorm dan ook binnen het onderwijs moet worden ingezet.

Mijn opmerking

Ik vind het acceptabel als we technologie voor gezichtsherkenning gebruiken voor het verlenen van toegang aan lerenden tot content en tentamens. Mits lerenden ook de beschikking hebben over een alternatieve manier. De data moet beperkt bewaard blijven, en alleen hiervoor worden gebruikt. Veel van de ‘uitdagingen’ zijn m.i. niet van toepassing op deze manier van gebruik. Er is immers geen sprake van ‘mass surveillance‘.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *