Nieuws

Technologieën voor leeftijdsschatting

Geschreven door Matthew Houliston | 16 november 2023 16:46:00

We gaan een spannende tijd tegemoet in het Verenigd Koninkrijk, waarin technologie het retaillandschap zal transformeren en onze benadering van leeftijdsverificatieprocessen, zowel in de winkel als online, zal veranderen. Luciditi introduceert de eerste PASS niveau 5-geaccrediteerde digitale ID (zie hier hoe we hun lancering ondersteunen: https://luciditi.co.uk/uks-first-pass-approved-digital-proof-of-age-card-set-to-reduce-fraud-and-retailer-prosecution), de technologie voor leeftijdsschatting (AE) die actief wordt gebruikt door sommige online retailers, en de komende wetswijzigingen rond de verkoop van alcohol, verwachten we dat deze markt zeer binnenkort zal exploderen. Zoals altijd zet Serve Legal zich in om onze klanten te ondersteunen bij alles wat met compliance en risico's te maken heeft. Hieronder vindt u onze visie op de opkomende technologie, met de nadruk op leeftijdsschatting voor retailers:

 

Voordelen van technologie voor leeftijdsschatting

  1. Verbeterde klanttrajecten.

We hebben allemaal wel eens meegemaakt dat we hoopten op een snelle en vlotte aankoop via de zelfscankassa, maar dat het rode lampje gaat knipperen en we vervolgens gefrustreerd in onzekerheid blijven zitten terwijl we wachten tot de transactie wordt goedgekeurd. Deze technologie zou een aanzienlijk deel van de goedkeuringen voor producten met leeftijdsbeperkingen moeten elimineren, waardoor alleen degenen die er jong genoeg uitzien om onder de 25 te zijn en de ongelukkigen met het gevreesde 'onverwacht artikel in de zakkenruimte' overblijven voor collega's om op te lossen. Dit zou resulteren in een aanzienlijk verbeterde ervaring voor de meeste klanten.

  2. Het verminderen van wrijvingspunten/conflicten

Het is begrijpelijk dat het voor een 18-jarige die net begint met werken een uitdaging kan zijn om een klant aan te spreken die volgens hen mogelijk ouder is dan zijzelf, maar jonger dan de leeftijd die in het bedrijfsbeleid van Think25 is vastgelegd. Dit kan escaleren in het scenario dat de klant geen identiteitsbewijs heeft en we geconfronteerd worden met de mogelijkheid dat de transactie wordt geweigerd, wat een conflictpunt creëert. AE biedt een mooie 'computer zegt nee'-ontsnappingsclausule voor het personeelslid en zorgt ervoor dat ze niet terugdeinzen voor het bedrijfsbeleid. Hieronder staan voorbeelden van opmerkingen van thestudentroom.co.uk die de angst weerspiegelen die sommige jongeren voelen wanneer ze klanten om hun identiteitsbewijs moeten vragen:

"Misschien is het gewoon zenuwen op de eerste dag en hoop ik dat het beter wordt. Maar ik heb echt een hekel aan het bedienen van klanten, vooral omdat ik bang ben dat ik hun identiteitsbewijs moet controleren."

"Ik werk momenteel in een supermarkt en we hanteren het 'challenge/think 25'-beleid, maar het bezorgt me veel stress omdat ik moeite heb om te bepalen of iemand er jonger dan 25 uitziet."

  3. Het verwijderen van menselijke interpretaties en vooringenomenheid

Zoals bij alles verschillen onze individuele interpretaties en wat de ene persoon als 25+ beschouwt, kan een ander zien als een potentiële minderjarige klant. We weten ook uit honderdduizenden Serve Legal-audits dat de leeftijd en het geslacht van medewerkers van invloed kunnen zijn op de naleving van de regels en dat ervaring of persoonlijke vooroordelen hier nog meer invloed op hebben. AE zorgt voor een zekere mate van consistentie binnen het bedrijf. Dit betekent echter niet dat de technologie perfect en vrij van vooroordelen is. Hiermee moet u rekening houden bij uw keuze voor een AE-tool.

 

Aandachtspunten

  1. Privacykwesties:

Er bestaan enkele misvattingen binnen de wereld van AE die deze technologie ten onrechte in verband brengen met gezichtsherkenning (FR). Dit leidt tot bezorgdheid bij eindgebruikers, implementators en zelfs overheden dat gezichtsbeelden worden vastgelegd en opgeslagen. De AVPA, waarvan wij lid zijn, doet uitstekend werk om deze mythe te ontkrachten en uit te leggen hoe de technologie patronen herkent zonder beelden op te slaan. Bedrijven die voor AE-technologie kiezen, moeten er echter voor zorgen dat de door hen gekozen leveranciers dit kunnen aantonen en moeten hun klanten geruststellen dat dit geen geval is van 'Big Brother' die zijn greep uitbreidt.

  2. Vooringenomenheid binnen technologie

Vooringenomenheid wordt vaak gezien als een menselijke eigenschap die voortkomt uit onze ervaringen en beïnvloedende factoren, maar het kan ook binnen technologie voorkomen. Of het nu gaat om algoritmische vooringenomenheid – waarbij de technologie vooringenomenheid/discriminatie in stand houdt – of gegevensvooringenomenheid – waarbij de algoritmen zijn getraind op basis van scheve gegevenssets. Er zijn voorbeelden van vooringenomenheid op basis van geslacht en etniciteit die in AI in stand worden gehouden, wat schadelijke gevolgen heeft gehad voor de gebruikers van de technologie, waaronder reputatieschade. Detailhandelaren moeten ervoor zorgen dat AE-aanbieders kunnen aantonen dat ze een gedegen training hebben gevolgd, waaronder:

  • Scheid training, Q&A en testdatasets – je kunt je tool niet testen met dezelfde gegevens waarmee je hem hebt getraind.
  • Diverse datasets
  • De Q&A- en testgegevenssets (in het bijzonder) zijn zeer nauwkeurig, vrij van duplicatie, gevalideerd en geverifieerd – in het geval van AE betekent dit dat elke afbeelding correct is gemarkeerd met de leeftijd van de persoon en bevestigd door middel van een identiteitsbewijs.
  • Onafhankelijke controle van nauwkeurigheid en vooringenomenheid (je mag je eigen huiswerk niet beoordelen!)
  3. Risico

Houd er rekening mee dat het licentierisico bij de retailer/toepasser van de technologie blijft liggen, en niet bij de leverancier van de technologie. Retailers moeten aan de belangrijkste stakeholders in het bedrijf kunnen aantonen dat de technologie:

  • Correct geïmplementeerd en dat laboratoriumresultaten worden gerepliceerd in de praktijk.
  • Werkt ter plaatse, met alle externe factoren die de resultaten kunnen beïnvloeden (verlichting, positionering, presentatie van de klant enz.).
  • De prestaties overtreffen die van vergelijkbare transacties door mensen.
  • Klanten worden niet gediscrimineerd.
  • De aanbieder kan aantonen dat hij bescherming biedt tegen pogingen tot spoofing.
  • De datasets zijn verzameld op een manier die voldoet aan de AVG – dit is vooral belangrijk voor tools die zijn getraind om de leeftijd van minderjarigen te schatten.
  4. Regelgeving

We willen niet dat regelgeving innovatie in de weg staat, en op dit moment loopt de regelgeving ver achter op de innovatie – de EU AI-wet wordt nog steeds besproken en het Verenigd Koninkrijk werkt aan een witboek. Er komt echter regelgeving aan, en dit kan, afhankelijk van de uitkomsten, gevolgen hebben voor de gebruikte tools. Daarom moet rekening worden gehouden met de levensduur van AE-oplossingen. Onze belangrijkste bevindingen uit de beoordeling van de verschillende wetgevingsstukken met betrekking tot AI, die AE-technologieën gebruiken om hun modellen te trainen, zijn dat elk hulpmiddel dat gebruikmaakt van AI en dat het potentieel heeft om te discrimineren op basis van een beschermd kenmerk (leeftijd, geslacht, etniciteit, enz.) zou worden gecategoriseerd als een 'hoog risico' en dat het nauwkeurigheid, maatregelen ter beperking van vooringenomenheid en voortdurende monitoring zou moeten aantonen om te mogen worden gebruikt (om te voorkomen dat onnauwkeurigheden of vooringenomenheid worden geïntroduceerd door voortdurende ontwikkeling).

Opgemerkt moet worden dat veel van de AE-aanbieders diversiteit aantonen aan de hand van de Fitzpatrick-schaal, maar zoals blijkt uit een onderzoek van de Universiteit van Durham naar verborgen vooroordelen bij gezichtsherkenning, is huidskleur niet voldoende om raciale vooroordelen te analyseren. Daarom zijn deze maatstaven mogelijk niet voldoende om de vooroordelen ten aanzien van de beschermde etnische kenmerken te verminderen.

(Yucer, S., Tekras, F., Al Moubayed, N., & Breckon, T. (2022). Het meten van verborgen vooroordelen binnen gezichtsherkenning via raciale fenotypes. https://openaccess.thecvf.com/content/WACV2022/papers/Yucer_Measuring_Hidden_Bias_Within_Face_Recognition_via_Racial_Phenotypes_WACV_2022_paper.pdf

 

Richtlijnen voor beste praktijken voor detailhandelaren

  1. Transparantie naar klanten toe

Zorg ervoor dat klanten volledig op de hoogte zijn van de gebruikte technologie en hoe hun gegevens worden verwerkt en opgeslagen (of niet). Het zal even duren voordat klanten zich hebben aangepast aan het veranderende klanttraject en sommige eindgebruikers zullen gerustgesteld moeten worden over de bedoeling van de technologie.

  2. Regelmatige audits en tests

We raden aan om de technologie continu te monitoren, zodat retailers en bedrijven bewijs van due diligence kunnen bewaren voor eventuele audits door Trading Standards, en om belanghebbenden ervan te verzekeren dat er nooit concessies worden gedaan aan de kwaliteit.

Detailhandelaren moeten kunnen aantonen dat de nieuwe technologie beter presteert dan een vergelijkbare menselijke transactie.

  3. Verzamel bewijs van maatregelen ter beperking van vooringenomenheid

Zoals hierboven uiteengezet, moet de geïmplementeerde technologie waterdicht zijn vanuit het oogpunt van regelgeving, AVG en het beperken van vooringenomenheid. Zorg ervoor dat aanbieders een continu programma hebben voor het testen en monitoren van hun tool, om te garanderen dat alle gebruikers gelijk worden behandeld, dat er niet onbedoeld vooringenomenheid wordt geïntroduceerd in de voortdurende ontwikkeling en dat ze op de hoogte zijn van alle wettelijke vereisten.

 

Als u wilt bespreken hoe wij u kunnen helpen bij uw keuze voor technologie voor leeftijdsschatting, neem dan contact op met info@servelegal.co.uk of bezoek onze website op www.servelegal.co.uk/services/facial-biometric-accuracy-and-fairness-auditing/.