Nuus

Gesigsherkenningssagteware het 'n vooroordeel, en daar word bevind in nuwe regeringsverslag

Gesigsherkenningssagteware het 'n vooroordeel, en daar word bevind in nuwe regeringsverslag

Gesigsherkenningstelsels het vooroordeel getoon wanneer dit kom by die identifisering en ooreenstemming van individue met kleur, blyk uit 'n nuwe federale studie.

Die landmerkstudie skyn 'n negatiewe lig op sagteware wat toenemend deur wetstoepassingsagentskappe regoor die land gebruik word.

VERWANTE: KENNISGEWIGE KENNISGEWINGSKENNISWERK IS GEBRUIK OM 'N MOORDVERDAG IN CHINA TE VANG

Afro-Amerikaners, Asiërs sal 100 keer meer verkeerd geïdentifiseer word

Volgens die National Institute of Standards and Technology-studie is Afro-Amerikaanse en Asiatiese mense tot 100 keer meer geneig om verkeerd geïdentifiseer te word deur gesigsherkenningsprogramme as Kaukasiërs, afhangende van die individuele algoritme. Onder die algoritmes wat in die VSA ontwikkel is, het die Amerikaanse Indiese demografie die hoogste aantal vals positiewe resultate gehad.

Die studie het ook bevind dat Afro-Amerikaanse vroue die hoogste vals positiewe resultate gehad het vir een-tot-een-ooreenstemming, wat gereeld deur wetstoepassers gebruik word om miljoene mense in 'n databasis te deursoek om 'n verdagte te vind. Die NIST-toets het slegs een FBI-databasis gebruik wat 1,6 miljoen binnelandse mugshots bevat.

"Die verskil in vals positiewe in een-tot-baie-ooreenstemming is veral belangrik omdat die gevolge valse beskuldigings kan insluit," het die NIST in 'n persverklaring gesê wat die resultate van die studie beklemtoon. Die NIST het opgemerk dat die resultate van algoritme tot algoritme verskil, en gesê dat die "regverdigste ook onder die akkuraatste is".

NIST het na 189 algoritmes gekyk

NIST het die studie gedoen deur middel van sy Face Recognition Vendor Test-program, waarin hy gesigsherkenningsalgoritmes van sagteware-ondernemings en akademiese ontwikkelaars evalueer oor hul vermoë om take uit te voer. In hierdie studie het dit vier versamelings foto's gebruik wat 18,27 miljoen beelde van 8,49 miljoen individue beloop. Al die beelde kom van die staatsdepartement, die departement van binnelandse veiligheid en die FBI.

Die NIST het 189 sagteware-algoritmes getoets wat deur 99 ontwikkelaars ingedien is, waarvan die meeste besighede was. NIST het gekyk hoe goed die algoritmes ooreenstem met foto's van dieselfde persoon, wat gewoonlik gebruik word om 'n slimfoon te ontsluit of 'n paspoort te kontroleer, wat ook bekend staan ​​as 'een-tot-een'-pasmaat. Die regeringsagentskap het ook die algoritme se vermoë getoets om 'n persoon op 'n foto met foto's in 'n databasis te pas. Dit staan ​​bekend as 'een-tot-baie'-ooreenstemming, en kan gebruik word om 'n persoon van belang te identifiseer.

"In 'n een-tot-een-soektog kan 'n vals negatief bloot 'n ongemak wees. U kan nie op u telefoon bel nie, maar die probleem kan gewoonlik met 'n tweede poging reggestel word," het Patrick Grother, 'n NIST-rekenaarwetenskaplike en die verslag se primêre outeur. 'Maar 'n vals positief in 'n een-tot-baie-soektog plaas 'n verkeerde wedstryd op 'n lys kandidate wat verdere ondersoek regverdig.'


Kyk die video: Beautiful Books to Read. My Favorite Editions (Februarie 2023).