Paperclip: Bij het identificeren van gezichten, kunstmatige intelligentie neigt naar wit en man

0
221

De studie roept vragen op over de juistheid van de resultaten van deze algoritmen als ze blijven geprogrammeerd worden op gegevens die raciaal bevooroordeeld en scheef in de richting van de witte man.

Gerelateerd Nieuws

  • Een chargesheet, bos en een kloof in Jammu

  • De bevoegdheid tot intrekking van een zaak: belast met state-regering, onder voorbehoud van de goedkeuring van de rechtbank

  • Wapens van de oorlog: Hoe zenuw gas en andere chemische wapens doden in Syrië of elders

In een tijd waarin steeds meer processen worden digitaal gaan vanwege de overtuiging dat de machines bestaan zonder de vooroordelen aanwezig in de menselijke redenering, een nieuw onderzoek suggereert dat dit niet geldt in alle scenario ‘ s.

In een papier — Geslacht Kleuren: Multidisciplinaire Juistheid van de Verschillen in de Commerciële Geslacht Classificatie — gepresenteerd op de Conferentie van Eerlijkheid, Verantwoordelijkheid en Transparantie, de onderzoekers onderzoeken drie commerciële facial recognition programma ‘ s ontwikkeld door Microsoft, IBM en het Gezicht++.

De programma ‘s voor algemeen gebruik zijn gezicht analyse systemen, die kunnen worden gebruikt voor een scala aan gezicht-perceptie taken, zoals het afstemmen van gezichten in foto’ s, het beoordelen van kenmerken als geslacht, leeftijd en stemming, en het gezicht van de classificatie.

Meestal is deze software zijn ingebouwd in smartphones. In de Verenigde Staten is deze technologie wordt gebruikt door politie-en de agentschappen van de gezondheidszorg in het bepalen van de “die is aangeworven, ontslagen, verstrekt een lening, of voor hoe lang een individu besteedt in de gevangenis”.

In andere woorden, algoritmen zijn nu de vervulling van de taken die van oudsher uitgevoerd door de mens.

De onderzoekers gekenmerkt twee bestaande gezichts-analyse benchmarks, IJB-en Adience, met behulp van een dermatologisch goedgekeurd zes-punt Fitzpatrick Huid classificatiesysteem. Deze karakterisering is gebleken dat de bestaande datasets waren overwegend bestaat uit lichtere huidskleur onderwerpen, en gebruikt de binaire labels van mannelijk en vrouwelijk te definiëren geslacht, niet het vastleggen van de complexiteit van de aanpak van het transgender identiteit.

Terwijl het hoogste percentage fouten bij het bepalen van het geslacht van licht-gevilde mensen 0,8%, die voor de donkere huidskleur, vrouwen explosief gestegen tot meer dan 20% voor een software, en meer dan 34% voor de andere twee. Alle drie de programma ‘ s de minste nauwkeurigheid bij donkere vrouwen.

Met name, zelfs de Fitzpatrick-classificatie systeem gebruikt voor het bepalen van het risico van kanker van de huid — ook bleek scheef in de richting van een lichtere huid, met drie categorieën die kunnen worden toegepast op mensen ervaren als wit.

“Wat echt belangrijk is hier de methode, en hoe het van toepassing is op de andere toepassingen,” Vreugde Buolamwini van het MIT, en de hoofdauteur van de paper, zei in een verklaring vrijgegeven door het MIT.

Omdat de bestaande datasets oververtegenwoordigd lichter mannen en onder-vertegenwoordigd donkere mensen, de onderzoekers geïntroduceerd sub-groepen van donkere vrouwtjes, mannetjes donkerder, lichter vrouwen en lichter mannen. Nu, in plaats van de evaluatie van de nauwkeurigheid van de software door het geslacht of de huid type, ze onderzocht ook de nauwkeurigheid van de vier sub-groepen.

Deze geïntroduceerd labels werden gebruikt voor het classificeren van de Pilot Parlementslid Benchmark, bestaande uit de 1.270 foto ‘ s van personen uit drie Afrikaanse landen (Rwanda, Senegal en Zuid-Afrika), en de drie Europese landen (Ijsland, Finland en Zweden).

Hoewel alle drie de software geclassificeerd mannelijke proefpersonen nauwkeuriger dan de vrouwelijke proefpersonen (8.1-20.6% verschil in error rate) en lichtere personen nauwkeuriger dan donkere individuen (11.8-19.2% verschil in error rate), alle classifiers uitgevoerd ergste donkere vrouwelijke proefpersonen (20.8 – 34.7% error rate).

Echter, het huidtype alleen niet volledig verantwoordelijk voor misclassificatie. Volgens het papier, “een donkere huid kan sterk gecorreleerd met gezichts-geometries of het geslacht van de display normen die zijn minder vertegenwoordigd in de opleiding van gegevens van de geëvalueerde classifiers.”

Bovendien eerdere studies hebben aangetoond dat gezichtsherkenning systemen ontwikkeld in de westerse landen en die ontwikkeld is in de Aziatische landen hebben de neiging om beter te presteren op hun respectievelijke populaties.

“Dezelfde data-centric technieken die gebruikt kunnen worden om te bepalen iemands geslacht worden ook gebruikt om een persoon te identificeren wanneer u op zoek bent naar een criminele verdachte of uw telefoon te ontgrendelen,” Buolamwini vertelde MIT nieuws.

De studie roept vragen op over de juistheid van de resultaten van deze algoritmen als ze blijven geprogrammeerd worden op gegevens die raciaal bevooroordeeld en scheef in de richting van de witte man.

Het erkennen van het bestaan van dergelijke vooroordelen, Anupam Guha, een computationele taalkunde en AI-onderzoeker vertelde De Indian Express, “Het is niet dat de AI of de technologie op zich is bevooroordeeld. Maar de gegevens die in deze AI is opgeleid, is inherent racistisch en vrouwonvriendelijk. De datasets zijn gemaakt op basis van bepaalde bevolkingsgroepen. Waardoor ze intrinsiek subjectief.”

Ras, geslacht vooroordelen: Gepresenteerd op de Conferentie op Eerlijkheid, Verantwoordelijkheid en Transparantie, februari 24, 2018; Auteurs: Vreugde Buolamwini en Timnit Gebru

Voor al het laatste Uitgelegd Nieuws, download Indian Express App