Kunstmatige Intelligentie apps risico verankering van India socio-economische ongelijkheden

0
201

Kunstmatige intelligentie toepassingen niet een wondermiddel voor de aanpak van India ‘ s grote uitdagingen (Bestand)

Kunstmatige intelligentie (AI) staat hoog op de regeringsagenda. Enkele dagen geleden, Prime Minister Narendra Modi opende de Wadhwani Instituut voor Kunstmatige Intelligentie, naar verluidt India ‘ s eerste onderzoeksinstituut gericht op het AI-oplossingen voor sociale goed. In dezelfde week, Niti Aayog CEO Amitabh Kant betoogd dat de AI zou kunnen toevoegen $957 miljard aan de economie en de beschreven manieren waarop de AI kan een ‘game changer’. Tijdens zijn budget spraak, de Minister van Financiën Arun Jaitley aangekondigd dat Niti Aayog zou speerpunt een nationaal programma op AI; met de bijna-verdubbeling van de Digitale India budget, HET ministerie kondigde ook de oprichting van de vier commissies voor AI-gerelateerd onderzoek. Een industrieel beleid voor de AI is ook in de pijplijn, verwacht om stimulansen te bieden aan bedrijven voor het maken van een mondiaal concurrerende Indische AI-industrie.

Verhalen op de opkomende digitale economie vaak last van technologisch determinisme — in de veronderstelling dat het voortschrijden van de technologische transformatie heeft een innerlijke logica, onafhankelijk van de sociale keuze en geschikt voor het automatisch leveren van een positieve sociale verandering. Echter, de technologische trajecten kunnen en moeten worden gestuurd door sociale keuze en aangepast aan de maatschappelijke doelstellingen. PM Modi ‘ s adres op de juiste opmerkingen, als hij betoogde dat de ‘weg vooruit voor AI afhankelijk is en zal worden gedreven door de menselijke intentie.’ Het benadrukken van de noodzaak om direct AI technologieën in de richting van oplossingen voor de armen, hij riep de studenten en docenten te identificeren met ‘de grote uitdagingen van India’ – ‘AI in India en voor India’.

Om dit te doen, zal ongetwijfeld vergen aanzienlijke investeringen in R&D, digitale infrastructuur en onderwijs en re-skilling. Maar, twee andere kritieke punten moet gelijktijdig worden behandeld: de gegevens van de afwijking en de toegang tot technologie winsten.

Terwijl de computers is het nabootsen van de menselijke intelligentie voor enkele tientallen jaren, een enorme toename in rekenkracht en de hoeveelheid beschikbare gegevens zijn het inschakelen van een proces van ‘machine learning.’ In plaats van de codering van de software met de specifieke instructies voor het bereiken van een set-taak, machine learning omvat de opleiding een algoritme op grote hoeveelheden gegevens op te stellen om zichzelf te leren; het verfijnen en verbeteren van de resultaten door middel van meerdere versies van dezelfde taak. De kwaliteit van de gegevens die worden gebruikt om te trainen van de machines is dus een cruciale zorg in het bouwen van AI-toepassingen.

Veel recent onderzoek toont aan dat toepassingen op basis van machine-learning weerspiegelen de bestaande sociale vooroordelen en vooroordelen. Een dergelijke afwijking kan optreden als de data-set van het algoritme wordt getraind op is niet representatief voor de werkelijkheid tracht te vertegenwoordigen. Als bijvoorbeeld een systeem wordt getraind op foto ‘ s van mensen die zijn overwegend wit is, zal het moeilijker hebben in de erkenning van niet-blanke mensen. Dit is wat leidde een recente Google-toepassing tag zwarte mensen als gorilla ‘ s.

Als alternatief, de afwijking kan zich ook voordoen als de gegevens zich afspiegeling is van de bestaande discriminerende of uitsluitingsgedrag. In een recent onderzoek van ProPublica vond bijvoorbeeld dat de software is nuttig voor het beoordelen van het risico van recidive bij criminelen in de Verenigde Staten was twee keer zoveel kans om ten onrechte zijn vlag zwart verdachten als een hoger risico van het plegen van toekomstige misdrijven.

De impact van een dergelijke gegevens bias kan ernstig beschadigen in India, met name in een tijd van groeiende sociale fragmentatie. Het kan bijdragen aan de schans van sociale vooroordelen en discriminerende gedragingen, terwijl het renderen van onzichtbare en doordringend van de processen die er is sprake van discriminatie. Vrouwen zijn met 34 procent minder kans om het bezit van een mobiele telefoon dan mannen – dat zich manifesteert in slechts 14 procent van de vrouwen op het platteland van India een mobiele telefoon, terwijl slechts 30 procent van India ‘ s internet gebruikers zijn vrouwen.

De participatie van vrouwen in de beroepsbevolking is op dit moment op ongeveer 27 procent, is ook kleiner, en is een van de laagste in Zuid-Azië. Gegevens die worden gebruikt voor machine learning zijn dus waarschijnlijk een gemarkeerd gender bias. Dezelfde waarnemingen zijn waarschijnlijk geldt voor andere gemarginaliseerde groepen.

Wordt toegekend aan een in 2014 rapport, de Moslims, de Dalits, en stammen make-up 53 procent van alle gevangenen in India; NCRB gegevens van 2016 toont in sommige staten is het percentage van de Moslims in de gevangenis bevinden bevolking was bijna driemaal het percentage van de Moslims in de totale bevolking. Als AI-toepassingen voor recht en orde zijn gebaseerd op deze gegevens, is het niet onwaarschijnlijk dat het zal worden geschaad tegen deze groepen. (Het is de moeite waard erop te wijzen dat de onlangs set-up nationale AI task force is samengesteld uit meestal Hindoe-mannen – twee vrouwen zijn op de task force, en geen Moslims of Christenen. Een recent artikel in de New York Times sprak over AI ‘ s ‘white guy ‘probleem’; zal India last van een ‘Hindoe-Mannelijke Bias’? )

Maar toch, het verbeteren van de kwaliteit en diversiteit van data-sets is mogelijk niet in staat het probleem op te lossen. De processen van machine learning en de redenering te betrekken in een moeras van wiskundige functies, variabelen en permutaties, de logica van die niet direct herleidbaar zijn of voorspelbaar. Het tafereel van de AI-enabled efficiëntieverbetering moet ons niet blind maken voor het feit dat tijdens de AI-systemen worden geïntegreerd in de belangrijkste sociaal-economische systemen, de juistheid en de logica van de redenering niet volledig begrepen of bestudeerd.

De andere grote uitdaging komt voort uit de verdeling van de AI-led-technologie winsten. Zelfs als de schattingen van AI bijdrage aan het BBP juist zijn, de adoptie van deze technologieën is waarschijnlijk in niches binnen de georganiseerde sector. Deze sectoren zijn waarschijnlijk kapitaal dan arbeidsintensief, en dus waarschijnlijk niet bijdragen aan het op grote schaal creëren van werkgelegenheid.

Op hetzelfde moment, AI-toepassingen kan de meest gemakkelijk te vervangen met een lage tot gemiddelde geschoolde banen binnen de georganiseerde sector. Dit wordt nu al gezien in de BPO-sector – waar bellen en chatten taken zijn geautomatiseerd. Re-skilling zal belangrijk zijn, maar het is onwaarschijnlijk dat degenen die hun baan verliezen zullen mensen zijn die opnieuw worden ervaren – de lange boog van de technologische veranderingen en de maatschappelijke aanpassing is langer dan dat van het leven van mensen. Het contractueel vastleggen van werk, al aan het stijgen, is waarschijnlijk nog verder toenemen als grote bedrijven de voorkeur aan een flexibel personeelsbestand aan te passen aan de technologische veranderingen. Een verschuiving van formele tewerkstelling op contractuele werkzaamheden kan sprake zijn van een verlies van de toegang tot formele mechanismen voor sociale bescherming, het verhogen daarmee de onbestendigheid van het werk voor de werknemers.

De vaststelling van AI technologieën is het ook waarschijnlijk dat op korte tot middellange termijn in de ongeorganiseerd sector, die zich bezighoudt meer dan 80% van de indiase beroepsbevolking. De kosten van het ontwikkelen en implementeren van AI-toepassingen, in het bijzonder in relatie tot de kosten van arbeid, zal remmen adoptie. Bovendien, de meeste bedrijven binnen de ongeorganiseerd sector nog steeds een beperkte toegang hebben tot basic, oudere technologieën – twee derde van de werknemers tewerkgesteld in ondernemingen zonder elektriciteit. Eco-systeem upgrades zijn belangrijk, maar incrementele. Gezien de hoge kosten van het ontwikkelen van AI gebaseerde toepassingen, de meeste start-ups zijn waarschijnlijk te werken in de richting van de onderkant van de piramide oplossingen.

Toegang tot AI-led-technologie winsten is dus waarschijnlijk sterk gedifferentieerde – paar hoge-groei-industrieën kan worden verwacht, maar deze zal niet noodzakelijkerwijs leiden tot het welzijn van de arbeid. Studies tonen aan dat de arbeid deel van het nationale inkomen, vooral routinematige arbeid, daalt gestaag in ontwikkelingslanden.

We moeten duidelijk dat de nieuwe technologische toepassingen zelf zijn niet van plan om te transformeren of te verstoren deze trend, of liever, zonder adequaat beleid sturen, zullen deze trends worden verergerd.

Het politiek debat over de AI-toepassingen in India nodig om deze twee problemen serieus. AI-toepassingen zal niet een wondermiddel voor de aanpak van ‘India’ s grote uitdagingen.’ Gegevens over vooroordelen en ongelijke toegang tot technologie winsten zullen verschansen bestaande sociaal-economische scheuren, zelfs het maken van hen technologisch bindend.

Naast het ontwikkelen van AI-toepassingen en het creëren van een geschoolde arbeidskrachten in de behoeften van de regering en de prioriteit van het onderzoek dat onderzoekt de complexe sociale, ethische en governance uitdagingen in verband met de verspreiding van het AI-gedreven technologieën. Blind technologisch optimisme kan verschansen plaats van het verlichten van de grote Indiase uitdaging van ongelijkheid en groei.

Urvashi Aneja is de oprichter en Directeur van het Tandem Onderzoek, Universitair Hoofddocent Internationale Betrekkingen aan de OP Jindal Global University en Associate Fellow aan Chatham House. Ze twittert @urvashi_aneja Dit artikel is gebaseerd op Onderzoek Tandem lopende programma ‘ s over de Toekomst van het Werk in India en AI voor Alle

Voor al het laatste Oordeel Nieuws, download Indian Express App