Modul în care adoptarea unei abordări conștiente a AI reduce seturile de date părtinitoare

Seturi de date părtinitoare și IA etică

Soluțiile bazate pe inteligență artificială au nevoie de seturi de date pentru a fi eficiente. Iar crearea acestor seturi de date este plină de o problemă de părtinire implicită la nivel sistematic. Toți oamenii suferă de prejudecăți (atât conștienți, cât și inconștienți). Prejudecățile pot lua orice număr de forme: geografice, lingvistice, socio-economice, sexiste și rasiste. Și acele părtiniri sistematice sunt incluse în date, ceea ce poate duce la produse AI care perpetuează și amplifica părtinirea. Organizațiile au nevoie de o abordare atentă pentru a atenua prejudecățile care se strecoară în seturile de date.

Exemple care ilustrează problema prejudecății

Un exemplu notabil al acestui set de date care a strâns o mulțime de presă negativă la acea vreme a fost o soluție de citire a CV-urilor care a favorizat candidații bărbați în detrimentul femeilor. Acest lucru se datorează faptului că seturile de date ale instrumentului de recrutare au fost dezvoltate folosind CV-uri din ultimul deceniu, când majoritatea candidaților erau bărbați. Datele au fost părtinitoare și rezultatele au reflectat această părtinire. 

Un alt exemplu raportat pe scară largă: la conferința anuală pentru dezvoltatori Google I/O, Google a distribuit o previzualizare a unui instrument de asistență pentru dermatologie alimentat de inteligență artificială, care îi ajută pe oameni să înțeleagă ce se întâmplă cu problemele legate de pielea, părul și unghiile lor. Asistentul dermatologie subliniază modul în care AI evoluează pentru a ajuta la asistența medicală – dar a evidențiat, de asemenea, potențialul de a se strecura în AI în urma criticilor că instrumentul nu este adecvat pentru persoanele de culoare.

Când Google a anunțat instrumentul, compania a remarcat:

Pentru a ne asigura că construim pentru toată lumea, modelul nostru ține cont de factori precum vârsta, sexul, rasa și tipurile de piele - de la pielea palidă care nu se bronzează până la pielea maro care se arde rar.

Google, Folosind AI pentru a găsi răspunsuri la afecțiunile comune ale pielii

Dar un articol din Vice spunea că Google nu a reușit să utilizeze un set de date incluziv:

Pentru a îndeplini sarcina, cercetătorii au folosit un set de date de antrenament de 64,837 de imagini cu 12,399 de pacienți aflați în două state. Dar dintre miile de afecțiuni ale pielii prezentate, doar 3.5% au provenit de la pacienți cu tipurile de piele Fitzpatrick V și VI - cei care reprezintă pielea maro și, respectiv, pielea maro închis sau negru. Potrivit studiului, 90% din baza de date a fost compusă din persoane cu piele deschisă, piele albă mai închisă sau piele maro deschis. Ca urmare a eșantionării părtinitoare, dermatologii spun că aplicația ar putea ajunge să supradiagnostiqueze sau subdiagnostică persoanele care nu sunt albe.

Vice, noua aplicație de dermatologie de la Google nu a fost concepută pentru persoanele cu pielea mai închisă la culoare

Google a răspuns spunând că va perfecționa instrumentul înainte de a-l lansa oficial:

Instrumentul nostru de asistență dermatologică alimentat de inteligență artificială este punctul culminant a mai mult de trei ani de cercetare. De când munca noastră a fost prezentată în Nature Medicine, am continuat să dezvoltăm și să ne perfecționăm tehnologia prin încorporarea unor seturi de date suplimentare care includ date donate de mii de oameni și milioane de alte imagini îngrijite despre piele.

Google, Folosind AI pentru a găsi răspunsuri la afecțiunile comune ale pielii

Oricât de mult am putea spera că programele de inteligență artificială și de învățare automată ar putea corecta aceste părtiniri, realitatea rămâne: ele sunt doar la fel de inteligent deoarece seturile lor de date sunt curate. Într-o actualizare a vechiului zical de programare garbage in/garbage out, soluțiile AI sunt la fel de puternice ca și calitatea seturilor lor de date de la început. Fără o corecție din partea programatorilor, aceste seturi de date nu au experiența de fundal pentru a se repara singure - deoarece pur și simplu nu au alt cadru de referință.

Construirea de seturi de date în mod responsabil se află în centrul tuturor inteligența artificială etică. Și oamenii stau la baza soluției. 

AI conștientă este AI etică

Prejudecățile nu se întâmplă în vid. Seturi de date lipsite de etică sau părtinitoare provin din abordarea greșită în timpul etapei de dezvoltare. Modul de combatere a erorilor de părtinire este adoptarea unei abordări responsabile, centrată pe om, pe care mulți din industrie o numesc Mindful AI. Mindful AI are trei componente critice:

1. Mindful AI este centrat pe om

Încă de la începutul proiectului AI, în etapele de planificare, nevoile oamenilor trebuie să fie în centrul fiecărei decizii. Și asta înseamnă toți oamenii – nu doar un subset. De aceea, dezvoltatorii trebuie să se bazeze pe o echipă diversă de oameni la nivel global pentru a instrui aplicațiile de IA pentru a fi incluzivi și fără părtiniri.

Crowdsourcing seturile de date de la o echipă globală, diversă, asigură identificarea și filtrarea precoce a părtinirilor. Cei de diferite etnii, grupuri de vârstă, genuri, niveluri de educație, medii socio-economice și locații pot identifica mai ușor seturi de date care favorizează un set de valori în detrimentul altuia, eliminând astfel prejudecățile neintenționate.

Aruncați o privire la aplicațiile vocale. Atunci când aplică o abordare AI atentă și valorifică puterea unui pool global de talente, dezvoltatorii pot lua în considerare elemente lingvistice, cum ar fi diferite dialecte și accente din seturile de date.

Crearea de la început a unui cadru de proiectare centrat pe om este esențială. Este un drum lung pentru a se asigura că datele generate, organizate și etichetate îndeplinesc așteptările utilizatorilor finali. Dar este, de asemenea, important să ținem oamenii la curent pe parcursul întregului ciclu de viață al dezvoltării produsului. 

Oamenii în buclă pot, de asemenea, ajuta mașinile să creeze o experiență AI mai bună pentru fiecare public specific. La Pactera EDGE, echipele noastre de proiect de date AI, situate la nivel global, înțeleg modul în care diferitele culturi și contexte pot avea impact asupra colectării și gestionării datelor fiabile de instruire AI. Ei au instrumentele necesare de care au nevoie pentru a semnala probleme, a le monitoriza și a le remedia înainte ca o soluție bazată pe inteligență artificială să intre în funcțiune.

Human-in-the-loop AI este o „rețea de siguranță” de proiect care combină punctele forte ale oamenilor – și mediile lor diverse cu puterea de calcul rapidă a mașinilor. Această colaborare între oameni și inteligența artificială trebuie stabilită încă de la începutul programelor, astfel încât datele părtinitoare să nu formeze o bază în proiect. 

2. Mindful AI este responsabil

A fi responsabil înseamnă a ne asigura că sistemele AI sunt lipsite de părtiniri și că sunt bazate pe etică. Este vorba despre a fi conștient de cum, de ce și unde sunt create datele, cum sunt sintetizate de sistemele AI și cum sunt utilizate în luarea unei decizii, decizii care pot avea implicații etice. O modalitate prin care o afacere poate face acest lucru este să lucreze cu comunitățile subreprezentate pentru a fi mai incluzivă și mai puțin părtinitoare. În domeniul adnotărilor de date, noi cercetări evidențiază modul în care un model multi-sarcină cu adnotatori multipli care tratează etichetele fiecărui adnotator ca subsarcină separată poate ajuta la atenuarea problemelor potențiale inerente metodelor tipice de adevăr de la sol în care dezacordurile dintre adnotatori pot fi cauzate de subreprezentări și poate fi ignorat în agregarea adnotărilor la un singur adevăr de bază. 

3. De încredere

Încrederea vine din faptul că o afacere este transparentă și explicabilă în modul în care este antrenat modelul AI, cum funcționează și de ce recomandă rezultatele. O afacere are nevoie de expertiză în localizarea AI pentru a le permite clienților săi să facă aplicațiile AI mai incluzive și mai personalizate, respectând nuanțele critice în limba locală și experiențele utilizatorilor care pot face sau distruge credibilitatea unei soluții AI de la o țară la alta. . De exemplu, o afacere ar trebui să își proiecteze aplicațiile pentru contexte personalizate și localizate, inclusiv limbi, dialecte și accente în aplicațiile bazate pe voce. În acest fel, o aplicație aduce același nivel de sofisticare a experienței vocale în fiecare limbă, de la engleză la limbile subreprezentate.

Corectitudine și diversitate

În cele din urmă, AI atentă asigură că soluțiile sunt construite pe seturi de date corecte și diverse, în care consecințele și impactul unor rezultate particulare sunt monitorizate și evaluate înainte ca soluția să fie lansată pe piață. Fiind atent și incluzând oamenii în fiecare parte a dezvoltării soluției, ne ajutăm să ne asigurăm că modelele AI rămân curate, minim părtinitoare și cât mai etice posibil.

Ce părere ai?

Acest site folosește Akismet pentru a reduce spamul. Aflați cum sunt procesate datele despre comentarii.