Kas yra dirbtinio intelekto šališkumas?

Kas yra dirbtinio intelekto šališkumas?

Dirbtinis intelektas yra visur – tyliai rūšiuoja, vertina ir siūlo. Tai patogu... kol jis kai kurias grupes pastūmėja į priekį, o kitas palieka nuošalyje. Jei kada nors svarstėte, kas yra dirbtinio intelekto šališkumas , kodėl jis pasireiškia net ir tobuluose modeliuose ir kaip jį sumažinti neprarandant našumo, šis vadovas skirtas jums.

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Ką reiškia GPT?
GPT pavadinimo ir kilmės paaiškinimas angliškai.

🔗 Kas yra nuspėjamasis dirbtinis intelektas
Kaip nuspėjamieji modeliai prognozuoja rezultatus, remdamiesi istoriniais ir tiesioginiais duomenimis.

🔗 Kas yra atvirojo kodo dirbtinis intelektas
Apibrėžimas, pagrindiniai privalumai, iššūkiai, licencijos ir projektų pavyzdžiai.

🔗 Kaip integruoti dirbtinį intelektą į savo verslą
Žingsnis po žingsnio veiksmų planas, įrankiai, darbo eigos ir esminiai pokyčių valdymo principai.


Trumpas apibrėžimas: kas yra dirbtinio intelekto šališkumas?

Dirbtinio intelekto šališkumas yra tada, kai dirbtinio intelekto sistemos rezultatai sistemingai teikia pirmenybę arba yra nepalankūs tam tikriems žmonėms ar grupėms. Tai dažnai kyla dėl nesubalansuotų duomenų, siaurų matavimo pasirinkimų arba platesnio konteksto, kuriame sistema sukurta ir naudojama. Šališkumas ne visada yra kenkėjiškas, tačiau, jei nekontroliuojamas, jis gali greitai padaryti žalos. [1]

Naudingas skirtumas: šališkumas yra sprendimų priėmimo iškraipymas, o diskriminacija – žalingas poveikis, kurį iškraipymas gali sukelti pasaulyje. Ne visada galima pašalinti viso šališkumo, bet reikia jį valdyti, kad jis nesukeltų nesąžiningų rezultatų. [2]


Kodėl šališkumo supratimas iš tikrųjų padeda tau tapti geresniu 💡

Keistas požiūris, tiesa? Bet žinojimas, kas yra dirbtinio intelekto šališkumas, leidžia jums:

  • Geresnis dizainas – anksčiau pastebėsite trapias prielaidas.

  • Geresnis valdymas – dokumentuosite kompromisus, o ne juos nurodinėsite.

  • Geriau kalbasi – su vadovais, reguliavimo institucijomis ir paveiktais asmenimis.

Be to, sąžiningumo rodiklių ir politikos kalbos išmokimas vėliau sutaupo laiko. Tiesą sakant, tai tas pats, kas nusipirkti žemėlapį prieš kelionę – netobula, bet daug geriau nei nuotaika. [2]


Dirbtinio intelekto šališkumo tipai, kuriuos iš tikrųjų pamatysite gamtoje 🧭

Šališkumas pasireiškia visame dirbtinio intelekto gyvavimo cikle. Dažniausi modeliai, su kuriais susiduria komandos:

  • Duomenų atrankos šališkumas – kai kurios grupės yra nepakankamai atstovaujamos arba jų nėra.

  • Etikečių šališkumas – istorinės etiketės koduoja išankstinį nusistatymą arba triukšmingus žmonių sprendimus.

  • Matavimo šališkumas – rodikliai, kurie neatspindi to, ką jūs iš tikrųjų vertinate.

  • Vertinimo šališkumas – testų rinkiniai praleidžia tam tikras populiacijas ar kontekstus.

  • Diegimo šališkumas – geras laboratorinis modelis, naudojamas netinkamoje aplinkoje.

  • Sisteminis ir žmogiškasis šališkumas – platesni socialiniai modeliai ir komandos pasirinkimai prasiskverbia į technologijas.

Standartų organizacijų sukurtas naudingas mentalinis modelis šališkumą suskirsto į žmogiškąsias, technines ir sistemines kategorijas ir rekomenduoja socialinį bei techninį valdymą, o ne vien modelio pakeitimus [1].


Kur šališkumas prasmukęs vamzdyne 🔍

  1. Problemos formulavimas – pernelyg siaurai apibrėžiate tikslinę auditoriją ir neįtraukiate žmonių, kuriems produktas turėtų tarnauti.

  2. Duomenų šaltiniai – istoriniai duomenys dažnai koduoja praeities nelygybę.

  3. Funkcijų pasirinkimai – jautrių atributų tarpiniai serveriai gali atkurti jautrius atributus.

  4. Mokymo tikslai optimizuojami siekiant vidutinio tikslumo, o ne lygybės.

  5. Testavimas – jei jūsų išlaikymo rinkinys yra iškreiptas, jūsų metrikos taip pat yra iškreiptos.

  6. Stebėjimas – vartotojų ar konteksto pokyčiai gali vėl sukelti problemų.

Reguliavimo institucijos pabrėžia sąžiningumo rizikos dokumentavimą visame šiame gyvavimo cikle, o ne tik modelio pritaikymo metu. Tai visų rankų darbas. [2]


Kaip išmatuoti sąžiningumą nerandant laiko ratui? 📏

Nėra vieno rodiklio, kuris galėtų būti taikomas visiems. Rinkitės pagal savo naudojimo atvejį ir žalą, kurios norite išvengti.

  • Demografinis paritetas – atrankos rodikliai turėtų būti panašūs visose grupėse. Tinka paskirstymo klausimams, bet gali prieštarauti tikslumo tikslams. [3]

  • Išlygintos tikimybės – klaidų, tokių kaip klaidingai teigiami ir tikri teigiami rezultatai, dažnis turėtų būti panašus. Naudinga, kai klaidų kaina skiriasi pagal grupes. [3]

  • Kalibravimas – tam pačiam balui rezultatai turėtų būti vienodai tikėtini visose grupėse. Naudinga, kai balai lemia žmonių sprendimus. [3]

Įrankių rinkiniai tai padaro praktišku, apskaičiuodami spragas, diagramas ir ataskaitų suvestines, kad jums nereikėtų spėlioti. [3]


Praktiški būdai sumažinti šališkumą, kurie iš tikrųjų veikia 🛠️

pagalvokite apie daugiasluoksnius mažinimo būdus, o ne apie vieną stebuklingą priemonę:

  • Duomenų auditai ir praturtinimas – aprėpties spragų nustatymas, saugesnių duomenų rinkimas, kai tai yra teisėta, dokumentų atranka.

  • Pakartotinis svorio nustatymas ir pakartotinis atranka – pakoreguokite mokymo pasiskirstymą, kad sumažintumėte iškraipymą.

  • Apdorojimo apribojimai – pridėkite teisingumo tikslus prie tikslo, kad modelis tiesiogiai išmoktų kompromisus.

  • Prieštaringas šalinimas – apmokykite modelį taip, kad jautrūs atributai nebūtų nuspėjami iš vidinių reprezentacijų.

  • Tolesnis apdorojimas – prireikus ir teisėtai kalibruokite sprendimų slenksčius kiekvienai grupei.

  • Žmonių atliekami patikrinimai – suporuokite modelius su paaiškinamomis santraukomis ir eskalavimo keliais.

Atvirojo kodo bibliotekos, tokios kaip AIF360 ir „Fairlearn“, teikia ir metriką, ir mažinimo algoritmus. Jos nėra magiškos, bet suteiks jums sistemingą atspirties tašką. [5][3]


Realaus pasaulio įrodymas, kad šališkumas yra svarbus 📸💳🏥

  • Veido analizė – plačiai cituojami tyrimai parodė didelius tikslumo skirtumus tarp lyčių ir odos tipų komercinėse sistemose, todėl ši sritis skatina geresnę vertinimo praktiką [4].

  • Svarbūs sprendimai (kreditavimas, įdarbinimas, būstas) – net ir be tyčios, šališki rezultatai gali prieštarauti sąžiningumo ir antidiskriminaciniams įsipareigojimams. Kitaip tariant: jūs esate atsakingi už pasekmes, o ne tik už kodą. [2]

Trumpas praktinis pavyzdys: atlikus anonimizuotą įdarbinimo atrankos auditą, komanda nustatė, kad techninėse pareigose dirbančioms moterims trūksta atminties. Paprasti žingsniai – geresnis stratifikavimas, funkcijų peržiūra ir grupių slenksčių nustatymas – panaikino didžiąją dalį atotrūkio, šiek tiek sumažinant tikslumą. Svarbiausia buvo ne viena gudrybė; tai buvo kartojamas matavimo, mažinimo ir stebėjimo ciklas.


Politika, įstatymai ir valdymas: kaip atrodo „geras“ 🧾

Jums nereikia būti teisininku, bet turite kurti sąžiningumo ir paaiškinamumo principus:

  • Sąžiningumo principai – į žmogų orientuotos vertybės, skaidrumas ir nediskriminavimas viso gyvenimo ciklo metu. [1]

  • Duomenų apsauga ir lygybė – kai kalbama apie asmens duomenis, atsižvelkite į pareigas, susijusias su sąžiningumu, tikslo apribojimu ir individualiomis teisėmis; taip pat gali būti taikomos sektoriaus taisyklės. Iš anksto suplanuokite savo įsipareigojimus. [2]

  • Rizikos valdymas – naudokite struktūrizuotas sistemas šališkumui nustatyti, matuoti ir stebėti kaip platesnių dirbtinio intelekto rizikos programų dalį. Užsirašykite. Peržiūrėkite. Pakartokite. [1]

Maža pastaba: popierizmas nėra tik biurokratija; tai būdas įrodyti, kad iš tikrųjų atlikote darbą, jei kas nors paklaus.


Palyginimo lentelė: įrankiai ir sistemos, skirtos dirbtinio intelekto šališkumui suvaldyti 🧰📊

Įrankis arba sistema Geriausiai tinka Kaina Kodėl tai veikia... kažkaip
AIF360 Duomenų mokslininkai, norintys metrikos ir švelninimo Nemokama Daug algoritmų vienoje vietoje; greitas prototipo kūrimas; padeda nustatyti bazinius rodiklius ir palyginti pataisymus. [5]
Fairlearn Komandos balansuoja tikslumą su sąžiningumo apribojimais Nemokama Aiškios API sąsajos vertinimui / problemų sprendimui; naudingos vizualizacijos; patogi naudoti su „scikit“ programine įranga. [3]
NIST DI (SP 1270) Rizika, atitiktis ir lyderystė Nemokama Bendra žmogiškojo / techninio / sisteminio šališkumo ir gyvavimo ciklo valdymo kalba. [1]
ICO gairės JK komandos, tvarkančios asmens duomenis Nemokama Praktiniai kontroliniai sąrašai, skirti sąžiningumo / diskriminacijos rizikai visame dirbtinio intelekto gyvavimo cikle. [2]

Kiekvienas iš jų padeda atsakyti į klausimą, koks yra dirbtinio intelekto šališkumas jūsų kontekste, suteikiant struktūrą, metriką ir bendrą žodyną.


Trumpas, šiek tiek subjektyvus darbo eigos aprašymas 🧪

  1. Nurodykite žalą, kurios norite išvengti – žala dėl paskirstymo, klaidų dažnio skirtumai, žala dėl orumo ir pan.

  2. Pasirinkite su ta žala suderintą metriką , pvz., išlygintas tikimybes, jei svarbus klaidų paritetas. [3]

  3. Nustatyti pradinius rodiklius naudojant šiandienos duomenis ir modelį. Išsaugoti teisingumo ataskaitą.

  4. Pirmiausia išbandykite mažos trinties sprendimus – geresnius duomenų skaidymus, slenksčių nustatymą arba svorio perskaičiavimą.

  5. kreipkitės į apdorojimo apribojimus.

  6. Iš naujo įvertinkite apribojimų rinkinius, kurie atitinka tikrus naudotojus.

  7. Stebėkite gamyboje – paskirstymo pokyčiai vyksta, todėl ataskaitų suvestinės taip pat turėtų būti stebimos.

  8. Dokumentuokite kompromisus – teisingumas priklauso nuo konteksto, todėl paaiškinkite, kodėl pasirinkote X lygybę, o ne Y lygybę. [1][2]

Reguliavimo institucijos ir standartų organizacijos ne veltui pabrėžia gyvavimo ciklo mąstymą. Tai veikia. [1]


Bendravimo patarimai suinteresuotosioms šalims 🗣️

  • Venkite vien matematinių paaiškinimų – pirmiausia pateikite paprastas diagramas ir konkrečius pavyzdžius.

  • Vartokite aiškią kalbą – nurodykite, ką modelis galėtų padaryti nesąžiningai ir kam tai galėtų turėti įtakos.

  • Paviršiniai kompromisai – sąžiningumo apribojimai gali pakeisti tikslumą; tai nėra klaida, jei sumažina žalą.

  • Planuokite nenumatytus atvejus – kaip pristabdyti arba atšaukti veiksmus, jei iškyla problemų.

  • Skatinkite tikrinimą – išorinė peržiūra arba „raudonųjų komandų“ taikymas atskleidžia akląsias zonas. Niekam tai nepatinka, bet tai padeda. [1][2]


DUK: kas iš tikrųjų yra dirbtinio intelekto šališkumas? ❓

Ar šališkumas nėra vien tik blogi duomenys?
Ir ne tik. Duomenys yra svarbūs, bet ir modeliavimo pasirinkimai, vertinimo planas, diegimo kontekstas ir komandos skatinimo priemonės turi įtakos rezultatams. [1]

Ar galiu visiškai pašalinti šališkumą?
Paprastai ne. Siekiama valdyti šališkumą taip, kad jis nesukeltų nesąžiningo poveikio – galvoti apie mažinimą ir valdymą, o ne apie tobulumą. [2]

Kurį teisingumo rodiklį turėčiau naudoti?
Rinkitės pagal žalos tipą ir srities taisykles. Pavyzdžiui, jei klaidingai teigiami rezultatai labiau kenkia grupei, sutelkite dėmesį į klaidų lygio paritetą (išlygintas tikimybes). [3]

Ar man reikia teisinės peržiūros?
Jei jūsų sistema paliečia žmonių galimybes ar teises, taip. Vartotojų ir lygybės principais pagrįstos taisyklės gali būti taikomos algoritminiams sprendimams, todėl turite įrodyti savo darbą. [2]


Baigiamosios pastabos: per ilgas, neskaičiau 🧾✨

Jei kas nors jūsų paklaus, kas yra dirbtinio intelekto šališkumas , štai paprastas atsakymas: tai sistemingas dirbtinio intelekto rezultatų iškraipymas, galintis sukelti nesąžiningą poveikį realiame pasaulyje. Jį diagnozuojate naudodami kontekstui tinkamus rodiklius, sušvelninate naudodami daugiasluoksnius metodus ir valdote per visą gyvavimo ciklą. Tai nėra viena klaida, kurią reikia ištaisyti – tai produkto, politikos ir žmonių klausimas, reikalaujantis nuolatinio matavimo, dokumentavimo ir nuolankumo. Manau, kad nėra stebuklingos priemonės... bet yra tinkamų kontrolinių sąrašų, sąžiningų kompromisų ir geresnių įpročių. Ir taip, keli jaustukai niekada nepakenks. 🙂


Nuorodos

  1. NIST specialusis leidinys 1270 – Dirbtinio intelekto šališkumo nustatymo ir valdymo standarto kūrimas . Nuoroda.

  2. JK informacijos komisaro biuras – O kaip dėl sąžiningumo, šališkumo ir diskriminacijos? Nuoroda

  3. „Fairlearn“ dokumentacija – bendrieji sąžiningumo rodikliai (demografinis paritetas, išlyginti koeficientai, kalibravimas). Nuoroda

  4. Buolamwini, J. ir Gebru, T. (2018). Lyčių atspalviai: sankirtos tikslumo skirtumai komercinėje lyčių klasifikacijoje . FAT* / PMLR. Nuoroda

  5. IBM tyrimai – Dirbtinio intelekto sąžiningumo 360 (AIF360) pristatymas . Nuoroda

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį