Kas yra dirbtinio intelekto etika?

Kas yra dirbtinio intelekto etika?

Terminas skamba išdidžiai, bet tikslas yra labai praktiškas: sukurti dirbtinio intelekto sistemas, kuriomis žmonės galėtų pasitikėti, nes jos yra suprojektuotos, pagamintos ir naudojamos taip, kad būtų gerbiamos žmogaus teisės, mažinama žala ir teikiama reali nauda. Štai ir viskas – na, iš esmės. 

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Kas yra MCP dirbtiniame intelekte?
Paaiškina modulinį skaičiavimo protokolą ir jo vaidmenį dirbtiniame intelekte.

🔗 Kas yra kraštinis dirbtinis intelektas?
Aptariama, kaip periferiniais kompiuteriais pagrįstas apdorojimas leidžia greičiau priimti vietinius dirbtinio intelekto sprendimus.

🔗 Kas yra generatyvinis dirbtinis intelektas
Pristatomi modeliai, kurie kuria tekstą, vaizdus ir kitą originalų turinį.

🔗 Kas yra agentinis dirbtinis intelektas
Apibūdina autonominius dirbtinio intelekto agentus, gebančius priimti tikslais pagrįstus sprendimus.


Kas yra dirbtinio intelekto etika? Paprastas apibrėžimas 🧭

Dirbtinio intelekto etika – tai principų, procesų ir apsauginių priemonių rinkinys, kuriuo vadovaujamės projektuodami, plėtodami, diegdami ir valdydami dirbtinį intelektą, kad jis būtų ginamas žmogaus teisių, sąžiningumo, atskaitomybės, skaidrumo ir socialinės gerovės. Įsivaizduokite tai kaip kasdienes algoritmų veikimo taisykles – su papildomais patikrinimais, ar nėra keistų kampų, kur gali kilti problemų.

Tai patvirtina pasauliniai pavyzdžiai: UNESCO rekomendacijoje daugiausia dėmesio skiriama žmogaus teisėms, žmonių priežiūrai ir teisingumui, o skaidrumas ir sąžiningumas yra nederybų objektai [1]. EBPO dirbtinio intelekto principai siekia patikimo dirbtinio intelekto, kuris gerbtų demokratines vertybes ir kartu būtų praktiškas politikos ir inžinerijos komandoms [2].

Trumpai tariant, dirbtinio intelekto etika nėra plakatas ant sienos. Tai vadovėlis, kurį komandos naudoja rizikai numatyti, patikimumui įrodyti ir žmonėms apsaugoti. NIST dirbtinio intelekto rizikos valdymo sistemoje etika traktuojama kaip aktyvus rizikos valdymas per visą dirbtinio intelekto gyvavimo ciklą [3].

 

Dirbtinio intelekto etika

Kas lemia gerą dirbtinio intelekto etiką ✅

Štai tiesmuka versija. Gera dirbtinio intelekto etikos programa:

  • Yra išgyvenama, o ne laminuojama – politika, kuria grindžiama reali inžinerinė praktika ir apžvalgos.

  • Pradedama nuo problemos formulavimo – jei tikslas netikslus, joks teisingumo pataisymas jo neišgelbės.

  • Dokumentų sprendimai – kodėl šie duomenys, kodėl šis modelis, kodėl ši riba.

  • Testai su kontekstu – vertinimas pagal pogrupius, o ne tik bendras tikslumas (pagrindinė NIST tema) [3].

  • Parodo jo veikimą – modelių korteles, duomenų rinkinio dokumentaciją ir aiškius naudotojų ryšius [5].

  • Ugdo atskaitomybę – įvardijami savininkai, eskalavimo keliai, audituojamumas.

  • Užrašomai balansuoja kompromisus atviroje erdvėje

  • Susijęs su teise – rizika pagrįsti reikalavimai, kurie pritaiko kontrolę pagal poveikį (žr. ES Dirbtinio intelekto įstatymą) [4].

Jei tai nepakeičia nė vieno sprendimo dėl produkto, tai ne etika – tai dekoras.


Greitas atsakymas į svarbų klausimą: kas yra dirbtinio intelekto etika? 🥤

Štai kaip komandos atsako į tris pasikartojančius klausimus:

  1. Ar turėtume tai statyti?

  2. Jei taip, kaip sumažinti žalą ir ją įrodyti?

  3. Kai reikalai pakrypsta netikėta linkme, kas yra atsakingas ir kas vyksta toliau?

Nuobodžiai praktiška. Stebėtinai sunku. Verta.


60 sekundžių trukmės mini atvejis (praktinė patirtis) 📎

Finansinių technologijų komanda pateikia sukčiavimo modelį, pasižymintį dideliu tikslumu. Po dviejų savaičių iš konkretaus regiono smarkiai išauga palaikymo užklausų skaičius – teisėti mokėjimai yra blokuojami. Pogrupio peržiūra rodo, kad tos lokalės atšaukiamumas yra 12 punktų mažesnis nei vidutinis. Komanda dar kartą peržiūri duomenų aprėptį, perkvalifikuoja darbuotojus, kad jie geriau atstovautų, ir paskelbia atnaujintą modelio kortelę , kurioje dokumentuojamas pakeitimas, žinomi įspėjimai ir vartotojų kreipimosi kelias. Tikslumas sumažėja vienu punktu; klientų pasitikėjimas išauga. Tai yra etika kaip rizikos valdymas ir pagarba vartotojams , o ne plakatas [3][5].


Įrankiai ir sistemos, kurias iš tikrųjų galite naudoti 📋

(Nedideli keistenybės įtrauktos tyčia – toks yra tikras gyvenimas.)

Įrankis arba sistema Auditorija Kaina Kodėl tai veikia Pastabos
NIST dirbtinio intelekto rizikos valdymo sistema Produktas, rizika, politika Nemokama Aiškios funkcijos – valdymas, žemėlapių sudarymas, matavimas, valdymas – komandų koordinavimas Savanoriškas, plačiai cituojamas [3]
EBPO dirbtinio intelekto principai Vadovai, politikos formuotojai Nemokama Vertybės + praktiniai patarimai patikimam dirbtiniam intelektui Tvirta valdymo šiaurinė žvaigždė [2]
ES dirbtinio intelekto įstatymas (rizika pagrįstas) Teisiniai, atitikties, technologijų vadovai Nemokamas* Rizikos lygiai nustato proporcingas kontrolės priemones didelio poveikio naudojimo būdams Atitikties išlaidos skiriasi [4]
Modelių kortelės ML inžinieriai, projektų vadovai Nemokama Standartizuoja, kas yra modelis, ką jis daro ir kur jis neveikia Straipsnis + pavyzdžiai egzistuoja [5]
Duomenų rinkinio dokumentacija („duomenų lapai“) Duomenų mokslininkai Nemokama Paaiškina duomenų kilmę, aprėptį, sutikimą ir riziką Elkitės su tuo kaip su maistingumo etikete

Gilusis nardymas 1 – Principai veikia, o ne teorija 🏃

  • Sąžiningumas – vertinkite veiklos rezultatus pagal demografinius rodiklius ir kontekstus; bendri rodikliai slepia žalą [3].

  • Atskaitomybė – paskirkite duomenų, modelio ir diegimo sprendimų savininkus. Veskite sprendimų žurnalus.

  • Skaidrumas – naudokite pavyzdines korteles; nurodykite vartotojams, kiek automatizuotas yra sprendimas ir kokios yra teisių gynimo priemonės [5].

  • Žmonių priežiūra – įtraukti žmones į didelės rizikos sprendimų priėmimo procesą, suteikiant realią galią sustabdyti / pakeisti sprendimus (tai aiškiai pabrėžia UNESCO) [1].

  • Privatumas ir saugumas – sumažinkite duomenų kiekį ir juos apsaugokite; atsižvelkite į duomenų nutekėjimą išvados metu ir netinkamą naudojimą.

  • Geradarystė – demonstruokite socialinę naudą, o ne tik paprastus KPI (EBPO apibrėžia šią pusiausvyrą) [2].

Mažas nukrypimas nuo temos: komandos kartais valandų valandas ginčijasi dėl metrikų pavadinimų, ignoruodamos tikrąjį žalos klausimą. Juokinga, kaip taip nutinka.


Gilusis 2-asis tyrimas – rizikos ir kaip jas išmatuoti 📏

Etiškas dirbtinis intelektas tampa konkretus, kai žalą traktuojate kaip išmatuojamą riziką:

  • Konteksto sudarymas – kam tai daro įtaką tiesiogiai ir netiesiogiai? Kokią sprendimų galią turi sistema?

  • Duomenų tinkamumas – reprezentavimas, poslinkis, ženklinimo kokybė, sutikimo keliai.

  • Modelio elgsena – gedimų režimai esant paskirstymo poslinkiui, priešiškiems raginimams arba kenkėjiškai įvestims.

  • Poveikio vertinimas – sunkumas × tikimybė, mažinimo priemonės ir liekamoji rizika.

  • Gyvavimo ciklo kontrolė – nuo ​​problemos formulavimo iki stebėjimo po diegimo.

NIST suskirsto tai į keturias funkcijas, kurias komandos gali atlikti neišradinėdamos dviračio: valdymas, žemėlapių sudarymas, matavimas, valdymas [3].


Išsami apžvalga 3 – dokumentacija, kuri padės jums sutaupyti vėliau 🗂️

Du kuklūs artefaktai gali padaryti daugiau nei bet koks šūkis:

  • Modelių kortelės – kam skirtas modelis, kaip jis buvo įvertintas, kur jis neatitinka lūkesčių, etiniai aspektai ir įspėjimai – trumpi, struktūrizuoti, įskaitomi [5].

  • Duomenų rinkinio dokumentacija („duomenų lapai“) – kodėl šie duomenys egzistuoja, kaip jie buvo surinkti, kas juose dalyvauja, žinomi trūkumai ir rekomenduojami naudojimo būdai.

Jei kada nors teko aiškinti reguliavimo institucijoms ar žurnalistams, kodėl modelis elgėsi netinkamai, padėkosite savo praeities „aš“ už tai, kad parašėte šiuos tekstus. Ateityje pirksite praeities kavą.


Gilusis nardymas 4 – Valdymas, kuris iš tiesų įkanda 🧩

  • Apibrėžkite rizikos pakopas – pasinaudokite rizika pagrįsto požiūrio principu, kad didelį poveikį turintys naudojimo atvejai būtų atidžiau išnagrinėti [4].

  • Etapo vartai – etikos apžvalga priėmimo metu, prieš paleidimą ir po jo. Ne penkiolika vartų. Trijų yra pakankamai.

  • Pareigų atskyrimas – kūrėjai siūlo, rizikos partneriai peržiūri, vadovai pasirašo. Aiškios ribos.

  • Reagavimas į incidentą – kas pristabdo modelį, kaip informuojami vartotojai, kaip atrodo taisomosios priemonės.

  • Nepriklausomi auditai – pirmiausia vidiniai; išoriniai, kai to reikalauja interesai.

  • Mokymai ir paskatos – Skatinkite už problemų išryškėjimą anksti, o ne jų slėpimą.

Būkime atviri: jei valdymas niekada nesako „ne“ , tai nėra valdymas.


5-oji giluminė analizė – žmonės įvykių sūkuryje, o ne kaip rekvizitas 👩⚖️

Žmogaus priežiūra nėra varnelės formos uždėjimas – tai dizaino pasirinkimas:

  • Kai sprendžia žmonės – aiškios ribos, kurias asmuo privalo peržiūrėti, ypač didelės rizikos rezultatus.

  • Paaiškinimas sprendimus priimantiems asmenims – pateikti žmogui ir „ kodėl“ , ir netikrumą .

  • Vartotojų atsiliepimų ciklai – leidžia vartotojams ginčyti arba ištaisyti automatinius sprendimus.

  • Prieinamumas – sąsajos, kurias skirtingi vartotojai gali suprasti ir iš tikrųjų naudoti.

UNESCO gairės čia paprastos: žmogaus orumas ir priežiūra yra esminiai, o ne pasirenkami dalykai. Sukurkite produktą taip, kad žmonės galėtų įsikišti prieš padarant žalą [1].


Papildoma pastaba – kita sritis: neurotechnologijos 🧠

Dirbtiniam intelektui (DI) susikertant su neurotechnologijomis, psichinis privatumas ir minties laisvė tampa realiais dizaino aspektais. Galioja tas pats principas: teisių principais pagrįstas valdymas [1], patikimumu grįstas valdymas [2] ir proporcingos apsaugos priemonės didelės rizikos naudojimo atvejais [4]. Apsaugines ribas reikia kurti anksti, o ne tvirtinti vėliau.


Kaip komandos atsako į klausimą „Kas yra dirbtinio intelekto etika?“ praktiškai – darbo eiga 🧪

Išbandykite šį paprastą ciklą. Jis nėra tobulas, bet atkakliai efektyvus:

  1. Tikslo patikrinimas – kokią žmonių problemą sprendžiame ir kas gauna naudos arba prisiima riziką?

  2. Kontekstinis žemėlapis – suinteresuotosios šalys, aplinka, apribojimai, žinomi pavojai.

  3. Duomenų planas – šaltiniai, sutikimas, reprezentatyvumas, saugojimas, dokumentacija.

  4. Saugus dizainas – konkurencinis testavimas, raudonųjų komandų imitavimas, privatumo užtikrinimas projektuojant.

  5. Apibrėžkite sąžiningumą – pasirinkite sričiai tinkamus rodiklius; dokumentuokite kompromisus.

  6. Paaiškinamumo planas – kas bus paaiškinta, kam ir kaip patvirtinsite naudingumą.

  7. Modelio kortelė – parengkite juodraštį anksti, atnaujinkite jį iš karto, publikuokite paleidimo metu [5].

  8. Valdymo vartai – rizikos peržiūros su atsakingais savininkais; struktūra naudojant NIST funkcijas [3].

  9. Stebėjimas po paleidimo – metrika, įspėjimai apie pokyčius, incidentų aprašai, vartotojų kreipimaisi.

Jei žingsnis atrodo sunkus, pritaikykite jį prie rizikos. Štai kur visa gudrybė. Pernelyg didelis rašybos taisymo roboto kūrimas niekam nepadeda.


Etika ir atitiktis – aštrus, bet būtinas skirtumas 🌶️

  • Etika klausia: ar tai teisinga žmonėms?

  • Atitikties klausimas: ar tai atitinka taisyklių knygą?

Jums reikia abiejų. ES rizika pagrįstas modelis gali būti jūsų atitikties pagrindas, tačiau jūsų etikos programa turėtų siekti daugiau nei minimalius reikalavimus, ypač dviprasmiškais ar naujais naudojimo atvejais [4].

Greita (klaidinga) metafora: paklusnumas yra tvora; etika yra piemuo. Tvora laiko jus ribose; piemuo padeda jums eiti teisingu keliu.


Dažnos klaidos – ir ką daryti vietoj jų 🚧

  • Spąstas: etikos teatras – išgalvoti principai be išteklių.
    Pataisymas: skirti laiko, užsakovų ir peržiūrėti kontrolinius punktus.

  • Spąstas: žalos vidurkinimas – puikūs bendri rodikliai slepia pogrupio nesėkmę.
    Pataisymas: visada vertinkite pagal atitinkamas subpopuliacijas [3].

  • Spąstas: slaptumas, maskuojamas kaip saugumas – detalių slėpimas nuo naudotojų.
    Pataisymas: atskleisti galimybes, ribas ir galimybes paprastais žodžiais [5].

  • Spąstas: auditas pabaigoje – problemų radimas prieš pat paleidimą.
    Pataisymas: pastumkite į kairę – etiką paverskite dizaino ir duomenų rinkimo dalimi.

  • Spąstas: kontroliniai sąrašai be vertinimo – laikomasi formų, o ne prasmės.
    Pataisymas: derinkite šablonus su ekspertų apžvalgomis ir naudotojų tyrimais.


DUK – dalykai, kurių jūsų vis tiek paklaus ❓

Ar dirbtinio intelekto etika yra prieš inovacijas?
Ne. Tai inovacijos, skatinančios naudą. Etika vengia aklaviečių, tokių kaip šališkos sistemos, kurios sukelia neigiamą reakciją ar teisines problemas. EBPO sistema aiškiai skatina saugias inovacijas [2].

Ar to reikia, jei mūsų produktas yra mažos rizikos?
Taip, bet lengvesnis. Naudokite proporcingą kontrolę. Ši rizika pagrįsta idėja yra standartinė ES metode [4].

Kokie dokumentai yra būtini?
Bent jau šie: pagrindinių duomenų rinkinių dokumentai, kiekvieno modelio kortelė ir išleidimo sprendimų žurnalas [5].

Kam priklauso dirbtinio intelekto etika?
Kiekvienas yra atsakingas už elgesį, tačiau produktų, duomenų mokslo ir rizikos komandoms reikia įvardyti atsakomybes. NIST funkcijos yra geras pagrindas [3].


Per ilgai neskaičiau – baigiamosios pastabos 💡

Jei visa tai peržvelgėte, štai esmė: kas yra dirbtinio intelekto etika? Tai praktinė dirbtinio intelekto kūrimo disciplina, kuria žmonės gali pasitikėti. Remkitės plačiai pripažintomis gairėmis – UNESCO požiūriu, orientuotu į teises, ir patikimais EBPO dirbtinio intelekto principais. Naudokite NIST rizikos sistemą, kad ją įgyvendintumėte, ir pateikite pavyzdines korteles bei duomenų rinkinių dokumentaciją, kad jūsų pasirinkimai būtų įskaitomi. Tada nuolat klausykite vartotojų, suinteresuotųjų šalių, savo stebėsenos rezultatų ir koreguokite. Etika nėra vienkartinis dalykas; tai įprotis.

Ir taip, kartais pataisysi kryptį. Tai ne nesėkmė. ​​Toks yra darbas. 🌱


Nuorodos

  1. UNESCO rekomendacija dėl dirbtinio intelekto etikos (2021 m.). Nuoroda

  2. EBPO – Dirbtinio intelekto principai (2019 m.). Nuoroda

  3. NIST – Dirbtinio intelekto rizikos valdymo sistema (AI RMF 1.0) (2023 m.) (PDF). Nuoroda

  4. EUR-Lex – Reglamentas (ES) 2024/1689 (Dirbtinio intelekto įstatymas). Nuoroda

  5. Mitchell ir kt. - „Modelių kortelės modelių ataskaitoms“ (ACM, 2019). Nuoroda


Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį