Trumpas atsakymas: kūrėjai, naudojantys generatyvinį dirbtinį intelektą, yra atsakingi už visą sistemą, o ne tik už modelio rezultatus. Kai dirbtinis intelektas daro įtaką sprendimams, kodui, privatumui ar vartotojų pasitikėjimui, jie turi pasirinkti saugias programas, patikrinti rezultatus, apsaugoti duomenis, sumažinti žalą ir užtikrinti, kad žmonės galėtų peržiūrėti, pakeisti ir ištaisyti klaidas.
Svarbiausios išvados:
Patvirtinimas : apdorotus rezultatus laikykite nepatikimais, kol juos nepatvirtins šaltiniai, testai ar žmonių atliekama peržiūra.
Duomenų apsauga : sumažinkite tiesioginių duomenų kiekį, pašalinkite identifikatorius ir apsaugokite žurnalus, prieigos kontrolę ir tiekėjus.
Sąžiningumas : atlikite testą skirtingose demografinėse grupėse ir kontekstuose, kad nustatytumėte stereotipus ir netolygius nesėkmės modelius.
Skaidrumas : aiškiai pažymėkite dirbtinio intelekto naudojimą, paaiškinkite jo ribas ir pasiūlykite žmonėms peržiūrėti arba pateikti apeliaciją.
Atskaitomybė : Prieš paleidimą priskirkite aiškius diegimo, incidentų, stebėsenos ir atšaukimo atsakingus asmenis.

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:
🔗 Geriausi dirbtinio intelekto įrankiai programinės įrangos kūrėjams: geriausi dirbtinio intelekto valdomi kodavimo asistentai
Palyginkite geriausius dirbtinio intelekto kodavimo asistentus, kad kūrimo darbo eigos būtų greitesnės ir švaresnės.
🔗 10 geriausių dirbtinio intelekto įrankių kūrėjams, skirtų produktyvumui didinti
Kūrėjų dirbtinio intelekto įrankių, skirtų išmanesniam kodavimui ir greičiui, reitinguojamas sąrašas.
🔗 Kodėl dirbtinis intelektas gali būti žalingas visuomenei ir pasitikėjimui
Paaiškina realią žalą: šališkumą, privatumą, darbą ir dezinformacijos riziką.
🔗 Ar dirbtinis intelektas nuėjo per toli priimdamas svarbius sprendimus?
Apibrėžia, kada dirbtinis intelektas peržengia ribas: stebėjimas, giluminiai klastotės, įtikinėjimas, sutikimo nebuvimas.
Kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė yra svarbesnė, nei žmonės mano
Daugybė programinės įrangos klaidų erzina. Mygtukas sugenda. Puslapis kraunasi lėtai. Kažkas užstringa ir visi dejuoja.
Generatyviojo dirbtinio intelekto problemos gali būti skirtingos. Jos gali būti subtilios.
Modelis gali skambėti užtikrintai, nors ir klysta. NIST GenAI profilis Jis gali atkurti šališkumą be akivaizdžių įspėjamųjų ženklų. NIST GenAI profilis Jis gali atskleisti neskelbtinus duomenis, jei naudojamas neatsargiai. OWASP 10 geriausių LLM programoms Aštuoni ICO klausimai apie generatyvinį DI Jis gali sukurti kodą, kuris veikia – kol jis nesugenda gamyboje dėl kažkokio labai gėdingo būdo. OWASP 10 geriausių LLM programoms Panašu į tai, lyg samdytumėte labai entuziastingą praktikantą, kuris niekada nemiega ir retkarčiais su stulbinančiu pasitikėjimu išgalvoja faktus.
Štai kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą (DI), atsakomybė yra didesnė nei paprastas įgyvendinimas. Kūrėjai nebėra tik logikos sistemų kūrėjai. Jie kuria tikimybines sistemas su neaiškiomis briaunomis, nenuspėjamais rezultatais ir realiomis socialinėmis pasekmėmis. NIST DI RMF
Tai reiškia, kad atsakomybė apima:
-
NIST AI RMF modelio ribų supratimas
-
vartotojų privatumo apsauga ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos
-
žalingų išeičių mažinimas NIST GenAI profilis
-
Tikslumo tikrinimas prieš suteikiant pasitikėjimą NIST GenAI profilis
-
aiškiai išdėstant žmogaus vaidmenį EBPO dirbtinio intelekto principus
-
atsarginių kelių kūrimas, kai dirbtinis intelektas neveikia, EBPO dirbtinio intelekto principai, NCSC saugaus dirbtinio intelekto gairės
-
aiškiai dokumentuojant sistemą pagal OECD dirbtinio intelekto principus
Žinote, kaip būna – kai įrankis atrodo stebuklingas, žmonės nustoja juo abejoti. Kūrėjai negali sau leisti tokio atsipalaidavimo.
Kas daro kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybės versiją gera? 🛠️
Gera atsakomybės versija nėra performatyvi. Tai ne tik atsakomybės apribojimo pridėjimas apačioje ir to vadinimas etika. Ji pasireiškia dizaino pasirinkimuose, testavimo įpročiuose ir produkto elgesyje.
Štai kaip paprastai atrodo kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybės
-
NIST AI RMF naudojimas
-
Dirbtinis intelektas naudojamas realiai problemai spręsti, o ne įstumiamas į produktą vien dėl to, kad tai skamba madingai.
-
-
Žmogaus priežiūra OECD dirbtinio intelekto principai
-
Žmonės gali peržiūrėti, taisyti, perrašyti arba atmesti rezultatus.
-
-
Saugumas projektuojant NCSC saugaus dirbtinio intelekto gairės
-
Rizikos kontrolės priemonės įdiegiamos anksti, o ne vėliau priklijuojamos lipnia juosta.
-
-
Skaidrumas EBPO dirbtinio intelekto principai Europos Komisija Dirbtinio intelekto įstatymo apžvalga
-
Vartotojai supranta, kada turinys yra generuojamas dirbtinio intelekto arba padedamas dirbtinio intelekto.
-
-
duomenų priežiūros ICO klausimai generatyviniam dirbtiniam intelektui
-
Su slapta informacija elgiamasi atsargiai, o prieiga prie jos yra ribota.
-
-
Sąžiningumo patikrinimai NIST GenAI profilis ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos
-
Sistema yra testuojama dėl šališkumo, netolygaus veikimo ir žalingų modelių.
-
-
Nuolatinė stebėsena NIST AI RMF NCSC saugaus AI gairės
-
Paleidimas nėra finišo linija. Tai labiau panašu į starto švilpuką.
-
Jei tai skamba daug, na... taip ir yra. Bet taip yra, kai dirbi su technologijomis, kurios gali daryti įtaką sprendimams, įsitikinimams ir elgesiui dideliu mastu. OECD dirbtinio intelekto principai.
Palyginimo lentelė – pagrindinė generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybė trumpai 📋
| Atsakomybės sritis | Kam tai daro įtaką | Kasdienė kūrėjo praktika | Kodėl tai svarbu |
|---|---|---|---|
| Tikslumas ir patikrinimas | vartotojai, komandos, klientai | Peržiūrėkite rezultatus, pridėkite patvirtinimo sluoksnius, išbandykite kraštinius atvejus | Dirbtinis intelektas gali būti sklandus ir vis tiek smarkiai klysti – tai yra apytikslis derinys (NIST GenAI profilis) |
| Privatumo apsauga | vartotojai, klientai, vidiniai darbuotojai | Sumažinkite neskelbtinų duomenų naudojimą, ištrinkite raginimus, valdykite žurnalus | Kai nuteka privatūs duomenys, dantų pasta išimama iš tūbelės 😬 Aštuoni ICO klausimai generatyviniam dirbtiniam intelektui OWASP: 10 geriausių LLM programų kūrėjams |
| Šališkumas ir sąžiningumas | nepakankamai atstovaujamos grupės, visi vartotojai iš tikrųjų | Audito rezultatai, įvairių įvesties duomenų testavimas, apsaugos priemonių derinimas | Žala ne visada garsi – kartais ji sisteminga ir tyli. NIST GenAI profilis. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos. |
| Saugumas | įmonės sistemos, vartotojai | Apriboti prieigą prie modelio, apsisaugoti nuo greito įterpimo, atlikti rizikingus veiksmus smėlio dėžėje | Vienas sumanus išnaudojimas gali greitai sugriauti pasitikėjimą. OWASP 10 geriausių LLM programų. NCSC apie dirbtinį intelektą ir kibernetinį saugumą. |
| Skaidrumas | galutiniai vartotojai, reguliuotojai, palaikymo komandos | Aiškiai pažymėkite dirbtinio intelekto elgesį, paaiškinkite ribas, dokumentuokite naudojimą | Žmonės nusipelno žinoti, kada mašina padeda. OECD dirbtinio intelekto principai. Dirbtinio intelekto sukurto turinio žymėjimo ir ženklinimo praktikos kodeksas. |
| Atskaitomybė | produktų savininkai, teisininkai, kūrėjų komandos | Apibrėžkite atsakomybę, incidentų valdymą, eskalavimo kelius | „Dirbtinis intelektas tai padarė“ nėra suaugusiojo atsakymas. OECD dirbtinio intelekto principai. |
| Patikimumas | visi, kurie liečia produktą | Stebėkite gedimus, nustatykite patikimumo ribas, sukurkite atsarginę logiką | Modeliai nukrypsta nuo temos, netikėtai sugenda ir retkarčiais patiria dramatišką epizodą. NIST AI RMF NCSC saugaus AI gairės |
| Vartotojo gerovė | pažeidžiami vartotojai, ypač | Venkite manipuliacinio dizaino, apribokite žalingą rezultatą, peržiūrėkite didelės rizikos naudojimo atvejus | Vien dėl to, kad kažką galima sugeneruoti, dar nereiškia, kad tai turėtų būti OECD dirbtinio intelekto principai, NIST dirbtinio intelekto RMF. |
Šiek tiek nelygus stalas, žinoma, bet tai tinka temai. Tikroji atsakomybė irgi nelygi.
Atsakomybė prasideda dar prieš pirmą raginimą – tinkamo naudojimo atvejo pasirinkimas 🎯
Viena didžiausių kūrėjų pareigų yra nuspręsti, ar generatyvinis dirbtinis intelektas apskritai turėtų būti naudojamas . NIST AI RMF.
Tai skamba akivaizdžiai, bet tai nuolat praleidžiama. Komandos pamato modelį, susijaudina ir pradeda jį diegti darbo eigose, kurias geriau tvarkytų taisyklės, paieška ar įprasta programinės įrangos logika. Ne kiekvienai problemai reikia kalbos modelio. Kai kurioms problemoms reikia duomenų bazės ir ramaus popietės laiko.
Prieš statydami statytojai turėtų paklausti:
-
Ar užduotis yra atvira, ar deterministinė?
-
Ar neteisingas išvesties signalas gali pakenkti?
-
Ar vartotojams reikia kūrybiškumo, numatymo, apibendrinimo, automatizavimo – ar tiesiog greičio?
-
Ar žmonės per daug pasitikės rezultatais? NIST GenAI profilis
-
Ar žmogus gali realistiškai peržiūrėti rezultatus? OECD dirbtinio intelekto principai
-
Kas nutinka, kai modelis yra neteisingas? OECD dirbtinio intelekto principai
Atsakingas vystytojas ne tik klausia: „Ar galime tai pastatyti?“. Jis klausia: „Ar tai reikėtų statyti tokiu būdu?“ . NIST AI RMF
Jau vien šis klausimas užkerta kelią daugybei nesąmonių.
Tikslumas yra atsakomybė, o ne papildoma savybė ✅
Pasakykime aiškiai – vienas didžiausių generatyvinio dirbtinio intelekto spąstų yra iškalbos painiojimas su tiesa. Modeliai dažnai pateikia atsakymus, kurie skamba išbaigtai, struktūriškai ir labai įtikinamai. Tai puiku, kol turinys netampa nesąmone, įvyniota į konfidencialumą. NIST GenAI profilis
Taigi kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė apima ir kūrimą patikrinimui.
Tai reiškia:
-
naudojant iškėlimą arba įžeminimą, kur įmanoma , NIST GenAI profilis
-
atskirti sugeneruotą turinį nuo patvirtintų faktų EBPO dirbtinio intelekto principai
-
atsargiai pridedant pasitikėjimo ribas NIST AI RMF
-
kuriant peržiūros darbo eigas svarbiems rezultatams, OECD dirbtinio intelekto principams
-
neleidžia modeliui improvizuoti kritiniuose kontekstuose NIST GenAI profilis
-
testavimo užklausos, kurios bando sugadinti arba suklaidinti sistemą. OWASP Top 10 LLM programoms.
Tai labai svarbu tokiose srityse kaip:
-
sveikatos priežiūra
-
finansai
-
teisiniai darbo eigos
-
išsilavinimas
-
klientų aptarnavimas
-
įmonės automatizavimas
-
kodo generavimas
Pavyzdžiui, sugeneruotas kodas gali atrodyti tvarkingai, tačiau paslėpti saugumo trūkumai ar logikos klaidos. Kūrėjas, kuris jį aklai kopijuoja, nėra efektyvus – jis tiesiog perduoda riziką gražesniu formatu. OWASP 10 geriausių LLM programų NCSC apie dirbtinį intelektą ir kibernetinį saugumą
Modelis gali padėti. Rezultatas vis tiek priklauso kūrėjui. OECD dirbtinio intelekto principai.
Privatumas ir duomenų tvarkymas yra nederybų objektas 🔐
Štai čia viskas greitai pasidaro rimtu. Generatyviosios dirbtinio intelekto sistemos dažnai remiasi raginimais, žurnalais, kontekstiniais langais, atminties sluoksniais, analitika ir trečiųjų šalių infrastruktūra. Tai sukuria daug galimybių, kad jautrūs duomenys nutekės, išliks arba bus pakartotinai panaudoti taip, kaip vartotojai niekada nesitikėjo. Aštuoni ICO klausimai apie generatyvinę dirbtinio intelekto sistemą: OWASP Top 10 for LLM Applications.
Kūrėjai privalo apsaugoti:
-
asmeninė informacija
-
finansiniai įrašai
-
medicininė informacija
-
vidiniai įmonės duomenys
-
komercinės paslaptys
-
autentifikavimo žetonai
-
klientų komunikacijos
Atsakinga praktika apima:
-
(ICO) įtraukiamų duomenų kiekio mažinimas, aštuoni generatyvinio dirbtinio intelekto (DI) modelio ICO klausimai.
-
identifikatorių maskavimas arba šalinimas NIST GenAI profilis
-
žurnalų saugojimo ribojimas ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos
-
kontroliuoti, kas gali pasiekti raginimus ir išvestis. OWASP 10 geriausių LLM programų
-
atidžiai peržiūrėdami tiekėjo nustatymus NCSC saugaus dirbtinio intelekto gairėse
-
didelės rizikos darbo eigų izoliavimas NCSC saugaus dirbtinio intelekto gairės
-
privatumo elgesio matomumas vartotojams: aštuoni ICO klausimai generatyviniam dirbtiniam intelektui
Tai viena iš tų sričių, kur „pamiršome apie tai pagalvoti“ nėra maža klaida. Tai pasitikėjimą griaunanti nesėkmė.
Ir pasitikėjimas, kartą suskilęs, plinta kaip nukritęs stiklas. Galbūt ne pati taikliausia metafora, bet jūs suprantate.
Šališkumas, sąžiningumas ir atstovavimas – tylesnės pareigos ⚖️
Generatyviojo dirbtinio intelekto šališkumas retai kada yra animacinis piktadarys. Paprastai jis yra dar labiau apgaulingas. Modelis gali pateikti stereotipinius pareigybių aprašymus, nevienodus moderavimo sprendimus, nesubalansuotas rekomendacijas arba kultūriškai siauras prielaidas, nesukeldamas akivaizdžių pavojaus signalų. NIST GenAI profilis
Štai kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė apima aktyvų darbą sąžiningumo srityje.
Kūrėjai turėtų:
-
testo užduotys iš skirtingų demografinių grupių ir kontekstų NIST GenAI profilis
-
NIST GenAI profilio peržiūros rezultatai, susiję su stereotipais ir išskyrimu
-
į vertinimo procesą įtraukite įvairius požiūrius NIST AI RMF
-
Stebėkite netolygius gedimų modelius NIST GenAI profilis
-
venkite manyti, kad vienas kalbos stilius ar kultūros norma tinka visiems; ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos.
-
sukurti pranešimo kanalus apie žalingą išvestį NIST AI RMF
Sistema gali atrodyti gerai veikianti apskritai, tačiau kai kuriems vartotojams ji gali būti prasčiau aptarnaujama nei kitiems. Tai nepriimtina vien dėl to, kad vidutinis našumas prietaisų skydelyje atrodo gerai. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos NIST GenAI profilis
Taip, teisingumas yra sudėtingesnis nei tvarkingas kontrolinis sąrašas. Jame yra nuovokos. Konteksto. Kompromisų. Taip pat ir šiek tiek diskomforto. Tačiau tai neatleidžia nuo atsakomybės – ją patvirtina. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos.
Saugumas dabar yra iš dalies greitas projektavimas, iš dalies inžinerijos disciplina 🧱
Generatyvus DI saugumas yra savotiškas žvėris. Tradicinių programų saugumas, žinoma, vis dar svarbus, tačiau DI sistemos prideda neįprastų atakų paviršių: greitas injekcijos būdas, netiesioginis greitas manipuliavimas, nesaugus įrankių naudojimas, duomenų nutekėjimas per kontekstą ir modelio netinkamas naudojimas per automatizuotas darbo eigas. OWASP 10 geriausių LLM programų NCSC apie DI ir kibernetinį saugumą
Kūrėjai yra atsakingi už visos sistemos, o ne tik sąsajos, saugumą. NCSC saugaus dirbtinio intelekto gairės.
Pagrindinės pareigos čia apima:
-
nepatikimos įvesties valymas OWASP 10 geriausių LLM programų
-
apriboti, kokius įrankius modelis gali vadinti OWASP Top 10 LLM programoms
-
failų ir tinklo prieigos ribojimas NCSC saugaus dirbtinio intelekto gairės
-
aiškiai atskiriant teises NCSC saugaus dirbtinio intelekto gairėse
-
piktnaudžiavimo modelių stebėjimas NCSC saugaus dirbtinio intelekto gairės
-
greitį ribojantys brangūs arba rizikingi veiksmai. OWASP 10 geriausių LLM programų
-
Priešiškų raginimų testavimas. OWASP 10 geriausių LLM programų
-
saugių atsarginių sprendimų kūrimas, kai instrukcijos prieštarauja OECD dirbtinio intelekto principams
Viena nemaloni tiesa yra ta, kad vartotojai – ir užpuolikai – tikrai išbandys tai, ko kūrėjai nesitikėjo. Vieni iš smalsumo, kiti – iš piktos valios, o treti – todėl, kad 2 val. nakties spustelėjo ne tą elementą. Taip nutinka.
Generatyvaus dirbtinio intelekto saugumas labiau primena labai kalbaus vartininko, kurį kartais apgauna frazavimas, valdymą, o ne sienos statymą.
Skaidrumas ir naudotojų sutikimas yra svarbesni nei prašmatni naudotojo patirtis 🗣️
Kai vartotojai sąveikauja su dirbtiniu intelektu, jie turėtų tai žinoti. EBPO dirbtinio intelekto principų praktikos kodeksas dėl dirbtinio intelekto sukurto turinio žymėjimo ir ženklinimo
Ne miglotai. Ne užgožtai žodžiais. Akivaizdu.
Pagrindinė generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybės yra užtikrinti, kad vartotojai suprastų:
-
kai naudojamas dirbtinis intelektas, vadovaujamasi EBPO dirbtinio intelekto principais
-
ką dirbtinis intelektas gali ir ko negali padaryti EBPO dirbtinio intelekto principai
-
ar rezultatus peržiūri žmonės, EBPO dirbtinio intelekto principai
-
kaip apdorojami jų duomenys. Aštuoni ICO klausimai apie generatyvinį dirbtinį intelektą.
-
kokį pasitikėjimo lygį jie turėtų turėti NIST AI RMF
-
kaip pranešti apie problemas arba apskųsti sprendimus; EBPO dirbtinio intelekto principai; NIST dirbtinio intelekto RMF.
Skaidrumas yra ne vartotojų gąsdinimas, o pagarba jiems.
Geras skaidrumas gali apimti:
-
etiketės, pvz., dirbtinio intelekto sukurtas arba dirbtinio intelekto pagalba parengtas dirbtinio intelekto sukurto turinio žymėjimo ir ženklinimo praktikos kodeksas
-
aiškių kalbos paaiškinimų OECD dirbtinio intelekto principai
-
matomos redagavimo istorijos, jei reikia
-
DI funkcijų išjungimo parinktys
-
prireikus – eskalavimas žmogui. OECD dirbtinio intelekto principai
-
Glausti įspėjimai apie didelės rizikos užduotis Europos Komisijos Dirbtinio intelekto įstatymo apžvalga
Daugelis produktų komandų nerimauja, kad sąžiningumas sumažins funkcijos magijos įspūdį. Galbūt. Tačiau klaidingas tikrumas yra dar blogiau. Sklandi sąsaja, kurioje slepiama rizika, iš esmės yra nušlifuota painiava.
Kūrėjai lieka atsakingi – net kai modelis „priima sprendimą“ 👀
Ši dalis labai svarbi. Atsakomybės negalima perduoti modelio tiekėjui, modelio kortelei, raginimo šablonui ar paslaptingai mašininio mokymosi atmosferai. OECD dirbtinio intelekto principai , NIST dirbtinio intelekto RMF.
Kūrėjai vis dar atsakingi. OECD dirbtinio intelekto principai
Tai reiškia, kad kažkas iš komandos turėtų turėti:
-
modelio pasirinkimas NIST AI RMF
-
testavimo standartai NIST GenAI profilis
-
išleidimo kriterijai NIST GenAI profilis
-
incidentų reagavimas NCSC saugaus dirbtinio intelekto gairės
-
vartotojų skundų nagrinėjimas NIST AI RMF
-
atšaukimo procedūros EBPO dirbtinio intelekto principai
-
pokyčių stebėjimas EBPO dirbtinio intelekto principai
-
dokumentacija OECD dirbtinio intelekto principai
Turėtų būti aiškūs atsakymai į tokius klausimus kaip:
-
Kas tvirtina diegimą? NIST GenAI profilis
-
Kas peržiūri žalingo išvesties incidentus? NIST GenAI profilis
-
Kas gali išjungti šią funkciją? OECD dirbtinio intelekto principai
-
Kas stebi regresijas? NIST AI RMF
-
Kas bendrauja su naudotojais, kai kas nors sugenda? OECD dirbtinio intelekto principai
Be nuosavybės jausmo atsakomybė virsta rūku. Visi mano, kad kažkas kitas ją tvarko... o tada niekas to nedaro.
Tiesą sakant, šis modelis yra senesnis nei dirbtinis intelektas. Dirbtinis intelektas jį tiesiog padaro pavojingesnį.
Atsakingi kūrėjai kuria siekdami taisymų, o ne tobulumo 🔄
Štai mažas netikėtumas visoje šioje situacijoje: atsakingas dirbtinio intelekto kūrimas nereiškia apsimetinėjimo, kad sistema bus tobula. Tai reiškia manyti, kad ji kažkaip suges, ir kurti atsižvelgiant į šią realybę. NIST dirbtinio intelekto RMF
Tai reiškia, kad reikia kurti produktus, kurie yra:
-
audituojamų EBPO dirbtinio intelekto principų
-
sprendimus ir rezultatus galima peržiūrėti vėliau
-
-
pertraukiamieji OECD dirbtinio intelekto principai
-
žmonės gali sustabdyti arba panaikinti blogą elgesį
-
-
atkuriamų EBPO dirbtinio intelekto principų
-
Kai dirbtinio intelekto išvestis yra neteisinga, yra atsarginis sprendimas
-
-
stebimos NCSC saugios dirbtinio intelekto gairės NIST dirbtinio intelekto RMF
-
komandos gali pastebėti modelius, kol jie netampa katastrofomis
-
-
tobulinamas NIST GenAI profilis
-
grįžtamojo ryšio kilpos egzistuoja, ir kažkas jas skaito
-
Štai kaip atrodo branda. Ne blizgančios demonstracijos. Ne kvapą gniaužiantis rinkodaros tekstas. Tikros sistemos su apsauginiais turėklais, žurnalais, atskaitomybe ir pakankamai nuolankumu, kad pripažintų, jog mašina nėra burtininkė. NCSC saugaus dirbtinio intelekto gairės, EBPO dirbtinio intelekto principai.
Nes taip nėra. Tai įrankis. Galingas, taip. Bet vis tiek įrankis.
Baigiamosios mintys apie kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybę 🌍
Taigi, kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė ?
Tai reiškia kurti atsargiai. Abejoti, kur sistema padeda, o kur kenkia. Apsaugoti privatumą. Tikrinti šališkumą. Tikrinti rezultatus. Užtikrinti darbo eigos saugumą. Būti skaidriam vartotojų atžvilgiu. Išlaikyti žmones prasmingoje kontrolėje. Išlikti atsakingiems, kai kas nors nepavyksta. NIST AI RMF OECD DI principai
Tai gali skambėti sunkiai – ir taip yra. Tačiau tai taip pat skiria apgalvotą kūrimą nuo neapgalvotos automatizacijos.
Geriausi generatyvinio dirbtinio intelekto kūrėjai nėra tie, kurie priverčia modelį atlikti daugiausiai triukų. Jie supranta tų triukų pasekmes ir atitinkamai kuria. Jie žino, kad greitis svarbus, bet tikrasis produktas yra pasitikėjimas. Keista, bet ši senamadiška idėja vis dar aktuali. NIST dirbtinio intelekto RMF
Galiausiai atsakomybė nėra kliūtis inovacijoms. Ji neleidžia inovacijoms tapti brangia, audringa plėtra su nušlifuota sąsaja ir pasitikėjimo problema 😬✨
Ir galbūt tai yra paprasčiausia versija.
Žinoma, kurkite drąsiai, bet kurkite taip, lyg tai paveiktų žmones, nes jie ir yra. EBPO dirbtinio intelekto principai
DUK
Kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą praktikoje, atsakomybė?
Generatyvųjį dirbtinį intelektą naudojančių kūrėjų atsakomybė apima daug daugiau nei greitą funkcijų diegimą. Ji apima tinkamo naudojimo atvejo pasirinkimą, rezultatų testavimą, privatumo apsaugą, žalingo elgesio mažinimą ir sistemos suprantamumo užtikrinimą vartotojams. Praktiškai kūrėjai išlieka atsakingi už tai, kaip įrankis yra sukurtas, stebimas, taisomas ir valdomas jam sugedus.
Kodėl generatyvinei dirbtiniam intelektui reikia daugiau kūrėjo atsakomybės nei įprastai programinei įrangai?
Tradicinės klaidos dažnai yra akivaizdžios, tačiau generatyvinio dirbtinio intelekto nesėkmės gali skambėti nušlifuotai, tačiau vis tiek būti klaidingos, šališkos ar rizikingos. Dėl to problemas sunkiau pastebėti ir vartotojams lengviau jomis per klaidą pasitikėti. Kūrėjai dirba su tikimybinėmis sistemomis, todėl atsakomybė apima neapibrėžtumo valdymą, žalos ribojimą ir pasiruošimą nenuspėjamiems rezultatams prieš paleidimą.
Kaip kūrėjai žino, kada nereikėtų naudoti generatyvinio dirbtinio intelekto?
Įprastas atspirties taškas yra klausimas, ar užduotis yra atvira, ar ją geriau atlikti taisyklėmis, paieška ar standartine programinės įrangos logika. Kūrėjai taip pat turėtų apsvarstyti, kiek žalos gali padaryti neteisingas atsakymas ir ar žmogus gali realiai peržiūrėti rezultatus. Atsakingas naudojimas kartais reiškia sprendimą visai nenaudoti generatyvinio dirbtinio intelekto.
Kaip kūrėjai gali sumažinti haliucinacijų ir neteisingų atsakymų skaičių generatyvinio dirbtinio intelekto sistemose?
Tikslumas turi būti suplanuotas, o ne numatomas. Daugelyje procesų tai reiškia, kad išvesties duomenys turi būti pagrįsti patikimais šaltiniais, sugeneruotas tekstas turi būti atskirtas nuo patikrintų faktų, o didesnės rizikos užduotims – naudojami peržiūros procesai. Kūrėjai taip pat turėtų išbandyti raginimus, kuriais siekiama suklaidinti sistemą, ypač tokiose srityse kaip kodas, palaikymas, finansai, švietimas ir sveikatos priežiūra.
Kokia yra generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybė už privatumą ir jautrius duomenis?
Generatyvųjį dirbtinį intelektą naudojančių kūrėjų atsakomybė apima į modelį patenkančių duomenų kiekio mažinimą ir raginimų, žurnalų bei išvesčių traktavimą kaip jautrius duomenis. Kūrėjai turėtų, jei įmanoma, pašalinti identifikatorius, apriboti duomenų saugojimą, kontroliuoti prieigą ir atidžiai peržiūrėti tiekėjo nustatymus. Vartotojai taip pat turėtų suprasti, kaip tvarkomi jų duomenys, o ne vėliau atrasti riziką.
Kaip kūrėjai turėtų spręsti šališkumo ir sąžiningumo klausimus generatyvinio dirbtinio intelekto rezultatuose?
Šališkumo vertinimas reikalauja aktyvaus vertinimo, o ne prielaidų. Praktinis metodas yra išbandyti užduotis skirtingose demografinėse grupėse, kalbose ir kontekstuose, o tada peržiūrėti rezultatus, siekiant nustatyti stereotipus, išskyrimus ar netolygius nesėkmės modelius. Kūrėjai taip pat turėtų sukurti būdus, kaip vartotojai ar komandos galėtų pranešti apie žalingą elgesį, nes sistema gali atrodyti stipri apskritai, tačiau vis tiek nuolat nesėkmingai elgtis tam tikrose grupėse.
Kokias saugumo rizikas kūrėjai turi apsvarstyti naudodami generatyvinį dirbtinį intelektą?
Generatyvusis dirbtinis intelektas pristato naujus atakų paviršius, įskaitant greitą injekciją, nesaugų įrankių naudojimą, duomenų nutekėjimą per kontekstą ir automatizuotų veiksmų piktnaudžiavimą. Kūrėjai turėtų išvalyti nepatikimą įvestį, apriboti įrankių teises, apriboti prieigą prie failų ir tinklo bei stebėti netinkamo naudojimo modelius. Saugumas susijęs ne tik su sąsaja; jis taikomas visam modelio darbo eigai.
Kodėl skaidrumas yra svarbus kuriant naudojant generatyvinį dirbtinį intelektą?
Vartotojai turėtų aiškiai žinoti, kada dalyvauja dirbtinis intelektas, ką jis gali padaryti ir kur yra jo ribos. Geras skaidrumas gali apimti tokias žymas kaip dirbtinio intelekto generuojamas arba dirbtinio intelekto padedamas, paprastus paaiškinimus ir aiškius kelius gauti žmonių pagalbą. Toks atvirumas nesusilpnina produkto; jis padeda vartotojams įvertinti pasitikėjimą ir priimti geresnius sprendimus.
Kas atsakingas, kai generatyvinio dirbtinio intelekto funkcija padaro žalą arba sukelia kokių nors problemų?
Kūrėjai ir produktų komandos vis tiek yra atsakingi už rezultatą, net jei atsakymą pateikia modelis. Tai reiškia, kad turėtų būti aiški atsakomybė už diegimo patvirtinimą, incidentų tvarkymą, atšaukimą, stebėjimą ir bendravimą su vartotojais. Nepakanka vien „modelio sprendimo“, nes atsakomybė turi likti tiems žmonėms, kurie sukūrė ir paleido sistemą.
Kaip atrodo atsakingas generatyvinio dirbtinio intelekto kūrimas po paleidimo?
Atsakingas kūrimas tęsiasi ir po išleidimo, vykdant stebėseną, grįžtamąjį ryšį, peržiūrą ir taisymą. Stiprios sistemos yra audituojamos, pertraukiamos, atkuriamos ir suprojektuotos su atsarginiais keliais, kai dirbtinis intelektas sugenda. Tikslas nėra tobulumas; siekiama sukurti kažką, ką būtų galima saugiai ištirti, patobulinti ir koreguoti, kai iškyla realaus pasaulio problemų.
Nuorodos
-
Nacionalinis standartų ir technologijų institutas (NIST) – NIST GenAI profilis – nvlpubs.nist.gov
-
OWASP – OWASP 10 geriausių LLM programų – owasp.org
-
Informacijos komisaro biuras (ICO) – aštuoni ICO klausimai apie generatyvųjį dirbtinį intelektą – ico.org.uk