Kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė?

Kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė?

Trumpas atsakymas: kūrėjai, naudojantys generatyvinį dirbtinį intelektą, yra atsakingi už visą sistemą, o ne tik už modelio rezultatus. Kai dirbtinis intelektas daro įtaką sprendimams, kodui, privatumui ar vartotojų pasitikėjimui, jie turi pasirinkti saugias programas, patikrinti rezultatus, apsaugoti duomenis, sumažinti žalą ir užtikrinti, kad žmonės galėtų peržiūrėti, pakeisti ir ištaisyti klaidas.

Svarbiausios išvados:

Patvirtinimas : apdorotus rezultatus laikykite nepatikimais, kol juos nepatvirtins šaltiniai, testai ar žmonių atliekama peržiūra.

Duomenų apsauga : sumažinkite tiesioginių duomenų kiekį, pašalinkite identifikatorius ir apsaugokite žurnalus, prieigos kontrolę ir tiekėjus.

Sąžiningumas : atlikite testą skirtingose ​​demografinėse grupėse ir kontekstuose, kad nustatytumėte stereotipus ir netolygius nesėkmės modelius.

Skaidrumas : aiškiai pažymėkite dirbtinio intelekto naudojimą, paaiškinkite jo ribas ir pasiūlykite žmonėms peržiūrėti arba pateikti apeliaciją.

Atskaitomybė : Prieš paleidimą priskirkite aiškius diegimo, incidentų, stebėsenos ir atšaukimo atsakingus asmenis.

Kokia yra generatyvinio dirbtinio intelekto kūrėjų atsakomybė? Infografika

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Geriausi dirbtinio intelekto įrankiai programinės įrangos kūrėjams: geriausi dirbtinio intelekto valdomi kodavimo asistentai
Palyginkite geriausius dirbtinio intelekto kodavimo asistentus, kad kūrimo darbo eigos būtų greitesnės ir švaresnės.

🔗 10 geriausių dirbtinio intelekto įrankių kūrėjams, skirtų produktyvumui didinti
Kūrėjų dirbtinio intelekto įrankių, skirtų išmanesniam kodavimui ir greičiui, reitinguojamas sąrašas.

🔗 Kodėl dirbtinis intelektas gali būti žalingas visuomenei ir pasitikėjimui
Paaiškina realią žalą: šališkumą, privatumą, darbą ir dezinformacijos riziką.

🔗 Ar dirbtinis intelektas nuėjo per toli priimdamas svarbius sprendimus?
Apibrėžia, kada dirbtinis intelektas peržengia ribas: stebėjimas, giluminiai klastotės, įtikinėjimas, sutikimo nebuvimas.

Kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė yra svarbesnė, nei žmonės mano

Daugybė programinės įrangos klaidų erzina. Mygtukas sugenda. Puslapis kraunasi lėtai. Kažkas užstringa ir visi dejuoja.

Generatyviojo dirbtinio intelekto problemos gali būti skirtingos. Jos gali būti subtilios.

Modelis gali skambėti užtikrintai, nors ir klysta. NIST GenAI profilis Jis gali atkurti šališkumą be akivaizdžių įspėjamųjų ženklų. NIST GenAI profilis Jis gali atskleisti neskelbtinus duomenis, jei naudojamas neatsargiai. OWASP 10 geriausių LLM programoms Aštuoni ICO klausimai apie generatyvinį DI Jis gali sukurti kodą, kuris veikia – kol jis nesugenda gamyboje dėl kažkokio labai gėdingo būdo. OWASP 10 geriausių LLM programoms Panašu į tai, lyg samdytumėte labai entuziastingą praktikantą, kuris niekada nemiega ir retkarčiais su stulbinančiu pasitikėjimu išgalvoja faktus.

Štai kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą (DI), atsakomybė yra didesnė nei paprastas įgyvendinimas. Kūrėjai nebėra tik logikos sistemų kūrėjai. Jie kuria tikimybines sistemas su neaiškiomis briaunomis, nenuspėjamais rezultatais ir realiomis socialinėmis pasekmėmis. NIST DI RMF

Tai reiškia, kad atsakomybė apima:

Žinote, kaip būna – kai įrankis atrodo stebuklingas, žmonės nustoja juo abejoti. Kūrėjai negali sau leisti tokio atsipalaidavimo.

Kas daro kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybės versiją gera? 🛠️

Gera atsakomybės versija nėra performatyvi. Tai ne tik atsakomybės apribojimo pridėjimas apačioje ir to vadinimas etika. Ji pasireiškia dizaino pasirinkimuose, testavimo įpročiuose ir produkto elgesyje.

Štai kaip paprastai atrodo kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybės

Jei tai skamba daug, na... taip ir yra. Bet taip yra, kai dirbi su technologijomis, kurios gali daryti įtaką sprendimams, įsitikinimams ir elgesiui dideliu mastu. OECD dirbtinio intelekto principai.

Palyginimo lentelė – pagrindinė generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybė trumpai 📋

Atsakomybės sritis Kam tai daro įtaką Kasdienė kūrėjo praktika Kodėl tai svarbu
Tikslumas ir patikrinimas vartotojai, komandos, klientai Peržiūrėkite rezultatus, pridėkite patvirtinimo sluoksnius, išbandykite kraštinius atvejus Dirbtinis intelektas gali būti sklandus ir vis tiek smarkiai klysti – tai yra apytikslis derinys (NIST GenAI profilis)
Privatumo apsauga vartotojai, klientai, vidiniai darbuotojai Sumažinkite neskelbtinų duomenų naudojimą, ištrinkite raginimus, valdykite žurnalus Kai nuteka privatūs duomenys, dantų pasta išimama iš tūbelės 😬 Aštuoni ICO klausimai generatyviniam dirbtiniam intelektui OWASP: 10 geriausių LLM programų kūrėjams
Šališkumas ir sąžiningumas nepakankamai atstovaujamos grupės, visi vartotojai iš tikrųjų Audito rezultatai, įvairių įvesties duomenų testavimas, apsaugos priemonių derinimas Žala ne visada garsi – kartais ji sisteminga ir tyli. NIST GenAI profilis. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos.
Saugumas įmonės sistemos, vartotojai Apriboti prieigą prie modelio, apsisaugoti nuo greito įterpimo, atlikti rizikingus veiksmus smėlio dėžėje Vienas sumanus išnaudojimas gali greitai sugriauti pasitikėjimą. OWASP 10 geriausių LLM programų. NCSC apie dirbtinį intelektą ir kibernetinį saugumą.
Skaidrumas galutiniai vartotojai, reguliuotojai, palaikymo komandos Aiškiai pažymėkite dirbtinio intelekto elgesį, paaiškinkite ribas, dokumentuokite naudojimą Žmonės nusipelno žinoti, kada mašina padeda. OECD dirbtinio intelekto principai. Dirbtinio intelekto sukurto turinio žymėjimo ir ženklinimo praktikos kodeksas.
Atskaitomybė produktų savininkai, teisininkai, kūrėjų komandos Apibrėžkite atsakomybę, incidentų valdymą, eskalavimo kelius „Dirbtinis intelektas tai padarė“ nėra suaugusiojo atsakymas. OECD dirbtinio intelekto principai.
Patikimumas visi, kurie liečia produktą Stebėkite gedimus, nustatykite patikimumo ribas, sukurkite atsarginę logiką Modeliai nukrypsta nuo temos, netikėtai sugenda ir retkarčiais patiria dramatišką epizodą. NIST AI RMF NCSC saugaus AI gairės
Vartotojo gerovė pažeidžiami vartotojai, ypač Venkite manipuliacinio dizaino, apribokite žalingą rezultatą, peržiūrėkite didelės rizikos naudojimo atvejus Vien dėl to, kad kažką galima sugeneruoti, dar nereiškia, kad tai turėtų būti OECD dirbtinio intelekto principai, NIST dirbtinio intelekto RMF.

Šiek tiek nelygus stalas, žinoma, bet tai tinka temai. Tikroji atsakomybė irgi nelygi.

Atsakomybė prasideda dar prieš pirmą raginimą – tinkamo naudojimo atvejo pasirinkimas 🎯

Viena didžiausių kūrėjų pareigų yra nuspręsti, ar generatyvinis dirbtinis intelektas apskritai turėtų būti naudojamas . NIST AI RMF.

Tai skamba akivaizdžiai, bet tai nuolat praleidžiama. Komandos pamato modelį, susijaudina ir pradeda jį diegti darbo eigose, kurias geriau tvarkytų taisyklės, paieška ar įprasta programinės įrangos logika. Ne kiekvienai problemai reikia kalbos modelio. Kai kurioms problemoms reikia duomenų bazės ir ramaus popietės laiko.

Prieš statydami statytojai turėtų paklausti:

Atsakingas vystytojas ne tik klausia: „Ar galime tai pastatyti?“. Jis klausia: „Ar tai reikėtų statyti tokiu būdu?“ . NIST AI RMF

Jau vien šis klausimas užkerta kelią daugybei nesąmonių.

Tikslumas yra atsakomybė, o ne papildoma savybė ✅

Pasakykime aiškiai – vienas didžiausių generatyvinio dirbtinio intelekto spąstų yra iškalbos painiojimas su tiesa. Modeliai dažnai pateikia atsakymus, kurie skamba išbaigtai, struktūriškai ir labai įtikinamai. Tai puiku, kol turinys netampa nesąmone, įvyniota į konfidencialumą. NIST GenAI profilis

Taigi kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė apima ir kūrimą patikrinimui.

Tai reiškia:

Tai labai svarbu tokiose srityse kaip:

  • sveikatos priežiūra

  • finansai

  • teisiniai darbo eigos

  • išsilavinimas

  • klientų aptarnavimas

  • įmonės automatizavimas

  • kodo generavimas

Pavyzdžiui, sugeneruotas kodas gali atrodyti tvarkingai, tačiau paslėpti saugumo trūkumai ar logikos klaidos. Kūrėjas, kuris jį aklai kopijuoja, nėra efektyvus – jis tiesiog perduoda riziką gražesniu formatu. OWASP 10 geriausių LLM programų NCSC apie dirbtinį intelektą ir kibernetinį saugumą

Modelis gali padėti. Rezultatas vis tiek priklauso kūrėjui. OECD dirbtinio intelekto principai.

Privatumas ir duomenų tvarkymas yra nederybų objektas 🔐

Štai čia viskas greitai pasidaro rimtu. Generatyviosios dirbtinio intelekto sistemos dažnai remiasi raginimais, žurnalais, kontekstiniais langais, atminties sluoksniais, analitika ir trečiųjų šalių infrastruktūra. Tai sukuria daug galimybių, kad jautrūs duomenys nutekės, išliks arba bus pakartotinai panaudoti taip, kaip vartotojai niekada nesitikėjo. Aštuoni ICO klausimai apie generatyvinę dirbtinio intelekto sistemą: OWASP Top 10 for LLM Applications.

Kūrėjai privalo apsaugoti:

  • asmeninė informacija

  • finansiniai įrašai

  • medicininė informacija

  • vidiniai įmonės duomenys

  • komercinės paslaptys

  • autentifikavimo žetonai

  • klientų komunikacijos

Atsakinga praktika apima:

Tai viena iš tų sričių, kur „pamiršome apie tai pagalvoti“ nėra maža klaida. Tai pasitikėjimą griaunanti nesėkmė.

Ir pasitikėjimas, kartą suskilęs, plinta kaip nukritęs stiklas. Galbūt ne pati taikliausia metafora, bet jūs suprantate.

Šališkumas, sąžiningumas ir atstovavimas – tylesnės pareigos ⚖️

Generatyviojo dirbtinio intelekto šališkumas retai kada yra animacinis piktadarys. Paprastai jis yra dar labiau apgaulingas. Modelis gali pateikti stereotipinius pareigybių aprašymus, nevienodus moderavimo sprendimus, nesubalansuotas rekomendacijas arba kultūriškai siauras prielaidas, nesukeldamas akivaizdžių pavojaus signalų. NIST GenAI profilis

Štai kodėl kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė apima aktyvų darbą sąžiningumo srityje.

Kūrėjai turėtų:

Sistema gali atrodyti gerai veikianti apskritai, tačiau kai kuriems vartotojams ji gali būti prasčiau aptarnaujama nei kitiems. Tai nepriimtina vien dėl to, kad vidutinis našumas prietaisų skydelyje atrodo gerai. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos NIST GenAI profilis

Taip, teisingumas yra sudėtingesnis nei tvarkingas kontrolinis sąrašas. Jame yra nuovokos. Konteksto. Kompromisų. Taip pat ir šiek tiek diskomforto. Tačiau tai neatleidžia nuo atsakomybės – ją patvirtina. ICO gairės dėl dirbtinio intelekto ir duomenų apsaugos.

Saugumas dabar yra iš dalies greitas projektavimas, iš dalies inžinerijos disciplina 🧱

Generatyvus DI saugumas yra savotiškas žvėris. Tradicinių programų saugumas, žinoma, vis dar svarbus, tačiau DI sistemos prideda neįprastų atakų paviršių: greitas injekcijos būdas, netiesioginis greitas manipuliavimas, nesaugus įrankių naudojimas, duomenų nutekėjimas per kontekstą ir modelio netinkamas naudojimas per automatizuotas darbo eigas. OWASP 10 geriausių LLM programų NCSC apie DI ir kibernetinį saugumą

Kūrėjai yra atsakingi už visos sistemos, o ne tik sąsajos, saugumą. NCSC saugaus dirbtinio intelekto gairės.

Pagrindinės pareigos čia apima:

Viena nemaloni tiesa yra ta, kad vartotojai – ir užpuolikai – tikrai išbandys tai, ko kūrėjai nesitikėjo. Vieni iš smalsumo, kiti – iš piktos valios, o treti – todėl, kad 2 val. nakties spustelėjo ne tą elementą. Taip nutinka.

Generatyvaus dirbtinio intelekto saugumas labiau primena labai kalbaus vartininko, kurį kartais apgauna frazavimas, valdymą, o ne sienos statymą.

Skaidrumas ir naudotojų sutikimas yra svarbesni nei prašmatni naudotojo patirtis 🗣️

Kai vartotojai sąveikauja su dirbtiniu intelektu, jie turėtų tai žinoti. EBPO dirbtinio intelekto principų praktikos kodeksas dėl dirbtinio intelekto sukurto turinio žymėjimo ir ženklinimo

Ne miglotai. Ne užgožtai žodžiais. Akivaizdu.

Pagrindinė generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybės yra užtikrinti, kad vartotojai suprastų:

Skaidrumas yra ne vartotojų gąsdinimas, o pagarba jiems.

Geras skaidrumas gali apimti:

Daugelis produktų komandų nerimauja, kad sąžiningumas sumažins funkcijos magijos įspūdį. Galbūt. Tačiau klaidingas tikrumas yra dar blogiau. Sklandi sąsaja, kurioje slepiama rizika, iš esmės yra nušlifuota painiava.

Kūrėjai lieka atsakingi – net kai modelis „priima sprendimą“ 👀

Ši dalis labai svarbi. Atsakomybės negalima perduoti modelio tiekėjui, modelio kortelei, raginimo šablonui ar paslaptingai mašininio mokymosi atmosferai. OECD dirbtinio intelekto principai , NIST dirbtinio intelekto RMF.

Kūrėjai vis dar atsakingi. OECD dirbtinio intelekto principai

Tai reiškia, kad kažkas iš komandos turėtų turėti:

Turėtų būti aiškūs atsakymai į tokius klausimus kaip:

Be nuosavybės jausmo atsakomybė virsta rūku. Visi mano, kad kažkas kitas ją tvarko... o tada niekas to nedaro.

Tiesą sakant, šis modelis yra senesnis nei dirbtinis intelektas. Dirbtinis intelektas jį tiesiog padaro pavojingesnį.

Atsakingi kūrėjai kuria siekdami taisymų, o ne tobulumo 🔄

Štai mažas netikėtumas visoje šioje situacijoje: atsakingas dirbtinio intelekto kūrimas nereiškia apsimetinėjimo, kad sistema bus tobula. Tai reiškia manyti, kad ji kažkaip suges, ir kurti atsižvelgiant į šią realybę. NIST dirbtinio intelekto RMF

Tai reiškia, kad reikia kurti produktus, kurie yra:

Štai kaip atrodo branda. Ne blizgančios demonstracijos. Ne kvapą gniaužiantis rinkodaros tekstas. Tikros sistemos su apsauginiais turėklais, žurnalais, atskaitomybe ir pakankamai nuolankumu, kad pripažintų, jog mašina nėra burtininkė. NCSC saugaus dirbtinio intelekto gairės, EBPO dirbtinio intelekto principai.

Nes taip nėra. Tai įrankis. Galingas, taip. Bet vis tiek įrankis.

Baigiamosios mintys apie kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybę 🌍

Taigi, kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą, atsakomybė ?

Tai reiškia kurti atsargiai. Abejoti, kur sistema padeda, o kur kenkia. Apsaugoti privatumą. Tikrinti šališkumą. Tikrinti rezultatus. Užtikrinti darbo eigos saugumą. Būti skaidriam vartotojų atžvilgiu. Išlaikyti žmones prasmingoje kontrolėje. Išlikti atsakingiems, kai kas nors nepavyksta. NIST AI RMF OECD DI principai

Tai gali skambėti sunkiai – ir taip yra. Tačiau tai taip pat skiria apgalvotą kūrimą nuo neapgalvotos automatizacijos.

Geriausi generatyvinio dirbtinio intelekto kūrėjai nėra tie, kurie priverčia modelį atlikti daugiausiai triukų. Jie supranta tų triukų pasekmes ir atitinkamai kuria. Jie žino, kad greitis svarbus, bet tikrasis produktas yra pasitikėjimas. Keista, bet ši senamadiška idėja vis dar aktuali. NIST dirbtinio intelekto RMF

Galiausiai atsakomybė nėra kliūtis inovacijoms. Ji neleidžia inovacijoms tapti brangia, audringa plėtra su nušlifuota sąsaja ir pasitikėjimo problema 😬✨

Ir galbūt tai yra paprasčiausia versija.

Žinoma, kurkite drąsiai, bet kurkite taip, lyg tai paveiktų žmones, nes jie ir yra. EBPO dirbtinio intelekto principai

DUK

Kokia yra kūrėjų, naudojančių generatyvinį dirbtinį intelektą praktikoje, atsakomybė?

Generatyvųjį dirbtinį intelektą naudojančių kūrėjų atsakomybė apima daug daugiau nei greitą funkcijų diegimą. Ji apima tinkamo naudojimo atvejo pasirinkimą, rezultatų testavimą, privatumo apsaugą, žalingo elgesio mažinimą ir sistemos suprantamumo užtikrinimą vartotojams. Praktiškai kūrėjai išlieka atsakingi už tai, kaip įrankis yra sukurtas, stebimas, taisomas ir valdomas jam sugedus.

Kodėl generatyvinei dirbtiniam intelektui reikia daugiau kūrėjo atsakomybės nei įprastai programinei įrangai?

Tradicinės klaidos dažnai yra akivaizdžios, tačiau generatyvinio dirbtinio intelekto nesėkmės gali skambėti nušlifuotai, tačiau vis tiek būti klaidingos, šališkos ar rizikingos. Dėl to problemas sunkiau pastebėti ir vartotojams lengviau jomis per klaidą pasitikėti. Kūrėjai dirba su tikimybinėmis sistemomis, todėl atsakomybė apima neapibrėžtumo valdymą, žalos ribojimą ir pasiruošimą nenuspėjamiems rezultatams prieš paleidimą.

Kaip kūrėjai žino, kada nereikėtų naudoti generatyvinio dirbtinio intelekto?

Įprastas atspirties taškas yra klausimas, ar užduotis yra atvira, ar ją geriau atlikti taisyklėmis, paieška ar standartine programinės įrangos logika. Kūrėjai taip pat turėtų apsvarstyti, kiek žalos gali padaryti neteisingas atsakymas ir ar žmogus gali realiai peržiūrėti rezultatus. Atsakingas naudojimas kartais reiškia sprendimą visai nenaudoti generatyvinio dirbtinio intelekto.

Kaip kūrėjai gali sumažinti haliucinacijų ir neteisingų atsakymų skaičių generatyvinio dirbtinio intelekto sistemose?

Tikslumas turi būti suplanuotas, o ne numatomas. Daugelyje procesų tai reiškia, kad išvesties duomenys turi būti pagrįsti patikimais šaltiniais, sugeneruotas tekstas turi būti atskirtas nuo patikrintų faktų, o didesnės rizikos užduotims – naudojami peržiūros procesai. Kūrėjai taip pat turėtų išbandyti raginimus, kuriais siekiama suklaidinti sistemą, ypač tokiose srityse kaip kodas, palaikymas, finansai, švietimas ir sveikatos priežiūra.

Kokia yra generatyvinį dirbtinį intelektą naudojančių kūrėjų atsakomybė už privatumą ir jautrius duomenis?

Generatyvųjį dirbtinį intelektą naudojančių kūrėjų atsakomybė apima į modelį patenkančių duomenų kiekio mažinimą ir raginimų, žurnalų bei išvesčių traktavimą kaip jautrius duomenis. Kūrėjai turėtų, jei įmanoma, pašalinti identifikatorius, apriboti duomenų saugojimą, kontroliuoti prieigą ir atidžiai peržiūrėti tiekėjo nustatymus. Vartotojai taip pat turėtų suprasti, kaip tvarkomi jų duomenys, o ne vėliau atrasti riziką.

Kaip kūrėjai turėtų spręsti šališkumo ir sąžiningumo klausimus generatyvinio dirbtinio intelekto rezultatuose?

Šališkumo vertinimas reikalauja aktyvaus vertinimo, o ne prielaidų. Praktinis metodas yra išbandyti užduotis skirtingose ​​demografinėse grupėse, kalbose ir kontekstuose, o tada peržiūrėti rezultatus, siekiant nustatyti stereotipus, išskyrimus ar netolygius nesėkmės modelius. Kūrėjai taip pat turėtų sukurti būdus, kaip vartotojai ar komandos galėtų pranešti apie žalingą elgesį, nes sistema gali atrodyti stipri apskritai, tačiau vis tiek nuolat nesėkmingai elgtis tam tikrose grupėse.

Kokias saugumo rizikas kūrėjai turi apsvarstyti naudodami generatyvinį dirbtinį intelektą?

Generatyvusis dirbtinis intelektas pristato naujus atakų paviršius, įskaitant greitą injekciją, nesaugų įrankių naudojimą, duomenų nutekėjimą per kontekstą ir automatizuotų veiksmų piktnaudžiavimą. Kūrėjai turėtų išvalyti nepatikimą įvestį, apriboti įrankių teises, apriboti prieigą prie failų ir tinklo bei stebėti netinkamo naudojimo modelius. Saugumas susijęs ne tik su sąsaja; jis taikomas visam modelio darbo eigai.

Kodėl skaidrumas yra svarbus kuriant naudojant generatyvinį dirbtinį intelektą?

Vartotojai turėtų aiškiai žinoti, kada dalyvauja dirbtinis intelektas, ką jis gali padaryti ir kur yra jo ribos. Geras skaidrumas gali apimti tokias žymas kaip dirbtinio intelekto generuojamas arba dirbtinio intelekto padedamas, paprastus paaiškinimus ir aiškius kelius gauti žmonių pagalbą. Toks atvirumas nesusilpnina produkto; jis padeda vartotojams įvertinti pasitikėjimą ir priimti geresnius sprendimus.

Kas atsakingas, kai generatyvinio dirbtinio intelekto funkcija padaro žalą arba sukelia kokių nors problemų?

Kūrėjai ir produktų komandos vis tiek yra atsakingi už rezultatą, net jei atsakymą pateikia modelis. Tai reiškia, kad turėtų būti aiški atsakomybė už diegimo patvirtinimą, incidentų tvarkymą, atšaukimą, stebėjimą ir bendravimą su vartotojais. Nepakanka vien „modelio sprendimo“, nes atsakomybė turi likti tiems žmonėms, kurie sukūrė ir paleido sistemą.

Kaip atrodo atsakingas generatyvinio dirbtinio intelekto kūrimas po paleidimo?

Atsakingas kūrimas tęsiasi ir po išleidimo, vykdant stebėseną, grįžtamąjį ryšį, peržiūrą ir taisymą. Stiprios sistemos yra audituojamos, pertraukiamos, atkuriamos ir suprojektuotos su atsarginiais keliais, kai dirbtinis intelektas sugenda. Tikslas nėra tobulumas; siekiama sukurti kažką, ką būtų galima saugiai ištirti, patobulinti ir koreguoti, kai iškyla realaus pasaulio problemų.

Nuorodos

  1. Nacionalinis standartų ir technologijų institutas (NIST)NIST GenAI profilisnvlpubs.nist.gov

  2. OWASPOWASP 10 geriausių LLM programųowasp.org

  3. Informacijos komisaro biuras (ICO)aštuoni ICO klausimai apie generatyvųjį dirbtinį intelektąico.org.uk

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį