Ar dirbtinis intelektas perdėtai išgirtas?

Ar dirbtinis intelektas perdėtai išgirtas?

Trumpas atsakymas: DI yra pervertinamas, kai jis reklamuojamas kaip nepriekaištingas, laisvų rankų ar pakeičiantis užduotis; jis nėra pervertinamas, kai naudojamas kaip prižiūrimas įrankis braižymui, kodavimo palaikymui, atrankai ir duomenų tyrinėjimui. Jei jums reikia tiesos, turite ją pagrįsti patikrintais šaltiniais ir pridėti peržiūrą; kylant statymams, valdymas tampa svarbus.

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

Svarbiausios išvados:

Perdėjimo signalai : teiginius „visiškai autonomiškas“ ir „greitai idealiai tikslus“ laikykite įspėjamaisiais ženklais.

Patikimumas : Tikėkitės užtikrintų neteisingų atsakymų; reikalauti paieškos, patvirtinimo ir žmogaus peržiūros.

Geri naudojimo atvejai : rinkitės siauras, pasikartojančias užduotis su aiškiais sėkmės rodikliais ir maža rizika.

Atskaitomybė : paskirkite žmogų, atsakingą už rezultatus, peržiūras ir tai, kas nutinka, kai kas nors yra neteisinga.

Valdymas : Naudokite sistemas ir incidentų atskleidimo praktikas, kai tai susiję su pinigais, saugumu ar teisėmis.

🔗 Kuris dirbtinis intelektas jums tinka?
Palyginkite įprastus dirbtinio intelekto įrankius pagal tikslus, biudžetą ir naudojimo paprastumą.

🔗 Ar formuojasi dirbtinio intelekto burbulas?
Ažiotažo požymiai, rizika ir kaip atrodo tvarus augimas.

🔗 Ar dirbtinio intelekto detektoriai yra patikimi realiame pasaulyje?
Tikslumo ribos, klaidingai teigiami rezultatai ir patarimai, kaip teisingai įvertinti.

🔗 Kaip kasdien naudoti dirbtinį intelektą telefone
Norėdami sutaupyti laiko, naudokite mobiliąsias programėles, balso asistentus ir raginimus.


Ką žmonės paprastai turi omenyje sakydami „DI yra perdėtai išgirtas“ 🤔

Kai kas nors sako, kad dirbtinis intelektas yra perdėtai išgirtas , jis paprastai reaguoja į vieną (ar daugiau) iš šių neatitikimų:

  • Rinkodaros pažadai ir kasdienė realybė.
    Demonstracinė versija atrodo magiškai. Įdiegimas primena lipnią juostą ir maldą.

  • Pajėgumas ir patikimumas.
    Jis gali parašyti eilėraštį, išversti sutartį, derinti kodą... ir tada užtikrintai sugalvoti politikos nuorodą. Šaunu, šaunu, šaunu.

  • Progresas ir praktiškumas.
    Modeliai tobulėja greitai, tačiau jų integravimas į painius verslo procesus yra lėtas, politinis ir kupinas kraštutinių atvejų.

  • „Pakeisti žmones“ naratyvai.
    Dauguma tikrų pergalių labiau primena „pašalinti nuobodžias dalis“, o ne „pakeisti visą darbą“.

Ir tai yra pagrindinė įtampa: dirbtinis intelektas yra išties galingas, bet dažnai parduodamas taip, lyg jau būtų baigtas. Jis nėra baigtas. Jis... dar kuriamas. Kaip namas su nuostabiais langais ir be santechnikos 🚽

 

Per daug išgirta apie dirbtinį intelektą?

Kodėl išpūsti teiginiai apie dirbtinį intelektą atsiranda taip lengvai (ir tęsiasi) 🎭

Kelios priežastys, kodėl dirbtinis intelektas traukia išpūstus teiginius kaip magnetas:

Demonstracijos iš esmės yra sukčiavimas (maloniausia prasme)

Demonstracijos yra kruopščiai atrinktos. Užduotys yra suderintos. Duomenys yra švarūs. Geriausias scenarijus yra dėmesio centre, o nesėkmingi atvejai yra užkulisiuose slepiama smulkmena.

Išgyvenimo šališkumas yra garsus

Istorijos apie „DI sutaupė mums milijoną valandų“ išplinta virusiniu būdu. Istorijos apie „DI privertė mus viską perrašyti du kartus“ tyliai palaidojamos kažkieno projekto aplanke pavadinimu „3 ketvirčio eksperimentai“ 🫠

Žmonės painioja sklandumą su tiesa

Šiuolaikinis dirbtinis intelektas gali skambėti užtikrintai, paslaugiai ir konkrečiai – taip apgaudinėdami mūsų smegenis, priversdami jas manyti, kad jos tikslios.

Labai įprastas šio gedimo būdo apibūdinimas yra konfabuliacija : užtikrintai teigiama, bet neteisinga išvestis (dar vadinama „haliucinacijomis“). NIST tai tiesiogiai įvardija kaip pagrindinę generatyvinio dirbtinio intelekto sistemų riziką [1].

Pinigai sustiprina megafoną

Kai kyla pavojus biudžetams, vertinimams ir karjeros skatinimo priemonėms, kiekvienas turi priežastį pasakyti „tai viską pakeičia“ (net jei tai daugiausia pakeičia skaidrių pristatymus).


Modelis „infliacija → nusivylimas → stabili vertė“ (ir kodėl tai nereiškia, kad dirbtinis intelektas yra netikras) 📈😬

Daugelis technologijų vadovaujasi ta pačia emocine arka:

  1. Didžiausi lūkesčiai (viskas bus automatizuota iki antradienio)

  2. Karšta realybė (ji išblėsta trečiadienį)

  3. Nuolatinė vertė (tai tyliai tampa darbo atlikimo dalimi)

Taigi, taip – ​​dirbtinis intelektas gali būti pervertintas ir vis tiek išlikti reikšmingas. Tai ne priešingybės. Tai kambariokai.


Kur dirbtinis intelektas nėra perdėtai išgirtas (jis duoda rezultatų) ✅✨

Ši dalis praleidžiama, nes joje mažiau mokslinės fantastikos ir daugiau skaičiuoklių.

Pagalba programuojant yra tikras produktyvumo padidinimas

Kai kurioms užduotims – standartinėms programoms, testavimo pastolių kūrimui, pasikartojantiems šablonams – kodo kopijos gali būti tikrai praktiškos.

Vienas plačiai cituojamas kontroliuojamas „GitHub“ eksperimentas parodė, kad kūrėjai, naudojantys „Copilot“, kodavimo užduotį atliko greičiau (jų aprašyme nurodoma 55 % spartėjimas tame konkrečiame tyrime). [3]

Ne magija, bet prasmė. Esmė ta, kad vis tiek reikia peržiūrėti, kas parašyta... nes „naudinga“ nėra tas pats, kas „teisinga“

Projektų rengimas, apibendrinimas ir pirminis mąstymas

Dirbtinis intelektas puikiai atlieka šias funkcijas:

  • Neapdorotus užrašus paverčiame švariu juodraščiu ✍️

  • Ilgų dokumentų santrauka

  • Generavimo parinktys (antraštės, metmenys, el. laiškų variantai)

  • Vertimo tonas („padaryti tai mažiau aštru“ 🌶️)

Tai iš esmės nenuilstantis jaunesnysis asistentas, kuris kartais meluoja, todėl jūs jį prižiūrite. (Griežtai. Taip pat taiklu.)

Klientų aptarnavimo triažas ir vidinės pagalbos tarnybos

Kur DI dažniausiai veikia geriausiai: klasifikuoti → atkurti → siūlyti , o ne išgalvoti → tikėtis → diegti .

Jei norite trumpos ir saugios versijos: naudokite dirbtinį intelektą, kad gautumėte informaciją iš patvirtintų šaltinių ir parengtumėte atsakymus, tačiau užtikrinkite, kad žmonės būtų atsakingi už tai, kas siunčiama, ypač kai kyla rizika. Ši „valdykite + testuokite + atskleiskite incidentus“ pozicija puikiai dera su tuo, kaip NIST apibrėžia generatyvų dirbtinio intelekto rizikos valdymą [1].

Duomenų tyrinėjimas – su apsauginiais turėklais

Dirbtinis intelektas gali padėti žmonėms atlikti duomenų rinkinių užklausas, paaiškinti diagramas ir generuoti idėjas „ką žiūrėti toliau“. Sėkmė yra ta, kad analizė tampa prieinamesnė, o ne pakeičia analitikus.


Kur dirbtinis intelektas yra perdėtai išgirtas (ir kodėl jis vis nuvilia) ❌🤷

„Visiškai autonominiai agentai, kurie valdo viską“

Agentai gali atlikti tvarkingus darbo eigų procesus. Tačiau pridėjus:

  • keli žingsniai

  • netvarkingi įrankiai

  • leidimai

  • tikri vartotojai

  • realios pasekmės

...nesėkmių režimai dauginasi kaip triušiai. Iš pradžių miela, o paskui pribloškia 🐇

Praktinė taisyklė: kuo labiau kažkas teigia esanti „laisvų rankų“ įranga, tuo dažniau reikėtų klausti, kas nutinka, kai ji sulūžta.

„Netrukus bus visiškai tikslu“

Tikslumas, žinoma, pagerėja, bet patikimumas yra problematiškas, ypač kai modelis nėra pagrįstas patikrinamais šaltiniais.

Štai kodėl rimtas dirbtinio intelekto darbas galiausiai atrodo taip: paieška + patvirtinimas + stebėjimas + žmogaus atliekamas vertinimas , o ne „tiesiog griežčiau raginti“. (NIST „GenAI“ profilyje tai perteikiama mandagiai ir tvirtai.) [1]

„Vienas modelis, kuris valdys juos visus“

Praktiškai komandos dažnai susimaišo:

  • mažesni modeliai pigioms / didelės apimties užduotims

  • didesni modeliai sudėtingesniam samprotavimui

  • pagrįstų atsakymų paieška

  • atitikties ribų taisyklės

Vis dėlto „vienų magiškų smegenų“ idėja yra gerai perkama. Ji tvarkinga. Žmonės mėgsta tvarką.

„Pakeisti visas pareigas per naktį“

Dauguma vaidmenų yra užduočių paketai. Dirbtinis intelektas gali atlikti tik dalį šių užduočių ir beveik nepaliesti likusių. Žmogiškoji dalis – sprendimų priėmimas, atskaitomybė, santykiai, kontekstas – atkakliai išlieka... žmogiška.

Norėjome robotų bendradarbių. Vietoj to gavome automatinį užbaigimą ant steroidų.


Kas lemia gerą (ir blogą) dirbtinio intelekto naudojimo atvejį 🧪🛠️

Tai yra dalis, kurią žmonės praleidžia ir vėliau gailisi.

Geras dirbtinio intelekto naudojimo atvejis paprastai turi:

  • Aiškūs sėkmės kriterijai (sutaupytas laikas, sumažinta klaidų skaičius, pagerintas reagavimo greitis)

  • Mažos arba vidutinės rizikos (arba griežta žmogaus atliekama peržiūra)

  • Pasikartojantys šablonai (DUK atsakymai, įprasti darbo eigos, standartiniai dokumentai)

  • Prieiga prie gerų duomenų (ir leidimas juos naudoti)

  • Atsarginis planas, kai modelis išveda nesąmonę

  • Iš pradžių siauras taikymo sritis

Blogas dirbtinio intelekto naudojimo atvejis paprastai atrodo taip:

  • „Automatizuokime sprendimų priėmimą“ be atskaitomybės 😬

  • „Mes tiesiog prijungsime tai prie visko“ (ne... prašau, ne)

  • Nėra pradinių rodiklių, todėl niekas nežino, ar tai padėjo

  • Tikėkimės, kad tai bus tiesos, o ne šablonų mašina

Jei prisiminsite tik vieną dalyką: dirbtiniu intelektu lengviausia pasitikėti, kai jis pagrįstas jūsų pačių patikrintais šaltiniais ir yra apribotas aiškiai apibrėžta užduotimi. Priešingu atveju tai yra vibracijomis pagrįstas skaičiavimas.


Paprastas (bet itin efektyvus) būdas patikrinti dirbtinio intelekto realybę jūsų organizacijoje 🧾✅

Jei norite pagrįsto atsakymo (o ne įtartino sprendimo), atlikite šį greitą testą:

1) Apibrėžkite darbą, kuriam samdote dirbtinį intelektą

Parašykite kaip pareigybės aprašymą:

  • Įvestys

  • Rezultatai

  • Apribojimai

  • „Atlikta reiškia…“

Jei negalite to aiškiai apibūdinti, dirbtinis intelektas to stebuklingai nepaaiškins.

2) Nustatykite pradinį lygį

Kiek laiko dabar užtrunka? Kiek klaidų dabar? Kaip dabar atrodo „gerai“?

Nėra pradinio taško = nesibaigiantys nuomonių karai vėliau. Rimtai, žmonės ginčysis amžinai, o jūs greitai sensite.

3) Nuspręskite, iš kur kyla tiesa

  • Vidinė žinių bazė?

  • Klientų įrašai?

  • Patvirtintos politikos?

  • Kuruojamas dokumentų rinkinys?

Jei atsakymas yra „modelis žinos“, tai yra raudona vėliavėlė 🚩

4) Nustatykite žmogaus įtraukimo į kilpą planą

Nuspręskite:

  • kas peržiūri,

  • kai jie peržiūri,

  • ir kas nutinka, kai DI klysta.

Tai yra skirtumas tarp „įrankio“ ir „atsakomybės“. Ne visada, bet dažnai.

5) Nubraižykite sprogimo spindulį

Pradėkite ten, kur klaidos pigios. Plėskite savo veiklą tik tada, kai turėsite įrodymų.

Štai kaip išpūstus teiginius paversti naudingais. Paprasta… efektyvu… savotiškai gražu 😌


Pasitikėjimas, rizika ir reguliavimas – neseksuali dalis, kuri svarbiausia 🧯⚖️

Jei dirbtinis intelektas susijęs su kažkuo svarbiu (žmonėmis, pinigais, saugumu, teisiniais rezultatais), valdymas nėra neprivalomas.

Keletas plačiai minimų apsauginių turėklų:

  • NIST generatyvinio dirbtinio intelekto profilis (dirbtinio intelekto rizikos valdymo funkcijos (RMF) papildinys) : praktinės rizikos kategorijos + siūlomi veiksmai valdymo, testavimo, kilmės ir incidentų atskleidimo srityse. [1]

  • EBPO dirbtinio intelekto principai : plačiai naudojamas tarptautinis patikimo, į žmogų orientuoto dirbtinio intelekto pagrindas. [5]

  • ES Dirbtinio intelekto įstatymas : rizika pagrįsta teisinė sistema, kurioje nustatomi įpareigojimai priklausomai nuo to, kaip naudojamas dirbtinis intelektas (ir draudžiama tam tikra „nepriimtinos rizikos“ praktika). [4]

Taip, šie dalykai gali atrodyti kaip popierizmas. Tačiau tai yra skirtumas tarp „praktinio įrankio“ ir „oi, mes įdiegėme atitikties košmarą“


Atidžiau pažvelgus: „DI kaip automatinio užbaigimo“ idėja – nepakankamai įvertinta, bet beveik teisinga 🧩🧠

Štai šiek tiek netobula (ir tinkama) metafora: didelė dalis dirbtinio intelekto yra tarsi itin išgalvotas automatinis užbaigimas, kuris nuskaito informaciją iš interneto, o tada pamiršta, kur ją perskaitė.

Tai skamba niekinamai, bet būtent todėl tai ir veikia:

  • Puikiai sekasi su raštais

  • Puikiai kalba

  • Puikiai tinka kurti „kitą tikėtiną dalyką“

Ir štai kodėl nepavyksta:

  • Natūraliai „nežino“, kas tiesa

  • Natūraliai nežino, ką veikia jūsų organizacija

  • Jis gali skleisti užtikrintas nesąmones be jokio pagrindo (žr.: konfesija / haliucinacijos) [1]

Taigi, jei jūsų naudojimo atvejui reikia tiesos, jį įtvirtinate paieškos, įrankių, patvirtinimo, stebėjimo ir žmonių peržiūros priemonėmis. Jei jūsų naudojimo atvejui reikia greičio parengiant ir generuojant idėjas, leidžiate jam veikti šiek tiek laisviau. Skirtingos aplinkos, skirtingi lūkesčiai. Kaip ir gaminant maistą su druska – ne viskam reikia vienodo kiekio.


Palyginimo lentelė: praktiniai būdai, kaip naudoti dirbtinį intelektą nepasiduodami išpūstiems teiginiams 🧠📋

Įrankis / parinktis Auditorija Kainos vibracija Kodėl tai veikia
Pokalbių stiliaus asistentas (bendras) Individualūs asmenys, komandos Paprastai nemokamas + mokamas lygis Puikiai tinka juodraščiams, minčių audroms, apibendrinimui... bet visada patikrinkite faktus
Kodo antrinis pilotas Kūrėjai Paprastai prenumerata Pagreitina įprastas kodavimo užduotis, vis tiek reikia peržiūrėti + testuoti ir išgerti kavos
Paieškomis pagrįstas „atsakymas su šaltiniais“ Tyrėjai, analitikai Freemium tipo Geriau tinka „rasti + įžvelgti“ darbo eigoms nei vien spėlionėms
Darbo eigos automatizavimas + dirbtinis intelektas Operacijos, palaikymas Pakopinis Pasikartojančius veiksmus paverčia pusiau automatiniais srautais (pusiau automatiniai yra svarbiausia)
Vidinis modelis / savarankiškas talpinimas Organizacijos su mašininio mokymosi pajėgumais Infrastruktūra + žmonės Daugiau kontrolės ir privatumo, bet jūs mokate už priežiūrą ir galvos skausmą
Valdymo sistemos Lyderiai, rizika, atitiktis Nemokami ištekliai Padeda valdyti riziką ir pasitikėjimą – ne žavinga, bet būtina
Lyginamosios analizės / realybės tikrinimo šaltiniai Vadovybė, politika, strategija Nemokami ištekliai Duomenys pranoksta vibracijas ir sumažina „LinkedIn“ pamokslus
„Agentas, kuris daro viską“ Svajotojai 😅 Išlaidos + chaosas Kartais įspūdinga, dažnai trapu – užkandžiaukite ir kantriai laukite

Jei ieškote vieno „realybės patikrinimo“ centro dirbtinio intelekto pažangai ir poveikio duomenims, Stanfordo dirbtinio intelekto indeksas yra puiki vieta pradėti. [2]


Baigiamoji dalis + trumpa santrauka 🧠✨

Taigi, dirbtinis intelektas yra perdėtai išgirstas, kai kas nors parduoda:

  • nepriekaištingas tikslumas,

  • visiška autonomija,

  • momentinis visų vaidmenų pakeitimas,

  • arba „plug-and-play“ tipo smegenys, kurios išsprendžia jūsų organizacijos problemas…

...taigi, tai yra blizgantis pardavimo meistriškumas.

Bet jei elgsitės su DI taip:

  • galingas asistentas,

  • geriausiai naudojamas siaurose, aiškiai apibrėžtose užduotyse,

  • pagrįstas patikimais šaltiniais,

  • su žmonėmis, peržiūrinčiais svarbius dalykus..

...tada ne, tai ne perdėtai išreklamuota. Tai tiesiog... netolygu. Kaip sporto klubo abonementas. Neįtikėtina, jei naudojama tinkamai, bet nenaudinga, jei apie tai kalbama tik vakarėliuose 😄🏋️

Trumpa apžvalga: dirbtinis intelektas yra perdėtai giriamas kaip stebuklingas sprendimų pakaitalas ir nepakankamai vertinamas kaip praktinis daugiklis rašymo, kodavimo pagalbos, atrankos ir žinių darbo eigoje.


DUK

Ar dirbtinis intelektas šiuo metu yra per daug išgirtas?

Dirbtinis intelektas yra perdėtai išgirtas, kai jis parduodamas kaip tobulas, laisvų rankų įranga arba pasiruošęs pakeisti ištisus darbus per naktį. Realiuose diegimuose patikimumo spragos išryškėja greitai: užtikrinti neteisingi atsakymai, kraštutiniai atvejai ir sudėtingos integracijos. Dirbtinis intelektas nėra perdėtai išgirtas, kai jis traktuojamas kaip prižiūrimas įrankis siauroms užduotims, tokioms kaip braižymas, kodavimo palaikymas, atranka ir tyrinėjimas. Skirtumas priklauso nuo lūkesčių, įžeminimo ir peržiūros.

Kokie yra didžiausi įspėjamieji ženklai dirbtinio intelekto rinkodaros teiginiuose?

„Visiškai autonomiškas“ ir „greitai idealiai tikslus“ yra du garsiausi įspėjamieji ženklai. Demonstracinės versijos dažnai kuriamos su patobulintais raginimais ir švariais duomenimis, todėl jose paslėpti dažniausiai pasitaikantys gedimų režimai. Sklandumas taip pat gali būti supainiotas su tiesa, todėl užtikrintos klaidos atrodo įtikinamos. Jei teiginyje nepaaiškinama, kas nutinka sistemai sugedus, manykite, kad rizika ignoruojama.

Kodėl dirbtinio intelekto sistemos skamba užtikrintai, net kai klysta?

Generatyviniai modeliai puikiai tinka kuriant įtikinamą, sklandų tekstą – todėl jie gali užtikrintai išgalvoti detales, net jei jos neturi pagrindo. Tai dažnai apibūdinama kaip konfesija arba haliucinacijos: rezultatas, kuris skamba konkrečiai, bet nėra patikimai teisingas. Štai kodėl didelio patikimumo naudojimo atvejai paprastai apima paiešką, patvirtinimą, stebėjimą ir žmogaus peržiūrą. Tikslas – praktinė vertė su apsaugos priemonėmis, o ne vibracijomis pagrįstas tikrumas.

Kaip naudoti dirbtinį intelektą ir nepatirti haliucinacijų?

Dirbtinį intelektą laikykite braižymo varikliu, o ne tiesos mašina. Atsakymus pagrįskite patikrintais šaltiniais, tokiais kaip patvirtintos politikos, vidiniai dokumentai ar kuruojamos nuorodos, užuot darę prielaidą, kad „modelis žinos“. Pridėkite patvirtinimo veiksmus (nuorodas, citatas, kryžminius patikrinimus) ir reikalaukite žmogaus peržiūros ten, kur klaidos yra svarbios. Pradėkite nuo mažų dalykų, išmatuokite rezultatus ir plėskite tik tada, kai pamatysite nuoseklų našumą.

Kokie yra geri realaus pasaulio naudojimo atvejai, kai dirbtinis intelektas nėra per daug išgirtas?

Dirbtinis intelektas dažniausiai geriausiai veikia siaurose, pasikartojančiose užduotyse, kurioms būdingi aiškūs sėkmės rodikliai ir kurių rizika maža arba vidutinė. Įprasti laimėjimai apima dokumentų rengimą ir perrašymą, ilgų dokumentų santraukų sudarymą, variantų generavimą (metodus, antraštes, el. laiškų variantus), kodavimo pagrindus, palaikymo triažą ir vidinius pagalbos tarnybos pasiūlymus. Idealus sprendimas yra „klasifikuoti → rasti → pasiūlyti“, o ne „išrasti → tikėtis → įdiegti“. Žmonės vis dar yra atsakingi už tai, kas siunčiama.

Ar „viską atliekantys dirbtinio intelekto agentai“ yra per daug išgirsti?

Dažnai taip, ypač kai pagrindinis privalumas yra „laisvų rankų“ naudojimas. Daugiapakopiai darbo eigos, sudėtingi įrankiai, leidimai, realūs vartotojai ir realios pasekmės sukuria sudėtingus gedimų režimus. Agentai gali būti vertingi ribotoms darbo eigoms, tačiau jų pažeidžiamumas sparčiai didėja, plečiantis jų taikymo sričiai. Praktinis testas išlieka paprastas: apibrėžkite atsarginį sprendimą, priskirkite atsakomybę ir nurodykite, kaip aptinkamos klaidos, kol žala neišplinta.

Kaip nuspręsti, ar dirbtinis intelektas vertas mano komandos ar organizacijos dėmesio?

Pradėkite apibrėždami darbą kaip darbo aprašymą: įvestis, išvestis, apribojimai ir ką reiškia „atlikta“. Nustatykite pradinį lygį (laiką, sąnaudas, klaidų dažnį), kad galėtumėte matuoti patobulinimus, o ne diskutuoti apie nuotaikas. Nuspręskite, iš kur semiatės tiesos – vidinių žinių bazių, patvirtintų dokumentų ar klientų įrašų. Tada sukurkite žmogiškojo ryšio planą ir prieš plėsdami nubraižykite veikimo spindulį.

Kas atsakingas, kai dirbtinio intelekto išvestis yra klaidinga?

Žmogus turėtų būti paskirtas atsakingu už rezultatus, peržiūras ir tai, kas nutinka sistemos gedimo atveju. „Modelis taip pasakė“ nėra atskaitomybė, ypač kai kalbama apie pinigus, saugumą ar teises. Apibrėžkite, kas tvirtina atsakymus, kada reikalinga peržiūra ir kaip incidentai registruojami ir sprendžiami. Tai DI paverčia iš atsakomybės į kontroliuojamą įrankį su aiškia atsakomybe.

Kada man reikia valdymo ir kokios sistemos dažniausiai naudojamos?

Valdymas yra svarbiausias, kai kyla pavojus – bet kas, kas susiję su teisiniais rezultatais, saugumu, finansiniu poveikiu ar žmonių teisėmis. Įprasti apsauginiai barjerai apima NIST generatyvinį dirbtinio intelekto profilį (dirbtinio intelekto rizikos valdymo sistemos priedą), EBPO dirbtinio intelekto principus ir ES dirbtinio intelekto įstatymo rizikos vertinimu pagrįstus įsipareigojimus. Jie skatina testavimo, kilmės nustatymo, stebėsenos ir incidentų atskleidimo praktiką. Tai gali atrodyti nepatrauklu, bet užkerta kelią „oi, mes įdiegėme atitikties košmarą“

Jei dirbtinis intelektas yra perdėtai išgirtas, kodėl jis vis dar atrodo reikšmingas?

Ažiotažas ir poveikis gali egzistuoti kartu. Daugelis technologijų laikosi įprastos tendencijos: didžiausi lūkesčiai, griežta realybė, o tada stabili vertė. Dirbtinis intelektas yra galingas, tačiau jis dažnai parduodamas taip, lyg jau būtų baigtas – kai dar vyksta, o integracija lėta. Ilgalaikė vertė atsiranda, kai dirbtinis intelektas pašalina nuobodžias darbo dalis, palaiko braižymą ir kodavimą bei pagerina darbo eigą, suteikdamas pagrindą ir peržiūrą.

Nuorodos

  1. NIST generatyvinio dirbtinio intelekto profilis (NIST AI 600-1, PDF) – dirbtinio intelekto rizikos valdymo sistemos papildomos gairės, kuriose apibrėžiamos pagrindinės rizikos sritys ir rekomenduojami veiksmai valdymo, testavimo, kilmės ir incidentų atskleidimo srityse. Skaityti daugiau

  2. „Stanford HAI AI Index“ – metinė, duomenimis turtinga ataskaita, kurioje stebima dirbtinio intelekto pažanga, diegimas, investicijos ir poveikis visuomenei pagal pagrindinius lyginamuosius rodiklius ir kriterijus. Skaitykite daugiau

  3. „GitHub Copilot“ produktyvumo tyrimas – „GitHub“ kontroliuojamo tyrimo aprašymas apie užduočių atlikimo greitį ir kūrėjo patirtį naudojant „Copilot“. Skaityti daugiau

  4. Europos Komisijos Dirbtinio intelekto įstatymo apžvalga – Komisijos pagrindinis puslapis, kuriame paaiškinami ES dirbtinio intelekto sistemų įpareigojimai pagal rizikos lygius ir draudžiamos praktikos kategorijos. Skaitykite daugiau

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį