Ar dirbtinis intelektas nuėjo per toli?

Ar dirbtinis intelektas nuėjo per toli?

Trumpas atsakymas: DI nuėjo per toli, kai buvo naudojamas priimant svarbius sprendimus, stebint ar įtikinėjant be griežtų apribojimų, informuoto sutikimo ir tikros teisės apskųsti. Ji vėl peržengia ribą, kai giluminės klastotės ir keičiamo mastelio sukčiavimo būdai pasitikėjimą paverčia rizika. Jei žmonės negali pasakyti, kad DI atliko vaidmenį, negali suprasti, kodėl sprendimas buvo priimtas būtent taip, kaip buvo, arba negali atsisakyti, tai jau per toli.

Svarbiausios išvados:

Ribos: apibrėžkite, ko sistema negali padaryti, ypač kai didelis neapibrėžtumas.

Atskaitomybė: Užtikrinti, kad žmonės galėtų nepaisyti rezultatų be jokių nuobaudų ar laiko spaudimo spąstų.

Skaidrumas: informuokite žmones, kada dalyvauja dirbtinis intelektas ir kodėl jis priėmė tokius sprendimus.

Ginčytinumas: Pateikite greitus, tinkamus apeliacijų kelius ir aiškius būdus, kaip ištaisyti blogus duomenis.

Apsauga nuo piktnaudžiavimo: pridėkite kilmę, kainų apribojimus ir kontrolės priemones, kad pažabotumėte sukčiavimą ir piktnaudžiavimą.

„Ar dirbtinis intelektas nuėjo per toli?“

Keisčiausia yra tai, kad ribų peržengimas ne visada akivaizdus. Kartais jis garsus ir efektingas, tarsi giliųjų ryšių sukčiavimas. ( FTC , FTB ) Kitais atvejais jis tylus – automatizuotas sprendimas, kuris be jokio paaiškinimo pastūmėja jūsų gyvenimą į šoną, ir jūs net nesuvokiate, kad buvote „įmušti“. ( JK ICO , BDAR 22 straipsnis )

Taigi… Ar dirbtinis intelektas nuėjo per toli? Kai kur – taip. Kitur – nepakankamai – nes jis naudojamas be nepatrauklių, bet esminių saugos juostų, kurios leidžia įrankiams elgtis kaip įrankiams, o ne kaip ruletės ratams, su patogia vartotojo sąsaja. 🎰🙂 ( NIST AI RMF 1.0 , ES AI įstatymas )

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Kodėl dirbtinis intelektas gali būti žalingas visuomenei
Pagrindinės socialinės rizikos: šališkumas, darbo vietos, privatumas ir valdžios koncentracija.

🔗 Ar dirbtinis intelektas kenkia aplinkai? Paslėptas poveikis
Kaip mokymai, duomenų centrai ir energijos naudojimas didina išmetamųjų teršalų kiekį.

🔗 Ar dirbtinis intelektas geras, ar blogas? Privalumai ir trūkumai
Subalansuota naudos, rizikos ir realaus pasaulio kompromisų apžvalga.

🔗 Kodėl dirbtinis intelektas laikomas blogu: tamsioji pusė
Nagrinėjamas netinkamas naudojimas, manipuliavimas, saugumo grėsmės ir etiniai klausimai.


Ką žmonės turi omenyje sakydami „Ar dirbtinis intelektas nuėjo per toli?“ 😬

Dauguma žmonių neklausia, ar dirbtinis intelektas yra „sąmoningas“, ar „perimiantis valdžią“. Jie rodo į vieną iš šių dalykų:

  • Dirbtinis intelektas naudojamas ten, kur jis neturėtų būti naudojamas. (Ypač priimant svarbius sprendimus.) ( ES Dirbtinio intelekto įstatymo III priedas , BDAR 22 straipsnis )

  • Dirbtinis intelektas naudojamas be sutikimo. (Jūsų duomenys, jūsų balsas, jūsų veidas... staigmena.) ( JK ICO , BDAR 5 straipsnis )

  • Dirbtinis intelektas tampa pernelyg geras dėmesio manipuliavimo srityje. (Sklaidos kanalai + suasmeninimas + automatizavimas = fiksuotas dėmesys.) ( EBPO dirbtinio intelekto principai )

  • Dirbtinis intelektas verčia tiesą atrodyti neprivaloma. (Giluminės klastotės, netikros apžvalgos, sintetiniai „ekspertai“) ( Europos Komisija , FTC , C2PA )

  • Dirbtinis intelektas sutelkia galią. (Kelios sistemos formuoja tai, ką visi mato ir gali daryti.) ( JK CMA )

„Ar dirbtinis intelektas nuėjo per toli?“ esmė. Tai ne vienas momentas. Tai paskatų, nuorodų ir mąstymo „sutvarkysime vėliau“ krūva, kuri, būkime atviri, dažniausiai reiškia „sutvarkysime, kai kas nors susižeis“. 😑

Ar dirbtinis intelektas nuėjo per toli?

Ne tokia jau slapta tiesa: DI yra daugiklis, o ne moralinis veikėjas 🔧✨

Dirbtinis intelektas neatsibunda ir nenusprendžia būti žalingas. Žmonės ir organizacijos jo siekia. Tačiau jis daugina tai, kuo jį maitinate:

  • Naudingas ketinimas tampa nepaprastai naudingas (vertimas, prieinamumas, santrauka, medicininių modelių nustatymas).

  • Aplaidus ketinimas tampa masiškai aplaidus (šališkumas masto atžvilgiu, klaidų automatizavimas).

  • Blogi ketinimai tampa labai blogi (sukčiavimas, priekabiavimas, propaganda, apsimetinėjimas).

Tai tas pats, kas duoti megafoną mažyliui. Kartais mažylis dainuoja... kartais mažylis rėkia tiesiai į tavo sielą. Ne visai tobula metafora – šiek tiek kvaila – bet esmė pataiko į dešimtuką 😅📢.


Kas daro dirbtinio intelekto versiją gerą kasdienėje aplinkoje? ✅🤝

„Gera DI versija“ neapibrėžiama pagal tai, koks jis protingas. Ji apibrėžiama pagal tai, kaip gerai jis elgiasi esant spaudimui, neapibrėžtumui ir pagundai (o žmones labai vilioja pigi automatizacija). ( NIST AI RMF 1.0 , OECD )

Štai į ką atkreipiu dėmesį, kai kas nors teigia, kad jų dirbtinio intelekto naudojimas yra atsakingas:

1) Aiškios ribos

  • Ką sistemai leidžiama daryti?

  • Ką daryti aiškiai draudžiama?

  • Kas nutinka, kai kyla neaiškumų?

2) Tikra, o ne dekoratyvi žmogaus atskaitomybė

Žmogaus atliktas „peržiūros“ rezultatas yra svarbus tik tuo atveju, jei:

  • jie supranta, ką peržiūri, ir

  • jie gali jį panaikinti nebūdami baudžiami už sulėtėjimą.

3) Tinkamas paaiškinamumas

Ne visiems reikia matematikos. Žmonėms reikia:

  • pagrindinės sprendimo priežastys,

  • kokie duomenys buvo panaudoti,

  • Kaip pateikti apeliaciją, ištaisyti klaidas arba atsisakyti. ( JK ICO )

4) Išmatuojamas našumas, įskaitant gedimų režimus

Ne tik „tikslumas“, bet ir:

  • kam tai nepavyksta,

  • kaip dažnai tai tyliai nepavyksta,

  • Kas nutinka, kai keičiasi pasaulis? ( NIST AI RMF 1.0 )

5) Privatumas ir sutikimas, kurie nėra „palaidoti nustatymuose“

Jei sutikimui gauti reikia ieškoti lobių per meniu... tai nėra sutikimas. Tai spraga su papildomais žingsniais 😐🧾. ( BDAR 5 str ., JK ICO )


Palyginimo lentelė: praktiniai būdai, kaip sustabdyti dirbtinį intelektą nuo per didelio nutekėjimo 🧰📊

Žemiau pateikiamos „geriausi parinktys“ ta prasme, kad tai yra įprastos apsauginės priemonės arba operaciniai įrankiai, kurie keičia rezultatus (ne tik atmosferą).

Įrankis / parinktis Auditorija Kaina Kodėl tai veikia
Žmogaus įtraukimo į procesą peržiūra ( ES Dirbtinio intelekto įstatymas ) Komandos, priimančios svarbius sprendimus ££ (laiko sąnaudos) Sulėtina prastą automatizavimą. Be to, žmonės kartais gali pastebėti keistus kraštutinius atvejus..
Sprendimo apeliacijos procesas ( BDAR 22 straipsnis ) Dirbtinio intelekto sprendimų paveikti vartotojai Laisvas Pridedamas tinkamas procesas. Žmonės gali ištaisyti neteisingus duomenis – skamba paprastai, nes tai yra paprasta
Audito žurnalai + atsekamumas ( NIST SP 800-53 ) Atitiktis, operacijos, saugumas £-££ Leidžia atsakyti į klausimą „kas nutiko?“ po nesėkmės, o ne gūžčioti pečiais
Modelio vertinimas + šališkumo testavimas ( NIST AI RMF 1.0 ) Produktų ir rizikos komandos labai skiriasi Anksti aptinka nuspėjamą žalą. Ne tobula, bet geriau nei spėlioti
Raudonosios komandos testavimas ( NIST GenAI profilis ) Apsauga + apsaugos darbuotojai £££ Imituoja piktnaudžiavimą anksčiau, nei tai padaro tikri užpuolikai. Nemalonu, bet verta 😬
Duomenų kiekio mažinimas ( JK ICO ) Visi, atvirai kalbant £ Mažiau duomenų = mažiau netvarkos. Taip pat mažiau pažeidimų, mažiau nepatogių pokalbių
Turinio kilmės signalai ( C2PA ) Platformos, žiniasklaida, vartotojai £-££ Padeda patikrinti, ar „ar tai padarė žmogus?“ – nėra patikimas, bet sumažina chaosą
Spartos apribojimai + prieigos kontrolė ( OWASP ) Dirbtinio intelekto teikėjai + įmonės £ Akimirksniu sustabdo piktnaudžiavimo plitimą. Tarsi greičio mažinimo kalnelis piktavaliams

Taip, stalas šiek tiek nelygus. Toks jau gyvenimas. 🙂


Dirbtinis intelektas priimant svarbius sprendimus: kai jis peržengia ribas 🏥🏦⚖️

Čia viskas greitai pasidaro rimtu.

Dirbtinis intelektas sveikatos priežiūros , finansų , būsto , užimtumo , švietimo , imigracijos , baudžiamosios teisenos srityse – tai sistemos, kuriose: ( ES Dirbtinio intelekto įstatymo III priedas , FDA )

  • Klaida gali kainuoti kam nors pinigus, laisvę, orumą ar saugumą,

  • ir nukentėjęs asmuo dažnai turi ribotas galimybes kovoti.

Didžiausia rizika yra ne ta, kad „DI daro klaidas“. Didžiausia rizika yra ta, kad DI klaidos tampa politika . ( NIST AI RMF 1.0 )

Kaip čia atrodo „per toli“

  • Automatizuoti sprendimai be paaiškinimo: „kompiuteris sako „ne“.“ ( JK ICO )

  • „Rizikos balai“ traktuojami kaip faktai, o ne spėjimai.

  • Žmonės, kurie negali pakeisti rezultatų, nes vadovybė nori greičio.

  • Netvarkingi, šališki, pasenę arba tiesiog klaidingi duomenys.

Kas turėtų būti nederybų objektas

  • Teisė pateikti apeliaciją (greita, suprantama, be labirinto). ( BDAR 22 straipsnis , JK ICO )

  • Teisė žinoti , kad dalyvavo dirbtinis intelektas. ( Europos Komisija )

  • Žmogaus atliekamas vertinimas dėl pasekmių. ( NIST AI RMF 1.0 )

  • Duomenų kokybės kontrolė – nes „šiukšlės įeina, šiukšlės išeina“ vis dar skausmingai tiesa.

Jei bandote nubrėžti aiškią ribą, štai viena:
jei dirbtinio intelekto sistema gali iš esmės pakeisti kažkieno gyvenimą, jai reikia tokio pat rimtumo, kokio tikimės iš kitų valdžios formų. Jokių „beta testų“ su žmonėmis, kurie neužsiregistravo. 🚫


Giluminės klastotės, sukčiavimas ir lėta „Aš pasitikiu savo akimis“ mirtis 👀🧨

Tai yra ta dalis, dėl kurios kasdienis gyvenimas atrodo... slidus.

Kai dirbtinis intelektas gali generuoti:

  • balso žinutė, kuri skamba kaip jūsų šeimos nario ( FTC , FTB )

  • vaizdo įrašas, kuriame viešas asmuo kažką „sako“,

  • netikrų atsiliepimų, kurie atrodo pakankamai autentiški, potvynis ( FTC )

  • netikras „LinkedIn“ profilis su netikra darbo istorija ir netikrais draugais..

...tai ne tik sudaro sąlygas sukčiavimui. Tai silpnina socialinius ryšius, kurie leidžia nepažįstamiems žmonėms koordinuoti veiksmus. O visuomenė veikia nepažįstamųjų koordinavimo dėka. 😵💫

„Per toli“ – tai ne tik netikras turinys

Tai asimetrija :

  • Pigu kurti melą.

  • Tiesos patikrinimas yra brangus ir lėtas.

  • Ir dauguma žmonių yra užsiėmę, pavargę ir slenka internete.

Kas padeda (truputį)

  • Medijos kilmės žymekliai. ( C2PA )

  • Trintis dėl viralumo – lėtina momentinį masinį dalijimąsi.

  • Geresnis tapatybės patvirtinimas ten, kur tai svarbu (finansai, valdžios paslaugos).

  • Pagrindiniai asmenų „patikrinkite už juostos ribų“ įpročiai (perskambinkite, naudokite kodinį žodį, patvirtinkite kitu kanalu). ( FTC )

Ne itin žavinga. Bet saugos diržai irgi ne, o aš prie jų asmeniškai esu gana prisirišęs. 🚗


Stebėjimo šliaužimas: kai dirbtinis intelektas tyliai viską paverčia jutikliu 📷🫥

Šitas nesprogsta kaip deepfake'as. Jis tiesiog plinta.

Dirbtinis intelektas leidžia lengvai:

Ir net jei prognozė netiksli, ji vis tiek gali būti žalinga, nes gali pateisinti intervenciją. Neteisinga prognozė vis tiek gali sukelti realių pasekmių.

Nepatogus dalykas

Dirbtinio intelekto valdoma stebėsena dažnai pateikiama kartu su saugumo istorija:

  • „Tai skirta sukčiavimo prevencijai.“

  • „Tai dėl saugumo.“

  • „Tai skirta vartotojo patirčiai.“

Kartais tai tiesa. Kartais tai taip pat patogus pasiteisinimas kurti sistemas, kurias vėliau labai sunku išardyti. Pavyzdžiui, įsirengti vienpuses duris savo namuose, nes tuo metu tai atrodė efektyvu. Vėlgi, ne tobula metafora – šiek tiek juokinga – bet tu tai jauti. 🚪😅

Kaip čia atrodo „gerai“

  • Griežti saugojimo ir bendrinimo apribojimai.

  • Aiškūs atsisakymai.

  • Siauros naudojimo atvejai.

  • Nepriklausoma priežiūra.

  • Prašau, „emocijų aptikimas“ nenaudojamas bausmėms ar vartų apsaugai. 🙃 ( ES Dirbtinio intelekto įstatymas )


Darbas, kūryba ir tyli kvalifikacijos kėlimo problema 🧑💻🎨

Čia diskusija tampa asmeniška, nes ji paliečia tapatybę.

Dirbtinis intelektas gali padidinti žmonių produktyvumą. Jis taip pat gali padėti žmonėms pasijusti pakeičiamiems. Abu variantai gali būti teisingi tuo pačiu metu, tą pačią savaitę. ( EBPO , WEF )

Kur tai tikrai naudinga

  • Įprasto teksto rašymas, kad žmonės galėtų sutelkti dėmesį į mąstymą.

  • Pagalba koduojant pasikartojančius modelius.

  • Prieinamumo įrankiai (antraščiai, santraukos, vertimas).

  • Idėjų generavimas, kai esi įstrigęs.

Kur nueina per toli

  • Pareigų pakeitimas be pereinamojo plano.

  • Dirbtinio intelekto naudojimas siekiant sumažinti gamybą ir tuo pačiu išlyginti atlyginimus.

  • Kūrybinį darbą traktuoti kaip begalinius nemokamus mokymo duomenis, o tada gūžčioti pečiais. ( JAV autorių teisių biuras , JK GOV.UK )

  • Išnykdyti jaunesniųjų pareigybes – tai skamba efektyviai, kol nesupranti, kad ką tik perkopei kopėčias, kuriomis turi lipti būsimi ekspertai.

Įgūdžių mažinimas yra subtilus procesas. To kasdien nepastebi. Tada vieną dieną supranti, kad niekas komandoje neprisimena, kaip viskas veikia, be asistento. O jei asistentas klysta, jūs visi kartu esate visiškai klydę... o tai yra tikras košmaras. 😬


Galios koncentracija: kas gali nustatyti numatytuosius nustatymus? 🏢⚡

Net jei dirbtinis intelektas yra „neutralus“ (taip nėra), kas jį valdo, gali formuoti:

  • kokią informaciją lengva pasiekti,

  • kas paaukštinama arba palaidojama,

  • kokia kalba leidžiama,

  • koks elgesys yra skatinamas.

Kadangi dirbtinio intelekto sistemų kūrimas ir eksploatavimas gali būti brangus, valdžia linkusi sutelkti dėmesį. Tai ne sąmokslo teorija. Tai ekonomika su technologiniu džemperiu. ( JK CMA )

„Per toli“ momentas čia

Kai įsipareigojimų nevykdymas tampa nematomu įstatymu:

  • nežinai, kas filtruojama,

  • Logikos patikrinti negalima,

  • ir jūs negalite realiai atsisakyti neprarasdami galimybės dirbti, dalyvauti bendruomenėje ar gauti pagrindines paslaugas.

Sveikai ekosistemai reikalinga konkurencija, skaidrumas ir realus vartotojų pasirinkimas. Priešingu atveju jūs iš esmės nuomojatės realybę. 😵♂️


Praktinis kontrolinis sąrašas: kaip suprasti, ar dirbtinis intelektas jūsų pasaulyje peržengia ribas 🧾🔍

Štai mano naudojamas nuovokos sąrašas (taip, jis netobulas):

Jei esate individualus asmuo

  • Jaučiu, kada bendrauju su dirbtiniu intelektu. ( Europos Komisija )

  • Ši sistema verčia mane per daug dalintis.

  • Nesutikčiau su išvestimi, jei ji įtikinamai klaidinga.

  • Jei mane apgautų naudojantis šia platforma, ji man padėtų... arba gūžtelėtų pečiais.

Jei esate verslas ar komanda

  • Mes naudojame dirbtinį intelektą, nes jis vertingas, arba todėl, kad jis madinga, o vadovybė nerami.

  • Žinome, kokius duomenis sistema liečia.

  • Nukentėjęs vartotojas gali apskųsti rezultatus. ( JK ICO )

  • Žmonės turi teisę nepaisyti modelio.

  • Turime incidentų reagavimo planus dirbtinio intelekto gedimams.

  • Stebime nukrypimus, netinkamą naudojimą ir neįprastus kraštutinius atvejus.

Jei į daugelį šių klausimų atsakėte „ne“, tai nereiškia, kad esate blogas. Tai reiškia, kad esate įprastoje žmogiškoje būsenoje: „Mes tai išsiuntėme ir tikėjomės“. Bet, deja, viltis nėra strategija. 😅


Baigiamosios pastabos 🧠✅

Taigi… Ar dirbtinis intelektas nuėjo per toli?
Jis nuėjo per toli ten, kur naudojamas be atskaitomybės , ypač priimant svarbius sprendimus, masiniam įtikinėjimui ir stebėjimui. Jis taip pat nuėjo per toli ten, kur griauna pasitikėjimą – nes kai pasitikėjimas nutrūksta, viskas tampa brangiau ir priešiškiau, socialiniu požiūriu. ( NIST AI RMF 1.0 , ES dirbtinio intelekto įstatymas )

Tačiau dirbtinis intelektas nėra iš esmės pasmerktas žlugti ar tobulas. Jis yra galingas daugiklis. Kyla klausimas, ar apsauginius barjerus kuriame taip pat agresyviai, kaip ir galimybes.

Trumpa santrauka:

  • DI yra geras įrankis.

  • Tai pavojinga kaip neatskaitinga institucija.

  • Jei kas nors negali pateikti apeliacijos, suprasti ar atsisakyti – čia prasideda „per daug“. 🚦 ( BDAR 22 str. , JK ICO )


DUK

Ar dirbtinis intelektas nuėjo per toli kasdieniame gyvenime?

Daugelyje vietų dirbtinis intelektas nuėjo per toli, nes pradėjo skverbtis į sprendimus ir sąveiką be aiškių ribų ar atskaitomybės. Problema retai būna „DI egzistavimas“; tai yra dirbtinis intelektas, tyliai integruojamas į įdarbinimą, sveikatos priežiūrą, klientų aptarnavimą ir informacijos srautus su menka priežiūra. Kai žmonės negali atskirti, kad tai dirbtinis intelektas, negali ginčyti rezultatų arba negali atsisakyti, jis nustoja atrodyti kaip įrankis ir pradeda atrodyti kaip sistema.

Kaip atrodo „peržengiantis dirbtinio intelekto ribas“ priimant svarbius sprendimus?

Panašu, kad dirbtinis intelektas sveikatos priežiūros, finansų, būsto, užimtumo, švietimo, imigracijos ar baudžiamosios teisenos srityse naudojamas be tvirtų apsauginių priemonių. Pagrindinė problema yra ne ta, kad modeliai daro klaidų, o ta, kad tos klaidos įsitvirtina politikoje ir tampa sunkiai ginčijamos. Sprendimai „kompiuteris sako ne“ su silpnais paaiškinimais ir be prasmingų apeliacijų yra tai, kur žala greitai išauga.

Kaip sužinoti, ar mane veikia automatizuotas sprendimas, ir ką galiu padaryti?

Dažnas požymis – staigus rezultatas, kurio negalite paaiškinti: atmetimas, apribojimas arba „rizikos balo“ pojūtis be aiškios priežasties. Daugelyje sistemų turėtų būti atskleista, kada dirbtinis intelektas atliko esminį vaidmenį, ir jūs turėtumėte galėti paprašyti pagrindinių sprendimo priežasčių ir veiksmų, kaip jį apskųsti. Praktiškai prašykite žmogaus peržiūros, ištaisykite bet kokius neteisingus duomenis ir siekite paprasto atsisakymo būdo.

Ar dirbtinis intelektas nuėjo per toli su privatumu, sutikimu ir duomenų naudojimu?

Dažnai taip nutinka, kai sutikimas tampa lobių paieška, o duomenų rinkimas plečiasi „tik tuo atveju“. Pagrindinė straipsnio mintis yra ta, kad privatumas ir sutikimas neturi didelės reikšmės, jei jie paslėpti aplinkoje arba primesti neaiškiais terminais. Sveikesnis požiūris yra duomenų kiekio mažinimas: rinkti mažiau, saugoti mažiau ir daryti neabejotinus pasirinkimus, kad žmonės vėliau nenustebtų.

Kaip giliosios klastotės ir dirbtinio intelekto sukčiavimas keičia tai, ką reiškia „pasitikėjimas“ internete?

Jie sumažina įtikinamų netikrų balsų, vaizdo įrašų, apžvalgų ir tapatybių kūrimo kainą, todėl tiesa atrodo neprivaloma. Problema yra asimetrija: melo generavimas yra pigus, o tiesos tikrinimas – lėtas ir varginantis. Praktinės gynybos priemonės apima kilmės signalus žiniasklaidai, virusinio platinimo sulėtinimą, griežtesnius tapatybės patikrinimus ten, kur tai svarbu, ir „už dažnių juostos ribų patvirtinimo“ įpročius, tokius kaip perskambinimas ar bendro kodinio žodžio naudojimas.

Kokios yra praktiškiausios apsauginės priemonės, neleidžiančios dirbtiniam intelektui peržengti ribos?

Apsauginės priemonės, kurios keičia rezultatus, apima tikrą žmogaus dalyvavimą svarbių sprendimų peržiūroje, aiškius apeliacijų procesus ir audito žurnalus, kurie gali atsakyti į klausimą „kas nutiko?“ po nesėkmių. Modelių vertinimas ir šališkumo testavimas gali anksčiau aptikti nuspėjamą žalą, o raudonųjų komandų testavimas imituoja piktnaudžiavimą, kol tai padaro užpuolikai. Dažnio apribojimai ir prieigos kontrolė padeda akimirksniu užkirsti kelią piktnaudžiavimui, o duomenų kiekio mažinimas sumažina riziką visoje srityje.

Kada dirbtinio intelekto valdoma stebėsena peržengia ribą?

Riba peržengiama, kai viskas pagal nutylėjimą tampa jutikliu: veido atpažinimas minioje, judesių sekimas ar patikimas „emocijų aptikimas“, naudojamas bausmėms ar vartų apsaugai. Net netikslios sistemos gali padaryti rimtos žalos, jei pateisina intervencijas ar paslaugų atsisakymą. Gera praktika apima siaurus naudojimo atvejus, griežtus saugojimo apribojimus, prasmingus atsisakymus, nepriklausomą priežiūrą ir tvirtą „ne“ netvirtiems, emocijomis pagrįstiems sprendimams.

Ar dirbtinis intelektas didina žmonių produktyvumą, ar tyliai mažina darbo kvalifikaciją?

Abu gali būti teisingi tuo pačiu metu, ir būtent ta įtampa yra esmė. Dirbtinis intelektas gali padėti atlikti įprastinius braižymo darbus, pasikartojančius kodavimo šablonus ir užtikrinti prieinamumą, atlaisvindamas žmones sutelkti dėmesį į aukštesnio lygio mąstymą. Tai peržengia ribas, kai pakeičia pareigybes be pereinamojo plano, mažina atlyginimus, traktuoja kūrybinį darbą kaip nemokamus mokymo duomenis arba pašalina jaunesniųjų pareigybes, kurios kuria būsimą patirtį. Įgūdžių mažinimas lieka subtilus, kol komandos nebegali funkcionuoti be asistento.

Nuorodos

  1. Nacionalinis standartų ir technologijų institutas (NIST)Dirbtinio intelekto rizikos valdymo sistema (AI RMF 1.0)nist.gov

  2. Europos SąjungaES dirbtinio intelekto įstatymas (Reglamentas (ES) 2024/1689) – Oficialusis leidinys (anglų kalba)europa.eu

  3. Europos KomisijaDirbtinio intelekto reguliavimo sistema (ES Dirbtinio intelekto akto politikos puslapis)europa.eu

  4. ES Dirbtinio intelekto akto pagalbos tarnyba . III priedas (Didelės rizikos dirbtinio intelekto sistemos)europa.eu

  5. Europos SąjungaPatikimo dirbtinio intelekto taisyklės ES (ES dirbtinio intelekto akto santrauka)europa.eu

  6. JK informacijos komisaro biuras (ICO)Kas yra automatizuotas individualių sprendimų priėmimas ir profiliavimas?ico.org.uk

  7. JK informacijos komisaro biuras (ICO)Ką JK BDAR sako apie automatizuotą sprendimų priėmimą ir profiliavimą?ico.org.uk

  8. JK informacijos komisaro biuras (ICO)Automatizuotas sprendimų priėmimas ir profiliavimas (konsultavimo centras)ico.org.uk

  9. JK informacijos komisaro biuras (ICO)Duomenų kiekio mažinimas (JK BDAR principų gairės)ico.org.uk

  10. GDPR-info.eu - BDAR 22 straipsnis - gdpr-info.eu

  11. GDPR-info.euBDAR 5 straipsnisgdpr-info.eu

  12. JAV federalinė prekybos komisija (FTC)Sukčiai naudoja dirbtinį intelektą, kad pagerintų savo šeimos avarinių situacijų schemasftc.gov

  13. JAV federalinė prekybos komisija (FTC)Sukčiai naudoja netikras avarines situacijas, kad pavogtų jūsų pinigusftc.gov

  14. JAV federalinė prekybos komisija (FTC)Galutinė taisyklė, draudžianti netikras apžvalgas ir rekomendacijas (pranešimas spaudai)ftc.gov

  15. Federalinis tyrimų biuras (FTB) įspėja apie didėjančią dirbtinio intelekto naudojimo kibernetinių nusikaltėlių grėsmę - fbi.gov

  16. Ekonominio bendradarbiavimo ir plėtros organizacija (EBPO)EBPO dirbtinio intelekto principaioecd.ai

  17. EBPOTarybos rekomendacija dėl dirbtinio intelekto (OECD/LEGAL/0449)oecd.org

  18. Europos KomisijaSkaidrių dirbtinio intelekto sistemų gairės ir praktikos kodeksas (DUK)europa.eu

  19. Turinio kilmės ir autentiškumo koalicija (C2PA)specifikacijos v2.3c2pa.org

  20. JK konkurencijos ir rinkų tarnyba (CMA)Dirbtinio intelekto pagrindų modeliai: pradinė ataskaitagov.uk

  21. JAV Maisto ir vaistų administracija (FDA)dirbtinio intelekto valdomi medicinos prietaisaifda.gov

  22. NISTInformacinių sistemų ir organizacijų saugumo ir privatumo kontrolė (SP 800-53 Rev. 5)nist.gov

  23. NISTGeneratyvaus dirbtinio intelekto profilis (NIST.AI.600-1, ipd)nist.gov

  24. Atvirojo pasaulinio programų saugumo projektas (OWASP)neribotas išteklių naudojimas (API saugumo top 10, 2023 m.)owasp.org

  25. NISTVeidų atpažinimo tiekėjo testo (FRVT) demografiniai duomenysnist.gov

  26. Barrett ir kt. (2019)Straipsnis (PMC)nih.gov

  27. OECDDirbtinio intelekto naudojimas darbo vietoje (PDF)oecd.org

  28. Pasaulio ekonomikos forumas (PEF)2025 m. darbo vietų ateities ataskaita – santraukaweforum.org

  29. JAV autorių teisių biurasAutorių teisės ir dirbtinis intelektas, 3 dalis: Generatyviojo dirbtinio intelekto mokymo ataskaita (prieš publikaciją) (PDF)copyright.gov

  30. JK vyriausybė (GOV.UK)Autorių teisės ir dirbtinis intelektas (konsultacijos)gov.uk

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį