Dirbtinio intelekto reguliavimo naujienos

Dirbtinio intelekto reguliavimo naujienos šiandien

Patekote į AI asistento parduotuvę , taigi jau esate tinkamoje vietoje.

Kasdienes dirbtinio intelekto reguliavimo naujienas rasite naujienų skiltyje

„AI Assistant Store“ idėja iš esmės yra tokia: nustokite skęsti dirbtinio intelekto triukšme, raskite dirbtinį intelektą, kuriuo iš tikrųjų galite pasitikėti, ir gyvenkite toliau 😅 – su verslo dirbtiniu intelektu, asmeniniu dirbtiniu intelektu, straipsniais ir naujienomis vienoje vietoje. [5]


Dabartinė atmosfera: reguliavimas pereina nuo „principų“ prie „įrodymo“ 🧾🧠

Daug dirbtinio intelekto taisyklių ir vykdymo užtikrinimo lūkesčių keičiasi iš gražiai skambančių vertybių (sąžiningumas! skaidrumas! atskaitomybė!) į veiklos lūkesčius :

  • parodyk savo darbus

  • dokumentuokite savo sistemą

  • žymėti tam tikrą sintetinį turinį

  • valdyti tiekėjus nuoširdžiai

  • įrodyti, kad valdymas egzistuoja ne tik skaidrių demonstravimo srityje

  • saugoti audito takelius, kurie išliktų susidūrus su realybe

ES Dirbtinio intelekto įstatymas yra puikus šios „įrodymo“ krypties pavyzdys: jame kalbama ne tik apie patikimą dirbtinį intelektą, bet ir įsipareigojimai suskirstomi pagal naudojimo atvejį ir riziką (įskaitant skaidrumo lūkesčius konkrečiuose scenarijuose). [1]

 

Dirbtinio intelekto reguliavimo naujienos

Dirbtinio intelekto reguliavimo naujienos šiandien: istorijos, kurios iš tikrųjų pakeičia jūsų kontrolinį sąrašą ✅⚖️

Ne kiekviena antraštė svarbi. Svarbios yra tos istorijos, kurios priverčia keisti produktą , procesą ar pirkimą .

1) Griežtėja skaidrumo ir ženklinimo reikalavimai 🏷️🕵️♂️

Visose rinkose „skaidrumas“ vis dažniau traktuojamas kaip produkto kūrimas , o ne filosofija. ES kontekste Dirbtinio intelekto įstatyme aiškiai numatyti su skaidrumu susiję įpareigojimai tam tikroms dirbtinio intelekto sistemų sąveikoms ir tam tikroms sintetinio ar manipuliuojamo turinio situacijoms. Tai virsta konkrečiais neatitikimų sąrašais: UX pranešimais, atskleidimo modeliais, turinio tvarkymo taisyklėmis ir vidinėmis peržiūros sritimis. [1]

Ką tai reiškia praktiškai:

  • informacijos atskleidimo modelis, kurį galite taikyti nuosekliai (ne vienkartinis iššokantis langas, kurį kažkas pamiršta pakartotinai panaudoti)

  • politika, kada reikia signalizuoti išvestis ir kur ta signalizacija yra (naudotojo sąsaja, metaduomenys, abu)

  • pakartotinio naudojimo planas (nes jūsų turinys bus nukopijuotas, ekrano kopijų darytas, perdarytas... ir vis tiek apkaltintas jūs)

2) „Vienas švarus standartas“ yra mitas (todėl kurkite pasikartojantį valdymą) 🇺🇸🧩

Jurisdikcijos išsiplėtimas niekur nedings, o vykdymo užtikrinimo stiliai labai skiriasi. Praktiškai reikia sukurti pakartojamą vidaus valdymo metodą , kurį būtų galima pritaikyti keliems režimams.

Jei norite kažko, kas veiktų kaip „valdymo LEGO“, padeda rizikos valdymo sistemos. NIST dirbtinio intelekto rizikos valdymo sistema (AI RMF 1.0) yra plačiai naudojama kaip bendra kalba rizikai ir kontrolei nustatyti visuose dirbtinio intelekto gyvavimo ciklo etapuose – net kai tai nėra teisiškai privaloma. [2]

3) Vykdymo užtikrinimas nėra tik „nauji dirbtinio intelekto įstatymai“ – tai esami įstatymai, taikomi dirbtiniam intelektui 🔍⚠️

Daug realaus pasaulio problemų kyla dėl senų taisyklių taikymo naujam elgesiui : apgaulinga rinkodara, klaidinantys teiginiai, nesaugaus naudojimo atvejai ir optimizmas „tikrai pardavėjas tai numatė“.

Pavyzdžiui, JAV federalinė prekybos komisija ėmėsi aiškių veiksmų, nukreiptų prieš klaidinančius su dirbtiniu intelektu susijusius teiginius ir schemas (ir viešai aprašė šiuos veiksmus pranešimuose spaudai). Kitaip tariant, „DI“ stebuklingai neatleidžia nieko nuo pareigos pagrįsti teiginius. [4]

4) „Valdymas“ tampa sertifikuojamos valdymo sistemos įvaizdžiu 🧱✅

Vis daugiau organizacijų pereina nuo neoficialių „atsakingo dirbtinio intelekto principų“ prie formalizuotų valdymo sistemų metodų – tokių, kuriuos galima pritaikyti praktikoje, audituoti ir tobulinti laikui bėgant.

Štai kodėl tokie standartai kaip ISO/IEC 42001:2023 (DI valdymo sistemos) nuolat minimi rimtuose pokalbiuose: jie yra sudaryti iš DI valdymo sistemos kūrimo organizacijos viduje (politikos, vaidmenys, nuolatinis tobulinimas – nuobodūs dalykai, kurie sustabdo gaisrus). [3]


Kas daro „AI reguliavimo naujienų šiandienos“ centrą geru? 🧭🗞️

Jei bandote sekti dirbtinio intelekto reguliavimą ir neprarasti savaitgalio, geras centras turėtų:

  • atskirti signalą nuo triukšmo (ne kiekvienas mąstytojas keičia įsipareigojimus)

  • nuoroda į pirminius šaltinius (reguliavimo institucijas, standartų įstaigas, faktinius dokumentus)

  • paversti veiksmais (kokie politikos, produkto ar viešųjų pirkimų pakeitimai?)

  • sujungti taškus (taisyklės + įrankiai + valdymas)

  • pripažinti daugiajurisdikcinę netvarką (nes ji tokia ir yra)

  • išlikite praktiški (šablonai, kontroliniai sąrašai, pavyzdžiai, tiekėjų sekimas)

Čia taip pat prasminga „AI Assistant Store“ pozicija: ji nesiekia būti teisine duomenų baze – ji siekia būti atradimų ir praktiškumo sluoksniu, kad galėtumėte greičiau pereiti nuo klausimo „kas pasikeitė?“ prie klausimo „ką mes su tuo darysime?“. [5]


Palyginimo lentelė: šiandienos dirbtinio intelekto reguliavimo naujienų stebėjimas (ir praktiškumas) 💸📌

Pasirinkimas / „įrankis“ Auditorija Kodėl tai veikia (kada veikia)
Dirbtinio intelekto asistento parduotuvė komandos + individualūs asmenys Kuruojamas būdas naršyti dirbtinio intelekto įrankius ir dirbtinio intelekto turinį vienoje vietoje, padedantis „naujienas“ paversti „kitais žingsniais“ neatidarant 37 skirtukų. [5]
Pagrindiniai reguliatoriaus puslapiai kas nors siunčia siuntas į tą regioną Lėtas, sausas, autoritetingas . Puikiai tinka, kai reikia tiesos šaltinio formuluotės.
Rizikos vertinimo sistemos (NIST stiliaus metodai) statybininkai + rizikos komandos Suteikia bendrą kontrolės kalbą, kurią galite pritaikyti skirtingose ​​jurisdikcijose (ir paaiškinti auditoriams be vargo). [2]
Vadybos sistemos standartai (ISO stiliaus) didesnės organizacijos + reguliuojamos komandos Padeda įforminti valdymą, kad jis taptų pakartojamas ir audituojamas (mažiau „komiteto vibracijų“, daugiau „sistemos“). [3]
Vartotojų teisių apsaugos vykdymo signalai produktas + rinkodara + teisinė informacija Primena komandoms, kad „DI“ teiginiams vis dar reikia įrodymų; įgyvendinimas gali būti labai realus ir labai greitas. [4]

Taip, lentelė nelygi. Tai tyčia. Tikros komandos negyvena idealiai suformatuotame pasaulyje.


Slapta dalis: atitiktis nebėra tik „legali“ – tai produkto dizainas 🧑💻🔍

Net jei turite teisininkų (arba ypač jei turite teisininkų), dirbtinio intelekto atitiktis paprastai suskaidoma į pasikartojančius elementus:

  • Inventorius – koks DI egzistuoja, kam jis priklauso, kokius duomenis jis liečia

  • Rizikos triažas – kas yra didelį poveikį turintis, su klientu susijęs ar automatizuotas sprendimų priėmimas

  • Valdikliai – registravimas, priežiūra, testavimas, privatumas, saugumas

  • Skaidrumas – informacijos atskleidimas, paaiškinamumas, turinio signalizacijos modeliai (jei taikoma) [1]

  • Tiekėjų valdymas – sutartys, deramas patikrinimas, incidentų valdymas

  • Stebėjimas – poslinkis, netinkamas naudojimas, patikimumas, politikos pakeitimai

  • Įrodymai – artefaktai, kurie išgyvena auditus ir piktus el. laiškus

Mačiau, kaip komandos kuria gražias politikas, bet vis tiek susiduria su „atitikties teatru“, nes įrankiai ir darbo eiga neatitiko politikos. Jei tai neišmatuojama ir nepakartojama, tai nėra tikra.


Kur AI asistento parduotuvė nustoja būti „svetaine“ ir tampa jūsų darbo eiga 🛒➡️✅

Komandoms, kurioms daug reglamentų, svarbiausia yra greitis ir kontrolė : atsitiktinės įrankių paieškos mažinimas ir sąmoningas, peržiūrimas pritaikymas.

„AI Assistant Store“ remiasi tuo „katalogas + atradimas“ mentaliniu modeliu – naršykite pagal kategorijas, atrinkite įrankius ir nukreipkite juos per vidinius saugumo / privatumo / pirkimų patikrinimus, užuot leidus šešėliniam DI augti plyšiuose. [5]


Praktinis „daryk tai toliau“ kontrolinis sąrašas komandoms, stebinčioms AI reguliavimo naujienas šiandien ✅📋

  1. Sukurkite dirbtinio intelekto inventorių (sistemos, savininkai, tiekėjai, duomenų tipai)

  2. Pasirinkite rizikos vertinimo sistemą , kad komandos galėtų naudoti bendrą kalbą (ir nuosekliai apibrėžti kontrolės priemones) [2]

  3. Prireikus pridėkite skaidrumo kontrolės priemones

  4. Sustiprinti tiekėjų valdymą (sutartys, auditai, incidentų eskalavimo keliai)

  5. Nustatykite stebėsenos lūkesčius (kokybė, saugumas, netinkamas naudojimas, nukrypimai)

  6. Suteikite komandoms saugias galimybes sumažinti šešėlinį dirbtinį intelektą – čia padeda kuruojamas atradimas [5].


Baigiamosios pastabos

„AI Regulation News Today“ yra ne tik apie naujas taisykles. Kalbama apie tai, kaip greitai tos taisyklės virsta viešųjų pirkimų klausimais, produktų pakeitimais ir „įrodymo“ akimirkomis. Laimės ne komandos, turinčios ilgiausias politikos PDF rinkmenas. Jos bus tos, kurios turės švariausią įrodymų kelią ir daugiausiai kartų valdomą sistemą.

O jei norite centro, kuris sumažintų įrankių chaosą, kol jūs atliekate tikrąjį suaugusiųjų darbą (valdiklį, mokymą, dokumentaciją), „AI Assistant Store“ „viskas po vienu stogu“ atmosfera yra... erzinančiai protinga. [5]


Nuorodos

[1] Oficialus ES reglamento (ES) 2024/1689 (Dirbtinio intelekto įstatymo) tekstas EUR-Lex svetainėje. Skaityti daugiau
[2] NIST leidinys (AI 100-1), kuriame pristatoma Dirbtinio intelekto rizikos valdymo sistema (AI RMF 1.0) – PDF. daugiau
[3] ISO puslapis, skirtas ISO/IEC 42001:2023, kuriame aprašomas dirbtinio intelekto valdymo sistemos standartas. Skaityti daugiau
[4] FTC pranešimas spaudai (2024 m. rugsėjo 25 d.), kuriame skelbiama apie griežtas priemones prieš klaidinančius dirbtinio intelekto teiginius ir schemas. Skaityti daugiau
[5] „AI Assistant Store“ pagrindinis puslapis, skirtas naršyti kuruojamus dirbtinio intelekto įrankius ir išteklius. Skaityti daugiau

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį