Dirbtinio intelekto naujienos, 2026 m. sausio 10 d

Dirbtinio intelekto naujienų santrauka: 2026 m. sausio 10 d

Indonezija blokuoja prieigą prie Musko dirbtinio intelekto pokalbių roboto „Grok“ dėl suklastotų vaizdų

Indonezija laikinai užblokavo „Grok“ po to, kai jis buvo panaudotas generuoti seksualines giliąsias padirbinių kopijas be sutikimo, įskaitant vaizdus, ​​skirtus moterims ir vaikams. Vyriausybė tai įvardijo kaip žmogaus teisių ir visuomenės saugumo problemą, o ne kaip nedidelį technologinį nepatogumą.

Esmė tiesmuka: jei įrankis gali „nurengti“ tikrus žmones pagal komandą, įrodinėjimo našta apsiverčia. Platformos turi parodyti, kad gali to užkirsti kelią, o ne tik prisiekti, kad apie tai galvoja.

Elonas Muskas teigia, kad JK nori užgniaužti žodžio laisvę, nes X gali būti uždrausta

JK ministrai atvirai siūlė baudas ir netgi blokuoti „X“ po to, kai „Grok“ buvo panaudotas seksualiai provokuojantiems vaizdams kurti be jo sutikimo. Muskas priešinosi įprasta žodžio laisvės samprata... tačiau teisinė padėtis JK artėja nuo „debatų klubo“ link „atitikties termino“

„Ofcom“ raginama veikti greitai, o įstatymų leidėjai atkreipia dėmesį į tą pačią niūrią tendenciją: kai vaizdai išplinta, žala kantriai nelaukia politikos atnaujinimo.

🧑💻 Pranešama, kad „OpenAI“ prašo rangovų įkelti tikrus darbus iš ankstesnių darbų

Pranešama, kad „OpenAI“ kartu su mokymo duomenų partneriu prašo rangovų įkelti realius darbo artefaktus iš ankstesnių (ir dabartinių) darbų – dokumentus, skaičiuokles, duomenų rinkinius, saugyklas. Nurodytas tikslas – įvertinti ir patobulinti dirbtinio intelekto agentus atliekant biuro tipo užduotis.

Keblus aspektas akivaizdus ir šiek tiek siurrealistinis: rangovams nurodoma patiems išvalyti neskelbtiną informaciją. Tai didelis pasitikėjimas greitai besikeičiančiu procesu – tas pats, kas prašyti ko nors su meile neutralizuoti bombą naudojant orkaitės pirštines.

🗂️ „OpenAI“ prašo rangovų įkelti darbus iš ankstesnių darbų, kad būtų galima įvertinti dirbtinio intelekto agentų našumą

Atskiroje ataskaitoje nagrinėjama ta pati situacija ir kodėl ji kelia nerimą privatumo ir intelektinės nuosavybės teisininkams. Net jei visi elgiasi sąžiningai, „pašalinti konfidencialius duomenis“ yra nekonkreti instrukcija, kai kalbama apie tikrus įmonių dokumentus.

Tai taip pat užsimena apie platesnę strategiją: dirbtinio intelekto agentai nebėra tik plepūs antrieji pilotai – jie mokomi imituoti painią, daugiafailę tikrojo darbo realybę. Praktiška, taip. Be to, šiek tiek... vau.

🏦 „Allianz“ ir „Anthropic Forge“ kuria pasaulinę partnerystę, siekdamos skatinti atsakingą dirbtinį intelektą draudimo srityje

„Allianz“ ir „Anthropic“ paskelbė apie pasaulinę partnerystę, orientuotą į tris sritis: darbuotojų produktyvumą, veiklos automatizavimą pasitelkiant agentinį dirbtinį intelektą ir atitikties reikalavimams užtikrinimą pagal dizainą. Draudimas – tai kruopštus popierizmas, todėl „agentinis“ čia iš esmės reiškia sudėtingų darbo eigų automatizavimą neprarandant audito takelių.

Atmosfera tokia: atlikite šaunią automatizaciją, bet išsaugokite kvitus. Reguliuojamose pramonės šakose tai vienintelis būdas, kaip tai gali plėstis ir nevirsti įsipareigojimų pinjata.

🕵️♂️ Pareiškimas atsakant į „Grok AI“ apie X

JK duomenų apsaugos reguliavimo institucija teigia, kad susisiekė su X ir xAI, siekdama išsiaiškinti, kaip jos tvarko asmens duomenis ir saugo žmonių teises, atsižvelgdama į susirūpinimą dėl „Grok“ sukurto turinio. Kalbama ne tik apie „turinio moderavimą“ – svarbu ir tai, ar žmonių duomenys tvarkomi teisėtai ir ar saugomos jų teisės.

Tai toks reguliavimo žingsnis, kuris skamba mandagiai, o paskui tyliai tampa itin rimtu, jei atsakymai būna neaiškūs... arba išsisukinėjantys, arba ir viena, ir kita.

DUK

Kodėl Indonezija blokavo prieigą prie „Grok“ dirbtinio intelekto?

Indonezija laikinai užblokavo „Grok“, kai, kaip pranešama, jis buvo naudojamas generuoti seksualines giliąsias padirbinių nuotraukas be sutikimo, įskaitant vaizdus, ​​skirtus moterims ir vaikams. Pareigūnai šį žingsnį įvardijo kaip žmogaus teisių ir visuomenės saugumo problemą, o ne kaip nedidelį technologinį ginčą. Pagrindinė žinutė yra ta, kad „mes tai pataisysime vėliau“ yra nepakankama, kai įrankiai gali padaryti tiesioginę ir negrįžtamą žalą.

Ką JK svarsto po to, kai X platformoje pasirodė „Grok“ sugeneruoti gilieji klastotės?

JK ministrai viešai aptarė baudas ir net galimybę blokuoti X po to, kai „Grok“ buvo panaudotas seksualiai atviriems vaizdams kurti be sutikimo. Politinis ir reguliavimo tonas keičiasi link privalomo atitikties, o ne atvirų diskusijų. Įstatymų leidėjai nuolat grįžta prie klausimo – laiko: vaizdams pasklidus, aukos susiduria su žala dar gerokai prieš tai, kai platformos paskelbia atnaujintą politiką.

Ką reiškia, kai reguliavimo institucijos „perkelia įrodinėjimo naštą“ dirbtinio intelekto vaizdo įrankiams?

„Įrodinėjimo naštos pervertimo“ idėja yra ta, kad platformoms gali tekti įrodyti, jog jos gali užkirsti kelią konkrečiai žalai, pavyzdžiui, generuoti nesutarimu pagrįstus „nuoginančio“ vaizdo įrašus, o ne tiesiog žadėti apsaugos priemones. Praktiškai tai skatina įmones siekti įrodomos kontrolės, išmatuojamo vykdymo ir aiškaus gedimų valdymo. Tai taip pat rodo, kad „ketinimas“ yra mažiau svarbus nei apčiuopiami rezultatai ir pakartojama prevencija.

Kaip platformos gali sumažinti dirbtinio intelekto sugeneruotų be sutikimo sukurtų giliųjų klastočių riziką?

Įprastas metodas yra daugiasluoksnė prevencija: apriboti su realiais žmonėmis susijusius raginimus ir rezultatus, blokuoti „nusirengimo“ stiliaus prašymus ir aptikti bei sustabdyti bandymus generuoti seksualizuotus vaizdus be sutikimo. Daugelyje kanalų yra pridėti greičio apribojimai, griežtesnė tapatybės ir piktnaudžiavimo stebėsena bei greiti pašalinimo procesai, kai turinys išplinta. Tikslas yra ne tik politikos kalba, bet ir įrankiai, kurie atlaikytų priešišką naudojimą.

Kodėl „OpenAI“ rangovų įkeliami tikri darbo dokumentai kelia nerimą?

Pranešimuose teigiama, kad „OpenAI“ (kartu su mokymo duomenų partneriu) prašo rangovų įkelti tikrus darbo artefaktus – dokumentus, skaičiuokles, duomenų rinkinius ir saugyklas – kad būtų galima įvertinti ir patobulinti biuro užduočių dirbtinio intelekto agentus. Nerimą kelia tai, kad rangovams nurodoma patiems ištrinti jautrią informaciją, kurioje gali pasitaikyti klaidų. Privatumo ir intelektinės nuosavybės teisininkai nerimauja, kad ši instrukcija „pašalinti konfidencialią informaciją“ yra pernelyg dviprasmiška realiai įmonių medžiagai.

Kokia „Allianz“ partnerystės su „Anthropic“ reikšmė „agentinio dirbtinio intelekto“ srityje draudimo srityje?

„Allianz“ ir „Anthropic“ aprašė pasaulinę partnerystę, orientuotą į darbuotojų produktyvumą, veiklos automatizavimą naudojant agentinį dirbtinį intelektą ir atitiktį reikalavimams pagal dizainą. Draudimo darbo eigos yra sudėtingos ir griežtai reglamentuotos, todėl „agentinis“ dažnai reiškia kelių pakopų procesų automatizavimą neprarandant atskaitomybės. Audito takų ir „kvitų išsaugojimo“ akcentavimas atspindi praktinę realybę: automatizavimas reguliuojamose pramonės šakose plečiasi tik tada, kai jį galima patikrinti ir ginti.

Vakar dienos dirbtinio intelekto naujienos: 2026 m. sausio 9 d

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį