DI naujienos, 2026 m. vasario 22 d

DI naujienų santrauka: 2026 m. vasario 22 d

🏫 Kai kuriose mokyklose pokalbių robotai apklausia mokinius apie jų darbą. Tačiau dirbtinio intelekto revoliucija kelia mokytojų nerimą

Kai kurios Australijos mokyklos išbando aštresnį „parodyk savo darbą“ variantą – mokiniai atlieka užduotį, o tada dirbtinio intelekto pokalbių robotas juos apklausia, ar jie suprato pateiktą informaciją. Tai iš esmės žodinė „viva“, bet mašina klausia „ką tu tuo nori pasakyti?“, kol pradedi nerimauti.

Didesnis rūpestis – netolygus diegimas: pramonės dokumente įspėjama, kad greitai diegiančios įmonės gali smarkiai aplenkti sistemą, o kitos atsilikti, taip sukurdamos dviejų greičių švietimo sistemą. Mokytojai taip pat nuolat kelia pažįstamus – ir vis dar rimtus – rūpesčius: privatumą, gerovę ir tai, kaip sustabdyti „DI pagalbos“ nuslydimą į „DI tai padarė“ teiginį.

👮 Policija, naudodama „Palantir“ pateiktas dirbtinio intelekto priemones, atkreipia dėmesį į pareigūnų netinkamą elgesį

Londono Metropoliteno policija naudoja „Palantir“ tiekiamą dirbtinį intelektą, kad analizuotų vidinius darbo jėgos modelius – ligas, nedarbingumą, viršvalandžius – ieškodama signalų, kurie galėtų būti susiję su profesinių standartų problemomis. Tai pristatoma kaip laikinas bandomasis projektas ir, svarbiausia, Metropoliteno policija teigia, kad faktinius sprendimus vis dar priima žmonės... tačiau jie „vis dar“ atlieka daug darbo.

Policijos federacija nėra sužavėta, vadindama tai „automatizuotu įtarimu“ ir įspėja apie neskaidrius įrankius, kurie stresą ir darbo krūvį interpretuoja kaip nusižengimus. Tai vienas iš tų momentų, kai technologija skaidrėje skamba tvarkingai, o tada įsivaizduoji, kaip ji jaučiasi ant žemės, ir ji staiga pasidaro dirgli.

🛡️ JK privatumo priežiūros institucija bendrame pareiškime perspėja dėl dirbtinio intelekto generuojamų vaizdų

JK ICO prisijungė prie kitų reguliavimo institucijų bendro įspėjimo apie dirbtinio intelekto sugeneruotus vaizdus, ​​kuriuose vaizduojami atpažįstami asmenys be jų sutikimo. Iš esmės: nevertinkite „tai sintetiniai“ kaip stebuklingo pasiteisinimo. Svarbiausia – kuo anksčiau sukurti apsaugos priemones ir įsikišti į reguliavimo institucijas, o ne daryti klasikinį technologinį žingsnį – pirmiausia išsiųsti, o vėliau atsiprašyti.

Jie taip pat pabrėžia padidėjusią riziką vaikams, ir tai logiška, nes kai ši medžiaga pasklinda, tai tas pats, kas bandyti supilti blizgučius atgal į stiklainį. Esmė ta, kad privatumas ir orumas turi išlikti mados cikle, arba bent jau taip atrodo.

🪖 JAV gynybos sekretorius Hegsethas iškvietė „Anthropic“ generalinį direktorių deryboms dėl Claude'o panaudojimo kariniams tikslams, praneša „Axios“

„Reuters“ praneša, kad JAV gynybos sekretorius ketina susitikti su „Anthropic“ generaliniu direktoriumi, kuris, kaip teigiama, surengs labiau konfrontacinį pokalbį apie Claude'o naudojimą kariniams tikslams. Pranešama, kad Pentagonas nori, jog pagrindiniai dirbtinio intelekto tiekėjai modelius teiktų įslaptintuose tinkluose su mažiau apribojimų, o „Anthropic“ priešinosi bet kokiam apsaugos priemonių švelninimui.

Potekstė skamba kaip klasikinė dilema „judėk greitai, bet... su raketomis“. Jei šalys negalės susitarti dėl apsauginių priemonių, santykiai gali įtempti ar net nutrūkti – tačiau „Anthropic“ taip pat signalizuoja, kad derybos su vyriausybe išlieka konstruktyvios, todėl situacija įtempta, bet visiško išsiskyrimo tekstai (kol kas) nepaskelbti.

🧠 „ChatGPT“ – išleidimo pastabos

„OpenAI“ išleidimo pastabose nurodomas išplėstas kontekstinis langas „Mąstymo“ režimui – tai reiškia, kad galite pateikti modeliui daugiau teksto ir išlaikyti ilgesnius siūlus nuoseklius, neprarandant ankstesnių detalių. Jei kada nors matėte, kaip modelis „pamiršta“ ką tik pasakytą dalyką (skaudulys), šis straipsnis skirtas būtent tam.

Tai labai keistas atnaujinimas, kuris tyliai pakeičia tai, kas praktiška: ilgesni dokumentai, painesni projektai, platesnės tyrimų sesijos. Ne žavinga, bet tai toks santechnikos pakeitimas, kuris staiga padidina visus namus.

DUK

Ką reiškia, kai mokyklos naudoja pokalbių robotus, kad „apklaustų“ mokinius apie užduotis?

Kai kuriose Australijos mokyklose mokiniai atlieka užduotį, o tada dalyvauja pokalbių robote su dirbtiniu intelektu (DI) ir robotu, kuris tikrina jų samprotavimus. Robotas veikia kaip žodinė diskusija, stumdamas mokinius paaiškinti, ką jie parašė ir kodėl. Tikslas – patikrinti supratimą, o ne tik išvestį. Jis taip pat gali atskleisti spragas, kai mokinys negali apginti pagrindinių teiginių.

Kaip dirbtinio intelekto pokalbių robotai mokyklose galėtų sukurti „dviejų greičių“ švietimo sistemą?

Pramonės dokumente įspėjama, kad greitai diegiančios mokyklos gali išsiveržti į priekį, o lėčiau diegiančios mokyklos dar labiau atsilieka. Jei kai kurios mokyklos diegs dirbtinio intelekto įrankius supratimui įvertinti, mokymuisi paremti ar netinkamam naudojimui užkirsti kelią, jos gali greičiau pagerinti rezultatus. Kitoms gali trūkti biudžeto, personalo pajėgumų ar politikos aiškumo, kad galėtų įdiegti panašias sistemas. Toks netolygus diegimas gali padidinti esamus išteklių ir pasiekimų skirtumus.

Kaip mokytojai stengiasi sustabdyti „DI pagalbos“ virsmą „DI tai padarė“?

Įprastas požiūris – vertinimą nukreipti į procesą ir paaiškinimą, o ne tik į galutinį produktą. Pokalbių robotų stiliaus klausimai, juodraščiai, refleksijos ar žodiniai patikrinimai gali apsunkinti nesuprantamų darbų pateikimą. Mokytojai taip pat gali nustatyti griežtesnes priimtinos pagalbos ribas, pavyzdžiui, minčių lietus, o ne visiškas perrašymas. Dėmesys išlieka supratimo demonstravimui, o ne kiekvieno įrankio kontrolei.

Kokios privatumo ir gerovės problemos kyla, kai dirbtinis intelektas naudojamas klasėse?

Mokytojai nuolat reiškia susirūpinimą dėl to, kokie mokinių duomenys renkami, kur jie saugomi ir kas gali prie jų prieiti. Taip pat kyla susirūpinimas dėl mokinių gerovės, jei jie jaučiasi nuolat stebimi arba spaudžiami mašininio klausinėjimo. Vaikai yra ypatingos rizikos grupė, nes neskelbtina informacija sistemose gali plisti arba išlikti netikėtais būdais. Daugelis mokyklų siekia apsaugos priemones įdiegti anksti, o ne bandyti jas vėliau modifikuoti.

Kaip Metropoliteno policija naudoja „Palantir“ tiekiamą dirbtinį intelektą, kad atkreiptų dėmesį į galimą pareigūnų netinkamą elgesį?

Londono Metropoliteno policija naudoja „Palantir“ tiekiamą dirbtinį intelektą, kad analizuotų darbo jėgos modelius, tokius kaip ligos, nedarbingumas ir viršvalandžiai. Tikslas – pastebėti signalus, kurie gali būti susiję su profesinių standartų problemomis. Tai apibūdinama kaip laikinas bandomasis projektas, o Metropoliteno policija teigia, kad sprendimus vis dar priima žmonės. Kritikai teigia, kad įrankis gali atrodyti kaip „automatinis įtarimas“, jei stresą interpretuoja kaip nusižengimą.

Kodėl policijos sąjungos nerimauja dėl „automatizuoto įtarimo“ iš dirbtinio intelekto priežiūros įrankių?

Policijos federacija nerimauja, kad neskaidrūs modeliai gali daryti išvadą apie netinkamą elgesį remiantis modeliais, kurie turi palankų paaiškinimą. Darbo krūvio padidėjimas, sveikatos problemos ir stresas gali pakeisti lankomumą ar viršvalandžius, neužsimenant apie netinkamą elgesį. Jei įrankio logika nėra skaidri, pareigūnams sunkiau ginčyti žymas arba vadovams nustatyti teisingas ribas. Net ir priimant sprendimus žmonėms, automatizuoti signalai vis tiek gali daryti įtaką rezultatams.

Apie ką JK ICO įspėja dėl dirbtinio intelekto sugeneruotų atpažįstamų žmonių vaizdų?

JK privatumo priežiūros institucija prisijungė prie kitų reguliavimo institucijų perspėjimo, kad „sintetinis“ nereiškia be pasekmių. Jei dirbtinio intelekto sukurtas vaizdas vaizduoja atpažįstamą asmenį be jo sutikimo, vis tiek kyla pavojus privatumui ir orumui. Reguliavimo institucijos pabrėžia, kad apsaugos priemonės turi būti kuriamos anksti ir reikia imtis priežiūros, o ne pirmiausia platinti turinį. Jos taip pat atkreipia dėmesį į padidėjusią riziką vaikams, kai žala gali greitai išplisti turiniui pasklidus.

Kas slypi už pranešimo apie Pentagono spaudimą „Anthropic“ dėl Claude'o karinio panaudojimo?

„Reuters“ praneša, kad JAV gynybos sekretorius ketina susitikti su „Anthropic“ generaliniu direktoriumi, kad aptartų griežtesnes derybas dėl Claude'o panaudojimo kariniams tikslams. Pranešama, kad Pentagonas nori, jog pagrindiniai dirbtinio intelekto tiekėjai modelius teiktų įslaptintuose tinkluose su mažiau apribojimų. „Anthropic“ priešinosi švelnesnėms apsaugos priemonėms, atkreipdama dėmesį į konfliktą dėl apsauginių tvorų. Santykiai atrodo įtempti, nors abi pusės rodo, kad derybos išlieka konstruktyvios.

Kas pasikeitė „ChatGPT“ leidimo pastabose dėl „Mąstymo“ režimo konteksto ilgio?

„OpenAI“ išleidimo pastabose nurodomas išplėstas kontekstinis langas „Mąstymo“ režimui, leidžiantis daugiau teksto talpinti viename gija. Praktiškai tai gali padėti dirbant su ilgais dokumentais, sudėtingais projektais ir daugiapakopiais tyrimais, kur svarbios ankstesnės detalės. Tai labiau santechnikos stiliaus atnaujinimas, o ne prašmatni funkcija. Pagrindinis privalumas – ilgesnių sesijų metu prarandama mažiau detalių.

Vakar dienos dirbtinio intelekto naujienos: 2026 m. vasario 21 d

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį