Dirbtinio intelekto naujienos, 2026 m. vasario 15 d

DI naujienų santrauka: 2026 m. vasario 15 d

🦞 „OpenClaw“ įkūrėjas Steinbergeris prisijungia prie „OpenAI“, atvirojo kodo robotas tampa pagrindu

Peteris Steinbergeris pereina prie „OpenAI“, kad paskatintų „asmeninių agentų“ plėtrą, o pats „OpenClaw“ bus įkurtas kaip fondas, kad liktų atvirojo kodo (ir palaikomas). Toks atskyrimas yra... gana sumanus – samdyti kūrėją, o projektas likti viešas.

„OpenClaw“ pasiūlymas yra gaiviai praktiškas: el. pašto rūšiavimas, draudimo dokumentų tvarkymas, registracija į skrydžius, įkyrios administravimo užduotys. Jis taip pat išpopuliarėjo „GitHub“ platformoje, o šis populiarumas sukėlė saugumo problemų, ypač jei žmonės jį naudoja neatsargiai.

🪖 Pentagonas „pavargo“ nuo antropinio pasipriešinimo dėl Claude'o dirbtinio intelekto modelio naudojimo kariuomenėje ir gali nutraukti ryšius, teigiama ataskaitoje

Esminis ginčas: Pentagonas nori plačios, „visais teisėtais tikslais“ taikomos prieigos, o „Anthropic“ vis dar bando išlaikyti griežtas ribas dėl visiškai autonominių ginklų ir masinio stebėjimo. Toks nesutarimas skamba filosofiškai, kol kas nors nepasako: „mes galime jus pakeisti“

Vienas nepakankamai įvertintas trūkumas – pareigūnai nenori, kad modelis staiga užblokuotų darbo eigą, ir jie nenori amžinai derėtis dėl kraštutinių atvejų (sąžininga... bet irgi gaila). Čia tvyro tikra „kas laiko raktus“ įtampa, ir ji nėra subtili.

🧠 Pradedančiojo verslo modelis, skirtas numatyti žmonių elgesį

„Simile“ investavo 100 mln. dolerių, kad sukurtų „riboto mokymosi“ modelį, skirtą numatyti, ką žmonės gali daryti, įskaitant, labai konkrečiai, galimų klausimų, susijusių su tokiais dalykais kaip pelno skelbimas, numatymą. Siauras tikslas, didelės ambicijos, šiek tiek šiurpus derinys.

Šis metodas remiasi interviu su realiais žmonėmis ir elgsenos tyrimų duomenimis, o tada atliekamos simuliacijos su dirbtinio intelekto agentais, skirtais atspindėti realius pageidavimus. Tai tarsi orų modelio kūrimas žmonių sprendimams... kas skamba neįmanomai, kol iš tikrųjų taip nebūna.

🧑⚖️ Skaidulos: Baltieji rūmai spaudžia Jutos įstatymų leidėją atmesti dirbtinio intelekto skaidrumo įstatymo projektą

Jutos valstijos lygmens dirbtinio intelekto skaidrumo iniciatyva sulaukia tiesioginės Baltųjų rūmų kritikos, o pareigūnai ragina įstatymo projekto autorius jo neplatinti. Įstatymo projektas yra pagrįstas skaidrumu ir vaikų saugumu – sunku ginčytis vien dėl optikos.

Tačiau didesnė kova yra dėl jurisdikcijos: kas gali nustatyti taisykles – valstijos ar federalinė vyriausybė. Ir taip, tai urzgimas – tarsi du žmonės griebtų tą patį vairą ir tvirtintų, kad jie ramesni.

🎬 „ByteDance“ po „Disney“ grasinimo įsipareigoja užkirsti kelią neteisėtam IP naudojimui dirbtinio intelekto vaizdo įrankyje

„Disney“ išsiuntė pranešimą apie veiklos nutraukimą dėl „ByteDance“ dirbtinio intelekto vaizdo įrašų generatoriaus, o „ByteDance“ teigia stiprinanti apsaugos priemones, kad būtų išvengta neteisėto intelektinės nuosavybės ir atvaizdų naudojimo. Teigiama, kad skundžiamasi, jog įrankis gali išspjauti pažįstamus franšizės veikėjus taip, tarsi jie būtų tiesiog... viešojo domeno lipdukai.

Tai susidūrimas, kurį visi ir numatė: virusinio dirbtinio intelekto vaizdo įrašų įrankiai sparčiai tobulėja, studijos pereina į teismą, o „pridėsime apsaugos priemones“ tampa numatytąja atsiprašymo fraze. Keista, bet technologijos atrodo kaip magija, o teisinė pusė – kaip gravitacija.

DUK

Ką reiškia, kad „OpenClaw“ įkūrėjas prisijungė prie „OpenAI“, o „OpenClaw“ perėjo prie fondo?

Tai rodo skirtumą tarp asmens, kuriančio „asmeninius agentus“, ir projekto, kuris išlieka viešai valdomas. Prisijungęs prie „OpenAI“, Steinbergeris teigia, kad jis sutelks dėmesį į agentų stiliaus produktų kūrimą. Įsteigus „OpenClaw“ fonde, siekiama išlaikyti atvirojo kodo ir tvariai remtiną. Praktiškai šiuo žingsniu siekiama išsaugoti bendruomenės pasitikėjimą, o kūrėjas eina ten, kur yra ištekliai.

Kodėl „OpenClaw“ stiliaus dirbtinio intelekto agentai daugiausia dėmesio skiria tokiems darbams kaip el. laiškai ir dokumentų tvarkymas?

Kadangi „visą gyvenimą trunkantis administratoriaus darbas“ yra pasikartojantis, pagrįstas taisyklėmis ir užima daug laiko, todėl jį galima praktiškai automatizuoti. Čia pateikti pavyzdžiai – el. laiškų triažas, draudimo dokumentų tvarkymas ir skrydžių registracija – yra siauros užduotys su aiškiais sėkmės kriterijais. Toks dėmesys gali padėti agentams pasijusti vertingiems greičiau nei atviresnio pobūdžio asistentams. Tai taip pat pabrėžia, kodėl svarbi kruopšti prieigos kontrolė, kai agentai liečia asmenines paskyras.

Kaip galite diegti atvirojo kodo dirbtinio intelekto agentą, pvz., „OpenClaw“, nesukeldami saugumo problemų?

Elkitės su ja kaip su programine įranga, kuri gali matyti slaptus duomenis, o ne kaip su žaisliniu scenarijumi. Įprastas būdas – užrakinti prisijungimo duomenis, apriboti leidimus iki minimumo ir saugoti žurnalus bei audito įrašus. Paleiskite ją ribotoje aplinkoje ir atskirkite nuo didelės vertės sistemų. Daugelis saugumo problemų kyla dėl neatsargaus diegimo, ypač kai žmonės atskleidžia galinius taškus ar žetonus be stiprių apsaugos priemonių.

Kodėl Pentagonas nepatenkintas „Anthropic“ apribojimais Claude'ui naudoti kariniams tikslams?

Ginčas daugiausia kyla dėl apimties ir kontrolės: Pentagonas nori plačios prieigos „visiems teisėtiems tikslams“, o „Anthropic“ apibūdinama kaip griežtai ribojanti visiškai autonominius ginklus ir masinį stebėjimą. Pareigūnai taip pat nenori, kad modeliai blokuotų darbo eigą arba reikalautų nesibaigiančių derybų dėl kraštutinių atvejų. Ši įtampa yra mažiau abstrakti, nei atrodo – ji susijusi su tuo, kas nusprendžia, ką modelis gali padaryti realių operacijų metu.

Kaip startuoliai bando numatyti žmonių elgesį pasitelkdami dirbtinį intelektą ir kodėl tai atrodo prieštaringai?

Šiame pavyzdyje, „Simile“, taikomas „riboto mokymosi“ modelis, kuriuo siekiama prognozuoti, ką žmonės gali daryti, įskaitant galimų klausimų numatymą tokiuose kontekstuose kaip pelno skelbimai. Aprašytas metodas derina interviu su elgsenos tyrimų duomenimis ir modeliavimu, naudojant dirbtinio intelekto agentus, skirtus atspindėti realius pageidavimus. Tai atrodo nejauku, nes dirbtinis intelektas perkeliamas nuo reagavimo į žmones prie jų prognozavimo. Iššūkis yra apriboti teiginius ir išvengti pernelyg didelio pasitikėjimo savimi.

Kas nutinka, kai dirbtinio intelekto vaizdo įrankiai sukuria autorių teisių saugomus personažus, kaip „ByteDance“ ir „Disney“ susidūrime?

Pranešta tendencija yra gerai žinoma: studija paskelbia pranešimą apie veiklos nutraukimą, o platforma reaguoja sustiprindama apsaugos priemones, kad užkirstų kelią neteisėtam intelektinės nuosavybės ar jos atvaizdų naudojimui. Daugelyje įrankių apsaugos priemonės reiškia griežtesnius turinio filtrus, geresnį atpažįstamų personažų aptikimą ir aiškesnį naudotojų politikos vykdymą. Pagrindinis konfliktas yra greitis ir atsakomybė – virusų generavimas vyksta greitai, o teisių gynimas veikia kaip gravitacija. Tikėkitės daugiau tokių susidūrimų, vaizdo įrašų generatoriams plintant.

Vakar dienos dirbtinio intelekto naujienos: 2026 m. vasario 13 d

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį