Dirbtinio intelekto naujienos, 2026 m. kovo 9 d

Dirbtinio intelekto naujienų santrauka: 2026 m. kovo 9 d

⚖️ „Anthropic“ padavė į teismą, kad blokuotų Pentagono įtraukimą į juodąjį sąrašą dėl dirbtinio intelekto naudojimo apribojimų

„Anthropic“ perdavė ginčą su Pentagonu teismui po to, kai buvo pripažinta tiekimo grandinės rizika. Bendrovė teigia, kad šis žingsnis buvo neteisėtas atsakas į atsisakymą sušvelninti apsauginius barjerus, susijusius su autonominiais ginklais ir vidaus stebėjimu, todėl šis ginčas šiuo metu yra vienas iš labiausiai diskutuojamų DI politikos klausimų. ( „Reuters“ )

Vyriausybė nori lankstumo „bet kokiam teisėtam naudojimui“, o „Anthropic“ teigia, kad privačioms laboratorijoms vis tiek turėtų būti leidžiama nustatyti griežtas saugumo ribas. Tai tapo vienu aiškiausių išbandymų, ar dirbtinio intelekto bendrovė gali pasakyti „ne“ kariniams terminams ir nebūti už tai smerkiama. ( Reuters )

🧑💻 „OpenAI“ ir „Google“ darbuotojai palaiko „Anthropic“ ieškinį prieš Pentagoną

Šis ieškinys greitai sulaukė ir konkuruojančių laboratorijų palaikymo. Beveik 40 „OpenAI“ ir „Google“ darbuotojų palaikė „Anthropic“ draugiškame pareiškime, teigdami, kad atsakomosios priemonės įmonėms dėl dirbtinio intelekto saugumo ribojimų prieštarauja viešajam interesui. ( „The Verge“ )

Taigi, taip, konkurentai staiga atsidūrė toje pačioje pusėje – bent jau šiuo klausimu. Apžvalgoje daugiausia dėmesio skiriama masiniam stebėjimui ir nepatikimiems autonominiams ginklams, todėl visas reikalas labiau primena standartinį Silicio slėnio snaiperių puolimą ir tikrą pramonės liniją smėlyje... arba galbūt purve. („ The Verge“ )

🛡️ „OpenAI“ įsigyja „Promptfoo“, kad apsaugotų savo dirbtinio intelekto agentus

„OpenAI“ pranešė, kad perka „Promptfoo“ – startuolį, kurio pagrindinis tikslas – apsaugoti didelius kalbų modelius nuo priešiškų atakų. Planuojama integruoti jos technologijas į „OpenAI Frontier“ – bendrovės dirbtinio intelekto agentų platformą. („ TechCrunch “)

Tai daug žadantis žingsnis. Visi nori, kad agentinis DI atliktų daugiau, greičiau ir visur, tačiau saugumo srityje nuo to atsilikta – tiek nedaug, tiek daug. Šis susitarimas rodo, kad „OpenAI“ mano, jog kitos svarbios lenktynės vyks ne tik dėl protingesnių, bet ir dėl saugesnių agentų. ( „TechCrunch“ )

🧪 „Anthropic“ pristato kodo peržiūros įrankį, skirtą patikrinti dirbtinio intelekto sugeneruoto kodo antplūdį

„Anthropic“ pristatė kodo peržiūros įrankį „Claude Code“ viduje, skirtą komandoms, skęstančioms dirbtinio intelekto kodavimo įrankių sukurtose užklausose. Jis naudoja kelis agentus lygiagrečiai, kad nuskaitytų kodą, pažymėtų logikos problemas, įvertintų jų svarbą ir paliktų komentarus tiesiogiai „GitHub“. ( „TechCrunch“ )

Idėja gana paprasta – dirbtinis intelektas generuoja kodą greičiau, nei žmonės gali jį protingai peržiūrėti, todėl dabar dirbtinis intelektas turi jį peržiūrėti. Tai šiek tiek primena „gyvatės uodegą ėdantį“ modelį, tačiau praktiškas. „Anthropic“ teigia, kad jis skirtas įmonių vartotojams, kurie jau mato didžiulį „Claude Code“ kodo išvestį. ( „TechCrunch “)

💰 „Nvidia“ remiama „Nscale“ per naują finansavimo etapą įvertinta 14,6 mlrd. dolerių

JK dirbtinio intelekto infrastruktūros bendrovė „Nscale“ C serijos finansavimo etape pritraukė 2 mlrd. JAV dolerių, o jos vertė siekė 14,6 mlrd. JAV dolerių. Tarp rėmėjų buvo „Aker“, „8090 Industries“, „Nvidia“, „Citadel“, „Dell“ ir „Jane Street“, o tai yra gana svarus pasitikėjimo balsas. ( „Reuters “)

Šis klausimas svarbus, nes tai ne dar vienas modelio pristatymas ar pokalbių robotų modifikavimas. Tai pakilimo tendencija – skaičiavimai, infrastruktūra, pajėgumai, visa sunkioji technika už uždangos. Galbūt tai nėra glamūringa, bet būtent ten dabar investuojama daug pinigų. („ Reuters“ )

🧠 Yanno LeCuno „AMI Labs“ pritraukia 1,03 milijardo dolerių pasaulio modelių kūrimui

Naujoji Yann LeCun įmonė „AMI Labs“ pritraukė 1,03 mlrd. JAV dolerių, o ikifinansinė vertė siekė 3,5 mlrd. JAV dolerių. Bendrovė ieško „pasaulio modelių“ – dirbtinio intelekto sistemų, skirtų mokytis iš pačios realybės, o ne pirmiausia iš kalbos. ( „TechCrunch “)

Tai yra tiesioginis filosofinis posūkis į dabartinę LLM dominuojančią nuomonę, ir kartu gana tiesmukas. LeCun jau daugelį metų teigia, kad šiandieniniai kalbos modeliai nepadės mums pasiekti žmogaus intelekto lygio, todėl šis argumento iškėlimas paverčia jį labai brangiu eksperimentu. („ TechCrunch “)

🇨🇳 Kinijos technologijų centrai reklamuoja „OpenClaw“ dirbtinio intelekto agentą, nepaisant saugumo įspėjimų

Kelios Kinijos vietos valdžios institucijos remia „OpenClaw“ – dirbtinio intelekto agentą, kuris sparčiai plinta nepaisant su jo prieiga prie asmens duomenų susijusių saugumo problemų. Taigi, oficiali nuotaika, regis, yra tokia: taip, rizika yra – ir taip, vis tiek ją plėskime. ( Reuters )

Būtent toks susiskaldymas ir yra istorija. Vietos centrai nori ekonominio augimo ir ekosistemos pagreičio, o reguliuotojai perspėja apie duomenų nutekėjimą. Tai jau pažįstamas dirbtinio intelekto modelis – pirmiausia sprinki, vėliau sutvarkai apsauginius barjerus, bent jau taip atrodo. ( Reuters )

DUK

Kodėl „Anthropic“ padavė Pentagoną į teismą dėl dirbtinio intelekto naudojimo apribojimų?

„Anthropic“ teigia, kad Pentagonas šią įmonę įvardijo kaip tiekimo grandinės riziką, kai bendrovė atsisakė platesnių sąlygų, kurios galėtų būti taikomos autonominiams ginklams ir vidaus stebėjimui. Todėl ieškinys yra daugiau nei tik tiekėjo statusas. Juo tikrinama, ar dirbtinio intelekto laboratorija gali laikytis griežtų saugos apribojimų ir vis tiek konkuruoti dėl vyriausybės darbų nebūdama nubausta.

Kodėl „OpenAI“ ir „Google“ darbuotojai šiame DI saugumo ginče remia „Anthropic“?

„Amicus“ santrauka rodo, kad daugelis konkuruojančių laboratorijų darbuotojų tai laiko precedentą kuriančia dirbtinio intelekto saugumo problema, o ne tik vienos bendrovės ir vienos agentūros kova. Jie nerimauja, kad nubaudus tiekėją už raudonųjų linijų laikymąsi, galima daryti spaudimą platesnei rinkai susilpninti apsaugos priemones. Praktiškai tai galėtų nulemti, kaip bus deramasi dėl būsimų gynybos ir viešojo sektoriaus dirbtinio intelekto sutarčių.

Ką Antropinio Pentagono byla galėtų pakeisti dirbtinio intelekto politikos ir gynybos sutarčių srityje?

Jei „Anthropic“ laimės, dirbtinio intelekto bendrovės gali turėti tvirtesnį pagrindą apibrėžti nepriimtiną naudojimą net ir parduodamos jautrioje vyriausybinėje aplinkoje. Jei ji pralaimės, agentūros galės įgyti svertų reikalauti iš tiekėjų platesnių „teisėto naudojimo“ sąlygų. Bet kuriuo atveju šis ginčas greičiausiai turės įtakos viešųjų pirkimų terminams, rizikos peržiūroms ir tam, kaip saugos apsaugos priemonės įtraukiamos į gynybos sandorius.

Kodėl „OpenAI“ įsigijo „Promptfoo“ dirbtinio intelekto agentams?

„Promptfoo“ yra žinoma dėl didelių kalbos modelių testavimo, siekiant nustatyti priešiškus raginimus ir kitus saugumo trūkumus. Įtraukus tokius įrankius į „OpenAI“ įmonės agentų platformą, galima teigti, kad bendrovė saugesnį diegimą laiko konkurenciniu pranašumu, o ne šalutine užduotimi. Dirbtinio intelekto agentams atliekant daugiau esminio darbo, atsparumo ir piktnaudžiavimo testavimą tampa daug sunkiau ignoruoti.

Kaip komandos gali saugiau susidoroti su dirbtinio intelekto sugeneruoto kodo antplūdžiu?

Naujoji „Anthropic“ kodo peržiūros funkcija, esanti „Claude Code“, skirta komandoms, kurias užvaldo dirbtinio intelekto kodavimo įrankių generuojamos užklausos. Ji naudoja kelis agentus lygiagrečiai, kad nustatytų logikos problemas, įvertintų jų svarbą ir paliktų komentarus „GitHub“. Paprastai tokios priemonės padeda suskirstyti apimtį, tačiau žmonių atliekami peržiūrai vis tiek svarbūs architektūrai, kontekstui ir galutiniam patvirtinimui.

Kodėl dirbtinio intelekto infrastruktūrai šiuo metu skiriama tiek daug investicijų?

Naujausias „Nscale“ finansavimo etapas pabrėžia, kad dirbtinio intelekto pramonė vis dar investuoja milžiniškas lėšas į skaičiavimą, infrastruktūrą ir pajėgumus. Šios išlaidos gali būti mažiau pastebimos nei prašmatnus modelio pristatymas, tačiau jos yra visko kito pagrindas. Kai mokymo ir diegimo paklausa nuolat auga, įmonės, parduodančios kirtiklius ir kastuvus, dažnai tampa vienomis didžiausių laimėtojų.

Kas yra pasaulio modeliai ir kodėl Yann LeCun lažinasi dėl jų?

Pasaulio modeliai yra dirbtinio intelekto sistemos, sukurtos mokytis iš to, kaip elgiasi pasaulis, o ne pirmiausia remtis kalbos duomenimis. Tai svarbu, nes Yann LeCun jau seniai teigia, kad kalbos modeliai patys savaime vargu ar pasieks žmogaus lygio intelektą. „AMI Labs“ paverčia šį požiūrį dideliu komerciniu pasiūlymu dėl kitokio pažangių dirbtinio intelekto tyrimų kelio.

Kodėl Kinijos technologijų centrai remia „OpenClaw“ nepaisydami saugumo įspėjimų?

„OpenClaw“ istorija rodo gerai žinomą susiskaldymą sparčiai besivystančiose technologijų rinkose: vietos valdžios institucijos nori augimo, subsidijų ir ekosistemos pagreitėjimo, o reguliavimo institucijos nerimauja dėl duomenų atskleidimo ir saugumo. Agento palaikymas nepaisant įspėjimų rodo, kad kai kuriose vietose vyrauja ekonominės paskatos. Stebėtojams tai dar vienas priminimas, kad diegimas dažnai vyksta greičiau nei priežiūra.

Vakar dienos dirbtinio intelekto naujienos: 2026 m. kovo 8 d

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį