Dirbtinio intelekto naujienos, 2026 m. kovo 4 d

Dirbtinio intelekto naujienų santrauka: 2026 m. kovo 4 d

🏛️ Vyriausybė kurs naują laboratoriją, kad JK išliktų dirbtinio intelekto proveržio lyderė

Jungtinė Karalystė steigia vyriausybės remiamą fundamentinių dirbtinio intelekto tyrimų laboratoriją, pristatydama ją kaip „nepaprastą“ darbą – rizikingą, lėtą ir kartais taip atsiperkančią, kad visi kiti atrodo lyg būtų užsnūdę. ( GOV.UK )

Dėmesys sutelktas ne tik į „didesnius modelius, daugiau GPU“ – tai kova su nuolatiniais trūkumais, tokiais kaip haliucinacijos, trumpa atmintis ir nenuspėjamas mąstymas, taip pat tyrėjams suteikiama prieiga prie rimtų skaičiavimų per DI tyrimų išteklių. Skamba labai protingai... ir kartu, tyliai, kaip bandymas sustabdyti geriausius JK protus nuo staigaus išsiurbimo kitur. ( GOV.UK )

🧨 „Nvidia“ generalinis direktorius užsimena apie investicijų į „OpenAI“ ir „Anthropic“ pabaigą

Jensenas Huangas užsimena, kad „Nvidia“ gali nebeinvestuoti į dirbtinio intelekto laboratorijas tokiu pačiu tempu – dėl IPO dinamikos (ir aptarinėjamų čekių masto) tokio tipo finansavimą sunkiau įgyvendinti. ( „Reuters“ )

Verta atkreipti dėmesį į šį toninį pokytį: „Nvidia“ yra šio bumo „kirtimo ir kastuvo“ karalius, tačiau tai užsimena, kad „kalnakasių dalių valdymas“ nebėra visada tinkamas pasirinkimas. O galbūt tai tiesiog garsiai vengia veiksmų, kuriuos generaliniai direktoriai daro, tarsi kvėpuotų. ( „Reuters“ )

🧩 Išskirtinis: Didelė technologijų grupė remia „Anthropic“ kovoje su Pentagonu, investuotojams siekiant deeskaluoti konfliktą dėl dirbtinio intelekto apsaugos priemonių

„Anthropic“ konfliktas Pentagone virsta tikru spaudimo katilu – investuotojai, kaip pranešama, nori sumažinti temperatūrą, o bendrovė stengiasi laikytis savo pozicijos dėl apsaugos priemonių (ypač dėl stebėjimo). ( Reuters )

Šios istorijos potekstė beveik garsesnė už patį tekstą: dirbtinio intelekto eroje sutarčių formuluotės nėra „teisinis kamantinėjimas“, o iš esmės produkto politika – ir nuo jų priklauso, ar modelis tampa įrankiu, ginklu ar didele atsakomybe. („ Reuters“ )

🪖 Samas Altmanas pripažįsta, kad „OpenAI“ negali kontroliuoti Pentagono dirbtinio intelekto naudojimo

Pranešama, kad Altmanas darbuotojams sakė, jog „OpenAI“ negali kontroliuoti, kaip Pentagonas naudoja savo dirbtinį intelektą, kai šis jau dislokuotas – o tai su trenksmu nutinka, nes įvardija tikslią baimę, kurią žmonės suko ratu. ( „The Guardian“ )

Platesnis kontekstas – didėjanti trintis tarp „mes padėsime su taisyklėmis“ ir „mes padėsime, taškas“, taip pat vidinė ir vieša reakcija, kai karinis pritaikymas atrodo skubotas ar oportunistinis. Etika čia labiau primena šlapių dažų išsiliejimą – visi į ją įžengia, o tada ginčijasi, kieno tai batas. ( „The Guardian“ )

🧬 Nauja dirbtinio intelekto genomikos srityje stipendija su Sanger institutu ir „Google DeepMind“

„Wellcome Sanger“ institutas pradeda „DeepMind“ finansuojamą akademinę stipendiją, skirtą dirbtinio intelekto taikymui genomikoje – tai pirmoji tokio pobūdžio vieta „DeepMind“ stipendininkui šioje konkrečioje srityje. ( sanger.ac.uk )

Įdomu (ir, tiesą sakant, šiek tiek gaivu) yra tai, kad daugiausia dėmesio skiriama nepakankamai ištirtoms genomikos problemoms, kur dirbtinis intelektas dar nėra visur, – be to, aiškiai pažymima, kad „DeepMind“ nevadovauja kolegos tyrimams. Tai tas pats, kas duoti kam nors raketą ir pasakyti „eik ir atrask ką nors“, o ne „eik ir optimizuok mūsų veiksmų planą“ ( sanger.ac.uk ).

DUK

Kas yra JK vyriausybės remiama Fundamentaliojo dirbtinio intelekto tyrimų laboratorija ir ką ji veiks?

Vyriausybės remiama Fundamentaliojo dirbtinio intelekto tyrimų laboratorija pozicionuojama kaip „prabangi“ tyrimų grupė – didelės rizikos darbas, kurio rezultatai gali atsipirkti ne iš karto. Užuot sutelkusi dėmesį tik į vis didesnių modelių mastą, ji siekia spręsti tokias nuolatines problemas kaip haliucinacijos, trumpa atmintis ir nenuspėjamas mąstymas. Pagrindinė mintis yra ta, kad proveržiai pasiekiami nuo fundamentalių žinių, o ne vien pridėjus daugiau GPU.

Kaip JK fundamentaliųjų dirbtinio intelekto tyrimų laboratorija galėtų padėti tyrėjams pasiekti rimtus skaičiavimus?

Kartu su JK fundamentaliosios dirbtinio intelekto tyrimų laboratorija, plane pabrėžiama prieiga prie didelio skaičiavimo pajėgumo per DI tyrimų išteklius. Praktiškai tai reiškia, kad tyrėjai gali atlikti eksperimentus, kuriuos kitu atveju apribotų išlaidos ar infrastruktūra. Tai taip pat leidžia komandoms išbandyti idėjas tokiu mastu, kad tokios problemos kaip patikimumas ir tvirtumas tampa konkrečios, o ne tik teorinės.

Kodėl JK daugiausia dėmesio skiria haliucinacijoms, trumpai atminčiai ir nenuspėjamam mąstymui?

Šie trūkumai yra tokie, kurie išryškėja diegimo metu ir gali greitai sumažinti pasitikėjimą. Nurodytas tikslas rodo, kad tikslas yra ne tik pajėgumai, bet ir patikimumas – sumažinti išgalvotų rezultatų skaičių, pagerinti modelių darbą su ilgesniu kontekstu ir padaryti samprotavimus mažiau netikslius. Toks darbas dažnai yra lėtesnis ir rizikingesnis, todėl jis apibrėžiamas kaip fundamentiniai tyrimai.

Ką iš tikrųjų signalizuoja „Nvidia“ tono pokytis investuojant į „OpenAI“ ar „Anthropic“?

Pranešime tai pateikiama kaip užuomina, kad „Nvidia“ gali nebeinvestuoti į pažangias laboratorijas tokiu pačiu būdu, ypač atsižvelgiant į tai, kad IPO dinamika ir dideli čekių dydžiai apsunkina šią strategiją. Net ir būdama dirbtinio intelekto įrangos lydere, kuri investuoja tik į savo investicijas, tai rodo, kad nuosavybės teisės ne visada yra geriausias sprendimas. Tai taip pat gali būti atsargus pranešimas, kuris dažnai pasitaiko vadovų komentaruose.

Kodėl „Anthropic“ ginčas su Pentagono „apsauginės kalbos“ yra toks didelis dalykas?

Svarbiausia straipsnio mintis yra ta, kad sutarties formuluotės gali tapti produkto politika, ypač kai jos susijusios su stebėjimu ir kitais jautriais naudojimo būdais. Pranešama, kad investuotojai nori deeskaluoti konfliktą, o bendrovė stengiasi laikytis savo pozicijos dėl apsaugos priemonių. Daugelyje dirbtinio intelekto diegimo atvejų šios sąlygos lemia, kam sistema gali būti naudojama ir kokią riziką bendrovė iš tikrųjų prisiima.

Ką reiškia, kai Samas Altmanas sako, kad „OpenAI“ negali kontroliuoti, kaip Pentagonas naudoja DI?

Tai apibūdina praktinį apribojimą: įdiegus įrankį, pirminis kūrėjas gali turėti ribotas galimybes valdyti tolesnį naudojimą. Tai labai svarbu, nes tai atkreipia dėmesį į pagrindinę baimę, kurią žmonės kelia dėl karinio pritaikymo – taisyklės gali egzistuoti sutarčių sudarymo etape, tačiau jų vykdymas gali būti sudėtingas. Tai taip pat atspindi platesnę įtampą tarp „pagalbos su apribojimais“ ir „pagalbos nepaisant to“

Vakar dienos dirbtinio intelekto naujienos: 2026 m. kovo 3 d

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį