🤖 „OpenAI“ aparatinės įrangos lyderis atsistatydina po susitarimo su Pentagonu ↗
„OpenAI“ techninės ir robotikos vadovė Caitlin Kalinowski atsistatydino po bendrovės susitarimo su Pentagonu, teigdama, kad šis žingsnis nebuvo pakankamai apsvarstytas viduje prieš patvirtinant modelius įslaptintiems gynybos tinklams. Pagrindinis jos rūpestis buvo gana tiesioginis – žmonių priežiūra, stebėjimo ribos ir pernelyg greito mirtinos autonomijos vystymosi rizika. ( „Reuters“ )
„OpenAI“ teigia, kad susitarime numatytos papildomos apsaugos priemonės ir vis dar draudžiamas vidaus stebėjimas bei autonominių ginklų naudojimas. Vis dėlto atsistatydinimas visą susitarimą verčia skaityti ne kaip sklandų politikos atnaujinimą, o kaip priešgaisrinių durų užsidarymą posėdžio viduryje. („ Reuters“ )
🏗️ „Bloomberg News“ praneša, kad „Oracle“ ir „OpenAI“ atsisako Teksaso duomenų centro plėtros planų ↗
Pranešama, kad „Oracle“ ir „OpenAI“ atsisakė planų išplėsti savo didelį dirbtinio intelekto duomenų centrą Abiline, Teksase, po to, kai užsitęsė derybos dėl finansavimo ir pasikeitė „OpenAI“ skaičiavimo poreikiai. Ši vieta buvo platesnio masto „Stargate“ infrastruktūros projekto dalis, tad tai toli gražu nėra nereikšmingas įvykis. ( „Reuters“ )
Esamas miestelis tebėra eksploatuojamas, o bendrovės teigia, kad platesnė kelių gigavatų galios plėtra tęsiama kitur. Tuo pačiu metu apleista plėtra gali atverti kelią „Meta“, kuri, kaip pranešama, svarstė galimybę išsinuomoti šią vietą. Dirbtinio intelekto infrastruktūra juda kaip šlapias cementas – sunki, brangi ir niekada iki galo nenusistovėjusi. ( „Reuters“ )
⚖️ Pentagonas įvardija „Anthropic“ kaip tiekimo grandinės riziką keliančią įmonę ↗
Pentagonas oficialiai įvardijo „Anthropic“ kaip tiekimo grandinės riziką, apribodamas „Claude“ naudojimą Gynybos departamento sutartyse po to, kai bendrovė atsisakė sušvelninti apsaugos nuo autonominių ginklų ir masinio stebėjimo priemones. Tai yra esmė – pirkimų kova, kuri tapo daug platesne vertybių kova. ( „Reuters“ )
„Anthropic“ teigia, kad šis žingsnis nėra teisiškai pagrįstas ir planuoja jį apskųsti teisme. Šis paskyrimas yra neįprastai griežtas JAV dirbtinio intelekto laboratorijai ir atsiduria platesnio susiskaldymo centre dėl to, ar pasienio modelio įmonės turėtų įtraukti griežtesnes taisykles į gynybos sutartis, ar pasitikėti galiojančiais įstatymais... o ne visi yra pasirengę tai daryti. ( „Reuters“ )
💬 „Meta“ leis dirbtinio intelekto konkurentams „WhatsApp“ programoje, siekdama užkirsti kelią ES veiksmams ↗
„Meta“ teigia, kad po ES antimonopolinių reguliuotojų spaudimo metus Europoje leis konkuruojantiems dirbtinio intelekto pokalbių robotams prisijungti prie „WhatsApp“ naudojant verslo API. Konkurentai skundėsi, kad „Meta“ juos faktiškai blokuoja, pirmenybę teikdama savo asistentui – tai esminė detalė, atsižvelgiant į tai, koks centralizuotas tapo dirbtinio intelekto platinimas. ( „Reuters“ )
Problema ta, kad prieiga yra mokama, ir kritikai teigia, kad dėl to mažesni konkurentai vis tiek atsiduria nepalankioje padėtyje. Reguliavimo institucijos sprendžia, ar šios nuolaidos pakanka, todėl tai labiau primena taikos sutartį, o popieriuje įvyniotą pauzės mygtuką. („ Reuters“ )
📜 xAI pralaimėjo bandymą sustabdyti Kalifornijos dirbtinio intelekto duomenų atskleidimo įstatymą ↗
„xAI“ pralaimėjo bandymą blokuoti Kalifornijos įstatymą, reikalaujantį dirbtinio intelekto bendrovių atskleisti daugiau informacijos apie duomenis, naudojamus jų modeliams mokyti. Teismo atsisakymas sustabdyti įstatymo galiojimą reiškia, kad „xAI“ dabar susiduria su tuo pačiu skaidrumo spaudimu, kurio kiti modelių kūrėjai kartais bandė, kartais nerangiai, išvengti. ( „Reuters“ )
Tai svarbu, nes kovos dėl mokymo duomenų nebėra tik akademiniai ar su autorių teisėmis susiję klausimai – jos tampa realia atitikties problema. xAI, jau susiduriančiai su nuolatiniais saugumo ginčais dėl „Grok“, tai prideda dar vieną reguliatoriaus formos svorį prie kuprinės. ( „Reuters“ )
DUK
Kodėl po Pentagono susitarimo atsistatydino „OpenAI“ techninės ir robotikos vadovas?
Caitlin Kalinowski atsistatydino, nes manė, kad sprendimas dėl įslaptintų gynybos tinklų modelių išvalymo nebuvo pakankamai apsvarstytas viduje. Jos susirūpinimą daugiausia kėlė žmonių priežiūra, stebėjimo apribojimai ir pernelyg greito mirtinos autonomijos vystymosi rizika. „OpenAI“ teigė, kad susitarimas vis dar draudžia vidaus stebėjimą ir autonominių ginklų naudojimą, tačiau atsistatydinimas rodo, kad vidiniai debatai nebuvo iki galo išspręsti.
Ką iš tikrųjų reiškia Pentagono teiginys, kad antropogeninė veikla yra tiekimo grandinės rizika?
Tai reiškia, kad „Claude“ nebūtų galima naudoti Gynybos departamento sutartyse, o tai yra didelė viešųjų pirkimų kliūtis. Straipsnyje teigiama, kad ginčas kyla dėl „Anthropic“ atsisakymo silpninti su autonominiais ginklais ir masiniu stebėjimu susijusias apsaugos priemones. „Anthropic“ teigia, kad šis paskyrimas nėra teisiškai pagrįstas ir planuoja jį užginčyti, todėl tai gali tapti ir teismo kova, ir politikos išbandymu.
Kodėl atšauktas duomenų centro išplėtimas Teksase svarbus dirbtinio intelekto pramonės naujienose?
Nutraukta Abilino plėtra yra svarbi, nes ji buvo platesnio masto „Stargate“ infrastruktūros plėtros dalis, susiejant ją su ilgalaikiu dirbtinio intelekto skaičiavimo planavimu. „Reuters“ praneša, kad esamas miestelis vis dar veikia, tačiau dėl finansavimo vėlavimų ir besikeičiančių skaičiavimo poreikių „Oracle“ ir „OpenAI“ atsisakė plėtros. Tai taip pat rodo, kaip greitai gali pasikeisti pagrindiniai dirbtinio intelekto infrastruktūros projektai, net jei platesnio masto plėtra tęsiasi kitur.
Kodėl „Meta“ leidžia konkuruojantiems dirbtinio intelekto pokalbių robotams prisijungti prie „WhatsApp“ Europoje?
„Meta“ ėmėsi šio žingsnio po ES antimonopolinių reguliuotojų spaudimo ir skundų, kad ji pirmenybę teikia savo asistentui, tuo pačiu ribodama konkurentų galimybes. Prieiga yra laikina ir vykdoma per verslo API, todėl tai nėra visiškai atvirų durų politika. Mokesčiai vis tiek taikomi, o tai reiškia, kad mažesni konkurentai gali ir toliau susidurti su praktiniais trūkumais net ir po nuolaidos suteikimo.
Ką Kalifornijos dirbtinio intelekto mokymo duomenų atskleidimo įstatymas reiškia xAI?
Teismo atsisakymas blokuoti įstatymą reiškia, kad xAI dabar turi atitikti papildomus skaidrumo reikalavimus, susijusius su mokymo duomenimis. Tai svarbu, nes modelių kūrėjai dažnai bandė išvengti išsamaus atskleidimo, ypač kai duomenų šaltinis yra jautrus arba ginčijamas. Praktiškai mokymo duomenys tampa aktyvia atitikties problema, o ne lieka diskusijomis apie tyrimų normas ar autorių teisių riziką.
Kokia svarbiausia šios savaitės dirbtinio intelekto pramonės naujienų išvada?
Bendra gija yra ta, kad dirbtinį intelektą (DI) formuoja ne vien produktų pristatymai, o valdymas, infrastruktūra ir reguliavimas. Gynybos partnerystės sukelia vidinius konfliktus, skaičiavimo plėtra yra brangi ir nepastovi, o reguliuotojai griežtina prieigą prie informacijos ir jos atskleidimą. Straipsnyje atkreipiamas dėmesys į tai, kad „OpenAI“, „Anthropic“, „Meta“ ir „xAI“ srityse pramonė yra priversta labiau matyti savo kompromisus.