🌍 „OpenAI“ siekia padidinti dirbtinio intelekto naudojimą kasdieniame gyvenime visame pasaulyje ↗
„OpenAI“ skatina labiau į šalis orientuotą diegimo kampaniją – idėja: nustoti elgtis su DI kaip su laboratoriniu žaislu ir pradėti jį diegti į viešąsias paslaugas, prie kurių žmonės liečiasi kiekvieną dieną.
Keletas iškeltų pavyzdžių apima švietimo diegimą (pagalvokite apie „ChatGPT“ stiliaus įrankius, naudojamus dideliu mastu), taip pat darbą su praktinėmis sistemomis, tokiomis kaip ankstyvieji įspėjimai apie su vandeniu susijusias nelaimes. Tai labai „tai turėtų būti tyliai praktiška“ žinutė, kuri man labai patinka... net jei tai taip pat yra verslo strategija.
⚡ „OpenAI“ žada sumažinti energijos sąnaudas „Stargate“ projekte ↗
„OpenAI“ teigia, kad padengs su „Stargate“ duomenų centro statyba susijusias energijos sąnaudas, teigdama, kad nenori didinti vietinių elektros energijos kainų visiems kitiems.
Tai gali reikšti naujų elektros energijos gamybos pajėgumų, kaupimo, perdavimo sistemų atnaujinimo ar kitos infrastruktūros, kuri neleistų tinklui strigti dėl apkrovos, finansavimą. Tai iš dalies gero piliečio elgesys, iš dalies prevencinė politika – abu dalykai gali būti teisingi vienu metu, ir tai erzina.
🎧 „OpenAI“ siekia pristatyti savo pirmąjį įrenginį 2026 m., ir tai galėtų būti ausinės ↗
Gandai apie „OpenAI“ aparatinę įrangą vis kaupiasi, o šis gandas teigia, kad pirmasis įrenginys galėtų būti ausinės – „dirbtinio intelekto“ pagrindu sukurtas įtaisas, kurį nešiojate, o ne tik atidaroma programėlė.
Kalbama apie kodinį pavadinimą („Sweet Pea“) ir agresyvias silicio ambicijas, kai daugiau apdorojimo vyksta pačiame įrenginyje, o ne visada perduodama į debesį. Žmonių ausinių įpročių pakeitimas yra tas pats, kas bandymas nukreipti upę šaukštu... bet štai, drąsesni statymai apie produktą pasiteisino.
📜 Naujoji „Anthropic“ Claude'o „konstitucija“: būkite paslaugūs ir sąžiningi, ir nesunaikinkite žmonijos ↗
„Anthropic“ paskelbė atnaujintą „Claude'o konstituciją“ – iš esmės vertybių ir elgesio planą, skirtą formuoti, kaip Claude'as reaguoja, samprotauja ir atsisako.
Jame griežtesnės ribos apibrėžiami tarp tikrai pavojingų dalykų (ginklų, didelio masto žalos, valdžios užgrobimo, niūrių didžiausių hitų), kartu taikant subtilesnius „principus“, o ne griežtas taisykles. Vienas stebėtinai pikantiškas momentas: jame atvirai ginčijamasi dėl to, ar pažangūs dirbtiniai intelektai nusipelno moralinio svarstymo – neteigiama, kad nusipelno, o tiesiog nagrinėjamas klausimas kaip gyvas.
🛡️ Naujos „Google Workspace for Education“ saugumo ir dirbtinio intelekto aptikimo funkcijos ↗
„Google“ paskelbė apie naujas „Workspace for Education“ saugumo funkcijas, kuriose ypatingas dėmesys skiriamas dirbtinio intelekto sugeneruoto turinio aptikimui ir tikrinimui, nes mokyklų klaidinga informacija plinta kaip blizgučiai ir niekada iki galo nepalieka savo vietos.
Vienas iš svarbiausių aspektų – dirbtinio intelekto sugeneruotų vaizdų ir vaizdo įrašų patvirtinimas „Gemini“ programėlėje, susietas su „SynthID“, kartu su stipresnėmis apsaugos priemonėmis, tokiomis kaip išpirkos reikalaujančių programų aptikimas ir lengvesnis failų atkūrimas „Drive“ darbalaukio versijoje. Tai rimto saugumo darbo ir principo „prašome pasitikėti mumis klasėse“ derinys, kas... tiesą sakant, teisinga.
🚫 „Google DeepMind“ generalinis direktorius pakartojo, kad „Gemini“ reklamų neplanuoja, nustebęs, kad „ChatGPT“ jas pridėjo „taip anksti“ ↗
„DeepMind“ atstovas Demisas Hassabis pakartojo, kad „Gemini“ neplanuoja rodyti reklamų, ir atrodė šiek tiek nustebęs, kad „ChatGPT“ prie jų perėjo „taip anksti“
Tai aiškus pozicionavimo žingsnis – asistentas kaip produktas, o ne asistentas kaip reklaminis skydas. Kita vertus, „planų nėra“ yra korporatyvinis posakis „paklauskite manęs vėliau“, tad... pamatysime, kiek tvirtas bus šis pažadas.
🏛️ Naujos gairės padės JK veiksmingai ir atsakingai reguliuoti dirbtinį intelektą ↗
Alano Turingo institutas paskelbė reguliavimo gebėjimų sistemą ir savęs vertinimo įrankį, skirtus padėti JK reguliavimo institucijoms įvertinti, ar jos yra pasirengusios prižiūrėti dirbtinį intelektą.
Tai labai negražu – kontroliniai sąrašai, gebėjimų veiksniai, teiginiai „kaip atrodo geras“ – bet tame ir esmė. Tikrasis valdymas dažniausiai atrodo kaip aštrūs popieriniai dokumentai, o ne ekstravagantiški pagrindiniai pranešimai... arba bent jau taip atrodo.
DUK
Koks yra „OpenAI“ „į šalis orientuotas“ siekis padidinti dirbtinio intelekto naudojimą kasdieniame gyvenime visame pasaulyje?
Tai žingsnis nuo dirbtinio intelekto (DI) traktavimo kaip atskiro produkto link jo integravimo į viešąsias paslaugas, kuriomis žmonės naudojasi kasdien. Tikslas – integruoti DI į praktiškas, dažnai naudojamas sistemas, o ne palikti jį įstrigusį „laboratorijų“ demonstracinėse versijose. Paminėti pavyzdžiai: didelio masto švietimo sistemų diegimas ir visuomenei skirtos saugos priemonės. Tai pateikiama kaip tyliai naudinga, net ir palaikant platesnę „OpenAI“ diegimo strategiją.
Kaip „OpenAI“ planas galėtų atsispindėti viešosiose paslaugose, tokiose kaip švietimas ar reagavimas į nelaimes?
Švietimo srityje koncepcija – „ChatGPT“ stiliaus įrankiai, diegiami dideliu mastu, kad mokyklos galėtų integruoti dirbtinį intelektą į įprastus mokymosi procesus. Reagavimo į nelaimes srityje „OpenAI“ išskyrė su vandeniu susijusias ankstyvojo perspėjimo sistemas kaip „tyliai praktiškos“ infrastruktūros pavyzdį. Bendra idėja – pagalba teikiama ten, kur jos reikia, naudojant įrankius, integruotus į esamas paslaugas. Sėkmė greičiausiai priklausys nuo patikimumo, priežiūros ir pagrįstos integracijos.
Kodėl „OpenAI“ teigė, kad padengs „Stargate“ duomenų centro statybos energijos sąnaudas?
„OpenAI“ tai įvardijo kaip pastangas nekelti vietinių elektros energijos kainų, pridedant didžiulę naują paklausą prie tinklo. Išlaidoms padengti galėtų prireikti naujų elektros energijos gamybos pajėgumų, kaupimo, perdavimo atnaujinimo ar kitos infrastruktūros, kuri sumažintų įtampą, finansavimo. Tai pozicionuojama ir kaip gero kaimynystės žingsnis, ir kaip būdas užkirsti kelią politiniam ir bendruomenės pasipriešinimui. Praktiškai tai rodo, kad energijos poveikis dabar yra pagrindinis dirbtinio intelekto plėtros planų pagrindas.
Naujausi gandai apie „OpenAI“ aparatinę įrangą – ar „AI-first“ ausinės tikrai patikimos?
Ataskaitose teigiama, kad „OpenAI“ siekia pristatyti savo pirmąjį įrenginį 2026 m., o potencialiu įrenginio formos veiksniu bus ausinės. Ši koncepcija – tai „dirbtinio intelekto“ pagrindu sukurtas nešiojamas įrenginys, kurį naudojate nuolat, o ne tik atidarote programėlę. Kalbama apie kodinį pavadinimą („Sweet Pea“) ir ambicijas labiau apdoroti duomenis įrenginyje, o ne visiškai pasikliauti debesimi. Toks požiūris, priklausomai nuo įgyvendinimo, galėtų pagreitinti ir padaryti sąveiką privatesnę.
Kas yra atnaujinta „Anthropic“ „Klodo konstitucija“ ir ką ji keičia?
Tai paskelbtas vertybių ir elgesio planas, skirtas formuoti, kaip Claude'as reaguoja, argumentuoja ir atmeta prašymus. Atnaujinime pabrėžiamos aiškesnės ribos aplink tikrai pavojingas sritis, tokias kaip ginklai, didelio masto žala ir valdžios siekimas. Jame taip pat remiamasi labiau niuansuotais „principais“, o ne griežtomis taisyklėmis. Pažymėtina, kad moralinio svarstymo klausimas pažangiems dirbtiniams intelektams traktuojamas kaip atviras klausimas, o ne išsispręstas teiginys.
Kokias naujas saugumo ir dirbtinio intelekto aptikimo funkcijas „Google“ pridėjo prie „Workspace for Education“?
„Google“ paskelbė apie sustiprintas „Workspace for Education“ apsaugos priemones, įskaitant dėmesį dirbtinio intelekto sugeneruoto turinio aptikimui ir tikrinimui. Vienas iš svarbiausių aspektų – dirbtinio intelekto sugeneruotų vaizdų ir vaizdo įrašų tikrinimas „Gemini“ programėlėje, susietas su „SynthID“. Atnaujinime taip pat minimas išpirkos reikalaujančių programų aptikimas ir lengvesnis failų atkūrimas „Drive“ darbalaukio versijoje. Apskritai tai pozicionuojama kaip į klasę orientuotas saugumo darbas, kuriuo siekiama padėti mokykloms efektyviau valdyti klaidingą informaciją ir incidentus.
Ar „Google“ „Gemini“ rodys skelbimus ir kodėl „DeepMind“ pakomentavo „ChatGPT“ jų pridėjimą?
„DeepMind“ generalinis direktorius Demis Hassabis pakartojo, kad „Gemini“ „neplanuoja“ reklamų, ir išreiškė nuostabą, kad „ChatGPT“ prie jų perėjo „taip anksti“. Tokia žinutė „Gemini“ pozicionuoja kaip asistentą kaip produktą, o ne kaip asistentą kaip reklaminį skydą. Tuo pačiu metu „planų nėra“ palieka erdvės būsimiems pokyčiams, tačiau neprideda jokių įpareigojančių pažadų. Vartotojams tai pabrėžia kylantį verslo modelio susiskaldymą vartotojų dirbtinio intelekto asistentų srityje.
Kam skirta Alano Turingo instituto dirbtinio intelekto reguliavimo pajėgumų sistema?
Tai reguliavimo gebėjimų sistema ir savęs vertinimo įrankis, skirtas padėti JK reguliavimo institucijoms įvertinti, ar jos yra pasirengusios veiksmingai prižiūrėti dirbtinį intelektą. Šis metodas yra sąmoningai nepatrauklus: kontroliniai sąrašai, gebėjimų veiksniai ir teiginiai „kaip atrodo gerai“. Tikslas – užtikrinti, kad valdymas veiktų, o ne būtų tik siekis. Tai labiausiai naudinga reguliavimo institucijoms ir politikos komandoms, kurioms reikia nustatyti spragas prieš pradedant vykdyti ar prižiūrėti.