🏗️ „Politico“ praneša, kad JAV stumia įmones link naujo dirbtinio intelekto duomenų centro „kompaktinio“ kūrimo ↗
Pranešama, kad JAV bando įtikinti dideles įmones pasirašyti naują „kompaktišką“ dirbtinio intelekto duomenų centrų susitarimą – iš esmės tai yra įsipareigojimų rinkinys, kaip turėtų būti tvarkomi šie milžiniški skaičiavimo pajėgumai.
Detalės vis dar šiek tiek miglotos (klasikinės), bet kryptis atrodo pažįstama: standartizuoti lūkesčius, susijusius su energetika, saugumu ir galbūt ir ataskaitų teikimu – mandagi politikos versija „prašau, neleiskite, kad tai virstų chaosu“
🎬 „Autodesk“ padavė „Google“ į teismą dėl dirbtinio intelekto valdomos filmų kūrimo programinės įrangos ↗
„Autodesk“ padavė „Google“ į teismą dėl pavadinimo „Flow“, teigdama, kad ji jau naudojo „Flow“ gamybos ir VFX valdymo programinei įrangai, o „Google“ dirbtinio intelekto filmų kūrimo įrankis pasirodė su tuo pačiu prekės ženklu.
Aštresnė detalė yra teiginys, kad „Google“ anksčiau teigė, jog nekomercins šio pavadinimo... o paskui vis tiek siekė prekių ženklų teisių. Tai, žinoma, prekių ženklų kova, tačiau joje taip pat yra nedidelio masto „didelės platformos prieš specializuotą įrankių gamintoją“ energijos.
🏥 Tyrimas rodo, kad dirbtinis intelektas nėra geresnis už kitus metodus pacientams, ieškantiems medicininės pagalbos ↗
Naujame tyrime nustatyta, kad dirbtinio intelekto naudojimas pacientų medicininėms konsultacijoms neveikė geriau nei kiti metodai – tai nestebina ir šiek tiek ramina, priklausomai nuo to, kiek atidžiai stebėjote simptomų tikrinimo metodus.
Tai nereiškia, kad dirbtinis intelektas sveikatos priežiūros srityje nenaudingas – tiesiog „klauskite roboto“ automatiškai nėra esamų variantų atnaujinimas, ypač kai svarbiausia yra tikslumas ir saugumas.
🩺 Dirbtiniu intelektu paremtos programėlės ir robotai veržiasi į mediciną. Gydytojai turi klausimų. ↗
Tyrimas siekia išsiaiškinti, kaip dirbtinio intelekto sveikatos programėlės ir pokalbių robotai skverbiasi į klinikines erdves – kartais greičiau, nei gali suspėti gairės, priežiūra ar paprasti įrodymai.
Gydytojai reiškia susirūpinimą dėl patikimumo, žalos pacientams ir to, kas atsakingas, kai robotas duoda patarimų, kurie skamba užtikrintai, bet yra neteisingi... pavyzdžiui, palydovinė navigacija, reikalaujanti važiuoti į ežerą, išskyrus atvejus, kai yra vartojami vaistai.
📈 „OpenAI“ generalinis direktorius teigia, kad „ChatGPT“ vėl augo daugiau nei 10 % per mėnesį, praneša CNBC ↗
Pranešama, kad „OpenAI“ generalinis direktorius teigė, jog „ChatGPT“ augimas per mėnesį vėl viršija 10 % – tai didelis įvykis, jei darytume prielaidą, kad etapas „visi jau išbandė“ jau pasiekė piką.
Tai rodo, kad arba vis dar plūsta nauji vartotojai, arba esami vartotojai randa daugiau priežasčių pasilikti – arba ir viena, ir kita. Bet kuriuo atveju, produktas elgiasi ne kaip trumpalaikė mada, o labiau kaip infrastruktūra... arba bent jau taip atrodo.
DUK
Kokį siūlomą dirbtinio intelekto duomenų centro „kompaktiškumą“ JAV skatina?
Tai apibūdinama kaip įsipareigojimų rinkinys, kurį prisiimtų didelės įmonės, statydamos ar eksploatuodamos didelius dirbtinio intelekto duomenų centrus. Tikslas – standartizuoti lūkesčius, kad šie didžiuliai skaičiavimo projektai nebūtų išsklaidyti ar nenuoseklūs skirtingose įmonėse. Nors konkrečios detalės vis dar atrodo neaiškios, atrodo, kad daugiausia dėmesio skiriama praktiniams aspektams: energijos suvartojimui, saugumui ir galbūt tam tikrai ataskaitų teikimo formai.
Kodėl JAV norėtų, kad įmonės pasirašytų dirbtinio intelekto duomenų centrų susitarimą?
Kompaktiškas susitarimas gali nustatyti bendrus pagrindinius lūkesčius, neverčiant įstatymų leidėjų rengti naujų taisyklių kiekvienu kraštutiniu atveju. Dirbtinio intelekto duomenų centrams sparčiai plečiantis, politikos formuotojai dažnai nerimauja dėl poveikio tinklui, saugumo rizikos ir veiklos skaidrumo. Įprasta strategija – kuo anksčiau suderinti didžiausius žaidėjus, kad patikima praktika pasklistų greičiau ir būtų lengviau atsekti atsakomybę kilus problemoms.
Kokius įsipareigojimus būtų galima įtraukti į dirbtinio intelekto duomenų centro susitarimą?
Remiantis tuo, kas buvo pasiūlyta, įsipareigojimai galėtų apimti energijos planavimą (kaip energija tiekiama ir valdoma), saugumo priemones (fizines ir kibernetines) ir tam tikrą ataskaitų teikimo ar atskleidimo formą. Daugelyje vamzdynų ataskaitų teikimas tampa „lengvuoju vykdymo užtikrinimo“ sluoksniu, kuris užtikrina standartų suprantamumą ir išmatuojamumą. Jei susitarimas yra savanoriškas, šie įsipareigojimai gali būti suformuluoti kaip gairės, kurios vėliau padeda formuoti reguliavimą.
Kas yra ieškinys dėl „Google“ dirbtinio intelekto filmų kūrimo įrankio „Flow“?
„Autodesk“ padavė „Google“ į teismą dėl pavadinimo „Flow“, teigdama, kad „Autodesk“ jau naudojo „Flow“ gamybos ir VFX valdymo programinei įrangai. Ginčas pateikiamas kaip prekės ženklo ir prekės ženklo konfliktas, be to, teigiama, kad „Google“ anksčiau teigė, jog nekomercins šio pavadinimo, bet vėliau vis tiek siekė prekių ženklų. Šios bylos dažnai grindžiamos prekės ženklo prioritetu ir painiavos tikimybe.
Ką reiškia, kad dirbtinis intelektas nebuvo geresnis už kitus pacientų medicininių patarimų metodus?
Tai rodo, kad „klauskite roboto“ nėra automatiškai tikslesnis ar saugesnis už esamus pacientų pagalbos paieškos būdus. Tai gali būti raminantis jausmas, jei nerimaujate dėl pernelyg užtikrintų simptomų tikrintojų ar pokalbių robotų atsakymų. Tai neatmeta dirbtinio intelekto potencialios vertės sveikatos priežiūros srityje, tačiau pabrėžia įrodymų, priežiūros ir kruopštaus integravimo poreikį tais atvejais, kai klaidos gali pakenkti.
Kodėl gydytojai nerimauja dėl dirbtinio intelekto valdomų sveikatos programėlių ir pokalbių robotų?
Gydytojai nerimauja dėl patikimumo, žalos pacientams ir to, kas yra atsakingas, kai įrankis pateikia užtikrintus, bet neteisingus patarimus. Nerimą kelia ne tik tikslumas; taip pat ir tai, kaip pacientai interpretuoja rezultatus ir ar sistema skatina žmones nesaugiai elgtis savarankiškai. Klinikinėje aplinkoje neaiški atsakomybė gali tapti didele rizika: pacientai gali pasitikėti įrankiu, gydytojai gali jo nekontroliuoti, o gairės gali būti nepakankamai pritaikytos.