Kibernetinio saugumo ekspertas, analizuojantis grėsmes naudodamas generatyvinius dirbtinio intelekto įrankius.

Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje?

Įvadas

Generatyvusis DI – dirbtinio intelekto sistemos, gebančios kurti naują turinį ar prognozes – tampa transformacine jėga kibernetinio saugumo srityje. Tokios priemonės kaip „OpenAI“ GPT-4 parodė gebėjimą analizuoti sudėtingus duomenis ir generuoti žmogaus panašų tekstą, suteikdamos galimybę taikyti naujus gynybos nuo kibernetinių grėsmių metodus. Kibernetinio saugumo specialistai ir verslo sprendimus priimantys asmenys įvairiuose pramonės sektoriuose tyrinėja, kaip generatyvinis DI gali sustiprinti apsaugą nuo besivystančių atakų. Nuo finansų ir sveikatos priežiūros iki mažmeninės prekybos ir valdžios – kiekvieno sektoriaus organizacijos susiduria su sudėtingais sukčiavimo bandymais, kenkėjiškomis programomis ir kitomis grėsmėmis, su kuriomis generatyvinis DI gali padėti kovoti. Šioje informacinėje knygoje nagrinėjame, kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje , pabrėžiant realaus pasaulio taikymus, ateities galimybes ir svarbius taikymo aspektus.

Generatyvusis dirbtinis intelektas (DI) skiriasi nuo tradicinio analitinio DI ne tik tuo, kad aptinka modelius, bet ir kuria turinį – nesvarbu, ar tai būtų atakų imitavimas siekiant apmokyti gynybą, ar natūralios kalbos paaiškinimų kūrimas sudėtingiems saugumo duomenims. Ši dviguba galimybė paverčia jį dviašmeniu kardu: jis siūlo galingus naujus gynybos įrankius, tačiau grėsmių kūrėjai taip pat gali jais pasinaudoti. Tolesniuose skyriuose nagrinėjamas platus generatyvinio DI naudojimo kibernetinio saugumo srityje atvejų spektras – nuo ​​sukčiavimo apsimetant atakomis automatizavimo iki incidentų reagavimo gerinimo. Taip pat aptariame šių DI inovacijų žadamą naudą ir riziką (pvz., DI „haliucinacijas“ ar priešišką piktnaudžiavimą), kurią organizacijos turi valdyti. Galiausiai pateikiame praktinių patarimų, padėsiančių įmonėms įvertinti ir atsakingai integruoti generatyvųjį DI į savo kibernetinio saugumo strategijas.

Generatyvus dirbtinis intelektas kibernetinio saugumo srityje: apžvalga

Generatyvusis dirbtinis intelektas kibernetinio saugumo srityje reiškia dirbtinio intelekto modelius – dažnai didelius kalbos modelius arba kitus neuroninius tinklus – kurie gali generuoti įžvalgas, rekomendacijas, kodą ar net sintetinius duomenis, kad padėtų atlikti saugumo užduotis. Skirtingai nuo grynai nuspėjamųjų modelių, generatyvusis dirbtinis intelektas gali imituoti scenarijus ir, remdamasis savo mokymo duomenimis, pateikti žmonėms suprantamus rezultatus (pvz., ataskaitas, įspėjimus ar net kenkėjiško kodo pavyzdžius). Ši galimybė yra panaudojama numatyti, aptikti ir reaguoti į jas dinamiškesniais būdais nei anksčiau ( Kas yra generatyvusis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ). Pavyzdžiui, generatyviniai modeliai gali analizuoti didelius žurnalus arba grėsmių žvalgybos saugyklas ir pateikti glaustą santrauką arba rekomenduojamą veiksmą, veikdami beveik kaip dirbtinio intelekto „asistentas“ saugumo komandoms.

Ankstyvieji generatyvinio dirbtinio intelekto (DI) diegimai kibernetinei gynybai parodė potencialą. 2023 m. „Microsoft“ pristatė „Security Copilot“ – GPT-4 pagrindu veikiančią saugumo analitikų asistentą, kuris padeda nustatyti pažeidimus ir atsijoti 65 trilijonus signalų, kuriuos „Microsoft“ kasdien apdoroja ( „Microsoft Security Copilot“ yra naujas GPT-4 DI asistentas kibernetiniam saugumui | „The Verge“ ). Analitikai gali pateikti komandas šiai sistemai natūralia kalba (pvz., „Apibendrinti visus saugumo incidentus per pastarąsias 24 valandas“ ), o „copilot“ pateiks naudingą pasakojimo santrauką. Panašiai „Google“ grėsmių žvalgybos DI naudoja generatyvinį modelį, vadinamą „Gemini“ , kad įgalintų pokalbių paiešką didžiulėje „Google“ grėsmių žvalgybos duomenų bazėje, greitai analizuodamas įtartiną kodą ir apibendrindamas išvadas, kad padėtų kenkėjiškų programų medžiotojams („ Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių“ ). Šie pavyzdžiai iliustruoja potencialą: generatyvinis DI gali apdoroti sudėtingus, didelio masto kibernetinio saugumo duomenis ir pateikti įžvalgas prieinama forma, paspartindamas sprendimų priėmimą.

Tuo pačiu metu generatyvinis DI gali sukurti labai tikrovišką netikrą turinį, o tai labai naudinga modeliavimui ir mokymui (ir, deja, užpuolikams, kuriantiems socialinę inžineriją). Pereidami prie konkrečių naudojimo atvejų, pamatysime, kad generatyvinio DI gebėjimas sintetinti ir analizuoti informaciją yra daugelio jo kibernetinio saugumo taikymų pagrindas. Toliau aptarsime pagrindinius naudojimo atvejus, apimančius viską – nuo ​​sukčiavimo apsimetant apsimetant apsimetant ir baigiant saugios programinės įrangos kūrimu, ir pateiksime pavyzdžių, kaip kiekvienas iš jų taikomas įvairiose pramonės šakose.

Pagrindiniai generatyvinio dirbtinio intelekto taikymai kibernetinio saugumo srityje

Paveikslėlis: Pagrindiniai generatyvinio dirbtinio intelekto naudojimo atvejai kibernetinio saugumo srityje apima DI antrinius pilotus saugumo komandoms, kodo pažeidžiamumo analizę, adaptyvų grėsmių aptikimą, nulinės dienos atakų modeliavimą, patobulintą biometrinį saugumą ir sukčiavimo apsimetant atakomis aptikimą ( 6 generatyvinio dirbtinio intelekto naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ).

Sukčiavimo apsimetant duomenimis aptikimas ir prevencija

Sukčiavimas apsimetant išlieka viena iš labiausiai paplitusių kibernetinių grėsmių, kuria apgaule vartotojai priverčiami spustelėti kenkėjiškas nuorodas arba atskleisti prisijungimo duomenis. Generatyvusis dirbtinis intelektas (DI) naudojamas tiek siekiant aptikti sukčiavimo bandymus , tiek tobulinti vartotojų mokymą, kad būtų išvengta sėkmingų atakų. Gynybos srityje DI modeliai gali analizuoti el. laiškų turinį ir siuntėjų elgesį, kad pastebėtų subtilius sukčiavimo požymius, kurių taisyklėmis pagrįsti filtrai gali nepastebėti. Mokydamasis iš didelių teisėtų ir apgaulingų el. laiškų duomenų rinkinių, generatyvinis modelis gali pažymėti tono, formuluotės ar konteksto anomalijas, kurios rodo sukčiavimą – net kai gramatika ir rašyba to nebeišduoda. Iš tiesų, „Palo Alto Networks“ tyrėjai pažymi, kad generatyvusis DI gali nustatyti „subtilius sukčiavimo el. laiškų požymius, kurie kitaip galėtų likti nepastebėti“, padėdamas organizacijoms būti vienu žingsniu priekyje sukčių ( Kas yra generatyvinis DI kibernetinio saugumo srityje? – „Palo Alto Networks“ ).

Saugumo komandos taip pat naudoja generatyvinį dirbtinį intelektą (DI), kad imituotų sukčiavimo atakas mokymui ir analizei. Pavyzdžiui, „Ironscales“ pristatė GPT pagrįstą sukčiavimo apsimetant modeliavimo įrankį, kuris automatiškai generuoja netikrus sukčiavimo el. laiškus, pritaikytus organizacijos darbuotojams ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ). Šie DI sukurti el. laiškai atspindi naujausias užpuolikų taktikas, suteikdami darbuotojams realios praktikos pastebėti sukčiavimo turinį. Toks suasmenintas mokymas yra labai svarbus, nes patys užpuolikai naudoja DI, kad sukurtų įtikinamesnius masalus. Pažymėtina, kad nors generatyvinis DI gali sukurti labai nušlifuotus sukčiavimo el. laiškus (praėjo lengvai pastebimų laužytų anglų kalbos laiškų laikai), gynėjai nustatė, kad DI nėra nepralenkiamas. 2024 m. IBM saugumo tyrėjai atliko eksperimentą, kuriame palygino žmogaus parašytus sukčiavimo el. laiškus su DI sugeneruotais el. laiškais, ir „keista, bet DI sugeneruotus el. laiškus vis tiek buvo lengva aptikti, nepaisant taisyklingos gramatikos“ ( 6 generatyvinio DI naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Tai rodo, kad žmogaus intuicija kartu su DI padedamu aptikimu vis dar gali atpažinti subtilius neatitikimus ar metaduomenų signalus DI parašytose sukčiavimo bylose.

Generatyvusis dirbtinis intelektas (DI) ir kitais būdais padeda apsisaugoti nuo sukčiavimo atakų. Modeliai gali būti naudojami automatizuotiems atsakymams generuoti arba filtrams , kurie tikrina įtartinus el. laiškus. Pavyzdžiui, DI sistema galėtų atsakyti į el. laišką pateikdama tam tikras užklausas, kad patikrintų siuntėjo teisėtumą, arba naudoti LLM, kad analizuotų el. laiško nuorodas ir priedus smėlio dėžėje, o tada apibendrintų bet kokius kenkėjiškus ketinimus. NVIDIA saugumo platforma „Morpheus“ demonstruoja DI galią šioje srityje – ji naudoja generatyvinius NLP modelius, kad greitai analizuotų ir klasifikuotų el. laiškus, ir nustatyta, kad ji 21 % , palyginti su tradicinėmis saugumo priemonėmis ( 6 generatyvinio DI naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). „Morpheus“ netgi profiliuoja naudotojų bendravimo modelius, kad aptiktų neįprastą elgesį (pvz., naudotojas staiga siunčia el. laiškus daugeliui išorinių adresų), kuris gali rodyti, kad pažeista paskyra siunčia sukčiavimo el. laiškus.

Praktiškai įvairių pramonės šakų įmonės pradeda pasitikėti dirbtiniu intelektu (DI), kad filtruotų el. pašto ir interneto srautą ir ieškotų socialinės inžinerijos atakų. Pavyzdžiui, finansų įmonės naudoja generatyvinį DI, kad nuskaitytų pranešimus ir ieškotų bandymų apsimetinėti kitu asmeniu, kurie galėtų lemti sukčiavimą elektroniniu būdu, o sveikatos priežiūros paslaugų teikėjai naudoja DI, kad apsaugotų pacientų duomenis nuo sukčiavimo atvejų. Generuodamas realius sukčiavimo scenarijus ir nustatydamas kenkėjiškų pranešimų požymius, generatyvinis DI papildo sukčiavimo prevencijos strategijas. Išvada: DI gali padėti greičiau ir tiksliau aptikti ir neutralizuoti sukčiavimo atakas , net jei užpuolikai naudoja tą pačią technologiją, kad patobulintų savo galimybes.

Kenkėjiškų programų aptikimas ir grėsmių analizė

Šiuolaikinė kenkėjiška programa nuolat vystosi – užpuolikai generuoja naujus variantus arba užmaskuoja kodą, kad apeitų antivirusinių programų parašus. Generatyvusis dirbtinis intelektas siūlo naujus metodus tiek kenkėjiškoms programoms aptikti, tiek jų elgesiui suprasti. Vienas iš būdų – naudoti dirbtinį intelektą „blogiesiems dvyniams“ generuoti : saugumo tyrėjai gali įvesti žinomą kenkėjiškos programos pavyzdį į generatyvinį modelį, kad sukurtų daug mutavusių tos kenkėjiškos programos variantų. Taip jie veiksmingai numato užpuoliko atliekamus pakeitimus. Šie dirbtinio intelekto sugeneruoti variantai gali būti naudojami antivirusinių ir įsilaužimų aptikimo sistemoms mokyti, kad net modifikuotos kenkėjiškos programos versijos būtų atpažįstamos realiomis sąlygomis ( 6 generatyvinio dirbtinio intelekto naudojimo kibernetinio saugumo srityje atvejai [+ pavyzdžiai] ). Ši aktyvi strategija padeda nutraukti ciklą, kai įsilaužėliai šiek tiek pakeičia savo kenkėjišką programą, kad išvengtų aptikimo, o gynėjai kiekvieną kartą turi skubiai rašyti naujus parašus. Kaip pažymėta vienoje pramonės tinklalaidėje, saugumo ekspertai dabar naudoja generatyvųjį dirbtinį intelektą „tinklo srautui imituoti ir kenkėjiškiems naudingiesiems krūviams, kurie imituoja sudėtingas atakas, generuoti“, testuodami savo apsaugą nuo visos grėsmių šeimos, o ne vieno atvejo. Šis adaptyvus grėsmių aptikimas reiškia, kad saugumo įrankiai tampa atsparesni polimorfinei kenkėjiškai programinei įrangai, kuri kitaip praslystų pro šalį.

Be aptikimo, generatyvinis DI padeda analizuoti kenkėjiškas programas ir atlikti atvirkštinę inžineriją , kurios tradiciškai yra daug darbo reikalaujančios užduotys grėsmių analitikams. Dideliems kalbos modeliams gali būti pavesta ištirti įtartiną kodą ar scenarijus ir paprasta kalba paaiškinti, ką tas kodas turėtų daryti. Realus pavyzdys yra „ VirusTotal Code Insight“ – „Google“ „VirusTotal“ funkcija, kuri naudoja generatyvinį DI modelį („Google“ „Sec-PaLM“), kad sukurtų natūralios kalbos potencialiai kenkėjiško kodo santraukas ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ). Tai iš esmės yra „ChatGPT tipas, skirtas saugumo kodavimui“, veikiantis kaip DI kenkėjiškų programų analitikas, dirbantis visą parą, kad padėtų žmonėms analitikams suprasti grėsmes ( 6 generatyvinio DI naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Užuot gilinęsis į nepažįstamą scenarijų ar dvejetainį kodą, saugumo komandos narys gali gauti tiesioginį DI paaiškinimą, pavyzdžiui, „Šis scenarijus bando atsisiųsti failą iš XYZ serverio ir tada modifikuoti sistemos nustatymus, o tai rodo kenkėjiškų programų elgesį“. Tai gerokai pagreitina reagavimą į incidentus, nes analitikai gali greičiau nei bet kada anksčiau atrinkti ir suprasti naują kenkėjišką programinę įrangą.

Generatyvusis dirbtinis intelektas (DI) taip pat naudojamas kenkėjiškoms programoms aptikti didžiuliuose duomenų rinkiniuose . Tradiciniai antivirusiniai varikliai nuskaito failus ieškodami žinomų parašų, tačiau generatyvinis modelis gali įvertinti failo charakteristikas ir netgi numatyti, ar jis kenkėjiškas, remdamasis išmoktais modeliais. Analizuodamas milijardų failų (kenkėjiškų ir gerybinių) atributus, DI gali aptikti kenkėjiškus ketinimus, kai nėra aiškaus parašo. Pavyzdžiui, generatyvinis modelis gali pažymėti vykdomąjį failą kaip įtartiną, nes jo elgesio profilis „atrodo“ kaip nedidelė išpirkos reikalaujančios programinės įrangos, kurią jis matė mokymo metu, variacija, net jei dvejetainis failas yra naujas. Šis elgesiu pagrįstas aptikimas padeda kovoti su naujomis arba nulinės dienos kenkėjiškomis programomis. Pranešama, kad „Google“ grėsmių žvalgybos DI (kuri yra „Chronicle“ / „Mandiant“ dalis) naudoja savo generatyvinį modelį potencialiai kenkėjiškam kodui analizuoti ir „efektyviau bei veiksmingiau padėti saugumo specialistams kovoti su kenkėjiškomis programomis ir kitų tipų grėsmėmis“ ( Kaip generatyvinis DI gali būti naudojamas kibernetiniame saugume? 10 realaus pasaulio pavyzdžių ).

Kita vertus, turime pripažinti, kad užpuolikai ir čia gali naudoti generatyvinį dirbtinį intelektą – automatiškai kurti prisitaikančią kenkėjišką programą. Iš tiesų, saugumo ekspertai perspėja, kad generatyvinis dirbtinis intelektas gali padėti kibernetiniams nusikaltėliams kurti sunkiau aptinkamą kenkėjišką programą ( Kas yra generatyvinis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ). Dirbtinio intelekto modeliui galima nurodyti pakartotinai modifikuoti kenkėjišką programą (keisti jos failų struktūrą, šifravimo metodus ir kt.), kol ji apeis visus žinomus antivirusinių programų patikrinimus. Toks priešiškas naudojimas kelia vis didesnį susirūpinimą (kartais vadinamas „dirbtinio intelekto valdoma kenkėjiška programa“ arba polimorfine kenkėjiška programa kaip paslauga). Šią riziką aptarsime vėliau, tačiau tai pabrėžia, kad generatyvinis dirbtinis intelektas yra įrankis šiame katės ir pelės žaidime, kurį naudoja tiek gynėjai, tiek užpuolikai.

Apskritai generatyvinis dirbtinis intelektas (DI) pagerina apsaugą nuo kenkėjiškų programų, leisdamas saugumo komandoms mąstyti kaip užpuolikui – kurti naujas grėsmes ir sprendimus įmonės viduje. Nesvarbu, ar tai būtų sintetinės kenkėjiškos programos kūrimas siekiant pagerinti aptikimo rodiklius, ar DI naudojimas siekiant paaiškinti ir suvaldyti tikrus tinkluose rastus kenkėjiškus failus, šie metodai taikomi įvairiose pramonės šakose. Bankas gali naudoti DI pagrįstą kenkėjiškų programų analizę, kad greitai išanalizuotų įtartiną makrokomandą skaičiuoklėje, o gamybos įmonė gali pasikliauti DI, kad aptiktų kenkėjiškas programas, nukreiptas į pramonines valdymo sistemas. Papildydamos tradicinę kenkėjiškų programų analizę generatyviniu DI, organizacijos gali reaguoti į kenkėjiškų programų kampanijas greičiau ir aktyviau nei anksčiau.

Grėsmių žvalgyba ir analizės automatizavimas

Kiekvieną dieną organizacijos yra bombarduojamos grėsmių žvalgybos duomenimis – nuo ​​naujai atrastų kompromitavimo rodiklių (IOC) srautų iki analitikų ataskaitų apie kylančias įsilaužėlių taktikas. Saugumo komandoms iššūkis yra atsijoti šį informacijos srautą ir išgauti praktines įžvalgas. Generatyvusis dirbtinis intelektas pasirodo esąs neįkainojamas automatizuojant grėsmių žvalgybos analizę ir naudojimą . Užuot rankiniu būdu skaitę dešimtis ataskaitų ar duomenų bazės įrašų, analitikai gali pasitelkti dirbtinį intelektą, kad apibendrintų ir kontekstualizuotų grėsmių informaciją kompiuterio greičiu.

Vienas konkretus pavyzdys yra „Google“ grėsmių žvalgybos rinkinys, kuris integruoja generatyvinį dirbtinį intelektą („Gemini“ modelį) su „Google“ grėsmių duomenų iš „Mandiant“ ir „VirusTotal“ saugyklomis. Šis dirbtinis intelektas teikia „pokalbių paiešką didžiulėje „Google“ grėsmių žvalgybos saugykloje“ , leisdamas vartotojams užduoti natūralius klausimus apie grėsmes ir gauti išsamius atsakymus ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ). Pavyzdžiui, analitikas galėtų paklausti: „Ar matėme kokią nors kenkėjišką programinę įrangą, susijusią su X grėsmių grupe, nukreiptą į mūsų pramonės šaką?“ , o dirbtinis intelektas surinks atitinkamą informaciją, galbūt pažymėdamas: „Taip, X grėsmių grupė praėjusį mėnesį buvo susieta su sukčiavimo kampanija, naudojant Y kenkėjišką programą“ , kartu su tos kenkėjiškos programos elgesio santrauka. Tai žymiai sutrumpina laiką įžvalgoms rinkti, kurioms kitaip reikėtų ieškoti kelių įrankių arba skaityti ilgas ataskaitas.

Generatyvusis dirbtinis intelektas (DI) taip pat gali koreliuoti ir apibendrinti grėsmių tendencijas . Jis gali peržiūrėti tūkstančius saugumo tinklaraščio įrašų, naujienų apie pažeidimus ir tamsiojo interneto pokalbius, o tada sugeneruoti „didžiausių šios savaitės kibernetinių grėsmių“ santrauką CISO instruktažui. Tradiciškai tokio lygio analizė ir ataskaitų teikimas pareikalavo daug žmonių pastangų; dabar gerai suderintas modelis gali jį parengti per kelias sekundes, o žmonės tik tobulina rezultatą. Tokios įmonės kaip „ZeroFox“ sukūrė „FoxGPT“ – generatyvinį DI įrankį, specialiai sukurtą „paspartinti žvalgybos duomenų analizę ir apibendrinimą dideliuose duomenų rinkiniuose“, įskaitant kenkėjišką turinį ir sukčiavimo duomenis ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ). Automatizuodamas sudėtingą duomenų skaitymo ir kryžminių nuorodų kūrimo procesą, DI leidžia grėsmių žvalgybos komandoms sutelkti dėmesį į sprendimų priėmimą ir reagavimą.

Kitas naudojimo atvejis – pokalbių grėsmių paieška . Įsivaizduokite, kad saugumo analitikas bendrauja su DI asistentu: „Parodykite man bet kokius duomenų nutekėjimo požymius per pastarąsias 48 valandas“ arba „Kokie yra pagrindiniai nauji pažeidžiamumai, kuriuos šią savaitę išnaudoja užpuolikai?“ DI gali interpretuoti užklausą, ieškoti vidiniuose žurnaluose arba išoriniuose žvalgybos šaltiniuose ir atsakyti pateikdamas aiškų atsakymą arba net pateikti atitinkamų incidentų sąrašą. Tai nėra tolima – šiuolaikinės saugumo informacijos ir įvykių valdymo (SIEM) sistemos pradeda integruoti natūralios kalbos užklausas. Pavyzdžiui, IBM saugos paketas „QRadar“ 2024 m. prideda generatyvinių DI funkcijų, kad analitikai galėtų „užduoti […] konkrečius klausimus apie apibendrintą incidento atakos kelią“ ir gauti išsamius atsakymus. Jis taip pat gali „interpretuoti ir apibendrinti labai svarbią grėsmių informaciją“ ( Kaip generatyvinis DI gali būti naudojamas kibernetiniame saugume? 10 realaus pasaulio pavyzdžių ). Iš esmės generatyvinis DI paverčia kalnus techninių duomenų į pokalbio dydžio įžvalgas pagal poreikį.

Tai turi didelę reikšmę įvairiuose pramonės sektoriuose. Sveikatos priežiūros paslaugų teikėjas gali naudoti dirbtinį intelektą, kad neatsiliktų nuo naujausių išpirkos reikalaujančių programų grupių, nukreiptų prieš ligonines, neskirti analitiko visą darbo dieną trunkantiems tyrimams. Mažmeninės prekybos įmonės SOC gali greitai apibendrinti naujas POS kenkėjiškų programų taktikas, instruktuodamas parduotuvės IT darbuotojus. O vyriausybėje, kur reikia susintetinti grėsmių duomenis iš įvairių agentūrų, dirbtinis intelektas gali parengti vieningas ataskaitas, kuriose pabrėžiami pagrindiniai įspėjimai. Automatizuodamas grėsmių žvalgybos duomenų rinkimą ir interpretavimą , generatyvus dirbtinis intelektas padeda organizacijoms greičiau reaguoti į kylančias grėsmes ir sumažina riziką praleisti svarbius įspėjimus, paslėptus triukšme.

Saugumo operacijų centro (SOC) optimizavimas

Saugumo operacijų centrai yra pagarsėję dėl įspėjimų nuovargio ir milžiniško duomenų kiekio. Įprastas SOC analitikas kiekvieną dieną gali peržiūrėti tūkstančius įspėjimų ir įvykių, tirdamas galimus incidentus. Generatyvus dirbtinis intelektas veikia kaip jėgos daugiklis SOC, automatizuodamas įprastą darbą, teikdamas išmanias santraukas ir netgi koordinuodamas kai kuriuos atsakymus. Tikslas – optimizuoti SOC darbo eigą, kad žmonės analitikai galėtų sutelkti dėmesį į svarbiausias problemas, o dirbtinio intelekto antroji piloto dalis atliktų visa kita.

Vienas pagrindinių pritaikymo būdų – generatyvinio dirbtinio intelekto naudojimas kaip „analitiko antrinis pilotas“ . Anksčiau minėtas „Microsoft“ saugumo antrinis pilotas tai puikiai iliustruoja: jis „sukurtas padėti saugumo analitiko darbui, o ne jį pakeisti“, padedant tirti incidentus ir teikti ataskaitas („ Microsoft Security Copilot“ yra naujas GPT-4 dirbtinio intelekto asistentas kibernetinio saugumo srityje | „The Verge“ ). Praktiškai tai reiškia, kad analitikas gali įvesti neapdorotus duomenis – užkardos žurnalus, įvykių laiko juostą arba incidento aprašymą – ir paprašyti dirbtinio intelekto juos išanalizuoti arba apibendrinti. Antrinis pilotas gali pateikti pasakojimą, pvz., „Atrodo, kad 2:35 val. nakties įtartinas prisijungimas iš IP X serveryje Y buvo sėkmingas, o po to buvo perduoti neįprasti duomenys, rodantys galimą to serverio pažeidimą.“ Toks neatidėliotinas konteksto nustatymas yra neįkainojamas, kai laikas yra labai svarbus.

Dirbtinio intelekto antrieji pilotai taip pat padeda sumažinti pirmojo lygio įspėjimų atrankos naštą. Remiantis pramonės duomenimis, saugumo komanda gali praleisti 15 valandų per savaitę vien tik rūšiuodama apie 22 000 įspėjimų ir klaidingai teigiamų rezultatų ( 6 generatyvinio dirbtinio intelekto naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Naudojant generatyvinį dirbtinį intelektą, daugelį šių įspėjimų galima automatiškai atrinkti atrankos būdu – dirbtinis intelektas gali atmesti tuos, kurie yra akivaizdžiai nekenksmingi (pateikdamas argumentus), ir paryškinti tuos, kuriems tikrai reikia dėmesio, kartais net siūlydamas prioritetą. Iš tiesų, generatyvinio dirbtinio intelekto gebėjimas suprasti kontekstą reiškia, kad jis gali susieti įspėjimus, kurie atskirai gali atrodyti nekenksmingi, bet kartu rodo daugiapakopę ataką. Tai sumažina tikimybę praleisti ataką dėl „įspėjimų nuovargio“.

SOC analitikai taip pat naudoja natūralią kalbą su DI, kad paspartintų paiešką ir tyrimus. Pavyzdžiui, „Purple AI“ „užduoti sudėtingus grėsmių paieškos klausimus paprasta anglų kalba ir gauti greitus, tikslius atsakymus“ ( Kaip generatyvinis DI gali būti naudojamas kibernetiniame saugume? 10 realaus pasaulio pavyzdžių ). Analitikas galėtų įvesti „Ar per pastarąjį mėnesį buvo bendrauta su domenu badguy123[.]com?“ , o „Purple AI“ ieškos žurnaluose, kad atsakytų. Tai atleidžia analitiką nuo duomenų bazės užklausų ar scenarijų rašymo – DI tai daro slapta. Tai taip pat reiškia, kad jaunesnieji analitikai gali atlikti užduotis, kurioms anksčiau reikėjo patyrusio inžinieriaus, įgudusio užklausų kalbas, veiksmingai tobulindami komandos įgūdžius pasitelkdami DI pagalbą . Iš tiesų, analitikai teigia, kad generatyvinio DI konsultavimas „pagerina jų įgūdžius ir meistriškumą“ , nes jaunesnieji darbuotojai dabar gali gauti kodavimo pagalbą arba analizės patarimus iš DI pagal poreikį, todėl sumažėja priklausomybė nuo nuolatinio vyresniųjų komandos narių pagalbos prašymo ( 6 generatyvinio DI naudojimo atvejai kibernetiniame saugume [+ pavyzdžiai] ).

Dar vienas SOC optimizavimo būdas – automatizuotas incidentų apibendrinimas ir dokumentavimas . Sutvarkius incidentą, kažkas turi parašyti ataskaitą – užduotis, kurią daugelis laiko nuobodžia. Generatyvusis dirbtinis intelektas gali panaudoti teismo ekspertizės duomenis (sistemos žurnalus, kenkėjiškų programų analizę, veiksmų laiko juostą) ir sugeneruoti pirmąjį incidento ataskaitos juodraštį. IBM integruoja šią funkciją į QRadar, kad „vienu spustelėjimu“ būtų galima parengti incidento santrauką įvairioms suinteresuotosioms šalims (vadovams, IT komandoms ir kt.) ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ). Tai ne tik taupo laiką, bet ir užtikrina, kad ataskaitoje niekas nebūtų praleista, nes dirbtinis intelektas gali nuosekliai įtraukti visą svarbią informaciją. Panašiai, atitikties ir audito tikslais, dirbtinis intelektas gali pildyti formas arba įrodymų lenteles, remdamasis incidentų duomenimis.

Realaus pasaulio rezultatai yra įtikinami. Ankstyvieji „Swimlane“ dirbtiniu intelektu pagrįstą SOAR (saugumo orkestravimo, automatizavimo ir reagavimo) taikytojai praneša apie didžiulį produktyvumo padidėjimą – pavyzdžiui, „Global Data Systems“ pastebėjo, kad jų saugumo operacijų komanda valdė daug didesnį bylų krūvį; vienas direktorius teigė, kad „tai, ką šiandien darau su 7 analitikais, tikriausiai užtruktų 20 darbuotojų be“ dirbtinio intelekto valdomos automatizacijos ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetiniame saugume ). Kitaip tariant, dirbtinis intelektas SOC gali daugkart padidinti pajėgumus . Įvairiose pramonės šakose, nesvarbu, ar tai technologijų įmonė, tvarkanti debesijos saugumo įspėjimus, ar gamykla, stebinti OT sistemas, SOC komandos, diegdamos generatyvinius dirbtinio intelekto asistentus, gali greičiau aptikti ir reaguoti, sumažinti praleistų incidentų skaičių ir padidinti operacijų efektyvumą. Svarbiausia yra dirbti išmaniau – leisti mašinoms tvarkyti pasikartojančias ir daug duomenų reikalaujančias užduotis, kad žmonės galėtų pritaikyti savo intuiciją ir patirtį ten, kur to labiausiai reikia.

Pažeidžiamumų valdymas ir grėsmių modeliavimas

Pažeidžiamumų – programinės įrangos ar sistemų trūkumų, kuriais gali pasinaudoti užpuolikai – nustatymas ir valdymas yra pagrindinė kibernetinio saugumo funkcija. Generatyvusis dirbtinis intelektas (DI) gerina pažeidžiamumų valdymą, paspartindamas aptikimą, padėdamas nustatyti pataisų prioritetus ir netgi imituodamas atakas prieš tas pažeidžiamumų sritis, siekiant pagerinti pasirengimą. Iš esmės DI padeda organizacijoms greičiau rasti ir ištaisyti savo apsaugos spragas ir aktyviai testuoti gynybą, kol tai padarys tikri užpuolikai.

Vienas svarbus taikymas yra generatyvinio dirbtinio intelekto naudojimas automatizuotai kodo peržiūrai ir pažeidžiamumų aptikimui . Didelės kodų bazės (ypač senesnės sistemos) dažnai turi nepastebimų saugumo trūkumų. Generatyvinio dirbtinio intelekto modelius galima apmokyti saugaus kodavimo praktikos ir dažnų klaidų modelių, o tada juos panaudoti šaltinio kodui arba kompiliuotiems dvejetainiams failams, siekiant rasti galimus pažeidžiamumus. Pavyzdžiui, NVIDIA tyrėjai sukūrė generatyvinio dirbtinio intelekto kanalą, kuris galėtų analizuoti senus programinės įrangos konteinerius ir nustatyti pažeidžiamumus „dideliu tikslumu – iki 4 kartų greičiau nei žmonių ekspertai“ ( 6 generatyvinio dirbtinio intelekto naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Dirbtinis intelektas iš esmės išmoko, kaip atrodo nesaugus kodas, ir sugebėjo nuskaityti dešimtmečių senumo programinę įrangą, kad pažymėtų rizikingas funkcijas ir bibliotekas, labai paspartindamas paprastai lėtą rankinio kodo audito procesą. Toks įrankis gali pakeisti žaidimo taisykles tokiose pramonės šakose kaip finansai ar vyriausybė, kurios naudoja dideles, senesnes kodų bazes – dirbtinis intelektas padeda modernizuoti saugumą, atkurdamas problemas, kurias darbuotojams rasti gali prireikti mėnesių ar metų (jei iš viso jų rastų).

Generatyvusis dirbtinis intelektas (DI) taip pat padeda pažeidžiamumų valdymo darbo eigose, apdorodamas pažeidžiamumų nuskaitymo rezultatus ir juos prioritetizuodamas. Tokios priemonės kaip „Tenable“ sukurta „ExposureAI “ naudoja generatyvinį DI, kad analitikai galėtų paprasta kalba pateikti pažeidžiamumų duomenų užklausas ir gauti momentinius atsakymus ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ). „ExposureAI“ gali „apibendrinti visą atakos kelią pasakojime“ konkrečiam kritiniam pažeidžiamumui, paaiškindama, kaip užpuolikas galėtų jį susieti su kitais trūkumais, kad pakenktų sistemai. Ji netgi rekomenduoja veiksmus, kaip taisyti, ir atsako į tolesnius klausimus apie riziką. Tai reiškia, kad paskelbus apie naują kritinį CVE (dažnus pažeidžiamumus ir ekspozicijas), analitikas gali paklausti DI: „Ar šis CVE paveikė kurį nors iš mūsų serverių ir koks blogiausias scenarijus, jei neįdiegsime pataisų?“ ir gauti aiškų vertinimą, pagrįstą pačios organizacijos nuskaitymo duomenimis. Kontekstualizuodamas pažeidžiamumus (pvz., šis pažeidžiamumas yra pasiekiamas internete ir yra didelės vertės serveryje, todėl jis yra svarbiausias prioritetas), generatyvusis DI padeda komandoms sumaniai diegti pataisas su ribotais ištekliais.

Be žinomų pažeidžiamumų paieškos ir valdymo, generatyvinis dirbtinis intelektas prisideda prie įsiskverbimo testavimo ir atakų modeliavimo – iš esmės atrandant nežinomus pažeidžiamumus arba testuojant saugumo kontrolę. Generatyviniai priešiški tinklai (GAN), generatyvinio dirbtinio intelekto rūšis, buvo naudojami sintetiniams duomenims, imituojantiems realų tinklo srautą arba naudotojų elgesį, kurti, įskaitant paslėptus atakų modelius. 2023 m. atliktame tyrime siūloma naudoti GAN realistiškam nulinės dienos atakų srautui generuoti, siekiant apmokyti įsilaužimų aptikimo sistemas ( 6 generatyvinio dirbtinio intelekto naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Pateikdamos įsilaužimo aptikimo sistemai (IDS) dirbtinio intelekto sukurtus atakų scenarijus (kurie nerizikuoja naudoti realios kenkėjiškos programos gamybiniuose tinkluose), organizacijos gali apmokyti savo gynybą atpažinti naujas grėsmes, nelaukdamos, kol jos joms atsitrenks realybėje. Panašiai dirbtinis intelektas gali imituoti užpuoliką, tiriantį sistemą – pavyzdžiui, automatiškai bandant įvairius išnaudojimo metodus saugioje aplinkoje, kad pamatytų, ar kuris nors iš jų pavyksta. JAV gynybos pažangiųjų tyrimų projektų agentūra (DARPA) čia mato potencialą: jos 2023 m. dirbtinio intelekto kibernetinio iššūkio programoje „DARPA“ aiškiai naudojamas generatyvinis dirbtinis intelektas (pvz., dideli kalbos modeliai), siekiant „ automatiškai rasti ir ištaisyti atvirojo kodo programinės įrangos pažeidžiamumus“ DARPA siekia sukurti dirbtinį intelektą ir autonomijos programas, kuriomis pasitiki kariai > JAV gynybos departamentas > Gynybos departamento naujienos ). Ši iniciatyva pabrėžia, kad dirbtinis intelektas ne tik padeda užtaisyti žinomas spragas, bet ir aktyviai atskleidžia naujas bei siūlo pataisymus – užduotį, kurią tradiciškai atlikdavo tik kvalifikuoti (ir brangūs) saugumo tyrėjai.

Generatyvusis dirbtinis intelektas (DI) gali netgi sukurti intelektualius „medaus puodus“ ir skaitmeninius dvynius gynybai. Startuoliai kuria DI valdomas masalo sistemas, kurios įtikinamai imituoja tikrus serverius ar įrenginius. Kaip paaiškino vienas generalinis direktorius, generatyvinis DI gali „klonuoti skaitmenines sistemas, kad imituotų tikras sistemas ir priviliotų įsilaužėlius“ ( 6 generatyvinio DI naudojimo atvejai kibernetiniame saugume [+ pavyzdžiai] ). Šie DI generuojami „medaus puodai“ elgiasi kaip tikra aplinka (pvz., netikras daiktų interneto įrenginys, siunčiantis įprastą telemetriją), tačiau egzistuoja tik tam, kad pritrauktų užpuolikus. Kai užpuolikas taikosi į masalą, DI iš esmės jį apgavo, kad atskleistų savo metodus, kuriuos gynėjai gali ištirti ir naudoti tikroms sistemoms sustiprinti. Ši generatyvinio modeliavimo koncepcija suteikia į ateitį orientuotą būdą, kaip apversti padėtį prieš užpuolikus , naudojant DI sustiprintą apgaulę.

Įvairiuose sektoriuose greitesnis ir išmanesnis pažeidžiamumų valdymas reiškia mažiau pažeidimų. Pavyzdžiui, sveikatos priežiūros IT srityje dirbtinis intelektas gali greitai aptikti pažeidžiamą pasenusią medicinos įrenginio biblioteką ir paskatinti programinės įrangos taisymą, kol užpuolikas ja nepasinaudos. Bankininkystės sektoriuje dirbtinis intelektas galėtų imituoti vidinę ataką prieš naują programą, kad užtikrintų, jog klientų duomenys išliktų saugūs visais atvejais. Taigi generatyvusis dirbtinis intelektas veikia ir kaip mikroskopas, ir kaip organizacijų saugumo būklės testeris: jis apšviečia paslėptus trūkumus ir išradingais būdais daro spaudimą sistemoms, kad užtikrintų atsparumą.

Saugus kodo generavimas ir programinės įrangos kūrimas

Generatyviojo dirbtinio intelekto talentai neapsiriboja atakų aptikimu – jie taip pat apima saugesnių sistemų kūrimą nuo pat pradžių . Programinės įrangos kūrime dirbtinio intelekto kodo generatoriai (pvz., „GitHub Copilot“, „OpenAI Codex“ ir kt.) gali padėti kūrėjams greičiau rašyti kodą, siūlydami kodo fragmentus ar net ištisas funkcijas. Kibernetinio saugumo aspektas – užtikrinti, kad šios dirbtinio intelekto siūlomos kodo dalys būtų saugios, ir naudoti dirbtinį intelektą kodavimo praktikai tobulinti.

Viena vertus, generatyvinis dirbtinis intelektas (DI) gali veikti kaip kodavimo asistentas, įdiegęs geriausią saugumo praktiką . Kūrėjai gali paraginti DI įrankį „Sugeneruoti slaptažodžio nustatymo iš naujo funkciją Python kalboje“ ir idealiu atveju gauti kodą, kuris ne tik funkcionalus, bet ir atitinka saugumo gaires (pvz., tinkamas įvesties patvirtinimas, registravimas, klaidų tvarkymas nenutekinant informacijos ir kt.). Toks asistentas, apmokytas išsamių saugaus kodo pavyzdžių, gali padėti sumažinti žmogiškąsias klaidas, dėl kurių atsiranda pažeidžiamumų. Pavyzdžiui, jei kūrėjas pamiršta išvalyti vartotojo įvestį (atverdamas duris SQL injekcijai ar panašioms problemoms), DI gali tai įtraukti pagal numatytuosius nustatymus arba įspėti jį. Kai kurie DI kodavimo įrankiai dabar yra tikslinami naudojant į saugumą orientuotus duomenis, kad atitiktų būtent šį tikslą – iš esmės DI susieja programavimą su saugumo sąmoningumu .

Tačiau yra ir kita pusė: generatyvinis DI gali lygiai taip pat lengvai sukelti pažeidžiamumų, jei jis netinkamai valdomas. Kaip pažymėjo „Sophos“ saugumo ekspertas Benas Verschaerenas, generatyvinio DI naudojimas kodavimui yra „tinka trumpam, patikrinamam kodui, bet rizikingas, kai nepatikrintas kodas integruojamas“ į gamybines sistemas. Rizika ta, kad DI gali sukurti logiškai teisingą kodą, kuris yra nesaugus taip, kaip ne ekspertas gali to nepastebėti. Be to, kenkėjiški veikėjai gali tyčia paveikti viešuosius DI modelius, pridėdami jiems pažeidžiamų kodo šablonų (duomenų užkrėtimo forma), kad DI pasiūlytų nesaugų kodą. Dauguma kūrėjų nėra saugumo ekspertai , todėl jei DI pasiūlo patogų sprendimą, jie gali jį naudoti aklai, nesuvokdami, kad jis turi trūkumų ( 6 generatyvinio DI naudojimo atvejai kibernetiniame saugume [+ pavyzdžiai] ). Šis susirūpinimas yra realus – iš tikrųjų dabar yra OWASP 10 geriausių LLM (didelių kalbų modelių) sąrašas, kuriame aprašomos tokios dažnos rizikos, kaip šis, naudojant DI kodavimui.

Siekdami išspręsti šias problemas, ekspertai siūlo „kovoti su generatyviniu dirbtiniu intelektu naudojant generatyvinį dirbtinį intelektą“ . Praktiškai tai reiškia, kad dirbtinis intelektas naudojamas peržiūrint ir testuojant kodą , kurį parašė kitas dirbtinis intelektas (arba žmonės). Dirbtinis intelektas gali daug greičiau nei žmogus, peržiūrintis kodo pakeitimus, ir pažymėti galimus pažeidžiamumus ar logikos problemas. Jau matome atsirandančius įrankius, kurie integruojami į programinės įrangos kūrimo gyvavimo ciklą: kodas yra parašytas (galbūt padedant dirbtiniam intelektui), tada generatyvinis modelis, apmokytas pagal saugaus kodo principus, jį peržiūri ir sukuria ataskaitą apie bet kokias problemas (pvz., nebenaudojamų funkcijų naudojimas, trūkstami autentifikavimo patikrinimai ir pan.). Anksčiau minėtas NVIDIA tyrimas, kurio metu buvo pasiektas 4 kartus greitesnis pažeidžiamumų aptikimas kode, yra dirbtinio intelekto panaudojimo saugiai kodo analizei pavyzdys ( 6 generatyvinio dirbtinio intelekto naudojimo atvejai kibernetiniame saugume [+ pavyzdžiai] ).

Be to, generatyvinis dirbtinis intelektas gali padėti kurti saugias konfigūracijas ir scenarijus . Pavyzdžiui, jei įmonei reikia diegti saugią debesijos infrastruktūrą, inžinierius galėtų paprašyti dirbtinio intelekto sugeneruoti konfigūracijos scenarijus (infrastruktūra kaip kodas) su integruotais saugumo valdikliais (pvz., tinkamu tinklo segmentavimu, mažiausiai privilegijuotų IAM vaidmenimis). Dirbtinis intelektas, apmokytas su tūkstančiais tokių konfigūracijų, gali sukurti bazinę liniją, kurią inžinierius vėliau tikslina. Tai pagreitina saugų sistemų diegimą ir sumažina neteisingos konfigūracijos klaidas – dažną debesijos saugumo incidentų šaltinį.

Kai kurios organizacijos taip pat naudoja generatyvinį dirbtinį intelektą (DI), kad palaikytų saugių kodavimo modelių žinių bazę. Jei kūrėjas nežino, kaip saugiai įdiegti tam tikrą funkciją, jis gali pateikti užklausą vidiniam DI, kuris pasimokė iš ankstesnių įmonės projektų ir saugumo gairių. DI gali pateikti rekomenduojamą metodą ar net kodo fragmentą, kuris atitinka tiek funkcinius reikalavimus, tiek įmonės saugumo standartus. Šį metodą naudoja tokios priemonės kaip „ Secureframe“ klausimynų automatizavimas , kuris išgauna atsakymus iš įmonės politikos ir ankstesnių sprendimų, kad užtikrintų nuoseklius ir tikslius atsakymus (iš esmės generuoja saugią dokumentaciją) ( Kaip generatyvinis DI gali būti naudojamas kibernetiniame saugume? 10 realaus pasaulio pavyzdžių ). Ši koncepcija reiškia kodavimą: DI, kuris „prisimena“, kaip saugiai ką nors įdiegėte anksčiau, ir nurodo jums tai padaryti dar kartą.

Apibendrinant galima teigti, kad generatyvinis dirbtinis intelektas daro įtaką programinės įrangos kūrimui, nes saugaus kodavimo pagalba tampa prieinamesnė . Pramonės šakos, kurios kuria daug individualios programinės įrangos – technologijų, finansų, gynybos ir kt. – gali gauti naudos iš dirbtinio intelekto kopijų, kurios ne tik pagreitina kodavimą, bet ir atlieka nuolatinio budrumo saugumo peržiūrėtojo vaidmenį. Tinkamai valdomos šios dirbtinio intelekto priemonės gali sumažinti naujų pažeidžiamumų atsiradimą ir padėti kūrimo komandoms laikytis geriausios praktikos, net jei komanda neturi saugumo eksperto, dalyvaujančio kiekviename žingsnyje. Rezultatas – programinė įranga, kuri nuo pirmos dienos yra atsparesnė atakoms.

Incidentų reagavimo palaikymas

Kai įvyksta kibernetinio saugumo incidentas – nesvarbu, ar tai būtų kenkėjiškų programų protrūkis, duomenų nutekėjimas, ar sistemos sutrikimas dėl atakos – laikas yra labai svarbus. Generatyvusis dirbtinis intelektas vis dažniau naudojamas siekiant padėti incidentų reagavimo (IR) komandoms greičiau ir turint daugiau informacijos suvaldyti ir pašalinti incidentus. Idėja yra ta, kad dirbtinis intelektas gali prisiimti dalį tyrimo ir dokumentavimo naštos incidento metu ir netgi pasiūlyti ar automatizuoti kai kuriuos reagavimo veiksmus.

Vienas pagrindinių DI vaidmenų informacinių ryšių srityje yra incidentų analizė ir apibendrinimas realiuoju laiku . Incidento metu respondentams gali reikėti atsakymų į tokius klausimus kaip „Kaip užpuolikas pateko?“ , „Kurios sistemos paveiktos?“ ir „Kokie duomenys gali būti pažeisti?“ . Generatyvus DI gali analizuoti paveiktų sistemų žurnalus, įspėjimus ir teismo ekspertizės duomenis bei greitai pateikti įžvalgų. Pavyzdžiui, „Microsoft Security Copilot“ leidžia incidentų respondentui pateikti įvairius įrodymus (failus, URL, įvykių žurnalus) ir paprašyti laiko juostos arba santraukos („ Microsoft Security Copilot“ yra naujas GPT-4 DI asistentas kibernetinio saugumo srityje | „The Verge“ ). DI gali atsakyti: „Įsilaužimas greičiausiai prasidėjo nuo sukčiavimo el. laiško vartotojui JohnDoe, išsiųsto 10:53 GMT laiku, kuriame buvo kenkėjiška programa X. Paleidus, kenkėjiška programa sukūrė galines duris, kurios po dviejų dienų buvo panaudotos, kad patektų į finansų serverį, kur surinko duomenis.“ Turėdama šį nuoseklų vaizdą per kelias minutes, o ne valandas, komanda gali daug greičiau priimti pagrįstus sprendimus (pvz., kurias sistemas izoliuoti).

Generatyvusis dirbtinis intelektas (DI) taip pat gali pasiūlyti izoliavimo ir taisomųjų veiksmų . Pavyzdžiui, jei galinis įrenginys užkrėstas išpirkos reikalaujančia programine įranga, DI įrankis gali sugeneruoti scenarijų arba instrukcijų rinkinį, kad izoliuotų tą kompiuterį, išjungtų tam tikras paskyras ir užblokuotų žinomus kenkėjiškus IP adresus užkardoje – iš esmės tai yra veiksmų plano vykdymas. „Palo Alto Networks“ pažymi, kad generatyvusis DI gali „generuoti tinkamus veiksmus arba scenarijus, pagrįstus incidento pobūdžiu“ , automatizuodamas pradinius reagavimo veiksmus ( Kas yra generatyvinis DI kibernetinio saugumo srityje? – „Palo Alto Networks“ ). Esant scenarijui, kai saugumo komanda yra perpildyta (pvz., plačiai paplitusi ataka šimtuose įrenginių), DI netgi gali tiesiogiai atlikti kai kuriuos iš šių veiksmų iš anksto patvirtintomis sąlygomis, veikdamas kaip jaunesnysis respondentas, kuris dirba nenuilstamai. Pavyzdžiui, DI agentas galėtų automatiškai iš naujo nustatyti prisijungimo duomenis, kuriuos jis laiko pažeistais, arba karantinuoti kompiuterius, kurie demonstruoja kenkėjišką veiklą, atitinkančią incidento profilį.

Reaguojant į incidentus, komunikacija yra gyvybiškai svarbi – tiek komandos viduje, tiek su suinteresuotosiomis šalimis. Generatyvusis dirbtinis intelektas (DI) gali padėti skubiai rengdamas incidentų atnaujinimo ataskaitas arba santraukas . Užuot nutraukęs trikčių šalinimą, kad parašytų el. pašto atnaujinimą, jis galėtų paprašyti DI: „Apibendrinkite, kas iki šiol įvyko šio incidento metu, kad informuotumėte vadovus.“ DI, gavęs incidento duomenis, gali pateikti glaustą santrauką: „Iki 15 val. užpuolikai pasiekė 2 vartotojų paskyras ir 5 serverius. Pažeisti duomenys apima klientų įrašus X duomenų bazėje. Izoliavimo priemonės: pažeistų paskyrų VPN prieiga buvo atšaukta, o serveriai izoliuoti. Kiti žingsniai: nuskaitymas, ar nėra jokių pakartotinių mechanizmų.“ Tada respondentas gali greitai tai patikrinti arba pakoreguoti ir išsiųsti, užtikrindamas, kad suinteresuotosios šalys būtų nuolat informuojamos apie tikslią ir naujausią informaciją.

Nuslūgus incidentui, paprastai reikia parengti išsamią incidento ataskaitą ir surinkti išmoktas pamokas. Tai dar viena sritis, kurioje sužiba dirbtinio intelekto palaikymas. Jis gali peržiūrėti visus incidento duomenis ir parengti ataskaitą po incidento, kurioje būtų nurodyta pagrindinė priežastis, chronologija, poveikis ir rekomendacijos. Pavyzdžiui, IBM integruoja generatyvinį dirbtinį intelektą, kad vienu mygtuko paspaudimu „paprastas saugumo atvejų ir incidentų santraukas, kuriomis galima pasidalyti su suinteresuotosiomis šalimis“ Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetiniame saugume? 10 realaus pasaulio pavyzdžių ). Supaprastindamos ataskaitų teikimą po veiksmų, organizacijos gali greičiau įdiegti patobulinimus ir turėti geresnę dokumentaciją atitikties tikslais.

Vienas novatoriškas, į ateitį orientuotas panaudojimo būdas – dirbtinio intelekto valdomas incidentų modeliavimas . Panašiai kaip gaisro pratybose, kai kurios įmonės naudoja generatyvinį dirbtinį intelektą, kad išbandytų „kas būtų, jeigu“ incidentų scenarijus. Dirbtinis intelektas gali imituoti, kaip išpirkos reikalaujanti programa galėtų plisti atsižvelgiant į tinklo išdėstymą arba kaip vidinis asmuo galėtų išgauti duomenis, o tada įvertinti dabartinių reagavimo planų efektyvumą. Tai padeda komandoms parengti ir tobulinti veiksmų planus prieš įvykstant realiam incidentui. Tai tarsi nuolat tobulėjantis incidentų reagavimo patarėjas, kuris nuolat tikrina jūsų pasirengimą.

Didelės rizikos sektoriuose, tokiuose kaip finansai ar sveikatos apsauga, kur prastovos ar duomenų praradimas dėl incidentų yra ypač brangūs, šios dirbtinio intelekto pagrįstos informacijos apie incidentus galimybės yra labai patrauklios. Ligoninė, patirianti kibernetinį incidentą, negali sau leisti ilgalaikių sistemos sutrikimų – dirbtinis intelektas, kuris greitai padeda suvaldyti incidentą, gali tiesiogine prasme išgelbėti gyvybę. Panašiai finansų įstaiga gali naudoti dirbtinį intelektą, kad atliktų pradinį įtariamo sukčiavimo įsilaužimo triažą 3 val. nakties, kad iki to laiko, kai budintys darbuotojai prisijungia prie interneto, daugelis parengiamųjų darbų (paveiktų paskyrų atsijungimas, operacijų blokavimas ir kt.) jau būtų atlikti. Papildydamos incidentų reagavimo komandas generatyviniu dirbtiniu intelektu , organizacijos gali gerokai sutrumpinti reagavimo laiką ir pagerinti jų tvarkymo kruopštumą, galiausiai sušvelnindamos kibernetinių incidentų padarytą žalą.

Elgesio analizė ir anomalijų aptikimas

Daugelį kibernetinių atakų galima aptikti pastebėjus, kai kažkas nukrypsta nuo „įprasto“ elgesio – nesvarbu, ar tai būtų vartotojo paskyra, atsisiunčianti neįprastą duomenų kiekį, ar tinklo įrenginys, staiga susisiekiantis su nepažįstamu serveriu. Generatyvusis dirbtinis intelektas siūlo pažangius elgesio analizės ir anomalijų aptikimo , mokantis įprastų vartotojų ir sistemų modelių ir tada pažymint, kai kažkas atrodo ne taip.

Tradicinis anomalijų aptikimas dažnai naudoja statistines ribas arba paprastą mašininį mokymąsi, susijusį su konkrečiais rodikliais (procesoriaus naudojimo šuoliais, prisijungimu neįprastomis valandomis ir kt.). Generatyvusis dirbtinis intelektas gali tai dar labiau patobulinti, sukurdamas detalesnius elgesio profilius. Pavyzdžiui, dirbtinio intelekto modelis gali laikui bėgant apdoroti darbuotojo prisijungimus, failų prieigos modelius ir el. pašto įpročius bei susidaryti daugialypį supratimą apie to vartotojo „normalumą“. Jei vėliau ta paskyra padarys ką nors drastiškai neįprasto (pvz., prisijungs iš naujos šalies ir vidurnaktį pasieks daugybę HR failų), dirbtinis intelektas aptiktų nukrypimą ne tik pagal vieną rodiklį, bet ir pagal visą elgesio modelį, kuris neatitinka vartotojo profilio. Techniškai kalbant, generatyviniai modeliai (pvz., automatiniai kodavimo įrenginiai arba sekos modeliai) gali modeliuoti, kaip atrodo „normalumas“, ir tada generuoti numatomą elgesio diapazoną. Kai realybė nepatenka į šį diapazoną, ji pažymima kaip anomalija ( Kas yra generatyvinis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ).

Vienas praktinis pritaikymas yra tinklo srauto stebėjimas . Remiantis 2024 m. atlikta apklausa, 54 % JAV organizacijų nurodė tinklo srauto stebėjimą kaip pagrindinį DI naudojimo atvejį kibernetinio saugumo srityje ( Šiaurės Amerika: populiariausi DI naudojimo atvejai kibernetinio saugumo srityje visame pasaulyje 2024 m. ). Generatyvusis DI gali išmokti įprastus įmonės tinklo ryšio modelius – kurie serveriai paprastai bendrauja tarpusavyje, kokie duomenų kiekiai juda darbo valandomis, palyginti su naktimi, ir pan. Jei užpuolikas pradeda išgauti duomenis iš serverio, net ir lėtai, kad nebūtų aptiktas, DI pagrįsta sistema gali pastebėti, kad „Serveris A niekada nesiunčia 500 MB duomenų 2 val. nakties į išorinį IP adresą“ ir siųsti įspėjimą. Kadangi DI naudoja ne tik statines taisykles, bet ir besivystantį tinklo elgesio modelį, jis gali aptikti subtilias anomalijas, kurių statinės taisyklės (pvz., „įspėti, jei duomenys > X MB“) gali nepastebėti arba klaidingai pažymėti. Šis adaptyvus pobūdis yra tai, kas daro DI pagrįstą anomalijų aptikimą galingu tokiose aplinkose kaip bankų operacijų tinklai, debesų infrastruktūra ar daiktų interneto įrenginių parkai, kur fiksuotų taisyklių, skirtų normaliai ir nenormaliai būsenai, apibrėžimas yra itin sudėtingas.

Generatyvusis dirbtinis intelektas (DI) taip pat padeda atlikti naudotojų elgsenos analizę (VEL) , kuri yra labai svarbi norint aptikti vidines grėsmes ar pažeistas paskyras. Sukurdamas kiekvieno naudotojo ar subjekto bazinį lygį, DI gali aptikti tokius dalykus kaip netinkamas prisijungimo duomenų naudojimas. Pavyzdžiui, jei Bobas iš apskaitos staiga pradeda ieškoti informacijos klientų duomenų bazėje (ko jis niekada anksčiau nedarė), DI Bobo elgesio modelis pažymės tai kaip neįprastą. Tai gali būti ne kenkėjiška programa – tai gali būti atvejis, kai Bobo prisijungimo duomenys buvo pavogti ir panaudoti užpuoliko, arba Bobas ieškojo informacijos ten, kur neturėtų. Bet kuriuo atveju, saugumo komanda gauna įspėjimą ir pradeda tyrimą. Tokios DI valdomos VEL sistemos egzistuoja įvairiuose saugumo produktuose, o generatyvinio modeliavimo metodai padidina jų tikslumą ir sumažina klaidingų aliarmų skaičių, atsižvelgiant į kontekstą (galbūt Bobas dirba specialiame projekte ir pan., ką DI kartais gali nustatyti iš kitų duomenų).

Tapatybės ir prieigos valdymo srityje vis labiau reikia giliųjų klastotių aptikimo apmokytų savo biometrines sistemas atskirti tikrus vartotojus nuo DI sugeneruotų giliųjų klastotių. Per penkerius metus šis metodas padėjo „Accenture“ panaikinti slaptažodžius 90 % savo sistemų (pereinant prie biometrijos ir kitų veiksnių) ir 60 % sumažinti atakų skaičių ( 6 generatyvinio DI naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Iš esmės jie naudojo generatyvinį DI, kad sustiprintų biometrinį autentifikavimą, padarydami jį atsparesnį generatyvinėms atakoms (puikus DI kovos su DI pavyzdys). Toks elgesio modeliavimas – šiuo atveju skirtumo tarp gyvo žmogaus veido ir DI susintetinto atpažinimas – yra labai svarbus, nes autentifikavime vis labiau pasikliaujame DI.

Generatyviojo dirbtinio intelekto (DI) teikiamas anomalijų aptikimas taikomas įvairiose pramonės šakose: sveikatos priežiūros srityje stebint medicinos prietaisų elgseną, ieškant įsilaužimo požymių; finansų srityje stebint prekybos sistemas, ieškant netaisyklingų modelių, kurie galėtų rodyti sukčiavimą ar algoritminį manipuliavimą; energetikos / komunalinių paslaugų srityje stebint valdymo sistemos signalus, ieškant įsilaužimo požymių. pločio (visų elgesio aspektų nagrinėjimas) ir gylio (sudėtingų modelių supratimas) paverčia jį galingu įrankiu, leidžiančiu pastebėti kibernetinio incidento požymius. Grėsmėms tampant vis nepastebimesnėms, slepiančioms įprastas operacijas, šis gebėjimas tiksliai apibūdinti „normalumą“ ir pranešti, kai kažkas nukrypsta nuo normos, tampa gyvybiškai svarbus. Taigi generatyvinis DI tarnauja kaip nenuilstamas sargybinis, nuolat mokantis ir atnaujinantis savo normalumo apibrėžimą, kad neatsiliktų nuo aplinkos pokyčių, ir įspėjantis saugumo komandas apie anomalijas, kurias reikia atidžiau ištirti.

Generatyvaus dirbtinio intelekto galimybės ir nauda kibernetinio saugumo srityje

Generatyviojo dirbtinio intelekto taikymas kibernetinio saugumo srityje suteikia daugybę galimybių ir privalumų organizacijoms, norinčioms naudoti šiuos įrankius. Toliau apibendriname pagrindinius privalumus, dėl kurių generatyvinis dirbtinis intelektas yra patrauklus kibernetinio saugumo programų papildymas:

  • Greitesnis grėsmių aptikimas ir reagavimas: generatyvinės dirbtinio intelekto sistemos gali realiuoju laiku analizuoti didžiulius duomenų kiekius ir atpažinti grėsmes daug greičiau nei rankinė žmonių analizė. Šis greičio pranašumas reiškia ankstesnį atakų aptikimą ir greitesnį incidentų izoliavimą. Praktiškai dirbtinio intelekto valdoma saugumo stebėsena gali aptikti grėsmes, kurias žmonėms aptikti prireiktų daug daugiau laiko. Greitai reaguodamos į incidentus (arba net savarankiškai vykdydamos pradinius atsakomuosius veiksmus), organizacijos gali smarkiai sutrumpinti užpuolikų buvimo laiką savo tinkluose, taip sumažindamos žalą.

  • Pagerintas tikslumas ir grėsmių aprėptis: Kadangi generatyviniai modeliai nuolat mokosi iš naujų duomenų, jie gali prisitaikyti prie besikeičiančių grėsmių ir aptikti subtilesnius kenkėjiškos veiklos požymius. Tai pagerina aptikimo tikslumą (mažiau klaidingai neigiamų ir klaidingai teigiamų rezultatų), palyginti su statinėmis taisyklėmis. Pavyzdžiui, dirbtinis intelektas (DI), išmokęs sukčiavimo el. laiško ar kenkėjiškos programos elgesio požymius, gali nustatyti anksčiau nematytus variantus. Rezultatas – platesnė grėsmių tipų aprėptis, įskaitant naujas atakas, ir tai sustiprina bendrą saugumo padėtį. Saugumo komandos taip pat gauna išsamių įžvalgų iš DI analizės (pvz., kenkėjiškos programos elgesio paaiškinimus), o tai leidžia taikyti tikslesnę ir tikslingesnę apsaugą ( Kas yra generatyvinis DI kibernetinio saugumo srityje? – „Palo Alto Networks“ ).

  • Pasikartojančių užduočių automatizavimas: generatyvinis dirbtinis intelektas puikiai automatizuoja įprastas, daug darbo reikalaujančias saugumo užduotis – nuo ​​žurnalų peržiūros ir ataskaitų sudarymo iki incidentų reagavimo scenarijų rašymo. Ši automatizacija sumažina žmonių analitikų naštą , leisdama jiems sutelkti dėmesį į aukšto lygio strategiją ir sudėtingą sprendimų priėmimą ( Kas yra generatyvinis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ). Dirbtinis intelektas gali atlikti (arba bent jau parengti pirminius) įprastus, bet svarbius darbus, tokius kaip pažeidžiamumų skenavimas, konfigūracijos auditas, vartotojų veiklos analizė ir atitikties ataskaitų teikimas. Atlikdamas šias užduotis kompiuterio greičiu, dirbtinis intelektas ne tik pagerina efektyvumą, bet ir sumažina žmogiškųjų klaidų skaičių (reikšmingą pažeidimų veiksnį).

  • Proaktyvi gynyba ir modeliavimas: generatyvinis dirbtinis intelektas leidžia organizacijoms pereiti nuo reaktyvaus prie proaktyvaus saugumo. Naudodamos tokias technikas kaip atakų modeliavimas, sintetinių duomenų generavimas ir scenarijais pagrįstas mokymas, gynėjai gali numatyti grėsmes ir joms pasiruošti dar prieš joms įvykstant realiame pasaulyje. Saugumo komandos gali imituoti kibernetines atakas (sukčiavimo kampanijas, kenkėjiškų programų protrūkius, DDoS ir kt.) saugioje aplinkoje, kad išbandytų savo atsaką ir pašalintų bet kokius trūkumus. Šie nuolatiniai mokymai, kurių dažnai neįmanoma kruopščiai atlikti vien žmonių pastangomis, padeda išlaikyti apsaugą ryškią ir atnaujintą. Tai panašu į kibernetines „gaisro pratybas“ – dirbtinis intelektas gali pateikti daug hipotetinių grėsmių jūsų gynybai, kad galėtumėte praktikuotis ir tobulėti.

  • Žmonių kompetencijos didinimas (DI kaip jėgos daugiklis): Generatyvusis DI veikia kaip nenuilstamas jaunesnysis analitikas, patarėjas ir asistentas viename. Jis gali suteikti mažiau patyrusiems komandos nariams nurodymus ir rekomendacijas, kurių paprastai tikimasi iš patyrusių ekspertų, veiksmingai demokratizuodamas patirtį visoje komandoje ( 6 generatyvinio DI naudojimo atvejai kibernetinio saugumo srityje [+ pavyzdžiai] ). Tai ypač vertinga atsižvelgiant į talentų trūkumą kibernetinio saugumo srityje – DI padeda mažesnėms komandoms nuveikti daugiau su mažiau. Kita vertus, patyrę analitikai gauna naudos iš to, kad DI atlieka sudėtingą darbą ir iškelia neakivaizdžias įžvalgas, kurias jie gali patvirtinti ir imtis veiksmų. Bendras rezultatas – daug produktyvesnė ir pajėgesnė saugumo komanda, o DI sustiprina kiekvieno žmogaus nario poveikį ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje ).

  • Patobulinta sprendimų parama ir ataskaitų teikimas: generatyvinė dirbtinė intelektinė intelektas (DI), versdamas techninius duomenis į natūralios kalbos įžvalgas, pagerina bendravimą ir sprendimų priėmimą. Saugumo vadovai, naudodamiesi DI sugeneruotomis santraukomis, gauna aiškesnį problemų matomumą ir gali priimti pagrįstus strateginius sprendimus, neanalizuodami neapdorotų duomenų. Taip pat pagerėja tarpfunkcinis bendravimas (su vadovais, atitikties pareigūnais ir kt.), kai DI parengia lengvai suprantamas saugumo būklės ir incidentų ataskaitas ( Kaip generatyvinę dirbtinę intelektą galima panaudoti kibernetinio saugumo srityje? 10 realių pavyzdžių ). Tai ne tik didina pasitikėjimą ir darną saugumo klausimais vadovybės lygmeniu, bet ir padeda pateisinti investicijas bei pokyčius, aiškiai suformuluojant riziką ir DI aptiktas spragas.

Šių privalumų derinys reiškia, kad organizacijos, kurios kibernetinio saugumo srityje naudoja generatyvinį dirbtinį intelektą (DI), gali pasiekti stipresnę saugumo poziciją su potencialiai mažesnėmis veiklos sąnaudomis. Jos gali reaguoti į grėsmes, kurios anksčiau buvo didžiulės, padengti spragas, kurios nebuvo stebimos, ir nuolat tobulėti naudodamosi DI pagrįstais grįžtamojo ryšio ciklais. Galiausiai, generatyvinis DI suteikia galimybę aplenkti priešininkus, pritaikant greitį, mastą ir sudėtingumą tokioms pat sudėtingoms gynybos sistemoms. Kaip parodė viena apklausa, daugiau nei pusė verslo ir kibernetinių lyderių tikisi greitesnio grėsmių aptikimo ir didesnio tikslumo naudojant generatyvinį DI ( [PDF] Pasaulinė kibernetinio saugumo perspektyva 2025 | Pasaulio ekonomikos forumas ) ( Generatyvinis DI kibernetiniame saugume: išsami LLM apžvalga... ) – tai liudija apie optimizmą dėl šių technologijų naudos.

Generatyvaus dirbtinio intelekto naudojimo kibernetinio saugumo srityje rizika ir iššūkiai

Nors galimybės yra didelės, labai svarbu į generatyvinį dirbtinį intelektą kibernetinio saugumo srityje žiūrėti atvirai į riziką ir iššūkius . Aklas pasitikėjimas dirbtiniu intelektu arba netinkamas jo naudojimas gali sukelti naujų pažeidžiamumų. Toliau aprašome pagrindinius rūpesčius ir spąstus bei kiekvieno kontekstą:

  • Kibernetinių nusikaltėlių priešiškas naudojimas: Tos pačios generatyvinės galimybės, kurios padeda gynėjams, gali įgalinti užpuolikus. Grėsmių kūrėjai jau naudoja generatyvinę dirbtinį intelektą (DI), kad sukurtų įtikinamesnius sukčiavimo el. laiškus, suklastotas personas ir giluminio padirbimo vaizdo įrašus socialinei inžinerijai, kurtų polimorfinę kenkėjišką programinę įrangą, kuri nuolat kinta, kad būtų išvengta aptikimo, ir netgi automatizuotų įsilaužimo aspektus („ generatyvinė dirbtinė intelektinė intelektas kibernetinio saugumo srityje? – „Palo Alto Networks pusė (46 proc.) kibernetinio saugumo lyderių nerimauja, kad generatyvinė dirbtinė intelektinė ... grėsmė yra dažnesnė, sudėtingesnė ir sunkiau atsekama.

  • Dirbtinio intelekto haliucinacijos ir netikslumas: tikėtinus, bet neteisingus arba klaidinančius rezultatus – šis reiškinys vadinamas haliucinacija. Saugumo kontekste dirbtinis intelektas gali analizuoti incidentą ir klaidingai nuspręsti, kad jį sukėlė tam tikras pažeidžiamumas, arba gali sugeneruoti ydingą taisomojo scenarijų, kuris nesugeba suvaldyti atakos. Šios klaidos gali būti pavojingos, jei į jas žiūrima tiesiogiai. Kaip įspėja „NTT Data“, „generatyvinis dirbtinis intelektas gali patikimai pateikti neteisingą turinį, ir šis reiškinys vadinamas haliucinacijomis... šiuo metu sunku jas visiškai pašalinti“ ( Generatyvaus dirbtinio intelekto ir atsakomųjų priemonių saugumo rizika ir jos poveikis kibernetiniam saugumui | NTT DATA Group ). Per didelis pasitikėjimas dirbtiniu intelektu be patikrinimo gali lemti netinkamai nukreiptas pastangas arba klaidingą saugumo jausmą. Pavyzdžiui, dirbtinis intelektas gali klaidingai pažymėti kritinę sistemą kaip saugią, kai ji nėra saugi, arba atvirkščiai, sukelti paniką „aptikdamas“ pažeidimą, kuris niekada neįvyko. Siekiant sumažinti šią riziką, būtina griežtai patvirtinti dirbtinio intelekto rezultatus ir įtraukti žmones į šį procesą priimant svarbius sprendimus.

  • Klaidingi teigiami ir neigiami rezultatai: Kalbant apie haliucinacijas, jei DI modelis yra prastai apmokytas arba sukonfigūruotas, jis gali per daug pranešti apie gerybinę veiklą kaip kenkėjišką (klaidingi teigiami rezultatai) arba, dar blogiau, nepastebėti realių grėsmių (klaidingi neigiami rezultatai) ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje ). Pernelyg daug klaidingų įspėjimų gali perkrauti saugumo komandas ir sukelti įspėjimų nuovargį (panaikinant patį DI žadėtą ​​efektyvumo padidėjimą), o praleisti aptikimai palieka organizaciją pažeidžiamą. Generatyvių modelių derinimas, kad būtų pasiekta tinkama pusiausvyra, yra sudėtingas. Kiekviena aplinka yra unikali, ir DI gali ne iš karto veikti optimaliai iš karto. Nuolatinis mokymasis taip pat yra dviašmenis kalavijas – jei DI mokosi iš iškreipto grįžtamojo ryšio arba iš besikeičiančios aplinkos, jo tikslumas gali svyruoti. Saugumo komandos turi stebėti DI našumą ir koreguoti slenksčius arba teikti taisomuosius atsiliepimus modeliams. Didelės rizikos situacijose (pvz., įsilaužimų aptikimo kritinėje infrastruktūroje) gali būti protinga tam tikrą laiką vykdyti DI pasiūlymus lygiagrečiai su esamomis sistemomis, siekiant užtikrinti, kad jie atitiktų ir papildytų, o ne prieštarautų.

  • Duomenų privatumas ir nutekėjimas: Generatyviųjų dirbtinio intelekto sistemų mokymui ir veikimui dažnai reikia didelių duomenų kiekių. Jei šie modeliai yra debesijos pagrindu arba nėra tinkamai izoliuoti, kyla rizika, kad gali nutekėti jautri informacija. Vartotojai gali netyčia pateikti nuosavybės teise saugomus arba asmeninius duomenis į dirbtinio intelekto paslaugą (pagalvokite apie prašymą „ChatGPT“ apibendrinti konfidencialią incidento ataskaitą), ir šie duomenys gali tapti modelio žinių dalimi. Iš tiesų, neseniai atliktame tyrime nustatyta, kad 55 % generatyvinių dirbtinio intelekto įrankių įvesties duomenų buvo jautri arba asmenį identifikuojanti informacija , o tai kelia rimtą susirūpinimą dėl duomenų nutekėjimo („ Generative AI Security: Trends, Threats & Mitigation Strategies “). Be to, jei dirbtinis intelektas buvo apmokytas naudoti vidinius duomenis ir tam tikrais būdais jam užklausiama, jis gali perduoti dalį tų jautrių duomenų kam nors kitam. Organizacijos privalo įgyvendinti griežtą duomenų tvarkymo politiką (pvz., naudoti vietinius arba privačius dirbtinio intelekto egzempliorius jautriai medžiagai) ir šviesti darbuotojus apie slaptos informacijos neįklijavimą į viešus dirbtinio intelekto įrankius. Taip pat svarbūs privatumo reglamentai (BDAR ir kt.) – asmeninių duomenų naudojimas dirbtinio intelekto mokymui be tinkamo sutikimo ar apsaugos gali pažeisti įstatymus.

  • Modelio saugumas ir manipuliavimas: generatyvinio dirbtinio intelekto modeliai patys gali tapti taikiniais. Priešininkai gali bandyti užkrėsti modelį , mokymo ar perkvalifikavimo etape tiekdami kenkėjiškus ar klaidinančius duomenis, kad dirbtinis intelektas išmoktų neteisingus modelius ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje ). Pavyzdžiui, užpuolikas gali subtiliai užkrėsti grėsmių žvalgybos duomenis, kad dirbtinis intelektas neatpažintų užpuoliko kenkėjiškos programos kaip kenkėjiškos. Kita taktika – greitas įterpimas arba išvesties manipuliavimas , kai užpuolikas randa būdą pateikti dirbtiniam intelektui įvestis, kurios priverčia jį elgtis netyčia – galbūt ignoruoti savo saugos priemones arba atskleisti informaciją, kurios neturėtų atskleisti (pvz., vidinius raginimus ar duomenis). Be to, kyla modelio apėjimo : užpuolikai sukuria įvestį, specialiai skirtą apgauti dirbtinį intelektą. Tai matome priešiškuose pavyzdžiuose – šiek tiek sutrikdyti duomenys, kuriuos žmogus mato kaip įprastus, bet dirbtinis intelektas neteisingai klasifikuoja. Diegiant šiuos įrankius, dirbtinio intelekto tiekimo grandinės saugumo užtikrinimas (duomenų vientisumas, modelio prieigos kontrolė, konkurencinio patikimumo testavimas) yra nauja, bet būtina kibernetinio saugumo dalis ( Kas yra generatyvinis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ).

  • Per didelis pasitikėjimas ir įgūdžių erozija: Yra ir mažesnė rizika, kad organizacijos gali pernelyg pasikliauti dirbtiniu intelektu (DI) ir leisti žmonių įgūdžiams atrofuotis. Jei jaunesnieji analitikai aklai pasitikės DI rezultatais, jie gali neišsiugdyti kritinio mąstymo ir intuicijos, reikalingos, kai DI nepasiekiamas arba yra netinkamas. Reikėtų vengti scenarijaus, kai saugumo komanda turi puikius įrankius, bet nežino, kaip veikti, jei tie įrankiai sugenda (panašiai kaip pilotai, pernelyg pasikliaujantys autopilotu). Reguliarūs mokymai be DI pagalbos ir mąstysenos, kad DI yra asistentas, o ne neklystantis orakulas, ugdymas yra svarbūs norint išlaikyti žmonių analitikų aštrumą. Žmonės turi išlikti galutiniais sprendimų priėmėjais, ypač priimant didelės įtakos sprendimus.

  • Etikos ir atitikties iššūkiai: Dirbtinio intelekto naudojimas kibernetinio saugumo srityje kelia etinių klausimų ir gali sukelti atitikties reglamentams problemų. Pavyzdžiui, jei dirbtinio intelekto sistema dėl anomalijos neteisingai įvardija darbuotoją kaip kenkėjišką vidinį asmenį, tai gali nepagrįstai pakenkti to asmens reputacijai ar karjerai. Dirbtinio intelekto priimami sprendimai gali būti neskaidrūs („juodosios dėžės“ problema), todėl sunku paaiškinti auditoriams ar reguliavimo institucijoms, kodėl buvo imtasi tam tikrų veiksmų. Kadangi dirbtinio intelekto sukurtas turinys tampa vis labiau paplitęs, labai svarbu užtikrinti skaidrumą ir atskaitomybę. Reguliavimo institucijos pradeda tikrinti dirbtinį intelektą – pavyzdžiui, ES Dirbtinio intelekto įstatymas nustatys reikalavimus „didelės rizikos“ dirbtinio intelekto sistemoms, o kibernetinio saugumo dirbtinis intelektas gali patekti į šią kategoriją. Įmonės turės susipažinti su šiais reglamentais ir galbūt laikytis tokių standartų kaip NIST dirbtinio intelekto rizikos valdymo sistema, kad galėtų atsakingai naudoti generatyvinį dirbtinį intelektą ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ). Atitiktis taikoma ir licencijavimui: naudojant atvirojo kodo ar trečiųjų šalių modelius gali būti sąlygų, kurios riboja tam tikrus naudojimo būdus arba reikalauja dalytis patobulinimais.

Apibendrinant galima teigti, kad generatyvinis dirbtinis intelektas nėra stebuklinga priemonė – jei nebus kruopščiai įdiegtas, jis gali sukelti naujų silpnybių, net ir spręsdamas kitas. 2024 m. Pasaulio ekonomikos forumo tyrime pabrėžta, kad ~47 % organizacijų nurodo užpuolikų pažangą generatyvinio dirbtinio intelekto srityje kaip pagrindinį susirūpinimą keliantį veiksnį, todėl tai yra „labiausiai nerimą keliantis generatyvinio dirbtinio intelekto poveikis“ kibernetiniam saugumui ( [PDF] Pasaulinė kibernetinio saugumo perspektyva 2025 m. | Pasaulio ekonomikos forumas ) ( Generatyvinis dirbtinis intelektas kibernetiniame saugume: išsami LLM apžvalga... ). Todėl organizacijos turi taikyti subalansuotą požiūrį: pasinaudoti dirbtinio intelekto teikiama nauda ir kartu griežtai valdyti šią riziką taikant valdymą, testavimą ir žmonių priežiūrą. Toliau aptarsime, kaip praktiškai pasiekti šią pusiausvyrą.

Ateities perspektyvos: besikeičiantis generatyvinio dirbtinio intelekto vaidmuo kibernetinio saugumo srityje

Žvelgiant į ateitį, generatyvinis dirbtinis intelektas (DI) yra pasirengęs tapti neatsiejama kibernetinio saugumo strategijos dalimi – ir kartu įrankiu, kurį kibernetiniai priešininkai ir toliau naudos. Katės ir pelės dinamika įsibėgės, DI bus abiejose tvoros pusėse. Štai keletas įžvalgų apie tai, kaip generatyvinis dirbtinis intelektas gali formuoti kibernetinį saugumą ateinančiais metais:

  • Dirbtiniu intelektu papildyta kibernetinė gynyba tampa standartu: iki 2025 m. ir vėliau galime tikėtis, kad dauguma vidutinių ir didelių organizacijų į savo saugumo operacijas bus įtraukusios dirbtiniu intelektu pagrįstus įrankius. Kaip ir šiandien antivirusinės programos bei užkardos yra standartinės, dirbtinio intelekto kopijos ir anomalijų aptikimo sistemos gali tapti pagrindiniais saugumo architektūrų komponentais. Šios priemonės greičiausiai taps labiau specializuotos – pavyzdžiui, atskiri dirbtinio intelekto modeliai, tiksliai suderinti debesų saugumui, daiktų interneto įrenginių stebėjimui, programų kodo saugumui ir pan., visi veiks kartu. Kaip teigiama vienoje prognozėje, „2025 m. generatyvinis dirbtinis intelektas bus neatsiejama kibernetinio saugumo dalis, leisdamas organizacijoms proaktyviai gintis nuo sudėtingų ir besivystančių grėsmių“ ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetiniame saugume ). Dirbtinis intelektas pagerins grėsmių aptikimą realiuoju laiku, automatizuos daugelį reagavimo veiksmų ir padės saugumo komandoms valdyti daug didesnius duomenų kiekius, nei jos galėtų rankiniu būdu.

  • Nuolatinis mokymasis ir prisitaikymas: būsimos generatyviosios dirbtinio intelekto sistemos kibernetinėje erdvėje geriau mokysis iš naujų incidentų ir grėsmių informacijos, atnaujindamos savo žinių bazę beveik realiuoju laiku. Tai galėtų lemti išties adaptyvią apsaugą – įsivaizduokite dirbtinį intelektą, kuris ryte sužino apie naują sukčiavimo apsimetant kampaniją, nukreiptą prieš kitą įmonę, o iki popietės jau pakoreguoja jūsų įmonės el. pašto filtrus. Debesijos pagrindu veikiančios dirbtinio intelekto saugumo paslaugos galėtų palengvinti tokio pobūdžio kolektyvinį mokymąsi, kai nuasmenintos įžvalgos iš vienos organizacijos naudingos visiems prenumeratoriams (panašiai kaip grėsmių informacijos dalijimasis, bet automatizuotas). Tačiau tai reikės daryti atsargiai, kad būtų išvengta neskelbtinos informacijos bendrinimo ir užpuolikų negalėtų į bendrinamus modelius įtraukti blogų duomenų.

  • Dirbtinio intelekto ir kibernetinio saugumo talentų konvergencija: kibernetinio saugumo specialistų įgūdžių rinkinys vystysis ir apims dirbtinio intelekto ir duomenų mokslo įgūdžius. Kaip šiandienos analitikai mokosi užklausų kalbų ir scenarijų rašymo, taip ir rytojaus analitikai gali reguliariai tikslinti dirbtinio intelekto modelius arba rašyti „žaidimų knygas“, kurias dirbtinis intelektas turėtų vykdyti. Galime pamatyti naujus vaidmenis, tokius kaip „dirbtinio intelekto saugumo instruktorius“ arba „kibernetinio saugumo dirbtinio intelekto inžinierius“ – žmones, kurie specializuojasi pritaikydami dirbtinio intelekto įrankius organizacijos poreikiams, tikrindami jų veikimą ir užtikrindami saugų veikimą. Kita vertus, kibernetinio saugumo aspektai vis labiau įtakos dirbtinio intelekto kūrimą. Dirbtinio intelekto sistemos bus kuriamos su saugumo funkcijomis nuo nulio (saugi architektūra, klastojimo aptikimas, audito žurnalai dirbtinio intelekto sprendimams ir kt.), o patikimo dirbtinio intelekto (sąžiningos, paaiškinamos, patikimos ir saugios) padės jas diegti saugumui svarbiose situacijose.

  • Sudėtingesnės dirbtinio intelekto valdomos atakos: Deja, grėsmių kraštovaizdis taip pat keisis kartu su dirbtiniu intelektu. Numatome dažnesnį dirbtinio intelekto naudojimą nulinės dienos pažeidžiamumams aptikti, itin tiksliniam tiksliniam sukčiavimui (pvz., dirbtinis intelektas išgauti socialinės žiniasklaidos duomenis, kad sukurtų idealiai pritaikytą masalą) ir įtikinamiems netikriems balsams ar vaizdo įrašams generuoti, siekiant apeiti biometrinį autentifikavimą arba sukčiauti. Gali atsirasti automatizuoti įsilaužimo agentai, kurie gali savarankiškai vykdyti daugiapakopes atakas (žvalgyba, išnaudojimas, šoninis judėjimas ir kt.) su minimalia žmogaus priežiūra. Tai privers gynėjus taip pat pasikliauti dirbtiniu intelektu – iš esmės automatizavimas prieš automatizavimą . Kai kurios atakos gali vykti mašinos greičiu, pavyzdžiui, dirbtinio intelekto robotai bando tūkstančius sukčiavimo el. laiškų permutacijų, kad pamatytų, kuri iš jų praeina filtrus. Kibernetinė gynyba turės veikti panašiu greičiu ir lanksčiai, kad neatsiliktų ( Kas yra generatyvinis dirbtinis intelektas kibernetinio saugumo srityje? – „Palo Alto Networks“ ).

  • Reglamentavimas ir etiškas dirbtinis intelektas saugumo srityje: Dirbtiniam intelektui (DI) tampant giliai integruotu į kibernetinio saugumo funkcijas, bus taikoma griežtesnė kontrolė ir galbūt reguliavimas, siekiant užtikrinti, kad šios DI sistemos būtų naudojamos atsakingai. Galime tikėtis specialių DI saugumo srities sistemų ir standartų. Vyriausybės gali nustatyti skaidrumo gaires, pvz., reikalauti, kad svarbių saugumo sprendimų (pvz., darbuotojo prieigos nutraukimas dėl įtariamos kenkėjiškos veiklos) negalėtų priimti vien DI be žmogaus peržiūros. Taip pat gali būti DI saugumo produktų sertifikatai, siekiant užtikrinti pirkėjams, kad DI buvo įvertintas dėl šališkumo, patikimumo ir saugumo. Be to, gali plėstis tarptautinis bendradarbiavimas dėl su DI susijusių kibernetinių grėsmių; pavyzdžiui, susitarimai dėl DI sukurtos dezinformacijos tvarkymo arba normos prieš tam tikrus DI valdomus kibernetinius ginklus.

  • Integracija su platesniu dirbtiniu intelektu (DI) ir IT ekosistemomis: generatyvinis DI kibernetinio saugumo srityje greičiausiai integruosis su kitomis DI sistemomis ir IT valdymo įrankiais. Pavyzdžiui, DI, kuris valdo tinklo optimizavimą, galėtų bendradarbiauti su saugumo DI, kad užtikrintų, jog pakeitimai neatvers spragų. DI pagrįsta verslo analizė galėtų dalytis duomenimis su saugumo DI, kad susietų anomalijas (pvz., staigų pardavimų sumažėjimą su galima svetainės problema dėl atakos). Iš esmės DI negyvens atskirai – jis bus platesnio intelektualaus organizacijos veiklos audinio dalis. Tai atveria galimybes holistiniam rizikos valdymui, kai DI galėtų sujungti operacinius duomenis, grėsmių duomenis ir net fizinio saugumo duomenis, kad būtų gautas 360 laipsnių organizacijos saugumo būklės vaizdas.

Ilgalaikėje perspektyvoje tikimasi, kad generatyvinis dirbtinis intelektas padės pakreipti pusiausvyrą gynėjų naudai. Susidorodamas su šiuolaikinių IT aplinkų mastu ir sudėtingumu, dirbtinis intelektas gali padaryti kibernetinę erdvę lengviau apsaugotą. Tačiau tai yra kelionė, ir tobulinant šias technologijas bei mokantis jomis tinkamai pasitikėti, bus sunkumų. Organizacijos, kurios nuolat informuoja ir investuoja į atsakingą dirbtinio intelekto diegimą saugumo tikslais, greičiausiai bus geriausiai pasirengusios įveikti ateities grėsmes.

Kaip pažymėta naujausioje „Gartner“ kibernetinio saugumo tendencijų ataskaitoje, „generatyvių dirbtinio intelekto naudojimo atvejų (ir rizikų) atsiradimas sukuria spaudimą transformacijai“ ( Kibernetinio saugumo tendencijos: atsparumas per transformaciją – „Gartner“ ). Tie, kurie prisitaikys, pasitelks dirbtinį intelektą kaip galingą sąjungininką; tie, kurie atsilieka, gali atsilikti nuo dirbtinio intelekto įgalintų priešininkų. Artimiausi keleri metai bus lemiamas laikas apibrėžiant, kaip dirbtinis intelektas pakeis kibernetinio mūšio lauką.

Praktiniai patarimai, kaip taikyti generatyvinį dirbtinį intelektą kibernetinio saugumo srityje

Įmonėms, vertinančioms, kaip panaudoti generatyvinį dirbtinį intelektą savo kibernetinio saugumo strategijoje, pateikiame keletą praktinių patarimų ir rekomendacijų, padėsiančių atsakingai ir veiksmingai jį įdiegti:

  1. Pradėkite nuo švietimo ir mokymų: užtikrinkite, kad jūsų saugumo komanda (ir platesnis IT personalas) suprastų, ką gali ir ko negali padaryti generatyvinis dirbtinis intelektas (DI). Apmokykite darbuotojus DI valdomų saugumo įrankių pagrindų ir atnaujinkite savo saugumo informuotumo programas visiems darbuotojams, kad jos apimtų DI sukeltas grėsmes. Pavyzdžiui, mokykite darbuotojus, kaip DI gali generuoti labai įtikinamas sukčiavimo atakas ir netikrus skambučius. Tuo pačiu metu apmokykite darbuotojus, kaip saugiai ir patvirtintai naudoti DI įrankius savo darbe. Gerai informuoti vartotojai yra mažiau linkę netinkamai elgtis su DI arba tapti DI sustiprintų atakų aukomis ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ).

  2. Apibrėžkite aiškias DI naudojimo politikas: su generatyviniu DI elkitės kaip su bet kuria galinga technologija – su atitinkamu valdymu. Sukurkite politikas, kuriose nurodoma, kas gali naudoti DI įrankius, kurie įrankiai yra sankcionuoti ir kokiais tikslais. Įtraukite gaires, kaip tvarkyti jautrius duomenis (pvz., neperduoti konfidencialių duomenų išorinėms DI paslaugoms), kad būtų išvengta informacijos nutekėjimo. Pavyzdžiui, galite leisti tik saugumo komandos nariams naudoti vidinį DI asistentą incidentų reagavimui, o rinkodaros skyrius gali naudoti patikrintą DI turiniui – visiems kitiems tai ribojama. Daugelis organizacijų dabar savo IT politikose aiškiai atsižvelgia į generatyvinį DI, o pagrindinės standartų organizacijos skatina saugaus naudojimo politiką, o ne visiškus draudimus ( Kaip generatyvinis DI gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ). Būtinai perduokite šias taisykles ir jų pagrindimą visiems darbuotojams.

  3. „Šešėlinio dirbtinio intelekto“ mažinimas ir naudojimo stebėjimas: panašiai kaip šešėlinė IT, „šešėlinis dirbtinis intelektas“ atsiranda, kai darbuotojai pradeda naudoti dirbtinio intelekto įrankius ar paslaugas be IT žinios (pvz., kūrėjas naudoja neleistiną dirbtinio intelekto kodo asistentą). Tai gali sukelti nematomų rizikų. Įgyvendinkite priemones nesankcionuotam dirbtinio intelekto naudojimui aptikti ir kontroliuoti . Tinklo stebėjimas gali pažymėti ryšius su populiariomis dirbtinio intelekto API, o apklausos ar įrankių auditai gali atskleisti, ką darbuotojai naudoja. Siūlykite patvirtintas alternatyvas, kad geranoriški darbuotojai nebūtų linkę elgtis nesąžiningai (pavyzdžiui, suteikite oficialią „ChatGPT Enterprise“ paskyrą, jei žmonėms ji naudinga). Atskleidžiant dirbtinio intelekto naudojimą, saugumo komandos gali įvertinti ir valdyti riziką. Stebėjimas taip pat yra labai svarbus – kuo daugiau registruokite dirbtinio intelekto įrankių veiklą ir rezultatus, kad būtų galima stebėti sprendimus, kuriems įtakos turėjo dirbtinis intelektas ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realaus pasaulio pavyzdžių ).

  4. Išnaudokite dirbtinį intelektą gynybai – neatsilikite: pripažinkite, kad užpuolikai naudos dirbtinį intelektą, todėl jūsų gynyba taip pat turėtų jį naudoti. Nustatykite kelias didelį poveikį turinčias sritis, kuriose generatyvinis dirbtinis intelektas galėtų nedelsdamas padėti jūsų saugumo operacijoms (galbūt įspėjimų triažas arba automatizuota žurnalų analizė), ir vykdykite bandomuosius projektus. Padidinkite savo gynybą naudodami dirbtinio intelekto greitį ir mastelį, kad kovotumėte su sparčiai besivystančiomis grėsmėmis ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ). Net ir paprastos integracijos, pavyzdžiui, dirbtinio intelekto naudojimas kenkėjiškų programų ataskaitoms apibendrinti arba grėsmių paieškos užklausoms generuoti, gali sutaupyti analitikams valandų. Pradėkite nuo mažų dalykų, įvertinkite rezultatus ir kartokite. Sėkmės pagrindus platesniam dirbtinio intelekto pritaikymui. Tikslas – naudoti dirbtinį intelektą kaip jėgos daugiklį – pavyzdžiui, jei sukčiavimo atakos perpildo jūsų pagalbos tarnybą, įdiekite dirbtinio intelekto el. pašto klasifikatorių, kad proaktyviai sumažintumėte šį kiekį.

  5. Investuokite į saugias ir etiškas dirbtinio intelekto praktikas: diegdami generatyvinį dirbtinį intelektą, laikykitės saugaus kūrimo ir diegimo praktikos. Naudokite privačius arba savarankiškai talpinamus modelius jautrioms užduotims, kad išlaikytumėte duomenų kontrolę. Jei naudojate trečiųjų šalių dirbtinio intelekto paslaugas, peržiūrėkite jų saugumo ir privatumo priemones (šifravimą, duomenų saugojimo politiką ir kt.). Įtraukite dirbtinio intelekto rizikos valdymo sistemas (pvz., NIST dirbtinio intelekto rizikos valdymo sistemą arba ISO/IEC gaires), kad sistemingai spręstumėte tokius klausimus kaip šališkumas, paaiškinamumas ir patikimumas savo dirbtinio intelekto įrankiuose ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje? 10 realių pavyzdžių ). Taip pat planuokite modelių atnaujinimus / pataisas kaip priežiūros dalį – dirbtinio intelekto modeliai taip pat gali turėti „pažeidžiamumų“ (pvz., juos gali tekti perkvalifikuoti, jei jie pradeda nukrypti nuo normų arba jei aptinkamas naujo tipo priešiškas išpuolis prieš modelį). Integruodami saugumą ir etiką į savo dirbtinio intelekto naudojimą, jūs kuriate pasitikėjimą rezultatais ir užtikrinate atitiktį atsirandantiems reglamentams.

  6. Užtikrinkite žmonių informuotumą: naudokite dirbtinį intelektą (DI) kaip pagalbą, o ne kaip jo visišką pakeitimą kibernetinio saugumo srityje. Nustatykite sprendimų priėmimo taškus, kuriuose reikalingas žmogaus patvirtinimas (pavyzdžiui, DI gali parengti incidento ataskaitą, tačiau analitikas ją peržiūri prieš platinimą; arba DI gali pasiūlyti blokuoti vartotojo paskyrą, tačiau žmogus patvirtina šį veiksmą). Tai ne tik apsaugo nuo nepastebimų DI klaidų, bet ir padeda jūsų komandai mokytis iš DI ir atvirkščiai. Skatinkite bendradarbiavimą: analitikai turėtų jaustis patogiai kvestionuodami DI rezultatus ir atlikdami jų patikimumo patikrinimus. Laikui bėgant šis dialogas gali pagerinti tiek DI (per grįžtamąjį ryšį), tiek analitikų įgūdžius. Iš esmės, sukurkite savo procesus taip, kad DI ir žmonių stiprybės papildytų viena kitą – DI tvarko kiekį ir greitį, o žmonės – dviprasmybes ir galutinius sprendimus.

  7. Matavimas, stebėjimas ir koregavimas: Galiausiai, traktuokite savo generatyvinius dirbtinio intelekto įrankius kaip gyvus savo saugumo ekosistemos komponentus. Nuolat matuokite jų našumą – ar jie sutrumpina reagavimo į incidentus laiką? Ar jie anksčiau aptinka grėsmes? Kokia yra klaidingai teigiamų rezultatų rodiklio tendencija? Prašykite komandos atsiliepimų: ar dirbtinio intelekto rekomendacijos yra naudingos, ar jos sukuria triukšmą? Naudokite šiuos rodiklius modeliams tobulinti, mokymo duomenims atnaujinti arba dirbtinio intelekto integravimo būdui koreguoti. Kibernetinės grėsmės ir verslo poreikiai keičiasi, todėl jūsų dirbtinio intelekto modeliai turėtų būti periodiškai atnaujinami arba perkvalifikuojami, kad išliktų veiksmingi. Turėkite modelio valdymo planą, įskaitant tai, kas atsakingas už jo priežiūrą ir kaip dažnai jis peržiūrimas. Aktyviai valdydami dirbtinio intelekto gyvavimo ciklą, užtikrinate, kad jis išliktų turtu, o ne pasekme.

Apibendrinant galima teigti, kad generatyvusis dirbtinis intelektas gali gerokai padidinti kibernetinio saugumo galimybes, tačiau sėkmingam diegimui reikalingas apgalvotas planavimas ir nuolatinė priežiūra. Įmonės, kurios šviečia savo darbuotojus, nustato aiškias gaires ir subalansuotai bei saugiai integruoja dirbtinį intelektą, gaus naudos iš greitesnio ir išmanesnio grėsmių valdymo. Šios išvados suteikia veiksmų planą: derinti žmonių patirtį su dirbtinio intelekto automatizavimu, aptarti valdymo pagrindus ir išlaikyti lankstumą, nes neišvengiamai kinta tiek dirbtinio intelekto technologija, tiek grėsmių aplinka.

Imdamosi šių praktinių žingsnių, organizacijos gali užtikrintai atsakyti į klausimą „Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje?“ – ne tik teoriškai, bet ir kasdienėje praktikoje – ir taip sustiprinti savo apsaugą mūsų vis labiau skaitmeniniame ir dirbtinio intelekto valdomame pasaulyje. ( Kaip generatyvinis dirbtinis intelektas gali būti naudojamas kibernetinio saugumo srityje )

Po šio dokumento galbūt norėsite perskaityti ir kitus informacinius dokumentus:

🔗 Darbai, kurių negali pakeisti dirbtinis intelektas, ir kokius darbus pakeis dirbtinis intelektas?
Ištirkite pasaulinę perspektyvą, kurios pareigos yra saugios nuo automatizavimo, o kurios ne.

🔗 Ar dirbtinis intelektas gali numatyti akcijų rinką?
Atidžiau pažvelkime į dirbtinio intelekto gebėjimo prognozuoti rinkos pokyčius apribojimus, proveržius ir mitus.

🔗 Ką galima padaryti naudojant generatyvųjį dirbtinį intelektą be žmogaus įsikišimo?
Supraskite, kur dirbtinis intelektas gali veikti savarankiškai, o kur žmogaus priežiūra vis dar yra būtina.

Atgal į tinklaraštį