Ar dirbtinis intelektas gali pakeisti kibernetinį saugumą?

Ar dirbtinis intelektas gali pakeisti kibernetinį saugumą?

Trumpas atsakymas: dirbtinis intelektas nepakeis kibernetinio saugumo nuo pradžios iki galo, tačiau perims didelę dalį pasikartojančio SOC ir saugumo inžinerijos darbo. Naudojamas kaip triukšmo mažinimo priemonė ir apibendrinimo priemonė (su žmogaus įgaliojimu) pagreitina rūšiavimą ir prioritetų nustatymą; traktuojamas kaip orakulas, jis gali sukelti rizikingą klaidingą tikrumą.

Svarbiausios išvados:

Taikymo sritis : DI pakeičia užduotis ir darbo eigas, o ne pačią profesiją ar atskaitomybę.

Darbo sumažinimas : naudokite dirbtinį intelektą įspėjimų grupavimui, glaustoms santraukoms ir žurnalų šablonų triažui.

Sprendimų atsakomybė : Rizikos apetitui, incidentų valdymui ir griežtiems kompromisams spręsti pasitelkite žmones.

Apsauga nuo netinkamo naudojimo : konstrukcija, skirta greitam suleidimui, apsinuodijimui ir priešiškiems bandymams išvengti.

Valdymas : Įrankiuose užtikrinkite duomenų ribas, audituojamumą ir ginčijamus žmogaus atliktus pakeitimus.

Ar dirbtinis intelektas gali pakeisti kibernetinio saugumo infografiką?

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Kaip generatyvinis dirbtinis intelektas naudojamas kibernetinio saugumo srityje
Praktiniai būdai, kaip dirbtinis intelektas sustiprina aptikimą, reagavimą ir grėsmių prevenciją.

🔗 Dirbtinio intelekto skverbties testavimo įrankiai kibernetiniam saugumui užtikrinti
Geriausi dirbtinio intelekto sprendimai, skirti automatizuoti testavimą ir rasti pažeidžiamumus.

🔗 Ar dirbtinis intelektas pavojingas? Rizika ir realybė
Aiškus žvilgsnis į grėsmes, mitus ir atsakingas dirbtinio intelekto apsaugos priemones.

🔗 Geriausių dirbtinio intelekto saugumo įrankių vadovas
Geriausios saugumo priemonės, naudojantys dirbtinį intelektą sistemoms ir duomenims apsaugoti.


„Pakeisti“ įrėminimas yra spąstai 😅

Kai žmonės sako „Ar dirbtinis intelektas gali pakeisti kibernetinį saugumą“ , jie dažniausiai turi omenyje vieną iš trijų dalykų:

  • Pakeisti analitikus (žmonių nereikia)

  • Pakeiskite įrankius (viena dirbtinio intelekto platforma atlieka viską)

  • Pakeisti rezultatus (mažiau pažeidimų, mažesnė rizika)

Dirbtinis intelektas stipriausiai pakeičia pasikartojančias pastangas ir sutrumpina sprendimų priėmimo laiką. Silpniausiai jis pakeičia atskaitomybę, kontekstą ir vertinimą. Saugumas – tai ne tik aptikimas – tai sudėtingi kompromisai, verslo apribojimai, politika (fu) ir žmonių elgesys.

Žinote, kaip būna – pažeidimas nebuvo „įspėjimų trūkumas“. Tai buvo žmogaus netikėjimas, kad įspėjimas svarbus. 🙃


Kur dirbtinis intelektas jau „pakeičia“ kibernetinio saugumo darbą (praktiškai) ⚙️

Dirbtinis intelektas jau perima tam tikras darbo kategorijas, net jei organizacinė schema vis dar atrodo ta pati.

1) Triažas ir įspėjimų grupavimas

  • Panašių įspėjimų grupavimas į vieną incidentą

  • Triukšmingų signalų dubliavimas

  • Reitingas pagal tikėtiną poveikį

Tai svarbu, nes triažo metu žmonės praranda norą gyventi. Jei dirbtinis intelektas bent šiek tiek sumažina triukšmą, tai tas pats, kas pritildyti priešgaisrinę signalizaciją, kuri jau kelias savaites rėkia 🔥🔕

2) Žurnalų analizė ir anomalijų aptikimas

  • Įtartinų modelių aptikimas mašinos greičiu

  • Pažymėjimas „tai neįprasta, palyginti su pradine padėtimi“

Jis nėra tobulas, bet gali būti vertingas. Dirbtinis intelektas yra kaip metalo detektorius paplūdimyje – jis daug pypsi, o kartais tai butelio kamštelis, o kartais tai skambutis 💍... arba pažeistas administratoriaus prieigos raktas.

3) Kenkėjiškų programų ir sukčiavimo apsimetant klasifikacija

  • Priedų, URL, domenų klasifikavimas

  • Panašių prekių ženklų ir klastojimo modelių aptikimas

  • Smėlio dėžės verdiktų santraukų automatizavimas

4) Pažeidžiamumų valdymo prioritetų nustatymas

Ne „kokie CVE egzistuoja“ – visi žinome, kad jų per daug. Dirbtinis intelektas padeda atsakyti:

Ir taip, žmonės irgi galėtų tai padaryti – jei laikas būtų begalinis ir niekas niekada neatostogauti.


Kas daro dirbtinį intelektą gerą kibernetinio saugumo srityje 🧠

Tai yra dalis, kurią žmonės praleidžia, o tada kaltina „DI“, tarsi tai būtų vienas produktas su jausmais.

Gera dirbtinio intelekto versija kibernetinio saugumo srityje paprastai turi šias savybes:

  • Aukšta signalo ir triukšmo disciplina

    • Jis turi sumažinti triukšmą, o ne sukurti papildomą triukšmą įmantriomis frazėmis.

  • Aiškumas, kuris padeda praktiškai

    • Ne romanas. Ne vibracijos. Tikros užuominos: ką matė, kodėl jam rūpi, kas pasikeitė.

  • Glaudi integracija su jūsų aplinka

    • IAM, galinių įrenginių telemetrija, debesijos padėtis, bilietų pardavimas, turto inventorizacija... visa tai ne itin prabangu.

  • Įmontuotas žmogaus atliekamas valdymas

    • Analitikai turi tai ištaisyti, suderinti, o kartais ir ignoruoti. Kaip jaunesnysis analitikas, kuris niekada nemiega, bet kartais puola į paniką.

  • Saugus duomenų tvarkymas

  • Atsparumas manipuliacijoms

Būkime atviri – daugelis „dirbtinio intelekto saugumo“ sistemų neveikia, nes jos apmokytos skambėti užtikrintai, o ne teisingai. Pasitikėjimas nėra kontrolė. 😵💫


Dalys, kurias dirbtinis intelektas sunkiai pakeičia – ir tai svarbiau, nei atrodo 🧩

Štai nemaloni tiesa: kibernetinis saugumas yra ne tik techninis. Jis yra sociotechninis. Tai žmonės, sistemos ir paskatos.

Dirbtiniam intelektui sunku:

1) Verslo kontekstas ir rizikos apetitas

Sprendimai dėl saugumo retai būna „ar tai blogai“. Jie labiau panašūs į:

  • Ar tai pakankamai rimta, kad sustabdytų pajamas

  • Ar verta nutraukti diegimo procesą

  • Ar vadovų komanda sutiks su prastovomis

Dirbtinis intelektas gali padėti, bet negali to prisiimti. Kažkas pasirašo po sprendimu. Kažkas gauna skambutį 2 val. nakties 📞

2) Incidentų valdymas ir komandų tarpusavio koordinavimas

Realių incidentų metu „darbas“ yra:

Dirbtinis intelektas gali parengti laiko juostą arba apibendrinti žurnalus, žinoma. Pakeisti vadovybę esant spaudimui yra... optimistiška. Tai tas pats, kas prašyti skaičiuotuvo atlikti gaisro pratybas.

3) Grėsmių modeliavimas ir architektūra

Grėsmių modeliavimas yra iš dalies logika, iš dalies kūrybiškumas, iš dalies paranoja (dažniausiai sveika paranoja).

  • Išvardija, kas gali nutikti ne taip

  • Numatymas, ką darys užpuolikas

  • Pigiausio valdiklio, kuris pakeičia užpuoliko matematinius skaičiavimus, pasirinkimas

Dirbtinis intelektas gali siūlyti modelius, tačiau tikroji vertė slypi jūsų sistemų, žmonių, sparčiųjų kelių ir savotiškų priklausomybių pažinime.

4) Žmogiškieji veiksniai ir kultūra

Sukčiavimas apsimetant, pakartotinis prisijungimo duomenų naudojimas, šešėlinė IT, aplaidios prieigos peržiūros – tai žmonių problemos, apsirengusios techniniais kostiumais 🎭
Dirbtinis intelektas gali aptikti, bet negali ištaisyti, kodėl organizacija elgiasi taip, kaip elgiasi.


Užpuolikai taip pat naudoja dirbtinį intelektą, todėl žaidimo laukas pakrypsta į šoną 😈🤖

Bet kokioje diskusijoje apie kibernetinio saugumo pakeitimą turi būti akivaizdu: užpuolikai nestovi vietoje.

Dirbtinis intelektas padeda užpuolikams:

Taigi, gynėjų ilgalaikis dirbtinio intelekto diegimas nėra neprivalomas. Tai labiau panašu į... žibintuvėlį, nes kita pusė ką tik gavo naktinio matymo akinius. Nerangi metafora. Vis dar iš dalies teisinga.

Be to, užpuolikai taikysis į pačias dirbtinio intelekto sistemas:

Saugumas visada buvo katės ir pelės žaidimas. Dirbtinis intelektas tiesiog padaro kates greitesnes, o peles išradingesnes


Tikrasis atsakymas: DI pakeičia užduotis, o ne atskaitomybę ✅

Tai yra „nepatogus viduriukas“, į kurį patenka dauguma komandų:

  • Dirbtinis intelektas tvarko mastelį

  • Žmonės tvarko statymus

  • Kartu jie susidoroja su greičiu ir nuovoka

Mano paties atliktuose bandymuose su saugumo darbo eigomis dirbtinis intelektas yra geriausias, kai su juo elgiamasi taip:

  • Triažo asistentas

  • Apibendrintojas

  • Koreliacijos variklis

  • Politikos pagalbininkas

  • Kodo peržiūros partneris rizikingų šablonų atveju

Dirbtinis intelektas yra blogiausias, kai su juo elgiamasi taip:

  • Orakulas

  • Vienas tiesos taškas

  • Apsaugos sistema „nustatyk ir pamiršk“

  • Priežastis, kodėl komandai trūksta darbuotojų (tai vėliau... labai skaudu)

Tai tas pats, kas samdyti sarginį šunį, kuris dar ir rašo el. laiškus. Puiku. Bet kartais jis loja ant dulkių siurblio ir nepastebi vaikino, šokančio per tvorą. 🐶🧹


Palyginimo lentelė (populiariausi variantai, kuriuos komandos naudoja kasdien) 📊

Žemiau pateikiama praktinė palyginimo lentelė – ne tobula, šiek tiek nevienoda, kaip realiame gyvenime.

Įrankis / platforma Geriausia (auditorijai) Kainos vibracija Kodėl tai veikia (ir kokie yra trūkumai)
„Microsoft Sentinel“ „Microsoft Learn“ SOC komandos, gyvenančios „Microsoft“ ekosistemose $$ - $$$ Stiprūs debesyje sukurti SIEM modeliai; daug jungčių, gali sukelti triukšmą, jei nesuderinti..
„Splunk“ „Splunk“ įmonės saugumas Didesnės organizacijos su intensyviu registravimu + individualūs poreikiai $$$ (dažnai, tiesą sakant, $$$$) Galinga paieška + ataskaitų suvestinės; nuostabu, kai kruopščiai kuriama, bet vargina, kai duomenų higiena nepriklauso niekam
„Google“ saugumo operacijos „Google Cloud“ Komandos, norinčios valdyti telemetrijos paslaugų $$ - $$$ Tinka dideliems duomenų kiekiams; kaip ir daugelis kitų dalykų, priklauso nuo integracijos brandos
„CrowdStrike Falcon“ „CrowdStrike“ Daug galinių taškų turinčios organizacijos, IR komandos $$$ Puikus galinių taškų matomumas; didelis aptikimo gylis, bet vis tiek reikia žmonių, kurie skatintų reagavimą
„Microsoft Defender for Endpoint“ „Microsoft Learn“ M365 dominuojančios organizacijos $$ - $$$ Glaudi „Microsoft“ integracija; gali būti puiki, bet neteisingai sukonfigūruota gali būti „700 įspėjimų eilėje“
Palo Alto Cortex XSOAR Palo Alto tinklai Į automatizavimą orientuoti SOC $$$ Žaidimų knygos sumažina triūsą; reikalauja priežiūros arba automatizuojate netvarką (taip, tai įmanoma)
Wiz Wiz platforma Debesų saugumo komandos $$$ Puikus debesijos matomumas; padeda greitai nustatyti rizikos prioritetus, tačiau vis tiek reikalingas valdymas
Snyk Snyk platforma Dev-first organizacijos, AppSec $$ - $$$ Programuotojams patogios darbo eigos; sėkmė priklauso nuo kūrėjų pritaikymo, o ne tik nuo nuskaitymo

Maža pastaba: joks įrankis „nelaimi“ pats savaime. Geriausias įrankis yra tas, kurį jūsų komanda naudoja kasdien ir dėl jo negaili pasipiktinimo. Tai ne mokslas, tai išlikimas 😅


Realus veiklos modelis: kaip komandos laimi su dirbtiniu intelektu 🤝

Jei norite, kad dirbtinis intelektas reikšmingai pagerintų saugumą, veiksmų planas paprastai yra toks:

1 veiksmas: naudokite dirbtinį intelektą, kad sumažintumėte vargą

  • Įspėjimų praturtinimo santraukos

  • Bilietų rengimas

  • Įrodymų rinkimo kontroliniai sąrašai

  • Žurnalo užklausos pasiūlymai

  • Konfigūracijų skirtumai „Kas pasikeitė“

2 veiksmas: pasitelkite žmones patvirtinimui ir sprendimui

  • Patvirtinkite poveikį ir apimtį

  • Pasirinkite izoliavimo veiksmus

  • Koordinuoti skirtingų komandų pataisymus

3 veiksmas: automatizuokite saugius dalykus

Geri automatizavimo tikslai:

  • Žinomų blogų failų karantinavimas su dideliu patikimumu

  • Prisijungimo duomenų atkūrimas po patvirtinto pažeidimo

  • Akivaizdžiai kenkėjiškų domenų blokavimas

  • Politikos nukrypimų korekcijos vykdymas (atsargiai)

Rizikingi automatizavimo taikiniai:

  • Automatinis gamybinių serverių izoliavimas be apsaugos priemonių

  • Išteklių šalinimas remiantis neaiškiais signalais

  • Didelių IP adresų diapazonų blokavimas, nes „modelis taip norėjo“ 😬

4 veiksmas: Įtraukite pamokas į valdymo sistemas

  • Derinimas po incidento

  • Patobulinti aptikimai

  • Geresnis turto inventorius (amžinas skausmas)

  • Siauresnės privilegijos

Čia labai padeda dirbtinis intelektas: apibendrina pomirtinius tyrimus, nustato aptikimo spragas, paverčia sutrikimus pakartojamais patobulinimais.


Paslėptos dirbtinio intelekto valdomo saugumo rizikos (taip, jų yra kelios) ⚠️

Jei intensyviai diegiate dirbtinį intelektą, turite pasiruošti netikėtumams:

  • Išrastas tikrumas

    • Saugumo komandoms reikia įrodymų, o ne pasakojimų. Dirbtiniam intelektui patinka pasakojimai. NIST AI RMF 1.0

  • Duomenų nutekėjimas

  • Pernelyg didelė priklausomybė

    • Žmonės nustoja mokytis pagrindų, nes antrasis pilotas „visada žino“... kol jis nustoja.

  • Modelio poslinkis

    • Aplinka keičiasi. Atakų modeliai keičiasi. Aptikimai tyliai genda. NIST AI RMF 1.0

  • Priešiškas smurtas

Tai tas pats, kas pagaminti labai išmanią spyną, o raktą palikti po kilimėliu. Spyna nėra vienintelė problema.


Taigi… Ar dirbtinis intelektas gali pakeisti kibernetinį saugumą: aiškus atsakymas 🧼

Ar dirbtinis intelektas gali pakeisti kibernetinį saugumą?
Jis gali pakeisti daug pasikartojančio darbo kibernetinio saugumo srityje. Jis gali paspartinti aptikimą, triažą, analizę ir net dalį reagavimo. Tačiau jis negali visiškai pakeisti disciplinos, nes kibernetinis saugumas nėra viena užduotis – tai valdymas, architektūra, žmonių elgesys, incidentų valdymas ir nuolatinis prisitaikymas.

Jei norite kuo atviresnio įrėminimo (atsiprašau, šiek tiek tiesmukai):

  • Dirbtinis intelektas pakeičia užimtumą

  • Dirbtinis intelektas stiprina geras komandas

  • Dirbtinis intelektas atskleidžia blogus procesus

  • Žmonės lieka atsakingi už riziką ir realybę

Taip, kai kurie vaidmenys keisis. Pradinio lygio užduotys keisis sparčiausiai. Tačiau atsiras ir naujų užduočių: saugūs darbo eigos, modelių patvirtinimas, saugumo automatizavimo inžinerija, aptikimo inžinerija su dirbtinio intelekto įrankiais... darbas neišnyksta, jis mutuoja 🧬


Baigiamosios pastabos ir trumpa santrauka 🧾✨

Jei svarstote, ką daryti su dirbtiniu intelektu saugumo srityje, štai praktinė išvada:

  • Naudokite dirbtinį intelektą laikui sutrumpinti – greitesnis rūšiavimas, greitesnės santraukos, greitesnė koreliacija.

  • Vertinimui pasitelkite žmones – kontekstą, kompromisus, lyderystę, atskaitomybę.

  • Tarkime, kad užpuolikai taip pat naudoja dirbtinį intelektą – projektuokite apgaulės ir manipuliavimo tikslais. MITRE ATLAS saugių dirbtinio intelekto sistemų kūrimo gairės (NSA/CISA/NCSC-UK).

  • Nepirkite „magijos“ – pirkite darbo eigas, kurios išmatuojamai sumažina riziką ir vargą.

Taigi, taip, dirbtinis intelektas gali pakeisti dalį darbo, ir dažnai tai daro iš pradžių atrodančiais subtiliais būdais. Sėkmės ženklas yra paversti dirbtinį intelektą savo svertu, o ne pakaitalu.

O jei nerimaujate dėl savo karjeros – sutelkite dėmesį į tas sritis, su kuriomis dirbtiniam intelektui sunku: sisteminį mąstymą, incidentų valdymą, architektūrą ir gebėjimą atskirti „įdomų įspėjimą“ nuo „tuoj bus labai bloga diena“. 😄🔐


DUK

Ar dirbtinis intelektas gali visiškai pakeisti kibernetinio saugumo komandas?

Dirbtinis intelektas gali perimti didelę kibernetinio saugumo darbo dalį, bet ne visą discipliną nuo pradžios iki galo. Jis puikiai atlieka pasikartojančias našumo užduotis, tokias kaip įspėjimų grupavimas, anomalijų aptikimas ir pirmojo etapo santraukų rengimas. Ko jis nepakeičia, tai atskaitomybės, verslo konteksto ir sprendimų priėmimo, kai rizika yra didelė. Praktiškai komandos nusistoja ties „nepatogiu aukso viduriu“, kur dirbtinis intelektas užtikrina mastą ir greitį, o žmonės išlaiko atsakomybę už svarbius sprendimus.

Kur dirbtinis intelektas jau pakeičia kasdienį SOC darbą?

Daugelyje SOC dirbtinis intelektas jau atlieka daug laiko reikalaujančius darbus, tokius kaip triažas, dublikatų šalinimas ir įspėjimų rikiavimas pagal tikėtiną poveikį. Jis taip pat gali paspartinti žurnalų analizę, pažymėdamas modelius, kurie nukrypsta nuo pradinio elgesio. Rezultatas – ne stebuklingas incidentų sumažėjimas – tai mažiau valandų, praleistų bandant išsiaiškinti triukšmą, todėl analitikai gali sutelkti dėmesį į svarbius tyrimus.

Kaip dirbtinio intelekto įrankiai padeda valdyti pažeidžiamumus ir nustatyti pataisų prioritetus?

Dirbtinis intelektas padeda pažeidžiamumų valdymą pakeisti nuo „per daug CVE“ prie „ką pirmiausia turėtume pataisyti“. Įprastas metodas apjungia išnaudojimo tikimybės signalus (pvz., EPSS), žinomus išnaudojimo sąrašus (pvz., CISA KEV katalogą) ir jūsų aplinkos kontekstą (interneto pažeidžiamumą ir turto kritiškumą). Gerai tai sumažina spėliones ir padeda diegti pataisas nepakenkiant verslui.

Kas daro „gerą“ dirbtinį intelektą kibernetinio saugumo srityje, palyginti su triukšmingu dirbtiniu intelektu?

Geras dirbtinis intelektas kibernetinio saugumo srityje sumažina triukšmą, o ne sukuria užtikrintai skambančią netvarką. Jis siūlo praktišką paaiškinamumą – konkrečias užuominas, pavyzdžiui, kas pasikeitė, ką pastebėjo ir kodėl tai svarbu, – vietoj ilgų, miglotų pasakojimų. Jis taip pat integruojasi su pagrindinėmis sistemomis (IAM, galiniu tinklu, debesijos sistema, bilietų pardavimu) ir palaiko žmogaus atliekamą valdymą, kad analitikai galėtų jį ištaisyti, suderinti arba ignoruoti, kai to reikia.

Kokias kibernetinio saugumo dalis dirbtinis intelektas sunkiai pakeičia?

Dirbtiniam intelektui sunkiausia atlikti socialinius ir techninius darbus: rizikos toleravimą, incidentų valdymą ir komandų koordinavimą. Incidentų metu darbas dažnai virsta bendravimu, įrodymų tvarkymu, teisiniais klausimais ir sprendimų priėmimu neapibrėžtumo sąlygomis – sritimis, kuriose vadovavimas yra svarbesnis už šablonų derinimą. Dirbtinis intelektas gali padėti apibendrinti žurnalus arba parengti terminų projektus, tačiau jis patikimai nepakeičia atsakomybės esant spaudimui.

Kaip užpuolikai naudoja dirbtinį intelektą ir ar tai keičia gynėjo darbą?

Užpuolikai naudoja dirbtinį intelektą sukčiavimo atakų mastui, įtikinamesnei socialinei inžinerijai ir greitesniam kenkėjiškų programų variantų nagrinėjimui. Tai keičia žaidimo taisykles: laikui bėgant gynėjų pasirinkimas dirbtinio intelekto diegimui tampa mažiau pasirenkamas. Tai taip pat padidina riziką, nes užpuolikai gali taikytis į dirbtinio intelekto darbo eigas taikydami greitą ataką, bandymus užkrėsti atakas ar priešišką vengimą, o tai reiškia, kad dirbtinio intelekto sistemoms taip pat reikalingos saugumo kontrolės priemonės, o ne aklas pasitikėjimas.

Kokia didžiausia rizika, kylanti pasikliaujant dirbtiniu intelektu priimant sprendimus dėl saugumo?

Didžiausia rizika yra išgalvotas tikrumas: dirbtinis intelektas gali skambėti užtikrintai net tada, kai klysta, o pasitikėjimas nėra kontrolės priemonė. Duomenų nutekėjimas yra dar viena dažna problema – saugumo užklausose gali netyčia būti įtraukta neskelbtina informacija, o žurnaluose dažnai slypi paslaptys. Per didelis pasitikėjimas taip pat gali pakenkti pagrindiniams principams, o modelio dreifas tyliai pablogina aptikimo efektyvumą, keičiantis aplinkai ir užpuolikų elgesiui.

Koks yra realus dirbtinio intelekto naudojimo kibernetinio saugumo srityje veikimo modelis?

Praktinis modelis atrodo taip: naudokite dirbtinį intelektą, kad sumažintumėte darbo krūvį, palikite žmones patvirtinimui ir sprendimams atlikti ir automatizuokite tik saugius dalykus. Dirbtinis intelektas yra stiprus praturtinimo santraukoms, bilietų rengimui, įrodymų kontroliniams sąrašams ir „kas pasikeitė“ skirtumams. Automatizavimas geriausiai tinka didelio patikimumo veiksmams, pavyzdžiui, žinomų blogų domenų blokavimui arba prisijungimo duomenų atkūrimui po patvirtinto pažeidimo, taikant apsaugos priemones, kad būtų išvengta pernelyg didelio atskleidimo.

Ar dirbtinis intelektas pakeis pradinio lygio kibernetinio saugumo pareigas ir kokie įgūdžiai taps vertingesni?

Pradinio lygio užduočių krūvos greičiausiai keisis sparčiausiai, nes dirbtinis intelektas gali įsisavinti pasikartojantį triažo, apibendrinimo ir klasifikavimo darbą. Tačiau atsiranda ir naujų užduočių, tokių kaip saugių užduočių srautų kūrimas, modelių rezultatų patvirtinimas ir inžinerinio saugumo automatizavimas. Karjeros atsparumas dažniausiai kyla iš įgūdžių, su kuriais dirbtiniam intelektui sunku susidoroti: sisteminis mąstymas, architektūra, incidentų valdymas ir techninių signalų vertimas į verslo sprendimus.

Nuorodos

  1. PIRMASIS - EPSS (PIRMASIS) - first.org

  2. Kibernetinio saugumo ir infrastruktūros saugumo agentūra (CISA)žinomų išnaudotų pažeidžiamumų katalogascisa.gov

  3. Nacionalinis standartų ir technologijų institutas (NIST)SP 800-40 Rev. 4 (Įmonės pataisų valdymas)csrc.nist.gov

  4. Nacionalinis standartų ir technologijų institutas (NIST)AI RMF 1.0nvlpubs.nist.gov

  5. OWASP - LLM01: Greitas injekcijos atlikimas - genai.owasp.org

  6. JK vyriausybėDirbtinio intelekto kibernetinio saugumo praktikos kodeksasgov.uk

  7. Nacionalinis standartų ir technologijų institutas (NIST)SP 800-61 (Incidentų valdymo vadovas)csrc.nist.gov

  8. Federalinis tyrimų biuras (FTB) įspėja apie didėjančią dirbtinio intelekto naudojimo kibernetinių nusikaltėlių grėsmę - fbi.gov

  9. FTB interneto nusikaltimų skundų centras (IC3)IC3 PSA apie generatyvinį dirbtinio intelekto sukčiavimą / sukčiavimą sukčiavimuic3.gov

  10. „OpenAI“„OpenAI“ grėsmių žvalgybos ataskaitos (kenkėjiško naudojimo pavyzdžiai)openai.com

  11. EuropolasEuropolo „ChatGPT ataskaita“ (piktnaudžiavimo apžvalga)europol.europa.eu

  12. GRĘŽIMAS - GRĘŽIMO ATLASAS - mitre.org

  13. OWASPOWASP 10 geriausių LLM programųowasp.org

  14. Nacionalinė saugumo agentūra (NSA)Dirbtinio intelekto sistemų kūrimo saugumo užtikrinimo gairės (NSA/CISA/NCSC-UK ir partneriai)nsa.gov

  15. „Microsoft Learn“„Microsoft Sentinel“ apžvalgalearn.microsoft.com

  16. „Splunk“„Splunk“ įmonės saugumassplunk.com

  17. „Google Cloud“„Google“ saugumo operacijoscloud.google.com

  18. „CrowdStrike“„CrowdStrike Falcon“ platformacrowdstrike.com

  19. „Microsoft Learn“„Microsoft Defender for Endpoint“learn.microsoft.com

  20. „Palo Alto Networks“„Cortex XSOAR“paloaltonetworks.com

  21. WizWiz platformawiz.io

  22. SnykSnyk platformasnyk.io

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį