kaip naudoti dirbtinį intelektą įdarbinant

Kaip naudoti dirbtinį intelektą įdarbinant

Dirbtinis intelektas gali padėti, bet tik tuo atveju, jei su juo elgsitės kaip su elektriniu įrankiu, o ne kaip su stebuklinga lazdele. Tinkamai naudojamas, jis pagreitina tiekėjų paiešką, užtikrina nuoseklumą ir pagerina kandidatų patirtį. Netinkamai naudojamas… jis tyliai sumažina painiavą, šališkumą ir teisinę riziką. Smagu.

Pažiūrėkime, kaip panaudoti dirbtinį intelektą įdarbinimo srityje taip, kad jis būtų išties naudingas, orientuotas į žmogų ir pagrįstas. (Ir ne šiurpus. Prašau, ne šiurpus.)

Straipsniai, kuriuos galbūt norėsite perskaityti po šio:

🔗 Dirbtinio intelekto įdarbinimo įrankiai, keičiantys šiuolaikinį įdarbinimą
Kaip dirbtinio intelekto platformos pagreitina ir pagerina įdarbinimo sprendimus.

🔗 Nemokami dirbtinio intelekto įrankiai įdarbinimo komandoms
Geriausi nemokami sprendimai, skirti supaprastinti ir automatizuoti įdarbinimo procesus.

🔗 Dirbtinio intelekto įgūdžiai, kurie daro įspūdį samdantiems vadovams
Kurie dirbtinio intelekto įgūdžiai iš tikrųjų išsiskiria gyvenimo aprašymuose.

🔗 Ar turėtumėte atsisakyti dirbtinio intelekto gyvenimo aprašymo patikros?
Automatizuotų įdarbinimo sistemų vengimo privalumai, trūkumai ir rizika.


Kodėl dirbtinis intelektas apskritai naudojamas įdarbinant (ir ką jis iš tikrųjų daro) 🔎

Dauguma „DI įdarbinimo“ įrankių skirstomi į kelias kategorijas:

  • Ieškojimas : kandidatų paieška, paieškos terminų išplėtimas, įgūdžių derinimas su pareigomis

  • Atranka : CV analizė, kandidatų reitingavimas, tinkamų kandidatų žymėjimas

  • Vertinimai : įgūdžių testai, darbo pavyzdžiai, darbo simuliacijos, kartais vaizdo įrašų darbo eigos

  • Pagalba pokalbiui : struktūrizuoti klausimų bankai, pastabų santraukos, rezultatų suvestinės paskatinimai

  • Operacijos : planavimas, kandidatų klausimų ir atsakymų pokalbis, būsenos atnaujinimai, pasiūlymų darbo eiga

Vienas realybės patikrinimas: dirbtinis intelektas retai kada „sprendžia“ akimirksniu. Jis daro įtaką… stumteli… filtruoja… nustato prioritetus. Tai vis dar svarbu, nes praktiškai įrankis gali tapti atrankos procedūra net tada, kai žmonės „techniškai“ dalyvauja šiame procese. JAV EEOC aiškiai pareiškė, kad algoritminės sprendimų priemonės, naudojamos priimant ar informuojant sprendimus dėl įdarbinimo, gali sukelti tuos pačius senus klausimus apie skirtingus/neigiamus padarinius – ir kad darbdaviai gali likti atsakingi net tada, kai įrankį sukūrė ar naudoja tiekėjas. [1]

 

Dirbtinis intelektas įdarbinant

Minimali perspektyvi „gera“ dirbtinio intelekto pagalba įdarbinimo sistema ✅

Gera dirbtinio intelekto įdarbinimo sistema turi keletą nekeičiamų sąlygų (taip, jos šiek tiek nuobodžios, bet nuobodulys yra saugus):

  • Su darbu susiję įėjimai : vertinkite su vaidmeniu susijusius signalus, o ne vibracijas

  • Aiškumas, kurį galite pakartoti garsiai : jei kandidatas klausia „kodėl“, turite nuoseklų atsakymą.

  • Svarbiausia – žmogaus priežiūra : ne ceremoninis spustelėjimas – tikra valdžia ją pakeisti

  • Patvirtinimas + stebėsena : bandymų rezultatai, stebėjimo poslinkis, įrašų saugojimas

  • Kandidatui pritaikytas dizainas : aiškūs žingsniai, prieinamas procesas, minimalios nereikalingos informacijos

  • Privatumo užtikrinimas pagal dizainą : duomenų kiekio mažinimas, saugojimo taisyklės, saugumas ir prieigos kontrolė

Jei norite patikimo mentalinio modelio, pasiskolinkite iš NIST dirbtinio intelekto rizikos valdymo sistemos – iš esmės tai struktūrizuotas būdas valdyti, kartografuoti, matuoti ir valdyti dirbtinio intelekto riziką per visą jo gyvavimo ciklą. Tai ne pasaka prieš miegą, bet ji tikrai naudinga, kad šiuos dalykus būtų galima audituoti. [4]


Kur dirbtinis intelektas geriausiai tinka piltuve (ir kur jis tampa aštrus) 🌶️

Geriausios vietos pradėti (paprastai)

  • Pareigybės aprašymo rengimas + sutvarkymas ✍️
    Generatyvusis dirbtinis intelektas gali sumažinti žargoną, pašalinti išpūstus pageidavimų sąrašus ir pagerinti aiškumą (jei tik patikrinsite savo sveiką protą).

  • Įdarbintojų antriniai pilotai (santraukos, informavimo variantai, loginės eilutės).
    Didelė produktyvumo pergalė, maža sprendimų rizika, jei vadovaus žmonės.

  • Dažnai užduodami klausimai apie planavimą ir kandidatų darbą 📅
    Automatizavimas kandidatams iš tikrųjų patinka, kai su juo elgiamasi mandagiai.

Didesnės rizikos zonos (elkitės atsargiai)

  • Automatinis reitingavimas ir atmetimas.
    Kuo lemiamesnis tampa balas, tuo labiau jūsų našta perkeliama iš „gero įrankio“ į „įrodyti, kad tai susiję su darbu, stebima ir netyčia atmeta grupes“.

  • Vaizdo įrašų analizė arba „elgesio išvados“ 🎥
    Net ir reklamuojamos kaip „objektyvios“, jos gali prieštarauti negaliai, prieinamumo poreikiams ir abejotinam pagrįstumui.

  • Viskas, kas tampa „tik automatizuota“ ir turi reikšmingą poveikį.
    Pagal JK BDAR, žmonės turi teisę, kad jiems nebūtų taikomi tam tikri tik automatizuoti sprendimai, turintys teisinį ar panašų reikšmingą poveikį, o tais atvejais, kai tai taikoma, jums taip pat reikia apsaugos priemonių, tokių kaip galimybė gauti žmogaus įsikišimą ir ginčyti sprendimą. (Taip pat: ICO pažymi, kad šios gairės yra peržiūrimos dėl JK teisės aktų pakeitimų, todėl laikykite šią sritį aktualia.) [3]


Greiti apibrėžimai (kad visi ginčytųsi dėl to paties ) 🧠

Jei vagiate tik vieną keistą įprotį: prieš pirkdami įrankius apibrėžkite terminus.

  • Algoritminis sprendimų priėmimo įrankis : bendras terminas, apimantis programinę įrangą, kuri vertina / įvertina kandidatus ar darbuotojus, kartais naudodama dirbtinį intelektą, kad priimtų pagrįstus sprendimus.

  • Neigiamas poveikis / skirtingas poveikis : „neutralus“ procesas, kuris neproporcingai atmeta žmones dėl saugomų savybių (net jei niekas to ir neketino).

  • Su darbu susijęs + atitinka verslo poreikius : riba, kurios siekiate, jei įrankis atrenka žmones ir rezultatai atrodo nevienodi.
    Šios sąvokos (ir kaip vertinti atrankos rodiklius) aiškiai išdėstytos EEOC techninės pagalbos dokumente apie dirbtinį intelektą ir neigiamą poveikį. [1]


Palyginimo lentelė – dažniausiai pasitaikantys dirbtinio intelekto įdarbinimo variantai (ir kam jie iš tikrųjų skirti) 🧾

Įrankis Auditorija Kaina Kodėl tai veikia
DI priedai ATS rinkiniuose (atranka, suderinimas) Didelės apimties komandos Citata pagrįsta Centralizuotas darbo eiga + ataskaitų teikimas… bet kruopščiai sukonfigūruokite, kitaip tai taps atmetimo fabriku
Talentų paieška ir iš naujo atradimas (DI) Daug išteklių naudojančios organizacijos ££–£££ Randa gretimus profilius ir „paslėptus“ kandidatus – keistai naudinga nišiniams vaidmenims
Gyvenimo aprašymo analizavimas + įgūdžių taksonomija Komandos skęsta CV PDF failuose Dažnai sujungiama Sumažina rankinį triažą; netobula, bet greitesnė nei visko apžiūra 23 val. 😵
Kandidatų pokalbiai + planavimo automatizavimas Valandinis, universiteto miestelio, didelės apimties £–££ Greitesnis reagavimo laikas ir mažiau neatvykimų – jaučiasi kaip padori konsjeržo įmonė
Struktūrizuotų pokalbių rinkiniai + rezultatų suvestinės Komandos taiso neatitikimus £ Padaro interviu mažiau atsitiktinius – tyli pergalė
Vertinimo platformos (darbo pavyzdžiai, modeliavimas) Įgūdžiais orientuotas įdarbinimas ££ Geresnis signalas nei gyvenimo aprašymai, kai tai susiję su darbu – vis tiek stebėkite rezultatus
Šališkumo stebėsena + audito palaikymo įrankiai Reguliuojamos / riziką suvokiančios organizacijos £££ Padeda sekti atrankos rodiklius ir jų pokyčius laikui bėgant – iš esmės kvitus
Valdymo darbo eigos (patvirtinimai, žurnalai, modelių inventorius) Didesnės HR ir teisininkų komandos ££ Apsaugo nuo to, kad „kas ką patvirtino“ vėliau taptų lobių paieška

Mažo stalo prisipažinimas: kainodara šioje rinkoje yra nestabili. Pardavėjai mėgsta energiją „peršokime prie skambučio“. Taigi, kainą vertinkite kaip „santykines pastangas + sutarties sudėtingumą“, o ne kaip tvarkingą lipduką... 🤷


Kaip žingsnis po žingsnio naudoti dirbtinį intelektą įdarbinant darbuotojus (įdiegimas, kuris vėliau jums nepakenks) 🧩

1 žingsnis: Pasirinkite vieną skausmo tašką, o ne visą visatą

Pradėkite nuo kažko panašaus:

  • sutrumpinant vienos vaidmenų šeimos atrankos laiką

  • gerinant sunkiai užpildomų pareigybių paiešką

  • standartizuoti interviu klausimus ir rezultatų suvestines

Jei bandysite nuo pat pirmos dienos atkurti įdarbinimo procesą nuo pradžios iki galo naudodami dirbtinį intelektą, galiausiai susidursite su Frankenšteino procesu. Techniškai jis veiks, bet visi jo nekęs. O tada jie jį apeis, o tai dar blogiau.

2 veiksmas: apibrėžkite „sėkmę“ ne tik greičiu

Greitis svarbu. Taigi, neverta greitai pasamdyti netinkamo žmogaus 😬. Trasa:

  • laikas iki pirmojo atsako

  • laikas iki sąrašo sudarymo

  • pokalbių ir pasiūlymų santykis

  • kandidatų pasitraukimo rodiklis

  • įdarbinimo kokybės rodikliai (įsibėgėjimo laikas, ankstyvi našumo signalai, išlaikymas)

  • atrankos dažnio skirtumai tarp grupių kiekviename etape

Jei matuosite tik greitį, optimizuosite pagal „greitą atmetimą“, o tai nėra tas pats, kas „geras įdarbinimas“.

3 veiksmas: užfiksuokite savo žmogiškuosius sprendimų taškus (užsirašykite juos)

Būkite skausmingai aiškūs:

  • kur dirbtinis intelektas gali pasiūlyti

  • kur žmonės turi nuspręsti

  • kur žmonės turi peržiūrėti pakeitimus (ir užfiksuoti, kodėl)

Praktinis kvapo testas: jei nepaisymo dažnis iš esmės lygus nuliui, jūsų „žmogus, dalyvaujantis kilpoje“, gali būti dekoratyvinis lipdukas.

4 veiksmas: pirmiausia atlikite šešėlio testą

Prieš tai, kai dirbtinio intelekto rezultatai paveikia tikrus kandidatus:

  • atlikti ankstesnių įdarbinimo ciklų tyrimą

  • palyginti rekomendacijas su faktiniais rezultatais

  • ieškokite tokių tendencijų kaip „puikūs kandidatai sistemingai reitinguojami žemai“

Sudėtinis pavyzdys (nes taip nutinka dažnai): modelis „mėgsta“ nuolatinį darbą ir baudžia karjeros pertraukas... o tai tyliai nuskriaudžia globėjus, po ligos grįžtančius žmones ir žmones, turinčius netiesinį kelią. Niekas neužkodavo „būti nesąžiningiems“. Duomenys tai padarė už jus. Šaunu, šaunu, šaunu.

5 veiksmas: išbandykite, tada lėtai plėskite

Geras pilotas apima:

  • įdarbintojų mokymai

  • samdančių vadovų kalibravimo sesijos

  • kandidatų informavimas (kas automatizuota, o kas ne)

  • klaidų ataskaitų teikimo kelias kraštutiniais atvejais

  • pakeitimų žurnalas (kas pasikeitė, kada, kas tai patvirtino)

Elkitės su pilotais kaip su laboratorija, o ne kaip su rinkodaros pristatymu 🎛️.


Kaip naudoti dirbtinį intelektą įdarbinant nepažeidžiant privatumo 🛡️

Privatumas – tai ne tik teisinis varnelių žymėjimas – tai kandidatų pasitikėjimas. O pasitikėjimas samdant ir taip yra trapus, būkime atviri.

Praktiniai privatumo užtikrinimo žingsniai:

  • Sumažinkite duomenų kiekį : nesiurbkite visko „tik dėl viso pikto“

  • Būkite aiškūs : informuokite kandidatus, kada naudojama automatizacija ir kokie duomenys yra naudojami.

  • Apriboti saugojimo laiką : apibrėžkite, kiek laiko pareiškėjo duomenys laikomi sistemoje

  • Saugi prieiga : vaidmenimis pagrįsti leidimai, audito žurnalai, tiekėjų valdikliai

  • Tikslo apribojimas : kandidatų duomenis naudoti įdarbinimui, o ne atsitiktiniams būsimiems eksperimentams

Jei samdote darbuotojus JK, ICO labai aiškiai nurodė, ko organizacijos turėtų paklausti prieš įsigydamos dirbtinio intelekto įdarbinimo įrankius, įskaitant ankstyvą poveikio duomenų apsaugai vertinimą (DPAV), sąžiningą / minimalų apdorojimo vykdymą ir aiškų kandidatų paaiškinimą, kaip naudojama jų informacija. [2]

Taip pat nepamirškite prieinamumo: jei dirbtiniu intelektu pagrįstas žingsnis blokuoja kandidatus, kuriems reikia specialių sąlygų, jūs sukūrėte barjerą. Tai nėra gerai etiškai, nėra gerai teisiškai, nėra gerai jūsų darbdavio įvaizdžiui. Trigubai blogai.


Šališkumas, sąžiningumas ir neglamūriškas stebėsenos darbas 📉🙂

Būtent čia dauguma komandų investuoja per mažai. Jos nusiperka įrankį, jį įjungia ir daro prielaidą, kad „tiekėjas susitvarkė su šališkumu“. Tai guodžianti istorija. Ji taip pat dažnai rizikinga.

Veiksminga sąžiningumo rutina atrodo taip:

  • Priešdislokavimo patvirtinimas : ką jis matuoja ir ar jis susijęs su darbu?

  • Neigiamo poveikio stebėsena : atrankos rodiklių stebėjimas kiekviename etape (paraiška → atranka → pokalbis → pasiūlymas)

  • Klaidų analizė : kur telkiasi klaidingai neigiami rezultatai?

  • Prieinamumo patikrinimai : ar apgyvendinimo sąlygos yra greitos ir pagarbios?

  • Driftiniai patikrinimai : keičiasi vaidmenų poreikiai, keičiasi darbo rinkos, keičiasi modeliai... jūsų stebėsena taip pat turėtų keistis.

O jei veikiate jurisdikcijose, kuriose galioja papildomos taisyklės: neprisekite atitikties vėliau. Pavyzdžiui, Niujorko vietos įstatymas Nr. 144 riboja tam tikrų automatizuotų įdarbinimo sprendimų priėmimo įrankių naudojimą, nebent būtų neseniai atliktas šališkumo auditas, apie tą auditą būtų viešai paskelbta informacija ir būtų pateikti privalomi pranešimai – įsigaliojimas prasidės 2023 m. [5].


Pardavėjo patikrinimo klausimai (pavogkite juos) 📝

Kai pardavėjas sako „pasitikėkite mumis“, išverskite tai kaip „parodykite mums“.

Klauskite:

  • Kokiais duomenimis tai buvo apmokyta ir kokie duomenys naudojami priimant sprendimą?

  • Kokios savybės lemia rezultatą? Ar galite tai paaiškinti kaip žmogus?

  • Kokį šališkumo testavimą atliekate – kurias grupes, kokius rodiklius?

  • Ar galime patys audituoti rezultatus? Kokias ataskaitas gauname?

  • Kaip kandidatai gauna žmogaus atliekamą vertinimą – darbo eiga + laiko grafikas?

  • Kaip tvarkotės su patalpomis? Ar yra kokių nors žinomų gedimų?

  • Saugumas + duomenų saugojimas: kur saugomi duomenys, kiek laiko, kas gali prie jų prieiti?

  • Pakeitimų valdymas: ar pranešate klientams, kai modeliai atnaujinami arba keičiasi vertinimas?

Taip pat: jei įrankis gali atmesti žmones, traktuokite jį kaip atrankos procedūrą ir atitinkamai elkitės. EEOC gairės yra gana tiesmukai pabrėžtos, kad darbdavio atsakomybė stebuklingai neišnyksta vien dėl to, kad „tai padarė tiekėjas“. [1]


Generatyvusis dirbtinis intelektas įdarbinant – saugūs, protingi naudojimo būdai (ir neigiamų sprendimų sąrašas) 🧠✨

Saugu ir labai naudinga

  • perrašykite darbo skelbimus, kad pašalintumėte nereikalingus dalykus ir pagerintumėte aiškumą

  • kurkite informacinių pranešimų juodraščius su suasmeninimo šablonais (prašome, rašykite žmogiškai 🙏)

  • apibendrinti pokalbio užrašus ir susieti juos su kompetencijomis

  • sukurkite struktūrizuotus interviu klausimus, susietus su pareigomis

  • kandidatų komunikacijos tvarkaraščiai, DUK, pasiruošimo gairės

Neigiamas sąrašas (arba bent jau „sulėtinkite tempą ir pergalvokite“)

  • naudojant pokalbių roboto transkripciją kaip paslėptą psichologinį testą

  • leisti dirbtiniam intelektui nuspręsti dėl „tinkamumo kultūrai“ (ši frazė turėtų sukelti pavojaus signalą)

  • socialinių tinklų duomenų rinkimas be aiškaus pagrindimo ir sutikimo

  • automatiškai atmetant kandidatus pagal neskaidrius balus be peržiūros kelio

  • verčiant kandidatus įveikti dirbtinio intelekto kliūtis, kurios nenumato darbo rezultatų

Trumpai tariant: kurkite turinį ir struktūrą – taip. Automatizuokite galutinį sprendimą – būkite atsargūs.


Baigiamosios pastabos – per ilga, neskaičiau 🧠✅

Jei nieko daugiau neprisimenate:

  • Pradėkite nuo mažų dalykų, pirmiausia išbandykite, įvertinkite rezultatus. 📌

  • Naudokite dirbtinį intelektą žmonėms padėti, o ne panaikinkite atsakomybę.

  • Dokumentuokite sprendimų priėmimo aspektus, patvirtinkite darbo aktualumą ir stebėkite sąžiningumą.

  • Rimtai vertinkite privatumo ir automatizuotų sprendimų apribojimus (ypač Jungtinėje Karalystėje).

  • Reikalaukite iš tiekėjų skaidrumo ir saugokite savo audito taką.

  • Geriausias dirbtinio intelekto įdarbinimo procesas atrodo labiau struktūrizuotas ir humaniškesnis, o ne šaltesnis.

Štai kaip naudoti dirbtinį intelektą įdarbinant, nesukuriant greitos, patikimos ir tuo pačiu metu klaidingos sistemos.


Nuorodos

[1] EEOC –
Pasirinktos temos: neigiamo poveikio vertinimas programinei įrangai, algoritmams ir dirbtiniam intelektui, naudojamai įdarbinimo procedūrose pagal VII antraštinę dalį (techninė pagalba, 2023 m. gegužės 18 d.) [2] ICO –
Galvojate naudoti dirbtinį intelektą įdarbinimo procese? Mūsų pagrindiniai duomenų apsaugos aspektai (2024 m. lapkričio 6 d.) [3] ICO –
Ką JK BDAR sako apie automatizuotą sprendimų priėmimą ir profiliavimą? [4] NIST –
Dirbtinio intelekto rizikos valdymo sistema (AI RMF 1.0) (2023 m. sausio mėn.) [5] Niujorko vartotojų ir darbuotojų apsaugos departamentas – Automatizuoti įdarbinimo sprendimų įrankiai (AEDT) / Vietos įstatymas 144

Raskite naujausią dirbtinį intelektą oficialioje dirbtinio intelekto asistentų parduotuvėje

Apie mus

Atgal į tinklaraštį