Eksperti apgalvo, ka ar AI darbināmi darba meklēšanas rīki var neuzlabot darbā pieņemšanas dažādību

Augšējā līnija

Darba atlases rīki, kas apgalvo, ka izmanto mākslīgo intelektu, lai izvairītos no dzimuma un rasu aizspriedumiem, var neuzlabot darbā pieņemšanas dažādību un faktiski var saglabāt šos aizspriedumus, svētdien apgalvoja Kembridžas universitātes pētnieki, izvirzot programmas, kas pagātnē ir izpelnījušās kritiku. kā veidu, kā izmantot tehnoloģiju, lai piedāvātu ātru risinājumu dziļākai problēmai.

galvenie fakti

Rakstā, ko publicēja Filozofija un tehnoloģija, pētnieki aplūkoja apgalvojumus no vairākiem uzņēmumiem, kas piedāvā ar AI darbināmus personāla atlases rīkus, no kuriem daudzi apgalvo, ka tie novērš aizspriedumus un veicina daudzveidību, slēpjot kandidātu vārdus, dzimumus un citus identifikatorus, un daži no tiem rangs kandidāti, pamatojoties uz CV skenēšanu, tiešsaistes novērtējumiem un pretendentu runas un sejas izteiksmes analīzi.

Pētnieki — divi Kembridžas Universitātes Dzimumu pētījumu centra profesori — apgalvoja, ka šie rīki faktiski var veicināt vienveidību darbā pieņemšanā, jo tie atveido “ideālā kandidāta” kultūras aizspriedumus, kas vēsturiski ir bijuši baltie vai Eiropas vīrieši.

Šie rīki var arī neuzlabot daudzveidību, jo tie ir balstīti uz pagātnes uzņēmuma datiem un tādējādi var veicināt kandidātus, kuri ir vislīdzīgākie pašreizējiem darbiniekiem.

Ir "maza atbildība par to, kā šie produkti tiek veidoti vai pārbaudīti", Eleonora Drage, pētījuma līdzautore un pētniece Kembridžas Universitātes Dzimumu studiju centra paziņojumā, piebilstot, ka tehnoloģija varētu būt "bīstama". “dezinformācijas avots par to, kā darbā pieņemšanu var “neobjektīvi” un padarīt godīgāku.

Svarīgs citāts

"Apgalvojot, ka rasismu, seksismu un citus diskriminācijas veidus var izņemt no darbā pieņemšanas procesa, izmantojot mākslīgo intelektu, šie uzņēmumi samazina rasi un dzimumu līdz nenozīmīgiem datu punktiem, nevis varas sistēmām, kas nosaka to, kā mēs pārvietojamies pa pasauli. "Drežs teikts paziņojumā.

Tangenss

Amazon paziņoja, ka tas notiks 2018 apstāties izmantojot AI personāla atlases rīku, lai pārskatītu darba pretendentu CV pēc tam, kad tika konstatēts, ka sistēma ļoti diskriminē sievietes. Tas ir tāpēc, ka datoru modeļi, uz kuriem tas paļāvās, tika izstrādāti, pamatojoties uz CV, kas uzņēmumam tika iesniegti pēdējo 10 gadu laikā un kurus galvenokārt iesniedza vīrieši.

Pamatinformācija

Organizācijas arvien vairāk ir pievērsušās AI, lai palīdzētu pārvaldīt darbā pieņemšanas procesus. Vienā 2020 aptauja no vairāk nekā 300 cilvēkresursu vadītājiem, uz kuriem atsaucās svētdienas raksta autori, konsultāciju uzņēmums Gartner atklāja, ka 86% darba devēju savā darbā pieņemšanā izmanto virtuālās tehnoloģijas, un šī tendence ir paātrinājusies kopš Covid-19 pandēmijas, kas daudziem lika mainīt darbu tiešsaistē. Lai gan daži uzņēmumi ir apgalvojuši, ka AI var piedāvāt izmaksu un laika ziņā efektīvāku pieņemšanas procesu, daži Eksperti būt dibināt sistēmām ir tendence veicināt, nevis likvidēt, rasistisku un dzimumu neobjektīvu darbā pieņemšanu, atkārtojot esošos aizspriedumus no reālās pasaules. Vairāki ASV likumdevēji ir Mērķis lai novērstu aizspriedumus mākslīgā intelekta sistēmās, jo tehnoloģija turpina strauji attīstīties un ir maz likumu, kas to regulētu. Baltais nams šonedēļ izlaida “AI tiesību akta projekts”, kurā apgalvots, ka darbā pieņemšanā izmantotie algoritmi “atspoguļo un atveido esošo nevēlamo nevienlīdzību” vai iekļauj jaunu “neobjektivitāti un diskrimināciju”. Projektā, kas nav juridiski saistošs vai oficiāla valdības politika, uzņēmumi tiek aicināti nodrošināt, ka mākslīgais intelekts nediskriminē vai nepārkāpj datu privātumu, un informēt lietotājus par to, kad tehnoloģija tiek izmantota.

Ko skatīties

Ieteikumu sarakstā svētdienas autori Filozofija un tehnoloģija rakstā tika ieteikts uzņēmumiem, kas izstrādā AI tehnoloģijas, koncentrēties uz plašāku, sistemātisku nevienlīdzību, nevis uz "individuāliem neobjektivitātes gadījumiem". Piemēram, viņi iesaka programmatūras izstrādātājiem pārbaudīt kategorijas, ko izmanto kandidātu šķirošanai, apstrādei un kategorizēšanai, un to, kā šīs kategorijas var veicināt diskrimināciju, paļaujoties uz noteiktiem pieņēmumiem par dzimumu un rasi. Pētnieki arī apgalvo, ka personāla speciālistiem vajadzētu mēģināt saprast, kā darbojas AI personāla atlases rīki un kādi ir daži to iespējamie ierobežojumi.

Pārsteidzošs fakts

Eiropas Savienība ir klasificējusi ar AI darbinātu darbā pieņemšanas programmatūru un veiktspējas novērtēšanas rīkus kā “augsta riska” savā jaunajā projekts AI tiesiskais regulējums, kas nozīmē, ka rīki tiktu pakļauti rūpīgākai pārbaudei un tiem būtu jāatbilst noteiktām atbilstības prasībām.

Vēl lasu

DC vēlas vadīt cīņu pret AI aizspriedumiem (Axios)

Avots: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/