Փորձագետները պնդում են, որ AI-ի վրա աշխատող աշխատանքի հավաքագրման գործիքները չեն կարող բարելավել աշխատանքի ընդունման բազմազանությունը

topline

Աշխատանքի հավաքագրման գործիքները, որոնք պնդում են, որ օգտագործում են արհեստական ​​ինտելեկտը՝ գենդերային և ռասայական կողմնակալությունից խուսափելու համար, չեն կարող բարելավել աշխատանքի ընդունման բազմազանությունը և իրականում կարող են հավերժացնել այդ նախապաշարմունքները, պնդում են կիրակի Քեմբրիջի համալսարանի հետազոտողները՝ ներկայացնելով ծրագրերը, որոնք նախկինում քննադատության են արժանացել: որպես տեխնոլոգիայի օգտագործման միջոց՝ ավելի խորը խնդրի արագ լուծում առաջարկելու համար:

Հիմնական փաստեր

կողմից հրապարակված թղթում Փիլիսոփայություն և տեխնոլոգիա, հետազոտողները դիտարկել են մի քանի ընկերությունների պնդումները, որոնք առաջարկում են AI-ի վրա աշխատող հավաքագրման գործիքներ, որոնցից շատերը պնդում են, որ վերացնում են կողմնակալությունը և խթանում բազմազանությունը՝ թաքցնելով թեկնածուների անունները, սեռերը և այլ նույնացուցիչները, և որոնցից ոմանք համարում թեկնածուները՝ հիմնված ռեզյումեի սկանավորման, առցանց գնահատումների և դիմորդների խոսքի և դեմքի արտահայտությունների վերլուծության վրա:

Հետազոտողները՝ Քեմբրիջի համալսարանի Գենդերային հետազոտությունների կենտրոնի երկու պրոֆեսորներ, պնդում էին, որ այս գործիքներն իրականում կարող են նպաստել աշխատանքի ընդունելու միատեսակությանը, քանի որ դրանք վերարտադրում են «իդեալական թեկնածուի» մշակութային կողմնակալությունը, որը պատմականորեն եղել է սպիտակամորթ կամ եվրոպացի տղամարդիկ:

Գործիքները կարող են նաև չբարելավել բազմազանությունը, քանի որ դրանք հիմնված են ընկերության անցյալի տվյալների վրա և այդպիսով կարող են առաջ մղել թեկնածուներին, ովքեր առավել նման են ներկայիս աշխատակիցներին:

«Քիչ պատասխանատվություն կա այն բանի համար, թե ինչպես են կառուցվում կամ փորձարկվում այս ապրանքները», - ասաց Քեմբրիջի համալսարանի գենդերային հետազոտությունների կենտրոնի հետազոտող և հետազոտող Էլեոնոր Դրեյգը հայտարարության մեջ՝ հավելելով, որ տեխնոլոգիան կարող է ծառայել որպես «վտանգավոր»: «ապատեղեկատվության աղբյուրն այն մասին, թե ինչպես կարող է հավաքագրումը «անաչառ» լինել և դարձնել ավելի արդար»:

Վճռորոշ մեջբերում

«Պնդելով, որ ռասիզմը, սեքսիզմը և խտրականության այլ ձևերը կարող են զրկվել աշխատանքի ընդունման գործընթացից՝ օգտագործելով արհեստական ​​ինտելեկտը, այս ընկերությունները ռասայական և սեռը կրճատում են մինչև աննշան տվյալների կետեր, այլ ոչ թե իշխանության համակարգեր, որոնք ձևավորում են, թե ինչպես ենք մենք շարժվում աշխարհով մեկ: », - ասվում է Դրագեի հայտարարության մեջ:

Տանգենտ

Amazon-ը հայտարարել է 2018թ կասեցնել օգտագործելով արհեստական ​​ինտելեկտի հավաքագրման գործիք՝ աշխատանքի դիմողների ռեզյումեները վերանայելու համար այն բանից հետո, երբ պարզվեց, որ համակարգը խիստ խտրականություն է դրսևորում կանանց նկատմամբ: Դա պայմանավորված է նրանով, որ համակարգչային մոդելները, որոնց վրա նա հիմնվել է, մշակվել են վերջին 10 տարիների ընթացքում ընկերությանը ներկայացված ռեզյումեների հիման վրա, որոնք հիմնականում ստացվել են արական սեռի դիմորդներից:

Հիմնական նախապատմություն

Կազմակերպություններն ավելի ու ավելի են դիմել արհեստական ​​ինտելեկտին` օգնելու կառավարել աշխատանքի հավաքագրման գործընթացները: Մեկում 2020 թ Մարդկային ռեսուրսների ավելի քան 300 ղեկավարներից, որոնց մեջբերել են կիրակնօրյա թերթի հեղինակները, Gartner խորհրդատվական ընկերությունը պարզել է, որ գործատուների 86%-ն օգտագործում է վիրտուալ տեխնոլոգիաներ աշխատանքի ընդունելու իրենց պրակտիկաներում, մի միտում, որն արագացել է այն պահից, երբ Covid-19 համաճարակը ստիպեց շատերին փոխել աշխատանքը առցանց: Թեև որոշ ընկերություններ պնդում են, որ AI-ն կարող է առաջարկել ավելի ծախսերի և ժամանակի արդյունավետ աշխատանքի գործընթաց, ոմանք փորձագետները ունենալ հայտնաբերել Համակարգերը միտում ունեն խթանելու, այլ ոչ թե վերացնելու, ռասայական և գենդերային կողմնակալ աշխատանքի ընդունումը` կրկնելով առկա նախապաշարմունքները իրական աշխարհից: Մի քանի ԱՄՆ օրենսդիրներ ունեն ուղղված Արհեստական ​​ինտելեկտի համակարգերում կողմնակալության դեմ պայքարելու համար, քանի որ տեխնոլոգիան շարունակում է արագ զարգանալ, և քիչ օրենքներ կան այն կարգավորելու համար: Սպիտակ տունն այս շաբաթ հրապարակել է «AI-ի իրավունքների օրինագծի նախագիծ», որը պնդում է, որ աշխատանքի ընդունելու ժամանակ օգտագործվող ալգորիթմները «արտացոլում և վերարտադրում են գոյություն ունեցող անցանկալի անհավասարությունները» կամ ներդրում են նոր «կողմնակալություն և խտրականություն»: Նախագիծը, որը իրավաբանորեն պարտադիր չէ կամ պաշտոնական կառավարության քաղաքականություն, կոչ է անում ընկերություններին ապահովել, որ AI-ն խտրականություն չի դնում կամ չի խախտում տվյալների գաղտնիությունը, և օգտատերերին տեղեկացնել, թե երբ է օգտագործվում տեխնոլոգիան:

Ինչ դիտելու համար

Առաջարկությունների ցանկում կիրակի օրվա հեղինակները Փիլիսոփայություն և տեխնոլոգիա Թուղթը առաջարկել է ընկերություններին, որոնք զարգացնում են AI տեխնոլոգիաները, կենտրոնանալ ավելի լայն, համակարգված անհավասարությունների վրա՝ «կողմնակալության անհատականացված դեպքերի» փոխարեն: Օրինակ, նրանք առաջարկում են ծրագրային ապահովման մշակողներին ուսումնասիրել թեկնածուներին տեսակավորելու, մշակելու և դասակարգելու համար օգտագործվող կատեգորիաները և ինչպես կարող են այդ կատեգորիաները խթանել խտրականությունը՝ հենվելով սեռի և ռասայի վերաբերյալ որոշակի ենթադրությունների վրա: Հետազոտողները նաև պնդում են, որ HR մասնագետները պետք է փորձեն հասկանալ, թե ինչպես են աշխատում AI հավաքագրման գործիքները և որոնք են դրանց հնարավոր սահմանափակումները:

Զարմանալի փաստ

Եվրամիությունը AI-ի վրա աշխատող աշխատանքի ընդունման ծրագրակազմը և կատարողականի գնահատման գործիքները դասակարգել է որպես «բարձր ռիսկային» նախագիծը Արհեստական ​​ինտելեկտի վերաբերյալ իրավական դաշտը, ինչը նշանակում է, որ գործիքները կենթարկվեն ավելի մանրամասն ուսումնասիրության և պետք է համապատասխանեն համապատասխանության որոշակի պահանջներին:

Further Reading

DC-ն ցանկանում է ղեկավարել AI-ի կողմնակալության դեմ պայքարը (Axios)

Աղբյուր՝ https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/