3 պատճառ, թե ինչու ձեր կազմակերպությունը արտաքին ալգորիթմների գնահատողների կարիք կունենա

Սատտա Սարմա-Հայթաուերի կողմից

Բիզնեսի առաջնորդները սեղմում են արհեստական ​​ինտելեկտի (AI) ողջ արժեքը: KPMG-ի 2021 թվականի ուսումնասիրությունը պարզում է Կառավարության, արդյունաբերական արտադրության, ֆինանսական ծառայությունների, մանրածախ առևտրի, կենսագիտության և առողջապահական բիզնեսի ղեկավարների մեծամասնությունը ասում է, որ AI-ն առնվազն չափավոր գործուն է իրենց կազմակերպություններում:. Ուսումնասիրությունը նաև պարզում է, որ հարցվածների կեսն ասում է, որ իրենց կազմակերպությունն արագացրել է AI-ի ընդունումը՝ ի պատասխան Covid-19 համաճարակի: Այն կազմակերպություններում, որտեղ AI-ն ընդունվել է, առնվազն կեսն ասում է, որ տեխնոլոգիան գերազանցել է սպասելիքները:

AI ալգորիթմներն ավելի ու ավելի են պատասխանատու այսօրվա մի շարք փոխազդեցությունների և նորարարությունների համար՝ սկսած անհատականացվածից: արտադրանքի առաջարկություններ և Հաճախորդների սպասարկում փորձը բանկերին վարկավորման որոշումներ եւ նույնիսկ ոստիկանության պատասխանը.

Բայց չնայած նրանց առաջարկած բոլոր առավելություններին, AI ալգորիթմները մեծ ռիսկեր են պարունակում, եթե դրանք արդյունավետորեն չեն վերահսկվում և չեն գնահատվում ճկունության, արդարության, բացատրելիության և ամբողջականության համար: Բիզնեսի առաջնորդներին AI-ի մոնիտորինգի և գնահատման հարցում օգնելու համար վերը նշված ուսումնասիրությունը ցույց է տալիս, որ ա Բիզնեսի առաջնորդների աճող թիվը ցանկանում է, որ կառավարությունը կարգավորի AI-ն, որպեսզի կազմակերպությունները թույլ տա ներդրումներ կատարել ճիշտ տեխնոլոգիաների և բիզնես գործընթացներում: Անհրաժեշտ աջակցության և վերահսկողության համար խելամիտ է հաշվի առնել արտաքին գնահատականները, որոնք առաջարկվում են ծառայություններ մատուցողի կողմից, որն ունի նման ծառայությունների մատուցման փորձ: Ահա երեք պատճառ, թե ինչու.

1. Ալգորիթմները «սև արկղեր» են

AI ալգորիթմները, որոնք սովորում են տվյալներից՝ խնդիրներ լուծելու և առաջադրանքները օպտիմալացնելու համար, համակարգերն ավելի խելացի են դարձնում՝ հնարավորություն տալով նրանց հավաքել և ստեղծել պատկերացումներ շատ ավելի արագ, քան մարդիկ երբևէ կարող էին:

Այնուամենայնիվ, որոշ շահագրգիռ կողմեր ​​այս ալգորիթմները համարում են «սև արկղեր», - բացատրում է Drew Rosen-ը, KPMG-ի աուդիտի գործադիր տնօրենը, որը պրոֆեսիոնալ ծառայությունների առաջատար ընկերություն է: Մասնավորապես, որոշ շահագրգիռ կողմեր ​​կարող են չհասկանալ, թե ինչպես է ալգորիթմը եկել որոշակի որոշման և, հետևաբար, կարող են վստահ չլինել այդ որոշման արդարացիության կամ ճշտության մեջ:

«Ալգորիթմից քաղված արդյունքները կարող են հակված լինել կողմնակալության և արդյունքների սխալ մեկնաբանման», - ասում է Ռոզենը: «Դա կարող է նաև որոշակի ռիսկերի հանգեցնել կազմակերպության համար, քանի որ նրանք օգտագործում են այդ արդյունքները և կիսում [դրանք] հանրության և նրանց շահագրգիռ կողմերի հետ»:

Ալգորիթմը, որն օգտագործում է սխալ տվյալներ, օրինակ, լավագույն դեպքում անարդյունավետ է, իսկ վատագույն դեպքում՝ վնասակար: Ինչպիսի՞ն կարող է լինել դա գործնականում: Դիտարկենք AI-ի վրա հիմնված չաթ-բոտը, որը օգտատերերին տրամադրում է հաշվի սխալ տեղեկատվություն կամ թարգմանության ավտոմատացված գործիք, որը սխալ է թարգմանում տեքստը: Երկու դեպքերն էլ կարող են հանգեցնել լուրջ սխալների կամ սխալ մեկնաբանությունների պետական ​​կառույցների կամ ընկերությունների, ինչպես նաև այն բաղադրիչների և հաճախորդների համար, ովքեր հիմնվում են այդ ալգորիթմների կողմից ընդունված որոշումների վրա:

Սև արկղերի խնդրի մեկ այլ ներդրում այն ​​է, երբ բնածին կողմնակալությունը ներթափանցում է AI մոդելների մշակման մեջ՝ պոտենցիալ առաջացնելով կողմնակալ որոշումներ կայացնել: Վարկային վարկատուները, օրինակ, ավելի ու ավելի են օգտագործում AI-ն՝ կանխատեսելու պոտենցիալ վարկառուների վարկային արժանիքները՝ վարկավորման վերաբերյալ որոշումներ կայացնելու համար: Այնուամենայնիվ, ռիսկ կարող է առաջանալ, երբ AI-ի հիմնական մուտքերը, ինչպիսիք են պոտենցիալ վարկառուի վարկային միավորը, ունի նյութական սխալ, ինչը հանգեցնում է նրան, որ այդ անհատները մերժվում են վարկերի տրամադրման հարցում:

Սա ընդգծում է արտաքին գնահատողի անհրաժեշտությունը, որը կարող է ծառայել որպես անկողմնակալ գնահատող և տրամադրել կենտրոնացված գնահատական՝ հիմնված ընդունված չափանիշների վրա, պատմական տվյալների և ենթադրությունների համապատասխանության և հավաստիության, որոնք ապահովում են ալգորիթմը:

2. Շահագրգիռ կողմերը և կարգավորողները պահանջում են թափանցիկություն

2022 թվականին պատասխանատու AI-ի համար հաշվետվության ընթացիկ պահանջներ չկային: Այնուամենայնիվ, ասում է Ռոզենը, «ճիշտ այնպես, ինչպես ղեկավար մարմինները ներմուծեցին ESG [բնապահպանական, սոցիալական և կառավարման] կարգավորումը հաշվետվություն որոշակի ESG ցուցանիշների մասին, միայն ժամանակի հարց է, որ մենք տեսնում ենք լրացուցիչ կանոնակարգման հաշվետվությունների պահանջներ պատասխանատու AI-ի համար»:

Փաստորեն, ուժի մեջ է մտնում 1 թվականի հունվարի 2023-ից, Նյու Յորքում Տեղական օրենք 144 պահանջում է, որ կողմնակալության աուդիտ իրականացվի զբաղվածության որոշման ավտոմատացված գործիքի վրա, նախքան այն օգտագործելը:

Իսկ դաշնային մակարդակում, Ազգային արհեստական ​​ինտելեկտի նախաձեռնության ակտ 2020 թ— որը հիմնվում է ա 2019 թվականի գործադիր հրաման— կենտրոնանում է AI տեխնիկական ստանդարտների և ուղեցույցների վրա: Բացի այդ, Ալգորիթմական հաշվետվողականության ակտ կարող է պահանջել որոշումների ավտոմատացված համակարգերի ազդեցության գնահատում և ընդլայնված կարևոր որոշումների գործընթացներ: Իսկ արտերկրում, Արհեստական ​​ինտելեկտի մասին ակտ առաջարկվել է՝ առաջարկելով համապարփակ կարգավորիչ շրջանակ՝ AI անվտանգության, համապատասխանության, կառավարման և վստահելիության վերաբերյալ հատուկ նպատակներով:

Այս տեղաշարժերով կազմակերպությունները գտնվում են կառավարման մանրադիտակի տակ: Ալգորիթմի գնահատողը կարող է տրամադրել այնպիսի հաշվետվություններ, որոնք կբավարարեն կարգավորող պահանջները և կբարձրացնեն շահագրգիռ կողմերի թափանցիկությունը՝ միաժամանակ խուսափելով շահագրգիռ կողմերի սխալ մեկնաբանման կամ սխալ մեկնաբանման ռիսկից: մոլորեցրեց գնահատման արդյունքներով։

3. Ընկերությունները շահում են երկարաժամկետ ռիսկերի կառավարումից

Սթիվ Կամարան՝ KPMG-ի տեխնոլոգիաների ապահովման պրակտիկայի գործընկերը, կանխատեսում է, որ AI ներդրումները կշարունակեն աճել, քանի որ կազմակերպությունները կշարունակեն ավտոմատացնել գործընթացները, զարգացնել նորարարություններ, որոնք բարելավում են հաճախորդների փորձը և բաշխելով AI-ի զարգացումը բիզնես գործառույթների մեջ: Մրցունակ և շահութաբեր մնալու համար կազմակերպություններին անհրաժեշտ կլինեն արդյունավետ հսկողություն, որը ոչ միայն կվերացնի AI-ի անմիջական թերությունները, այլև նվազեցնում է AI-ի վրա հիմնված բիզնես գործառնությունների հետ կապված երկարաժամկետ ռիսկերը:

Այստեղ է, որ արտաքին գնահատողները հանդես են գալիս որպես վստահելի, խելամիտ ռեսուրս: Քանի որ կազմակերպություններն ավելի ու ավելի են ընդունում արհեստական ​​ինտելեկտի ամբողջականությունը որպես բիզնեսի հնարավորություն, գործընկերությունը կարող է դառնալ ավելի քիչ ժամանակավոր ծառայություն և ավելի շատ հետևողական համագործակցություն, բացատրում է Կամարան:

«Մենք տեսնում ենք առաջընթացի ուղի, որտեղ անհրաժեշտ կլինի շարունակական հարաբերություններ ունենալ այն կազմակերպությունների միջև, որոնք զարգացնում և գործարկում են AI-ն շարունակական հիմունքներով, և օբյեկտիվ արտաքին գնահատողի միջև», - ասում է նա:

Հայացք դեպի այն, ինչ հաջորդում է

Ապագայում կազմակերպությունները կարող են օգտագործել արտաքին գնահատումները ավելի շատ ցիկլային հիմունքներով, երբ նրանք մշակում են նոր մոդելներ, ներթափանցում են տվյալների նոր աղբյուրներ, ինտեգրում են երրորդ կողմի վաճառող լուծումները կամ նավարկելու համապատասխանության նոր պահանջները, օրինակ:

Երբ պահանջվում են լրացուցիչ կանոնակարգման և համապատասխանության պահանջներ, արտաքին գնահատողները կարող են ծառայություններ մատուցել ուղղակիորեն գնահատելու համար, թե կազմակերպությունը որքան լավ է կիրառել կամ օգտագործել AI-ն այդ պահանջների հետ կապված: Այս գնահատողներն այնուհետև լավագույն դիրքերում կլինեն գնահատման արդյունքները կիսելու համար հստակ և հետևողական ձևով:

Տեխնոլոգիան շահագործելու համար, միևնույն ժամանակ դրա սահմանափակումներից պաշտպանվելու համար, կազմակերպությունը պետք է փնտրի արտաքին գնահատողներ՝ հաշվետվություններ տրամադրելու համար, որոնց վրա կարող է ապավինել ալգորիթմների կիրառման ժամանակ ավելի մեծ թափանցիկություն ցուցաբերելու համար: Այդտեղից և՛ կազմակերպությունը, և՛ շահագրգիռ կողմերը կարող են ավելի լավ հասկանալ AI-ի ուժը և դրա սահմանափակումները:

Աղբյուր՝ https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/