Պատասխանատու AI-ն վայելում է ակնառու խթանում AI-ի էթիկայի հայտարարության միջոցով՝ ACM-ի բարձրագույն մասնագիտական ​​հասարակության կողմից

Լուրը տեսե՞լ եք, թե՞ լսել։

Արհեստական ​​ինտելեկտի էթիկայի կանոնների ևս մեկ շարք նոր է հռչակվել:

Եթե ​​խնդրեմ, բուռն ծափահարություններ:

Հետո նորից, դուք կարող եք Նշում նկատել են դա՝ պայմանավորված այն հանգամանքով, որ արհեստական ​​ինտելեկտի էթիկայի բազմաթիվ այլ որոշումներ արդեն երկար ժամանակ տարածվում են: Ոմանք ասում են, որ էթիկական արհեստական ​​ինտելեկտի հայտարարությունների թվացյալ անդադար ներթափանցումը դառնում է մի փոքր անզգայացնող: Քանի՞սն է մեզ պետք: Կարո՞ղ է որևէ մեկը հետևել նրանց բոլորին: Ո՞րն է լավագույնը: Արդյո՞ք մենք գերազանցում ենք AI-ի էթիկայի սկզբունքները: Եվ այսպես շարունակ։

Դե, կոնկրետ այս դեպքում ես ասում եմ, որ մենք պետք է հատկապես ողջունենք ակումբի այս վերջին համալրումը:

Մի պահ խորաթափանց կերպով կբացատրեմ, թե ինչու:

Նախ, որպես պարզաբանում, ես նկատի ունեմ AI-ի էթիկայի կանոնները, որոնք այժմ պաշտոնապես հայտնի են որպես ««Պատասխանատու ալգորիթմական համակարգերի սկզբունքների մասին» հայտարարություն». որը վերջերս հրապարակվել է ACM-ի տեխնոլոգիական քաղաքականության խորհրդի կողմից 26 թվականի հոկտեմբերի 2022-ին: Փառք եմ տալիս փորձագետների թիմերին, որոնք հավաքել են այս արժեքավոր փաստաթուղթը, ներառյալ համահեղինակներ Ջինա Մեթյուզը (Clarkson համալսարան) և Ռիկարդո Բաեզա-Յեյթսը (Universitat Pompeu Fabra): )

Ձեզանից նրանք, ովքեր գիտեն, կարող են ուշադիր ուսումնասիրելիս հասկանալ, որ այս փաստաթուղթը թույլ ծանոթ է թվում:

Բարի աչք!

Այս վերջին մարմնավորումը, ըստ էության, ավելի վաղ համատեղ «Ալգորիթմական թափանցիկության և հաշվետվողականության մասին հայտարարության» թարմացված և ընդլայնված տարբերակն է, որը հրապարակվել է ACM ԱՄՆ տեխնոլոգիական քաղաքականության կոմիտեի և ACM Եվրոպայի տեխնոլոգիական քաղաքականության կոմիտեի կողմից 2017 թվականին: Իմ սյունակների հավատարիմ ընթերցողները կարող են հիշել, որ Ես ժամանակ առ ժամանակ նշել եմ 2017 թվականի հրամանագիրը AI-ի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի հիմքում ընկած հիմնական կողմերի իմ սյունակում:

AI-ի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի իմ ընդարձակ և շարունակական գնահատման և տենդենցային վերլուծությունների համար տե՛ս հղումն այստեղ և հղումն այստեղ, պարզապես մի քանի անուն:

ACM-ի այս վերջին հայտարարությունը հատկապես կարևոր է մի քանի կենսական պատճառներով:

Ահա թե ինչու:

ACM-ը, որը հարմար հապավում է Համակարգչային տեխնիկայի ասոցիացիա, համարվում է աշխարհի ամենամեծ հաշվողական ասոցիացիան։ ACM-ը, որը բաղկացած է մոտ 110,000 անդամներից, երկարամյա ռահվիրա է հաշվողական ոլորտում: ACM-ն արտադրում է հաշվողական ոլորտում ամենաբարձր գիտական ​​հետազոտություններից մի քանիսը, ինչպես նաև ապահովում է պրոֆեսիոնալ ցանցեր և կոչ է անում նաև հաշվողական պրակտիկանտներին: Որպես այդպիսին, ACM-ը կարևոր ձայն է, որը ներկայացնում է, ընդհանուր առմամբ, բարձր տեխնոլոգիաներ ունեցողները և համառորեն ձգտել է առաջ մղել համակարգչային ոլորտը (ACM-ը հիմնադրվել է 1947 թվականին):

Սրա վերաբերյալ կարող եմ նաև մի փոքր անձնական նշում ավելացնել: Երբ ես առաջին անգամ ընդունվեցի համակարգիչներ ավագ դպրոցում, միացա ACM-ին և մասնակցեցի նրանց կրթական ծրագրերին, հատկապես համակարգչային ծրագրավորման իրենց ամենամյա մրցույթին մասնակցելու հետաքրքիր հնարավորությունը (այսպիսի մրցույթները մեր օրերում շատ տարածված են և սովորաբար պիտակավորված են որպես հաքաթոններ) Ես շարունակում եմ ներգրավված լինել ACM-ում, երբ քոլեջում էի իմ տեղական համալսարանի մասնաճյուղի միջոցով և հնարավորություն ստացա սովորել առաջնորդության մասին՝ դառնալով ուսանողական բաժնի սպա: Արդյունաբերություն մուտք գործելուց հետո ես միացա պրոֆեսիոնալ մասնաճյուղին և կրկին ստանձնեցի առաջնորդի դերը: Դրանից հետո, երբ ես դարձա պրոֆեսոր, ծառայում էի ACM կոմիտեներում և խմբագրական խորհուրդներում, ինչպես նաև հովանավորում էի համալսարանի ուսանողական բաժինը: Նույնիսկ այսօր ես ակտիվ եմ ACM-ում, ներառյալ ACM ԱՄՆ-ի տեխնոլոգիական քաղաքականության հանձնաժողովում:

Ես վայելում եմ ACM-ի դուրեկան և հարատև տեսլականը ողջ կյանքի ընթացքում ուսուցման և կարիերայի զարգացման մասին:

Ամեն դեպքում, AI-ի էթիկայի վերջին հայտարարության առումով, այն փաստը, որ դա հրապարակվել է ACM-ի կողմից, որոշակի ծանրակշիռ կշիռ ունի դրա համար: Դուք կարող եք ողջամտորեն պնդել, որ Արհեստական ​​ինտելեկտի էթիկական կանոնները համակարգչային մասնագետների համաշխարհային խմբի ամբողջականությունն են կամ հավաքական ձայնը: Դա ինչ-որ բան ասում է հենց այնտեղ:

Կա նաև այն կողմը, որ համակարգչային ոլորտի մյուսները ոգեշնչված կլինեն ոգևորվելու և լսելու՝ պատշաճ ուշադրություն դարձնելու այն բանին, թե ինչ են հայտարարում իրենց գործընկեր հաշվողական գործընկերների կողմից: Այսպիսով, նույնիսկ նրանց համար, ովքեր ACM-ում չեն կամ որևէ բան չգիտեն հարգված խմբի մասին, հուսով ենք, որ մեծ հետաքրքրություն կլինի բացահայտելու, թե ինչի մասին է հայտարարությունը:

Մինչդեռ նրանք, որոնք են դուրս հաշվողական դաշտը կարող է ներգրավվել այս հայտարարության մեջ, որպես մի տեսակ կուլիսային ինսայդերական հայացք, թե ինչ են ասում համակարգիչները Էթիկական AI-ի մասին: Այնուամենայնիվ, ես ուզում եմ ընդգծել, որ հայտարարությունը նախատեսված է բոլորի համար, ոչ միայն նրանց համար, ովքեր համակարգչային համայնքում են, և, հետևաբար, նկատի ունեցեք, որ արհեստական ​​ինտելեկտի էթիկայի կանոնները, ինչպես որ երևում է, ընդհանուր են:

Վերջապես, կա լրացուցիչ շրջադարձ, որը քչերը կմտածեն:

Երբեմն կողմնակի մարդիկ հաշվողական ասոցիացիաներն ընկալում են որպես տեխնոլոգիայի մեջ մինչև ծնկների խորքերը և հատկապես չեն գիտակցում համակարգիչների և AI-ի սոցիալական ազդեցությունները: Դուք կարող եք գայթակղվել ենթադրելու, որ նման մասնագիտական ​​կազմակերպությունները մտածում են միայն ապարատային կամ ծրագրային ապահովման ոլորտում վերջին և ամենաթեժ առաջընթացների մասին: Նրանք հանրության կողմից ընկալվում են որպես տեխնոլոգիական խելագարներ, ուղղակի կոպիտ ձևով:

Արձանագրությունը պարզելու համար, ես ընկղմված եմ հաշվողականության սոցիալական ազդեցությունների մեջ այն պահից, երբ ես առաջին անգամ սկսեցի աշխատել համակարգիչներում, և նմանապես, ACM-ը նույնպես խորապես ներգրավված էր նման թեմաներով:

Բոլոր նրանց համար, ովքեր զարմացած են, որ արհեստական ​​ինտելեկտի էթիկայի կանոնների մասին այս հայտարարությունը հավաքվել և հրապարակվել է ACM-ի կողմից, նրանք ուշադրություն չեն դարձնում այս հարցերի շուրջ կատարվող երկարատև հետազոտություններին և աշխատանքին: Նաև կհորդորեմ, որ հետաքրքրվողները լավ նայեն ACM-ին Էթիկայի կանոններ, մասնագիտական ​​էթիկայի խիստ կոդեքս, որը զարգացել է տարիների ընթացքում և ընդգծում է, որ համակարգերի մշակողները պետք է տեղյակ լինեն, հետևեն և զգոն լինեն իրենց ջանքերի և ապրանքների էթիկական հետևանքների նկատմամբ:

Արհեստական ​​ինտելեկտը բորբոքել է հրդեհները՝ տեղեկացված լինելով հաշվողական էթիկայի մասին:

Հաշվողական ոլորտում էթիկական և իրավական նկատառումների տեսանելիությունը ահռելիորեն բարձրացել է այսօրվա AI-ի ի հայտ գալուն զուգընթաց: Մասնագիտության մեջ գտնվողները տեղեկացվում և երբեմն թմբկահարվում են արհեստական ​​ինտելեկտի էթիկայի և AI օրենքի հարցերին պատշաճ ուշադրություն դարձնելու մասին: Օրենսդիրներն ավելի ու ավելի են գիտակցում արհեստական ​​ինտելեկտի էթիկայի և AI օրենքների ասպեկտները: Ընկերությունները գիտակցում են, որ արհեստական ​​ինտելեկտը, որը նրանք մշակում կամ օգտագործում են, և՛ ձեռնտու է, և՛ երբեմն բացում է հսկայական ռիսկեր և պոտենցիալ բացասական կողմեր:

Եկեք բացենք այն, ինչ տեղի է ունեցել վերջին մի քանի տարիների ընթացքում, որպեսզի կարողանանք ստեղծել համապատասխան համատեքստ՝ նախքան AI-ի էթիկայի այս վերջին փաթեթին անցնելը:

Էթիկական AI-ի մասին իրազեկության բարձրացում

AI-ի վերջին դարաշրջանը ի սկզբանե դիտվում էր որպես գոյություն AI For Good, ինչը նշանակում է, որ մենք կարող ենք AI-ն օգտագործել մարդկության բարելավման համար: -ի կրունկների վրա AI For Good եկավ այն գիտակցումը, որ մենք նույնպես խորասուզված ենք AI For Bad. Սա ներառում է արհեստական ​​ինտելեկտը, որը ստեղծվել կամ ինքնափոխվել է՝ դառնալով խտրական և կատարում է հաշվարկային ընտրություն՝ ներծծելով անհարկի կողմնակալություններ: Երբեմն արհեստական ​​ինտելեկտը կառուցվում է այդպես, մինչդեռ այլ դեպքերում այն ​​շեղվում է դեպի այդ անբարենպաստ տարածք:

Ես ուզում եմ առատորեն համոզվել, որ մենք նույն էջում ենք այսօրվա AI-ի բնույթի վերաբերյալ:

Այսօր չկա որևէ AI, որը զգայուն է: Մենք սա չունենք: Մենք չգիտենք, թե արդյոք հնարավո՞ր է խելացի AI-ն: Ոչ ոք չի կարող տեղին կանխագուշակել, թե արդյոք մենք կհասնենք խելամիտ AI-ին, և ոչ էլ արդյոք զգայական AI-ն ինչ-որ կերպ հրաշքով ինքնաբերաբար կառաջանա հաշվողական ճանաչողական գերնոր աստղի տեսքով (սովորաբար կոչվում է եզակիություն, տե՛ս իմ լուսաբանումը այստեղ. հղումն այստեղ).

AI-ի տեսակը, որի վրա ես կենտրոնանում եմ, բաղկացած է ոչ զգայուն AI-ից, որն այսօր ունենք: Եթե ​​մենք ցանկանայինք խելամիտ ենթադրություններ անել խելացի արհեստական ​​ինտելեկտի մասին, ապա այս քննարկումը կարող էր գնալ արմատապես այլ ուղղությամբ: Զգացող AI-ն ենթադրաբար մարդկային որակի կլիներ: Դուք պետք է հաշվի առնեք, որ զգայուն AI-ն մարդու ճանաչողական համարժեքն է: Ավելին, քանի որ ոմանք ենթադրում են, որ մենք կարող ենք ունենալ գերխելացի AI, կարելի է պատկերացնել, որ նման AI-ն կարող է ավելի խելացի լինել, քան մարդիկ (որպես հնարավոր է գերխելացի AI-ի իմ ուսումնասիրությունը տե՛ս. լուսաբանումն այստեղ).

Ես խստորեն կառաջարկեի, որ մենք ամեն ինչ ցած պահենք և հաշվի առնենք այսօրվա հաշվողական ոչ զգայուն AI-ն:

Գիտակցեք, որ այսօրվա AI-ն ի վիճակի չէ «մտածել» մարդկային մտածողությանը հավասար: Երբ դուք շփվում եք Alexa-ի կամ Siri-ի հետ, խոսակցական կարողությունները կարող են նման լինել մարդկային կարողություններին, բայց իրականությունն այն է, որ այն հաշվողական է և չունի մարդկային ճանաչողություն: AI-ի վերջին դարաշրջանը լայնորեն օգտագործել է մեքենայական ուսուցում (ML) և Deep Learning (DL), որոնք օգտագործում են հաշվողական օրինաչափությունների համընկնումը: Սա հանգեցրել է արհեստական ​​ինտելեկտի համակարգերի, որոնք ունեն մարդու նման հակումների տեսք: Միևնույն ժամանակ, այսօր չկա որևէ արհեստական ​​բանականություն, որն ունի ողջամտության նմանություն և ոչ էլ ունի ուժեղ մարդկային մտածողության ճանաչողական հրաշք:

Շատ զգույշ եղեք այսօրվա արհեստական ​​ինտելեկտը մարդաբանական դարձնելուց:

ML/DL-ը հաշվողական օրինաչափությունների համապատասխանության ձև է: Սովորական մոտեցումն այն է, որ դուք հավաքում եք տվյալներ որոշումներ կայացնելու առաջադրանքի վերաբերյալ: Դուք սնուցում եք տվյալները ML/DL համակարգչային մոդելների մեջ: Այդ մոդելները ձգտում են գտնել մաթեմատիկական օրինաչափություններ: Այդպիսի օրինաչափություններ գտնելուց հետո, եթե գտնվեն, ապա արհեստական ​​ինտելեկտի համակարգը կօգտագործի այդ օրինաչափությունները նոր տվյալների հանդիպելիս: Նոր տվյալների ներկայացումից հետո «հին» կամ պատմական տվյալների վրա հիմնված օրինաչափությունները կիրառվում են ընթացիկ որոշում կայացնելու համար:

Կարծում եմ, դուք կարող եք կռահել, թե ուր է սա գնում: Եթե ​​մարդիկ, ովքեր որոշումներ են կայացնում, իրենց մեջ ներդնում են անբարենպաստ կողմնակալություն, ապա հավանականությունն այն է, որ տվյալներն արտացոլում են դա նուրբ, բայց նշանակալի ձևերով: Մեքենայի ուսուցումը կամ խորը ուսուցման հաշվողական օրինաչափությունների համընկնումը պարզապես կփորձի համապատասխանաբար մաթեմատիկորեն նմանակել տվյալները: Առողջ դատողության կամ AI-ի կողմից ստեղծված մոդելավորման այլ զգալի ասպեկտներ ինքնին չկա:

Ավելին, AI մշակողները նույնպես կարող են չհասկանալ, թե ինչ է կատարվում: ML/DL-ի գաղտնի մաթեմատիկան կարող է դժվարացնել այժմ թաքնված կողմնակալությունների բացահայտումը: Դուք իրավամբ հույս կունենաք և ակնկալում եք, որ AI մշակողները կփորձարկեն պոտենցիալ թաղված կողմնակալության համար, թեև դա ավելի բարդ է, քան կարող է թվալ: Կա մեծ հավանականություն, որ նույնիսկ համեմատաբար լայնածավալ փորձարկումների դեպքում, ML/DL-ի օրինաչափություններին համապատասխանող մոդելներում դեռևս առկա կլինեն կողմնակալություններ:

Դուք կարող եք ինչ-որ չափով օգտագործել աղբի մեջ աղբի դուրս գալու հայտնի կամ տխրահռչակ ասացվածքը: Բանն այն է, որ սա ավելի շատ նման է կողմնակալություններին, որոնք նենգորեն ներարկվում են որպես AI-ի մեջ ընկղմված կողմնակալություններ: AI-ի որոշումների կայացման ալգորիթմը (ADM) աքսիոմատիկորեն ծանրաբեռնված է անհավասարություններով:

Ոչ լավ.

Այս ամենը ունի զգալի AI-ի էթիկայի հետևանքներ և առաջարկում է հարմար պատուհան դեպի քաղված դասեր (նույնիսկ մինչ բոլոր դասերը տեղի կունենան), երբ խոսքը վերաբերում է AI-ի օրենսդրական հաստատման փորձին:

Բացի արհեստական ​​ինտելեկտի էթիկայի կանոնների կիրառումից, ընդհանուր առմամբ, կա համապատասխան հարց, թե արդյոք մենք պետք է ունենանք AI-ի տարբեր կիրառություններ կարգավորող օրենքներ: Նոր օրենքներ են մշակվում դաշնային, նահանգային և տեղական մակարդակներում, որոնք վերաբերում են արհեստական ​​ինտելեկտի մշակման տիրույթին և բնույթին: Նման օրենքներ մշակելու և ընդունելու ջանքերը աստիճանաբար են ընթանում: AI-ի էթիկան ծառայում է որպես նվազագույնը հաշվի առնելով, և գրեթե անկասկած որոշ չափով ուղղակիորեն կներառվի այդ նոր օրենքներում:

Տեղյակ եղեք, որ ոմանք համառորեն պնդում են, որ մեզ պետք չեն նոր օրենքներ, որոնք ընդգրկում են արհեստական ​​ինտելեկտը, և որ մեր գործող օրենքները բավարար են: Նրանք նախազգուշացնում են, որ եթե մենք հաստատենք AI-ի այս օրենքներից մի քանիսը, մենք կսպանենք ոսկե սագին՝ ճնշելով արհեստական ​​ինտելեկտի առաջընթացը, որը հսկայական հասարակական առավելություններ է տալիս:

Նախորդ սյունակներում ես անդրադարձել եմ արհեստական ​​ինտելեկտը կարգավորող օրենքներ ստեղծելու և ընդունելու ազգային և միջազգային տարբեր ջանքերին, տես. հղումն այստեղ, օրինակ. Ես նաև անդրադարձել եմ արհեստական ​​ինտելեկտի էթիկայի տարբեր սկզբունքներին և ուղեցույցներին, որոնք տարբեր ազգեր հայտնաբերել և ընդունել են, ներառյալ, օրինակ, Միավորված ազգերի կազմակերպության ջանքերը, ինչպիսին է ՅՈՒՆԵՍԿՕ-ի Արհեստական ​​ինտելեկտի էթիկայի փաթեթը, որը ընդունել է մոտ 200 երկիր, տես. հղումն այստեղ.

Ահա AI համակարգերի վերաբերյալ Էթիկական AI չափանիշների կամ բնութագրերի օգտակար հիմնական ցուցակը, որը ես նախկինում մանրամասն ուսումնասիրել եմ.

  • Թափանցիկություն
  • Արդարություն և արդարություն
  • Ոչ չարամտություն
  • պատասխանատվություն
  • Գաղտնիության
  • Բարեգործություն
  • Ազատություն և ինքնավարություն
  • Վստահեք
  • Կայունություն
  • Արժանապատվություն
  • Համերաշխություն

Արհեստական ​​ինտելեկտի էթիկայի այդ սկզբունքները լրջորեն պետք է օգտագործվեն արհեստական ​​ինտելեկտի մշակողների կողմից, ինչպես նաև նրանք, ովքեր ղեկավարում են AI-ի զարգացման ջանքերը, և նույնիսկ նրանք, որոնք, ի վերջո, կիրառում և պահպանում են AI համակարգերը:

Բոլոր շահագրգիռ կողմերը AI-ի զարգացման և օգտագործման ողջ ցիկլի ընթացքում համարվում են Էթիկական AI-ի հաստատված նորմերին պահպանելու շրջանակում: Սա կարևոր կետ է, քանի որ սովորական ենթադրությունն այն է, որ «միայն կոդավորողները» կամ նրանք, ովքեր ծրագրավորում են AI-ն, ենթակա են հավատարիմ մնալու AI-ի էթիկայի հասկացություններին: Ինչպես նախկինում ընդգծվել է այստեղ, AI մշակելու և մշակելու համար անհրաժեշտ է գյուղ, և որի համար ամբողջ գյուղը պետք է տիրապետի և ենթարկվի AI-ի էթիկայի կանոններին:

Ես նաև վերջերս ուսումնասիրեցի AI իրավունքների օրինագիծ որը ԱՄՆ կառավարության պաշտոնական փաստաթղթի պաշտոնական վերնագիրն է` «Blueprint for an AI Bill of Rights. ) OSTP-ն դաշնային կազմակերպություն է, որը ծառայում է Ամերիկայի նախագահին և ԱՄՆ Գործադիր գրասենյակին ազգային նշանակության տարբեր տեխնոլոգիական, գիտական ​​և ինժեներական ասպեկտների վերաբերյալ խորհրդատվություն տալու համար: Այդ առումով կարելի է ասել, որ այս AI-ի իրավունքների օրինագիծը փաստաթուղթ է, որը հաստատվել և հաստատվել է ԱՄՆ գործող Սպիտակ տան կողմից:

AI-ի իրավունքների օրինագծում կան հինգ հիմնական կատեգորիաներ.

  • Անվտանգ և արդյունավետ համակարգեր
  • Ալգորիթմական խտրականության պաշտպանություն
  • Տվյալների գաղտնիություն
  • Ծանուցում և բացատրություն
  • Մարդկային այլընտրանքներ, նկատառում և հետընթաց

Ես ուշադիր վերանայել եմ այդ կանոնները, տես հղումն այստեղ.

Այժմ, երբ ես օգտակար հիմք եմ դրել այս առնչվող AI էթիկայի և AI օրենքի թեմաների վրա, մենք պատրաստ ենք անցնել վերջերս թողարկված ACM «Պատասխանատու ալգորիթմական համակարգերի սկզբունքների մասին» (ի դեպ, քանի որ փաստաթղթի վերնագիրը վերաբերում է. պատասխանատու ալգորիթմական համակարգեր, դուք կարող եք դիտել իմ գնահատականը, թե ինչ է նշանակում խոսել Վստահելի AIՏես հղումն այստեղ).

Պատրաստվեք ճամփորդության դեպի AI-ի էթիկայի սկզբունքների այս վերջին փաթեթը:

Ուշադիր փորում ACM-ի կողմից հռչակված AI-ի էթիկայի կանոնները

Էթիկական AI-ի մասին ACM-ի հայտարարությունը բաղկացած է այս ինը հիմնաքարերից.

  • Օրինականություն և իրավասություն
  • Վնասը նվազագույնի հասցնելը
  • Անվտանգության եւ գաղտնիության
  • Թափանցիկություն
  • Մեկնաբանելիություն և բացատրելիություն
  • Պահպանելիություն
  • Վիճարկելիություն և ստուգելիություն
  • Պատասխանատվություն և պատասխանատվություն
  • Շրջակա միջավայրի վրա ազդեցության սահմանափակում

Եթե ​​դուք համեմատում եք այս վերջին հավաքածուն այլ նկատելիորեն մատչելի հավաքածուների հետ, ապա դրանց միջև կա մեծ նմանություն կամ նման համապատասխանություն:

Մի կողմից, դուք կարող եք դա ընդունել որպես լավ նշան:

Ընդհանուր առմամբ, մենք կարող ենք հուսալ, որ արհեստական ​​ինտելեկտի էթիկայի սկզբունքները, որոնք սավառնում են շուրջը, միավորվում են դեպի նույն ընդհանուր լուսաբանումը: Տեսնելով, որ մի հավաքածուն ինչ-որ չափով համեմատելի է մեկ այլ հավաքածուի հետ, ձեզ վստահության տեսք է տալիս, որ այս հավաքածուները գտնվում են նույն դաշտում և ինչ-որ կերպ դուրս չեն գալիս տարակուսելի ձախ դաշտում:

Ոմանց կողմից պոտենցիալ բողոքն այն է, որ այս զանազան հավաքածուները կարծես թե մոտավորապես նույնն են, ինչն այնուհետև, հնարավոր է, շփոթություն կամ առնվազն տարակուսանք է առաջացնում այն ​​անհանգստության պատճառով, որ մենք չպետք է ունենանք բազմաթիվ թվացյալ կրկնվող ցուցակներ: Չի՞ կարող լինել միայն մեկ ցուցակ: Խնդիրն, իհարկե, այն է, որ չկա պարզ միջոց, որպեսզի բոլոր նման ցուցակները միատեսակ լինեն: Տարբեր խմբեր և տարբեր կազմակերպություններ դրան մոտեցել են տարբեր ձևերով: Լավ նորությունն այն է, որ նրանք գրեթե բոլորը հանգել են նույն ընդհանուր եզրակացությանը: Մենք կարող ենք հանգստանալ, որ հավաքածուները մեծ տարբերություններ չունեն, ինչը, հնարավոր է, մեզ անհանգստացնի, եթե ընդհանուր կոնսենսուս չլիներ:

Հակառակը կարող է հորդորել, որ այս ցուցակների ընդհանրությունը մտահոգիչ է, պնդելով, որ միգուցե խմբակային մտածողություն կա: Թերևս բոլոր այս տարբեր խմբերը նույն կերպ են մտածում և չեն կարողանում նորմայից այն կողմ նայել։ Բոլորս էլ նույն թակարդն ենք ընկնում. Ցուցակները իբր խարսխում են մեր մտածողությունը, և մենք չենք կարողանում տեսնել մեր քթից այն կողմ:

Մեր քթից այն կողմ նայելը, անկասկած, արժանի գործ է:

Ես, անշուշտ, բաց եմ լսելու, թե ինչ են ասում հակառակորդները: Երբեմն նրանք քամի են բռնում մի բանից, որն ունի Տիտանական շարժվում է դեպի հսկա այսբերգ: Մենք կարող էինք օգտագործել արծվի աչքերի մի քանի դիտակներ: Սակայն արհեստական ​​ինտելեկտի էթիկայի այս սկզբունքների հարցում հակառակ կողմի կողմից վերջնականապես ձևակերպված որևէ բան չի եղել, որը ակնհայտորեն կրճատում է կամ անհանգստացնում է տեղի ունեցող անհարկի ընդհանրության վերաբերյալ: Կարծում եմ, որ մենք լավ ենք անում:

Այս ACM հավաքածուում կան մի քանի հատկապես ուշագրավ կամ առանձնահատուկ կետեր, որոնք, կարծում եմ, հատկապես արժանի են ուշադրության:

Նախ, ինձ դուր է գալիս վերին մակարդակի արտահայտությունը, որը փոքր-ինչ տարբերվում է նորմայից:

Օրինակ՝ անդրադառնալով օրինականություն և իրավասություն (Առաջին պարբերական կետը) հիշեցնում է AI-ի հետ կապված ինչպես դիզայների, այնպես էլ կառավարման իրավասությունների կարևորության տեսքը: Բացի այդ, լեգիտիմությունը խելամիտ արտահայտությունն ավարտվում է մեզ AI-ի էթիկայի մեջ և AI օրենքի տիրույթ. Ես սա ասում եմ, քանի որ արհեստական ​​ինտելեկտի էթիկայի կանոններից շատերը գրեթե ամբողջությամբ կենտրոնանում են էթիկական հետևանքների վրա, բայց կարծես թե բաց են թողնում կամ խուսափում են նաև նշել իրավական հետևանքները: Իրավական դաշտում էթիկական նկատառումները հաճախ հայտարարվում են որպես «փափուկ օրենք», մինչդեռ գրքերի մասին օրենքները մեկնաբանվում են որպես «կոշտ օրենքներ» (նշանակում է, որ դրանք կրում են իրավական դատարանների կշիռը):

Բոլոր ժամանակների իմ ամենասիրած ասույթներից մեկն ասել է հայտնի իրավաբան Էրլ Ուորենը. «Քաղաքակիրթ կյանքում օրենքը լողում է էթիկայի ծովում»:

Մենք պետք է համոզվենք, որ արհեստական ​​ինտելեկտի էթիկայի կանոնները ներառում և ընդգծում են իրերի կոշտ իրավական կողմը, ինչպես օրինակ՝ արհեստական ​​ինտելեկտի օրենքների մշակման, ընդունման և կիրարկման ժամանակ:

Երկրորդ, ես գնահատում եմ, որ ցուցակը ներառում է վիճարկելիություն և ստուգելիություն.

Ես բազմիցս գրել եմ վիճարկելու կամ կարմիր դրոշ բարձրացնելու արժեքի մասին, երբ դուք ենթարկվում եք AI համակարգին, տես. հղումն այստեղ. Ավելին, մենք գնալու ենք տեսնելու նոր օրենքներ, որոնք ստիպում են AI համակարգերին աուդիտի ենթարկել, որոնք ես երկար քննարկել եմ Նյու Յորքի (NYC) օրենքի մասին՝ աշխատողների աշխատանքի ընդունման և առաջխաղացման համար օգտագործվող AI համակարգերի աուդիտի վերաբերյալ կողմնակալության մասին օրենքի մասին, տես. հղումն այստեղ. Ցավոք սրտի, և ըստ իմ բացահայտ քննադատության NYC-ի նոր օրենքը, եթե այս աուդիտի մասին օրենքները թերի լինեն, նրանք հավանաբար ավելի շատ խնդիրներ կստեղծեն, քան կլուծեն:

Երրորդ, կա աստիճանական զարթոնք, որ AI-ն կարող է ներծծել կայունության խնդիրները, և ես ուրախ եմ տեսնել, որ բնապահպանական թեման ստացել է բարձր մակարդակի հաշվարկ այս AI-ի էթիկայի կանոններում (տես ցուցակի վերջին կետը):

AI համակարգի ստեղծման ակտը կարող է միայնակ սպառել շատ հաշվողական ռեսուրսներ: Այդ հաշվողական ռեսուրսները կարող են ուղղակիորեն կամ անուղղակիորեն լինել կայունության յուրացնողներ: Կա փոխզիջում, որը պետք է հաշվի առնել AI-ի տրամադրած օգուտների հետ համեմատած ծախսերի հետ, որոնք գալիս են AI-ի հետ միասին: ACM կետերից վերջինը նշում է կայունության և բնապահպանական նկատառումները, որոնք առաջանում են AI-ի հետ: AI-ի հետ կապված ածխածնի հետքի խնդիրների իմ լուսաբանման համար տե՛ս հղումն այստեղ.

Այժմ, երբ մենք երկինք ենք ուսումնասիրել AI-ի էթիկայի կանոնների ACM-ի ցանկը, մենք հաջորդաբար մեր մատներն ավելի խորն ենք դնում ջրերի մեջ:

Ահա բարձր մակարդակի AI-ի էթիկայի կանոններից յուրաքանչյուրի պաշտոնական նկարագրությունները (մեջբերված պաշտոնական հայտարարությունից).

1: «Օրինականություն և իրավասություն. Ալգորիթմական համակարգերի նախագծողները պետք է ունենան կառավարման իրավասություն և բացահայտ թույլտվություն՝ նման համակարգեր ստեղծելու և տեղակայելու համար: Նրանք նաև պետք է ունենան փորձ կիրառման ոլորտում, գիտական ​​հիմք ունենան համակարգերի նպատակային օգտագործման համար և լայնորեն դիտարկվեն որպես սոցիալապես լեգիտիմ համակարգի ազդեցության տակ գտնվող շահագրգիռ կողմերի կողմից: Պետք է իրականացվեն իրավական և էթիկական գնահատումներ՝ հաստատելու համար, որ համակարգերի կողմից ներկայացված ցանկացած ռիսկ համաչափ կլինի լուծվող խնդիրներին, և որ օգուտ-վնասի ցանկացած փոխզիջում հասկանալի է բոլոր համապատասխան շահագրգիռ կողմերի կողմից»:

2: «Վնասի նվազագույնի հասցնել. Կառավարիչները, դիզայներները, մշակողները, օգտագործողները և ալգորիթմական համակարգերի այլ շահագրգիռ կողմերը պետք է տեղյակ լինեն դրանց նախագծման, իրականացման և օգտագործման հետ կապված հնարավոր սխալների և կողմնակալության, ինչպես նաև այն հնարավոր վնասի մասին, որը համակարգը կարող է պատճառել անհատներին և հասարակությանը: Կազմակերպությունները պետք է պարբերաբար կատարեն ազդեցության գնահատումներ իրենց կիրառած համակարգերի վրա՝ որոշելու, թե արդյոք համակարգը կարող է առաջացնել վնաս, հատկապես խտրական վնաս, և կիրառել համապատասխան մեղմացումներ: Հնարավորության դեպքում նրանք պետք է դասեր քաղեն փաստացի կատարողականի չափորոշիչներից, այլ ոչ միայն անցյալի որոշումների օրինաչափություններից, որոնք իրենք կարող էին խտրական լինել»:

3: «Անվտանգություն և գաղտնիություն. Վնասակար կողմերի ռիսկերը կարող են մեղմվել՝ ներդրելով անվտանգության և գաղտնիության լավագույն փորձը համակարգերի կյանքի ցիկլի յուրաքանչյուր փուլում, ներառյալ ուժեղ հսկողությունը՝ մեղմելու նոր խոցելիությունները, որոնք առաջանում են ալգորիթմական համակարգերի համատեքստում»:

4: «Թափանցիկություն. Համակարգի մշակողները խրախուսվում են հստակորեն փաստաթղթավորել այն ձևը, որով ընտրվել են հատուկ տվյալների հավաքածուներ, փոփոխականներ և մոդելներ մշակման, վերապատրաստման, վավերացման և փորձարկման համար, ինչպես նաև հատուկ միջոցներ, որոնք օգտագործվել են տվյալների և արտադրանքի որակը երաշխավորելու համար: Համակարգերը պետք է նշեն իրենց վստահության մակարդակը յուրաքանչյուր արդյունքի նկատմամբ, և մարդիկ պետք է միջամտեն, երբ վստահությունը ցածր է: Մշակողները պետք է նաև փաստաթղթավորեն այն մոտեցումները, որոնք օգտագործվել են պոտենցիալ կողմնակալություններ հայտնաբերելու համար: Կյանքի և բարեկեցության վրա կարևոր ազդեցություն ունեցող համակարգերի համար պետք է պահանջվեն անկախ ստուգման և վավերացման ընթացակարգեր: Տվյալների և մոդելների հանրային ստուգումը առավելագույն հնարավորություն է տալիս ուղղելու համար: Այսպիսով, մշակողները պետք է դյուրացնեն երրորդ կողմի թեստավորումը՝ ելնելով հանրային շահերից»:

5: «Մեկնաբանելիություն և բացատրելիություն. Ալգորիթմական համակարգերի կառավարիչներին խրախուսվում է տեղեկատվություն արտադրել ինչպես կիրառվող ալգորիթմների ընթացակարգերի (մեկնաբանելիության), այնպես էլ նրանց կողմից ընդունված հատուկ որոշումների վերաբերյալ (բացատրելիության) վերաբերյալ: Բացատրելիությունը կարող է նույնքան կարևոր լինել, որքան ճշգրտությունը, հատկապես հանրային քաղաքականության համատեքստում կամ ցանկացած միջավայրում, որտեղ կան մտավախություններ այն մասին, թե ինչպես կարող են ալգորիթմները շեղվել, որպեսզի օգուտ քաղեն մի խմբի նկատմամբ՝ առանց ճանաչման: Կարևոր է տարբերակել բացատրությունները և փաստացի ռացիոնալացումները, որոնք չեն արտացոլում ապացույցները կամ որոշումների կայացման գործընթացը, որոնք օգտագործվում են բացատրվող եզրակացությանը հասնելու համար»:

6: «Պահպանելիություն: Բոլոր ալգորիթմական համակարգերի կայունության ապացույցները պետք է հավաքվեն իրենց կյանքի ցիկլի ընթացքում, ներառյալ համակարգի պահանջների փաստաթղթավորումը, փոփոխությունների նախագծումը կամ իրականացումը, փորձարկման դեպքերն ու արդյունքները, ինչպես նաև հայտնաբերված և ուղղված սխալների գրանցամատյանը: Պատշաճ սպասարկումը կարող է պահանջել վերապատրաստման համակարգեր նոր վերապատրաստման տվյալներով և/կամ կիրառվող մոդելների փոխարինում»:

7: «Վիճարկելիություն և ստուգելիություն. Կարգավորողները պետք է խրախուսեն մեխանիզմների ընդունումը, որոնք հնարավորություն կտան անհատներին և խմբերին կասկածի տակ դնել արդյունքները և փոխհատուցում փնտրել ալգորիթմականորեն տեղեկացված որոշումներից բխող բացասական հետևանքների համար: Ղեկավարները պետք է ապահովեն, որ տվյալները, մոդելները, ալգորիթմները և որոշումները գրանցվեն, որպեսզի դրանք հնարավոր լինի աուդիտի ենթարկել և արդյունքները կրկնօրինակել այն դեպքերում, երբ կասկածվում կամ ենթադրվում է վնաս: Աուդիտի ռազմավարությունները պետք է հրապարակվեն, որպեսզի անհատներին, հանրային շահերի կազմակերպություններին և հետազոտողներին հնարավորություն ընձեռվի վերանայել և առաջարկել բարելավումներ»:

8: «Պատասխանատվություն և պատասխանատվություն. Պետական ​​և մասնավոր մարմինները պետք է պատասխանատվություն կրեն իրենց կողմից օգտագործվող ալգորիթմներով կայացված որոշումների համար, նույնիսկ եթե հնարավոր չէ մանրամասն բացատրել, թե ինչպես են այդ ալգորիթմները տվել իրենց արդյունքները: Նման մարմինները պետք է պատասխանատու լինեն ամբողջ համակարգերի համար, որոնք տեղակայված են իրենց կոնկրետ համատեքստում, ոչ միայն առանձին մասերի համար, որոնք կազմում են տվյալ համակարգը: Երբ հայտնաբերվում են ավտոմատացված համակարգերում խնդիրներ, այդ համակարգերի տեղակայման համար պատասխանատու կազմակերպությունները պետք է փաստաթղթավորեն կոնկրետ գործողությունները, որոնք նրանք կձեռնարկեն խնդիրը վերացնելու համար և ինչ հանգամանքներում պետք է կասեցվի կամ դադարեցվի նման տեխնոլոգիաների օգտագործումը»:

9: «Շրջակա միջավայրի վրա ազդեցության սահմանափակում. Ալգորիթմական համակարգերը պետք է նախագծվեն, որպեսզի զեկուցեն շրջակա միջավայրի վրա ազդեցության գնահատականները, ներառյալ ածխածնի արտանետումները և՛ վերապատրաստման, և՛ գործառնական հաշվարկներից: AI համակարգերը պետք է նախագծված լինեն այնպես, որ ապահովեն, որ դրանց ածխածնի արտանետումները ողջամիտ են՝ հաշվի առնելով այն ճշգրտության աստիճանը, որը պահանջվում է այն համատեքստում, որտեղ դրանք տեղակայված են»:

Ես վստահ եմ, որ դուք ինտելեկտուալ արհեստական ​​ինտելեկտի էթիկայի այդ կարևոր սկզբունքներից յուրաքանչյուրին ուշադիր և վաղեմի ընթերցում կտաք: Խնդրում եմ նրանց սրտին մոտ ընդունեք:

Եզրափակում

ACM-ի հայտարարության մի նուրբ, բայց նույնքան կարևոր հատված կա, որը, կարծում եմ, շատերը կարող են ակամա անտեսել: Թույլ տվեք համոզվել, որ սա ձեր ուշադրությանը կներկայացնեմ:

Ես ակնարկում եմ մի հատվածի, որը քննարկում է արհեստական ​​ինտելեկտի էթիկայի կանոնների հետ կապված փոխզիջումները կշռելու անհրաժեշտության տանջող հանելուկը: Տեսեք, մարդկանց մեծամասնությունը հաճախ գլխով է անում, երբ կարդում է Էթիկական AI սկզբունքները և ենթադրում է, որ բոլոր կանոնները հավասար են քաշի, և բոլոր կանոններին միշտ կտրվի հարգանքի և արժեքի նույն օպտիմալ տեսքը:

Ոչ իրական աշխարհում:

Երբ կաուչուկը հանդիպի ճանապարհին, ցանկացած տեսակի AI, որն ունի նույնիսկ փոքր բարդություն, կատաղի կերպով փորձարկելու է AI-ի էթիկայի սկզբունքները, քանի որ որոշ տարրեր բավականաչափ հասանելի են որոշ այլ սկզբունքների նկատմամբ: Ես հասկանում եմ, որ դուք կարող եք բարձրաձայն բացականչել, որ ամբողջ AI-ն պետք է առավելագույնի հասցնի AI-ի էթիկայի բոլոր սկզբունքները, բայց դա հատկապես իրատեսական չէ: Եթե ​​դա այն դիրքորոշումն է, որը դուք ցանկանում եք ընդունել, ես համարձակվում եմ ասել, որ հավանաբար պետք է ասեք AI ստեղծողների և օգտագործողների մեծ մասին կամ գրեթե բոլորը փակել խանութը և ընդհանրապես հեռացնել AI-ն:

Փոխզիջումներ պետք է արվեն՝ արհեստական ​​ինտելեկտը դուրս հանելու համար: Այսպես ասած, ես չեմ ջատագովում AI-ի էթիկայի կանոնները խախտող անկյունները կտրելու կողմնակից, և ոչ էլ ակնարկում, որ նրանք պետք է խախտեն AI-ի օրենքները: Հարկավոր է հասնել որոշակի նվազագույնի, և որից վեր նպատակն ավելի շատ ձգտելն է: Ի վերջո, հավասարակշռությունը պետք է ուշադիր դատել: Այս հավասարակշռող ակտը պետք է կատարվի գիտակցաբար, բացահայտ, օրինական կերպով և AI Էթիկան որպես բարեխիղճ և անկեղծ համոզմունք (կարող եք ցանկանալ տեսնել, թե ինչպես են ընկերությունները օգտագործում AI-ի էթիկայի խորհուրդները՝ փորձելով ձեռք բերել այս հանդիսավոր մոտեցումը, տես. հղումն այստեղ).

Ահա որոշ կետեր, որոնք ACM-ի հռչակագիրը նշում է փոխզիջումների բարդությունների վերաբերյալ (մեջբերված է պաշտոնական փաստաթղթից).

  • «Լուծումները պետք է համաչափ լինեն լուծվող խնդրին, նույնիսկ եթե դա ազդում է բարդության կամ ծախսերի վրա (օրինակ՝ կանխատեսման պարզ առաջադրանքի համար հանրային տեսահսկման օգտագործումը մերժելը):
  • «Պետք է դիտարկել կատարողականի ցուցանիշների լայն տեսականի, որոնք կարող են տարբեր կերպ կշռվել՝ ելնելով կիրառական տիրույթից: Օրինակ, որոշ առողջապահական ծրագրերում կեղծ բացասականների հետևանքները կարող են շատ ավելի վատ լինել, քան կեղծ դրականները, մինչդեռ քրեական արդարադատության մեջ կեղծ դրականի հետևանքները (օրինակ՝ անմեղ մարդուն բանտարկելը) կարող են շատ ավելի վատ լինել, քան կեղծ բացասականները: Գործառնական համակարգի ամենացանկալի կարգավորումը հազվադեպ է առավելագույն ճշգրտությամբ»:
  • «Գաղտնիության, առևտրային գաղտնիքների պաշտպանության կամ վերլուծությունների բացահայտումը, որը կարող է թույլ տալ չարամիտ խաղացողներին խաղալ համակարգում, կարող են արդարացնել որակավորված անձանց մուտքի սահմանափակումը, սակայն դրանք չպետք է օգտագործվեն երրորդ կողմի վերահսկողությունը սահմանափակելու կամ մշակողներին պարտավորությունից ազատելու համար։ սխալները ճանաչելու և վերանորոգելու համար»:
  • «Թափանցիկությունը պետք է զուգակցվի հաշվետվողականության գործընթացների հետ, որոնք հնարավորություն են տալիս ալգորիթմական համակարգի ազդեցության տակ գտնվող շահագրգիռ կողմերին փնտրել հասցված վնասների իմաստալից փոխհատուցում: Թափանցիկությունը չպետք է օգտագործվի համակարգը օրինականացնելու կամ պատասխանատվությունն այլ կողմերին փոխանցելու համար»:
  • «Երբ համակարգի ազդեցությունը մեծ է, ավելի բացատրելի համակարգը կարող է նախընտրելի լինել: Շատ դեպքերում բացատրելիության և ճշգրտության միջև փոխզիջում չկա: Որոշ համատեքստերում, սակայն, սխալ բացատրությունները կարող են նույնիսկ ավելի վատ լինել, քան բացատրություն չլինելը (օրինակ՝ առողջապահական համակարգերում ախտանիշը կարող է համապատասխանել բազմաթիվ հնարավոր հիվանդությունների, ոչ միայն մեկի)»։

Նրանք, ովքեր զարգացնում կամ օգտագործում են արհեստական ​​ինտելեկտը, կարող են բացահայտորեն չհասկանալ, թե իրենց առջև ծառացած փոխզիջումները: Ընկերության բարձրաստիճան ղեկավարները կարող են միամտորեն ենթադրել, որ AI-ն համապատասխանում է AI-ի էթիկայի բոլոր սկզբունքների առավելագույնին: Նրանք կա՛մ հավատում են դրան, որովհետև անտեղյակ են AI-ի մասին, կա՛մ ուզում են հավատալ դրան և միգուցե աչքով են անում, որպեսզի հեշտությամբ ընդունեն AI-ն:

Հավանականությունն այն է, որ փոխզիջումներին էականորեն և բացահայտորեն դիմակայելու ձախողումը կհանգեցնի արհեստական ​​ինտելեկտի հետ, որը կվնասի: Այդ վնասներն իրենց հերթին, ամենայն հավանականությամբ, ընկերությանը կբացեն պոտենցիալ լայնածավալ պարտավորությունների համար: Բացի այդ, սովորական օրենքները կարող են կիրառվել արհեստական ​​ինտելեկտի հետ կապված հնարավոր հանցավոր գործողությունների համար, ինչպես նաև AI-ի վրա կենտրոնացած ավելի նոր օրենքները, որոնք նույնպես ազդում են դրա վրա: Մի տոննա աղյուսներ սպասում են նրանց գլխի վերևում, ովքեր կարծում են, որ կարող են հաղթահարել իրենց ճանապարհը փոխզիջումների շուրջ, կամ ովքեր խորապես չգիտեն, որ փոխզիջումները գոյություն ունեն (ջախջախիչ գիտակցումն անխուսափելիորեն կբախվի նրանց վրա):

Այս թեմայի վերաբերյալ ես առայժմ վերջին խոսքը կասեմ ACM-ի հայտարարության եզրափակիչ ասպեկտին, քանի որ կարծում եմ, որ այն լավ աշխատանք է կատարում՝ բացատրելու, թե այս Էթիկական AI-ի կանոնները մակրոսկոպիկորեն նպատակ ունեն առաջ բերել.

  • «Նախորդ առաջարկությունները կենտրոնացած են ալգորիթմական համակարգերի պատասխանատու նախագծման, մշակման և օգտագործման վրա. պատասխանատվությունը պետք է որոշվի օրենքով և հանրային քաղաքականությամբ: Ալգորիթմական համակարգերի աճող հզորությունը և դրանց օգտագործումը կյանքի համար կարևոր և հետևանքային ծրագրերում նշանակում է, որ պետք է մեծ զգույշ լինել դրանք օգտագործելու համար: Այս ինը գործիքային սկզբունքները կոչված են ոգեշնչող քննարկումներ սկսելու, հետազոտություններ սկսելու և կառավարման մեթոդներ մշակելու համար՝ օգուտներ բերելու օգտվողների լայն շրջանակին՝ միաժամանակ խթանելով հուսալիությունը, անվտանգությունը և պատասխանատվությունը: Ի վերջո, դա կոնկրետ համատեքստն է, որը սահմանում է ալգորիթմական համակարգի ճիշտ ձևավորումը և օգտագործումը՝ համագործակցելով բոլոր ազդակիր շահագրգիռ կողմերի ներկայացուցիչների հետ» (մեջբերված է պաշտոնական փաստաթղթից):

Ինչպես խորաթափանցորեն ասում են մեզ իմաստության խոսքերը, հազար մղոնների ճանապարհորդությունը սկսվում է առաջին քայլից:

Ես խնդրում եմ ձեզ ծանոթանալ արհեստական ​​ինտելեկտի էթիկայի և արհեստական ​​ինտելեկտի իրավունքի հետ՝ կատարելով առաջին քայլը, որը ձեզ կբերի առաջընթացի, այնուհետև օգնեք առաջ տանել այս կենսական ջանքերը: Գեղեցկությունն այն է, որ մենք դեռ մանկության մեջ ենք՝ սովորելու, թե ինչպես կառավարել և հասարակության մեջ կառավարել AI-ն, այսպիսով, դուք մտնում եք առաջին հարկ, և ձեր ջանքերը կարող են ակնհայտորեն ձևավորել ձեր ապագան և ապագան բոլորիս համար:

AI-ի ճանապարհորդությունը նոր է սկսվել, և կենսական առաջին քայլերը դեռ շարունակվում են:

Աղբյուր՝ https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- մասնագիտություն-ասոցիացիա-ակ/